Está en la página 1de 25

lOMoARcPSD|8762290

Resumen botella Estadistica Catedra Muinos

Estadística (Universidad de Buenos Aires)

Studocu is not sponsored or endorsed by any college or university


Downloaded by Sofia Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Estadística Cátedra Muiños

1ºParcial
Reuchlin Cap. 1 – El carácter variable de las conductas.
La conducta de una persona puede cambiar en función de la situación en que se
encuentre y es diferente según la persona.

OM
Esta variabilidad se divide en 2 partes: se las denomina previsibles cuando se
conoce la situación, el momento o la persona, por otra parte, estas variaciones
son imprevisibles a partir de las informaciones de las que dispone el observador.
- Las variaciones que son imprevisibles lo son porque no están
asociadas a una fuente de variación sistemática. Éstas se atribuyen a un
conjunto de fuentes fortuitas de variación. Se asocian al azar.

C
- Las variaciones que son previsibles están asociadas a fuentes
sistemáticas de variación.
D.
Estas variaciones pueden compararse si se dispone de series de
observaciones. La estadística se usa para analizar estas series, y para que
el análisis tenga sentido, las series deben reunirse de manera coherente.
AD
Las fuentes sistemáticas de variación algunas veces pueden actuar a la vez.
Cuando el investigador plantea una hipótesis acerca de los efectos que
puedan llegar a producir las fuentes sistemáticas de variación, comienza por
verificar si cada una de ellas tiene un efecto no nulo y significativo. Podrá
averiguar cuáles son las fuentes de variación más importantes, es decir, las
L

que contribuyen a las variaciones de las observaciones, a partir de esto, se


debe explicar el fenómeno. Se debe evaluar el peso que toman las fuentes
FI

fortuitas de variación, ya que, si es grande con relación a las fuentes


sistemáticas, será difícil poner en evidencia las últimas, ya que quedaran
ahogadas dentro de las fortuitas.


Reuchlin Cap. 2 – Resúmenes estadísticos en el nivel de las escalas


nominales.
Para distinguir las distintas variaciones se hacen resúmenes de series de
observaciones, esto les permitirá razonar sobre conjuntos de observaciones,
puede hacerse de manera tal que se ponga en evidencia un aspecto
particular de la información contenida en estas observaciones y llegar así a
poseer un instrumento de análisis de esta información.
Los métodos estadísticos y los de resumen se aplican a observaciones que
pueden describirse mediante números, los métodos que permiten esto son
métodos de medida (hacen corresponder números a las cosas). Estos

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

métodos dependen de la competencia del psicólogo porque esa elección les


confiere propiedades a los números obtenidos, estas propiedades
determinan los métodos estadísticos que pueden emplearse.
Se distinguen 3 niveles de medida: hay una jerarquía entre los niveles y el
más bajo es el de las escalas nominales.
Para construir una escala nominal, el psicólogo debe repartir a sus
observaciones un cierto número de clases y su conjunto constituye la escala.
Cada observación puede pertenecer sólo a una clase. 2 observaciones que
pertenezcan a una misma clase se consideran equivalentes.

OM
Una vez realizada la partición de las observaciones, se van a poder utilizar
números para describir y resumir esta serie. Los números designan qué
pertenece a una clase u otra. El número de observaciones que pertenecen a
una clase es el efectivo de esta clase. Después de aplicar una escala nominal
a una serie de observaciones, se puede hacer una tabla numérica que
proporcione para cada clase su efectivo.

Botella Cap. 1 – Conceptos generales.

C
D.
La estadística es un conjunto de técnicas para resumir y transmitir
información cuantitativa, pero además sirve para hacer inferencias,
AD
generalizaciones y extrapolaciones en un conjunto relativamente pequeño de
datos a un conjunto mayor.
Un parámetro es una propiedad descriptiva de una población.
Un estadístico es una propiedad descriptiva de una muestra.
L

En la práctica, no hace falta repetir el experimento, ya que, al obtener una


muestra, se puede a partir de ella, tratar de estimar el parámetro. Para ello la
FI

muestra debe ser representativa de la población y que el estadístico


calculado reúna la información necesaria y suficiente.
Los parámetros se representan con letras griegas y los estadísticos con letras
latinas.


Una característica es una propiedad o cualidad de un individuo.


Una modalidad es cada una de las maneras como se presenta una
característica.
Una característica puede presentar diferentes modalidades.
La estadística no realiza sus funciones directamente sobre las modalidades,
sino que éstas deben ser representadas por números y la estadística realiza
sus funciones sobre esos números.
Se denomina medición al proceso de atribuir números a las características.
Se trata de un sistema relacional numérico, ya que está formado por un
conjunto de entidades (números) y las relaciones entre ellos.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

El objetivo de la medición es conectar el sistema relacional empírico con el


numérico de forma tal que las relaciones entre ellas se reflejen en las
relaciones entre los números que los simbolizan. A partir de ellos se podrán
realizar inferencias válidas.
Los modelos desarrollados para la medición se llaman escalas. Existen
escalas cualitativas nominales, cuasi cuantitativas ordinales, cuantitativas de
intervalo y de razón.
Stevens se centra en aquellas características que considera relevantes para
la investigación y a ella aplica un esquema de clasificación para organizar las

OM
observaciones en clases de equivalencias. Se utiliza una clase por cada una
de las modalidades que adopta la característica. Las clases son exclusivas y
exhaustivas, cada observación es incluida en sólo una clase.
• La escala cualitativa nominal: es un tipo sencillo de medición, los
números asignados no se van a utilizar como tales, sino como simples
códigos de identificación. Sólo informan la igualdad o desigualdad en

C
una característica. En una escala nominal son admisibles todas las
transformaciones que supongan aplicaciones inyectivas y estas
transformaciones determinan el tipo de escala.
D.
• La escala cuasi cuantitativa ordinal: consiste en la aplicación de
números a las diferentes cantidades, pero ahora de forma tal que los
numero asignados a los objetos reflejen los distintos grados en los que
AD
se presenta la característica. Además de determinar si se pertenecen
o no a la misma modalidad, pueden establecerse relaciones de “mayor
que” o “menor que”, puede decirse cuál de ellos presenta en mayor
magnitud la característica. Los objetos pueden ordenarse. Éstas
también tienen transformaciones admisibles y se denominan
L

transformaciones crecientes.
• La escala cuantitativa intervalar: cuenta con una unidad de medida.
FI

Se puede extraer consecuencias acerca de la igualdad o desigualdad


de diferencias. Se realizan afirmaciones acerca de las diferencias de
magnitudes. Las transformaciones admisibles deben ser lineales. En
el origen asignado a la escala, los valores son arbitrarios. La principal
limitación es que esta unidad de medida no cuenta con un 0 absoluto.


El 0 no representa la ausencia de esa característica.


• La escala cuantitativa de razón: cumple con la función de preservar
el significado del valor 0, de forma tal que siempre represente la
ausencia de esa característica. La consecuencia de esto es que
además de extraer conclusiones acerca de la igualdad o desigualdad
de diferencias, también puede hablarse de la igualdad o desigualdad
de razones. La única transformación posible es la de multiplicar por
una constante positiva, para preservar el 0.
El conjunto de valores numéricos atribuidos a las modalidades de una
característica constituye una variable estadística. Cuando la característica
presenta una única modalidad se denomina constante.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Las variables pueden clasificarse según al tipo de escala a la cual


pertenecen en nominales, ordinales, intervalares o de razón.
Las variables cuantitativas pueden clasificarse en discretas o continuas,
en función del número de los valores asumibles por ellas:
- Una variable discreta es aquella que adopta valores aislados (fijados 2
consecutivos, no puede adoptar ninguno intermedio)
- En las variables continuas entre 2 valores por más cercanos que sean,
pueden encontrarse valores intermedios.
Las variables estadísticas se simbolizan por letras mayúsculas latinas y con

OM
un subíndice para distinguirlas de las constantes.

Botellas Cap. 2 – Organización y representación de datos.


Para organizar una gran cantidad de números recolectados se utiliza la

C
distribución de frecuencias. A partir de ella se pueden construir
representaciones gráficas. D.
La distribución de frecuencias debe cumplir con 3 funciones:
1) Proporcionar una reorganización y ordenación racional de los datos
recogidos.
AD
2) Obtener la información necesaria para hacer representaciones gráficas.
3) Facilitar los cálculos necesarios para obtener los estadísticos muestrales.
En ella aparecen varios elementos:
- Frecuencia absoluta: Es la cantidad de veces que se repite cada valor
de la variable en un conjunto de datos. La suma de las frecuencias
L

absolutas es igual a la totalidad de los datos.


- Frecuencias relativas: Se divide las frecuencias absolutas por la
FI

totalidad de los datos. La suma de las frecuencias relativas es igual a 1.


- Frecuencia absoluta acumulada: Se suma para cada valor su
frecuencia absoluta más la frecuencia absoluta acumulada del valor
anterior. La suma acumulada es igual al tamaño de la muestra.


- Frecuencia relativa acumulada: Se divide cada frecuencia absoluta


acumulada por el tamaño de la muestra.
La distribución de frecuencias se organiza en forma de tabla y en la primera
columna se deben poner los valores que adopta la variable. Cuando hay
valores intermedios que no se encuentran, para que la tabla no sea
demasiado larga, los datos se agrupan en intervalos y se calculan las
frecuencias.
Los intervalos deben cumplir con 3 normas:
- El superior debe incluir al mayor valor observado.
- El inferior debe incluir al menor valor observado
- Cada intervalo debe incluir el mismo número de valores.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Las representaciones gráficas cumplen la función de dar informaciones


globales simplemente mirando.
1) Diagrama de rectángulos: En el eje de abscisas se colocan las variables
y en el eje de ordenadas las frecuencias. Se levantan rectángulos todos
de igual base y la altura corresponde al valor de la frecuencia. Se suele
utilizar para variables ordinales, aunque también algunas nominales.
2) Pictograma: Circulo de 360º. Se asigna un ángulo para cada valor de la
variable. Se utiliza en variables nominales.
3) Diagrama de barras: Se utiliza para variables cuantitativas discretas. Se
colocan los distintos valores de la variable en el eje de abscisas y las

OM
frecuencias en el de ordenadas. Se traza una barra cuya altura debe ser
igual a la frecuencia.
4) Histograma: Se utiliza para variables cuantitativas continuas con datos
agrupados en intervalos. En el eje de abscisas se colocan los límites
exactos de los intervalos y el de ordenadas las frecuencias. Sobre cada
intervalo se levanta un rectángulo cuya altura es igual a la frecuencia

C
correspondiente.
5) Polígono de frecuencias: Para variables discretas es la figura que
resulta de unir los extremos superiores de las que hubieran sido las
D.
barras. Si se trata de una continua es lo mismo, pero referido a los puntos
medios de las bases superiores de los rectángulos del histograma. Se
utiliza para la comparación de variables cuantitativas.
AD
6) Diagrama de rectángulos adyacentes: Se utiliza para la comparación
de variables cualitativas o cuasi cuantitativas.
La distribución de frecuencias presenta 4 propiedades:
a) Tendencia central: Es una magnitud general de las observaciones
L

hechas, puede cuantificarse mediante unos índices de tendencia central


o promedios (pretenden ser síntesis de los valores de la variable).
FI

b) Variabilidad: Se refiere al grado de concentración de las observaciones


entorno al promedio.
c) Asimetría o sesgo: Se refiere al grado en que los datos tienden a
concentrarse en los valores centrales, en los inferiores al promedio o
superiores a éste.


d) Curtosis: Se refiere al grado de apuntalamiento de la distribución de


frecuencias.

Botella Cap. 3 – Medidas de posición.


Las medidas de posición son índices diseñados para revelar la situación de una
puntuación con respecto a un grupo.
Un tipo de ella, son las medidas de tendencia central y las medidas de posición
más generales son los llamados cuantiles.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

- Centiles o percentiles: Son 99 valores de la variable que dividen a la


distribución en 100 secciones, cada una conteniendo la centésima parte
de las observaciones. Se pueden representar por la inicial de cada uno de
los términos, más el subíndice correspondiente 𝐶𝜅 o 𝑃𝑘 (k= 1, 2, 99).
A veces se usan posiciones intermedias (Ej.: el centil 88,5). Los valores
correspondientes a los Centiles se determinan en función de los
porcentajes de observaciones. Las distancias entre los Centiles
intermedios serán menores que entre los Centiles extremos.
Sucede esto porque suelen obtenerse más valores intermedios que
extremos. No suelen calcularse con pequeñas cantidades de datos, se

OM
obtienen sobre datos agrupados en intervalos. Los límites exactos
superiores de los intervalos dejan por debajo esas cantidades de
observaciones.

Otros cuantiles son:

- Deciles: Son 9 puntuaciones que dividen a la distribución en 10 partes,

C
cada una conteniendo al 10 por 100 de las observaciones. Se representan
𝐷10 donde 𝑘 indica al número de decil que se refiere. Su fórmula es igual
D.
a los Centiles correspondientes a cada decil.
- Cuartiles: Son 3 puntuaciones que dividen a la distribución en 4 partes,
cada una contiene 25 de 100 observaciones. Se representa por 𝑄𝑘 , donde
𝑘 indica al número de cuartil que se refiere. La fórmula es la misma de los
AD
Centiles correspondientes a cada cuartil.

Botella Cap. 4 – Medidas de tendencia central.


L

La media se define como la suma de los valores observados, dividida por el


número de ellas. Se representa con la misma letra que la variable 𝑥̅ .
FI

La media se comporta como si fuera el centro de gravedad de la distribución.


Para hallarla se asume el supuesto de concentración en el punto medio del
intervalo.


A las puntuaciones que son los valores brutos se las denomina puntuaciones
directas y se representan por 𝑋𝑖 .
A las diferencias de cada sujeto con respecto a la media grupal las
denominaremos puntuaciones diferenciales y se representan 𝑥𝑖 .
Propiedades de la media:
- Con las puntuaciones diferenciales se puede dar información más precisa.
Y su suma es igual a 0. Esto sucede porque algunas son positivas y otras
negativas, entonces se compensan.

- La suma de los cuadrados de las desviaciones de más puntuaciones con


respecto a su media es menor que con respecto a cualquier otro valor.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

- Si sumamos una constante a un conjunto de puntuaciones, la media


quedará aumentada en esa misma constante.

- Si multiplicamos por una constante a un conjunto de puntuaciones, la


media quedará multiplicada por la misma constante.

- La media total de un grupo de puntuaciones, cuando se conocen los


tamaños y medias de varios subgrupos hechos a partir del grupo total,
puede obtenerse ponderando las medias parciales a partir de los tamaños

OM
de los subgrupos en que han sido calculadas.

- Una variable definida como la combinación lineal de otras variables tiene


como media la misma combinación lineal de las medias de las variables
intervinientes en su definición.

C
La mediana consiste en tomar aquella puntuación que fuera superada por la
mitad de las observaciones, pero no por la otra mitad. Se representa como 𝑀ⅆ𝑛 .
D.
En caso de número impar de observaciones se toma como mediana el valor
central. En caso de número par de observaciones se da la circunstancia de que
cualquier valor comprendido entre los dos centrales cumple con la definición de
la mediana.
AD

Su cálculo en la distribución de frecuencias se obtiene aplicando la fórmula del


Centil 50.
La moda se define como el valor de la variable con mayor frecuencia absoluta.
Se representa como 𝑀𝑜
L

Para obtenerla se ordenan los valores de menor a mayor para la identificación


FI

de la mayor frecuencia.
• Si todos los valores tienen la misma frecuencia, es una distribución
amodal.
• Si hay 2 valores con la misma frecuencia, la distribución es bimodal.


• Si comparten 2 valores la misma frecuencia, pero son valores


adyacentes, se toma como moda a la media de esos 2 valores.
• Si hay una distribución de frecuencias se toma como moda el punto
medio del intervalo con mayor frecuencia.

Botella Cap. 5 – Medidas de variación.


Son procedimientos para cuantificar la variabilidad y los más importantes son la
varianza y la desviación típica. Se trabaja con las distancias desde los valores,
hasta algún poste central, que podría ser la media; y basar la medición de la
dispersión en algún tipo de separación promedio hasta ese poste.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Una solución al problema de las distancias con respecto a la media, cuando


suma 0, consiste en elevar al cuadrado esas distancias antes de hallar su
promedio, dado que los cuadrados son siempre positivos. Esto se denomina
varianza y se representa Sx2 , donde el subíndice recoge la letra con la que se
representa la variable.
El promedio del cuadrado de estas cantidades es la varianza de las
puntuaciones. Esto sirve para comparar el grado de dispersión de 2 o más
conjuntos de valores en una misma variable.
Para retomar las unidades originales de las distancias anteriormente elevadas al

OM
cuadrado, se calcula la raíz cuadrada de la cantidad obtenida. Al índice hallado
se lo denomina desviación típica. Se define como la raíz cuadrada de la varianza
y se representa como Sx .
Es un mejor descriptor de la variabilidad, aunque la varianza es idónea para
basar en ella los análisis estadísticos complejos.

C
La variabilidad de los datos refleja el hecho de las diferencias individuales y éstos
son objeto de estudio de la psicología. D.
Si el poste central utilizado para hallar las distancias no es la media, se ha
propuesto la mediana.
Otra alternativa es la cuasi-varianza. Comparte el mismo numerador que la
AD
varianza y tienen una relación directa.
Propiedades:
1- Un conjunto de valores puede mostrar mayor o menor grado de
homogeneidad, el menor se produce cuando los valores son idénticos, en
este caso las desviaciones con respecto a su media es 0, y como
L

consecuencia la varianza también es 0. La varianza y desviación son


valores positivos.
FI

2- Para sumarle una constante a las puntuaciones observadas no hace falta


calcular la varianza de las puntuaciones transformadas, sino que se
deduce conociendo la varianza de las puntuaciones originales, es decir,
su varianza no se altera.


3- Si se quiere multiplicar una constante, la varianza se altera, quedará


multiplicada por el cuadrado de la constante y la desviación típica por el
valor absoluto de esa constante.
4- La varianza total de un grupo de puntuaciones cuando se conocen los
tamaños, la medias y las varianzas de varios subgrupos hechos a partir
del grupo total, mutuamente exclusivos y exhaustivos, puede obtenerse
sumando la media (ponderada) de las varianzas y la varianza (ponderada)
de las medias.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Otras medidas de variación:


Para calcular la dispersión se calcula las distancias entre el mayor y el menor de
los valores observados. Este índice se llama amplitud total, rango o recorrido y
se obtiene hallando la diferencia entre los valores extremos. Se representa como
AT.
Algunos proponen calcularlo sumándole 2 veces la mitad de la unidad medida.
Se distinguen entre ambos tipos de amplitud, las de rango incluyente y
excluyente; y se usan en variables discretas y continuas. La desventaja es que
es sensible a valores extremos y para nada a los intermedios.

OM
Se encuentra ligado al tamaño de la muestra.
Otro índice de dispersión consiste en tomar las desviaciones con respecto a la
media o puntuaciones diferenciales en valor absoluto. Se denomina desviación
de la media y se representa Dm.

C
Representa un promedio de las distancias tomadas en valor absoluto y
representa bien el concepto de dispersión y su cuantificación.
D.
Otro índice es la amplitud semi- intercuartil, se da cuando en las puntuaciones
hay algún valor extremo que puede distorsionar la representatividad de la
varianza. Se representa por Ԛ.
AD
A veces se quiere comparar la variabilidad de grupos cuya media es distinta. El
índice es el coeficiente de variación, está representado por Cv. Puede
considerarse como un índice de representatividad de la media. Cuanto mayor es
el coeficiente de variación menos representativa es la media.
L

Botella Cap. 7 – Medidas de asimetría y Curtosis.


FI

El grado de asimetría de una distribución hace referencia al grado en que los


datos se reparten equilibradamente por encima y por debajo de la tendencia
central. Una distribución equilibrada sería aquella en que las frecuencias se
repartiesen imparcialmente en torno a la media.


Hay 3 tipos de distribución: Simétrica, Asimétrica positiva y asimétrica negativa.


El primer índice se basa en la relación entre la media y la moda, y se define como
la distancia entre la media y la moda medida en desviaciones típicas. Se
representa como As.
Cuando la media es inferior a la moda, este índice da un valor negativo. Si la
media es superior a la moda, el índice da un valor positivo. En el caso de que
ambos índices coincidan, el índice de asimetría dará cero y se denomina
distribución simétrica, porque no se inclina para ningún lado, es perfecta. Este
índice tiene la dificultad de que sólo se puede calcular en distribuciones
unimodales.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Un segundo índice es la asimetría de Pearson, es igual al promedio de las


puntuaciones típicas elevadas al cubo. Su interpretación es igual al nivel anterior,
los valores menores a cero indican asimetrías negativas, los mayores a cero
asimetrías positivas y los valores entorno a cero indican distribuciones
aproximadamente simétricas.
El índice de asimetría intercuartílico, se basa en los cuartiles. La interpretación
es similar a los índices anteriores, pero tiene una ventaja sobre ellos, y es que
tiene como valor máximo y mínimo a +1 y -1, con lo que se facilita la
interpretación en términos relativos.

OM
Índice de Curtosis:
Se basa en el promedio de las típicas elevadas a la cuarta potencia.
Se le resta un 3 al índice porque lo que se consigue es utilizar ese modelo como
patrón de comparación.

C
Una distribución en la que el índice es igual a cero, tiene un grado de Curtosis
similar al de la distribución normal, es mesocúrtica.
D.
Si su apuntalamiento es positivo, es mayor que el de la distribución normal, es
leptocúrtica.
AD
Si es negativo su apuntalamiento, es menor que la distribución normal, es
platicúrtica.
L

2º Parcial
FI

Botella Cap. 11 – Probabilidad.


Un experimento aleatorio es toda acción cuyo resultado no se puede predecir
con certeza. Cada uno de los resultados posibles de un experimento aleatorio se
llama suceso elemental, el experimento aleatorio da lugar a uno y sólo un suceso


elemental de entre todos los posibles. Al conjunto de sucesos elementales se le


llama espacio muestral y se representa por E.
Se llama verificación de un suceso elemental al hecho de que la realización del
experimento aleatorio produzca ese suceso elemental.
Sobre los espacios muestrales, como conjuntos, se pueden definir subconjuntos,
denominados sucesos. Un suceso se verificará cuando el experimento aleatorio
de lugar a uno de los sucesos elementales que integran el subconjunto que lo
define. En ocasiones se definen sucesos a partir de subconjuntos vacíos, esto
se denomina suceso imposible. En otras ocasiones, se definen sucesos cuyo
subconjunto constituyente está formado por todos los elementos del espacio
muestral, esto se denomina suceso seguro.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

A) Se llamará unión (∪) de dos sucesos al subconjunto de elementos del


espacio muestral que están incluidos en, al menos, uno de esos sucesos.
B) Se llama intersección (∩) de dos sucesos al subconjunto del espacio
muestral formado por los sucesos elementales que pertenece
simultáneamente a ambos sucesos. Cuando la intersección de ellos es un
subconjunto vacío, se dice que son sucesos incompatibles.

C) Se llama diferencia (-) de dos sucesos al subconjunto del espacio muestral


integrados por los sucesos elementales que pertenecen al primero, pero
no al segundo.

OM
D) Se llama complementario (A’) de un suceso al subconjunto del espacio
muestral integrado por suceso elementales que no participan en el
suceso.

Los espacios muestrales se clasifican en finitos e infinitos y estos últimos se

C
dividen en numerables y no numerables.
1) Espacios muestrales finitos: Es finito si tiene un número de sucesos
elementales finitos.
D.
2) Espacios muestrales infinitos numerables: Tiene infinitos sucesos
elementales, pero pueden ponerse en correspondencia biunívoca con los
números naturales.
AD
3) Espacios muestrales infinitos no numerables: Tiene infinitos sucesos
elementales, pero no pueden ponerse en correspondencia biunívoca con
los números naturales.
L

La probabilidad de un suceso es un número que cuantifica en términos relativos


las opciones de verificación del suceso.
FI

Hace referencia a cómo los eventos puntuales que tienen resultados inciertos, al
estudiar su repetición un número grande de veces, comienzan a tener resultados
previsibles globalmente y a mostrarse sujetos a ciertas leyes. Habla de las
frecuencias con las que ocurrirían las cosas en el caso hipotético de que los


eventos se repitiesen un número infinito de veces y en las mismas condiciones.


La confianza puesta en cada uno de los resultados posibles debe ser
directamente proporcional al número de repeticiones que de cada una de las
alternativas se den en el futuro. Se les asignan números a los grados de
confianza.
Las opciones se cuantifican en términos relativos para que sean números
comparables (oscilan entre 0 y 1). Los sucesos posibles pero raros obtienen 0 y
los que son casi seguros, valores cercanos a 1.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

El enfoque clásico: Exige la aceptación del principio de indiferencia, según el


cual todos los elementos tienen las mismas opciones de ser verificados al
realizar el experimento. Con esto se define la probabilidad como la frecuencia
relativa de ese suceso en el espacio muestral.
Propiedades:
a) La probabilidad del suceso oscila entre 0 y 1.
b) Un suceso que no contiene ningún suceso elemental, es un suceso
imposible y su probabilidad es 0.

OM
c) Un suceso seguro tiene de probabilidad 1.
d) La suma de las probabilidades de un suceso y su complementario es igual
a 1.
El enfoque frecuencialista: No siempre puede asumir el principio de
indiferencia. La probabilidad se determina mediante una operación de repetición

C
sistemática del experimento aleatorio y de conteo del número de veces que se
verifican los sucesos. El número de veces que se realiza el experimento debe
ser infinitamente grande.
D.
La diferencia entre los enfoques es que, en el primero, n era el tamaño de la
muestra y en el segundo, el número de repetición del experimento aleatorio.
AD

Botella Cap. 12 – Variables aleatorias.


Una variable aleatoria es una función que asocia un número real, y sólo uno, a
L

cada suceso elemental del espacio muestral de un experimento aleatorio.


La variable se compondría del emparejamiento de cada suceso elemental y la
FI

experiencia asociada a cada uno de ellos. Cualquier emparejamiento de este


tipo, definido sobre un espacio muestral en el que nunca se repita el mismo
elemento en dos pares, todos los sucesos elementales están incluidos en algún
par y en el que el segundo elemento de cada par sea un número real, es una


variable aleatoria.
Se representa por letras mayúsculas, pero para referirse a un valor cualquiera
se usa minúscula y un subíndice que designe ese valor concreto.
Hay variables aleatorias discretas y continuas. Las primeras se definen sobre
espacios muestrales finitos o infinitos numerables. En cambio, las continuas,
sobre espacios muestrales infinitos no numerables.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Botella Cap. 13 – Modelos de distribución de probabilidad.


Para variables discretas: Existen 3 modelos. La distribución uniforme, binomial
y multinomial.
Distribución uniforme:
Las variables aleatorias discretas se distribuyen según el modelo uniforma, es
decir, si todos los valores con probabilidad no nula son equiprobables.
Si la variable es uniforme, su valor esperado es igual al promedio entre los

OM
valores máximo y mínimo.

Distribución binomial:
Fue estudiada por Bernoulli. Para que la distribución de probabilidad de una

C
variable se ajuste a este modelo debe cumplir una serie de requisitos.
1- Debe basarse en una variable dicotómica (sólo admite 2 valores).
Usualmente son 0 y 1.
D.
Estas variables pueden ser dicotómicas o dicotomizadas artificialmente
(aunque tiene muchos posibles resultados diferentes, se los clasifica en
2).
AD
Estas variables pueden definirse como aquellas que adoptan la regla de
asignar 1 si se cumple cierta condición y 0 si no se cumple.

2- Debe haber una repetición de n (secuencia de ensayos) de la variable


dicotómica para que la verificación de la condición en cada ensayo sea
L

independientemente de la verificación de los anteriores. A esa


probabilidad se la representa con 𝜋.
FI

3- Definimos una variable aleatoria X como el número de casos de esa


secuencia de ensayos en los que se cumple la condición. Entonces la
variable X se ajusta al modelo binomial con parámetros n y 𝜋.


Los valores de una variable binomial se ajustan entre 0 y n, donde n es el


número de ensayos realizados.
Si se representan los resultados con 0 y 1, el valor de X es la suma de
esa secuencia de 1 y 0.
El valor esperado de una variable binomial es igual a la suma de los
valores esperados de cada una de ellas, es decir, es igual a la
probabilidad de observar 𝜋.
Con esta lógica se obtiene la varianza de una variable binomial.
La función de probabilidad de la variable binomial viene dada por su
expresión.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Distribución multinomial:
Da lugar a más de 2 resultados (politomía). Es una secuencia de n ensayos
independientes e igualmente distribuidos en los que cada uno puede dar lugar a
𝑘 resultados distintos con probabilidades 𝜋𝑘 .

Modelos para variables continuas: Al referirse a valores concretos de variables


aleatorias continuas, con frecuencia se pone un subíndice que indicará

OM
probabilidad, los cuales reflejarán el área izquierda, probabilidad acumulada o
centil asociado a ese valor. Entre ellos se encuentran: la distribución rectangular,
normal y t- student.
Distribución rectangular:
Una variable aleatoria se ajusta a este modelo si todos los valores con

C
probabilidad no nula tienen la misma distribución de densidad con probabilidad.
Su representación gráfica toma la forma de rectángulo.
D.
Distribución normal: Es también conocida como la distribución de Gauss. La
estatura, el peso, el CI, etc. Son variables que se ajustan a este modelo.
AD
En la representación gráfica existe un valor central (la media) entorno a la cual
se concentran la mayor parte de los individuos y los valores más alejados a ésta
son menos frecuentes.
Refleja la mediocridad en las características y solo pocos sobresalen.
L

Los errores tuvieron especial importancia en la curva, pueden calcularse


sacando la diferencia entre la medición hecha y la cantidad real. Cuanto mayor
FI

es un error con menor frecuencia se observa.


Una variable aleatoria se distribuye según el modelo normal, con parámetros
(𝜇 𝑦 𝜎).


Las variables cuya distribución se ajusta al modelo normal adoptan una


representación gráfica:
- Simétrica respecto al valor central (𝜇), en ese valor coinciden la media,
mediana y la moda.

- Es asintótica con respecto al eje de abscisas, nunca llega a tocar el eje.

- Hay varias curvas normales, la más importante es la que tiene media 0 y


desviación típica 1, se denomina distribución normal unitaria.

- Los puntos de inflexión se encuentran en los puntos correspondientes a


la media ± 1 desvio.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

- Cualquier combinación lineal de variables aleatorias normales, se ajusta


también a este modelo.

Para hallar las probabilidades se aplica el teorema de tipificación: según el


cual la función de distribución asociada a un valor de una variable aleatoria (x),
con distribución normal, es la misma función de distribución de la tipificada de
ese valor en la normal unitaria y se construyeron tablas para ello. Para obtener
las áreas asociadas a un valor de cualquier otra distribución normal basta con
tipificar ese valor y acudir con la z obtenida a la tabla correspondiente. Para

OM
referirse a un valor concreto de la distribución normal unitaria, se utiliza z, con el
subíndice correspondiente a la probabilidad acumulada para ese valor.
El trabajo con variables aleatorias normales se reduce a la obtención de las
probabilidades de obtener el área derecha de ese valor, el área izquierda o un
valor comprendido entre 2 valores concretos.

C
El procedimiento consiste en aplicar el teorema y consultar la tabla.
La distribución normal se utiliza también para obtener por aproximación las
D.
probabilidades asociadas a otros modelos.
Aproximación de binomial a normal: Estas probabilidades pueden obtenerse
mediante un procedimiento de aproximación que consiste en que, para calcular
AD
la probabilidad acumulada de un valor de una variable binomial, se calcula la de
ese mismo valor en una normal, en los que el valor esperado y la varianza fueran
los mismos que los de la binomial. A partir de esto se aplica una corrección que
requiere no tipificar el valor correspondiente, sino sumar o restar media unidad
para que el valor tipificado incluya completas las barras de los valores de interés.
L
FI

Distribución de T- Student:
Para que una variable aleatoria se distribuya según el modelo de t de Student
debe ajustarse a la fórmula de éste.
Las variables X e Y se distribuyen normalmente con parámetros (0;1) y a la de


Pearson; y se forma la variable T, extrayendo valores independientes de X e Y;


y sustituyendo en la forma. Se distribuye teniendo como parámetros los grados
de libertad.
Para referirnos a valores concretos de una distribución t, se coloca en el
subíndice, los grados de libertad en la derecha y la probabilidad acumulada o
área izquierda en el lado izquierdo.
Propiedades:
a) Es simétrica respecto al valor 0.
b) En ese valor coinciden la media, mediana y moda.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

c) A medida que se incrementan los grados de libertad, se incrementa la


distribución pareciéndose a la normal.
Botella Cap. 6 – Puntuaciones típicas y escalas derivadas.
Una solución al problema de interpretación con las puntuaciones diferenciales
consiste en no medir las distancias a la media en términos absolutos, sino con
relación a la variabilidad del grupo de referencia. Se trataría de indicar cómo de
grande es una distancia en término de las distancias observadas en general en
esas puntuaciones, la cual se medía mediante la desviación típica y se puede
utilizar como unidad de medida. Las puntuaciones conseguidas de esta manera

OM
se denominan puntuaciones típicas y se representan con z.
Al proceso de obtención de las puntuaciones típicas se lo llama tipificación.
Las puntuaciones típicas de una observación indican el número de desviaciones
típicas que se separa esa observación de la media del grupo de observaciones.
Permiten hacer comparaciones entre unidades de distintos grupos, variables

C
medidas de distintas formas o entre variables diferentes. También indican si esa
desviación está por encima o por debajo de la media.
D.
Estas puntuaciones tienen características de tendencia central y variabilidad
constantes.
Las puntuaciones típicas no son más que una transformación lineal que consiste
AD
en multiplicar las puntuaciones directas por una constante (inverso del desvío) y
luego sumar a esos productos otra constante (cociente entre la media y el desvío,
con signo negativo).
Esas características de las típicas son universales, no dependen del tipo de
puntuaciones, ni de su dispersión, ni de su número.
L

La media de las puntuaciones típicas es 0, mientras que su varianza y desvío


FI

son iguales a 1.
Las puntuaciones típicas reflejan las relaciones esenciales entre puntuaciones
independientemente de la unidad de medida utilizada. Por eso cuando dos
conjuntos de puntuaciones están emparejados por algún criterio, a sus


elementos les corresponde la misma puntuación; mantienen la misma estructura


interna y por lo tanto son puntuaciones equivalentes.

Escalas derivadas:
Las típicas al tener su media en 0 y desviación en 1, parte de ellas suelen ser
negativas y casi todas decimales. Por eso, un procedimiento que consiste en
transformar las puntuaciones típicas en otras que retengan todas las relaciones
que manifiestan las puntuaciones originales y por lo tanto sean equivalentes,
constituyen lo que se denomina una escala derivada. Se basan en una propiedad
de las puntuaciones típicas.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

• Si transformamos linealmente las puntuaciones típicas multiplicándolas


por una constante 𝑎, y después sumamos una constante 𝑏, entonces las
puntuaciones transformadas tendrían como media la constante sumada
𝑏, como desviación típica el valor absoluto de la constante multiplicada |𝑎|
y como varianza el cuadrado de la constante 𝑎2 .
La construcción de una escala derivada parte de unas puntuaciones directas,
éstas se tipifican, y después se transforman linealmente en otras
puntuaciones.
La cuestión fundamental consiste en transformar puntuaciones originales en

OM
transformadas para que sean más fáciles de interpretar y que a la vez sean
equivalentes.
Cualquier transformación lineal en que la constante multiplicadora sea
positiva, da lugar a puntuaciones equivalentes.
Las puntuaciones T tienen media 50 y desviación típica 10, y se constituyen

C
la transformación general más conocida.

Botella Cap. 8 – Correlación lineal.


D.
La observación de relaciones claras y estables entre las variables, ayuda a la
comprender los fenómenos y a encontrar explicaciones de los mismos e indica
AD
las vías probablemente más eficaces para intervenir sobre las situaciones.
Se dice que dos variables X e Y mantienen una relación lineal directa cuando los
valores altos en Y tienden a emparejarse con los valores altos de X, los valores
intermedios de Y con los intermedios de X; y los valores bajos de Y con los
valores bajos de X. Ejemplo: rendimiento e inteligencia.
L

Se dice que dos variables X e Y mantienen una relación lineal inversa cuando
FI

los valores altos de Y se emparejan con los valores bajos de X, los valores
intermedios de Y con los intermedios de X; y los valores bajos de Y con los
valores altos de X. Ejemplo: tiempo invertido y errores cometidos.
Se dice que hay una relación lineal nula entre dos variables cuando no hay


emparejamiento sistemático entre ellas en función a sus valores. Ejemplo:


estatura e inteligencia (no tienen nada que ver entre sí).

Diagramas de dispersión: Se denomina a la nube de puntos correspondientes


a los ejes de coordenadas, una vez identificados los valores.
Cuantificación:
Un 1er procedimiento consiste en hallar el promedio de los productos cruzados
de las puntuaciones diferenciales. Cada figura está separada en cuatro
cuadrantes y los puntos estarán en uno u otro dependiendo de que la
observación supere o no a la media de X y/o Y. Si supera ambas aparece en el

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

cuadrante superior derecho. Si supera la de X, pero no la de Y, aparece en el


cuadrante inferior derecho. Si supera Y, pero no X, aparece en el cuadrante
superior izquierdo. Si no supera ninguna aparece en el cuadrante inferior
izquierdo.
Al tratar con puntuaciones diferenciales, son positivas si superan la media, sino
negativas.
El promedio de los productos cruzados de diferenciales, es positivo si la relación
es directa, negativo si es inversa y entono a 0 si es nula.
Cuanta más tendencia lineal, mayor es el valor absoluto.

OM
El coeficiente de variación de Pearson: no puede valer más de +1, ni menos
de -1. Si se realizan transformaciones lineales de una o las dos variables, en las
que las constantes multiplicadoras son positivas, la correlación no se altera.

C
En la interpretación de una correlación hay que separar dos aspectos:
- La cuantía que se refiere al grado en el que la relación entre dos variables
D.
queda bien descripta con un índice de asociación lineal como r.

- El sentido que se refiere al tipo de relación. Una correlación en torno a 0


indica una relación lineal nula, una positiva indica relación lineal derecha
AD
y una negativa indica relación lineal inversa. Cuanto más cercano a 0
quede el coeficiente, menos apto es al modelo lineal para describir la
relación entre las variables. Cuanto más se acerque a los extremos, mejor
la describe.
L

La valoración de un coeficiente de correlación debe hacerse con base en el


cuadrado de su valor 𝑟 2 .
FI

Otros factores alteran las expectativas sobre el valor r, como la variabilidad o


terceras variables.
En cada área de estudio se va a desarrollar un conocimiento que permite valorar


los coeficientes de correlación en términos relativos.


La correlación de Pearson mide el grado de adecuación de unos datos a un
modelo lineal, pero entre variables puede existir otro tipo de relación.
No conviene analizar la relación entre dos variables exclusivamente mediante el
cálculo de coeficiente de correlación, sino que conviene representar
gráficamente el diagrama de dispersión para observar esa relación.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Pardo y San Martín Cap. 3 – Contraste de hipótesis.


Se conoce con el nombre de estadística inferencial al proceso de extraer
conclusiones sobre las propiedades de una población a partir de la información
contenida en una muestra procedente de esa población. Hay 2 formas básicas
de hacer estadística inferencia:
1- Estimación de parámetros: Es el proceso que consiste en asignar a
propiedades desconocidas de una población, las propiedades conocidas
de una muestra extraída de ella.

OM
2- Contraste de hipótesis: Un proceso mediante el cual se trata de
comprobar si una afirmación sobre alguna propiedad poblacional puede
ser sostenida a la luz de la información muestral disponible. Es un método
de toma de decisiones también llamado prueba de significación.

C
Este procedimiento nos permite decidir si una proposición acerca de una
población puede ser mantenida o debe ser rechazada.
D.
Cuando surge el problema de investigación, el siguiente paso es buscar una
solución, ésta es provisional y suele tomar la forma de una afirmación
directamente verificable o mejor conocida como hipótesis científica y el proceso
para verificarla es el contraste de hipótesis.
AD

La lógica del contraste de hipótesis:


El 1er paso consiste en formular estadísticamente la hipótesis científica que se
L

desea contrastar. Es decir, transformarla en hipótesis estadística.


El 2do paso consiste en buscar evidencia empírica relevante, capaz de informar
FI

sobre si la hipótesis establecida es o no sostenible, y lo será si la hipótesis es


compatible con los datos empíricos, cuando a partir de ella sea posible deducir
un resultado muestral con precisión.
Una discrepancia entre la afirmación y el resultado muestral encontrado puede


estar indicado por 2 cosas:


- La hipótesis es correcta y la discrepancia se debe al producto de
fluctuaciones esperables por azar.
- La hipótesis es incorrecta y es incapaz de proporcionar predicciones
acertadas.
La clave está en determinar cuando la discrepancia encontrada es lo
bastante grande para considerar al resultado muestral incompatible con
la hipótesis.
Para eso está el 3er paso que consiste en establecer una regla de decisión en
términos de probabilidad (por trabajar con muestras, en lugar de poblaciones).
El número es ilimitado casi. La regla de decisión será una afirmación del tipo: “Si

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

el resultado muestral es muy poco probable, la hipótesis es incompatible con los


datos”, “Si el resultado muestral es probable, la hipótesis es compatible con los
datos”.

Hipótesis estadísticas:
Es una afirmación sobre una o más distribuciones de probabilidad o sobre el
valor de uno o más parámetros de ella. Se suelen representar por H seguida de
una afirmación que le da contenido. Surge a partir de una hipótesis científica.

OM
Una hipótesis científica se refiere a algún aspecto de la realidad, una hipótesis
estadística se refiere a algún aspecto de una distribución de probabilidad.
Todo contraste de hipótesis se basa en la formulación de 2 hipótesis: Hipótesis
nula (𝐻0 ) y la hipótesis alternativa (𝐻1 ).
- Hipótesis nula: Es la hipótesis que se somete al contraste, es una

C
afirmación concreta sobre la forma de una distribución, es exacta.
- Hipótesis alternativa: Es la negación de la nula, incluye lo que la nula
excluye y es inexacta.
D.
Cuando en 𝐻1 aparece ⟨=⟩ es un contraste bilateral, cuando aparece < o > es
unilateral.
AD
Ambas hipótesis son rivales, son exhaustivas y mutuamente exclusivas, si una
es verdadera, la otra es falsa.
Tanto si 𝐻0 es exacta como inexacta, todo el proceso de decisión va a estar
basado en un modelo probabilístico construido a partir de ella.
L

Los supuestos:
FI

Son un conjunto de afirmaciones que necesitamos establecer para conseguir


determinar la distribución en la que se basará nuestra decisión sobre 𝐻0 .
- Las hipótesis simples: define una distribución normal con parámetros


conocidos. Permitiría especificar por completo una distribución binomial


una vez establecido el tamaño de la muestra.
- Hipótesis compuestas: No quedan completamente especificadas.
Define una distribución normal con media conocida, pero varianza
desconocida.
No define una única distribución, sino muchas diferentes.
Con frecuencia la 𝐻0 será compuesta, lo cual nos obliga a establecer un conjunto
de supuestos que permitan especificar por completo la distribución.
Algunos de estos supuestos son más restrictivos o exigentes que otros. El
incumplimiento de éstos podría invalidar el contraste y llevarnos a una decisión
errónea. Conviene que los supuestos sean pocos y poco exigentes.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

El Estadístico de contraste:
Es un resultado muestral que cumple la doble condición de:
1- Proporcionar información empírica relevante sobre la afirmación en la 𝐻0 .
2- Poseer una distribución muestral conocida, ya que es donde nos vamos
a apoyar para tomar una decisión, para contrastar la hipótesis lo razonable
será utilizar la información muestral proporcionada por el estadístico.
Una vez planteadas las hipótesis, es necesario seleccionar el estadístico de

OM
contraste capaz de proporcionar información relevante sobre ellas y establecer
los supuestos necesarios para determinar la distribución. Existen 2 estadísticos:
𝑇1 = 𝑥 y 𝑇2 = 𝑝.
Los estadísticos x y p sirven como estadísticos de contraste para poner a prueba
𝐻0 porque ambos cumplen con las condiciones.

La regla de decisión:

C
D.
Es un criterio para decidir si la hipótesis debe ser o no rechazada. Se basa en la
partición de la distribución muestral del estadístico en 2 zonas:
1- Zona de rechazo o crítica: Es el área de la distribución muestral que
AD
corresponde a los valores del estadístico de contraste que se encuentran
tan alejados de la afirmación de 𝐻0 que es muy poco probable que ocurran
si 𝐻0 es verdadera. Su probabilidad es 𝛼 (nivel de riesgo).
2- Zona de aceptación: Es el área de la distribución que corresponde a los
valores próximos a la afirmación de 𝐻0 , es probable que ocurran si 𝐻0 es
L

verdadera. Su probabilidad es de 1 − 𝛼 (nivel de confianza).


Esta regla consiste en rechazar 𝐻0 si el estadístico toma valores de la zona de
FI

rechazo y mantenerla si el estadístico toma valores de la zona de aceptación.


El tamaño de las zonas se determina fijando el valor de 𝑎 (nivel de significación).
Dependiendo la formulación de H1 los contrastes pueden ser bilaterales o


unilaterales. La distribución se divide dependiendo el tipo de contraste. La zona


crítica debe estar donde aparecen los valores incompatibles con 𝐻0 , en los
bilaterales se encuentra repartida en partes iguales entre las 2 colas de la
distribución. En unilaterales se encuentra en una de las dos colas de la
distribución muestral.

La decisión:
El paso siguiente consiste en obtener una muestra aleatoria de tamaño n,
calcular el estadístico de contraste y tomar la decisión con respecto a 𝐻0 .

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Una decisión consiste en rechazar o mantener H0 . Si la rechazamos, la hipótesis


es falsa con una probabilidad 𝛼 de equivocarnos.
Si la mantenemos afirmamos que no disponemos de evidencia para rechazarla
y por lo tanto es compatible con los datos.
La razón de que sea así de doble es:
1- Es imposible afirmar que 𝐻1 no es verdadera, porque las pequeñas
desviaciones de 𝐻0 forman parte de 𝐻1 . Por eso 𝐻0 se mantiene o no
rechaza.
2- Por la falacia de afirmación del consecuente, T puede haber tomado un

OM
valor comprendido entre a y b por diferentes razones contenidas en 𝐻0 .
Para determinar una afirmación verdadera se plante como 𝐻1 y rechazamos 𝐻0 .

Errores de tipo I y II:

C
Llamamos errores de tipo I al que se comete al rechazar una 𝐻0 verdadera. La
probabilidad de cometer este error es 𝛼.
D.
Errores de tipo II al que se comete cuando se mantiene una 𝐻0 falsa. La
probabilidad de 𝛽.
1 − 𝛼 es la probabilidad de mantener una 𝐻0 verdadera.
AD

1 − 𝛽 es la probabilidad de rechazar una 𝐻0 falsa.


La probabilidad de cometer un error tipo I es conocida, 𝛼 es fijada por el
investigador. La probabilidad de cometer un error de tipo II es desconocida,
depende de: la verdadera H1 , el valor de 𝛼 y el tamaño del error típico de la
L

distribución muestral utilizada para efectuar el contraste.


FI

1- Cuanto más se aleje el valor 𝜇1 de 𝜇0 más hacia la derecha se desplaza


la curva, más pequeña es el área de 𝛽. El valor de 𝛽 depende de la
hipótesis alternativa que consideremos verdadera.
2- El tamaño del área de 𝛽 depende del valor de 𝛼. Los valores 𝛼 y 𝛽 se
relacionan de forma inversa, cuanto mayor 𝛼 menor 𝛽. Cuanto menor 𝛼


mayor 𝛽.
3- El tamaño del área depende del error típico. El solapamiento entre las
curvas de uno u otro parámetro será mayor cuanto mayor sea el error
típico y mayor será el valor de 𝛽.
Una disminución del solapamiento, menor error típico y menor 𝛽.
Si tienen el mismo error típico, mismo tamaño de 𝛽.

La distribución de la media es normal con parámetros 𝜇 y 𝜎|√𝑛, lo que significa


que disminuyendo 𝜎 o aumentando n se disminuye el error típico de la media y
se reduce la probabilidad de cometer un error de tipo II.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

Potencia de un contraste:
La potencia (1 − 𝛽) de un contraste es la probabilidad de rechazar una 𝐻0 que
en realidad es falsa.
Nos referimos a la capacidad de ese contraste para detectar que una hipótesis
concreta es falsa.
Para poder calcular la potencia necesitamos referirnos a una afirmación de las

OM
muchas definidas en 𝐻1 .

Nivel crítico y tamaño del efecto:


La probabilidad 𝛼 se establece antes de efectuar el contraste para evitar que

C
influya en la decisión final. El nivel de significación es el riesgo máximo que
estamos dispuestos a asumir al tomar una decisión.
Esto trae 2 inconvenientes:
D.
1- La decisión sobre 𝐻0 puede depender del nivel de significación
establecido.
AD
2- Decidir si 𝐻0 es falsa o no, no proporciona información sobre el grado de
incompatibilidad con la hipótesis.
El valor de 𝛼 debe ser pequeño, cuan pequeño lo decide el investigador de forma
arbitraria.
L

Llamamos nivel crítico al nivel de significación más pequeño al que una 𝐻0 puede
ser rechazada con el estadístico de contraste obtenido.
FI

Es la probabilidad asociada al estadístico de contraste. En uno unilateral, el nivel


crítico se asocia a los valores mayores en C.U. Derecho y a los menores en C.
U. Izquierdo. En uno bilateral, el nivel crítico es la probabilidad asociada a los
valores que se encuentran muy alejados de 𝐻0 . El nivel crítico se obtiene


después de efectuar el contraste.


El nivel crítico no solo nos ayuda a tomar una decisión sobre 𝐻0 sino que su
tamaño informa sobre el grado de compatibilidad o discrepancia entre la
evidencia muestra y 𝐻0 .
Si todo se mantiene constante, el valor del estadístico será más extremo cuanto
mayor sea el tamaño de la muestra. El valor del nivel crítico está condicionado
por el tamaño de la muestra concreta utilizada.
A veces se necesita otra medida de ese grado de discrepancia que no dependa
del tamaño de la muestra y es el tamaño del efecto.

Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)
lOMoARcPSD|8762290

La decisión a la que se llega en un contraste de hipótesis sobre la discrepancia


existente entre 𝐻0 y la evidencia muestral no constituye un criterio suficiente
porque depende del tamaño de la muestra utilizada. Tamaños muestrales
grandes nos llevan a considerar como significativas discrepancias pequeñas y
viceversa.
En general puede obtenerse una buena medida del tamaño del efecto en
términos de la proporción de varianza explicada.

Contrastes bilaterales y unilaterales:

OM
El investigador cuando somete a contraste las hipótesis no posee una idea previa
sobre la dirección en la que se pueden producir resultados muestrales
incompatibles con 𝐻0 .
En una distribución normal, el contraste bilateral con su zona crítica, está
repartida, generalmente en partes iguales, entre las dos colas de la distribución

C
muestral. De ahí el nombre bilateral.
En un contraste unilateral, la zona crítica está en una de las dos colas de la
D.
distribución. De ahí el nombre unilateral.
AD

Pardo y San Martín Cap. 4 – Contraste de hipótesis sobre una media.


El contraste de hipótesis sobre una media sirve para tomar decisiones acerca
del verdadero valor poblacional que corresponde a la media de una variable.
L

Si extraemos una muestra aleatoria de tamaño n, de una población normal y


calculamos la media, esa media es un estadístico distribuido normalmente. Por
FI

el teorema central del límite, aun desconociendo la forma de la población de


donde extraemos la muestra, el estadístico tiende a distribuirse normalmente a
medida que el tamaño de n va aumentando. Al distribuirse normalmente
podemos utilizar la distribución normal estandarizada.


Este archivo fue


Downloaded descargado
by Sofia de https://filadd.com
Losada (sofuxxx15@gmail.com)

También podría gustarte