Está en la página 1de 29

Resumen definitivo

123

1
Edit by Maria Eugenia Garcia Creus - ​La jefa
2
Link hoja de fórmulas - segundo parcial:
https://drive.google.com/drive/folders/1iSOGJRYFFjuzliV-bPA648_q8LoUTN31?usp=sharing
3
Link de prácticas resueltas:
https://drive.google.com/drive/folders/12Ao6RaWBRJvX1EkkozeQDx7LiWS4s7hk?usp=sharing
1

Términos clave:
A lo sumo n: ​como mucho puede pasar ​n​ veces. Esto quiere decir que vamos a calcular p(x ≤ n) .
Por lo menos n​: p( x ≥ n)
Exactamente n: p(x = n)
Más que n: p(x > n)
Entre n y m​: p(n ≤ x ≤ m)
Diste de su media en más de un desvío​: p(x ≥ σ + μ ) + p(x ≤ μ − σ )
Diste de su media en A LO SUMO un desvío: p(μ − σ ≤ x ≤ σ + μ )

Resumen: unidad I
Tupla: ​una tupla es una lista ordenada de elementos. Puede tener distintos tamaños… por ejemplo una
podemos tener una tupla de 2 elementos, una lista de dos posiciones, o de 100 elementos, una lista de
100 posiciones.

Diagrama de árbol: e​ l diagrama de árbol nos da a entender la lógica del factorial cuando hacemos los
cálculos.

¿Importa el orden?: ​que importe el orden significa que no es lo mismo que yo escriba ​abc​ que ​cba​.
Para las permutaciones y las variaciones siempre va a importar el orden de los elementos.

Variación: u​ na variación es cada una de las tuplas, lista de elementos, que pueden formarse a partir de
tomar elementos de un conjunto. En combinatoria hay muchas veces que necesitamos conocer el
número de variaciones de un conjunto de ​n​ elementos tomados en tuplas de ​m​ elementos.

● Con repetición: ​las variaciones con repetición de conjuntos de ​n ​elementos tomados en tuplas
de ​m​ elementos. Es el número de diferentes n-tuplas de un conjunto de ​n​ elementos:

❏ Es mejor pensar con ​reposición e​ n vez de ​con repetición​. Ósea… que podemos usar
un mismo elemento muchas veces.

● Sin repetición: c​ uando no hay elementos repetidos, no hay reposición, el número de n-tuplas
que pueden formarse está dado por:
2

❏ Ejemplo.... ¿cuántas tuplas de 2 elementos pueden formar a partir de un conjunto de 3


elementos distintos? La respuesta es una variación… suponiendo que no hay
reposición​ ósea… esos elementos no pueden utilizarse más de una vez.

Permutación: ​es la variación del orden o posición de los elementos de un conjunto ordenado. Es
como una variación en donde el tamaño de la tupla que ordenamos es el mismo ​n.​

● ​ ado un conjunto A de ​n​ elementos el número de todas sus permutaciones (de


Sin repetición: D
todas las formas distintas de ordenarlos) es:

● Con repetición: ​Sí hay elementos repetidos en el conjunto usamos una fórmula en donde ​a, b
y ​c​ son la cantidad de veces que se repiten los elementos repetidos.

Es importante volver a decir que las permutaciones son en realidad variaciones, sin repetición, del
total de elementos del conjunto… esto quiere decir que son variaciones, sin repetición, en donde ​n =
m.​

Combinaciones: ​las combinaciones expresan el número de formas que se pueden extraer


subconjuntos a partir de un conjunto dado.

Representa el número de formas de escoger ​m​ elementos de un conjunto de ​n​ elementos. Por
ejemplo… a partir de un conjunto de 6 elementos hay 15 formas de escoger de a dos esos elementos.
Es lo mismo que una variación en donde no importa el orden, ​acb = cba​ y no hay repeticiones, no se
usa más de una vez el mismo elemento.

Espacio muestral: ​son todos los resultados posibles de un experimento. Se denota con la letra ​S.​

Propiedades de conjuntos:

● Leyes de morgan:

● (B ⋂ C) ⋃ A = (B ⋃ A) ⋂ (C ⋃ A)
● A ⋃ (A ⋂ B) = A = A ⋂ (A ⋃ B)
● A ⋃ B ⋃ C = A + B + C − A⋂B − A⋂C − B⋂C + A⋂B⋂C
3

Resumen: unidad II
Frecuencia relativa: ​es la cantidad de veces que se obtiene éxito, casos favorables, sobre la cantidad
total de experiencias.

● Se tira un dado 10 veces y 4 de esas veces sale un as. La frecuencia relativa de “sale un as” es
4/10 = ⅖​.

● Propiedades de la frecuencia relativa:

Probabilidad condicional: h​ ablamos de probabilidad condicional cuando la ocurrencia de un suceso


está condicionada por la ocurrencia de otro.

De la probabilidad condicional podemos obtener dos propiedades muy importantes que se deducen
fácilmente

● La probabilidad de A dado B está dada por la probabilidad de la intersección entre A y B


dividido por la probabilidad del condicionante… Ósea B.
● A y B son independientes si la intersección entre A y B es cero.
4

Independencia de sucesos: d​ os sucesos son independientes si se cumplen las siguientes dos


condiciones

En la segunda propiedad vemos que, como no hay condicionante a B, porque son independientes, la
probabilidad de B no cambia sí sucede A.

Es bueno aclarar que si dos sucesos son disjuntos entonces NO son independientes. Esto se prueba
sabiendo que la probabilidad de la intersección es cero y p(A) > 0, p(B) > 0 … te queda un absurdo.
5

Teorema de la probabilidad total: n​ os permite calcular la probabilidad de un suceso a partir de


probabilidades condicionadas.

Es fácil de ver cómo funciona este teorema con los diagramas de árbol, puede verse cómo la suma de
las probabilidades de las distintas ramas.

● Ejemplo:​ supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si


hace buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cuál es la
probabilidad de que ocurra un accidente si conocemos la probabilidad de que llueva y la
probabilidad de que haga buen tiempo.

Teorema de Bayes: ​el teorema de Bayes ​vincula la probabilidad de A dado B con la probabilidad de B
dado A.

● Ejemplo: s​ abiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se
podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de
cabeza.

Resumen: unidad III


Variable aleatoria: e​ s una ​función​ que está definida dentro de un suceso cualquiera. Dicho suceso se
encuentra dentro de un espacio muestral. La función de las variables aleatorias es la de tratar de
agrupar, bajo algún concepto en común, diferentes sucesos para poder contabilizarlos.

● V.a. discretas: ​el rango, recorrido de la función, es finito o infinito numerable.


● V.a. continuas: ​el rango es infinito no numerable.

Función de probabilidad de masa: ​nos permite calcular la probabilidad de ocurrir que tiene cada uno
de los valores del rango de la variable aleatoria. Se deben cumplir dos condiciones para esta función:
(La tabla )

1. Las probabilidades deben ser positivas.


6

2. La suma de todas las probabilidades del rango debe ser 1.

Función de distribución acumulada: ​es una función partida que nos indica la probabilidad de que la
variable aleatoria se encuentre entre determinados valores… permite saber cómo se distribuye la
probabilidad dentro del rango.

Esperanza matemática: e​ s el ​valor más probable​ asociado a un experimento pero hay que tener en
cuenta que este valor no siempre va a coincidir con los valores del recorrido de la variable.

Puede pensarse como un concepto similar al de centro de masa en física… es un punto particular que
puede pertenecer al cuerpo o no. Lo que me dice la esperanza entonces, es el resultado más probable
de un experimento aleatorio. En juegos de casino seguramente la esperanza me va a dar valores que
no están dentro de la variable aleatoria… como valores negativos.

La esperanza es una operación lineal,que no siempre puede calcularse, como si dijeras: la derivada de
una suma es la suma de las derivadas. Para poder calcularla la serie debe ser absolutamente
convergente. Se define como la sumatoria de cada valor de la v.a. por su probabilidad.

● La esperanza de una constante es la misma constante.


● La esperanza de ​ax​ es ​aE(x).

Esperanza 2.0: ​La cantidad promedio que se "espera" como resultado de un experimento aleatorio
cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite muchas veces.

Varianza: r​ epresenta dispersión de cada valor con respecto de la variable aleatoria, que tan lejos están
los valor de la variable aleatoria de la esperanza.

● La esperanza de las calificaciones de las dos comisiones es 7. Sin embargo… las notas de la
comisión A están entre 6 y 8 mientras que las de la comisión B entre 4 y 10. La varianza nos
dice justamente esta dispersión.
7

● Si no elevamos al cuadrado la distancia de cada valor de la v.a. con la media los términos de
la sumatoria se compensarian y la misma daría cero.

Propiedades:

¿Para qué sirven E(x) y V(x)?: ​cuando tenes una variable y queres entender rápidamente cómo es su
comportamiento lo que haces es mirar la esperanza y la varianza. La esperanza te va a indicar en qué
valores se centra la v.a. y la varianza, por otro lado, que tan dispersos están los valores de la v.a.
respecto de la esperanza/media.

Desvío standard: s​ irve para cuantificar la dispersión de todos los valores de la variable aleatoria.

● Una desviación estándar baja implica que la mayor parte de los datos de la muestra se
encuentran cerca de la media.
● Una desviación estándar alta significa que los datos de la muestra están distribuidos más
ampliamente.

Variables bernoulli: ​toma dos valores. Un experimento Bernoulli se caracteriza por ser dicotómico…
solo hay dos resultados posibles a los cuales podemos llamar ​fracaso​ o ​éxito.​ Toma como valores 0 y
1 que representan fracaso y éxito. Por ejemplo tirar un dado equilibrado UNA vez.

● Ensayo Bernoulli: ​Es un experimento aleatorio en el que sólo se pueden obtener dos
resultados (habitualmente etiquetados como éxito y fracaso).

Distribución binomial:

La distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos
en una secuencia de ​n​ ensayos Bernoulli, justamente… es una suma de variables Bernoulli. Debe
cumplir cuatro condiciones.

1. El experimento consiste en ​n​ repeticiones.


2. Las pruebas deben ser idénticas y con solo dos resultados posibles… ​éxito y​ ​fracaso.​ Ensayos
Bernoulli.
3. Las pruebas deben ser independientes. ESTO SIGNIFICA QUE HAY REPOSICIÓN. Ósea…
hacer una prueba no cambia la probabilidad de la siguiente.
4. La probabilidad de éxito debe ser la misma para todas las pruebas.

La inversa de la binomial podría hacer, mirando de cierto modo, la variable geométrica o la binomial
negativa.
8

Con esta variable podríamos obtener, por ejemplo, la probabilidad de que en 10 veces se tira un
dado… nueve salga un as. También, haciendo la distribución de probabilidad acumulada, podríamos
calcular la probabilidad de que nos salga por lo menos un as en 10 tiros. Sería… ​p(x≥1).​

● Probabilidad puntual:

El número combinatorio nos sirve para indicar todas las formas de poder combinar los éxitos
en las ​n​ combinaciones.

​ que es la esperanza de la v.a.


El punto más alto representa ​np…

● Esperanza y varianza:

Distribución geométrica:

Es el número de experiencias hasta el primer éxito o bien... ​k experiencias idénticas hasta obtener el
primer éxito.

❏ p​ es constante en todos las pruebas y los sucesos son independientes.


❏ En la binomial cuento los éxitos… en esta lo hago solo con el primero.
❏ Es la inversa conceptual de la binomial para un éxito.
❏ En las geométricas el R​x​ arranca desde 1, no de 0.

El lanzamiento de un dado equilibrado hasta obtener ​un​ as es un ejemplo de la aplicación de esta


distribución.

● Probabilidad puntual:
9

❏ La variable ​k​ describe el número de la experiencia en donde se da el primer éxito…


osea que incluye a la repetición exitosa. Por ejemplo… si quiero ver cual es la
probabilidad de que me salga el primer as​ (primer éxito)​ en la segunda repetición
pongo ​k = 2​. Sí quiero ver cual es la probabilidad de obtener el primer éxito recién en
la novena repetición pongo ​k = 9.​

● Esperanza y varianza

Distribución binomial negativa:

La usamos cuando queremos saber cual es la probabilidad de obtener el ​r-ésimo é​ xito en cierto
número definido de repeticiones. Por ejemplo… con la variable binomial negativa podríamos calcular
cual es la probabilidad de sacar 4 ases en 4 tiros (la probabilidad va a ser muy baja) o bien 4 ases en
1000 tiros (también va a ser muy baja). Podemos decir que esta v.a. as la inversa conceptual de la
binomial para varios exitos.

● Probabilidad puntual

❏ En este caso ​k​ representa el número de repeticiones totales que se realizan… el valor
de ​k​ lo pones vos. Por el otro lado, el parámetro ​r​ representa el número de éxitos que
quiero obtener en las ​k​ repeticiones. Hay que tener en cuenta, por obvias razones, que
k ≥ r​ siempre.
10

❏ En el número combinatorio ​k - 1​ serían las repeticiones previas al último éxito y ​r - 1


los éxitos previos que se obtuvieron antes del último. Ósea… en la ​k​ repetición se da
el último éxito.
❏ Sí ​r​ = 1 entonces lo que tenemos es una geométrica.
❏ Una binomial negativa puede expresarse como la suma de v.a. geométricas
independientes.
❏ Cuando pidan ​encontrar la distribución y​ sea una binomial negativa… damos la
fórmula con los parámetros correspondientes.

● Esperanza y varianza:

Distribución hipergeométrica:

Una variable hipergeométrica es una variable que no tiene independencia en los experimentos
seguidos al primero. No hay reposición. Se define como el número de éxitos en la muestra de tamaño
n​.

● Probabilidad puntual

❏ La variable ​n​ representa el tamaño de la muestra que tomamos.


❏ La variable ​D​ representa el número de éxitos obtenidos.
❏ La variable N representa el universo del que se toma la muestra ​n.​ Cada elemento del
universo puede clasificarse como ​éxito​ o ​fracaso.​
❏ En este caso ​k​ representa el número de éxitos que quiero obtener en la muestra de
tamaño ​n.​ Es el valor del rango de la v.a. y parte de 0.
❏ Si hacemos tender N a infinito, teniendo un universo muy grande, la probabilidad casi
no cambia en cada repetición. Hacer un experimento con reposición es análogo a este
ejemplo… sí esto sucede la variable hipergeométrica pasaría a ser una binomial. La
11

v.a. hipergeométrica se relaciona estrechamente con la binomial. Si la


hipergeométrica tiene reposición… se volvería una variable binomial.

● Esperanza y varianza:

Distribución Poisson:

El parámetro lambda se interpreta como el número de eventos sobre un espacio continuo. Por
ejemplo… número de mensajes por hora, número de aviones que aterrizan por minuto, cantidad de
fallas por metro.

Las unidades están dadas por el evento que ocurre… por ejemplo ​mensajes, aviones, fallas.​

Es una distribución que describe la probabilidad de la ocurrencia de un cierto evento, en el


transcurso del tiempo, por unidad de área, por unidad de volumen, o algún otro que sea de
carácter continuo; a un cierto ritmo θ.

● Probabilidad puntual

● Esperanza y varianza

Resumen: unidad 4
Condiciones para que f(x) sea una función de densidad: f​ (x)​ no es una probabilidad. Es simplemente
el valor en un punto. Lo que sí es una probabilidad es el área debajo de dos puntos de ​f(x).​
12

Generalmente estas condiciones se usan para hallar las constantes en la función de densidad.

● Si me dan ​f(x),​ para sacar k, hago la integral entre ​a​ y ​b =1​ y si me dan F(x), para sacar ​k​ hago
F (B) − F (A) = 1 .​ ​Siendo A y B los límites del intervalo en donde está definida la variable
aleatoria.

Función de distribución acumulada: e​ n la función de distribución acumulada de las v.a. continuas se


cumple con qué P (a ≤ x ≤ b) = P (a < x < b) y P (x = c) = 0 .

Esperanza: ​sí la integral da infinito entonces la esperanza no puede definirse, no existe.

Varianza:

Desvío standard:

Distribución uniforme:

Función de densidad:
13

Función de distribución acumulada:

Esperanza y varianza:

Distribución normal:

Función de densidad: e​ l gráfico de esta función tiene forma de campana con eje de simetría en ​x = µ
y puntos de inflexión en ​x = µ + 𝝈 ​ y ​x = µ - 𝝈​. En esta función 𝝈
​ e​ s el parámetro de dispersión.
14

En esta función no hay una expresión para la función de distribución acumulada ya que no existe la
expresión de la integral de la función de densidad. La función de densidad puede calcularse
integrando por aproximación… usas la calculadora poniendo los parámetros correspondientes y listo
papa. También podes usar una tabla.

Esta función puede ser una buena aproximación a la distribución de otras variables.

Esperanza y varianza:

El desvío de una función normal nos va a decir sí los valores de la curva se encuentran muy cercanos,
no varían tanto, o muy lejanos, varían mucho. El desvío va a determinar que tan achatada está la
curva.
Desvío grande:

Desvío pequeño:

Propiedades importantes:
15

Esta propiedad nos dice que calcular la probabilidad para la variable X es lo mismo que calcular la
probabilidad para Z… aunque las curvas sean diferentes. Sirve para no trabajar con miles de tablas
cuando los valores de µ y σ 2 son distintos.

https://calculadorasonline.com/calculadora-de-distribucion-nomal-campana-de-gauss/

Distribución normal standard:

Función de densidad:

2
Decimos que Z tiene una distribución normal estándar si sus parámetros son µ = 0 y = 1.

Función de distribución acumulada: ​al igual que con la distribución normal. No se puede obtener
una expresión para la integral… por eso definimos a la distribución acumulada de la siguiente manera:

Por el problema con la integral podemos encontrar esta función tabulada.

Esperanza y varianza:

Distribución Gamma:

Es una familia de distribuciones que dan un modelo adecuado para histogramas con cierto tipo de
asimetría.

Función Gamma o factorial:


16

Función de densidad Gamma:

λ es un parámetro de escala… sus valores comprimen o expanden la curva.

Esperanza y varianza:

Distribución Gamma estándar:

La distribución Gamma estándar se da cuando λ = 1 . Es decir que X tiene por distribución Gamma
estándar con parámetros X ~ Γ(α, 1) .

Función de densidad:

Sí α ≤ 1 la función es estrictamente decreciente. Sí α > 1 la función alcanza un máximo y luego


decrece.

Propiedad importante:

Esta propiedad permite obtener probabilidades para una v.a. con distribución Gamma a partir de una
distribución Gamma estándar.

Distribución exponencial:

La distribución exponencial se trata de un caso especial de la distribución Gamma. La v.a.


exponencial es una v.a. Gamma cuando 𝜶 = 1. El proceso exponencial está relacionado con el tiempo
hasta la ocurrencia del primer evento (como las geométricas pero en un espacio continuo).

Función de densidad:
17

Función de distribución acumulada:

Esperanza y Varianza:

Propiedad falta de memoria: ​se usa para probar/mostrar la falta de memoria de la exponencial con lo
que pudo haber pasado antes con el condicionante. El condicionante no infiere en el cálculo de la
condición. Esta es una demostración que puede entrar en el final. Esta propiedad también se aplica a
la v.a. Poisson… que está muy relacionada con la exponencial.

Suma de variables aleatorias


Para poder sumar variables aleatorias necesitamos que sean independientes entre sí.

Suma de binomiales: ​primero recordamos que las binomiales vienen de una suma de variables
Bernoulli

La suma de variables bernoulli nos da una binomial

Entonces la suma de binomiales nos da otra binomial en donde se suman los ​n​.
18

Suma de variables Poisson: ​sí ​X1​ ​ , X​ 2​ , … , Xn​ ​ s​ on variables aleatorias tal que ​X​i​ = p (x​i​)

Suma de geométricas: ​la suma de geométricas nos da una binomial negativa

Suma de exponenciales: ​es importante que los lambda sean iguales

Suma de gammas:

Suma de normales: ​sí ​X1​ ​ , X​ 2​ , … , Xn​ ​ s​ on variables aleatorias tal que X i ~ N (µi , σ2i ) y a1​ ​ , a​ 2​ , … , a​n
son números reales entonces una combinación lineal de variables aleatorias normales sigue siendo
normal

En particular sí son variables aleatorias independientes tales que X i ~ N (µ , σ 2 ) e​ ntonces el promedio


de normales, ​x_raya​, da normal. ​X_raya​ es la media o promedio muestral el cual puede ser un número
o una variable aleatoria. T es la variable aleatoria que resulta de la suma de normales.

Propiedades que usamos: c​ uando las variables aleatorias son independientes


19

La varianza de la suma y de la resta es la suma de las varianzas.

Teorema central del límite


El teorema central del límite nos dice que sí tenemos variables aleatorias ​independientes
(pertenecientes a la ​misma distribución​) con una esperanza µ, una varianza σ 2 y un ​n
suficientemente ​grande​ para dicha distribución... entonces la suma de estas variables se va a
comportar como una ​distribución normal​. Además, si estas condiciones se cumplen, el promedio de
estas variables también se va a comportar con una tendencia a una variable aleatoria normal.

Este teorema nos sirve tanto como para variables aleatorias continuas como para discretas. Es un
teorema fundamental debido a que no siempre la suma de variables pertenecientes a una misma
distribución nos termina dando una nueva variable aleatoria que pertenezca a la misma distribución.

Usamos TCL cuando no sabemos que distribución siguen los datos que nos dan y la cantidad de ellos
es mayor a 30.

T representa la suma de variables aleatorias pertenecientes a la misma distribución y X_raya su


promedio o media muestral.

Intervalos de confianza
El fin es estimar un parámetro poblacional por medio de intervalos que tienen un extremo inferior ​a​ y
un extremo superior ​b.​

El nivel de confianza de ese intervalo va a estar dado por la probabilidad de que el parámetro
poblacional, por ejemplo la media, esté en ese intervalo. Esa probabilidad se llama 1 − α .
20

Alfa representa la posibilidad de cometer un error. Cuanto más chico sea alfa, más grande será la
confianza (probabilidad de que el parámetro poblacional esté en el intervalo mayor).

Lo que queremos hacer es encontrar dos valores entre los cuales decir con cierta seguridad que allí se
encuentra el parámetro poblacional que queremos analizar. Esos valores simétricos son: − z α/2 y z α/2 .
Como los valores deben ser simétricos usamos α/2 .

El intervalo de confianza va a depender de las muestras que tome, sobre todo la cantidad de muestras.

Inferencia estadística: t​ ratamos de averiguar características de una población a partir de una muestra
de esta.

Estimación puntual: e​ s una estimación con poca confianza. Sin embargo da una idea del valor que
buscamos. Es poco útil.

Media poblacional: e​ s la esperanza de las muestras.

Desvío poblacional: e​ s el desvío de las muestras.

Desvío muestral: l​ o definimos con la letra S.

Media muestral: e​ s una distribución que tiene una esperanza y un desvío. La media muestral sigue
una distribución normal.

Cada Xi es una prueba distinta. La media muestral puede verse como una ​función promedio​.
21

A partir de la media muestral puedo generar un cierto intervalo de confianza en donde tenemos cierta
seguridad de encontrar a la media poblacional µ. Lo que queremos hacer es encontrar dos valores,
simétricos a la media poblacional.

Confianza: g​ eneralmente nos la dan. Sí nos piden una confianza de 99% usamos 0.99.

Esto significa que, suponiendo que calculamos la media poblacional, si tenemos un intervalo de 95%
entonces la media va a caer 95 veces de 100 dentro del intervalo que encontre.

Intervalos

Test de hipótesis así nomás


Parte conceptual
Decisión: l​ a decisión se debe basar en datos de una muestra. Esto trae un riesgo… porque podría
pasar que los parámetros muestrales obtenidos no representan de buena manera a los poblacionales.
22

Afirmación: t​ enemos que probar una afirmación. Una afirmación cuya veracidad se aprueba o se
desaprueba se llama ​hipótesis​. El procedimiento para determinarlo se llama ​test de hipótesis​.

Hipótesis: a​ firmación o conjetura acerca de un parámetro de una o más poblaciones que está sujeta a
verificación.

Test de hipótesis: ​procedimiento basado en evidencia de la muestra y la teoría de probabilidad para


determinar si la hipótesis es una afirmación razonable.

Hipótesis nula: ​es cualquier hipótesis que se desea probar. H​0​. Se rechaza sólo sí los datos ofrecen
suficiente evidencia como para NO considerarla verdadera. Solo podemos rechazarla si hay suficiente
evidencia como para hacerlo.

Hipótesis alternativa: e​ s la hipótesis que se va a aceptar en caso de que la hipótesis nula sea
rechazada. H​1​. Sólo podemos aceptarla si los datos nos dan suficiente evidencia para rechazar la
hipótesis nula. La muestra tiene que darnos una evidencia suficientemente fuerte.

Nivel de significancia: e​ s la probabilidad de rechazar la hipótesis nula cuando ésta es verdadera. Lo


denotamos con α . El nivel de significancia permite establecer, con base en probabilidades, un criterio
para determinar si se tiene ​suficiente evidencia​ para ​descartar​ la hipótesis nula. No queremos que la
probabilidad de rechazar la hipótesis nula cuando esta es verdadera sea muy alta. Generalmente
vamos a trabajar con niveles de significancia entre 1% y 5%, niveles bajos.

Tipos de errores: a​ l basarse nuestro estudio en datos de la muestra hay dos errores que podemos
cometer, lo cual determina la confiabilidad de la prueba.

● Error tipo I: e​ s el error que se comete cuando se rechaza una hipótesis que es correcta. La
probabilidad de cometer este error lo denotamos con α , que es el nivel de significancia.
● Error tipo II: ​se comete cuando se acepta una hipótesis que es incorrecta. La probabilidad de
cometer este error se denota como ß.

Si elegimos una probabilidad de tipo I muy pequeña entonces la probabilidad del error tipo II va a ser
muy grande.
23

Valor crítico: e​ s el valor determinado por el nivel de significancia.

Estadístico de prueba: e​ s un valor que se emplea para ser ​contrastado​ contra el ​valor crítico​. Esto
permite establecer una regla para tomar la decisión de aceptar o rechazar la hipótesis nula. La elección
del valor crítico y del estadístico depende de varios factores como el tipo de parámetros, de sí es una
población o muchas. Lo sacamos a partir de los datos que nos dan en el enunciado, obtenemos un
número.

● n≥30 y​ desvío conocido. Utilizamos la distribución normal.

● Con ​n≥30 ​y desvío desconocido. Utilizamos la distribución normal.

● Sí ​n<30, l​ a muestra es pequeña, y el desvío es desconocido. Utilizamos la distribución ​t​ de


student.

Criterio de aceptación o de rechazo:

● Prueba de una cola: ​sí H​1​: µ>µ​0​ o bien sí H​1​: µ<µ​0


24

● Prueba de dos colas: ​sí H 1 : µ =/ µ0 .

Regla de aceptación en términos de z:​ ​z​t​ es la ​z​ que viene de 1 − α . Es importante aclarar, siempre,
para que nivel de significación rechazamos la hipótesis nula ya que, cambiando el nivel de
significación, podríamos llegar a aceptarla.

● Sí​ ​|zc​ ​| > |​z​t​|​: se rechaza la hipótesis nula H​0​ y se acepta la hipótesis alternativa H​1​.
● Sí​ ​|zc​ ​| ≤ |​zt​ ​|​: se mantiene la hipótesis nula. Caemos en zona de aceptación.

Regla de aceptación en términos de t:​

● Sí​ ​|t​c|​ > |t​t​|​: se rechaza la hipótesis nula H​0​ y se acepta la hipótesis alternativa H​1​.
● Sí​ ​|t​c|​ ≤ |​tt​ |​​ : se mantiene la hipótesis nula. Caemos en zona de aceptación.

Proporción
En un test de hipótesis debemos comprobar, basándonos en los resultados obtenidos en una muestra,
si el valor verdadero de una proporción es igual a una constante determinada o sí las proporciones de
dos o más poblaciones son iguales.

Hipótesis nula:

Hipótesis nula:
25

Estadístico de prueba: e​ l criterio de aceptación o rechazo de la hipótesis nula es exactamente igual


que antes. En este caso Q = 1-P. La proporción en la muestra está dada por p=x/n. En donde x es el
número de eventos en la muestra. P es la proporción que queremos probar.

Procedimiento
Pasos a seguir:

1. Se establece la hipótesis nula y la hipótesis alternativa.


2. Se selecciona un nivel de significancia para la prueba.
3. Se identifica el estadístico de prueba.
4. Se formula una regla para tomar decisiones.
5. Se toma una muestra y se llega a una decisión. En otras palabras… se acepta o se rechaza la
hipótesis nula.

​Ejemplo para la media poblacional:

● Planteo hipótesis nula:

● Planteo hipótesis alternativa: t​ engo varias formas de hacerlo

● Elijo el nivel de significancia (la probabilidad de cometer un error tipo I). Si elegimos una
probabilidad de tipo I muy pequeña entonces la probabilidad del error tipo II va a ser muy
grande.
● Usamos estadístico de prueba:
26

Clase de consulta
Tratar de que la hipótesis nula nos quede con un igual.

Nivel de significancia: d​ efine una línea de corte. Es un criterio que tomo para ver de aceptar o
rechazar la hipótesis. ​De aca para abajo puedo concluir que la media es menor o igual que…​ ​de acá
para arriba considero que la media…​ con el nivel de significancia género uno de los dos términos de
la comparación. Con el alfa definir el porcentaje de error que voy a permitir en mi experimento.

Cola: ​hacer foco en la hipótesis alternativa. Ella me dice sí el test es a una cola o a dos colas.

x_realidad: e​ s la media de la muestra. Me tengo que fijar si cae antes o después del x criticó que me
da el estadístico. Sí lo normalizamos lo convertimos en ​z_realidad.​

p valor:​ es el área que vamos a comparar contra el alfa. Es el error que estamos cometiendo con la
muestra. Es un dato ​importante​ ya que es el error que yo me permito en los datos reales que
tenemos. Es el resultado de nuestro experimento. ​Siempre vamos a querer que el p valor contenga
un área chica.​ Yo quiero fundamentar mi creencia que rechaza la hipótesis nula y acepta la
alternativa,. Sí la x realidad queda muy cerca de la media de la hipótesis nula… entonces pasa lo
contrario y no puedo rechazar la hipótesis nula, por lo que la hipótesis alternativa (la cual yo quiero
probar) es falsa.

Estadístico:​ ​no es necesario siempre normalizar pero tengo que ver bien cómo es que se usa y que
representa. Es lo mismo que x realida o z realidad (sí esta normalizado).

Falta de muestras: ​si no me dicen que los datos siguen distribución normal y tengo pocas muestras
como para no poder aplicar TCL… entonces no puedo hacer nada.

T student: t​ engo que tener distribución normal y varianza poblacional desconocida. Sí tengo muchas
muestras da lo mismo usar o no la ​t​.

Dividir desvío por raíz de n:

Redacción conclusión: c​ on este nivel de significancia no tengo evidencia suficiente para pensar que
la hipótesis alternativa es correcta. No puedo rechazar el status quo.

Con este nivel de significancia no tenemos suficiente evidencia para pensar que la hipótesis nula es
verdadera. Rechazamos el status quo​ ​y aceptamos la hipótesis alternativa c​ on los datos que tenemos​.
27

El test termina acá.

¿Que pasa si la hipótesis nula no es verdadera?:​ pasa cuando el parámetro poblacional verdadero es
otro. Alguien viene y me lo dice. Dibujo una nueva curva.

Efecto: ​La distancia entre las medias de las dos curvas, la vieja (que viene de la creencia falsa sobre el
parámetro poblacional) y la nueva (cuando me dicen el verdadero valor del parámetro). Sí achicó el
efecto… Agrandar el error de tipo 2, agranda B.

Encontrar beta: p​ ara poder calcularlo tenemos que saber cual es el valor del parámetro poblacional,
µ, verdaderMatengo el valor del x critico y me voy a la nueva curva. El x_crítico se mantiene en la
nueva curva… pero CAMBIA el área debajo de este.

ß: e​ s 1 menos el área bajo el x_crítico en la nueva curva.

Potencia: e​ s 1-B. Es el valor que queda debajo del punto crítico en la nueva curva.
El x_crítico de antes no cambia.

Lower.tail: l​ o usamos para calcular el complemento de una probabilidad… cuando ponemos FALSE.

Errores: c​ uando el error de tipo I y tipo II, sobre todo el error de tipo II, son bajos entonces el test
tiene potencia muy grande. El error de tipo I se ve en la primera curva. Cuando B es chica, entonces la
potencia es grande.

Potencia: e​ s la probabilidad de rechazar la hipótesis nula cuando ésta es falsa. Nos conviene que sea
así ya que, por lo que hacemos antes, descubrimos que la hipótesis nula es falsa, por lo que queremos
rechazarla. Un test con una potencia alta es muy bueno por este hecho.

Otra forma de expresarla es com: ​la probabilidad de aceptar una hipótesis alternativa cuando esta es
verdadera.

Formas de aumentar la potencia:

● Aumentar alfa, nivel de significancia. No conviene porque esto aumenta el error tipo 1. Hay
que tener un buen criterio para decidir si conviene o no hacerlo.
● Aumentar el tamaño de la muestra.
● Disminuir la variabilidad de los datos, el desvío.
● Valor del parámetro real alejado de la hipótesis nula.

Beta: e​ s el complemento de el área debajo del x crítico en la nueva curva. Ósea… hacer 1 menos el
área debajo del x criticó evaluada en la curva con la media verdadera. Es la probabilidad de NO
rechazar la hipótesis nula cuando ésta es falsa.
28

Significancia: ​la probabilidad de rechazar la hipótesis nula dado que es verdadera. Cuando el p valor
me da menor que la significancia rechazo la hipótesis nula porque significa que el p valor esta muy
alejado de la media.

Protips para no recursar


● Los desvios ​NO ​se suman. Tenes que tratar de trabajar siempre con las varianzas para los
problemas de las unidades 5 y 6.
● El ​n​ que usemos depende de la distribución. Para algunas distribuciones basta con usar un ​n
chico.
● Cualquier combinación de variables aleatorias normales es normal.
● Usamos intervalos de nivel asintótico cuando no sabemos de que distribución vienen las
variables. Generalmente, cuando aplicamos TCL para intervalos de confianza.
● Para poder saber el valor de ß sí o sí tengo que saber el valor de la µ verdadera. El x critico no
cambio. ß lo puedo sacar yendo a la nueva curva con el valor de x critico.

También podría gustarte