Está en la página 1de 57

Estadística y diseño de experimentos

ANDRÉS FELIPE GUZMÁN AGUDELO

DEPARTAMENTO DE INGENIERÍA QUÍMICA


FACULTAD DE INGENIERÍA
UNIVERSIDAD DE ANTIOQUIA
DEFINICIONES
Un experimento aleatorio es un experimento que
arroja diferentes resultados, aún si este es repetido de
la misma forma una y otra vez.
El conjunto de todos los posibles resultados de un
experimento aleatorio es llamado espacio muestral y
se denota con la letra “S” también se le puede llamar
población y puede ser discreto o continuo.
Un evento es un subconjunto del espacio muestral y
se le llama también muestra.
ALEATORIEDAD
Un fenómeno es aleatorio si los
resultados individuales son
inciertos y, sin embargo, existe
una distribución regular de los
resultados después de un gran
número de repeticiones.
Que es aleatorio?
El lanzamiento de una moneda.
Los sexos de cada uno de los componentes de una
camada de ratones en un laboratorio.
La media muestral de un análisis de laboratorio.
Los resultados de un experimento cuando
comparamos dos poblaciones.
DEFINICIONES
Un parámetro es un número que describe la
población. En la práctica estadística, el valor del
parámetro no es conocido. Ej: media poblacional,
desviación estándar poblacional.
Un estadístico es un número que se puede calcular a
partir de los datos de la muestra sin utilizar ningún
parámetro desconocido. En la practica solemos utilizar
un estadístico para estimar un parámetro desconocido.
Ej: media muestral, desviación estándar muestral.
Distribución muestral
La distribución muestral de un
estadístico es la distribución de
los valores tomados por el
estadístico en todas las
muestras de igual tamaño de la
misma población.
Distribución muestral
Cada vez que tomamos una muestra a partir de una
población, la muestra cambia, y por lo tanto, los
estadísticos cabían. No sabemos que valor tomarán los
estadísticos a partir de cada una de las muestras, pero
si sabemos que existe una distribución de los
estadísticos que se van a observar si tomamos muchas
repeticiones.
Después de muchos lanzamientos, la proporción de caras se
acerca a 0.5, que es la probabilidad de que salga cara.
1/1=1

3/5=0,6
6/10=0,6

1/2=0,5
ESPACIO MUESTRAL Y EVENTOS
Muestras de policarbonato plástico son analizadas en cuanto a sus
resistencias al rayado e impacto. Los resultados de 50 muestras se
muestran en la siguiente tabla:

A: Evento de que una muestra tenga alta resistencia al impacto


B: Evento de que una muestra tenga alta resistencia al rayado
S
A B
ESPACIO MUESTRAL Y EVENTOS
¿Cuántas muestras tienen los siguientes eventos y qué
significa cada uno?

A B 45 muestras

A B 40 muestras

9 muestras
A'
ESPACIO MUESTRAL Y EVENTOS
Dos eventos E1 y E2 son mutuamente excluyentes cuando no tienen
elementos en común.
E1  E2  
Algunos resultados de los eventos expresados de acuerdo a la teoría
de conjuntos son: ( E ' )'  E

( A  B)  C  ( A  C )  ( B  C )

( A  B)  C  ( A  C )  ( B  C )

( A  B )'  A' B '

( A  B )'  A' B '

A B  B  A

A B  B  A
PROBABILIDAD
La probabilidad de cualquier
resultado de un fenómeno
aleatorio es la proporción de
veces que el resultado se da
después de una larga serie de
repeticiones.
PROBABILIDAD
• La probabilidad se usa para estimar la oportunidad o posibilidad de
que un evento ocurra.
• En un espacio muestral discreto, la probabilidad de que un evento E
ocurra, denotada como P(E) es igual a la suma de las probabilidades de
los resultados en E.
AXIOMAS DE PROBABILIDAD
* P( S )  1
* 0  P( E )  1
Para dos eventos E1 y E2 con E1  E2  

* P( E1  E2 )  P ( E1 )  P ( E2 )
* P( A)  P( A' )  1
PROPIEDADES DE LA PROBABILIDAD
Cualquier probabilidad está entre 0 y 1.
Todos los resultados posibles juntos deben tener una
probabilidad de 1.
La probabilidad de que un proceso no ocurra es igual a
1 menos la probabilidad de que ocurra.
Si dos sucesos no tienen resultados en común, la
probabilidad de que ocurra cualquiera de ellos es igual
a la suma de sus probabilidades individuales.
Calculo de probabilidades
La probabilidad p de que suceda un evento S de un
total de n casos posibles igualmente probables es igual
a la razón entre el número de ocurrencias h de dicho
evento (casos favorables) y el número total de casos
posibles n.

h
p  P  S 
n
Si el juego consistiera en adivinar 1 de los 45 números,
la probabilidad p de ganar P(A) es:
A=Evento aleatorio que indica que el número
seleccionado es el ganador. S= 45

1 1
P ( A)    0,0222...
S 45
Juguemos a seleccionar 6 números determinados,
elegidos de un conjunto de 45.

Si el juego es adivinar 6
de los 45 números, ¿La
probabilidad p de ganar
P(S) es ?
h=1 (compro un solo
cartón), n= ??
Combinatoria
Coeficiente binomial o combinaciones C(m, k): El
coeficiente binomial es el número de subconjuntos de
k elementos escogidos de un conjunto con m
elementos.

m m!  45  45!
     8.145.060
 k  k !(m  k )!  6  6!(45  6)!
Si el juego consiste en
adivinar 6 de los 45
números, la probabilidad
p de ganar P(S) es :

h 1
p  P  S    0, 000000122774...
n 8.145.060
P  S   0,000012277 %
REGLAS DE ADICIÓN Y PROBABILIDAD
CONDICIONAL
Para dos eventos A y B

P( A  B)  P( A)  P( B)  P ( A  B)
Si los eventos son mutuamente excluyentes

P( A  B)  P( A)  P( B)
PROBABILIDAD CONDICIONAL

P( A  B)
P ( B A) 
P ( A)
INDEPENDENCIA DE EVENTOS
Dos eventos son independientes si una de las siguientes
afirmaciones equivalentes es verdadera:

* P ( A B )  P( A)
* P ( B A)  P( B )
* P ( A  B)  P( A) P( B)
Modelos de probabilidad
El espacio muestral S de un fenómeno aleatorio es el
conjunto de todos los resultados posibles.
Un suceso es cualquier resultado o conjunto de
resultados de un fenómeno aleatorio. Es decir, un
suceso es un subconjunto de un espacio muestral.
Un modelo de probabilidad es una descripción
matemática de un fenómeno aleatorio. Consta de dos
partes: un espacio muestral S y un procedimiento de
asignación de probabilidades a los sucesos.
DISTRIBUCIONES DE PROBABILIDAD
Una distribución de probabilidad de una variable
aleatoria X es una descripción de las probabilidades
asociadas con los posibles valores de X. Para una
variable aleatoria discreta, la distribución se especifica
muchas veces como una lista de los posibles valores
junto con la probabilidad de cada uno. En algunos
casos es conveniente expresar la probabilidad en
términos de una fórmula.
Frecuencia absoluta
Frecuencia Relativa = probabilidad
DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS
Para una variable aleatoria discreta X con posibles
valores x1, x2,….xn, su función de probabilidad de
masa es una función tal que:
* f ( xi )  0
n
*  f ( xi )  1
i 1

* f ( xi )  P ( X  xi )
DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS
La función de distribución acumulada de una
variable aleatoria X, denotada como F(x), es
F ( x)  P ( X  x)   f ( xi )
xi  x

Para una variable aleatoria X, F(x) satisface que:


* F ( x )  P ( X  x)   f ( xi )
xi  x

* 0  F ( x)  1
* Si _ x  y, _ entonces _ F ( x)  F ( y )
MEDIA Y VARIANZA DE UNA VARIABLE
ALEATORIA DISCRETA
La media o valor esperado de una variable aleatoria
discreta X, denotada por μ o E(X), es
  E ( X )   xf ( x)
x

La varianza de X, denotada como 2 o V(X), es


 2  V ( X )  E ( X   ) 2   ( x   ) 2 f ( x)   x 2 f ( x)   2
x x

La desviación estándar de X es
  2
MEDIA Y VARIANZA DE UNA VARIABLE
ALEATORIA DISCRETA
DISTRIBUCIÓN DE PROBABILIDAD DISCRETA
UNIFORME
Una variable aleatoria discreta X, tiene una distribución
discreta uniforme si cada uno de los n valores en su
rango, x1, x2,…xn, tiene igual probabilidad, entonces,
1
f ( xi ) 
n
Suponga que el rango de una variable aleatoria X, consiste en
los enteros consecutivos a, a+1, a+2,….b. El rango de X
contiene b-a+1 valores cada uno con probabilidad 1/(b-a+1).
ba
  E( X ) 
2
(b  a  1) 2  1
 
2

12
DISTRIBUCIÓN DE PROBABILIDAD DISCRETA
UNIFORME  1
𝑝 ( 𝑥) = ; 𝑛=𝑏 − 𝑎+1
𝑛

P(S)=1
DISTRIBUCIÓN DE PROBABILIDAD DISCRETA
UNIFORME
EJERCICIO:
Las medidas de espesor de un proceso de recubrimiento
son aproximadas a la centésima de milímetro más
cercana. Los espesores de los recubrimientos están
uniformemente distribuidos con valores 0.15, 0.16, 0.17,
0.18 y 0.19. Determine la media y la varianza de los
espesores de recubrimiento para este proceso.
DISTRIBUCIÓN BINOMIAL
PROCESO DE BERNOULLI:
 Lanzar una moneda 10 veces. Sea X= el número de
caras obtenidas.
 Una máquina de tornillos produce 1% de tornillos
defectuosos. Sea X= el número de partes defectuosas
en las próximas 25 partes producidas.
 Cada muestra de aire tiene una probabilidad de 10% de
contener una molécula rara particular. Sea X= el
número de muestras de aire que contienen la molécula
rara en las próximas 18 muestras tomadas.
DISTRIBUCIÓN BINOMIAL
Un experimento aleatorio compuesto por n ensayos de Bernoulli (Proceso
de Bernoulli), tal que:
1- Los ensayos son independientes
2- Cada ensayo tiene como resultado uno de dos posibles resultados,
llamados “éxito” y “falla”.
3- La probabilidad de un éxito en cada ensayo, denotada como p,
permanece constante.
La variable aleatoria X que es igual al número de ensayos que resultan en
 p 1
un “éxito” tiene una0 distribución
n  1aleatoria
,2,3... binomial con parámetros
y . La función masa de probabilidad de X es:

n x
f ( x)    p (1  p) n  x x  0,1,2...n
 x
DISTRIBUCIÓN BINOMIAL
MEDIA Y VARIANZA

Si X es una variable aleatoria binomial con parámetros p


y n:

  E ( X )  np

  V ( X )  np(1  p)
2
Distribución Binomial
Supongamos que se lanza un dado 50 veces y
queremos la probabilidad de que el número 3 salga 20
veces. En este caso tenemos una X ~ B(50, 1/6) y la
probabilidad sería P(X=20):

 
= 0,0000543
DISTRIBUCIÓN GEOMÉTRICA
Considere el proceso de Bernoulli (pruebas
independientes con probabilidad constante p de un
éxito en cada ensayo). Sin embargo, en vez de tener un
número fijo de ensayos, estos se llevan a cabo hasta
que un “éxito” es obtenido. Sea X la variable aleatoria
que denota el número de pruebas o ensayos hasta el
primer éxito.
DISTRIBUCIÓN GEOMÉTRICA
En un proceso de Bernoulli (pruebas independientes con
probabilidad de éxito p) y sea la variable aleatoria X
que denota el número de pruebas hasta el primer
éxito. Entonces X es una variable aleatoria geométrica
0  p 1
con parámetro y
x 1
f ( x)  (1  p ) p x  0,1,2...
  E( X )  1/ p
(1  p )
  V (X ) 
2
2
p
DISTRIBUCIÓN BINOMIAL NEGATIVA
La generalización de la distribución geométrica en la
cual la variable aleatoria es el numero de ensayos de
Bernoulli requeridos para obtener r éxitos se conoce
como la distribución binomial negativa.
En un proceso de Bernoulli (pruebas independientes con
probabilidad constante p de éxito), sea X la variable
aleatoria que denota el número de pruebas hasta que r
éxitos ocurran. Entonces X es una variable aleatoria
binomial negativa con parámetros 0  p  1 y r  1,2,3...
 x  1
f ( x)   (1  p) x  r p r x  r , r  1, r  2...
 r 1
DISTRIBUCIÓN BINOMIAL NEGATIVA
Si X es una variable aleatoria binomial negativa con
parámetros p y r,

  E( X )  r / p
r (1  p )
  V (X ) 
2
2
p
DISTRIBUCIÓN HIPERGEOMÉTRICA

Para
  procesos donde las pruebas no son independientes, por
ejemplo en un muestreo de dos piezas manufacturadas, donde la
segunda se realiza sin reemplazo de la primera, se tiene entonces un
conjunto de N objetos que contienen K éxitos y N-K fracasos. Una
muestra de tamaño n objetos es seleccionada aleatoriamente (sin
reemplazo) de los N objetos, donde .
Sea X la variable aleatoria que indica el número de éxitos en la
muestra. Entonces X es una variable aleatoria hipergeométrica y

x= max{0,n+K-N} hasta min{K, n}

Donde p=K/N
DISTRIBUCIÓN POISSON
Dado un intervalo de números reales, asuma que los éxitos
ocurren aleatoriamente a través del intervalo. Si el intervalo
puede ser particionado en sub-intervalos lo suficientemente
pequeños tal que:
1- la probabilidad de mas de un éxito en el sub-intervalo es cero.
2- la probabilidad de un éxito en un sub-intervalo es la misma
para todos los sub-intervalos y proporcional a la longitud de los
sub-intervalos y
3- el éxito en cada sub-intervalo es independiente de otros sub-
intervalos, el experimento aleatorio es llamado un proceso de
Poisson.
DISTRIBUCIÓN POISSON

La  variable aleatoria X es igual al número de éxitos en el
intervalo es una variable aleatoria de Poisson con
parámetros , la función masa de probabilidad de X es
VARIABLES ALEATORIAS CONTINUAS Y
DISTRIBUCIONES DE PROBABILIDAD

Para
  una variable aleatoria continua X, una función de
densidad de probabilidad es una función tal que
1-

2-

3-
VARIABLES ALEATORIAS CONTINUAS Y
DISTRIBUCIONES DE PROBABILIDAD

FUNCIÓN
  DE DISTRIBUCIÓN ACUMULADA

La función de distribución acumulada de una variable


aleatoria continua X, es

Para
MEDIA Y VARIANZA DE VARIABLES
ALEATORIAS CONTÍNUAS

Suponga
  que X es una variable aleatoria continua con
función de densidad de probabilidad
La media es

La varianza es

La desviación estándar de X es
DISTRIBUCIÓN UNIFORME CONTÍNUA

Una
  variable aleatoria continua X con función de
densidad de probabilidad
,
Es una variable aleatoria continua uniforme.

ab
  E( X ) 
2
(b  a ) 2
 
2

12
DISTRIBUCIONES CONTÍNUAS DE
PROBABILIDAD
DISTRIBUCIÓN NORMAL
La variable aleatoria que indica el promedio, el total o el
error de un resultado sobre réplicas, tiende a tener una
distribución normal a medida que el número de
réplicas se incrementa.
Abraham De Moivre presento estos resultados en lo que
se conoce como el teorema del límite central en
1773. Su trabajo estuvo perdido por un tiempo, Carl
Friedrich Gauss desarrollo independientemente una
distribución normal 100 años después y por esto se
conoce como la distribución Gaussiana.
DISTRIBUCIÓN NORMAL
Caracteres morfológicos de individuos como la
estatura.
Caracteres fisiológicos como el efecto de un
fármaco.
Caracteres sociológicos como el consumo de cierto
producto por un mismo grupo de individuos.
Caracteres psicológicos como el cociente
intelectual.
Nivel de ruido en telecomunicaciones.
Errores cometidos al medir ciertas magnitudes.
DISTRIBUCIÓN NORMAL
Una variable aleatoria X con función de densidad de
probabilidad
( x )2
1
f ( x)  e 2 2
  x  
2 
Es una variable aleatoria normal con parámetros μ
-∞<μ<∞ y σ>0, también
E( X )  
V (X )   2
La notación N(μ, 2 ) se usa para denotar la distribución
DISTRIBUCIÓN NORMAL
DISTRIBUCIÓN NORMAL
DISTRIBUCIÓN NORMAL ESTANDARIZADA
Si X es una variable aleatoria con E(X)=μ y V(X)= ,2la
variable aleatoria
X 
Z

es una variable aleatoria normal con E(Z)=0 y V(Z)=1 y se


conoce como variable aleatoria normal estándar.
Su función de distribución acumulada
 ( Z )  P( Z  z )

se encuentra en tablas.
DISTRIBUCIÓN NORMAL ESTANDARIZADA

También podría gustarte