Está en la página 1de 9

Pregunta 1: Una variable aleatoria es una función en la cual, la variable toma valores numéricos

determinados. Existe dos tipos de variables aleatorias, las discretas y las continúas. En el primer
caso la variable va asociada a experimentos en los que se cuenta el número de veces que se ha
presentado un suceso o donde el resultado es una puntuación concreta. En el segundo tipo, la
variable puede tomar cualquiera de los valores entre dos números dados. Una empresa realiza una
encuesta telefónica para preguntar la preferencia de un lugar para ir de vacaciones, en ella
pregunta a un grupo de personas su edad ¿esta variable aleatoria será continua o discreta?

La variable aleatoria es discreta puesto que solo puede tomar un número finito de valores dentro
de un intervalo, por ejemplo el número de hijos de una dálmata puede ser 6,7,8 o quizás 9 perritos
pero nunca 7.5 o 9.87.
Y con ella es posible cuantificar la cantidad de personas que deseen ir de vacaciones a x o y lugar.
La asociamos a los números de veces que sucede un evento.

Pregunta 2: Una empresa nueva en el país, requiere estimar la proporción de personas que
pueden contratar con una experiencia de un año o menos para su departamento de ventas. Los
estándares de la empresa indican que los resultados deben estar dentro de un 2%, con una
confianza del 95%. Los administradores de la empresa indican que al realizar un examen a los
aspirantes, 1/4 de ellos no lo aprueban. Uno de los administradores indica que el tamaño de la
muestra necesaria para contratar el personal es 1551 personas. ¿Eso es cierto?
Primero pasamos a reunir datos:
Resultados: 2% Rs=2%
C= nivel de confianza C= 95%
1/4 de la muestra no aprueban ser contratados = 0,25 = 25%
Ds = Desviación estándar
Ds =25%
n =tamaño de la muestra

Resultados=Desviación estándar /√n


√n= Ds/Rs
n= (Ds/Rs)
n = (0,25 /0.02)²
n = 156,25

Uno de los administradores indica que el tamaño de la muestra necesaria para contratar el
personal es 1551 personas. ¿Eso es cierto?
Como podemos visualizar el tamaño de la muestra es como mínimo de 157 personas por lo tanto
esta afirmación del administrador NO es cierta , la muestra puede ser menor o con un mínimo de
157 personas
A continuación doy respuesta al caso práctico de la unidad 1
Se analizan dos poblaciones en las que se estudian las variables aleatorias:
ζ1 = estatura de los niños españoles (en cm)
ζ2 = estatura de los niños alemanes (en cm)
siendo ζ1 → N(120,5) y ζ2 → N(130,6)
Se extraen m.a.s independientes de cada población de tamaños n=25 y m=30, respectivamente.
Se pide:

a) La probabilidad de que la estatura media de los niños alemanes sea mayor de 180 cm.
a)
ζ2 = estatura de los niños alemanes (en cm)
ζ1 → N(130,6)
μ =130
σ=6
n = 30 = σ
ζ1 → N(130) ⇒ Zo N (0,1)
μ =0 y σ = 1
Z = X -μ /σ
Z = 180 -130 /30
Z =1,6
X = 180
Z = 1,6 Z ≈ N (0,1) ≈0,95
P(X≥180) = 1 -0,95
= 0,0485
= 4,85% que aproximándolo sería una probabilidad del 5% de que los niños alemanes
midan 1. 80 cm o más.

2. Dada una población representada por una variable ζ cuya distribución de probabilidad se
supone N(μ,4). Se pide: Elaborar el intervalo de confianza para la estimación del parámetro μ, al
nivel de confianza del 95% con base en una m.a.s de tamaño n=100 en la que se obtiene una
media muestral igual a 10.

n =100
z=95%
μ=10
e=5%

La confianza es igual a 0.95


Alfa= 1 -0.95= 0.05
Alfa/2 = 0.05/2= 0.025
Z=1.96 (según la tabla de distribución normal

[M] 95% =10+-1.96* 0.05/ √100


[M] 95% =10+- 0.005
[10+0.005= 10.005 Intervalo superior]
[10-0.005= 9.995 Intervalo Inferior] proximado sería [9.90;10:00]
EJERCICIO 1 :

Se analizan dos poblaciones en las que se estudian las variables aleatorias:


ζ1 = estatura de los niños españoles (en cm)
ζ2 = estatura de los niños alemanes (en cm)
siendo ζ1 → N(120,5) y ζ2 → N(130,6)
Se extraen m.a.s independientes de cada población de tamaños n=25 y m=30, respectivamente.
Se pide:
a) La probabilidad de que la estatura media de los niños alemanes sea mayor de 180 cm.

ζ2 = estatura de los niños alemanes (en cm)


ζ1 → N(130,6)
Teniendo en cuenta que en una Distribución normal de variables aleatorias continuas:
μ =130 y σ = 6 La probabilidad media y la desviación típica
se debe tipificar la variable aleatoria
Es decir, simplificar para buscar valor de la probabilidad en la tabla
n = 30 = σ
ζ1 → N(130,30) ⇒ Zo N (0,1) en donde μ =0 y σ = 1
Z = X -μ /σ
Z = 180 -130 /30
Z =1,66
Para X = 180 Z = 1,66 Z ≈ N (0,1) ≈0,9515
P(X≥180) = 1 -0,9515 = 0,0485 = 4,85% para los niños alemanes

EJERCICIO 2 :
Dada una población representada por una variable ζ cuya distribución de probabilidad se supone
N(μ,4). Se pide:

Elaborar el intervalo de confianza para la estimación del parámetro μ, al nivel de confianza del
95% con base en una m.a.s de tamaño n=100 en la que se obtiene una media muestral igual a 10.

Distribución de probabilidad se supone N(μ,4)


Intervalo de confianza = ?
μ = 10
n = 100
Z = 95%
Z: nivel de confianza
μ: media
σ: desviación
e: error e= 0,05 = 5%
e = σ /√n
σ = e *√n
σ = 0,05 / √100 = 0,005
El intervalo de Confianza es N (10; 0,005)
INFORMACIÓN SOBRE VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS
Variables aleatorias discretas
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2...
, xk, con igual probabilidad; el espacio muestral debe ser finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:
donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la
función de probabilidad o densidad de una variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las expresiones
El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme
se le suele llamar distribución rectangular.

Distribución binomial
La distribución binomial es típica de las variables que proceden de un experimento que
cumple las siguientes condiciones:
1) El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo.
2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de
Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se
denominan generalmente como éxito y fracaso.
3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ;
P(fracaso) = 1 - p = q
4) Las pruebas son estadísticamente independientes,
En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos en las n
pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los
números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo
determinado en un muestreo de n elementos con reemplazamiento.
La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el
número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la distribución.
La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la
expresión anterior, es utilizando el triángulo de Tartaglia
La media y la varianza de la variable binomial se calculan como:
Media = μ = n p
Varianza = σ2 = n p q
Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el
caso en que n = 4:

Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que
cada prueba tiene más de dos posibles resultados mutuamente excluyentes.
Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la
variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes
tiene distribución multinomial.
La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:
Los parámetros de la distribución son p1,..., pK y n.

Distribución hipergeométrica
Una variable tiene distribución hipergeométrica si procede de un experimento que cumple
las siguientes condiciones:
1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto finito de N objetos.
2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos.
X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral es el conjunto
de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante pues depende del
resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí.
La función de probabilidad de la variable hipergeométrica es:

Los parámetros de la distribución son n, N y K.


Los valores de la media y la varianza se calculan según las ecuaciones:

Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muy poco de una
prueba a otra, así pues, la variable, en este caso, es esencialmente binomial; en esta situación, N
suele ser muy grande y los números combinatorios se vuelven prácticamente inmanejables, así
pues, la probabilidades se calculan más cómodamente aproximando por las ecuaciones de una
binomial con p = K / N.
La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la de la variable antes de
la aproximación; sin embargo, la varianza de la variable binomial es ligeramente superior a la de la
hipergeométrica.

el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n <<
N.
El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo, mostramos los
casos análogos a los de las binomiales del apartado anterior (p inicial = 0,25 y n = 4)

Distribución multihipergeométrica
Este variable se define igual que la hipergeométrica con la única diferencia de que se
supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1, A2,...,
AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1, x2,...,
xR)

Esta situación es análoga a la planteada en el caso de la distribución multinomial. La función de


probabilidad

Distribución de poisson
Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo determinado) que
ocurren en una región del espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:
El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo
que ocurra en cualquier otro tiempo o espacio disjunto del anterior.
La probabilidad de un ‚éxito en un tiempo o espacio pequeño es proporcional al tamaño de este y
no depende de lo que ocurra fuera de él.
La probabilidad de encontrar uno o más ‚éxitos en una región del tiempo o del espacio tiende a
cero a medida que se reducen las dimensiones de la región en estudio.
Como consecuencia de estas condiciones, las variables Poisson típicas son variables en las que
se cuentan sucesos raros.
La función de probabilidad de una variable Poisson es:

El parámetro de la distribución es λ que es igual a la media y a la varianza de la variable.


Esta característica puede servirnos para identificar a una variable Poisson en casos en que se
presenten serias dificultades para verificar los postulados de definición.
La distribución de Poisson se puede considerar como el límite al que tiende la distribución
binomial cuando n tiende a y p tiende a 0, siendo np constante (y menor que 7); en esta situación
sería difícil calcular probabilidades en una variable binomial y, por tanto, se utiliza una
aproximación a través de una variable Poisson con media l = n p.
La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.

Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es
otra Poisson con media igual a la suma las medias.
El aspecto de la distribución depende muchísimo de la magnitud de la media. Como ejemplo,
mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ = 1,5 (arriba a la derecha) y λ = 5 (abajo)
Obsérvese que la asimetría de la distribución disminuye al crecer λ y que, en paralelo, la gráfica
empieza a tener un aspecto acampanado.

Variables aleatorias continuas

Distribución normal o de Gauss


La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor
importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus
valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas
causas de efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de campana a la que se llama
campana de Gauss.
Su función de densidad es la siguiente:

Los parámetros de la distribución son la media y la desviación típica, μ y σ, respectivamente. Como


consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas
en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias
reales que se asemejan a la normal.
La curva normal cumple las siguientes propiedades:
1) El máximo de la curva coincide con la media.
2) Es perfectamente simétrica respecto a la media (g1 = 0).
3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es
convexa entre ambos puntos de inflexión y cóncava en ambas colas.
4) Sus colas son asintóticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habría que integrar la


función de densidad entre los extremos del intervalo. por desgracia (o por suerte), la función de
densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es
referirse a tablas de la función de distribución de la variable (calculadas por integración numérica)
Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad
enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una
correspondencia de sus valores con los de otra variable con distribución normal, media 0 y
varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables
se obtiene mediante la ecuación:

La función de distribución de la variable normal tipificada está tabulada y, simplemente,


consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos
interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de variables normales
independientes es otra normal.

Histograma de una muestra de una variable normal


Histograma de una normal idealizada

Distribución Gamma (Γ)


La distribución gamma se define a partir de la función gamma, cuya ecuación es:

La función de densidad de la distribución gamma es:

α y β son los parámetros de la distribución.


La media y la varianza de la variable gamma son:

Distribución exponencial
Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad es:

Su parámetro es β.
La media y la varianza de la distribución exponencial son:
Distribución Chi-cuadrado (c2)
Es otro caso particular de la distribución gamma para el caso β = 2 y α = n / 2, siendo n un
número natural.
Su función de densidad es:

El parámetro de la distribución c2 es n y su media y su varianza son, respectivamente:

Otra forma de definir la distribución c2 es la siguiente: Supongamos que tenemos n variables


aleatorias normales independientes, X1,..., Xn, con media μi y varianza (i = 1 ... n), la variable
definida como

tiene distribución c2 con n grados de libertad y se le denomina c2n.

Variables chi-cuadrado con valores de progresivamente


mayores son cada vez menos asimétricas.

Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con
distribución c2 con n grados de libertad, la variable definida según la ecuación:
tiene distribución t con n grados de libertad.
La función de densidad de la distribución t es:

El parámetro de la distribución t es n, su número de grados de libertad.


Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X.
Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden considerar prácticamente
iguales para valores de n mayores o iguales que 30..

Variables T con valores de n progresivamente mayores


son cada vez menos platicúrticas

Comparación entre la variable T y la normal tipificado.

Distribución F de Snedecor
Sean U y V dos variables aleatorias independientes con distribución c2 con n1 y n2 grados
de libertad, respectivamente. La variable definida según la ecuación:

tiene distribución F con n1, n2 grados de libertad.


La función de densidad de la distribución F es:
Los parámetros de la variable F son sus grados de libertad n1 y n2.
Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la
siguiente:
Llamemos fa,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que
cumple la condición, P(F > fa,n1,n2) = α; llamemos f1-a,n1,n2 al valor de una distribución F
con n1 y n2 grados de libertad que cumple la condición, P(F > f1-a,n1,n2) = 1- α. Ambos valores
están relacionados de modo que uno es el inverso del otro.
Variables F con distintos valores de 1,2