Está en la página 1de 49

Problemas de Probabilidades y Estad sitica

Agustin y Alejandro 7 de enero de 2010

Prefacio
Este es el plan original de clases pr acticas del curso de Probabilidades y Estad sitca impartido a en la Facultad de f sica por Dr. Kalet Leon, Lic. Agustin Lage y Msc. Alejandro Lage. 1. Problemas de clculo de probabilidades bsicos con mucha combinatoria y en variables discretas. Todos los tipos de muestreo clsicos. Aplicaciones de la distribucin binomial y del concepto de independencia de eventos. 2. Problemas con funciones de variables aleatorias. Derivacin de la distribucin de probabilidades de una funcin de variables aleatorias con una o varias variables. Problemas que utilicen la distribucin acumulativa y las distribuciones marginales en una variable. 3. Calculo de las funciones generadoras de momento y los momentos de distribuciones conocidas. Ejercicios para utilizar las distribuciones mas conocidas, Normal, Log Normal, Poison, Exponencial, Gamma. Suma de mltiples distribuciones normales y Gamma. Multiplicacin 4. Problemas bsicos de inferencia de una distribucin o sus parmetros a partir de datos experimentales dados. Calculo con estimadores de Maximo Likelihood. Utilizar ambas estrategias tanto bayesianas como frequentista. 5. Problema de ajuste de modelos a datos experimentales utilizando el mtodo de los mnimos cuadrados. Estimacin de la bondad de ajuste con la distribucin de Chi-cuadrado. Ejemplo con tcnicas de boostraping. 6. Problemas de comparacin de hiptesis. Ilustrar algunos ejemplos de aplicacin de la distribucin de t de student y despus mucha inferencia bayesiana Alejandro Lage Castellanos La Habana, 2008

ii

PREFACIO

Indice general
Prefacio 1. Espacio muestral y combinatoria 1.0.1. Placa de un carro . . . . . . . 1.0.2. Mesa redonda . . . . . . . . . 1.0.3. 3 Comit es . . . . . . . . . . . 1.0.4. Con y sin reemplazo . . . . . 1.0.5. Probabilidad condicional . . . 1.0.6. Bernoulli . . . . . . . . . . . 1.0.7. Suma del Dado . . . . . . . . 1.0.8. Tiempos de espera . . . . . . 1.0.9. 10 Cartas y 10 Sobres . . . . 1.0.10. Terremotos y Tormentas . . . 1.0.11. Casino . . . . . . . . . . . . . 1.0.12. Moneda simetrica . . . . . . . 1.0.13. Torneo de Boxeo . . . . . . . 1.0.14. Sexo de los hijos . . . . . . . 1.0.15. Examen Final . . . . . . . . . 1.0.16. Cumplea nos . . . . . . . . . . 1.0.17. Mounty Hall . . . . . . . . . 1.0.18. Chimpanze Bernoulli . . . . . 1.0.19. Acotar la intersescci on . . . . 1.0.20. Piezas defectuosas . . . . . . 1.0.21. Fallos simultaneos . . . . . . 1.0.22. Fallos simultaneos en paralelo 1.0.23. Esperanza de Vida . . . . . . 1.0.24. Avi on de 4 motores . . . . . 1.0.25. Moneda sesgada . . . . . . .
I

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

1 2 2 3 3 3 3 4 4 4 4 5 5 5 5 5 5 5 6 6 6 6 6 6 6 7 9 9 10 10

2. Bayes y probabilidad condicional 2.0.26. Piezas defectuosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.0.27. Accidentes y seguros . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.0.28. Moneda justa y moneda trucada . . . . . . . . . . . . . . . . . . . . iii

iv 2.0.29. 2.0.30. 2.0.31. 2.0.32. 2.0.33. Control de calidad . . . Alarma de Lluvia . . . . 10 Urnas . . . . . . . . Avi on de cuatro motores El h gado y el alcohol . . . . . . . II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

INDICE GENERAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 11 11 13 13 13 13 14 14 14 14 14 15 15 15 15 16 16 17 17 17 17 18 18 18 18 18 18 18 19 19 19 19 19 20 20 20

3. V.A. y Distribuciones Multinomiales 3.0.34. Experimento de Bernoulli . . . . . . . 3.0.35. Muestreo sin remplazo . . . . . . . . . 3.0.36. Percepci on extransensorial . . . . . . . 3.0.37. Cumulativa gaussiana . . . . . . . . . 3.0.38. Llegar Tarde o Temprano . . . . . . . 3.0.39. x e y uniformes . . . . . . . . . . . . . 3.0.40. Triangulo . . . . . . . . . . . . . . . . 3.0.41. Moneda en rejilla . . . . . . . . . . . . 3.0.42. Aguja en Parrilla . . . . . . . . . . . . 3.0.43. Supercie de la esfera . . . . . . . . . 3.0.44. Interiror de la esfera: Vector aleatorio 3.0.45. Vector aleatorio . . . . . . . . . . . . . 3.0.46. Esfera Compleja . . . . . . . . . . . . 3.0.47. Esfera en n . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

4. Funci on de Variables Aleatorias Continuas 4.0.48. Distribuci on Inversa . . . . . . . . . . . 4.0.49. Medida Deltaica . . . . . . . . . . . . . 4.0.50. Convoluci on . . . . . . . . . . . . . . . . 4.0.51. X*Y y X/Y . . . . . . . . . . . . . . . . 4.0.52. M aximo de un conjunto de variables . . 4.0.53. Exponencial . . . . . . . . . . . . . . . . 4.0.54. Generador de N umeros Aleatorios . . . 4.0.55. Estirando Intervalos . . . . . . . . . . . 4.0.56. Flecha y Arco . . . . . . . . . . . . . . . 4.0.57. Distribuci on de x + y . . . . . . . . . . 4.0.58. Distribuci on de x y . . . . . . . . . . . 4.0.59. Distribuci on de x/y . . . . . . . . . . . 4.0.60. Moneda cargada . . . . . . . . . . . . . 4.0.61. Suma Gaussiana . . . . . . . . . . . . . 4.0.62. X menor que Y Exponencial . . . . . . . 4.0.63. Esperar un Omnibus . . . . . . . . . . . 4.0.64. El omnibus en Poissonville y Clockville 4.0.65. Represa y Terremoto . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

INDICE GENERAL 5. Funci on generadora de Momentos 5.0.66. L mite Continuo . . . . . 5.0.67. Distribuci on Gamma . . . 5.0.68. Densidad geom etrica . . . 5.0.69. Funci on Generatriz . . . . 5.0.70. Suma aleatoria . . . . . . 5.0.71. Adivinando distribuciones y Distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . m as . . . . . . . . . . . . . . . . . . comunes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

v 21 21 21 21 22 22 22 25 25 25 25 25 26 27 28 29 29 29 30 30 31 31 31 33 33 34 34 34 34 34 35 35 36 36 36 37 37 37 37 37

. . . . . .

. . . . . .

. . . . . .

. . . . . .

6. Teorema Central del L mite 6.0.72. Transformada de la Guassiana 6.0.73. Demuestre TLC . . . . . . . . 6.0.74. Aproximaci on Gaussiana . . . . 6.0.75. Tama no de una muestra . . . . 6.0.76. Difusi on en 1D . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

7. Inferencia Bayesiana y M axima Similaridad 7.0.77. Dos monedas . . . . . . . . . . . . . . 7.0.78. Estimando la distribuci on uniforme . . 7.0.79. Estimando Poisson . . . . . . . . . . . 7.0.80. Conjugada de la Gaussiana . . . . . . 7.0.81. El sesgo de la Varianza . . . . . . . . 7.0.82. Term ometro de Boltzman . . . . . . . 7.0.83. Contando Peces . . . . . . . . . . . . . 7.0.84. Intervalo de conanza Bayesiano . . . 7.0.85. Las frases del fortune . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

8. Datos experimentales y M nimos Cuadrados 8.1. Teor a . . . . . . . . . . . . . . . . . . . . . . . 8.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . 8.2.1. Formula Matricial para modelos lineales 8.2.2. Recta y Parabola . . . . . . . . . . . . . 8.2.3. Recta y Parabola . . . . . . . . . . . . . 8.2.4. Parametro constante . . . . . . . . . . . 9. Test de Hip otesis 9.1. Teor a . . . . . . . . . . . . . . . . . . . 9.2. Ejercicios . . . . . . . . . . . . . . . . . 9.2.1. Internet y TV . . . . . . . . . . . 9.2.2. Media y Varianzas desconocidas 9.2.3. El test del signo . . . . . . . . . 9.2.4. Varianza Conocida . . . . . . . . 9.2.5. Producto de la tienda . . . . . . 9.2.6. Michelson . . . . . . . . . . . . . 9.2.7. Cavendish . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

vi 10.Comparaci on de Hip otesis con MLR y 10.1. Teor a . . . . . . . . . . . . . . . . . . 10.2. Ejercicios . . . . . . . . . . . . . . . . 10.3. Signicaci on de MLR . . . . . . . . . . 10.4. Test del VIH . . . . . . . . . . . . . . 10.5. Test para la dist. Exponencial . . . . . MAP . . . . . . . . . . . . . . . . . . . .

INDICE GENERAL 39 39 39 39 39 39

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

Cap tulo 1

Espacio muestral y combinatoria


Problemas de c alculo de probabilidades b asicos con mucha combinatoria y en variables discretas. Todos los tipos de muestreo cl asicos. Aplicaciones de la distribuci on binomial y del concepto de independencia de eventos. Aspectos a tratar Denici on de probabilidad, probabilidad condicional, probabilidad conjunta y eventos independientes. Combinatoria, distribuci on binomial, Proceso de Bernoulli. Muestreo con remplazo y sin remplazo. Nota: Buena parte de los ejercicios aqui presentados fueron extra dos del libro Teor a de las Probabilidades del Dr. Jos e E. Vald es Castro, de la Facultad de Matem aticas y Computaci on de la Universidad de la Habana. En particular todos los ejercicios te oricos fueron copiados de su libro.

Teor a Ejercicios Te oricos


1. Sean A, B , y C sucesos. Demuestre que P (A B C ) = P (A) + P (B ) + P (C ) P (AB ) P (AC ) P (BC ) + P (ABC ). 2. Demuestre que P (AB ) P (A) + P (B ) 1. 3. Pruebe que la probabilidad de que ocurra exactamente uno de los sucesos A o B es P (A) + P (B ) 2P (AB ). 4. Sean A y B sucesos mutuamente excluyentes en un experimento. Supongamos que el experimento se repite de manera independiente hasta que ocurre A o B . Pruebe que la probabilidad de que A ocurra antes que B es P (A)/[P (A) + P (B )]. 1

2 Respuesta:

CAP ITULO 1. ESPACIO MUESTRAL Y COMBINATORIA

Consideremos la probabilidad de que no ocurra ni A ni B en el experimento n: P (Ac B c ) = 1 P (A + B ) para todo n N, entonces la probabilidad de que ocurra A por primera vez en el n-esimo experimento sin haber ocurrido antes B sera P (ocurra A y no hallan ocurrido ni A ni B en los n 1 primeros experimentos) = P (A)[P (Ac B c )]n1 luego la probabilidad buscada es la suma de estas probabilidades para cada experimento, es decir, para todo n N P (A)P (Ac B c )n1 =
nN

P (A) 1 P (Ac B c ) P (A) 1 [1 P (A + B )] P (A) P (A) + P (B )

= =

5. Probar que P (Ai ) = 1, i = 1, 2, ... si y solo si P ( i=1 Ai ) = 1 . 6. Demuestre que si los sucesos A y B son independientes, entonces tambi en son independientes A y B . 7. Sean A y B dos sucesos. Analice la independencia de estos sucesos si: a) A B b) AB = c) P (A) = 0. 8. Demuestre que la independencia conjunta de los sucesos A, B y C implica la independencia de los sucesos: a) A y B C b) A y BC y la independencia conjunta de los sucesos A , B y C 9. Suponga que la ocurrencia del suceso B hace m as probable la ocurrencia del suceso A. Entonces la ocurrencia de A hace m as probable la ocurrencia de B? 10. Sean {An} y {Bn}, n 1, dos sucesiones crecientes de sucesos con respectivos l mites A y B . Pruebe que si An y Bn son independientes para cada n, entonces A y B son independientes.

Ejercicios de C alculo
1.0.1. Placa de un carro
Las matriculas de los autos en cuba constan de 3 letras y 3 numeros. Cuantas matriculas distintas se pueden obtener?

1.0.2.
si:

Mesa redonda

En cuantas formas distintas se pueden sentar 10 personas alrededor de una mesa circular

3 1. hay 5 hombres y 5 mujeres y queremos que cada hombre tenga a su lado mujeres (y viceversa); 2. hay 5 parejas y deseamos que las parejas permanezcan sentadas juntas. Considere cualquier dos ditribuciones como la misma si una resulta de una rotaci on de la mesa a partir de la otra (cada persona sique teniendo el mismo vecino a derecha y a izquierda que en la otra conguracion)

1.0.3.

3 Comit es

Si 18 personas deben ser agrupadas en 3 comit es de tama nos 5, 6 y 7, de cu antas formas es posible hacer esto?

1.0.4.

Con y sin reemplazo

Dos n umeros se escogen al azar entre los n umeros del 1 al 10, sin remplazo. Halle la probabilidad de que el segundo n umero escogido fuese el 5 C omo cambia esa probabilidad si el muestreo es con reemplazo? 1 9 1 Soluci on: P (i2 = 5) = P (i2 = 5|i1 = 5) = 10 9 = 10

1.0.5.

Probabilidad condicional

Un grupo de 100 chips semiconductores contiene 20 defectuoso. Se escogen dos chips al azar. 1. Cual es la probabilidad de que el primero sea defectuoso? 2. Cual es la probabilidad de que el segundo sea defectuoso dado que el primero lo era? 3. Cual es la probabilidad de que ambos sean defectuosos? Solucion: a) La probabilidad de que el primero sea defectuoso es independiente del numero de chips que se seleccionan y es por tanto 20/100 = 0,2 b) Si el primero es defectuoso la probabilidad de que el segundo lo sea es (20 1)/(100 1) = 0,192 ver que cuando la n es muy grande la probabilidad es igual a la del primer evento. c) La de que ambos sean defectuosos es la probabilidad de los eventos independientes: P 1 P 2 = 0,192x0,2

1.0.6.

Bernoulli

Un experimento de Bernoulli es un experimento aleatorio cuyo resultado puede ser clasicado de dos formas, digamos exito o fallo. Una sequencia de Bernoulli ocurre cuando se repite un experimento de Bernoulli muchas veces de forma independiente, tal que la probabilidad de exito y de fallo (p y 1 p) se mantienen la misma en cada una de las repeticioines. Considere que se realizan una secuencia de n experimentos de Bernoulli, calcule la probilidad de

CAP ITULO 1. ESPACIO MUESTRAL Y COMBINATORIA 1. que al menos ocurri o un exito. 2. que exactamente ocurrieran k 3. que todos los intentos fueron exitosos.

1.0.7.

Suma del Dado

Considere el experimento de lanzar dos dados no sesgados. Considere como A el evento en el que las suma de ambos dados es 7 y como B el evento de que la suma de ambos dados es 6. Supongamos que obsevamos el evento C que consiste en que el primer dado salio como 4. Demostrar que el evento A y el evento C son independientes pero esto no se cumple para el evento B y el evento C.

1.0.8.

Tiempos de espera

Si lanzamos repetidamente una moneda con probabilidad de escudo p: 1. cual es la probabilidad que tengamos que esperar k veces para observar la primera cara. 2. Cual seria la probabilidad de esperar k o mas veces:

1.0.9.

10 Cartas y 10 Sobres

Suppose that 10 cards, of which ve are red and ve are green, are placed at random in 10 envelopes, of which ve are red and ve are green. Determine the probability that exactly two envelopes will contain a card with a matching color.

1.0.10.

Terremotos y Tormentas

Suppose that the occurrences of earthquakes and high winds are unrelated. Also suppose that, at a particular location, the probability of a highwind occurring in any single minute is 105 and the probability of a moderate.earthquake in any single minute is 108 . 1. Find the probability of joint occurrence of the two events during any minute. Building codes do not require the engineer to design buildings for the combined eects of these loads. Is this reasonable? 2. Find the probability of the occurrence of one or the other or both during any minute. For rare events, i.e. events with small probabilities of occurrence, the engineer frequently assumes: P (AU B ) P (A) + P (B ). Is this reasonable? 3. If the events in consecutive minutes are mutually independent, what is the probability that there will be no moderate earthquake in year at this location? In 10 years?

1.0.11.

Casino

Considere el siguiente juego. Se lanzan dos dados y se considere la suma de los numeros que salen. En la primera tirada una suma de 7 ou 11 ganan, 2,3 y 12 pierden, y cualquier otra suma, digamos x1 , le permite seguir jungando. A partir de ese momento usted continua lanzando los dados hasta que ocurra una de las sumas 7 (y pierde) o x1 (y gana) Cual es la probabilidad de ganar en el casino.

1.0.12.

Moneda simetrica

Se lanza una moneda simtrica al azar hasta que aparezca escudo en dos lanzamientos consecutivos. Halle la probabilidad de que el n umero de lanzamientos sea igual a cuatro.

1.0.13.

Torneo de Boxeo

En un torneo participan 8 boxeadores que se aparean mediante un sorteo. En cada tope entre dos boxeadores se elimina al perdedor. En el torneo participan dos boxeadores que se sabe que ganar an con seguridad sus topes con los seis restantes. Cu al es la probabilidad de que estos dos boxeadores ocupen el primero y el segundo lugar en el torneo?

1.0.14.

Sexo de los hijos

Un matrimonio tiene cuatro hijos. Cu al es la probabilidad de que sean dos de cada sexo? Cu al es la probabilidad de que tres sean del mismo sexo?

1.0.15.

Examen Final

Un profesor entrega a un grupo de estudiantes 10 problemas de los cuales se seleccionar an de manera aleatoria 5 de ellos, que consistir an en el examen nal. Si un estudiante sabe resolver 7 problemas, cu al es la probabilidad de que el estudiante resuelva correctamente al menos 3 problemas (con ello aprueba)? Cu al es la distribuci on de probabilidad de las notas del estudiante?

1.0.16.

Cumplea nos

Un grupo tiene r estudiantes. Halle una f ormula para la probabilidad de que coincida el d a de nacimiento (cumpleaos) de al menos dos estudiantes del grupo. Compruebe que esta probabilidad es mayor que 0.5 para r = 23 y mayor que 0.7 para r = 30.

1.0.17.

Mounty Hall

Considere tres bolsas, una de las cuales contiene un premio. Usted selecciona una de las bolsas al azar, y luego, de las dos restantes, le muestran una bolsa vac a. A continuaci on puede seguir una de las dos siguientes estrategias: quedarse con la bolsa seleccionada al azar, o seleccionar la otra bolsa que queda, de contenido desconocido. Calcule la probabilidad de quedarse con el premio para cada una de las estrategias.

CAP ITULO 1. ESPACIO MUESTRAL Y COMBINATORIA

1.0.18.

Chimpanze Bernoulli

Un chimpanze de nombre Bernoulli es sentado delante de un teclado que contiene las 29 letras del alfabeto y la tecla del espacio. Como promedio el chimpanze presiona dos teclas por segundo. Suponiendo que lo hace de forma desordenada, qu e tiempo deberemos esperar, como promedio, hasta que teclee su nombre?

1.0.19.

Acotar la intersescci on

Sean P (A) = 0,9 y P (B ) = 0,8. Verique que 0,7 P (AB ) 0,8. Respuesta: P (AB ) 1 [P (Ac ) + P (B c )] = 1 0,1 0,2 = 0,7, por otra parte como AB B entonces P (AB ) P (B ) = 0,8, teni endose que 0,7 P (AB ) 0,8

1.0.20.

Piezas defectuosas

Un lote de N piezas contiene M piezas defectuosas. Se seleccionan sucesivamente n piezas del lote al azar. Calcule la probabilidad de que la pieza obtenida en la i- esima selecci on sea no defectuosa.

1.0.21.

Fallos simultaneos

Un sistema est a constituido por 3 bloques con probabilidades de fallo q1 , q2 , q3 , respectivamente, en un intervalo de tiempo dado. El sistema falla cuando fallan al menos 2 de sus bloques. Calcule las probabilidades de fallo y de trabajo sin fallo del sistema. Considere los fallos de los bloques independientes.

1.0.22.

Fallos simultaneos en paralelo

Un sistema est a constituido por n bloques en paralelo (el sistema falla si y solo si fallan todos sus los bloques). Calcule el n umero m nimo de bloques que garantiza una probabilidad 3 de fallo del sistema menor que = 10 , en un intervalo de tiempo dado, si la probabilidad de funcionamiento de cada bloque en ese intervalo es p = 0,9. Considere los fallos de los bloques independientes.

1.0.23.

Esperanza de Vida

La tabla de longevidad en un cierto pa s indica que la probabilidad de llegar a los 25 a nos es 0,95, mientras que la probabilidad de llegar a los 65 a nos es 0,65. Si una persona tiene 25 aos, Cu al es la probabilidad de que llegue a los 65 a nos?

1.0.24.

Avi on de 4 motores

Cada uno de los motores de un avi on puede averiarse durante un vuelo, con probabilidad q = 0,01. El fallo de cada motor es independiente del fallo de cualquier otro motor. El avi on puede continuar su vuelo si funcionan al menos la mitad de los motores. Qu e es m as seguro,

7 un avi on de 2 motores o uno de 4 motores? Para que valores de q es m as seguro un avi on de 4 motores?

1.0.25.

Moneda sesgada

Se desea generar los resultados del lanzamiento al azar de una moneda sim etrica, pero solo se posee una moneda sesgada que tiene probabilidad p desconocida de aparici on de escudo. Compruebe que con el siguiente procedimiento la probabilidad de aparici on de cada cara es igual a 1/2: 1. Lanzar la moneda 2. Lanzar la moneda otra vez 3. Si en ambos lanzamientos aparece la misma cara reiniciar con el paso 1. 4. El resultado del u ltimo lanzamiento es el resultado deseado.

CAP ITULO 1. ESPACIO MUESTRAL Y COMBINATORIA

Cap tulo 2

Bayes y probabilidad condicional


C alculo de probabilidades inversas a trav es de la f ormula de Bayes. Inferencia Bayesiana. Aspectos a tratar Probabilidad condicional. Inferencia de hip otesis a partir de la f ormula de Bayes.

Teor a Ejercicios Te oricos


1. Analice donde falla el siguiente razonamiento. La probabilidad de viajar en un avion donde alg un pasajero lleva una bomba escondida es p = 106 . Por tanto la probabilidad de viajar en un avi on donde 2 pasajeros llevan una bomba es p2 = 1012 . Antes de un viaje en avi on, un estudiante que no aprob o el curso de probabilidades piensa de la siguiente forma. Mejor llevo yo mismo una bomba, y as la probabilidad de que 12 haya otra en el avi on es 10 , y el vuelo es m as seguro. 2. En el radio dijeron que en el 35 % de los accidentes de tr ansito est an involucrados choferes que han bebido. Esto quiere decir que en el 65 % restante est an involucradas personas que no bebieron, dejando claro que es m as seguro conducir despu es de haber bebido. Por qu e est a mal la conclusi on anterior?

2.0.26.

Piezas defectuosas

Two manufacturing plants produce similar parts. Plant 1 produces 1,000 parts, 100 of which are defective. Plant 2 produces 2,000 parts, 150 of which are defective. A part is selected at random and found to be defective. What is the probability that it came from plant 1 ? 9

10

CAP ITULO 2. BAYES Y PROBABILIDAD CONDICIONAL

2.0.27.

Accidentes y seguros

La probabilidad de tener un accidente de tr ansito en el transcurso de un a no es de p = 0,01 para una persona que no consume alcohol habitualmente, y 8 veces mayor para una persona alcoh olica. El 2 % de la poblaci on de una Ciudad se sabe que consume alcohol habitualmente. 1. Cu al es la probabilidad de que una persona tomada al azar de la poblaci on tenga un accidente en el transcurso de un a no? 2. Si una persona no alcoh olica tuvo un accidente el a no pasado, cu al es la probabilidad de que vuelva a tener uno este a no? 3. Si una persona que no conocemos nos dice que tuvo un accidente el a no pasado, cu al es la probabilidad de que vuelva a tener uno este a no?

2.0.28.

Moneda justa y moneda trucada

Suppose that a box contains one fair coin and one coin with a head on each side. Suppose that a coin is selected at random and that when it is tossed three times, a head is obtained three times. Determine the probability that the coin is the fair coin.

2.0.29.

Control de calidad

Una m aquina que detecta piezas defectuosas en una f abrica, detecta el 80 % del total de piezas defectuosas. Adem as suele equivocarse y catalogar como defectuosas al 5 % del total de las piezas que no lo son. La experiencia acumulada indica que el 10 % de las piezas que salen son defectuosas. 1. Cu al es la probabilidad de que una pieza que la m aquina indica como defectuosa sea de hecho defectuosa? 2. Cu al es la probabilidad de que una pieza que la m aquina indica como correcta sea de hecho correcta? 3. Compare y comente los resultados previos.

2.0.30.

Alarma de Lluvia

Se ha estimado que la probabilidad de que llueva es 0.06. Una alarma en un local interior debe indicar si llueve. La probabilidad de que la alarma funcione cuando llueve es 0.8 y la probabilidad de que funcione err oneamente cuando no hay lluvia es 0.04. Si suena la alarma, Cu al es la probabilidad de que est e lloviendo?.

11

2.0.31.

10 Urnas

Se tienen 10 urnas, etiquetadas con los n umeros 1 . . . 10. En la urna u se tienen u bolas negras y 10 u bolas blancas. Jos e selecciona una urna al azar y hace N extracciones con reposici on, obteniendo nB bolas blancas, y N nB bolas negras. Luego le muestra el resultado del experimento a Pedro. Si N = 10 y nB = 7 cu al es la probabilidad de que la urna escogida fuese u desde el punto de vista de Pedro?

2.0.32.

Avi on de cuatro motores II

Cada uno de los motores de un avi on puede averiarse durante un vuelo, con probabilidad q = 0,01. El fallo de cada motor es independiente del fallo de cualquier otro motor. El avi on puede continuar su vuelo si funcionan al menos la mitad de los motores. 1. Qu e es m as seguro, un avi on de 2 motores o uno de 4 motores? Explique con n umeros. 2. Para que valores de q es m as seguro un avi on de 4 motores? 3. La compa n a FreeFall tiene el viernes en la tarde 100 aviones en vuelo, 20 de los cuales son de 2 motores (el resto son de 4). Llega la informaci on imprecisa de que un avi on de esta compa n a se ha ca do. Cu al es la probabilidad de que dicho avi on fuese uno de los de 2 motores? Asuma q = 0,01.

2.0.33.

El h gado y el alcohol

Dice la radio que en el 40 % de los pacientes con problemas hep aticos, son consumidores frecuentes de alcohol. En Cuba el 5 % de la poblaci on es consumidora habitual de alcohol. 1. Si se toma al azar un paciente con problemas hep aticos, con qu e probabilidad no tiene un problema alcoh olico? 2. Parecer a que es preferible tomar alcohol, pues m as de la mitad de los pacientes con problemas hep aticos son abstemios. Calcule cu anto m as probable es tener un problema hep atico si se es alcoh olico que si no.

12

CAP ITULO 2. BAYES Y PROBABILIDAD CONDICIONAL

Cap tulo 3

V.A. y Distribuciones Multinomiales


3.0.34. Experimento de Bernoulli
Supongamos que X representa la diferencia entre el n umero de escudos y el n umero de estrellas cuando se lanza n veces al azar una moneda sim etrica. Halle: 1. los posibles valores de X . 2. la distribuci on de probabilidad de X cuando n = 3. Graf quela.

3.0.35.

Muestreo sin remplazo

Suponga que un lote de 100 unidades de un producto contiene 6 unidades defectuosas. Sea X el n umero de unidades defectuosas en una muestra de 10 unidades seleccionadas aleatoriamente del lote. Hallar P (X = 0) y P (X > 2). Graque F (k) = P (X < k) usando una computadora.

3.0.36.

Percepci on extransensorial

Una persona dice tener percepci on extrasensorial. Para vericar esto se lanza 10 veces al azar una moneda sim etrica y se le pide a la persona que prediga el resultado de cada prueba. Acierta en 7 de las 10 ocasiones. Halle la probabilidad de que si responde al azar, la persona logre un resultado al menos tan bueno como el obtenido. Un ensayo cl nico se acepta como respaldo cientco a un producto si el resultado obtenido tiene una probabilidad inferior al 5 % de ser reproducido por el azar. Halle la funci on k(N ) del n umero m nimo de exitos necesarios en la predicci on del lanzamiento (N veces) de la moneda para garantizar estar dentro del criterio del 5 % de abilidad. Comentario: El Dr. Luis Carlos Silva, investigador en estad stica en el Centro de Informaci on de Ciencias M edicas (Infomed) y autor de varios libros, sugiri o el siguiente experimento para someter a prueba cient ca los llamados efectos piramidales. Numerar 100 frascos de agua y someter 50 a la acci on de las pir amides, manteniendo en secreto la numeraci on de 13

14

CAP ITULO 3.

V.A. Y DISTRIBUCIONES MULTINOMIALES

los frascos escogidos. Luego devolver los 100 frascos a los defensores de la energ a piramidal y pedirles que por cualquier m etodo que ellos quisieran identicacen los frascos que hab an sido sometidos a las pir amides. Hasta cu antos errores podr an permitirse los piram ologos para estar dentro del criterio del 5 %?

3.0.37.

Cumulativa gaussiana
2

on de distribuci on de la variable aleatoria X . Calcule: Sea F (x) = 1 ex la funci P (X > 2), P (1 < X < 3).

3.0.38.

Llegar Tarde o Temprano

Suponga que usted tiene una cita. El costo por unidad de tiempo de una llegada tarde a la cita es k , y el costo por unidad de tiempo de una llegada antes de la hora jada para la cita es c. Suponga que el tiempo del viaje suyo hasta el lugar de la cita es una variable aleatoria con densidad de probabilidad f (t). Determine el instante en que usted debe partir para minimizar el costo esperado. Considere el caso particular de un tiempo de viaje con distribuci on gaussiana t N (30, 10). Calcule el instante en que debe partir si k = c, y si k = 10c. Interpr etelos.

3.0.39.

x e y uniformes

Sean x e y dos variables aleatorias con probabilidad uniforme en [0, 1]. Halle la densidad de probabilidad f (x, y ) , la distrbuci on cumulativa de probabilidad F (x, y ) as como las respectivas marginales. Son independientes estas variables? Halle. 1. la probabilidad de que x < y . 2. la probabilidad de que x < y dado que y < 0,5. 3. la densidad de probabilidad de la variable aleatoria x + y . Graf quela. 4. la densidad de probabilidad de la variable z = m n(x, y )

3.0.40.

Triangulo

Considere la selecci on aleatoria (con probabilidad uniforme) de dos puntos en un segmento de longitud 1. Halle la probabilidad con la que se puede formar un tri angulo con los tres segmentos resultantes de dicha selecci on ((0, x) (x, y ) y (y, 1), donde x es el punto m as a la izquierda)

3.0.41.

Moneda en rejilla

(MacKay) Una moneda circular de radio a se lanza sobre una rejilla cuadrada (dibujada en un papel) con lado b > a, de forma aleatoria. Cu al es la probabilidad de que la moneda no toque la rejilla? Respuesta (1 a/b)2

15

3.0.42.

Aguja en Parrilla

(MacKay) Una aguja de longitud a es lanzada sobre un plano cubierto de lineas paralelas equidistantes (distancia b > a). Cu al es la probabilidad de que la aguja intersecte alguna 2a de las lineas? Respuesta b

3.0.43.

Supercie de la esfera

Considere el espacio muestral compuesto por los puntos de la supercie de una esfera. Considere todos los puntos equiprobables. Dena la variable aleatoria , (coordenadas esf ericas) para designar dichos puntos. 1. En qu e rango de valores de y f (, ) > 0 2. Cu al es la densidad de probabilidad f (, )? 3. Cu al es la distribuci on cumulativa F (, )? 4. Por qu e no son todos los valores de (, ) equiprobables? 5. Son independientes las variables y ?

3.0.44.

Interiror de la esfera: Vector aleatorio

Considere a todos los puntos del interior de una esfera de radio R como equiprobables. 1. Halle la densidad de probabilidad de la variable aleatoria (vector) r = (x, y, z ) 2. Halle la densidad marginal en x, f (x). 3. Halle la densidad de probabilidad de la variable (r, , ). 4. Halle la densidad marginal en r f (r ). Graf quela. 5. Demuestre que el m odulo r y cualquier de las coordenadas angulares son variables independientes. Es esto cierto para x, y, z ? 6. Halle las probabilidades condicionales f (x|r ) y f (r |x) que relacionan al m odulo de un vector con una de sus proyecciones.

3.0.45.

Vector aleatorio

Considere a todos los puntos del interior de una esfera de radio R con probabilidades tales que el m odulo del vector a un punto es una varaible aleatoria con distribuci on uniforme en 0, R. 1. Halle al densidad de probabilidad de (r, , ). Es igual a la del ejercicio anterior? 2. Halle la densidad de probabilidad de la variable aleatoria (vector) r = (x, y, z ) 3. Halle las probabilidades condicionales f (x|r ) y f (r |x) que relacionan al m odulo de un vector con una de sus proyecciones.

16

CAP ITULO 3.

V.A. Y DISTRIBUCIONES MULTINOMIALES

3.0.46.

Esfera Compleja

Considere un plano coordenado. Sobre su origen se situa una esfera de radio 1 de forma tangencial. Llamemos O al punto de tangencia, y P al punto diametralmente opuesto en la supercie de la esfera. Dado cualquier punto en la supercie de la esfera, le hacemos corresponder el u nico punto del plano que esta en l nea con este y con el punto P . Esto dene una relaci on biyectiva entre el plano y la supercie de la esfera. Si todos los puntos de la esfera son equiprobables, cu al es la densidad de probabilidad correspondiente a los puntos (x, y ) del plano a trav es de la biyecci on descrita?

3.0.47.

Considere a todos los puntos del interior de una esfera en n como equiprobables. Tomando en cuenta que el volumen contenido en el interior de una esfera de radio r es V (r ) r n , halle la densidad marginal del m odulo del radio vector f (r ). Hacia qu e valores de r se concentra dicha densidad de probabilidades?. Particularmente, si el impacto de una echa en un blanco circular est a equidistribuido, c omo distribuye su distancia al centro del blanco?

Esfera en n

Cap tulo 4

Funci on de Variables Aleatorias Continuas


Ejercicios Te oricos
4.0.48.
F 1 (X )

Distribuci on Inversa

Demuestre que si la variable X U [0, 1] y la variable aleatoria Y = F 1 (X ), donde es una funci on biyectiva, entonces la distribuci on cumulativa de Y viene dada por F (y ). (Ver ejercicio del generador de n umeros aleatorios como aplicaci on).

4.0.49.

Medida Deltaica

Demuestre que si la variable aleatoria Y es funci on de la variable aleatoria X , Y = (X ), entonces una forma equivalente de hallar la densidad de probabilidad de Y es fY (y ) = fX (x)(y (x))dx

donde (x) es la delta de Dirac. Demuestre particularmente que esta expresi on se reduce a la estudiada en clase y que adem as cumple con la denici on para la funci on de distribuci on cumulativa FY (y ) = P (Y < y ) Extienda este resultado al caso de distribuciones multivariadas f (x, y ), en la cual se dene una nueva variable aleatoria como funci on de x e y . (Ver ejercicio siguiente como aplicaci on)

4.0.50.

Convoluci on

Si X e Y son dos variables aleatorios independientes, demuestre que la densidad de probabilidad de Z = X + Y viene dada por la convoluci on de las densidades de las variables originales. 17

18

DE VARIABLES ALEATORIAS CONTINUAS CAP ITULO 4. FUNCION

4.0.51.

X*Y y X/Y

Si las variables X e Y tienen densidad de probabilidad f (x, y ), cu al es la densidad de la variable z = x y y z = x/y ?

4.0.52.

M aximo de un conjunto de variables

Considere a las variables aleatorias independientes e id enticamente distribuidas (i.i.d. random variables) = {X1 , X2 , . . . Xn }, con Xi f (x). Sea Y = max(X1 , X2 , . . . Xn ). Halle la funci on de distribuci on cumulativa de Y y su respectiva densidad de probabilidad.

Ejercicios de C alculo
4.0.53.
eX .

Exponencial

Sea X U (0, 1). Halle las densidades de probabilidad de las variables aleatorias X n y

4.0.54.

Generador de N umeros Aleatorios

Considere que tiene una subrutina random() que genera n umeros aleatorios entre 0 y 1. C omo es posible obtener a partir de la misma n umeros aleatorios con distribuci on 1. Gaussiana? 2. Exponencial? Programe una de estas formas y compruebe haciendo un histograma de los n umeros obtenidos que realmente cumplen con la distribuci on deseada.

4.0.55.

Estirando Intervalos

Qu e funci on matem atica debe relacionar a la V.A. continua Y = g(X ) con la V.A. continua X U (0, 1) si se desea que Y tome con probabilidad 1/2, valores entre 0 y 1 (uniformemente) y con probabilidad 1/2 valores entre 1 y 3 (uniformemente)?

4.0.56.

Flecha y Arco

Si una echa lanzada usando un arco tiene una probabilidad homog enea de impactar en cualquiera de los puntos de las diana (con forma circular), cu al es la distribuci on de probabilidad de la distancia del impacto al centro de la diana?

4.0.57.

Distribuci on de x + y

Halle la densidad de probabilidad de la variable aleatoria z = x + y si tanto x como y son dos variables aleatorias con distribuci on (a) Gaussiana, (b) Exponencial.

19

4.0.58.

Distribuci on de x y

Halle la densidad de probabilidad de la variable aleatoria z = x + y si tanto x como y son dos variables aleatorias con distribuci on (a) Gaussiana, (b) Poissonica.

4.0.59.

Distribuci on de x/y

Halle la densidad de probabilidad de la variable aleatoria z = x + y si tanto x como y son dos variables aleatorias con distribuci on (a) Gaussiana, (b) Poissonica.

4.0.60.

Moneda cargada

(MacKay) Una moneda no cargada (P (0) = P (1) = 1/2) es lanzada hasta que sale una cara. Cu al es el valor esperado del n umero de lanzamientos?. 1. Alberto, que no sabe que la moneda no est a trucada (no cargada), estima el sesgo e de la misma como h = e+c donde e es el n umero de escudos y c es el de caras en el experimento anterior. Cu al es la distribuci on de h?

4.0.61.

Suma Gaussiana

ESTA MAL REDACTADO. Se sabe que la suma de dos variables aleatorias X e Y distribuye N[0, ]. 1. Cu al es la densidad de probabilidad f (x, y ) correspondiente? 2. Halle la densidad marginal de cada una de estas variables f (x) y f (y ). 3. Son independientes las variables X e Y ? Obtenga la probabilidad condicional de X dado Y . 4. Halle la densidad de probabilidad del producto Z = XY de ambas variables.

4.0.62.

X menor que Y Exponencial

La variable aleatoria X U [0, Y ] mientras que la variable Y tiene una densidad exponencial f (y ) = ey denida para y > 0. 1. Halle la densidad de probabilidad f (x, y ) correspondiente. 2. Son estas variables independientes? Halle la densidad de probabilidad condicional f (x|y ) e f (x|y ). 3. Halle la densidad de probabilidad de la diferencia Z = Y X .

20

DE VARIABLES ALEATORIAS CONTINUAS CAP ITULO 4. FUNCION

4.0.63.

Esperar un Omnibus

Suponga que usted llego en un instante aleatorio a una parada de omnibus donde puede tomar dos rutas. Los omnibus de cada una de las rutas llegan uno tras otro a intervalos de diez minutos. Cu al es el valor esperado del tiempo de espera? Respuesta: Sean U1 U (0, 10) y U2 U (0, 10) las variables aleatorias que modelan el tiempo de espera en la parada para cada omnibus, entonces el tiempo de espera a la llegada del primer omnibus sera U = m n(U1 , U2 ), como vimos anteriormente U 2U (0, 10) U 2 (0, 10), luego
+

EU

=
0 10

[1 2U (0, 10) + U 2 (0, 10)]dx 12 x2 x + 10 100


10 0

=
0

dx 10 1000 = 300 3

x3 x2 + 10 300

= 10 10 +

4.0.64.

El omnibus en Poissonville y Clockville

En Poissonville los autobuses llegan a las paradas de forma aleatoria e independientes unos de otros (proceso de Poiss on) con un promedio de un autobus cada 6 minutos. Una persona llega a la parada. Cu al es el tiempo promedio que deber a esperar? Respuesta 6 minutos. Cu al es el tiempo promedio transcurrido desde que se fue el omnibus anterior a su llegada? Respuesta 6 minutos. Cu al es el promedio entonces entre el autobus anterior y el siguiente? Respuesta 12 minutos. Explique la aparente contradicci on. 1. Considere ahora Clockville, donde el transporte llega en tiempos precisos, exactamente cada 6 minutos. Una persona llega en un instante aleatorio a la parada. Cu anto tiempo le queda por esperar como promedio? Respuesta 3 minutos. Cu anto ha transcurrido como promedio desde que parti o el omnibus anterior? Cu al es el tiempo promedio entre el omnibus partido y el que est a

4.0.65.

Represa y Terremoto

Se piensa construir una represa en un punto del rio Colorado que dista una distancia D del punto medio (y m as pr oximo) de una falla tect onica de longitud 2L. Asumamos que la probabilidad de que un terremoto se origine en cualquier punto de la falla es uniforme. Considere la variable aleatoria r , denida como la distancia desde la represa hasta el punto de origen de un terremoto. Demuestre que la densidad de probabilidad de r es f (r ) =
1 2r 2 (r D 2 ) 2 L

1. Si la intensidad del terremoto I se reparte supercialmente (a una distancia r se siente I ), calcule la densidad de probabilidad de sentir un un temblor de intensidad = 2r terremoto de intensidad en la posici on de la represa.

Cap tulo 5

Funci on generadora de Momentos y Distribuciones m as comunes


5.0.66. L mite Continuo
Obtener la densidad exponencial como limite del tiempo de espera en procesos de poisson Obtener la Gaussiana como limite de la binomial. Obtener la Poissonica

5.0.67.

Distribuci on Gamma

Considere la V.A. X Gam(, ) con distribuci on Gamma f (x) = donde () es la funci on gamma

ex (x)1 ()

() =
0

eu u1 du

1. Halle la funci on generadora de momentos de la distrbuci on Gamma. 2. Usando esta funci on, demuestre que la suma de dos variables aleatorias Z = X + Y que distribuyen como Gamma, es tambi en una variable con distribuci on Gamma. C omo se transforman los par ametros?

5.0.68.

Densidad geom etrica

Considere la V.A. X {1, 2, . . .} con distribuci on geom etrica pX (j ) = (1 p)j 1 p 21

GENERADORA DE MOMENTOS Y DISTRIBUCIONES MAS COMUNES 22CAP ITULO 5. FUNCION 1. Halle la funci on generadora de momentos de la variable X . 2. Usando la misma halle el valor esperado y el momento de orden 2 de la variable X . 3. Halle la varianza de X .

5.0.69.

Funci on Generatriz

(Marinari y Parisi) La funci on generatriz de la variable aleatoria discreta X {0, 2, . . . } con probabilidades P (X = k) = pk , viene dada por la siguiente denici om
+

G(t) =
k =1

tk p k

Considere las variables aleatorias X1 , X2 , . . . todas con la misma distribuci on. Y sea M tambi en una variable aleatoria en los naturales, denamos una nueva variable aleatoria como
m

Y =
i=0

Xi

Demuestre que la funci on generadora de momentos de Y viene dada por la composici on GM (GX (t)

5.0.70.

Suma aleatoria

Un dado no sesgado tiene un 0 en dos de sus caras, un 1 en otras dos, y las dos restantes dibujadas de rojo. Se lanza el dado repetidas veces hasta que salga una cara roja. Halle 1 la funci on generatriz de la variable z = m umero de lanzamientos i=0 xi , donde m es el n realizados, y xi el resultado en cada uno de ellos. Use el resultado del ejercicio anterior.

5.0.71.

Adivinando distribuciones

C omo distribuyen las siguientes variables aleatorias? # de llamadas equivocadas a un n umero de tel efono en T # de errores tipogr acos en una p agina de un libro # bacterias bajo el visor del microscopio # de personas con HIV en un avi on tiempo de espera hasta la llegada de la pr oxima guagua tiempo de espera hasta desintegraci on radioactiva # de part culas gamma llegadas al detector desde una fuente radioactiva poco intensa en un T

23 cantidad de mujeres en un a no de la facultad de Derecho edad media de las personas en una guagua

GENERADORA DE MOMENTOS Y DISTRIBUCIONES MAS COMUNES 24CAP ITULO 5. FUNCION

Cap tulo 6

Teorema Central del L mite


Aspectos a tratar Teorema Central del L mite Funci on Caracter stica, Funci on generatriz.

Ejercicios
6.0.72. Transformada de la Guassiana

Halle la funci on generadora de momentos (t) y la funci on caracter stica G(k) =< exp ikx > de la distribuci on gaussiana. A partir de ellas encuentre M1 =< x > y M2 =< x2 >.

6.0.73.

Demuestre TLC

Usando cualquiera de las funciones del ejercicio anterior demuestre el teorema central del l mite haciendo un desarrollo en Taylor.

6.0.74.

Aproximaci on Gaussiana

Compare el resultado de aproximar la suma de dos variables aleatorias z = x1 + x2 distribuidas uniformemente (x1,2 , U (0, T )) por la gaussiana de igual media y desviaci on est andar.

6.0.75.

Tama no de una muestra

Se quiere hallar el promedio de estatura de los estudiantes de la UH. De qu e tama no se debe tomar la muestra par agarantizar que el valor obtenido tenga menos del 1 % de probabilidad de estar fuera de un margen del 10 % del valor real? 25

26

CAP ITULO 6. TEOREMA CENTRAL DEL L IMITE

6.0.76.

Difusi on en 1D

Muestre c omo resolver el problema de la difusi on con tiempo continuo y espacio discreto usando la funci on generatriz (transformada Z). Partiendo de la condici on inicial P (0, 0) = 1, la ecuaci on diferencial para P (n, t) es P (n, t) = P (n + 1, t) + P (n 1, t) 2P (n, t) t donde > 0 es el coeciente que caracteriza la rapidez de la difusi on.

Cap tulo 7

Inferencia Bayesiana y M axima Similaridad


Teor a
Digamos que tenemos un observable (variable aleatoria) X de un experimento, que toma valores en el conjunto S . Supongamos que la distribuci on de X depende de un par ametro que toma valores en el espacio . La densidad de probabilidad de X es por tatno f (x| ). En el an alisis bayesiano, suponemos que el par ametro de la distribuci on es tambi en una variable aleatoria con densidad h( ). Esta densidad se suele llamar distribuci on a priori, pues relfeja el conocimiento que tenemos sobre la distribuci on de la variable X antes de confrontar ninguna data experimental. Usando el teorema de Bayes tenemos h( |x) = f (x| )h( ) g(x)

donde g(x) es la densidad de probabilidad (marginal) de X . Recordemos que en la forma tradicional del teorema de Bayes, g(x) se expresa a partir de la integral (suma en el caso discreto) g(x) = f (x| )h( )d

Otra forma de entenderlo es que g(x) es la constante de normalizaci on para f (x| )h( ) como funci on de x. La distribuci on condicional h( |x) de los par ametros dada la informaci on experimental, se le llama la distribuci on a posteriori, y reeja la expectativa que tenemos en el valor de los par ametros una vez que juntamos nuestra creencia inicial con los datos experimentales. Si es un par ametro real, el valor esperado condicional = E ( |X ) = f ( |X )d

es el estimador de Bayes. Recuerde que E (a|X ) es funci on de X , es decir de los datos experimentales que se usan para inferir los par ametros de la distribuci on. 27

28

CAP ITULO 7. INFERENCIA BAYESIANA Y MAXIMA SIMILARIDAD

Familias Conjugadas En muchos casos especiales pero de importancia, podemos hallar una familia param etrica con la siguiente propiedad: Si la distribuci on a priori de pertenece a esta familia, tambi en lo hace la distribuci on posterior de dado x. Tal familia se dice conjugada de la distribuci on de la variable X . Las familias conjugadas son c omodas computacionalmente, pues muchas veces podemos calcular la distribuci on posterior a partir de una f ormula simple de sus par ametros, sin pasar directamente por el teorema de Bayes.

M axima Similaridad
Sea la variable aleatoria X con densidad de probabilidad f (x) (conocida excepto por el valor del par ametro ), y (x1 , x2 . . . , xN ) el resultado de N muestreos de esta variable. Cu al es el valor del par ametro que maximiza la similaridad entre los resultados (x1 , x2 . . . , xN ) y f (x)? Por la indepencia de los valores de xi f (x1 , x2 . . . , xN ) = f (x1 )f (x1 ) . . . f (xN ) = f (xi | ) = ( )

donde ( ) se llama funci on de similaridad. = arg max ( ). Normalmente se calcula deriEl estimador de m axima similaridad es vando ( ) para buscar su m aximo. Propiedades de los estimadores Cualquiera sea el m etodo usado para el c alculo del estimador, se denen las siguientes propieades del mismo. Se dice que un estimador es consistente si
n

l m E ( ) = 0

y l m V ar ( ) = 0
n

Se dice que un estimador es no sesgado (unbiased) si E ( ) = 0 En ambos casos 0 representa el valor real del par ametro de la distribuci on que se estima.

Ejercicios
7.0.77. Dos monedas
Se tienen dos monedas con probabilidades q = 1/2 y q = 3/4 de sacar cara (respectivamente). Se toma una al azar y se lanza 10 veces, obteni endose 3 escudos y 7 caras. 1. C omo distribuye el n umero de caras obtenidas con cada una de estas monedas en 10 lanzamientos? 2. Halle el valor de q que da mayor verosimilitud al resultado obtenido 3. Halle el estimador de Bayes correspondiente, suponiendo, desde luego, que ambas monedas pueden haber sido tomadas con igual probabilidad.

29

7.0.78.

Estimando la distribuci on uniforme

Considere que se tiene una muestra {x1 , x2 . . . , xN } de la variable aleatoria X con distribuci on uniforme U (0, ) con par ametro desconocido. de m 1. Halle el estimador axima similaridad. 2. Halle ahora el estimador de Bayes, suponiendo que el par ametro tiene una distribuci on de Pareto con par ametros m y h( ) =
m +1

Demuestre primero que la distribuci on de Pareto es la conjugada de la distribuci on uniforme. 3. Analice la consistencia y el sesgo de ambos estimadores.

7.0.79.

Estimando Poisson

Considere la detecci on de la desintegraci on radioactiva por un contador Geiger. Se tienen los siguiente conteos para 10 intervalos de 5 segundos: x = {3, 0, 7, 11, 1, 3, 4, 10, 6}. 1. Estime los par ametros de la distribuci on correspondiente (Poisson) usando el estimador de Bayes. Asuma una distribuci on a priori para el par ametro de la distribuci on poiss onica Gam(a, b), con a = 1 y b = 5. Recuerde que f (x|) = P oisson() = Gam(a, b) = x e x! ae (a)b1 (b)

Demuestre primero que la distribuci on Gamma es la conjugada de la Poissonica. 2. Obtenga el estimador de m axima similaridad y compare con el de Bayes.

7.0.80.

Conjugada de la Gaussiana

Demuestre que si x = {x1 , . . . , xn } es una muestra de n experimentos con X N(, ), donde es conocida pero es desconocida, y tenemos un a priori normal para N(a, b) de par ametros (obviamente) conocidos, entonces la distribuci on a posteriori tiene tambi en distribuci on normal b2 i xi + a 2 b , ) f (|x) N( 2 2 + nb 2 + nb2 Es decir, demuestre que la normal es la conjugada de la distribuci on normal. Cu al es el estimador de Bayes correspondiente?

30

CAP ITULO 7. INFERENCIA BAYESIANA Y MAXIMA SIMILARIDAD

7.0.81.

El sesgo de la Varianza

Considere la repetici on de una medici on sobre una variable X que se asume Gaussiana. Si se tienen los resultados (x1 , x2 , . . . , xn ), obtenga el estimador de m axima verosimilitud para el valor esperado y la desviaci on est andar de la Gaussiana. Analice si estos estimadores son consistentes y no sesgados. Justique a partir de este resultado por qu e se suele escoger 2 = como estimador de la varianza. 1 ( n1
n i 2

x2 i (

xi )2 )
i

7.0.82.

Term ometro de Boltzman

Considere un grupo de N part culas en una columna vertical de aire. Seg un la ley de Boltzman, la probabilidad de encontrar una part cula a la altura z tiene la forma P (z ) ez en las unidades apropiadas. = 1/T es el inverso de la temperatura. 1. Normalice f (z ) = P (z ). de mayor similaridad que estima la temperatura de la columna de 2. Halle el estimador T aire, cuando se tiene una foto instant anea de las part culas (N valores (z1 , z2 . . . , zN ) de la altura de las part culas). 3. Demuestre que es un estimador consistente y no sesgado. 4. Suponga que de alguna forma usted tiene el valor exacto de T al cual est a la columna si usted realiza muchos experimentos, es de aire. C omo distribuye la variable T T para cada decir si usted toma muchas fotos de las part culas y hace el c alculo de T una. 5. Suponga ahora que de hecho disponemos de 10 fotos con los siguientes resultados para el estimador de la temperatura T = (25,2, 26,0, 22,3, 21,4, 26,3, 24,7, 25, 6, 25,9, 23,8, 24,4) De un intervalo de conanza para la temperatura real de la columna de aire, con un nivel de conanza del 80 %. 6. Usando la relaci on entre la varianza de las part culas fotograadas y la varianza de la temperatura estimada, obtenga un valor para el n umero de part culas con qu e se obtuvieron los resultados anteriores.

31

7.0.83.

Contando Peces

C omo se cuentan los peces de un estanque? Una forma es la siguiente. Tiramos una red a un estanque y sacamos M peces. Los marcamos con un aro en la cola, y los devolvemos al estanque antes de que sea demasiado tarde. Esperamos un poco, tal vez un dia, y luego repetimos la operaci on sacando esta vez T peces, de los cuales resulta que m de ellos tienen la marca realizada en la primera operaci on. Si el n umero de peces sacados en cada ocasi on no es muy peque no, deber amos ser capaces de estimar la cantidad total de peces a partir de estos datos obtenidos. Realice el c alculo.

7.0.84.

Intervalo de conanza Bayesiano

Se tienen 10 lanzamientos de una moneda de la cual se desconoce el valor de la probabilidad q con la que se obtiene una cara como resultado. Se tiene un a priori uniforme para el valor de q en el intervalo [0, 1]. A modo de prueba se lanza la moneda 10 veces y se obtienen 7 caras. Halle el estimador de Bayes para q y dena un intervalo de conanza con un nivel de conabilidad del 90 %.

7.0.85.

Las frases del fortune

Linux trae un comando fortune que imprime una frase c elebre (extra da aleatoriamente de un archivo) cada vez que se ejecuta. Un estudiante aburrido se dedica a leer estas frases, esperando encontrar el sentido de la vida en ellas. Al cabo de media hora en esta tarea, y sin haber encontrado lo que buscaba, se percata de que s olo han salido repetidas 5 frases en las 100 veces que ha ejecutado el programa. Abandonando las preguntas trascendentales, se preocupa ahora por la cantidad de frases distintas que la computadora contiene, y como no sabe linux, es incapaz de hallar el archivo y contarlas. Demuestre que es posible estimar dicho n umero.

32

CAP ITULO 7. INFERENCIA BAYESIANA Y MAXIMA SIMILARIDAD

Cap tulo 8

Datos experimentales y M nimos Cuadrados


8.1. Teor a

En muchas ramas de la ciencia aparece la necesidad de inferir par ametros de cierta teor a de forma que los mismos ajusten lo mejor posible las mediciones que se realizan en la pr actica. En un caso simple, por ejemplo, se tiene un conjunto de n mediciones de la variable independiente x y de la correspondiente variable dependiente y . Nuestra teor a predice que la relaci on entre las mismas debe ser de la forma y (x) = h(x, 1 , 2 , . . .) donde (1 , 2 , . . .) son los par ametros de nuestra teor a, que en general son un n umero peque no de ellos, mucho menor que el n umero de mediciones. Debido a que las mediciones experimentales siempre introducen errores, y a que tenemos m as mediciones que par ametros de ajuste, el conjunto de valores que tenemos en mano x = (x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn ) no satisfacen exactamente nuestra ecuaci on para ningun juego de par ametros. Es decir, de forma general los residuos de cada medici on denidos como ri = yi h(xi , 1 , . . .) no ser an todos cero simult aneamente. El m etodo de los m nimos cuadrados propone estimar los par ametros de forma que minimicen la suma del cuadrado de los residuos
n

= ( 1 , 2 , . . .) = argmin
i

2 ri

Si denimos S =

n 2 i ri ,

los par ametros estimados por m nimos cuadrados satisfacen S =0 i 33

34

CAP ITULO 8. DATOS EXPERIMENTALES Y M INIMOS CUADRADOS

8.2.
8.2.1.

Ejercicios
Formula Matricial para modelos lineales

Un modelo lineal es aquel en que los m par ametros = 1 , 2 , . . . , m entran de forma lineal en el modelo que estamos tratando de ajustar
m

y = h(xi , 1 , 2 , . . .) =
j =1

j j (xi )

donde j (x) son funciones arbitrarias de los datos experimentales (no necesariamente lineales). Demuestre que en el caso de modelos lineales, el estimador de m nimos cuadrados viene dado por la expresi on matricial
T 1 T LLSQ = (x x) x y

donde xi,j = j (xi ) es una matriz de dimensi on n m, e y = (y1 , y2 , . . . , yn ) es el vector de las mediciones realizadas para la variable dependiente.

8.2.2.

Recta y Parabola

Estudie la aplicaci on del ajuste por m nimos cuadrados a los modelos lineales siguientes 1. y = 1 + 2 x 2. y = 1 + 2 x + 3 x2

8.2.3.
tes

Recta y Parabola

Estudie la aplicaci on del ajuste por m nimos cuadrados a los modelos no lineales siguien1. y = 1 sin(2 x) 2. y = 1 exp(2 x) Considere un ruido gausiano afectando los valores de xi

8.2.4.

Parametro constante

Pruebe que si uno de los par ametros en un modelo lineal es una constante aditiva, entonces la suma de los residuos es cero ri = 0
i

Cap tulo 9

Test de Hip otesis


9.1. Teor a

En muchas ocasiones es necesario elegir entre modelos probabil sticos a partir de la comparaci on de estos con mediciones. Por ejemplo se tiene un el valor medio h de la estatura de un aula en una escuela, y se ha perdido el a no escolar a que pertenece esta aula. C omo cada a no escolar tiene una estatura caracter sitca, podemos intentar inferir el a no a partir del dato que poseemos. Por ser la media una variable aleatoria (pues es la suma normalizada de las estaturas de los estudiantes del aula), esta tiene una cierta dispersi on en torno al valor esperado para cierta edad, caracterizada por una desviaci on est andar conocida. Digamos que queremos saber si la media que poseemos pertenece a un grupo de 4to grado, cuyo valor esperado de estatura es 0 o no. Tenemos dos hip otesis en nuestro problema H 0 : = 0 H 1 : = 0

La primera hip otesis, que est a bien denida se llama hip otesis nula y en general es aquella que buscamos rechazar con los datos experimentales. En cambio H1 se llama hip otesis alternativa, y en este caso est a denida como la negaci on de la hip otesis nula, es decir, no est a denida de forma precisa, y se dice que es una hip otesis compuesta. El valor medio de la estatura de los muchachos tiene una distribuci on gaussiana con valor medio y desviaci on cuadr atica media o al menos esta es una buena suposici on, por venir dado como la suma de variables aleatorias. Si la hip otesis nula H0 es cierta, al distribuci on ser a, particularmente h N (0 , ). La forma de campana de la gaussiana implica que los valores muy alejados del valor esperado 0 tengan una probabilidad muy baja de ocurrir. Por este motivo si tenemos una media de valor muy alejado del esperado podemos asumir que la informaci on que esta nos est a dando es que ese evento es muy raro si se asume la hip otesis nula, y por tanto es preferible rechazarla. Uno puede, por ejemplo decidir que los as que del valor esperado 0 son valores raros, pues en el 68 % valores de h que disten m de las ocasiones los valores de h se encuentran dentro de este intervalo. O uno puede tomar un intervalo de tama no 2 , con lo cual deja fuera s olo el 4,5 % de las realizaciones de h. N otese que el criterio de corte es arbitrario, y responde a la signicaci on deseada para el test en cuesti on. En muchos casos se ha establecido el criterio del 5 %, es decir, tomar como 35

36

CAP ITULO 9. TEST DE HIPOTESIS

criterio de rechazo los valores de la variable experimental m as alejandos del valor esperado y sobre los cuales se concentra el 5 % de la probabilidad. En otras palabras, se asume que los eventos experimentales con probabilidad de ocurrencia inferior al 5 % son eventos raros, seg un la hip otesis nula, y por tanto dan un criterio de rechazo para esta. Para establecer el criterio de corte, es fundamental conocer la forma de la distribuci on estad distica del par ametro observado. En ocasiones es conveniente construir un estad grafo, es decir, una combinaci on de nuestros datos experimentales y de los par ametros de su distribuci on que tienen una distribuci on conocida de antemano. En el ejemplo anterior, 0 el estad grafo m as evidente ser a la estandarizaci on de la media observada H = h N (0, 1).

9.2.
9.2.1.

Ejercicios
Internet y TV

Seg un una encuesta los suecos dedican 154.8 minutos diarios a ver la televisi on. Un investigador tiene la hip otesis de que a internet se le dedica menos tiempo. El investigador realiza su propia encuesta a 25 individuos, y halla que esa muestra dedica un tiempo promedio T = 128,7, con una desviaci on est andar muestral de = 46,5. Supongamos que el tiempo que un individuo le dedica a internet es una variable aleatoria con distribuci on normal Ti N (0 , 0 ). Existe evidencia para la hip otesis del investigador? Use el criterio del 5 % para la signicaci on del test.

9.2.2.

Media y Varianzas desconocidas

Sea una muestra x = (x1 , x2 , . . . , x2 5) de n = 25 mediciiones con distribuci on normal de 2 varianza = 100. Se tiene como hip otesis nula que H0 : = 0 = 50, y como alternativa que H1 : = 0 . Un investigador ja una regla de rechazo para la hip otesis nula de forma arbitraria en x 52. 1. Calcule la probabilidad de recharzar H0 como funci on del valor esperado real (desconocido normalmente) con que se generan los datos. 2. Qu e probabilidad tiene la regla jada por el investigador de incurrir en errores de tipo I? 3. En el caso en que los datos fuesen generados con un valor esperado = 55, de forma que la hip otesis alternativa es cierta, con qu e probabilidad se cometen errores de tipo II? on del 5 %? 4. Qu e regla de rechazo x c garantiza una signicaci 5. Calcule el n umero de mediciones n necesarias para que la regla jada arbitrariamente tuviese una signicaci on del 5 %

9.2. EJERCICIOS

37

9.2.3.

El test del signo

El test del signo (no param etrico) para la mediana se dene a trav es del estad grafo w=
i

Sign(xi )

1. Halle la densidad de probabilidad porrespondiente a este estad grafo. 2. Halle el punto de corte en w para rechazar la hip otesis = 0 con una signicaci on del 5 %.

9.2.4.

Varianza Conocida

Para el test de hip otesis de la media con 0 conocida, calcule c omo depende la regi on de rechazo de la hip otesis nula con el tama no de la muestra. Comp arelos con los intervalos de conanza para el estimador de la media.

9.2.5.

Producto de la tienda

Una bolsa de papitas fritas dice tener 250g (gramos) de contenido. Se miden 75 bolsitas on del 5 % diga si es posible rechazar la hallando P = 248g y = 5. Usando una signicaci hip otesis nula en los casos siguientes 1. H0 : 250 contra H1 : 250. 2. H0 : 7 contra H1 : < 7.

9.2.6.

Michelson

Usando la data de Michelson en su famoso experimento para medir la velocidad de la luz, diga si es posible armar que esta es mayor que c0 = 299000Km/s con una signicaci on de 5 %.

9.2.7.

Cavendish

Usando la data de Cavendish, diga si la raz on entre la densidad de la tierra y del agua es menor que 5,5 con un nivel de signicaci on del 5 %.

38

CAP ITULO 9. TEST DE HIPOTESIS

Cap tulo 10

Comparaci on de Hip otesis con MLR y MAP


10.1. 10.2. 10.3. Teor a Ejercicios Signicaci on de MLR
f (x|0 ) f (x|1 )<k

Compruebe que MLR con criterio de corte L =

tiene nivel de signicaci on

= P0 (L < k)

10.4.

Test del VIH

La prueba cl nica para la detecci on del VIH en las personas es muy precisa. El test arroja un resultado positivo siempre que se le aplica a una persona enferam P (T est + |H1 ) = 100 %, donde por H0 estamos tomando la hip otesis de que el paciente es sano, y por H1 que est a nefermo. El test tiene una peque na probabilidad de fallo en personas sanas, de forma que P (T est + |H0 ) = 3 %. La prevalencia del VIH en cierta poblaci on es del P (H1 ) = 3 % 1. Un persona de esta poblaci on se realiza el test y le da positivo. Con qu e probabilidad est a realmente infectada? Es un criterio fuerte el resultado del examen para rechazar H0 ? 2. Con qu e probabilidad una persona cuyo test da negativo est a infectada? Hay criterio para rechazar H1 ?

10.5.

Test para la dist. Exponencial

Se tienen dos teor as sobre cierto n ucleo at omico raro. La primera predice un tiempo de vida medio t1 = 1/b1 y la segunda t2 = 1/b2 . Se desea usar el conjunto de mediciones de 39

40

DE HIPOTESIS CAP ITULO 10. COMPARACION CON MLR Y MAP

tiempos de vida t = (t1 , t2 , . . . , tn ) para discernir entre estas teor as H0 : P1 (t) = b1 eb1 t H1 : P2 (t) = b2 eb2 t

1. Halle el estimador de m axima verosimilitud par ala distribuci on exponencial. 2. Demuestre que Y = ti Gam(n, 1/b)

1 2 (b1 b2 )Y 3. Demuestre que el MLR es L = ( b b2 ) e

4. Si denimos n,b () el percentil de orden de la distribuci on Gamma, demuestre que el criterio de rechazo Y n,b () tiene signicaci on

10.5. TEST PARA LA DIST. EXPONENCIAL

41

Examen intrasemestral de Probabilidades y Estad stica 2008

Bayes En una caja hay dos monedas, una de las cuales es normal y la otra tiene un escudo por ambas caras. Se saca una moneda al azar de la caja y se lanza 3 veces, obteni endose en las 3 ocasiones un escudo como resultado. Cu al es la probabilidad de que la moneda sacada fuese la normal? Cu al es la probabilidad de obtener cara o escudo en el 4to lanzamiento? Combinatoria Se suben N personas en un elevador de un edicio de k pisos. Estudiamos la variable aleatoria X = (X1 , X2 , . . . , XK ) que dene el n umero de personas Xi que desciende en cada piso i- esimo. a ) Cu antos valores posibles puede tomar esta variable? b ) En cuantos de estos casos se han bajado 2 personas en el 1er piso? Sugerencia: En el inciso b, una vez que han bajado 2 personas, el problema de distribuir las restantes es an alogo al original. V. Aleatoria Se piensa construir una represa en un punto del rio Colorado que dista una distancia D del punto medio de una falla tect onica de longitud 2L. Demuestre que la densidad de probabilidad de la distancia del origen del terremoto al lugar de la represa es f (r ) =
1 2r 2 (r D 2 ) 2 L

a ) Si la energ a que el terremoto disipa E se reparte supercialmente, calcule la densidad de probabilidad de sentir un terremoto de energ a en la posici on de la represa. Momentos Considere la distribuci on de probabilidades siguiente f (x) = 2x 0 si 0 < x < 1 en otro caso

a ) Halle la funci on generadora de momentos de esta distribuci on. b ) Calcule usando la misma el valor medio de la variable aleatoria z = x1 + x2 , donde ambas xi distribuyen seg un f (x).

También podría gustarte