P. 1
Teoría de las probabilidades y estadística matemática

Teoría de las probabilidades y estadística matemática

4.33

|Views: 8.343|Likes:
Publicado porCuater Cuyero

More info:

Published by: Cuater Cuyero on Jun 27, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

09/19/2014

pdf

text

original

Teoria de probabilidades y estadistica matematlea

Teoria de probabilidades y estadistica matematica

Teoria de probabilidades y estadistica matematica

~EDITORIAL

~ PUEBLO Y EDUCACION

Gert Maibaum

Tomada de la edition en aleman de Ia editorial Deutscher Verlag der Wissenschaften, Berlin, 1976.

Traduction: Lie. Marta kvazez Perez

Edicl6n: Prof. Martha EntJalgo Florez Dustraci6n: Martha Tresaneos Espin

.1!rim_ relmprel!ion. 198&

La presente edicion so reaIiza en virtud de Ia Jicencia No. IS del 12 de dlciembre de 1987. otorpda pOl .1 Centro Nacional d. Dorecho d. Autor. d. conformidad con 10 dispuesto en e1 Articulo 37 de Ia Ley "!o. 14 de Dorecho de Autor de 28 de diciembre de 1977

SNLC: RA 01.13560.0

Nota a la edici6n en espanol

La presente abra es una traduc:ci6n del libro Wahrscheinlichkeitsthecrie turd nuuhentlltisclle Statistik de Gert Maibaum, que forma parte de 1a serie Mathemotik fiJr Lehrer (abreviadamente MfL), cuyo objelivo principal consiste en brindar una bJbliogratla adecuada a los estudiantes que se forman como profesores de Matematica en la Reptlblica DemocrAtica A!&mana.

Este libra, publicado en 1976, expone de forma rigurosamente exacta y desde posiciones acordes can nuestra concepcion cientlfica del mundo, los conceptos y metodc 5 fundamentales de la teorta de probabilidades y la estadlstica matematica, Par esta raz6n, y porque responde a las exigencias en cuanto a la formaci6n en la disciplina Probabilidades y Estadistica que deben tener los estudiantes de la Licenciatura en Educaci6n, especialidad Matematica, se ha decidido la publicaci6n de esta obra en nuestro pafs para que sirva de texto basico, 10 cual no excluye su utilizaci6n por otro cfrculo de lectores,

Esperamos que esta obra sea acogida favorablemente y que constituya un uti! instrumento en manos de nuestros estudiantes.

DIRECCION DE FORMACION y PERFECCIONAMIENTO DE PERsONAL PEDAGOOICO

Prefacio

EI presente torno II de la Coleccion de textos de estudio Mathematik fiiir Lehrer ofrece una introduccwn a la teorta de probabiJidades y la estadlstica matematica, disciplinas que

poseen una gran significacion para las mas diversas esferas de aplicaci6n e investigacion cientlfica, raz6n per la cual han entrado a formar parte de la formaci6n rnatematica en la eseuela media superior ampliada,

Este libro, en correspondencia con el objetivo general de la serie, esta destinado, prineipalmente, a servir de texto basico en la forrnaei6n de profesores de Matematica. pero adem". debe ser apropiado para los -estudiantes de otras especialidades que durante su eStudio establezcan eontacto con el Olleulo de probabilidades y la Estadlstica, 0 con ramas que empleen sus metodos y procedimientos. Por ultimo. este texto debe brindarlea los profesores en ejercieio un acceso seguro y racional a la Teorla de probabilidades y a Ia Estadlstiea matematica, asl como un medio de consulta util para la preparacion y realizaci6n de eursos y clrculos de inter6s sabre esta tematica.

En esta abra se utilizan siete, de un total de 13 capltulos, para exponer la Teoria de probabilidades; los primeros tres capitulos abarcan el Calculo de probabilidades, mientras que los capltulos 4 hasta el 7 se dedican al tratamiento de variables aleatorias y alcanzan su punto culminante con la formulaci6n de proposiciones acerca de la Ley de los Grandes Ndmeros y del Teorema integral de De Moivre-Laplace. A continuacion del capitulo 8 sobre Estadlslica descriptiva, se da respuesta a las principales interrogantes de la Estadistica matematica en los capltulos 9 hasta el II. donde las estimaciones puntuales y por intervalo de confianza, asl como las pruebas de significaci6n constituyen los puntos clave. El capitulo 12 contiene algunas tablas; por una parte se debe dar con esto una vision numerica de algunas distribuciones de probabilidad Y. por otra, se agrupan aqul para la reaIizacwn practica de estimaciones por intervale de confianza y pruebas de significacion, percentiles frecuentemente utilizados en las distribuciones de probabilidad de los estadiIrafos correspondienles. Con el capitulo 13 se da un pequeho bosquejo de la historia del Calculo de Probabilidades. Por ultimo. hay que senalar la bibliografta al final del libra. pues aqul se encuentran tambien algunos consejos que deben servir para la elecci6n de literatura adecuada (por ejemplo, para la aplicacion de metodos estadisticos en la investigacwn pedag6gica 0 para la realizacion de cursos y circulos de interes sobre el Calculo de probabilidades).

fndice

o.

Introduccion

11 13

1.1 1.2 1.3 1.3.1 1.3.2 1.3.3 1.3.4 1.3 5 1.4 1.5

Experimentos aleutorios SUl'eSOS aleatorios

Operuciones entre sucesos aleutorios Sum" de sucesos

Producto de SU1.:esos ."." •...

Suceso contrur ic 0 complerncnt.mo Diterenctu de suvesos

Difercncia simetrica de sucesos

Algebras de SUl'esos , "" .

Algebr<ls de sucesos y :l1gcbr:t5 de conjuntos

13 14 17 1R 19 20 21 22 22 24

26 27 29 32 3S J7

40 41 43 4S 47 49

SI SI S5 58 63 64 69 71

74 74

2. 2.1 2.2 2.3 2.4 2. j

3. 3.1 3.2 3.3 3.4 3.5

4. 4.1 4.2 4.3 4.4 4.5 4.6 4.7

Probabilidad

Frccuenciu reluuva .....

Definicion clusic« de probabifidud Definicior. gecmetricu de probubilidad Definicion uxionuirivu de prcbnbilidad Leyes de vdlcutc par" prob .. ibilidades

Probubilidad condicionadu Defimcion de probabilidud condicionada

Teorema de hi multlplicacien para probabilidades Independencia de sucesos uleutonos ...

Formula de 1" probabilidad total

Formula de Bayes

Variables uleatorias discretas ...... Definicion general d~ variable uleutorja Del1..,il.·ion de variable aleatoria discrete

Cuructertsticus numericus de las vuriubles uleatorias discretus ... Distribud6n discretu uniforme

Dirtribucion binomiul .....

Distribud6n hipergeometricu

Distribucion de Poisson

5. S.1

Variables aleutorias continuas Definicien de variable aleutoriu continua

GUT MAIBAUM

Me he esforzado muc:t1O pot presen&ar los conceptos y proposition". fundamentales de

I. Teoda de probabilidades de forma matem6ticamente eUCla, pero a la vez intuiti"a. EI objetivo eseneial de los capitulos sobre Estadistica matem4tica esta en la explicaci6n y fundamentaci6n de las principales formas de deducci6n de esta disciplina. En su totalidad, la ellposici6n est4 hecha, de modo tal, que la aplicaci6n pr4ctica no debe ofrecer dificultad alauna. Adem4s, se introdujeron por esto numerosos ejemplos de las mils diversas ramas. A causa de la extensiense tuvo que renuneiar a una parte especiahnente dedicada a ejereieios. que mostrara la amplia aplieaci6n de la Teoria de probabilidades y de la Estadistiea matematica. EI lector interesado puede encontrar tambien en la btbliograffa refereneias al respecto,

Quisiera aprovechar la ocasi6n para agradecer efusivamente a mi estimado maestro.

Herr Profesor Dr. rer. nat. habil. P.H. Milller, quien ha revisado todo el manuscrito de forma sumamente crltica y me ha dado numerosas y valiosas indicaciones, tanto para la ccneepcien y estructuracien del libro, como tambien para su redacci6n definitiva. Adomils, es para ml un agradable deber agradecer a los editores de la serie Mathematikfar' Lehrer -en particular a1 editor coordinador, Herr Profesor Dr. 'c. nat. W. Engel- y a la empresa nacionalizada Deutscher Verlag der Wissenschaften- especialmente a Fri. Dipl.·Math. E. Arndt y a la redactora de este libra. Frau Dipl. -Math. K. Bratz- por la grata cooperaci6n, ayuda l' competente asesoramiento. A continuacion quisiera agra· decer cordialmente a los cajistas de la empresa naeionalizada Druckhaus "Mbimo Gorki" en Altenburg por el cuidadoso trabajo realizado por ellos, Por ultimo, tengo que agradecer a Frl. I. Tittel y a mi espo .. ; ambas me han ayudado mucho en la confecci6n del manuscrito.

Espero que el libro responde a las necesidades, Aceptare con gusto cualquier indicaci6n proveniente del cfrculo de lectores.

Dresden. febrero de 1976

5.2 5.3 H 5.5 5.6 5.6.1 5.6.2 5.6.3

('.Ifilc:terlsth:as nunu~ri~,:a5 \Ie las v.lri .. bles "Irot,orias continuas

Distribucicn continua unitorme " ..

77 80 81 87 89 90 92 93

94

Distribuvicn normal .

Distribucicn exponenciul ,

Distribud6n XI' I ).' F

Disrribuvicn X, .

DistribuL'i6n r .

DistdbuL'i6n F .

6.1 6.2 6.J 6.4 6.5

Derimcion general de vector nleutorio .

vectores uleatorlos discretos

95 97 102 106 110

117 118 120 124 126 129 132

136 136 140 140 141 142 146

146 146 148 150

vectores uleutonos continuos .

lndependencia de arlables uleatcnas .

Distribucicn de luncicnes de vuriubles uleutorias

7. 7.1 7.2 7.3 7.4 75 7.6

Teoremas Iimites

Desigualdad tie Cbebysher

Tipos de ccnvergencia en 1" Teorlu de probubilidudes

Teoremas de Bernoulli y de Poisson (Ley de los grnndes numerost

Generulizncien de 1.1 ley lie los grandes nurneros .

Teorema local de De Moivre-Lnplave

Tecremu central del limite

8. 8.1 8.2 8.2.1 8.2.2 8.3 8.4

Estudistica descriptiva ....

Metodos POIEI el estudio de una cuructertsticn medible .

Medidus est"dCstll·i.IS PM:t e1 estudic de una r.:'H" .. .tcrtsucu medible Medidus de tendencia central ..

Medidus de dispersion ..

Metodos puru el estudio de dos cunn -terfsti, r as medibles ..

Medidas est.HJistit·;:\s pilr" eJ estudio de dos cuructertsticus medibles

9. 9.1 9.2 9.3

Conceptos tundamentales de la Estudistica mutenulticu

Tureas Que se planteu la Esrndtsticu nuuenultu-u Poblacion y muestm

Teorema fundamental de 1;'1 Estudtsrica matematicu

10. 10.1 10.2 10.3 10.4 10.4.1 10.4.2 10.4.3 10.4.4 10.4.5 10.5 10.6 10.6.1 10.6.2 10.6.3

Introduccion a lu Teorla de la estimucion

Tureas que se plnntea lu Teortn de hi estinw,'ion ..

Estimadores puntuales [propiedades) .

Sobre lu construccicn de esrimudores puntuales ..

Ejernplos impcrtuntes de estiruadcres puntuules

Estmuutor puntual par" un valor esper u do desconocidc Estimuderes puntuales para una V"r1i.InZi.I desconocidu

Estimador puntual paru una probabilidud deseono, ... idu .

Estinmdor puntual J);'lra una funcion de distribucion desconocidu Esnmador puntuaJ para un cceticiente de l,:orrel;l4,.'i6n desconccidc

Estimaciones per intervale de vont'ianza .

Ejernplcs iruportuntes de estirua, .. tones par intervale de confiunzu Intervulcs de ccnf'iunzu para los parametros de unit disrribucicn normal Intervale lie cenfianzn para una probubilidud descone- . .'idOi

Intervale de confianza para una funcicn de disrribucicn desconocidu

II. 11.1 11.2 11.3 11.4 11.4.1

Introdurcion a lu teorta de lu docimasia de hip6tesis Tareus Que se plunteu hi tecrtu lie I" docimasia de hipetesis Conceptos fundamentales de la tccrta de la docimasi. de hipctcsis Procedirniento general para reuhzur un .. ! doctm .. , de significucion Ejemplos importuntes de decimas purametricus .......

Decima l simple

156 156 158 165 170 170 171 171 172 172 In 177 178 180 181

183 183 185 189 193 195

11.4.2 11.4.J 11.4.4 11.4.5 11.5 11.5.1 11.5.2 11.5.3 11.5.4 11.5.~ 11.6

12. 11.1 12.2 12.3 12.4 12.5 12.6

)95 196 197 197 198 199 200 201 201 202 203

205 205 207 2ll 214 216 217

222 226

DodnlOl 7.1

Decima F " .

D61,.';nl:l para un .. probabilidud des -cnovidu " .

Ejcmplos import.mtes de d6 .. -irnas no p<lrametrif.,:;ls .

~.'inli:l de ujuste Xl , , , .

Docimu de Kolmogorov .

D6 .. :inl<l de hcmogeneidad X~ " ..

Docimu para dos distribuciones .

D6 inl':l de independencia 12 , .

Ejemplo de uplicucicn . .

Tablas de ulgunus distribuciones importantes .

Tabla de hi distribucion binomi u 1 .

Tabla de la distribucion de Poisson .

Tabla de la distribucion normal

Tabla de la distribucion X, .

Tabla de lu distribucion I .

Tabla de Ia dislribud6n F .

13.

Breve bosquejo de hi historiu del calculo de probabilidades .

8ibliograria

O. Introducci6n

La Teorla de probabilidades y la Estadlstica matematica, son disciplinas matematicas relativamente j6venes por 51 mismas, donde la Teorla de probabilidades, como teorla inde-

cion - y como fundamento de 1a Estadlstica matematica, posee una significaci6n particular.

La Teoria de Probabilidades proporciona modelos matemAticos para la descripci6n de fen6menos sujetos a influjos casuales, y tiene como objetivo esencial la comprensi6n matematica de las regularidades de los fen6menos aleatorios.

La Teorla de probabilidades se construye de forma axiomatica, de acuerdo con un procedimiento probado y muy utilizado hoy en d!a, y se sirve en gran medida de los metodos y resultados del Analisis,

La ESladlslif,a malemalica proporciona, sobre la base de la Teoria de probabilidades, metodos mediante los cuales se puede obtener informacion sobre las distintas poblaciones a investigar, utilizando datos muestrales aleatorios; con esto se da origen tambien a metodos de ajuste de un modelo matematico, que considere efectos aleatorios, al proceso real correspondiente, sobrela base de datos concretos. EI desarrollo de dispositivos electronicos de alta potencia para el procesarniento de datos, exige la aplicacion de metodos de la Estadistica matematica, en particular de los metodos de analisis estadistico (por ejernplo, los analisis de correlacion, regresi6n, varianza y analisis factorial), en los mas diversos dominios de la practica.

En los ultimos decenios se desarrollaron numerosas disciplinas Que se ocupan con interrogantes especiales de la Teoria de probabilidades y de la aplicaci6n de metodos teorieo-probabillsticos y estadlsticos en distintas ciencias naturales y sociales (entre otras, en la pedagogia y la sicologta) , en la medicina, la tecnica y la economia. Podemos citar como ejemplos, las teorlas de la confiabilidad, la reposicion, los juegos, la decision, la informacion, la teorta ergodica, el diseho de experirnentos, la biometria, la teorfa del control estadlstico de la calidad y la de la simulaci6n por el metodo de Monte Carlo. Ademas, los metodos teorico-probabillsticos se utilizan de forma creciente y exitosamente en la ciencia militar, en el marco de la investigaci6n de operaciones, de la toma de decisiones en los procesos economicos y en la cibernetica.

[I

La Teoria de probabilidades y la Estadlstica matematlca, incluyendo sus disciplinas e ... peciales y sus dominios de aplicaci6n (todas las ramas del saber que se ocupan en 10 esencial del tratamiento matematico de fen6menos aleatorios) son conocidas en los ultimos tiempos con el nombre de estocasticas (m6xos: el objetivo, la suposici6n; griego).

Junto a los fines de aplicaci6n de la Teorla de probabilidades (por ejemplo, en la investigaci6n de la confiabilidad de sistemas sobre la base de la de sus componentes individuales, en la determinaci6n de las dimensiones de equipos de servicio 0 en la realizaci6n de controles de calidad en el marco de producciones masivasj , se debe destacar tarnbien la

stgnihcaclon de esta dlsC1phna para el domlOlo de las crencias naturales. Con las formaciones de conceptos y metodos de la Teoria de probabilidades es posible describir matematicamente numerosos fen6menos (por ejemplo, los problemas que se relacionan con el movirniento de las particulas elementales, las leyes de Mendel en la biologia. las leyes de los gases en la quimica y la fisica) de una forma aun mas ajustada a la realidad objetiva, interpretar los resultados existentes de un modo nuevo y mucho mas concluyente y. ademas, obtener proposiciones nuevas de gran valor cognoscitivo.

La aplicaci6n practica de la Teorla de probabilidades y de la Estadistica matematica se basa en el convencimiento de que el grade de indeterminaci6n de la ocurrencia de sucesos aleatorios se puede determinar, en cada caso, de forma objetiva, mediante un numero: la probabilidad. Para ello se parte, en correspondencia con la realidad objetiva, de que a los fen6menos dependientes de la casualidad, asl como a los procesos que transcurren de forma determinista, les son inherentes ciertas regularidades y de que la casu alidad no significa ausencia total de reglas 0 caos. En este contexte se debe destacar que el concepto rnatematico probabilidad. que define en forma objetiva y cuantitativa la probabilidao de un suceso aleatorio, se diferencia del concepto de 10 probable, utilizado en el lenguaje comun, que tiene generalmente fuertes caracteres subjetivos y con el cual muchas veces solo se consideran proposiciones cualitativas, No obstante, se demuestra que las ideas subjetivas sobre la probabilidad de un suceso aleatorio se aproximan mas y mas a las relaciones objetivas que constituyen la esencia del concepto maternatico probabilidad, en la medida en que aumenta el arsenal de nuestras experiencias.

Ahara nos dedicaremos a la construccion sistematica de la Teoria de probabilidades. Su representaci6n se realiza en el marco de siete capltulos; los primeros tres capltulos abarcan 1a materia que se designa usualmente tambien como Calculo de probabilidades.

12

1. Sucesos aleatorios

En este capitulo nos ocuparemos de los sueesos aleatorios, que son aquellos que pueden presentarse bajo determinadas condiciones. pero no de forma obligatona; nosotros los concebirernos como resultados de expenmentos aleatorios. que son los que ticncn lin desen lace incierto en el marco de distintas posibilidades. Junto a la explicacion detallada de estes y otros conceptos, trataremos en este capitulo las operaciones emre .1'W·('50.1 aleatorios. POT ultimo. lIegaremos a conocer el concepto algebra de sucesos. de gran imporrancia para la construcci6n axiomatic a de la Tecria de probabilidades. Analizaremos tambien la relacion entre algebras de sucesos, algebras de Boole y algebras de conjuntos.

1.1 Experimentos aleatorios

Entendemos por experimento aleatorio aquel cuyo resultado es incierto en el marco de distintas posibilidades y se puede repetir un numero de veces arbitrario (al menos menialmente), manteniendo las mismas condiciones exteriores que caracterizan a dicho expertmenta.

Ejernplos

I. EI lanzamiento de una moneda es un experimento aleatorio. Los posibles resultados de este experimento estan caracterizados por +estrella arriba" y "escudo arriba"

2. La tirada unica de un dado despues de agitarlo en un cubilete es un expenmento aleatorio. Los posibles resultados de este experimento estan caractcrizados por .1 numero que aparece en la cara superior del dado.

3. Las tiradas de un dado despues de agitarlo en un cubilete pueden considerarse como un experimento aleatorio. Si solo nos interesamos porque aparezca el numero seis. este experimento tiene 11 + 1 resultados. (Las veces que aparezca el numero seis es una Hamada variable aleatoria discreta que puede aceptar los 11+ I valores O. I. 2 ..... 11.)

4. La extracci6n al alar de una muestra de n objetos de una poblacion (por ejemplo. la produccion diaria de una Iabrica) de N objetos. que contiene un numero M de defec-

13

tuosos. puede entenderse como un expenmento aleatoric. Aquise realiza una extraccion (sin reposicion) de la muestra y cada uno de los N objetos en total tiene la misma oportunidad de ser sacado. Si solo nos interesamos por el numero de objetos defectuosos en la muestra, este experimento tiene n+ 1 desenlaces, en el caso que se cumpla M~ n. (£1 numero de objetos defectuosos es tambien una variable aleatoria discreta, cuya distribucion de probabilidad desempeil.a una importante funcion en el control estadistico de la calidad.)

5. Toda medici6n (por ejemplo, de una longitud, un angulo, un tiempo, una magnitud flsica), puede concebirse como un experimento aleatoric. De una parte. las mediciones realizadas en un mismo objeto son. por 10 general. diferentes a causa de las insuficiencias del observador para lIevarlas a cabo con precision una y otra vez. Por otra parte. las mediciones realizadas en varios objetos iguales conducen tambien a resultados distintos, como consecuencia de las diferencias existentes entre estos.

Por tanto. en un experimento aleatorio existen influencias que no son consideradas en su descripcicn, es decir, en la enumeraci6n de las condiciones que 10 caracterizan y que conducen a que el resultado de este sea incierto en el marco de distintas posibilidades.

En la explicacion anterior hernos tarnbien destacado, que los experimentcs aleatorios pueden repetirse -al menos mentalmente- un numero de veces arbitrario, Esta condicion nermite el estudio de aguellas regularidades que solo pueden reconocerse mediante

un numero elevado de repeticiones del experimento aleatorio correspondiente. (Expresa· mos tambien esta particularidad diciendo que los fenomenos en que se investigan tales regularidades son masivos.) EI estudio de las regularidades que se presentan en los fenomenos aleatorios es el objetivo principal de la Teoria de probabilidades.

1.2 Sucesos aleatorios

Designaremos por suceso aleatorio un resultado de un experimento a1eatorio. Por consiguiente, este puede presentarse bajo las condiciones que caracterizan al experimento aleatorio y puede no presentarse,

Describimos frecuentemente un suceso aleatorio mediante la ilustracion de la situacion en que se presenta. Por 10 general designamos los sucesos aleatorios con letras mayusculas latinas, que en algunos casos pueden estar provistas de indices.

Eje mpl os. Nos remitiremos a los ejernplos de 1.1:

1. A EI escudo aparece arriba.

2. A, EI numero obtenido al tirar el dado es igual a k(k=I, .... 6).

B EI numero obtenido al tirar el dado es par.

3. A, Las veces que aparece el numero seis al realizar n tiradas del dado es igual a

k (k=O. I, 2 ..... n). .

4. A, ... EI numero de los objetos defectuosos en la muestra aleatoria es igual a k(k =0. 1. 2 ..... n).

S. A ... La magnitud que se mide esta entre los llmites de tolerancia.

En las consideraciones sobre sucesos aleatorios queremos referirnos a aquellos que pueden concebirse como eases especiales de sucesos aleatorios: sucesos seguros y sucesos imposibles.

14

Filura 1

Los sucesos seguros "1n los que se presentan obligatoriamente bajo las condiciones que caracterizan al experimento aleatorio considerado; los sueesos imposibles son los que no se pueden presentar nunea,

Designaremos, de forma unica, los sucesos seguros con n (se lee: omega mayuscula) y 10Si sucesos irnposibles, con (I (con el simbolo del conjunto vaelo).

Eje mp l o. EI experirnento aleatorio consiste en la tirada unica de dos dados despues de agitarlos en un eubilete. Un sueeso seguro es, por ejemplo, que la suma de los numeros obtenidos sea menor 0 igual que 12: un suceso imposible es, digamos, que la suma de los

numeros 0 tern os sea menor que .

A menudo se pueden ilustrar los sucesos aleatorios por medio de subconiuntos sobre la recta numeric a 0 en el plano.

Ejemplos

I. EI experimento aleatoric consiste en rotar un disco al cual se ha fijado un indicador. los infinitos resultados imaginables de este experimento son las posiciones que puede tener el indicador cuando el disco perrnanece quieto. Cada una de eSlas posiciones puede earaeterizarse mediante la amplitud del IIngulo qt formado entre el eie positivo de las x y el indicador (fig. I,.

.4

()

n

De est a forma. todo suceso A relaeionado con este experimento aleatorio puede describirse por medio del conjunto A de aquellas amplitudes de angulos qt que son "convenientes" para el suceso consider ado. y decimos esto en el sentido de que el suceso A se presenta si y solo si la posicion del indieador euando el disco no se mueve se describe por una de las amplitudes de angulos del conjunto A. S], por ejemplo, el suceso A eonsiste en que el indicador perrnanezca quieto en el tercer cuadrante, Ie asociamos a este sueeso el

intervale de 1t a ~ sobre el eje qt. 0 sea. el eonjunto

2

- { 31t}

A = qt: 1t >l; qt>l; --:;- (ver fig. I).

2. 101 experimento aleatoric consiste en tirar sobre un disco con diez circunferencias concenrncas de radios ',>',> ... »r .. >0 (fig. 2).

Todo suceso A. relacionado con este experimento, puede describirse mediante el con,jun- 10 A de todos los puntos "convenientes" en el plano x, y para el suceso consider ado. y decimos convenientes en el sentido de que A se presenta si y soia si el tiro acierta sobre Lin punta de A. Si, por ejemplo, el suceso A es que el tiro disparado sea certero, se describe este suceso por medio del conjunto

A={(x.y): x'+y'';; Til.

IS

FiBur.2

EI conjunto

j = {(X. y): rl < x'+ V'''; rj}

represents al suceso B que se presenta si y solo si el tiro acierta en el anillo circular Ii· mitado por las circunferencias de radios r, y r,.

Para consideraciones generales se ilustran tambi~n los sucesos aleatorios mediante conjuntos de puntos en el plano. Posteriormente analizaremos mas exactamente la estrecha relaci6n entre los sucesos aleatorios y los ccniuntcs (ver 1. S) •

A continuaci6n queremos delinir una relaci6n entre sucesos aleatorios con la cual se pueda despues concebir tambi~n Ia i&ualdad de sucesos aleatorios en forma matematica, AdemaS; nos imaginarcmos siempre que los sucesos aleatorios observados perteneeen a un determinado expcrimento aleatorio.

Definici6n 1. Si a la ocurrencia del suceso aleatorio A estli siempre unida la ecurrencia del suceso aleatorio B. escribimos

A~B.

y se lee: A entraila B. A implica B 0 .~ es una parte de B (r18. 3).

Fiaura 3

16

Luego utilizamos aqui un simbolo de la teoria de conjuntos (ver MIL Torno 1. 1. S); la figura 3 debe recordarnos el cornportamiento correspondiente en conjuntos. (Se puede hacer corresponder a un sistema de sucesos. perteneciente a un exper imento aleatorio. un sistema de subconjuntos de un conjunto universe, de forma tal que la relacion A ~ B exista para sucesos aleatorios A. y B si y solo si el conjunto asociado al suceso A es un subconjunto del asociado al suceso B. En particular. se hace corresponder al suceso seguro el conjunto universe )' al suceso imposible. el conjunto vacio (ver 1.5).

Ejemplo. Tirada de un dado.

EI numero obtenido al tirar el dado es igual a 6 (A={6}). }

=>A <;;B

B ... EI numero obtenido al tirar el dado es par (B={2.4.6}). ~

A

Can la definicion 1 se confirma enseguida que para todo suceso aleatorio A se cumplen las proposiciones siguientes:

¢~A. A ~A. A ~U.

(1)

Si can el suceso A se presenta siempre el suceso B y el B implica al suceso C. entonces el suceso A entrafia evidentemente al suceso C. Expresado en formulas:

A~B. B:5C=>A:5C.

(2)

Llegarnos ahara a la definicion de la igualdad de sucesos aleatorios.

Definici6n 2.Dos sucesos aleatoriosA y B se llaman iguales (A=B) si tanto el suceso A implica al suceso B(A ~ B) como tarnbien a la inversa. el suceso B implica al suceso A (B:5A).

Esta definicion contempla que dos sucesos aleatorios se consideran iguales si y solo si en cada repetici6n se presentan siempre ambos sucesos a no se presentan.

Si dos sucesos aleatorios A y B no son iguales, expresamos esto a traves de A #B. Par ultimo. destacamos que la relaci6n :5 es reflexiva y transitiva a causa de (1) y (2). y antisimetrica en virtud de la definicion 2. es decir. que la relacion ~ es una relaci6n de orden parcialtver Mfl.. Torno 1. 1.5.). En lugar de A ~B escribimos tarnbien B ;;?A.

1.3 Operaciones entre sucesos aleatorios

En este epigrafe tratamos las operaciones entre sucesos aleatorios, cuya aplicaci6n es muy conveniente yean freeuencia conduce a una formulaci6n muy clara de distintos hechos. Aqui se presentan simbolos de operaciones conocidos del tratamiento de la teoria de conjuntos (ver Mfl.. Torno 1. 1.4). Aclaramos que si se sustituyen los sucesos que aparecen por conjuntos. surgen siempre de las proposiciones siguientes (sobre sucesos) proposiciones verdaderas de la teoria de conjuntos y viceversa, se obtiene de las proposiciones correspondientes de la teorla de conjuntos proposiciones verdaderas sabre sucesos aleatorios, si se sustituyen los conjuntos que aparecen por esos sucesos. (La fundamentaci6n de esto 10 proporciona un teorema sabre el isomorfismo entre las Algebras de sucesos y ~as Algebras de conjuntos, que trataremos en el eplgrafe 1. 5.) Las figuras dadas a continuacion de las siguientes definiciones de las operaciones entre sucesos aleatorios deben servir

17

para recordar las definiciones de las operaciones correspondientes con conjuntos, Todos los ejemplos de este epigrafe se refieren, para mayor sencillez, al experimento aleatorio consistente en la tirada unica <:I.e un dado.

1.3.1 Suma de sucesos

Definici6n 1. Si A Y B son sucesos aleatorios. entonces designamos al suceso que ocurre si y solo si al menos uno de los sucesos A y B ocurre, por

(I) (2) (3) (4)

AuB

y se lee: A 0 B. suma de A y BoA unido con B (fig. 4).

..• .4 u B

Figura 4

Ejemplo, Tirada de un dado.

A EI numero obtenido es par (A ={2.4.6}j.

B EI mlmero obtenido es mayor 0 igual que 3 (B={3.4.5.6}).

AuB ... EI numero obtenido es distinto de 1 (AuB={2.3.4.5.6}).

Las siguientes proposiciones son faciles de comprobar:

Au(/)=A. AuA=A. AuU=U. A~AuB. B~AuB. AuB=BuA (conmutatividad),

A u(BuC) =(A uB) uC (asociatividad) ,

Sobre la base de la validez de la ley asociativa se puede definir la sum a de n(n;' 2) sucesos aleatorios de la forma siguiente.

Definiei6n 2. Si A" A, ..... A. son sucesos aleatorios. entonees designamos al sueeso que ocurre si y solo si al menos uno de los sucesos A, (i = 1.2 ..... n) ocurre, por

A,uA,u ... uA.

o tambien con

UA,.

Generalizando, podemos designar al suceso que ocurre si y solo si al menos un suceso de la sucesi6n (infinita) A,. A,. ... de sucesos A, (i=I.2 .... ) ocurre, por

A,uA,u ...

o tambien con

18

A no= O . .1('.1 =A. A nU=A. Ar,B~A. AnB~B

A r,B=H nA (conmutatividad).

A nIB nC) =(A r.B) n C (asociatividadj .

(5) (6) (7) (8)

1.3.2 Producto de sucesos

Dcfin i c i o n ~. Si .' I y H ... on succ .. os aleatoric .... cnronccs dcsig namo-, al "'lI'~I.:"'O que

ocurrc ~i y "i010 ... 1 tanto A como H ocur rc. per

A nH

y se lee' A H. producto de A y B 0 intcrscccion de A y B (fig. 5).

Figura 5

Ej e m p l o . Tirada de un dado.

A EI numero obtenido cs par (A ~(2.4.hl).

B EI numcro obtenido cs menor que 3 (B = .1.2 ).

A <B EI numero obtcnido cs igual a 2 (A nB={2/).

Las proposicioncs siguicntcs son tarnbicn Iacilcs de verificar:

Sabre 13 base de la validcz de la ley asociativa podemos definir el producto de n(n'" 2) sucesos aleatorios de la forma siguicntc.

De I i n i c i6 n 4. Si A r- A,. . A, son sucesos aleatorios, entonces designamos .1 suceso

que ocurre si y solo si cada uno de los sucesos A, (i = 1.2 .. " n) ocur re, par

At nA2rl .. r'IA~

o tarnbien par

(1 A,.

Generalizando. podemos designar al suceso que ocurre si y solo si cad a uno de los su-

cesos de la sucesion (infinit a) A,. A,. de sucesos A,(i=1.2, ... ) ocurre. mediante

A]"A]n. o tambien

(14

Aqui qucreruos introducir au n dos conceptus sabre los cualcs volvercr OS posteriormcn-

tc.

19

Definiei6n 5. Dos sueesos aleatorios A y B se lIaman muluamenle excluyentes. si se eumple

ArJJ=~.

A nB = ~ signifiea en cuanto al contenido, que la ocurrencia comun de los sucesos A y B es imposible. Se dice tambien que A y B son incompatibles 0 que A y B son disjuntos (fig. 6).

(9)

Figura 6

Definici6n 6. Un conjunto {A" A" ... , A" ... } de sueesos aleatorios A,,,,~ se llama un sistema complete de sucesos, si se eumple

A,r.A.=~ U",k) , A,uA,u ... uA,u ... =U.

Eje mp lo. Tirada de un dado.

A, ... EI mimero obtenido al tirar el dado es igual a i (i=i,2,3.4,5,6). {A" A" A,. A., A" A,} es un sistema eompleto de sueesos.

De modo general, si eonsideramos un experimento aleatorio que tiene siempre como resuitado la oeurreneia de exaetamente uno de los sueesos aleatorios A" A, •... , A" ... , entonees el eonjunto de estos resultados forma un sistema complete de sucesos.

1.3.3 Suceso contrario 0 complementario

Definiei6n 7. Si A es un sueeso aleatorio, entonces designamos al suceso que oeurre si y solo si A no ocurre, por A y lIamamos a este el suceso contrario 0 complementario de A (fig. 7).

Figura 7

Ejernp lo. Tirada de un dado.

A EI numero obtenido es menor e igual que 3 (A = {J, 2, 3}J .

A EI numero obtenido es mayor que 3 (A={4,5,6}).

Evidentemente para un suceso A eualquiera se cumplen las relaciones AuA=U y AnA=,.

20

21

Por tanto. si A es un suceso aleatorio que no es imposible ni seguro, es decir, A .. ~.

A .. U. entonces el conjunto IA. A) es un sistema complete de sucesos, Ademas, se verifica directamente la validez de las proposiciones

(10)

Seguidamente escribiremos algunas otras proposiciones, que no son dificiles de comprobar:

(11 )

A"B= AvB, mas general: n A,=U A"

1",1 1=1

(12)

A vB= A "B, mas general: U A,=n A,.

1;=1 1=1

(13)

A continuacion damos formulas para la descomposicion de la suma de dos sucesos aleatorios en sucesos mutuamente excluyentes dos a dos (fig. 8).

AvB=Av(B"A), A vB=B v(A "B),

A vB =(A "B) v(A "B) u(A "B).

(14) (15) (16)

Dejamos al lector la facil comprobacion de 10 anterior.

~~

~~

1.3.4 Diferencia de sucesos

Definici6n 8. Si A Y B son sucesos aleatorios, entonces designamos al suceso que ocurre si y solo si el suceso A. pero no el suceso B, ocurre, por

A\B

y se lee: A y no B. diferencia de A y B. A menos B (fig. 9).

A U B

'" A" B

Figura 9

Ejemplo. Tirada de un dado.

A EI numero obtenido es par (A={2,4,6}).

B EI numero obtenido es menor e igual que 3 (B={I,2,3}).

A,B EI numero obtenido es igual a 4 6 a 6 (A'B={4,61).

B,A EI numero obtenido es igual a I 6 a 3 (B'A={1,3}).

Ya que la operacionx se puede expresar sobre la base de la relaci6n A,B=AnB

(17)

mediante las operaciones n y -, podemos renunciar a otras explicaciones, Llamamos la atenci6n de que para la operaci6n , no se cumple trivialmente la ley conmutativa (ver ejemplo anterior).

1.3.5 Diferencia simetrica de sucesos

Definici6n 9. Si A Y B son sucesos aleatorios, entonces designamos al suceso que ocurre si y solo si A 0 B. pero no ambos sucesos ocurren. por

A[;B

y se lee: exactamente uno de los succsos .1 \ H. difcrcncia simetrica de A y B (fig. 10).

_1.\8

Figura 10

Ya que la operaci6n 6 se puede expresar sobre la base de la relaei6n A[;B=(A,B) u(B'.A) =(A nB) u(BnA)

(18)

mediante las operaciones n, u y -, renunciamos tambien a otras discusiones al respecto. Solo queremos sei\aJar que se eumple la conmutatividad para la operacion [;.

1.4 Algebras de sucesos

Un algebra de sucesos es un conjunto de sucesos aleatorios que, hablando sin mucho rigor, contiene, ademas de los sucesos interesados directamente en relaci6n con un experimento aleatorio, a todos aquellos que resultan de estos mediante la aplicaci6n de las operaciones tratadas, La fijaci6n exacta de este concepto es el contenido de la definici6n siguiente.

Definici6n 1. Un conjunto A de sucesos aleatorios se llama un algebra de sucesos, si posee las propiedades siguientes:

1. EI suceso seguro pertenece a A: UeA.

22

2. Si dos sucesos aleatorios perteneeen a A, este eontiene tambien su suma:

AEA, BeA~AuBEA.

3. Para todo suceso aleatorio perteneciente a A, este contiene tambien al suceso complementario:

AEA~AeA.

Si A contiene infinitos elementos, posee tambien la propiedad siguiente:

4. Para toda sueesi6n de sueesos aleatorios perteneciente a A, este eontiene tambien su suma:

AteA (i=1,2, ... ) ~ U AteA.

/=,

De las propiedades meneionadas en la definicion 1 resultan Iacilmente otras propiedades.

Corolario. Sea A un algebra de sueesos. Entonees A posee ademas las propiedades siguientes:

I. EI suceso imposible pertenece a A: ~eA.

2. Si dos sueesos aleatorios pertenecen a A, este eontiene tambien su producto, su diferenda y su difereneia simetrica:

AeA. BeA~AnBeA, A\BeA, Al>BeA.

,

3. Para toda sucesion de sucesos aleatorios perteneeientes a A, este eontiene tarnbien sa producto:

AtEA(i=I,2, . ".) ~ n AtEA.

i=1

Demostracion

1. Se cumple u=¢ (ver 1.3 (10». De las propiedades I y 3 del 4lgebra de sucesos resulta que ,peA .

.1. Se cumple" las SigUientts ldenudades:

ArJJ=AuB A,B=Ar\B At.B=(Ar\B) u(Br.A)

(ver 1.3 (13». (ver 1.3 (17». (ver 1.3 (18».

Si A y B son elementos del algebra de sucesos A, entonces resulta, sobre I. base de las propiedades 2 y 3 del algebra de sueesos, que Ar.BeA y de aqul (aplicando de nuevo las propiedades 2 y 3), que

A,BeA y At.BeA,

A,BeA y At.BEA.

3. Se cumple n At= n.Ai (ver 1.3 (12).) Si Ai (;=1,2, ... ) son elementos del algebra de su-

1",1 ; ... 1

cesos A. entonees resulta a consecuencia de:. I. propiedad 3 del Algebra de sucesos A; eA (i = 1,2, ... ).

CO,!,iderando la propiedad 4 50 obtiene U A; eA, y por ultimo, en virtud de 1a propiedad 3 U A; eA, es decir, por la relaci6n dad;' al principle 50 cumple n AieA.

iet

Un algebra de sueesos es, por consiguiente, un eonjunto de sucesos aleatorios, con la propiedad de que la aplicaci6n de las operaciones introducidas en l. 3 a los elementos de este conjunto, proporcionan siempre elementos de este coniunto.

23

Concluimos este eplgrafe con la definici6n del lIamado suceso elemental y con una 01>servaci6n sobre la estructura maternatica del algebra de sucesos.

Definici6n 2. Sea A un algebra de sucesos. Un suceso AEA se llama suceso elemental (con respecto a A) si no existe un suceso BEA, B~I/J y B~A, tal que se cumpla B ~A. En caso contrario A se llama suceso compuesto.

2. AEA no se puede representar de la forma A=BuC con BEA, CEA, B~A y C~A.

3. AEA esta constituido de modo que para todo BEA se cumple AnB=1/J 0 A ~B.

Desde el punto de vista de la estructura rnatematica, un algebra de sucesos es un algebra de Boole.

Antes de fundamentar esto recordemos la definicion de un algebra de Boole.

Definicion 3. Sea M un conjunto sobre el cual estan definidas dos operaciones .. y (es decir. funciones que asocian a cada dos elementos x eM y yeM los elementos x ...... y y x . y pertenecientes B M). M se llama un algebra de Boote, si se satisfacen las proposiciones siguientes para cualesquiera elementos x,y,z de M:

1. x-+-y:;;:y-l-X. X· y=y' x (conmutatividad).

2. x+(y+z) =(x+y) +z. x . (y. z) =(x . y) . z (asociatividad).

3. x+(x . y) =x, x· (x+y) =x (absorcion).

4. x+(y· z) =(x+y) . (x+z) (distributividad).

S. Existen elementos 0 y e en M con x ·0=0 y x+t=e.

6. Para todo xeM existe un x'eM (el Hamado complemento de x) con x . x'=O y x+x·=e.

Cor ol a r i c 3. Toda algebra de sucesos es un algebra de Boole.

Demostraci6n. Como operacion + empleamos a v y como operacicn '. a rv sobre un algebra de sucesos A. Entonces se cumplen las proposiciones 1 hasta 4 de la definicion 3. Como elemento neutro respecto a la adicien ( +] utilizamos el suceso imposible t/J : como elemento neutro de la rnultiplicacinn ( . ). el suceso segurc y. por ultimo, empleamos como complemento de A EA el suceso complementario A correspondiente a A. Estes elementos poseen las propiedades exigidas en la definicion 3 y pertenecen todos a A. Con esto A es, por tanto. un algebra de Boole,

1,5 Algebras de sucesos y algebras de conjuntos

Ahora estudiaremos la estrecha relaci6n que existe entre los sucesos aleatorios y los conjuntos, mas exactamente entre las algebras de sucesos y las algebras de conjuntos, Para ello recordemos 1a definicion de un algebra de conjuntos.

Definici6n 1. Un sistema A de subconjuntos de un conjunto universo U se llama un algebra de conjuntos (sabre U), si posee las propiedades siguientes:

1. El conjunto universo U pertenece a A: HEA.

2. Si dos subconjuntos de U pertenecen a A, este contiene tambien su uni6n:

AEA, BEA~AuBEA.

3. Para todo subconjunto de n perteneciente a A, este contiene tarnbien su complemento respecto al conjunto universo:

AEA~AEA.

24

A,EA (i= 1,2, ... ) => U A,EA.

Si, ademas, la siguiente condici6n 4 se satisface, entonces A se llama una (Y- algebra de subconjuntos de U y el par [n, AJ se llama un espacio medible.

4. Para toda sucesi6n de subconjuntos pertenecientes a A, este contiene tambien su uni6n:

Co r ol a r i o 1. Toda algebra de conjuntos es un algebra de Boole. Demostraci6n. Se desarrolla analoga a la demostraci6n del corolerio 3 (1.4),

EI siguiente teorema de M.H. Slone proporciona la relaci6n anunciada entre algebras de sucesos y algebras de conjuntos.

Teorema I. Para toda algebra de sucesos se puede indicar un algebra de conjuntos isomorfa.

Tenemos que renunciar a la demostracion de este profundo teorema, pero todavia queremos explicar un poco su contenido.

Si A es un algebra de sucesos, entonces existe un conjunlo universe .Q y un algebra A de subeonjuntos de este conjunto .Q con las propiedades siguientes:

1. Existe una aplieaei6n biunivoca de A sobre A.

2. Al suceso seguro n Ie corresponde el conjunto universo .Q y al sueeso imposible el conjunto vacio,

3. Si designamos con C el conjunto (E A) asociado al suceso C E A. entonces a la suma de los sucesos A y B (es decir, al suceso A uB) Ie cor responde la union de los conjuntos A y B (es decir, el subconjunto A uB de Q). al producto de los sucesos A y B (es decir, al suceso A nB), la interseccion de los conjuntos A y B (es decir, el subconjunto A "B de Q), y al suceso A el conjunto complementario de A respecto a Q (es decir, el subconjunto A de Q)

4. Si a la ocurrencia del suceso A( EA) esta siempre unida tambien la ocurre~cia del su-

Por tanto, podemos considerar siernpre en lugar de un algebra de sueesos A, el algebra de conjuntos isomorfa existente segun el teorema anterior, y saber como las operaciones entre los sucesos aleatorios se expresan como operaciones entre los eonjuntos asociados, (por 10 demas, hemos ya anticipado esto mediante el uso de los mismos simbolos para las operaciones. Con esto queda claro que las reg las de calculo para operar con sucesos aleatorios siempre lIevan implicitas las reglas de calcuio para operar con conjuntos, y viceversa.) En las exposiciones posteriores no partiremos en muchas ocasiones de un algebra de sucesos, sino del algebra de conjuntos isomorfa a ella, sobre la base del teorema de M. H. Stone. Aqui supondremos siempre que se trata de una a-algebra. Ademas, queremos sirnplificar la escritura, de modo que designaremos al algebra de sucesos y a 1a a-algebra correspondiente con el mismo simbolo A. De aeuerdo con esto, nombraremos a los sucesos y a los conjuntos asociados con el mismo simbolo; en particular, designatemos tambien con U al conjunto universo asociado al suceso seguro U (cuyos elementos sc nombran muchas veces sucesos elementales).

Por tanto, el punto de partida de nuestras consideraciones posteriores sera un algebra de sucesos A 0 un espacio medible [n, A].

25

2. Probabilidad

En este capitulo nos dedicaremos al concepto probabilidad, que constituye el concepto central y fundamental de la Teorla de probabilidades y tambien de la Estadlstica matematica. Aqul caracterizamos al concepto probabilidad mediante axiom as. de acuerdo con un procedimiento usual hoy en dla en la maternatica moderna (eplgrafe 2.4). Para la formaci6n del sistema de axiomas partiremos de las propiedades comunes de la frecuencia relativa (epigrafe 2.1) y del asi llamado concepto clasico de probabilidad (ep!grafes 2.2 y 2.3). EI concepto clasico de probabilidad se bas a en la -en realidad no universalmente aplicable - definici6n clasica de probabilidad, que en realidad no es universalmente aplicable, y segun la cual la probabilidad de un suceso aleatoric es igual al cociente del numero de resultados del experimento "convenientes" para el suceso observado, entre el numero total de posibles resultados; en una relaci6n semeiante se dice que un resultado del experimento es conveniente para un suceso, cuando este implica la ocurrencia del suceso considerado. Las consideraciones sobre la frecuencia relativa deben convencernos. en particular, de que eJ grade de inaelerminaeian de la GGurrenGia de un suceso aleatorio se puede concebir

siempre de forma objetiva mediante un numero, En este contexte Ilamamos la atenci6n de que el concepto probabilidad utilizado en el lenguaje comun muestra con frecuencia caracteres subjetivos y que con este s610 se intenta dar en muchas ocasiones una proposici6n cualitativa con respecto al propio convencimiento de la ocurrencia de una situacion determinada.

Se calcularon probabilidades antes de que existiera una construcci6n axiomatic a del Calculo de probabilidades (por ejernplo, en el marco de la estadistica poblacional, en problemas de aseguramiento y tarnbien en juegos de azar). No obstante, el desarrollo impetuoso de la tecnica y de las ciencias naturales desde el comienzo de nuestro siglo situ6 al calculo de probabilidades exigencias elevadas, De aqul se desprenili6 la necesidad de construir el Calculo de probabilidades, y con esto la Estadlstica matematica, como una disciplina matematica rigurosamente fundamentada, La soluci6n de este problema, uno de los 23 grandes problemas de la matematica nombrados por el famoso maternatico aleman D. Hilbert (1862-1943) en el Segundo Congreso lnternacional de Matematicos en Paris (1900), fue lograda por el importante matematico sovietico A.N. Kolmogorov (nacido en 1903), quien public6 en 1933 una construcci6n axiomatica de Calculo de probabilidades, que se ha convertido en la base de todos los libros de texto modernos existentes, sobre la Teorla de probabilidades,

26

Es interesante que D. Hilbert en su conferencia en el ano 1900 en Paris considerara al Calculo de probabilidades como un capitulo de la ftsica, en et cual los rnetodos maternaticos desempeilan un papel sobresaliente. Solo por medio de la fundamentaci6n axiornatica del Calculo de probabilidades y la explicacion de los conceptos fundamentales ligados a este por A. N. Kolmogorov se integra el calculo de probabilidades al edificio de Ia maternatica de forma arm6nica y como una valiosa disciplina especial.

2.1 Frecuencia relativa

Designemos par A un suceso aleatorio que esta en relaci6n con un experimento aleaterio cualquiera (por ejernplo, A puede ser obtener un 6 cuando se tira un dado una sola vez). Repitamos este experirnento n-veces. independientemente una vez de otra, y contemos cuantas veces oeurre el suceso A en estos experimentos. Si A ocurre en total m veces, en-

tonces m se llama frecuencia absoluta de A y _!!!_, frecuencia relativa de A en estos n exn

perimentos.

Ell geilt] ar; quer emos designdl la fL ecuencia absoluta de A ell II expetiJlltntos COil

F, (A) y la frecuencia relativa de A en n experimentos, con I, (A). Los valores para la frecuencia absoluta F, (A) de un suceso A en n experimentos, pueden ser los n + I numeros

0,1,2, ... , n'-I, n y para Ia frecuencia relativa I,(A), los numeros 0, 2., 2.,

n n

~, 1. La frecuencia absoluta 0 relativa en una serie de experirnentos concreta no

n

se puede predecir con seguridad; las frecuencias absoluta y relativa son medidas dependientes de la casu ali dad, lIamadas variables aleatorias (nosotros las clasificaremos mas tarde como variables aleatorias discretas y det.erminaremos la distribuci6n de probabilidad que les pertenece).

Seguidarnente escribiremos algunas propiedades de Ia frecuencia relativa, cuya demostraci6n dejamos al lector.

Co r o l a r io I

1. 0.; I.(A)'; 1.

2. I, (U) =1.

3. 1.(AuB) =1,(Al+J.,(B) para Ar.O=I/>.

4. I, (1/»=0.

5, I,(A) =I-I,(A).

6, 1,(AuB) =I,(A) +I.(B) -1,(AnB). 7. De A ~ B resulta J.,(A) .; I. (B).

Observemos en relacion can las propiedades 2 y 4, que de I.(A) = I ol,(A) =0 no se puede deducir que A sea un suceso seguro 0 imposible.

Podemos concebir la correspondencia A ..... I,(A) (n es un nurnero natural fijo) como una funci6n que a cada suceso aleatorio A, que esta en relaci6n con el experimento aleatorio observado, Ie hace corresponder un mlmero situ ado entre cero y uno, mostrandose .las propiedades principales de esta funci6n en el corolario 1. E1 dominic de definicion de esta

27

funci6n es, por tanto, un eonjunto de sucesos aleatorios; queremos suponer siempre que se trata de un algebra de sucesos.

En relacion con el corolario 1 se debe hacer hincapie en una cuesrion importante para la forma de proceder en la caracterizacion axiomatica del concepto probabilidad: toda funci6n real! definida sobre un algebra de sucesos que pose. las propiedades 1. 2 y 3. pose. tambien las propiedades 4. 5, 6 y 7. Aqui queremos demostrar esto solo en un ejemplo; mostremos que de- las propiedades 2 y 3 resulta la propiedad 5: se cumple AI">A~¢ y por I. propiedad 3, j(AuA)=j(A)+j(A). A cada causa de que A uA =11 se cumple, por 10 propiedad 2. la relaci6nj(A uA) ~ 1. Luego, se cumple 1 =j(A) +JlA) , es decir, so cumple j(A) = I-JlA).

Analizaremos ahora hasta d6nde la freeueneia relativa de un sueeso (en una serie de n repeticiones de un mismo experimento, realizadas independientemente una de otra) , es una medida apropiada para el grade de indeterminacion de la ocurrencia de este suceso.

Para determinar un valor concreto de la frecuencia relativa se tiene que realizar -primero una serie de experimentos semejante; por 10 demas se obtendra generalmente un valor distinto al repetir la serie de experimentos consider ada. Pero si se lIevan a cabo largas series de repeticiones independientes de un mismo experimento y se indaga eada vez la freeueneia relativa del sueeso aleatorio considerado, se comprueba que estos numeros se diferencian poco unos de otros, es deeir, que la freeuencia relativa muestra una cierta estabilidad. Luego, las frecuencias relativas del suceso A varian ligeramente, por 10 general alrededor de un cierto valor que freeuentemente desconocemos. Queremos llamar a este valor la probabilidad del sueeso A. Esta claro que no podemos ealeular la probabilidad de un sueeso por esta via, sino solo obtener un valor estimado para esa probabilidad. Sin embargo, con esto .hemos logrado el convencimiento de que el grado de indeterminaci6n de la ocurreneia de un suceso aleatorio se puede caracterizar de forma objetiva mediante un nurnero.

Ejemplo. Tomamos este ejemplo de la literatura. Cientificos significativos como, pot ejemplo, el Conde de Buffon (l707-1788), ereador de un metodo te6rico-probabilistico para 1a determinacion aproximada delnumero 11, y K. Pearson (l857-1936). fundador de una famosa escuela en la rama de la Estadistica matematica en Inglaterra, estudiaron el efecto de la estabilizaci6n de la frecuencia relativa, en el ejemplo de la tirada de la moneda, entre otros. Sea A el suceso "mimero arriba".

Numero de tiradas Frecuencia absoluta Frecuencia relativa
de la moneda: " d. A:F. (A) F.(A)
d. AJ.(A) =--
n
DE BUFl'ON 4040 2048 (2020) 0,5080
K. PEARSON 12000 6019 (6 000) 0,5016
K. PEARSON 24000 12 012 (12 000) 0,5005 Esperamos que aproximadamente en la mitad de todas la tiradas de Ia rnoneda ocurra el suceso A. En 1a tercera columna de la tabla anterior hemos indicado los valores esperados entre parentesis. La tabla muestra claramente que 10 que esperabamos se satisface tanto mejor euanto mayor es el numero de tiradas realizadas.

Por ultimo, queremos analizar la interrogante de si para toda serie de experimentos concreta, la sueesi6n if. (A» de las frecuencias relativasf. (A) de un suceso A converge hacia un limite comun f (A) cuando n ~ -. {Si este fuera el caso se podrla delinir sencillamente

28

P(A)

g(A) k

numero de los resultados favorables para A numero total de los resultados

(I)

la probabilidad de un suceso aleatorio como el limite de la sucesion de las frecuencias relativas.) Pero esto no es as!. Por un lado, solo es posible crear una sucesi6nfinila de frecuencias relativas, de modo que no se puede decidir nunca si existe la convergencia de la sucesi6n investigada, convergencia entendida en el sentido de la de las sucesiones numericas. Por otro lado, aun si no se presta atenci6n a esta circunstancia,' se puede pensar tambien que no tiene que existir una convergencia de la sucesi6n «,(A». Si se cumpliera que !~':' f,(A) =f(A) , entonces existiria para todo &>0 un nurnero natural no' tal que

V'<A) -./tA)j<E para todo n;' no' Pero recurriendo al ejemplo anterior es facil imaginar

que el sueeso "numero arriba" no ocurre m una so a vez en serres e expenmentos muy largas, de modo que la inecuaci6n V, (A) -f(A) 1<& para un mimero sufieientemente pequeno s > 0 no se cumple para todo n a partir de un eierto Indice no' (A decir verdad un caso semejante nos pareee muy "Improbable'")

Una formulaci6n matematica precisa del efecto de estabilizaci6n de la frecuencia relativa se realiza mas tarde por otro camino con el tratamiento de la Ley de los Grandes Nilmeros.

2.2 Definici6n clasica de probabilidad

Mucho antes de la fundamentaci6n axiomatica del Calculo de probabilidades, se calcularon probabilidades de sucesos aleatorios. La definici6n de probabilidad en la cual se basaban dichos calculos se conoce hoy como definici6n clasica de probabilidad que estudiaremos en este eplgrafe.

Sea el punto de partida un experimento aleatorio con un numero finito de resultados igualmente posibles, es decir, que no se diferencian con respecto al grado de indeterminaci6n de la ocurrencia. Todo suceso aleatorio A en relaci6n con el experimento aleatorio consider ado. se puede caracterizar por la enumeraci6n de aquellos resultados que son fa-

vora es para es e suceso, es ecir, que provocan su ocurrencia, 1 esignamos con su numero y con k( < =) el de todos los resultados, entonees la raz6n de g(A) y k proporciona una idea sobre el grado de seguridad de la aparici6n del sueeso aleatorio A. En el marco de la lIamada definicion clasica de probabilidad, a este cociente se Ie llama probabilidad del suceso aleatorio A y se designa con P(A):

Observaci6n. Con frecuencia, en la literatura se encuentran formulaciones que solo se difereneian de esta en que en lugar de La palabra resultados se utilizan las palabras posibilidades 0 casos. La -formula (1) se debe al matematico frances P.S. Laplace (1749- 1827); el principio sobre eL cuaL se basa la f6rmula (1) se nombra con frecuencia Principia de los casos igualmente posibles de Laplace.

Ejemplo. En un recipiente se encuentran 150 piezas troqueladas, de las cuales 21 no tienen una medida adecuada. EL experimento aleatorio consiste en la extracci6n de una pieza, teniendo cada una de elias la misma oportunidad de ser tomada. CalcuLemos la probabilidad de que la pieza extralda aleatoriamente de esta forma. tenga Las medidas correctas (suceso A).

29

Numero de resultados posibles: ISO

Numero de los resultados favorables para A: 150-21=129 Con esto se. obtiene

I'(A) = g(A) = 129 =~=0,86=86 %.

k 150 SO

La aplicaci6n de la definicion clasica de probabilidad esta permitida solo en el marco de determinados experimentos aleatorios. Queremos reflexionar sobre como se reflejan las condiciones de los experimentos aleatorios en propiedades (adicionales) de las algebras de sucesos. Designemos con A al alsebra de sucesos correspondiente a un experimento aleatorio con un numero finito de resultados A" A" ... , A, igualmente posibles,que deben concebirse como sucesos elementales de dicha alsebra de sucesos. Todo suceso aleatorio arbitrario A eA, A .. rP. se puede expresar como la suma de aquellos sucesos elementales A, que implican a A, es decir, para los cuales se cumple que A, ~.o4. Para hallar la probabilidad del.suceso A es necesario conocer solo, junto al numero total k de los sucesos element ales, el numero de los sucesos elementales A, que implican a A. Con esto esta claro que a cada suceso aleatorio A eA esta asociado de forma univoca mediante (1) un numero real, 0 sea, que por medio de (l) esta definida una funci6n real sobre A. En particular se cumple a causa de

g(A,) =g(.o4,) = ... =g(AJ =1 la relacion

1 1'(.04,) =1'(.04,) = ... =I'(.o4J = - , k

(2)

es decir, la condicion de que los resultados sean igualmente posibles se refleja en que los sucesos elementales A~i=I,2, ... ,k) tienen la misma probabilidad.

A continuaci6n enunciaremos algunas propiedades y reglas de calculo para el concepto clasico de probabilidad, y con esto para la funci6n A ..... 1'(.04) sobre A dada por (I), cuya demostraci6n dejaremos al lector (ver 2.1, corolario I).

Corolario 1

1. 0 .. 1'(.04) .. 1.

2. I'(n) =1.

J. I'(AuB)=P(.o4)+I'(B) para A (")B=iP. 4. l'(iP) =0.

S.I'(A)=I-P(A).

6. 1'(.04 uB) =1'(.04) +P(B) -I'(A (")B).

7. De A s B resulta I'(A) .. I'(B).

Como suplemento de las prcpiedades 2 y 4 aclaramos que de pt.4) ~ 1 0 ptA) ~O se deduce que A ~n

o A = ¢. Un suceso aleatoric A tiene, por consiguiente, la probabiHdad uno 0 cero si y solo si es un suceso sesuro 0 imposibl e.

Ademts, se debe lIamar 1a atellcion de que es sulicientc demostrar las proposicienes 1 hasta 3, ya que como fil. e.plicado en el ep(grafe 2.1, toda funei6n real definida sobre un '(gebrs de sucesos que posea las propiedades 1 h •• ta 3, posee t.mbi~.n las propiedades 4 hasta 7.

A la definici6n clasica de probabilidad, corresponde una signiflCaci6n especial, porque sobre esta base se pueden calcular probabilidades. E1 calculo de las probabilidadcs que nQS

30

interesan, 0 sea, el calculo del numero de los cases posibles y del de los convenientes en cada ocasi6n, se efectua, por 10 general, con los metodos de la combinatoria (ver MIL, Tomo 1,3.6). Esto no es siempre muy sencillo.

Ejemplos

1. Calculernos la probabilidad para ganar 1a loterta " en "5 de 35" (suceso G), es decir, para acertar tres numeros (suceso A), cuatro (suceso B) 0 cinco (suceso C). Se cumple

k=(35 )=35 ·34 ·33 ·32 ·31

5 1·2·3·4·5

g(A) =( 5 ) (30 )=~. 30·29 =4 350,

3 2 1·2 1·2

324 632,

g(B)=(: ) C~)= + _3~ =150,

Can esto obtenemos

PtA) = g(A) = ~~0.0134 (probabilidad de obtener tres) ,

k 324 632

P(B) = g(B) = ~.~0.OOO5 (probabilidad de obtener cuatro),

k 324 632

P(C) = g(C) = __ I __ ~O,OOO 003 (probabilidad de obtener cinco).

k 324 632

Ahora, se cumple que G=A uBuC siendo los sucesos A.B y C mutuamente excluyentes dos ados. Por tanto. se cumple que P(G) =P(A) +P(B) +P(C) (ver corolario I. proposicion

3) y obtenemos finalmente P(G) ~O,OI4 (probabilidad de una ganancial.

2. Se eligen de forma aleatoria n personas (aleatoria en el sentido de que cada persona tiene la misma oportunidad de ser elegida) de un conjunto grande de estas (por ejemplo, del conjunto de los habitantes actuales de la ciudad de Dresde) y se anotan las fechas de sus cumpleafios. Nos interesaremos por la probabilidad de que por 10 menos dos de estas personas cumplan anos el mismo dla (suceso A). En la soluci6n de este problema suponemos adicionalmente que las personas que han nacido el 29 de febrero de un ailo bisiesto no han sido elegidas de modo que tenemos que calcular en total solo can 365 dlas. Ademas, suponemos que la probabilidad de que una persona elegida de forma aleatoria cum-

pia ailos un dia determinado, es igual para los 365 dlas, luego es igual a _I_.

365 Indagamos primero el numero k de los posibles resultados del experimento, consistiendo

un posible resultado en elegir n dlas (no necesariamente distintos) de los 365. EI numero

de estas posibilidades es igual (considerando la sucesi6n) a k 365· 365 ... 365 365" n factores

(por 10 demas se cumple que para n>4, k~365" es mayor que un bill6n) .

• Jueso de loterla televisivo en la Republica Democrlitica Aleman a.

31

n

10

20

22

23

24

30

40

so

Para el calculo de la probabilidad buscada tenemos que averiguar ahora el numero g(A) de los resultados favorables para A. Es mucho mas conveniente calcular primer a el numero g(A) de ·Ios desenlaces favor abies para A. EI suceso A consiste en que entre las n personas elegidas no haya dos 0 mas que curnplan anos el mismo dia, es decir, en que cada una de las n personas cumpla afios un dia distinto al de todos los demas, EI numero de los resultados favorables para A es igual (considerando de nuevo la sucesion) a

- 365

g(A) =

n!.

De aqui obtenemos que

de donde resulta, segun una formula anterior (ver corolario I, proposicion 5), la probabi.1idad buscada

P(A) =1-P(A) =1

365"

En la tabla siguiente dames, para distintas II, la probabilidad de que entre n personas, par 10 menos dos cumplan afios el mismo dia.

P(A)

0,12

0,41

0,48

0,51

0,54

0,71

0,89

0,97

(para 11>365 se obtiene naturalmente que P(A) = 1.)

2.3 Definici6n geometrica de probabilidad

La formula (I) indicada en el eplgrafe 2.2 para el calculo de probabilidades de sucesos aleatorios es solo aplicable cuando el experimento aleatoric considerado posee un numero finito de resultados igualmente posibles. Ahora, existe una serie de experimentos aleatorios que no satisfacen estas condiciones, pero para los cuales se puede indicar, de forma semejante, una formula para el calculo de las probabilidades que nos interesan. Siempre y cuando pueda interpretarse el experimento aleatorio como el modelo de la tirada aleatoria de un punto sobre un dominic basico E cualquiera del espacio euclidiano n-dimensional, donde la palabra aleatoria debe entenderse de modo que:

1. EI punto lanzado pueda caer sabre todo punto arbitrario de E y

32

2. los sucesos A y B, a los cuales corresponden dominios parciales de igual medida (por ejemplo, intervalos de igual longitud, conjuntos de puntos en el plano de igual area, cuerpos en el espacio tridimensional de igual ~olumen). posean tarnbien la misma probabilidad, se calcula la probabilidad de un suceso A. Que este en relacion con un experimento semejante, segun la f6rmula

P(A) = meA) = Medida del dominio parcial de E correspondiente al suceso A (I)

m(E) Medida del dominio basico E

(definicion geometrica de probabilidad (fig. 11).

A E

Figura 11

Por tanto, la probabilidad de un suceso es independiente de la configuracion especial y de la situaci6n del dominio parcial Que representa al suceso A: ella es proporcional a la medida (0 sea, proporcional a la longitud, al area, al volumen) de este dominio parcial. Formulado de otra manera, la probabilidad de un suceso es, por consiguiente, igual a la raz6n de las medidas del dominio parcial conveniente para el suceso y del dominio basico, En esta formulaci6n de la definicion geornetrica de probabilidad se muestra claramente la analogia con la definicion clasica de probabilidad. EI principio de los casos igualmente posibles de Laplace, sobre el cual se basa la definicion clasica de probabilidad, se manifiesta en esta definiei6n geometrica al establecer Que los sucesos a los cuales corresponden dominios pareiales de igual medida poseen la misma probabilidad.

Ejemplo. Dos personas aeuerdan encontrarse en un lugar determinado entre las 12 pm y la 1 am. Cada una de las personas elige el momento de llegada, independientemente una de otra. Sin embargo, ambas se comprometen a estar con seguridad entre las 12 pm y la I am en el lugar acordado; no se hacen indicaciones mas precisas con respecto al momento del arribo, Ahora, ellas concertan Que en caso necesario, cad a una espere a la otra 15 min, pero que despues se vaya. Caleulemos la probabilidad de que ambas personas se eneuentren. Para el calculo de la probabilidad buscada tomemos por base la definici6n geometrica de probabilidad.

Designemos los tiempos de llegada de las dos personas con x y y, respectivamente (por eiemplo, ambos medidos en minutos y fracciones de minutos despues de las 12 pm) y representemoslos como puntos en el plano (fig. 12).

El sueeso A, consistente en que ambas personas se encuentren, es descrito por medio del conjunto I(x.y): 0.:; x':; 60,0':; y':; 60, Ix-yl" IS}. De la figura 12inferimos directamente que

meA) =60·60-2· 45 . 45, m(E) =60 .60 2

33

x

Figura 12

y. obtenemos con esto para la probabilidad buscada

P(A) = :~~ =1-( ~ r =16'

y

La probabilidad del encuentro con 15 min de espera es. por tanto, algo menor que 0,5.

Dejamos al lector que verifique que, por ejemplo, la probabilidad del encuentro con 30 min de espera es igual a 0,75. Ademas, ellector puede deducir facilmente una relaci6n general entre la probabilidad del encuentro y el tiempo de espera.

Observese que a los sucesos aleatorios a los cuales corresponde un dominio parcial, que posee una dimensi6n mas pequei\a que el dominic basico E (por ejemplo, un punto sobre una recta numerica, una recta en el plano, un plano en el espacio) , les corresponde la probabilidad cero.

La definicion geometrica de probabilidad dio motivo en epocas anteriores a todo tipo de falsos entendirnientos, equivocos y criticas; esta condujo incluso en cierta medida, a un rechazo del calculo de probabilidades como discipline cientffica. Para fundamentar esto se hizo referencia a problemas cuya soluci6n es dependiente del metodo utilizado, es decir, que conducen a distintos resultados con metodos de soluci6n diferentes. La causa de esto no radica en cualesquiera contradicciones del concepto geometrice de probabilidad, sino en la insuficiente precision en el planteamiento del problema. Traemos un ejemplo que es conocido en la literatura como la paradoja de Bertrand; este proviene. como otros muchos ejemplos semejantes, del matematico frances J. Bertrand (1822-1900).

Problema. En una circunferencia se traza de forma aleatoria (arbitraria) una cuerda. iCual es la probabilidad de que su longitud supere la del lade de un triangulo equilatero inscrito en la circunferencia (suceso A)?

So lu c ie n 1. Fijemos una direccion de la cuerda y observemos un diametro perpendicular a dicha

r 3r

direccion (fig. 13). EI suceso A ocurre si y solo si la cuerda corta al diametro entre - y -.

2 2

Luego 50 cumple

ptA) = mtA) = .:.=..:...

m(E) 2, 2

Solue ion 2. Fijemos un punto final de la cuerda sobre la circunferencia, tracemos la tangente a 18 eircunferencia en este punto y dibujemos un triangulo equil-.!tero inscrito en ella con un vertice en dicho punto (fig. 14). EI suceso A ocurre si y solo si la cuerda cae en el sector angular del Angulo del-

media. Luego se cumple .

n

m(A) 3 1

PIA)=--=-=-.

m(E) 1t 3

34

d = 2 r

Figura 13

Figura 14

Sol u c i o n 3. La longitud de la cuerda se obtiene de forma univoca de la situacion del punto media de csra. Si p es la distancia del centro de Ia circunferencia al punto media de la cuerda y 1 designa 13

longitud de la cue rda. entonces se cumple que 1=20 (fig. 1S), EI suceso A ocurre si y selo si I~ V3r (\I3,=longilud del lado de un triangulo equilatero inscrito en la circunferencia). 0 sea, si se

r

cumple p~ -. Luego sc curnple 2

meA) ( -;- )'n

P(A)=--=---m(£)

4

Figura IS

En cl plantearmento del problema no esta fijado que se entiende por el trazado aleatono de una cuerda. En las soluciones dadas esto fue concebido cada vez de manera diferente, En la soluci6n 1 se parti6 del modelo de la tirada aleatoria de un punto sobre un intervalo de laIongitud 2r; en la 2, del Ianzaruiento aleatorio de un punta sabre un intervale de la longitud 1[ , Y en la 3. de la tirada aleatoria de un punto sabre la superficie de un circulo con radio r, entendiendose cada vez la palabra aleatoria tal como se indica en la definicion geometrica de probabilidad. Las tres soluciones dadas no son, por tanto. soluciones del problema anterior, sino de olros 3 problemas distintos entre sf; el problema mismo no cs, sin precision de 10 Que se entiende por trazado aleatoric de una cuerda, soluble en la forma dada.

2.4 Definici6n axiomatica de probabilidad

De las reflexiones sobre el efecto de estabilizaci6n de la frecuencia relativa extrajimos en el epigrafe 2.1 la conclusion de que el grado de indeterminaci6n de la ocurrencia de un suceso A. se puede earacterizar de forma objetiva mediante un numero, lIamado la probabilidad del suceso A y designado con P(A). En los eplgrafes 2.2 y 2.3 hemos dado -para el easo en que el experimento aleatorio satisface ciertas propiedades adicionales

3S

(que restringen bastante su aplieaei6n) - f6rmulas para el calculo de probabilidades. Una f6rmula aplieable en todos los casos para el calculo de probabilidades no existe y no puede tarnpoco existir, Por eso, para la construccion sucesiva del calculo de probabilidades, queremos tomar por base algunas suposiciones (axiomas) que se traducen en propiedades y reglas de calculo, relativas al concepto de probabilidad y que reconoceremos como valid as sin demostraci6n. Aqui partirernos naturalmente de las experieneias aeumuladas hasta ahora por nosotros, 0 sea. eonstruiremos el sistema de axicmas del calculo de probabilidades de las propiedades comunes de la frecuencia relativa y de los coneeptos clasico y geometrico de probabilidad.

Para la formulaei6n del sistema de axiomas partiremos de un algebra de sucesos A.

Decimos que sobre A esta definida una probabilidad P (0 una medida de probabilidads , si P es una funci6n con las propiedades seil.aladas en los siguientes axiomas.

Axioma 1. A todo suceso aleatorio A eA Ie corresponde de forma univoca un numero P (A). la !lamada probabilidad de A. y se cumple que

0",; P(A)"'; I.

Con el axioma I se establece, por tanto. el dominio de definicion y la imagen de la funci6n P; P es una funci6n real definida sobre un algebra de sueesos eon valores entre eero y uno. EI axioma 1 lleva implicito tambien que todo suceso aleatorio posee una probabilidad bien determinada.

Axioma 2. La sprobabilidad del suceso seguro es igual a uno:

P(H) = 1 (axioma de normaci6n).

EI suceso seguro es siempre, segun definicion, un elemento del algebra de sucesos A. es decir, un elemento del dominio de definici6n de la funci6n. EI axioma 2 dice que el valor de la funci6n P para el argumento U es igual a uno.

A x i oma 3. Dados dos sucesos aleatorios mutuamente excluyentes del algebra de sueesos considerada, la probabilidad de que oeurra uno de e110s es igual a la suma de las probabilidades de estos sucesos:

A EA, A nB= 1/I=>p(A vB) =P(A) +I'(B) (axioma de adiei6n).

Observernos al respecto que un algebra de sucesos al cual pertenezcan los sucesos aleatorios A y B contiene tambien, segun definiei6n. a A vB. 0 sea. que junto eon A y B tambien A vB pertenece al dominio de definici6n de la funei6n P.

Utilizando solamente el axioma 3 se puede demostrar con el principio de indueei6n completa la proposici6n siguiente:

Corolario I. Dados n (n;;' 2) sucesos aleatorios mutuamente excluyentes dos ados del algebra de sucesos consider ada. la probabilidad de que ocurra uno de ellos es igual a la suma de las probabilidades de estos sucesos:

A,EA(j=1.2 •...• n), }=>P ( (; A ) = !P(A).

A,nA,=I/I(i#k; i.k=I.2 •...• n) 10' 1 10' }

Una regia de calculo correspondiente, para la probabilidad de la suma de un eonjunto infinito numerable de sueesos aleatorios incompatibles dos a dos, no se puede demostrar con el axioma 3; no obstante, subordinamos tambien al concepto general de probabilidad la validez de una regia de calculo semejante de forma conveniente.

36

Ax i o ma 4. Dado un conjunto infinito numerable de sucesos aleatorios rnutuamente excluyentes dos a dos del algebra de sucesos eonsiderada. la probabilidad de que ocurra uno de ellos es igual a la suma de las probabilidades de estos sucesos:

A,EA U=1.2, ... ),

A,nA,=¢ (i .. k:i.k=1.2, ... ),

Advertimos que un algebra de sucesos a la cual pertenezcan los sucesos A,u=1,2, ... )

contiene rarnbien, segun definicion, a U AJ• 0 sea, al igual que Ap=I,2 •... ), tambien

- JO= I

U AJ pertenece al dominio de definici6n de la funci6n P. EI concepto algebra de sucesos

,::d

esta fiiado de tal modo, que todos los sucesos que aparecen en los axiomas y en las proposiciones del epigrafe 2.5, que se deducen de estes, pertenecen al algebra de sucesos, es decir, al dominio de definici6n de la funci6n P.

La propiedad expresada en el axioma 4 se designs como o-aditividad de la medida de probabilidad

P. Esta conduce a una propiedad de continuidad en el sentido siguiente.

Te o r e m a I. Sea (A}una sueesi6n de sucesos aleatorios AJEA(j=1.2 ... J.

a) Si se cumple AI ~AJ ~

entonces P ( S; AJ )=J~~ P(A).

b) Si se curnple que A, ~ A, ~ .... entonces P ( n AJ )=lim P(A).

i",1 s=»

No demostraremos este teorema, perc 10 cornentaremos un poco. Si (A) es una sucesi6n de subconjuntos (de un conjunto universe 11), entonces las sucesiones con Al ~Al ~ •.. y AI ~ Al ~ , .. son convergentes en el sentido del limite algebraico conjuntista, y se cumple que

respectivamente, Luego, las proposiciones contenidas en el teorema significan la validez de P (lim A) = lim P (AJ). Esto es equivalente a la continuidad de P.

J-- j-'"

Los axiomas 1 hasta 3 proporcionan que se pueden demostrar en el caso en que se aplique la definici6n clasica de probabilidad (ver 2.2, cololario I. proposiciones 1 hasta 3). Asimismo son validas proposiciones semejantes para la funci6n f., que hace corresponder a cada suceso aleatorio A EA la frecuencia relativa de la ocurrencia de A en n repeticiones realizadas independientes unas de otras del experimento aleatorio observado (ver 2.1, corolario 1, proposiciones 1 hasta 3). No formularemos como axiomas para el concepto general de probabilidad las otras propiedades comunes establecidas para la frecuencia relativa y el concepto clasico de probabilidad, porque elias se pueden deducir de los axiomas 1 hasta 3 (ver 2.5). Tampoco exigiremos que A sea un suceso seguro cuando se cumpla que P(A) = 1, ya que esta proposici6n no es verdadera en el marco de la definici6n geometrica de probabilidad (ver 2.3). En este contexte introduciremos dos conceptos,

Definici6n I. Si se cumple que P(A) =1 (P(A) =0), entonces se llama al suceso aleatorio A( EA) un suceso casi seguro (suceso casi imposible.)

A continuaci6n damos las definiciones de dos conceptos frecuentemente utilizados en la teoria de probabilidades,

37

Definici6n 2. Si A es un algebra de sucesos y Puna probabilidad sobre A. entonces se llama al par [A, p] una familia de probabilidades.

A causa de la estrecha relaci6n entre las algebras de sucesos y los espacios medibles, verificada en el epigrafe 1. 5, se puede partir tambien en la introducci6n axiomatica del concepto probabilidad de un espacio medida [n,A]. Entonces se denomina a una funci6n P definida sobre la o-algebra A de subconjuntos del conjunto universo U~ una medida de probabilidad, si esta posee las propiedades expresadas en los axiomas I hasta 4.

Definicion 3. Si [n,A] es un espacio medible y Puna medida de probabilidad sobre A, entonces a La terna [n,A,p] se Ie 1Iama espacio de probabilidad.

En investigaciones teorico-probabilisticas actuales se parte generalmente de un espacio de probabilidad.

2.5 Leyes de calculo para probabilidades

Formularemos y demostraremos en este epigrafe proposiciones para el calculo con probabilidades, que resultan directamente de los axiomas del Calculo de probabilidad y que corresponden a las propiedades 4 hasta la 'l del colorario 1 de los epigrafes 2.1 y 2.2. Aqui hacemos la abstracci6n de que existe una familia de probabilidades [A,P], es decir, que existe un algebra de sucesos A sobre la cual esta definida una funci6n P que satisface los axiomas 1 hasta 4. (Naturalmente podemos partir tambien de un espacio de probabilidad [n,A,p]. 0 sea, de un conjunto universo n, una o-algebra de subconjuntos de n y de una funci6n P definida sobre A, que posee las propiedades expresadas en los axiomas 1 hasta 4.)

Teorema 1. La probabilidad del suceso imposible es igual a cero.

P(~)=O.

(1)

De most r ac ion. Se cumple que ~en (ver 1.4, corolario I, proposici6n 1),0 sea, que el suceso imposible pertenece al dominio de definici6n de P. A causa de que ~n ~= t/I, se cumple, segun el axioma 3, que

P(~u~) =P(~) +P(~) =2P(~).

Como ~v~=t/I, se cumple que P(~u~) =P(~) y con esto que P(~) =2P(~), de donde se obtiene (1).

Teorema 2. Para todo suceso aleatorio A eA se cumple que

I'(A) = I -I'(A).

Demostraci6n. Si AeA, entonces se cumple tambien que A"A (ver 1.4, definicion I), es decir, al igual que A. pertenece tambien A al dominio de definici6n de P. Ahora, se cumplen las proposiciones Af"\A=1i y AuA=n (ver 1.3 (9». De los axiomas 3 y 2 resulta que P(A uA) =I'(A) +I'(A) y que PIA vA) = 1, de donde se obtiene que 1 =I'(A) +I'(A) y con esto (2).

38

(2)

Teorema ,. Para succsos alcatorios cualesquiera AoA y R~A se cumple que

P(AuH) =p(A) +1'(H)·p(Ar,H).

Demostraci6n. Se curnplen las siguicntes ecuaciones:

AuB=Au(RnA) A uB=B\}(A (8)

A uH=(A nii) u(H, ,A) utA nH)

(vcr 1.3 (14», (ver 1.3 (15», (ver 1.3 (16»;

donde los sumandos situ ados a la derecha son en todos los casos mutuamente excluyentes dos a dos (fig. 8). De la aplicacion del axioma 3 y del corolario dado a continuaci6n de cstc se obtiene que

P(AuB) =P(A) +p(BnA), PIA vB) =p(B) +P(A nii),

PIA uB) =p(A nii) +P(BnA) +P(A ,,8).

Si formamos la diferencia entre la suma de las dos primeras ecuaciones y la tercera ecuacion, se obtiene (3).

Teorema 4. Si la ocurrencia del suceso aleatorio A EA implica la ocurrencia del suceso aleatorio B EA (0 sea, si se cumple que A r;; B), entonces se cumple que P(A) ~ P(B).

Demostraci6n. Se cumple (fig. (6) que B=Au(BnA) con An(BnA) =I/J.

Del axioma 3 se obtiene que P(B) =p(A) +p(BnA). Segun el axioma 1 se cumple que p(BnA);;' 0, con 10 cual resulta que P(B);;' P(A) .

•... 8" Ii

Figura 16

Teorema 5. Si el coniunto (A"A" ... , A, .... ) es un sistema complete de sucesos aleatorios, entonces se cumple que

~ P(A,) =1.

Demostraci6n, Segun la premisa se cumple (ver 1.3, definicion 6) que

La aplicacion del corolario dado a continuacion del axioma 3 0 la aplicacion del axiorna 4, proporciona, bajo la consideraci6n del axioma 2, Ia proposici6n de este teorema.

(3)

39

3. Probabilidad condicionada

Introduciremos en este capitulo el concepto probabilidad condicionada (epigrafe 3.1) y obtendremos de esto una formula para el calculo de la probabilidad del producto de sucesos aleatorios (teorema de fa multiplicacion, eplgrafe 3.2). Sobre esta base trataremos en el eplgrafe 3,3 el concepto independencia de sucesos aleatorios, extraordinariamente importante para todo el Calculo de probabilidades. Por ultimo, estudiaremos dos formulas utiles para numerosas interrogantes practicas, la formula de fa probabilidad total (epigrafe 3.4) y laformufa de Bayes (epigrafe 3.5). En cada ocasion consideraremos un ejemplo en el cual este presente una situacion tlpica para la aplicacion de estas formulas,

3, 1 Definici6n de probabilidad condicionada

Partiremos de un experimento aleatorio que nos imaginamos descrito matematicamente por una familia de probabilidades [A, pl, es decir, por un algebra de sucesos A y una probabilidad P definida sobre ella. EI numero P(A) indica, por tanto, la probabilidad de la ocurrencia del suceso A EA en el marco de las condiciones que caracterizan al experimento aleatorio observado. Aiiadamos aun mentalmente a estas condiciones la de que el suceso aleatorio B EA ocurre y entonces el grado de indeterminaci6n de la ocurrencia del suceso A se describira, por Lo general, mediante un numero distinto de P(A).

Designaremos posteriormente este numero con P(AiB) y 10 lIamaremos probabilidad (condicionada) de A bajo La condici6n B. La definicion matematica de probabilidad (condicionada) de A bajo la condici6n B queremos hacerla de modo que se corresponda con las ideas relativas al contenido de este concepto, explicadas anteriormente. Para ello realizaremos algunas reflexiones previas con respecto a la frecuencia relativa y al concepto clasico de probabilidad.

Si en n repeticiones realizadas independientemente unas de otras del experimento aleatorio observado se presenta m veces el suceso B y I veces el suceso A r-B, entonces se cum-

40

pie para la freeueneia relativa f.(A I B) de la ocurreneia de A en los m experimentos en los cuales B ocurre, la relaei6n

I

f. (AlB) =.!._=_n_,J. (AnB) .

m ~ f.(B)

n

(1)

p(AIB) = g(A nB) g(B)

g(AnB) k

g(B) k

p(AnB) P(B)

(2)

denotando g(c), como antes, el numero de los resultados que provocan la presencia del sueeso C.

Las relaeiones (I) y (2) son la base para la siguiente definici6n general de probabilidad eondieionada.

Definiei6n I. Sea A un algebra de sueesos, Puna probabilidad sobre A y BEA un sueeso aleatoric de probabilidad positiva (P(B) > 0). Entonees se llama a

P(AIB) =p(AnB) P(B)

(3)

Figura 17

Eje mp lo , Un sistema se compone de tres maquinas I, II y III dispuestas en serie; el sistema Calla si y solo si 10 haee una de las maquinas, suponiendo que dos maquinas eualesquiera no pueden Callar al mismo tiempo. La probabilidad de que, en easo de desperfecto del sistema, la causa radique en la maquina I sea igual a p(O ~ p~ I); para la mllquina II, igual a q(q;' 0, s+s« I) y para la maquina III. igual a I-(p+q) (fig. 18).

41

p

q

) - (p + q) ~

jlHlIIIHW 1,!ISH!lmSlmlS~ I I

o ~ ~ -J.)

I-p

Figura 18

Supongamos ahora que el sistema de maquinas no funciona y que se ha buscado en vane un dcfecto en la maquina I. Calculcmos la probabilidad de que 1a causa del desperfecto radique en la maquina II. Para ella introduzcamos los sucesos siguientes:

A La causa del desperfecto radica en la maquina Il .

. B La causa del desperfecto no radica en 1a maquina I.

Luego hay que determinar P(A IB). Segun (3) se tiene que P(A 1:8) =P (A nB). Ahora, P(B)

se cumple que A!5;B y, por consiguiente, AnB=A. <;on esto

P(AIB) = P(A) .

P(B)

Con P(A) =e y P(B) =I-P(B) =I-p (fig. 18), obtencmos

p(AIB) = _q-.

I-p

Indicamos algunas inferencias directas de (3), que fundamentan mas ampliamente la conveniencia de la deflnici6n 1.

Corolario 1. Si a la ocurrencia del suceso aleatorio BeA, P(B) >0, esta siempre unida la ocur;encia del suceso aleatorio A eA (B!5; A), entonces se cumple p(A IB) = 1.

Corolario 2. Si AeA y BeA son sucesos aleatorios mutuamente excluyentes (AnB=~) y se cumple que P(B) >0, entonces se tiene que P(AIB) =0.

La probabilidad condicionada p(AIB) de A con respecto a B, puede ser menor, mayor y tambien igual a la probabilidad (incondicionada) P(A). (Nos ocuparemos mas detalladamente en el epigrafe 3.3 con el caso de 1a igualdad.l

Ejemplo. Tirada de un dado.

. ( 3 I)

B ... EI numero obtemdo es par P(B) = -; = 2 .

a) A ... EI numero obtenido no es mayor que 3:

( 3 I) I

P(A)=--=- P(AIB)=-<P(A).

6 2 3

b) A ... EI numero obtenido es igual a 2, 3 0 4:

( 3 I) 2

P(A)=-=- p(AIB) = ->P(A).

6 2 3

c) A ... EI numero obtenido es igual a 1 0 2:

( 2 1) I

P(A)=-=- P(A1B)=-=p(A).

6 3 3

42

Llamamos tambien la atenci6n de que la probabilidad condicionada p(A I B) de A con respecto a B se debe diferenciar exactarnente de la probabilidad condicionada P(BIA) de B con respecto a A y tambien de la probabilidad P(A r>B) de la ocurrencia simultanea de los sucesos A y B.

Ejemplo. Tirada de un dado.

A EI numero obtenido al tirar el dado no es mayor que 4.

B EI numero obtenido al tirar el dado es igual a 3. 5 0 6.

P(A) = ~=2... P(B) =2...=.2....

6 3 6 2

P(Ar>B) = 2-. P(AIB) =.2.... p(BIA) =.2.... 634

La correspondencia

A -P(AIBJ. AeA

es una funcion definida sobre el algebra de sucesos A para up suceso fljo B eA de probabilidad positiva P(B) >0. Designemos esta funci6n con p.; se cumple por tanto que

p(A r>B) P.(A) =P(AIB) =--.

P(B)

EI siguiente teorerna, cuya demostracion recomendamos mucho al lector. contiene propiedades esenciales de IIi funcion p s-

Teorema 1. Sea [A.pl una familia de probabilidades y Be A un suceso aleatorio de probabilidad positiva. La funcion p. definida por (4) posee lodas las propiedades que se expresan en los axiomas I hasta 4 (epigrafe 2.4). es decir, [A.p.l es tambien una familia de probabilidades.

La probabilidad condicionada p. posee tambien, a causa de la validez del teorema 1. todas las propiedades que fueron demostradas para la probabilidad (incondicionada) P (ver 2. S. teoremas 1 hasta 5).

Por ultimo. advertimos que se puede interpretar la probabilidad (incondicionada) como probabilidad condicionada con respecto al suceso seguro; se cumple para todo suceso aleatorio A eA que

P(A r>U) P(A)

P(Aln) =---=-=p(A).

P(n) 1

3.2 Teorema de la multiplicaci6n para probabilidades

Trataremos en este capitulo el calculo de laprobabilidad del producto de dos sucesosaleatorios A y B. Para ella supongamos que A y B poseen probabilidades positivas, (En caso conlrario se cumple, en virtud de A r>B ~ A Y A r>B ~ B. la relacion P(A nB) =0 (ver 2.5. teorerna 4). de modo que entonces toda investigacion ulterior es innecesaria). La proba-

(4)

(5)

43

bilidad: peA nB) se present6 en el epigrafe 3. 1 en la definicion de la probabilidad condicionada. Despejando la ecuaci6n (3) de 3.1 obtenemos la proposici6n siguiente:

Teorema 1.(Teorema de la multiplicacion)

Sean A y B sueesos aleatorios con probabilidades positivas. Entonces se cumple que

p(AnB) =p(AIB)p(B) =p(BIA)p(A).

La probabilidad del producto de dos sucesos aleatorios con probabilidades positivas es, por tanto, ;gual a la probabilidad condicionada de un suceso respecto al otro por la pro-

P(AIB) P(BIA)

---=---,

P(A) P(B)

La aplicaci6n de la f6rmula (1) para el calculo de la probabilidad de la ocurrencia comun de dos sucesos presupone, en particular el conocimiento de una de las probabilidades condicionadas que aparecen en (1). En problemas concretos es posible obtener frecuentemente probabilidades condicionadas mediante reflexiones que se basan en la interpretaci6n del contenido del concepto probabilidad condicionada.

Ejemplo. En una cajita se encuentran 10 fusibles, entre los cuales hay 4 defectuosos, Se extraen sucesivamente dos fusibles, no reponiendose el fusible tornado al inicio antes de haber extra/do el segundo y teniendo cada fusible la misma posibilidad de ser tornado; calculemos la probabilidad de que los fusibles extraidos esten en buenas condiciones (suceso A). Para ello introduciremos los sucesos siguientes:

A, ... EI fusible tornado en la extraccion numero i esta en buenas condiciones (i=I,2).

Entonces se cumple que A=A,nA, y, por tanto, que P(A) =P(A,nA,). Uiilizaremos para el calculo de esta probabilidad la f6rmula (1) en la forma

P(A,nA,) =P(A,)p(A,IA,).

Se cumple, utilizando Ia definici6n clasica .de probabilidad, que

Con esto

P(A) = 2..., ~=_!_.

S 9 3

(Se puede obtener tambien este resultado directamente por medio de la definici6n cia sica de probabilidad:

P(A)=

A continuaci6n indicamos una f6rmula para el calculo de Ia probabilidad de un producto de n(;;> 2) sucesos aleatorios.

44

(I)

(2)

Teorema 2. Sean At. A, •... , A, sucesos aleatorios con p(A,nA,n ... nA'_I) >0.

Entonces se cumple que

P(A, nA,n ... nAJ =P(AJP(A,IA,) ... P(A,IAI nA,n ... nA'_I)'

(3)

Dejamos al lector la demostraci6n de esta proposici6n; esta se debe realizar sobre la base del teorema 1 con ayuda del principio de inducci6n completa.

3.3 Independencia de sucesos aleatorios

Sean A y B sucesos aleatorios con probabilidades positivas, En el tratamiento de la probabilidad condicionada hemos advertido que esta puede ser tambien igual a la probabilidad (incondicionada) (p(AIB) =p(A». La adici6n de la condici6n el suceso B ocurre a las condiciones que caracterizan al experimento aleatorio observado, no tiene en este caso influencia sobre Ia probabilidad del suceso A. 0 sea, el suceso A es en este sentido independiente del suceso B. Ahora, se infiere de P(AIB) =P(A) la relacion p(BIA) =p(B) (ver 3.1 (2». es decir, si A es independiente de B en el sentido anterior. entonces B es tambien, en el mismo sentido, independiente de A y se cumple que P(A nB) =p(A) . P(B). (ver 3.1. teorema 1). Utilizaremos esta relaeien para la definicion matematica de la independencia de dos sucesos aleatorios.

Definici6n I. Dos sucesos aleatorios A y B se l1aman independientes (uno de otro) (tambien: estocasticamente independientes), si se cumple .que

P(A nB) =P(A) . P(B) ,

(I)

o sea, si la probabilidad del producto de los sucesos es igual al producto de las probabiIidades de dichos sucesos.

Observaci6n. En esta definici6n no hemos prestado atenci6n a la limitaci6n, dada desde un inicio, de que A y B posean probabilidades positivas. Dos sucesos aleatorios, de los cuales uno por 10 menos posee la probabilidad cero, se pueden concebir como independientes uno de otro segun la definici6n I .. ya que siempre se satisface (1).

Los conceptos mutuamente excluyentes e i"iependienles se deben diferenciar rigurosamente, La exelusion mutua de dos sucesos A y B signifiea que A rJJ=tA y por tanto se cumple que p(A (")B) =0. Por el contrario, la independencia signillca que p(A riB) =P(A) P(B). Per consiguiente, des sucesos mutuamente excluyentes de probabilidad positiva no son independientes uno de otro.

Corolario 1. Si los sucesos A y B son independientes uno de otro, entonces tambien 10 son los sucesos AYe B, A Y ii, y tambien los sucesos A y ii.

Demostraci6n. Es suficiente demostrar que de la independencia de A y B resulta la de A y B; 10 restante se aclara con esto. Sean por tanto A y B independientes, es decir, sea p(AnB) =P(A) . P(B). De B=(AnB) u(AnB) y de (AnB) n(AnB) =I;i resulta, segun el axioma 3. la relaci6n P(B) =P(A nB) +P(A nB); con p(A nB) =P(A) . P(B) obtenemos de esto

p(AnB) =p(B)-p(A)P(B) =(I-P(A»p(B) =P(A) . P(B) , 0 sea. Ay B son independientes uno de otro.

45

EI ejemplo siguiente debe ilustrar no solo el concepto independencia de dos sucesos, sino tambien preparar la ampliaei6n de la definiei6n de independeneia al easo de mas de dos sucesos.

Ejemplo. Tir.mos dos dados una vez -imaginemos los dados numerados- y obser-

vernos los sucesos siguientes:

A EI nUl'lero obteDido con el dado 1 es impar.

B EI numero obtenido con el dado 2 es par.

e Los numeros obtenidos son ambos pares 0 impare s.

Supongamos que los 36 resultados posibles del lanzamiento de dos dados son igualmente probables. Entonces obtenemos (mediante 1a definicion clasica de probabilidad) que

P(A) =P{B) =P(C) = .!.!...=.!....

36 2

1'(A nB) =P(A I"lC) =p(B I"lC) = !_=.!....

36 4

Los sueesos A. Bye son. por tanto. independientes dos a dos. Sin embargo. se cumple por ejemplo que 1'(cjA nB) =0 "1'(C). es deeir, el sueeso e no es independiente del sueeso AnB. Por consipiente. no designaremos a los sueesos A. Bye como completamente independientes unos de otros.

Definici6n 2. Los sucesos aleatorios A,. A, ..... A, se lIaman completamenle indepen· dit"'tS (entre 11). Ii para todo nnmerc natural k" n y para numeros naturales cualesquiera i, ..... i •• con 1" i, < ... < i." n se cumple la relaci6n

P(A"I"l ... I"l A,.) =P(A,,) ... P(A,.).

(2)

Los sucesos aleatorios .04 •• .04, ..... A ..... de una sucesi6n infinita se Haman completamente independientes si para todo ndmero natural n los sucesos A •• A, ..... .04, son completamente independientes.

Corolario 2. Si los sucesos A •• A ...... A, son eomp1etamente independientes, entonees son tambi~n independientes dos ados.

Esta proposiei6n se obtiene direetamente de la definici6n 2. Como muestra el ejemplo anterior. el recfproco es falso, es decir, de la independencia mutua (dos ados) .10 resulta la independencia completa.

Par. rmalizar clle eptarafe, queremos indicar un teorema que proporciona ideas interesantes sebre las familias de probabilidades y sabre el concepte independencie.

Teorema 1. (Lema de Bor~1-Clntelli)

Sea [A,P] unl familil do probabilidado. y (A.,)" N una moesion d. sucesos aleatorios A,eA. Con A. denolamoa aI suceao aleatorio que Ilene lular 8i y solo Ii oeurre un nl1mero infinito de sucesos de la suoeoioft (.4.,)" N'

a) Si 50 cumpJe quo ! PIA') < - •• ntcnces PIA.) =0. 0 sea. a 10 sumo un numero finito d. suo

...

coso. do Ia au ee sioft (A,) •• N oeurre con probabilidad 1.

b) Si Ie cumple que ~ P(A,,) = 00 y los sucesos At.Al .... son mdependientes dos ados. entonces se

...

cumpJe que P(A.) =1.

46

Este teorema, Que no querernos demostrar, desempei'la una funci6n imporLante en 1& demostraci6n de las leyes fuertes de los grandes numeros. Sin embargo, queremos fundamentar POt 10 menos Que la proposicion de este teorema es razonable, 0 sea, Que se cumple A .. eA. Esto resulta en virtud de las propiedade! de _un algebra de sueesos (ver l.4, definicion 1 y corolario 1) sobre la base de Ia relacion

A..,= n U .Ilk' (Si At' .Ill' .. son subconjuntos de un conjunto universe U. entonces

rI=O 1::=11

A.= n U A,

es el Hamada limite superior de fa suceJ'i6n (An) n e IN: se cumple que XE .A._ si Y solo si X es elemento de un numero infinito de subconjuntos A".)

3.4 F6rmula de la probabilidad total

La f6rmula de la probabilidad total sirve para el calculo de la probabilidad P(B) de un sueeso aleatorio B a partir de las probabilidades P(A,) de un sistema complete (A" A" ... ,A) de sueesos A, (ver 1.3, definici6n 6) Y, de las probabilidades condicionadas P(BIA,) del suceso B con respecto a A,(i = I, 2, ... , n).

Teorema I. (F6rmula de la probabilidad total)

Sea [A,pj una familia de probabilidades y {A" A" ... , A,} un conjunto de sucesos aleatorios A,EA mutuamente excluyentes dos ados y con probabilidades positivas (z =L, 2, ... ,n), cuya suma es el suceso seguro. Entonces se cumple para todo suceso aleatoric BEA que

P(B)=~ p(BIA,)P(A,).

(1)

Ob s e r v a c i o n. La formula (1) 50 llama formula de la probabilidad total 0 tambien completa porque con ella se puede calcular la probabilidad (incondicionada) de un suceso B a partir de sus probabilidades condicionadas, que en este contexte se designa como probabilidad total 0 completa (fig. 19).

Figura 19

Demostraci6n. En virtud de las condiciones impuestas a los sucesos A" A" ... ,A •. el suceso B ocurre al menos con uno de estos sucesos. Luego, el suceso B puede representarse como surna de n sucesos .mutuamente exc1uyentes dos ados BnA,. i=1. 2, ... , n (fig. 19).

47

(x)

Canal interferido Receptor
(x - y) - (y) Figura 20

De aqui resulta (ver 2.4, corolario I) P(B) = ! p(BnA,).

1=1

La aplicacion del teorema de la multiplicacicn proporciona por ultimo (ver 3.2, teorema I)

P(B) = ! p(BIA,) P(A,),

led

o sea, se cumple (1).

Ejemplo. Observemos un modelo sencillo de un sistema de trasmision de noticias, consistente en una fuente de noticias, un canal interferido y un receptor (fig. 20). La fuente envia exactamente una de las senates x, x,'"'' x,; esta se trasmite por el canal y se convierte en una de las sefiales Yl'y""" Y., que a su vez, se recibe por el receptor. Describamos la Iuente mediante las probabilidades P, > 0 de la ocurrencia de las senales x, (i = I, 2 .... , n), y el canal interferido, por las probabilidades P, de la transici6n de la ~ei\al Xi en la seil~; Y, (i=l, 2, ... , n; j=l. 2, ... , m). Nos interesamos por las probabilidades qj de la ocurrencia de las sefiales Y/U= 1, 2 ..... m) en el receptor.

Fuente

Introducimos los sucesos siguientes:

A, ... La fuente envia la sefial x, {i e l , 2, , II).

BI ," EI receptor recibe la seilal Y, V=I. 2, , 'm).

Entonces se cumple que A.nA,=¢(i",k), A,vA,v ... vA,=U. Ademas, se dan los numeros p,=p(A,) mayores que O(i=l, 2, ... , n), y tambien los numeros pv"'p(BAA,) (i=l. 2, ... ,11; J=l, 2 ..... m). Para q,=P(B) obtenemos can esto, sabre la base de la f6rrnula de la probabilidad total,

P(B) =! P(BAA,) PIA,), par tanto q,= ! p.p,V=l, 2, .... m).

pod ;",1

Reunamos los numeros p"p" ... ,p, en una matriz P de una fila y los numeros PlI, ... ,p_ er una matriz P. Entonces se cumple para la matriz q de una sola fila, formada por los nu meros ql' q" ... ,qm' la relacion q=pp. entendiendose la multiplicacion que se encuentr. en el miembro derecho de esta ecuaci6n como multiplicacion de dos matrices.

Ejemplo nume r ico. n=m=l. p=(0.5;

0,1),

0,2 0.7

0,3; 0,2)

(0,7

P= 0,3 0,3

0,2 0.5 o

(par ejemplo, la sefial x, se convierte en Y, con la probabilidad 0,3 y en y,. can la pn babilidad 0,7). Can esto se obtiene q=pP=(0,5; 0.25; 0.25).

p(BIA,) P(A,)

---"....:....:....:.:-'--!:.- (k = I. 2..... n)

~ P(BIA) P (A,)

i_I

(1)

3.5 F6rmula de Bayes

La formula de Bayes sirve para elcalculo de las probabilidades condicionadas ~.IB) de los sucesos A, de un sistema complete {AI' A" ...• A,} de sucesos con respecto B un suceso B de probabilidad positiva (k = I, 2 •...• n), a partir de las probabilidades P(AJ y de las probabilidades condicionadas p(BIA,) (i = I. 2, ...• n).

Teorema I. (F6rmula de Bayes). Sea [A.P) una familia de probabilidades, fAl• A, .....

A,l un conjunto de sucesos aleatorios A,eA. muluamente excluyentes dos ados y con probabilidades positivas (i=l. 2 •...• n). cuya suma es el suceso seguro, y BeA. un suceso aleatorio con probabilidad positiva. Entonces se cumple que

Demostraci6n. Se cumple (ver 3.2 (2»que ptA.IB) . p(BIA,)

---=--- (k=l. 2 •...• n).

P(A,) P(B)

De aqui resulta

ptA IB) = p(BIA,)P(Aj (.1:=1. 2, ...• n).

, P(B)

Como las condiciones para la aplicacion de la formula de la probabilidad total se satisfacen (ver 3.4. teorema I). obtenemos con esto

P(A,IB)

o sea. se cumple (l).

Ejemplo. Continuamos con el ejemplo del epigrafe 3.4 y nos interesamos ahora por la probabilidad '" de que-la seil.al x, haya sido la enviada una vez que se ha recibido ya la seil.al Yj• Con las notaciones anteriores se tiene que '" =P(A,IBj). Por medio de la formula de Bayes obtenemos

,,=P(A,IB) = ptBAA,)P(A,) P'iP'

, , P(B) q,

(k=l, 2 •...• n; j=l. 2 •... ,m).

donde los numeros q, estan dados por qj=~ p,p.U=1.2, ... ,m).

1=1

Eje mpl o nurn e r ic o. Utilicernos los datos del ejemplo numerico del epigrafe "3.4 y obtenemos

(0,70

(',,) H.lJ = ° 40

..1:=1,2,) ,

0,20

0,18 0,60 0.24

~.12 )

0,56

49

· p"P, 0.2 ·0.3 2 deci I b bilidad d

(por ejemplo, se cumple que ,»=--=---=0. 4. es ecir, a pro a I e

q, 0.25

que la sei\al X, haya sido enviada cuando se recibie la sei\al Y, es de 0.24.)

Queremos fundamentar un poco la significacion de la formula de Bayes. Para ello podemos partir de la consideracien de un experimento aleatorio en el cual, en cada oportunidad, ocurre exactamente uno de los sucesos aleatorios A,. A, ..... A •. lmaginemos que no es posible una observacion directa del experimento con respecto a la ocurrencia de los sucesos A,. A ...... A~ pero que las probabilidades de estos sucesos son conocidas 0 que existen valores estimados para elias. (En esta relacion se denominan tambic!n las probabilidades P(Aj (i = I. 2 ..... n) como probabilidades a priori.) Si se puede observar ahora la ocurreneia del suceso B en la realizacion del experimento, se procura utilizar esta informacion en la toma de la decision sobre cual de los sucesos A,. A ...... A •. ocurre en el experimento. Para ella se calcularan las probabilidades condicionadas p(A,IB) de los sucesos A.rk=I.2 ..... PI) con respecto a B segUn la formula de Bayes. (En este contexto se denominan tambien las probabilidades P(A.IB) (k=l. 2 ..... PI) como probabilidades a posteriori.)

Una regia de decision posible y muy clara consiste en que ante la presencia del suceso B se considere como ocurrido aquel de los sucesos A,(k= I. 2 ..... PI) que tiene la mayor probabilidad bajo la hip6tesis de que el suceso B ocurre; por tanto. se elige entre los sucesos A.(k=l. 2 ..... PI) aquel que. dandopor sentado a B. tiene mayor probabilidad. Naturalmente, esta decision no est' excenta de error. pero se puede indicar la probabilidad de una decision falsa. Sobre este principio de decision se basan muchas reflexiones, particularmente de la Estadistica matematica; el principio se debe a un clerigo ingles, Thomas Bayes (fallecido en 1763). pero fue solo conocido y aplicable despues de una nueva formulacion hecha por P.S. Laplace.

Ejemplo. Si aplicamos el principio de decision descrito a1 modelo considerado de un sistema de trasmision de noticias, esto signiflca que ante la recepcion de la seilal Yj consider amos como enviada aquella seilal x, para la cualla probabilidad rll es el maximo del conjunto de los mlmeros r jk (k= I. 2 ..... n). es decir, que tiene la mayor i robabilidad de

haber sldo envlada. Para el ejemplo numenco esto stgnihca. que ante la recepclon de las sei\ales Y,. Y. Y y, se decidio por x,. x. Y x,. respectivamente. (Estas tres decisiones estan provistas de errores; la probabilidad de una decision falsa asciende a 0.3 para la deduccion de Y, a x,. 0.4 para la de Y, a x, Y a 0.44 para la de Y, 1i x,.)

50

4. Variables aleatorias discretas

EI concepto variable aleatoria tiene una significaci6n central en la Teoria de probabilidades y sus aplicaciones. Por medio de variables aleatorias se describen numericamente al-

gunas earacterlsueas de los lenomenos aleatoflos. Asl se descflbe, por ejemplo, el numero de artlculos defeetuosos en una muestra aleatoria de la produeci6n diaria de una fabric a, el numero de partlculas emitidas por una sustancia radiaetiva en un tiempo determinado, la duraei6n de un bombillo 0 el resultado de un proceso de medici6n cualquiera en la teeniea. Freeuentemente la realizaei6n de un experimento aleatoric sirve para emitir un valor numerico de una variable aleatoria. En la naturaleza del fen6meno radiea el que se puedan observar distintos valores de las variables aleatorias en repeticiones del experimento aleatorio. Para la earacterizaei6n teorico-probabilistica de una variable aleatoria, no es suficiente la indicaci6n del conjunto de los valores imaginables; son mucho mas necesarias las probabilidades de aquellos sucesos aleatorios que estan en relaci6n con la variable aleatoria eonsiderada, por ejemplo, las probabilidades con las cuales la variable aleatoria acepta determinados valores 0 valores de determinados intervalos.

En este capitulo queremos trabajar con las llamadas variables aleatorias discretas, cuya caracterlstica comun consiste en que pueden aceptar un nnmero finito 0 infinite numerable de valores; en el capitulo 5 nos oeuparemos de las llamadas variables aleatorias continuas, cuyos valores imaginables cubren un intervalo.

A estas consideraciones queremos anteponer la definici6n general de variable ateatoria. que requiere del concepto espacio de probabilidad, y la definicien de !uncilm de dislribucion de una variable aleatoria.

4.1 Definicion general de variable aleatoria

Los epigrafes siguientes contienen muchos ejemplos y motivaciones para los conceptos que se introducen aqui de forma general, de modo que se obtendra pronto una cierta familiarizaci6n con estos conceptos,

51

Definici6n 1.Sea [o,A,pl un espacio de probabilidad. Una funci6n real X definida sobre a (coeO -+X(co) e R) se llama una variable aleatoria (sobre[O,A.P]), si para todo numero real x se cumple que

{Q)eO:X(co) <x}eA.

Para evitar falsos entendimientos que pudieran resultar de la denominaci6n variable aleatoria llamamos la atenci6n expresamente de que una variable aleatoria X (sobre un espacio de probabilidad [0, A,pl) es una funci6n, es decir, que indicando la variable independiente co (eO) est' f!jado univocamente el valor X(co) (e R) de la variable aleatoria X. La a1eatoriedad radica solo en la elecci6n de 1a variable independiente coeO y esta elecci6n se realiza segun la medida de probabilidad P.

Queremos ahora seguir explicando la definicion I. Para ello escribiremos abreviadamente en lugar de {coeO:X(Q) <x} solo (X -cz), de forma correspondiente, en lugar de {coeO:a~ X<b} y {coeO:X(coj =c} escribiremos (a~ X <b) y (X=c), respectivamente. La definicion I dice entonces que, para una variable aleatoria X. cada uno de los conjuntos (X < x), x e R, pertenece a la e-algebra A de los subconjuntos del conjunto n, es decir, que cada uno de estes coniuntos pertenece al dominio de defmici6n de P. (De aqul se obtiene f'cilmente que tambien cada uno de los conjuntos (a:O;; X < b) y (X =c) pertenece tambien al dominio de defmici6n de P.) Por esto es razonable hablar de la probabilidad de que una variable aleatoria X acepte un valor menor que xIx e R). Para esta probabilidad, o sea, para p({coen:X(co) <x}) escribimos abreviadamente PIX -cx).

Definici6n 2.Sea [O,A,P] un espacio de probabilidad yXuna variable aleatoria sobre [n,A,pl. La funci6n Fx defmida por

F ).,x) =p(X <x), x e R se llama funci6n de distribucion de la variable aleatoria X.

EI valor de la funci6n de distribuci6n F x de una variable aleatoria X en el lugar xes, por tanto, segun definicion, igual a la probabilidad de que la variable aleatoria X acepte

un valor que sea menorque x,

Por medio de la funci6n de distribuci6n de una variable aleatoria se pueden expresar lasprobabilidades de casi todos los sucesos aleatorios que estan en relacicn con esta variable aleatoria. As! se cumple, por eiemplo, que

p(a';; X <b) =Fx!b) -F,,(a); deiamos al lector la demostraci6n de esta propiedad,

Sobre la base de los axiomas de la Teorla de probabilidades se pueden demostrar las propiedades de una funci6n de distribuci6n F. enumeradas en el teorema siguiente.

Teorema 1. Sea F la funcion de distribuci6n de una variable aleatoria. Entonces se cumple:

1. Para todo x e R, 0 ,;; F(x)';; 1.

2. F es mon6tona creciente (x, <x, ~F(x,) ~ F(x,».

3. F es continua par la izquierda (lim F(x) =F(xj).

X_le-O

4. lim F(x) =0, lim F(x) = 1.

.c ... -_ ~_+_

52

(1)

(2)

p(X=c) =F~c+O) -FJ..c);

(3)

Demostraci6n. Consideremos que X designa una variable aleatoria con la funcion de distribucion F.

1. Como F(x) indica la prcbabilidad de un suceso aleatoric. se cumple Que O~ F{x} ~ 1 (ver 2.4, axiom. I).

2, De Xl <Xl resulta (X<x\) ~ (X <Xl) y de aqul (ver 2.5. teorema 4) P(X <Xl) ~ P(X <X2) es deck F(>:,) <> F(x,).

3. Si (xll) es una sacesicn mon6ton'!. c reciente de numeros reales ~1I<a con ~i~ x~::::;a. entonces se

cumple que (X<x"):;; (X<x",,) y U (X<x")=(X<a). De aqui result. (ver 2.4. teorerna 1) que

11",1

P (X <a) =lim eX <XII)' 0 sea, F(a) = lim F(x,,). con 10 cual esta demostrada la continuidad por la iz-

quierda de F.

4. La existencia de los limites senalados result a de la monotonla y del acotamiento de F (proposiciones 1 y 2); ademas, se cumple evidenternente que O~ lim F(x) s; lim F(x)~ 1. Por tanto. es suficien-

):_-.. ,_.-

te demosrrar Que se cumple ~i~ F(-n) =0 y ~i~ F(n) =1. recorriendo " el conjunto de los nurnercs naturales. Para ella consideremos los sucesos mutuamente exc1uyentes dos a dos A,-==U-l~ X<J). (i =0, ± I, ± 2, ... ). Entonces 50 cumple [ver 2.4, axiomas 2 y 4) que

En virtud de (2) Sf curnple que

P(A} =P(j-l<> X <s =F{J) -FU-l)

y, por conslguiente,

;i~ ! P(A)=;i~ ! (F(])-FU-l»=lim (F(n)-F(-n».

1==-11 .. ' i .. -n+l

Luego, se cumple en total que lim F(n) -lim F( -n) = 1.

11-- tI_oo

Como la diferencia de dos numeros situedos entre cera y uno puede tener el valor uno, solo si el minuendo es igual a uno y el sustraendo igual a cero, resulta de aqui Que

lim

can 10 cual todo esta demostrado. Ademas podemos afirmar Que 1a propiedad 1 resulta directamente de las propiedades 2 y 4.

Observaci6n. Las propiedades indicadas en el teorema 1 son caracterfsticas en e1 sentido de que. para cada funci6n F que tenga estas propiedades existe una variable aleatoria X. cuya funci6n de distribuci6n FX coincide can la funci6n F.

Por ultimo, queremos senalar la validez de la ecuacion

aqui designa F jC+O) el limite por la dereeha de la funei6n de distribuei6n F x de la variable aleatoria X en el punto c. Por tanto, si c es un punto de continuidad de la funci6n de distribuci6n de X, entonces X acepta el valor c con la probabilidad cero, 0 sea, el suceso (X = c) es un sueeso easi imposible.

Con (3) se eomprueba la validez de las ecuaeiones siguientes:

p(a<X <b) =F~b) -FJ..a+O) , p(a<X.; b) =FJ..b+O) -Fja+O), P(a'; X.; b) =FJ..b+O) -FJ..a) ,

(4) (5) (6)

53

que en union con (1) muestran como se calcula, mediante la funcion de distribucion F" la probabilidad de 'lue la variable aleatoria X acepte un valor de un intervale arbitrario dado.

Ahora queremos tratar brevemente las funciones de variables aleatorias. Primero nos ocuparemos de la igualdad de variables aleatorias. Las variables aleatorias son funciones Y. por tanto, ya esta definida en principio la igualdad de dos de ellas. En la Teorta de probabilidades es conveniente y usual definir un concepto igualdad un poco mas general. el cual considere la particularidad del dominic de definicion comun (conjunto universe de un espacio de probabilidad) de una forma adecuada.

Definicion 3: Dos variables aleatorias X y Y definidas sobre un espacio de probabilidad comun [n,A.p] se denominan iguales (simb6licamente: X = Y). si se cumple que

P({roEU:X(ro) = Y(ro)}) =1,

o sea. si el suceso (X = Y) es casi seguro.

Teorema 2. Sea [n,A, P]un espacio de probabilidad, Xuna variable aleatoria (sobre [n. A.ph y g una funcion real continua definida sobre el eje real. Entonces la funcion g(X) definida por

[g(X) ](.ro) =g(X(ro», roEn

es tambien una variable aleatoria (sobre [n.A,p]).

Renunciaremos a la demostraci6n de este teorema; pero queremos expresar aun, para algunas funciones especiales g, la funci6n de distribuci6n de Y =g(X) mediante la Iuncion de distribucion de X.

Teorema 3. Sea X una variable aleatoria con la funcion de distribuci6n Fr' I. Para Y=aX+b (a .. Oreal, b real) se cumple que

(X-b)

F,{x)=Fx -a-

para a>O.

F,{x)=I-Fx (x:b +0) para a<O.

2. Para Y=X'se cumple que

{ ° para X" 0,

F,{x) = _

r, (-.fx)-F},-Yx+O) para x>O.

3. Para Y = Ix! ~ cumple que

F,{x) = {o.

F},x) -Fx(-x+O)

para x~ O.

para x>O.

De most r ac lo n. Se emplean las ecuaciones (1) hasta (6). 1. Sea a >0. Entonces 50 cUII\ple que

( X-b) (X-b)

;'p X<-- =F» -- .

a a

54

(7)

(8)

(9)

(10)

(11)

(12)

o sea, II}). En el case de que a <0 se obtiene que

( X-b) (X-b)

F"x)=P(aX~b<x)=P X>--;;- =l-P X"-a- =1-F,

(X-b )

---'-0.

a

o sea: (10).

2. Para x s; 0 se cumple que F,{x) "",P(Xl<X) =0. Para x>O se cbtiene que

F"x) =P(X'<x) :p(ix kfx)

=P(-.,[x <X <.,[x) =F".,[x) -F,( -.,[x +0).

o sea. (11).

3. Para x e; 0 se cumple que F,{x) =p(lxl<x) "",0. Para x>O se obtiene que

F,(x) =p(ixi<x) =P(-x<X « x) =F,.<x) -F,.<-x+O).

o sea. 112).

Queremos concluir nuestras consideraciones sabre variab1es a1eatorias, con un senalamiento referente a que .1 espacio de probabilidad tornado por base para una variable aleatoria no se presenta frecuentemente de forma explicita. Para investigaciones teoricoprobabilisticas de variables aleatorias, en casas de aplicacion, son esenciales las distribuciones de probabilidad de las variables aleatorias consideradas, que estan caracterizadas por las funciones de distribuci6n.

Par ultimo. advertimos que en algunos libros de texto la funci6n de distribuci6n Fx de una variable aleatoria X no se introduce como aqui mediante la definici6n 2, por F,{x) =P(X <x), sino par F,{x) =p(X" x).

4.2 Definici6n de variable aleatoria discreta

Definici6n 1. Una variable aleatoria se llama discreta, si puede aceptar un numero finilO 0 infinito numerable de valores, es decir; si el dominic de valores es un cOlijunto

a 10 sumo numerable.

Desde el punta de vista del Caleulo de probabilidades podemos considerar una variable aleatoria discreta como dada. si estan dados los distintos valores x, de la variable aleatoria X y las lIamadas probabilidades individuales p, =P(X =x,), con las cuales la variable aleatoria X acepta estos valores. En casas concretos se mencionan par conveniencia solo aquellos valores x,. para los cuales la probabilidad individual correspondiente p, es positiva: sin embargo, no queremos acordar esto rigurosamente, para que no resulten dificu1tades innecesarias en las consideraciones te6ricas.

Se caracteriza una variable aleatoria discreta X. que acepta los valores x, con las probabilidades p,. por la lIamada tabla de distribucion,

(1)

lJU,'. si cs posible, se representa tarnbien graficarnente (fig. 21).

55

Figura 21

EI teorema siguiente muestra, entre otras cosas, que mediante la tabla de distribuci6n se fija realmente la funci6n de distribucion de la variable aleatoria eonsiderada.

Teorema 1. Sea X una variable aleatoria discreta con la tabla de distribuci6n (1).

Entonces se cumplen las proposiciones siguientes:

I. p.~ 0, ! p,=l. ,

2. F,,(x) = ! p,., extendiendose la sumatoria sobre todas aquellas k para las cuales se

J::ZA:"::Z

cumple que x. < x.

3. La funci6n de distribuci6n Fx es una funci6n escalonada que posee en los Iugares x, saltos de la altura p,.

Dejamos la demostraci6n sencilla de este teorema alleetor; esta se obtiene de los WOmas del Calculo de probabilidades y mediante referencia a la definicien de funci6n de distribuei6n. No hemos excluido en la definicion 1 el easo de que la variable aleatoria X puoda aceptar solo un unico valor x,; ella aceptarfa entonces este valor con la probabilidad 1. La tabla de distribuci6n perteneciente a esta variable aleatoria X y la funei6n de di!ltribuei6n tienen la forma sencilla siguiente:

Gj { 0 para x,", x,

X: I' P(x=x,) =1; Fix) =

1 para x>x,

(fig. 22).

y

x,

"

Figura 22

---------------

y-F,(x)

o

Se dice tambien que X posee una distribuci6n puntua/ (en el punto x,). Por eonsiguiente, una variable aleatoria distribuida en un punto posee siempre, independientemente del resultado del experimento, un mismo valor. Este easo puede concebirse como caso extremo de 10 casual.

Concluiremos este eplgrafe con un ejemplo.

Ejemplo. La probabilidad de que un cazador acierte un objetivo es de 0,4 en cada tiro. Se aeuerda que solo en caso de no acertar con til primer tiro se tire una segunda vez.

S6

Si entonces el objetivo tampoco es acertado, se dispara una tercer. y hasta unl cuarta vez, en caso de no dar en el blanco con el tercer tiro. Indepcndientcmente de si el cuarto tiro Cue certero 0 no, no se dispara despu~s ninguna otra vez. Dcsigncmos con X el numero de los tiros disparados por los cazadores; X es una variable aleatoria discreta. Los valores posibles de esta variable aleatoria son los numeros I, 2, 3 y 4. Calculemos abora las probabilidadcs individuates p.=p(x=k) para k=I, 2, 3 y 4. Para ello introduzcamos los sucesos siguientes:

A, ... EI tiro numero i es certero (i=I, 2, 3, 4).

Se cumple que I'(A,) =0,4 y I'(AJ =0,6. Adcml1s, los sucesos A" A,. A, y A. son completamente independientes (ver 3.3, defmicion 2). As!, por ejcmplo, la probabilidad del suceso da en el blanco con el tercer tiro es igual a la probabilidad de este suceso bajo la ccndicien de que los tiros anteriores Cueran certeros; por tanto, en esta reflexion no posce ninguna significacion el que, por ejemplo, no se disparcn otr.os tiros en caso de dar en el blanco con el primero.

Expresemos los sucesos (X=Il, (X=2) , (X=3) y (X=4) mediante los sucesos A" A" A, y A ••

(X=I)=A"

(X=2) =A,rvI" (X=3) =A,nA,rvI" (X=4) =A,nA,nA,.

Luego, se muestra que DO necesitamos para esto at suceso A •.

Considerando la independencia de los sucesos A" A" A, y A. obtenemos

p,=p(X=I) =P(A,) =0,4,

p,=I'(X=2) =P(A,rvlJ =I'(A,)P(AJ =0,6·0,4=0,24,

p,=p(X=3) =I'(A, nA,nA,} =I'(A,)I'(AJP(A,) =0,6· 0,6 ·0,4=0,144, p.=p(X=4} =p(A,nA,nA,) =I'(A,}p(AJP(A,} =0,6·0,6·0,6=0,216.

(EI calculo de p. hubieramos podido hacerlo mas sencillo, ya que los sucesos (X=I), (%=2), (X=3) y (X=4) Corman un sistema complete de sucesos y con esto se cumple que p,+p,+p,+p.=I).

La tabla de distribucion de la variable aleatoria X tiene, por consiguiente, Is. forma si· guiente (comparar con fig. 23):

1 2 3 4
0,4 0,24 0,144 0,216 P(X=x)

0,4 0,4

0,3

Figura 23

0,24

0,2

0,1

10,144

0,216

o

4

57

Para la funci6n de distrll~6n r, Be .obtiene (fill. 24) p.=O,4

Fx(x) =p(X <x) = P.+p,=O,64 P.+p,+p,,,;O,784 p.+p,+p,+p.=1

para x';; I, para 1 <x", 2, para 2 <x';; 3, para 3 <x';; 4, para x>4.

, 1 O~ 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1

.---1

y-F (xl I

x -----l0,784 I

0164 t

, , ,

t i :

:----10,4 I i

I : I :

I I I I

! ! I I

o

4

Fisura 24

4.3 Caracterfsticas numericas de las variables aleatorias discretas

En muchas ocaslones no estlarnos muy intcresados por el conocimiento complete de tadas las probabilidades individuales de una variable aleatoria discr!>ta, sino mucha mils por clertas magnitudes denOl1)inadas tambien caractcrlsticas, que sicmprc proporcionan alau. na lnformaci6n sobre 1a variable aleatoria y su distribuci6n de probabilidad. En em epl. grafe trataremos el valor esperado y la variama de variables aleatorias discretas. El valor esperado y 1a varianza, pertenecen a los Hamados momentos de una variable aleatoria.

Definici6n 1. Sea X una variable aleatoria discreta que toma los valores x. con las probabilidades P", Entonccs el nllmero EX dcflnido por

EX= I x.p. •

(I)

Be llama valor esperado de la variable aleatoria X; &qui se supone que la serie situ ada en el miembro derecho de (1) converge absolutamente, 0 sea, que Be cumple que

I Ix.lp, <~. (Esta condici6n se satisface trivialmentc en el caso que X posea solo un •

numero finito de valores, de modo que a tada variable aleatoria discreta con un nnmero

finite de valores le corresponde, squn (1), un valor esperado.)

Per consiguiente, el valor esperado de una variable aleatoria discreta es la media pesada de todos los valores x. de X, empleandose como peso de todo valor x, la probabilidad individual correspondiente p,. (Aqu! no se presenta explicitamenle la divisi6n por la suma de todos los pesos, usual para la media pesada, ya que esta suma es igual a uno.)

58

L. tabla de distn'buci6n de una variable aleatoria discre!. que toma 10. valore. x. con las probabilidade. P •• se ilustra bien como un sistema de ma ... puntual •• que po .. e en 10. luaare. x, rna ... p, (y tiene, por tanto, la ma .. total uno), En esta i1ustraci6n eorrespende al valor esperado de la variable

aleatoria el centro de travedad del sistema de masa. puntuales. .

Ejemplo. Calculemos para la variable aleatoria )( considerada en el ejemplo del epi· grafe 4.2 el valor esperado:

EX= I x.p.=1·0,4+2 ·0,24+3 ·0,144+4 ·0,216=2,176 . •

o mues ra e CJemp 0, riable aleatoria considerada. Aun cuando el valor esperado sea un valor de la variable aleatoria, este no serA, por 10 general. uno de los valores de esta, que en comparaci6n eon los otros tiene la mayor probabilidad y que por eso uno esperarla mAs. Estos valores se denominan valores modales. La raz6n para denominar a EX valor esperado se debe ver en que I. media aritm~tica de los valores ebservados de la variable aleatoria es aproximadamente igual al valor esperado. satisfacil!ndose esto tanto mejor, cuanto mayor sea el numero de los valores observados utilizados para la formaci6n de la media (ver 7.4).

Los teoremas siguientes contienen proposiciones. que son utiles para el clllculo con valores esperados.

Teorema 1. Sea X una variable aleatoria discreta can el valor esperado EX, yay b sean numeros reales cualesquiera. Entonces se cumple que

E(aX +b) =aEX +b. (2)

Demostraci6n. Sf la variable aleatoria X toma los valores x, con las probabilidades p,. entonces la variabl~ aleatoria Y=aX+b acepta los valores y,';'ax,+b con las probabilidades p,. Par tanto. se cumple que

Et'=E(aX+b) = I y. p.= I (ax,+b)p.=a I x, p,+b I p,.

1 11k

ConEX=

p,=!. resulta de aquila ahrmaci6n.

, ,

LUCIO. se cumple en particular (a = 1. b == - EX) que

E(X-EX) =0; el paso de la variable aleatoria X a la X -EX se llama centrar.

Teorema 2. Sea X u.- variable aleatoria discreta que toma los valores x, con las probabilidades P, y g. una funci6n real continua defmida sobre el oje real. Si 1a serie

I g(xJp, converae absolutamente (es deeir, si I 19(xJ Ip, < -), entonees se cumple

, ,

que

Eg(X) = I g(xJp •.

,

Dejamos la demostraci6n al lector. Para g(x) ==X se cumple el teorema 2 sobre 1a base de la defmici6n 1. Para g(x) =(X-C)l y 8'(x) =Ix-cl j U un numero natural arbitrario, c uu numoro real cualquiera) se obtiene respectivamente con (4) que

E(X-c)1== I (X,-C)/p, ,

(3)

(4)

(5)

59

EIX-cl'= ! Ix.-clip"

,

siempre y cuando la serie situada a la derecha de (6) sea convergente.

Variables aleatorias con el mismo valor esperado pueden diferenciarse considerablemente en las tablas de distribuci6n, ya que el valor esperado no ofrece ninguna informacion de c6mo se desvian los valores individualesde la variable aleatoria del valor esperado. La l1amada varianza es la medida mas utilizada de la desviaci6n de los valores respeeto al valor promedio de la variable aleatoria, que se describe por el valor esperado,

Definici6n 2. Sea X una variable aleatoria discreta con el valor esperado EX, que toma los valores x, con las probabilidades P.=p(X =x.). Entonces el numero D'X definido por

D'X=E(X-EX)'= ~ (x,-EX)'p. •

se llama va,ianza (tambien dispersion) de la variable aleatoria X. donde se supone la convergencia de la serie situ ada en el miembro derecho de (7) (0 sea,

~ (x, -EX)' p, < ~). (Esta condicion se satisface trivialmente en ef caso de que X posea

sofo un nnmero finito de valores, de modo que, a toda variable aleatoria discreta con uri mlmero fmito de valores Ie corresponde segun (7) una varianza.) EI mlmero

se l1ama desviacion eslandar (0 desviacton t£pica) de la variable aleatoria X.

La varianza de una variable aleatoria X es, par tanto, la media pesada de los cuadrados de las desviaciones de los valores x; de X. del valor esperado EX de esta variable aleatoria discreta, siendo utilizadas de nuevo como pesos las probabilidades individuales con las cuales s~ presentan estos valores.

Si se ilustra una variable aleatoria discrete X (valor esperado EX, varianza DIX) como un sistema de masas puntuales (con el centro de gravedad EX) I entonces corresponde a la varianza D2X el mcmento de inercia de este sistema con respecto a un eje que pasB pot el centro de graved ad.

Ejemplo. Calculemos para la variable aleatoria X. considerada en el ejemplo del epigrafe 4.2, la varianza y la desviaci6n estandar; para ello emplearemos EX=2,176:

D'X= ! (x.-EX)'p. ,

=(1-2,176)' ·0,4+(2 -2,176)' ·0,24+(3 -2,176)' ·0,144 + (4-2,176)' ·0,216

~2,257

crx=~ D'X ~~ 2,251 ~ 1,503.

La formula contenida en el teorema siguiente se recomienda con frecuencia para el calculo de la varianza.

60

(6)

(7)

(8)

Teorema 3. Sea X una variable aleatoria discreta con valor esperado EX y varianza D'X, que toma los valores x, con las probabilidades p,. Entonces existe EX', y se cumple que

D'X = Z xi p, - ( Z x, P. }=EX'-(EX)'.

k ,

Demostraci6n. Utilizando (7), (1) y ZP.=I se obtiene ,

D'X= Z (x,-EX), P.= Z (x;-2x, EX-+-(EX)'1 P,

, ,

(8)

el resto se obtiene con (4), si se haee g(x) =x'.

Si se ilustra una variable aleetoria discrete como un sistema de rnasas puntuales con la mass total uno, entonces el teorema 3 reproduce el hecho bien conocido en la Mecanica y denominado como teorerna de Steiner, segun el cual, el momento de inercia de un sistema semejante de maSBS puntuales respecto a un eje que pasa por el origen, es igual a la suma del momento de inercia con respecto a un eje que pasa por el centro de gravedad y el cuadrado de I. distancia del centro de gravedad al origen. Por esta razon, se denomina tambien en 18 Teoria de probabilidades la proposicion del teorema 3 como teorema de Steiner.

Veamos ahora una proposici6n que se corresponde bien con nuestras ideas acerca del contenido del concepto varianza.

Teorema 4. La varianza de una variable aleatoria discreta es igual a cero, si y solo si la variable aleatoria posee una distribuci6n puntual.

Dejarnos la demostraci6n al lector; ella se obtiene directamente de (7).

Teorema 5. Sea X una variable aleatoria discreta con la varianza D'X, y sean a y b numeros reales cualesquiera. Entonces se cumple que

D' (aX +b) =a'D'X.

Demostraci6n. Con (7) y (2) se obtiene

D' (aX+b) =E(aX+b-E(aX+b», =E(aX+b-aEX-b), =E(a'(X-EX)') =a'E(X -EX) '=a'D'X.

(10)

Luego, se cumplen en particular las ecuaeiones

D' (-X) =D'X,

(11)

y

(12)

61

EI paso de la variable aleatoria X a Ia __ X __ ~D'X

se llama normar.

Para la variable aleatoria Z = __::X:....-...:E:....X:...._

~D'X

se llama estandarizar.

se cumple, por tanto, que EZ:"'O y D'Z=l;

X-EX

el paso de X a ----

Las caracteristicas tratadas hasta ahara: valor esperado y varianz a, pertenecen a los denominados mementcs, A continuacion traemos la definicion de los momento s,

Definicion 3. Sea X una variable aleatoria discrete que toma los valores xt con las probabilidades p~' adenu\s, sea j ,un n~mero natural y c, un numero real afbitrario. Entances los ndmeros

l1)e)=E(X-c)i= ~ (x,-e)ip, •

(13)

y

al(e) =Elx -ell= ~ Ix,-elIPk

,

(14)

ee 11aman. respectivamente, momento ordinaria y momento ab.roluco de orden j can respecto a c, SUpOnieadose 18 converaencia absoluta de la serie situada a 18 derecha en (13) (0 sea, 18 convergencia de I. serie situada 0 la derecho en (14». Para c=O se habla de mome""'. i"iciates y para c=EX. de mOo me"tos ee"tral es (suponiendo .. la existencia de EX).

A simple vista se observa que 50 cumplen las ecuaciones 11,(0) =EX. ",(EX) =0,11,<0) =EX', a,(O) =EX' y I1.<EX) =D'X=a,(EX). L. ecuacion (9) plantea que 11,(EX) =11,(0) -[I1,(O)J'.

AWl queremos dar y demostrar una inecuaci6n sobre mementos.

Teorema 6. Sea X una variable aleotoria discreta con la varianza D'X y c un numero real erbitrario. Entonces se cumple que

D'X;;;l'.<c);

(IS)

aqut se tstabltte tl stmbolo de iguiddad si y solo si se haee c E~.

Demost r ac icn. Utilicemos (13), (I), ~ p,=I, (9) y obtenemos que ,.

11,(e)=E(X-c)'= ~ (x.-c)'p,= ~ (xl-2ex,+e,) p,

, ,

=EX'-2eEX+c'

~EX'-(EX) '+(EX) '-2eEX +e' =D'X+(EX-c)'l> D'X.

de donde 50 obtiene la prcposicion del teorerna 6.

EI teorema 6 muestra que la varianza es el mas pequello de los mementos d. segundo orden. EI lector debiera comparar esta proposicion con 18 correspondiente sobre momentas de inercia.

E! teorema sip.iente, sin demostraci6n. contiene alaunas otras proposiciones sobre mementos, utili_"'do .. para los momentos iniciales ordinarios de orden j la notacien m)mj=l1j (0»; para los momentos centrale. ordinarios de orden j, la notacion III (111=I1)EX»y para los mementos iniciales absolutos de orden j, la nota.iOn P)PI=a)O».

62

Te or em a 7. Se cumplen las proposicienes siguientes:

1. m'j;~li' rnA. general. ~ (c) ;a,J.c). ,_ r '. r

2. Si exist. P" entonces existe tambien P, para 0 < I <I. Y 50 cumple la inecuaci6n V P, ..; V P, .

J

3. 1',; ~ (-1)]-/ t )ml mi-I+(-I)i-'(i-l)m{ (i;2.3 .... ). (para j;2 proporciona esto

1-2 I

1l1=m2-m~, es decir, la ecuacion (9)).

Las caracterfsticas derivadas de los momentos, dada! en la siguiente definicion, son de importancia para I. apreciaci6n de una distribuci6n de probabilidad.

Definici6n 4. Sea X una variable alc:atoria discreta con varianza positiva. Entonces se nama

11=~= {;; (coeficiente de variaci6n),

EX m,

(16)

E(X-EX) I ~,

y;----;--

~

(coeficiente de as imetrfa},

(17)

<r' x

'1;~-3;~-3 (curtosis),

<J1. ~

aqui 50 supone la existencia de los momentos que aparecen y que EX .. O en (16).

(18)

EI coeficiente de variacion es una medida de dispersi6n referida al valor esperado. EI coeficiente de asimetrta se muestra como una medidapara la asimetrfa de una distribucion de probabilidad, denomj.. nan dose una variable aleatoria X con la funci6n d. distribuci6n F .i~tric. (con respecto • a). si existe un numero a tal que p(X <a-x) ;p(X>a+%). 0 .... si .. cumple que 1'(a-%) ;1-1'(a+%+O) p.ra todo numero real x. Por ultimo, la curtosis se utiliza como una medida para la desviaci6n de una distribuci6n d. probabilidad de 1a distribuci6n normal (tratada ell 5.4). (para 1. di.tn'buci6n normal so cumple'1;O.)

4.4 Distribuci6n discreta uniforme

En este y en los siguientes epfgrafes trataremos algunas distribueiones de probabilidad especiales de variables aleatorias discretas.

Definicion 1. Una variable aleatoria discreta X con los valores x" x ••...• x, se denomina uniformemenie distribuida. si se cumple que

1

P.=P(X=xJ =- (k=l. 2 •...• n). n

(1)

Se dice tambien, entonces, que X posee una distribueion discreta uniforme (en los valores Xl' xp.",x,.}.

Una variable aleatoria discreta distribuida uniformemente est' earacterizada. por tanto. porque solo puede tomar un ndmero finito de valores, que tienen todos 1a misma probabilidad. Evidentemente no puede existir una distribueion uniforme en un numero infmito numerable de valores.

63

En easos de aplieaei6n se eonsidera distribuida uniformemente una variable aleatoria con un numero fin ito de valores, si esta - expresado de forma intuitiva - no prefiere nino guno de sus valores. As! se aeepta, por ejemplo, Que el numero Que resulta al tirar un dado es una variable aleatoria distribuida uniformemente (en los numeros I hasta 6). as! como Que los numeros emitidos en Tele-Lotto tambien poseen una distribuci6n uniforme.

Para el valor esperado EX de una variable aleatoria distribuida uniformemente en los valores X" X, ..... X" se obtiene (ver 4.3 (1» que

1 " EX=-~X •. n ~=I

Iuego se obtiene la media aritrnetica de los valores: para la varianza se eumple (ver 4.3 (9» Que

(2)

(3)

4.5 Distribuci6n binomial

La distribuci6n binomial es una distribuei6n discreta Que posee gran signifieaei6n practica. Ademas, representa un medic auxiliar apropiado para la investigaci6n de regularidades de fen6menos aleatorios, que son de importancia fundamental para la teorfa de probabilidades y para su aplieaci6n practica,

Definici6n 1. Sea n un mlmero natural arbitrario y p. un numero situ ado entre cero

• y uno. Una variable aleatoria X que tome los valores O. I. 2 ..... n se denomina distribuida 'binomialmente con los pard metros n y p, si se cumple que

P(X=k) = (~) pk(l-p)"-'

para k=O. I. 2 ..... n. Se dice tambien que X posee una distribucion binomial con los pardmetros n y p.

Antes de que investiguemos de forma mas exacta la distribuci6n binomial. queremos oeuparnos de su existencia, EI punto de partida 10 eonstituye un sueeso aleatorio A. que se presenta en el result ado de un determinado experimento aleatorio con la probabilidad P(A) =p. EI numer., (aleatorio) F"(A). de la ocurrencia de A en n repeticiones realizadas independientemente unas de otras del experimento aleatorio considerado, es una variable aleatoria disereta con los n + I valores 0, 1. 2 ..... n. Ahora queremos calcular las probabilidades

p,=p(F"(A) =k) para k=O. I. 2 ..... n.

EI suceso (F"(A) =k) oeurre si y solo si en la serie de experimentos descrita, el suceso A oeurre k veees y el A. {II-k) veees. Toda sueesi6n de sueesos semejante posee, a causa de la independencia de eada uno de los experimentos, la probabilidad p'(l-p) "-'. Como

64

(I)

existen ( ~ ) sucesiones de resultados. para los cuales aparece k veces A y (n - k) veces A. se obtiene

p(F,(A) =k) =( : )P'(I-P) "-'. (2)

La frecuencia absoluta, eoncebida como variable aleatoria, de la ocurrencia del sueeso A(P(A) =p) en n repeticiones independientes del experimento tomado por base posee, por consiguiente, una distribuci6n binomial con los parametres n y P (ver 2.1).

Para destacar la dependencia de eada una de las probabilidades p(X =k) de una variable aleatoria distribuida binomialmente con los parametres n y p, de estos parametres, seutiliza oeasionalmente la notaci6n btk; n,p).

b(k; n. p) =( : ) p' (l-p)'-'.

(3)

EI nombre de distribuci6n binomial se basa en que cada una de las probabilidades b(k; l2,p) para k=O, I. 2, __ .• 12 son los sumandos del desarrollo del binomio [(1-p) +pr,

con 10 cual se aelara tarnbien la relaci6n ! b(k; n,p) =1.

/r;=::0

La distribucion binomial se debe a Jacobo Bernoulli (1654-1705). que fue uno de los primeros en tratar la teorte de probabilidade s. Jacobo Bernoulli y su ;gualmente famoso hermano Iuan Bernoulli (1667·1748) pertenecen a los mils s;gnificativos disdpulos de G.W. Leibniz(1646-1716). Jacobo Bernoulli fue profesor desde 1687 hasta su fallecimiento en la Universidad de Basile a. tl .scnbiO,4"; coniectandi (publicado p6stumamente en 1713). uno de los primeros Iibros sobre el Calculo de probabilidades; este contiene proposiciones fundamentales, en particular. sobre 1a distribuci6n binomial. Por esc se encuentra con frecuencia la distribuci6n binomial bajo el nombre de distribucion d. Bernoulli, y mil. aun la denomination del esquema de experjmentca descrito anteriormen.te (repeticicnes independientes de un mismo experimento) como esquema de Bemoullt.

Ejemplo. En una fabrica se producen piezas troqueladas. EI productor ha asegurado que' las piezas con dimensiones adecuadas representan el 90 %. Se extraen ahora 20 piezas de la produccion continua y entre estas solo se encuentran IS eon dimensiones adecuadas. Queremos ocuparnos con la interrogante de si esta justificado poner en duda los informes del productor con respecto al porcentaie de piezas con dimensiones adecuadas, sabre la base de la muestra. Para ello consideramos I. variable aleatoria X, que indica el numero (aleatorio) de piezas con dimensiones no adecuadas en una muestra de tamallo n=20. Supongamos, de acuerdo con el informe del productor, que la probabilidad de producir UDa pieza con dimensiones no adeeuadas sea igual a 0,10 (=10 %); entonces la variable aleatoria X posee una distribucien binomial con los parametres '1=20 y p=O.IO. Cada una de las probabilidades p(X =k) de esta variable aleatoria X se deben calcular, por tan to, segun 1a fcrmul.,

p(X=k) =b(k; 20. 0,10) =(2~ )0.10"(1-0,10)"-- (k=O, I, 2, .... 20) Obtenemos la tabla de distribucion

0 1 2 3 4 5 6 7
0.122 0.270 0.285 0,190 0.090 0,032 0.009 0.002 65

'Y p(X=k) <0.0005 para k=8. 9 •...• 20 (ver tabla I (12.1) y r". 25). Con esto se demuestra que el resultado descrito anteriormente de Ia muestra (S piezas fOn dimensiones no adecuadas en la muestra aleatoria de 20 piezas). suponiendo que p =0.10. posce una probabilidad que es aprollimadamente igual a 0.03 (=3 'Ib). Por tanto. sobre la base de esta muestra se pondran seriamente en duda los informes del productor. Si se quiere estimar la probabilidad p de producir una pieza con dimensiones no adecuadas, sobre la base de la muestra indepcAndientemente de los informes del productor, entonces se utilizara como valor estimado p la freeuencia relativa de la presencia de piezas con dimensiones

A S 1 A

p= -= - =0.25 (25 'Ib). (Se reflexiona facilmente que p es aquel nlimero para el cual

W 4 A

Ia funci6n p ~ b(5; 20.p) acepta el m4llimo. 0 sea. que p es aquel valor para el cual es

mayor la probabilidad de obtener una muestra como la extralda.)

PIX-x)

0,3

0,270 0,285

0,2

0.190

r°,()9

0.032

Y o~ 0,()02 0.000

°

4

6

x

Figura 25

8

La gran si&JI.ificaci6n practica de Ia distribuci6n binomial se muestra ya en este ejemplo. ,Ell general. podemos afirmar que el nlimero aleato~io de las 'piezas defectuosas (o de las distinguidas por alguna otra propiedad) en una muestra de tamailo n, tomada de una producci6n continua cuyo .porcentaje de piezas desechables es de 100 p'lb, posee una distribuci6n binomial con los parametres n y p. Tambien el nlimero aleatorio de las piezas defectuosas en una muestra de tamailo n, tomada de una poblaci6n finita (por eiemplo, de Ia producci6n diaria de una fllbrica). con un porcentaje de desecho de loop'lb, posee una distribuci6n binomial con los parametres n y p, si la extraccion de cada una de las piezas se realiza consecutivamente y antes de cada extraccion se repone de nuevo la pieza tomada anteriormente. (Una muestra tomada de esta forma se llama una muestra con reposici6n. Se debe prestar atenci6n a que en una muestra sin reposici6n. el numero aleatorio de las piezas d.~'!ctuosas no posee una distribuci6n binomial. sino una llamada distribuci6n hipergeometrica; de esta distribuci6n nos ocuparemos en el pr6ximo ep!grafe.)

Para el calculo practice de probabilidades de variables aleatorias distrlhuidas binomialmente, son importantes las proposiciones seilaladas en el teorema siguiente.

Teorema 1. Se cumplen las ecuaciones

b(k; n, p) =b(n-k; n, I-p).

(4)

n-k p

b(k+l; n, p)=-_. -- b(k;n,p), k+l I-p

66

(5)

b(k-I; n,p)= __ k_.l-p· b(k;n,p),

n-k+1 p

Las dernostraciones de las formulas indicadas son faciles de realizar mediante el empleo de la definicion de los coeficientes del binomio y utilizando (3). La formula (4) muestra que para hacer tablas nos podemos limitar al caso 0 <p~ 0,5; las f6rmulas (5) y (6) son formulas para el calculo reeursivo de b(k+l; n,p) y b(k-I; n,p) a partir de b(k;n,p). Por 10 demas, se debe tener en euenta que el calculo de btk; n,p) tropieza con dificultades, particularmente para n grandes y p pequellas; con posterioridad conoceremos f6rmulas de aproximacion, convenientes precisamente para estos casos,

Nos dedicaremos ahora a la determinaci6n del valor esperado y de la varianza de variables aleatorias distribuidas binomialmente.

Teorema 2. Sea X una variable aleatoria distribuida binomialmente con los parametros n y p, Entonces se cumple que

EX=np, D'X=np(l-p),

cr.=V np(l-p) .

Demostraci6n. Demostraremos solo (7); la formula (8) se obtiene a traves de calculos analogos y (9) se obtiene direetamente de (8). Para el valor esperado tenemos que

EX=! k P(X~)=! k (n ) p' (l-p)'-'

..1:=0 "==0 k

=!k (n ) p' (l-p)'-' '~I k

,-I ( 1)

=np I JI~ pi (l-p)'-H

j:::.O )

= np [P+(l-p)],-I=np.

As! vemos que, en concordancia con nuestras ideas sobre este contenido, el valor esperado de la frecuencia absoluta F,(A)' de la ocurreneia de A en n repeticiones independientes de un experimento, es igual al producto del numero n de experimentos por Is. probabilidad P(A) de este suceso, y que la varianza para p=O y p=l es igual a cero y para

p = ..!..., es maxima.

2

El teorema siguiente da informaci6n sabre el coeficiente de variacion -0, el coeficiente de asimetrfa y y la curtosis 11 de una distribucien binomial.

(6)

(7) (8)

(9)

67

Teorema 3. Sea X una variable aleatoria distribuida binmnialmente con los paramctros " y p. Entonces se cumple que

o=V¥.

(10)

y

1-2p

(11)

1-6P(1-p) np(l-p) Renunciaremos a la demostraciOn de (11) y (12); (10) se aclara sobre la base de (7) y (9). Observemos que en el caso p= 2., y cs itIual a cero. En este caso, se cumple que P(X=kj =p(X=n-k), 10

2 1

cual esequivalente 8 18 simetria de I. distribuci6n binomial con 105 parametres n y p = - • 2

n

(12)

Para finalizar las consideraciones sobre la distribucion binomial, queremos destacar una relaci6n fundamental entre la frecuencia relativa de un suceso en n experimentos (ver 2.1) y la probabilidad de este.

Teorema 4. Sea A un suceso aleatoric que se presenta en el desarrollo de un deter. minado experimento con la probabilidad P(A). Ademas, designe f.(A) la frecuencia relativa (concebida como variable aleatoria) de la ocurrencia de A en n repetieiones realizadas independientemente unas de otras de este experimento. Entonees se cumple que

EI.(A) =p(A) ,

D'f.(A) _0 para n _ ee ,

(13) (14)

Demostraei6n. Designemos con F.(A) la freeueneia absoluta (concebida como variable aleatoria) de la ocurrencia de A en un esquema de Bernoulli. Segun reflexiones anteriores F.(A) esta distribuida binomialmente con los parametres n y p=p(A). Sobre la base de (7) y (8) se cumple, por tanto, EF.(A) =np y D'F.(A) =np(l-p). Entre la frecuencia

absoluta F.(A) y la frecuencia relativa 1.(.'1) existe la relaci6n I.CA) = F.(A). De aqut

1 n

se obtiene (ver 4.3 (2) y (10) con a= - y b=O),

n

(F.(A» 1 1

Ef.(A) =E -- = - EF.CA) = - np=p=p(A),

n 'I 'I

(F.CA» 1 1 p(l-p)

D'f. (A) =Dl -- =-D'F.(A) =- np(l-p) = -- _0 (n _ ~).

n n2 "2 n

Las relaciones (13) y (14) muestran que entre la probabilidad de un suceso aleatoric, introducida axiomaticamente, y las frecuencias relativas de este suceso, halladas de forma practica, existen nexos muy estrechos, La validez de las relaciones seilaladas constituye. un motivo suficiente para estimar la probabilidad de un suceso- aleatorio mediante Irecuencias relativas; este valor estimado representara tanto mejor un valor aproximado de la probabilidad cuanto mayor sea el numero de los experimentos realizados. La posibilidad de estimar probabilidades de modo razonable hace de la teoda de probabilidades una disciplina matematica de aplicacicn practica.

68

4.6 Distribuci6n hipergeometrica

La distribucion hipergeometrica es una distrjbucion discreta, que posee gran significacion practica, sobre todo en el control estadlstico de Ia calidad.

Definicion 1. Sean N. My II numeros naturales con M .. N Y II" N. Una variable aleatoria X que posee como valores los numeros naturales k con k.:; II. k .. M. II-k .. N-M (luego, estos son los numeros k=nuIx (0, II-(N-M», ... , mln (M.II», se denomina dislribuida hipergeomelricamellle si se cumple que

P(X=k)

(:) (~~:) <: )

(1)

Se dice entonces tambien que X posee una dislribucwlI hipergeomelrica.

Hemos advertido ya en el eplgrafe anterior que la distribucion hipergeometrica se presenta en relacion con muestras aleatorias, sin reposicion; queremos explicar esto de forma mils exacta.

Un lote de mercancias contiene N objetos, entre los que se encuentran M defectuosos (0 distinguidos por alguna otra propiedad). Tomemos sucesivamente del lote, de forma aleatoria y sin reposicion 0 de una vez, que es 10 mismo, II objetos; en este contexto la frase de forma aleatoria significa que todas las muestras posibles tienen la misma probabilidad. Si designamos con X el numero, concebido como variable aleatoria, de los objetos defectuosos en una muestra extralda de este modo, entonces un numero natural k es evidentemente un valor de X si y solo si k,,;, II. k .. M y II-k .. N-M. Para el calculo de las probabilidades PIX =k) fijemos que el suceso (X = k) ocurre si y solo si de los M objetos defectuosos existentes estan contenidos k de ellos en la muestra aleatoria (para esto existen

M

posibilidades), y si de los N-M sin desperfectos estan contenidos n-k en la

muestra (para esto existen posibilidades). Como existen en total po-

n-k II

sibilidades de escoger n objetos de N de ellos, 'IC obtiene precisamente para P{X = k), aplicando la definicion clasica de probabilidad, la ecuacion (1), 0 sea, X esta distribuida hipergeometricamente, L1amamos la atencion de que el numero (aleatorio) de los objetos defectuosos en una muestra aleatoria con reposicion esta distribuido binomialmente con los

parametres II y P = M.

N

Ejemplo. Sea N=lOO, M=5 y n=10. Designe X el numero (aleatorio) de los objetos defectuosos en una muestra aleatoria.

a) con reposicion,

b) sin reposicion.

Calculernos para cada caso la probabilidad p(X = 1).

a) p(X=I)=b{l;l,(), O,OS)=C~) 0,05 (1-0,05)9=0.32.

69

~O.34.

Nos asalta entonces la idea. de que cada una de las probabilidades de la distribuci6n hipergeometrica y binomial no sediferencian esencialmente, si el tamallo de la muestra n es pequella en relaci6n con el tamaAo N dellote de mercanclas ("«N). En este caso, por ejemplo. la no reposici6n de un objeto defectuoso tiene una influencia muy pequella sobre la distribuci6n de probabilidad para la proxima extracci6n. (En esta relaci6n es interesante la proposici6n siguiente: tambien en una muestra sin reposici6n la probabilidad de extraer un objeto defcctuoso es igual para las distintas extraccicnes; esta es igual a

p=M.)

N

EI teorema s;guiente &firma la suposici6n anteriormente sellalada.

Teorema I. Se cumple para k=O, I, 2, .... "

fun (~) (:~~) (n)

r.-- (:) k

Renunciarcmos a la demc.s racion, que no es diflcil. Del teorema I inferimos que se puede sustituir en elcaso n«N las probabilidades p(X=k) de una variable aleatoria distribuida hipergeometricamente por las probabilidades btk; n. p) de una variable aleatoria

(2)

distribuida binomialmente, haciendose p = ~ .

Por ultimo. indicaremos el valor esperado y la varianza de una variable aleatoria distribuida hipergeemetricamente,

Teorema 2. Sea X una variable aleatoria distribuida hipergeometricamente, Entonces se eumple, con p = M. que

N

EX=np.

s-:« D'X=np (l-p)

N-I

(3) (4)

Dejamos la demostraci6n de esto allector. Comparemos aun el valor esperado y la varianza del numero (aleatorio) de los objetos defectuosos en una muestra sin reposici6n (distn'buci6n hipergeom~trica). con los parametres correspondientes en una muestra con reposici6n (distribuci6n binomial. ver 4.5 (7) y (8». Como se aprecia, los valores esperados SOD iguales con ambos metodos de extracci6n de la muestra. Por el contrario, la varianza en una muestra sin reposicion es menor que en una con reposici6n

(np(l-p) N-n <np(I_p) para I <n"; N). pero para N grande la diferencia es pequella

N-I

L~np U-p)

N-n )

--=np (l-p) • como era de esperar tambien sobre la base del

N-I

teorema 1.

70

4.7 Distribuci6n de Poisson

La distribuci6n de Poisson es una distribuci6n discreta en un numero infinito numerable de valores; esta desempeila una importante funci6n como distribuci6n limite de la distribuci6n binomial. en particular. para el calculo numerico de las probabilidades bik; n.p) cuando n es grande y p pequeila.

Definici6n I. Sea A un numero positivo arbitrario. Una variable aleatoria X, que puede tomar los valores 0, I, 2 .... , se denomina distribuida segun Poisson con el parametro A. si se cumple que

I.' I'(X=k) = - e+ k!

(I)

para k=O, I. 2 .... Se dice entonces que X posee una distribucion de Poisson con'el pardmetro 1.,

La evidencia de que mediante (I) esta definida una probabilidad, se obtiene directa- A'

mente aplicando el desarrollo en serie de la funci6n exponencial e'= ~--; - ~ < A < ee .

,., k!

Con el objetivo de destacar la dependencia del parametro A de las probabilidades I'(X = k) de una variable aleatoria X, que posee una distribuci6n de Poisson con parametro I., se utiliza ocasionalmente la notaci6n p(k; A). para estas probabilidades

'A .. e-i. p(k;A)=--. k!

(2)

La distribucien de Poisson se debe a S.D. Poisson (1781-1840). matematico frances extraordinariamente productivo, cuyo nombre est' unido a numerosos cenceptos de la matematica (por ejemplo. la integral de Poisson y la ecuaci6n de Poisson en la teorte de 105 potenciales).

Indicaremos ahora ei valor esperado y la varianza de una variable aleatoria distribuida segun Poisson con el parametro A; aquf tambien sc aclarara la funci6n del parametro A,

Teorema 1, Sea X una variable aleatoria distribuida segun Poisson con el parametro 1.>0, Entonces se cumple que

(3) (4)

De mo st r ac io n. Solo demostraremos (3); ellector debe demostrar (4) como ejercitacion, Se cumple que

- A'

EX= ~ x, p,= ~ k, (k; A) =~ k=- e-'

, , 1:. k!

- A

A ~ _:_ r'=A. e' e-'=A, j_O j!

El siguiente teerema ofrece rrni.s infonnaci6n sobre I. influen~i. del parametro ). en 1. distribuciOn de Poisson.

71

Teorcma 2. Sea X una variable aleatoria distribuida segun Poisson con el parametro J.>O. Entonces se cumple que

I

l'=-;:= (coeftclente de variaci6n).

'.)I.

I

Y=- (cceficiente de asimetrta) ,

.,fI.

I

'1 =- (curtosis). ).

EI siguiente teorema muestra una relaci6n entre la distribuci6n binomial y la de Poisson.

Teorema 3, (Teorema limite de Poisson), Se cumple para k =0. I. 2 .... que

lim

A'

p' (I-p)" '= - e k!

,.0 lip";.

De most r ac io n. Con p=!:... se cumple que n

(nk) p' (I-p)'- ,=n(n-I) ... (n-k+l) n . n···n

A' ( A)" ( I.) -k

t: 1--; 1--;

De aqul se obtiene directamente (8). para n _ =, p _ 0 y np=A=constante con

lim (1- ~ )"=e-i•

EI teorema (3) muestra que se pueden sustituir las probabilidades b(k;n,p) de una va-

una variable aleatoria distribuida segun Poisson con el parametro A = np, en el caso de un mimero n grande y uno p pequeno; para n > > 1 y p < < 1 se cumple, por tanto, que

b(k; n,p) ~p(k; A) con A=np,

Como los numeros b(k; n,p) son diftciles de calcular, especialmente para el caso n» I y p« I, la relacion (9) es muy uti! para la determinaci6n numerica de probabilidades de la distribuci6n binomial. Para el calculo de las probabilidades de la distribuci6n de Poisson, que se necesitan tambien en la aplicacion de (9), son convenientes las formulas recursivas dadas en el siguiente teorema.

Teorema 4. Se cumplen las relaciones

p(k+l; A)=_A_ p(k; A). k;;,O k+l

p(k-I; A)=~ p(k; A). k» 1.

A

Las demostraciones se obtienen directamente de (2).

72

(51

(61

(8)

(9)

(10)

(11)

Las probabilidades de la distribucion de Poisson se encuentran en tablas para valores de I.. moderadamente grandes (ver tabla 2 (12.2), alll 1.. .. 20); para mayores valores de A conoceremos posteriormente formulas de aproximacion.

Nos ocuparemos ahora con la cuestion de cuales de las variables aleatorias, que se presentan en casos de aplicacion, poseen una distribucien d_e Poisson.

Si se puede interpretar una variable aleatoria X (con un modelo) como el numero de ocurrencias de un suceso aleatorio A en una larga serie de experimentos independientes, en los cuales el suceso A tiene siempre una probabilidad pequei\a. entonces X puede con-

matica de esto radica en que el numero (aleatorio) de la ocurrencia de un suceso A en II repeticiones realizadas independientemente unas de otras de un mismo experimento, posee una distribucion binomial con los parametres II y p, y que en el caso II» I y p < < 1 se cumple la proposicion (9). (A causa de que p < < I se denomina tambien con frecuencia la distribucicn de Poisson como distribucion de los sucesos raros, una denominacion evidentemente poco acertada.) Aqul se establece, de forma conveniente, el parametro A igual a la media aritmetica de los valores observados de la variable aleatoria (ver para esto (3) y 4.3, observacion antes del teorema 1). Por ultimo, nombremos algunos ejemplos concretos de variables aleatorias, que pueden aceptarse distribuidas segun Poisson de acuerdo con el modelo anteriormente i1ustrado: el numero (aleatoric) de llamadas que llegan a una central telefonica durante un determinado lapse, el numero de roturas de los hilos que ocurren en una hilanderia, para una determinada clase de tejido, dentro de un perlodo de tiempo dado; el numero de atomos de una sustancia radiactiva que se descomponen en un intervalo de tiempo fiiado, etcetera.

Concluimos este epigrafe con un ejemplo.

Ejemplo. Una carga de simientes se vende en paqueticos. Cada paquetico contiene (alrededor de) I 000 semillas, De pruebas anteriores es conocido que (aproximadamente) el 0,5 % de las semillas no pertenecen a la clase de las simientes, Calculemos la probabiJidad de que en un paquetico (aleatoriamente elegido) hayan mas de cinco semillas que no per-

Para ello designe X el numero (aleatorio) de semillas que no pertenecen a la clase de las simientes en un paquete. Se supone, de acuerdo con los datos, que X esta binomial. mente distribuida con los parametres 11=1 000 y p=O,005. Se cumple.entonces que

P(B) =P(¥>5) =1-p(X .. S)=I- I p(X=k)

1:=0

=1- ! bik; 1 000, 0,005).

11:=0

Utilizamos (9) con A=lIp=1 000 ,0,005=5 y obtenemos P(B) ~I- Ip(k;S) ~1-0,616=O,384

1.0

(ver tabla 2(12.2».

73

5, Variables aleatorias continuas

En este capitulo queremos tratar las variables aleatorias continues, cuya caractertstica comun eonsiste en que el dominio de valores es un intervale (estando tambien permitido el conjunto R). En relacion con variables aleatorias continues nos interesa particularmente que la variable aleatoria consider ada tome valores de un intervalo arbitrario dado. La probabilidad de que una variable aleatoria continua tome un valor determinado cualquiera, es siempre ;gual a cero, de modo que no se puede caracterizar la distribucion de probabilidad de una variable aleatoria continua indicando probabilidades particulares. Luego, las variables aleatorias continuas se caracterizan por el hecho de que la probabilidad de tomar valores de un intervalo cualquiera se obtiene como el area entre el eje x y la llamada densidad de probabilidad sobre el intervalo considerado. Esto conduce, por tanto, a la aplicacion del concepto de integral y en especial, a Ia utilizacion de integrales impropias.

Observe ellector la Ilhalogfa de las deflnieiones, formulas y proposiciones de este capitulo con las correspondientes del capitulo 4; estas solo se difereneian con frecueneia en que en lugar del sfmbolo de sumatorie y de la probabilidad particular estan el simbolo de integral y la diferencial de la funcion de distribucien, respectivamente.

UtiUzando una teorla general de la integraci6n y la medida ... puede tratar al mismo tiempo variables aleatorias discretas y continuas. De esta forma se puedenrepresentar de forma uniea, mediante integrale. adecuadas, las probabilidades, el valor esperado, la varianza y los momentos d. orden suo perior que nos interesan, obteni~ndose. naturalmcnte, tanto en el caso discrete como continuo. las defmiciones, f6rmulas y proposicicn •• dadas en este libro.

5.1 Definicion de variable aleatoria continua

Definicion 1. Una variable aleatoria X se llama continua. si existe una funcionlx no negativa definida sobre el conjunto R de los numeros reales, al menos continua a trozos, de modo que

p(a';; X,;; b) = [IX<X) dx (1)

para todos los numeros reales a y b con a';; b (fig. 26).

14

75

.c Figura 26

Desde el punta de vista del Calculo de probabilidades, podemos entender que una variable aleatoria continua X esta dada cuando conocemos la funci6n Ix. La funci6n I .. se llama densidad de probabilidad (tambien: densidad de distribucion. densidad 0 funcion de densidad) de la variable aleatoria X. EI teorema siguiente muestra que mediante la funci6n de densidad esta fijada realmente la funci6n de distribuci6n de la variable aleatoria considerada (ver 4.2, teorema 1).

Teorema 1. Sea X una variable aleatoria continua con 1a funci6n de densidad j, .... ,Entonces se cumplen las proposiciones siguientes:

I. IJ,.x);' 0 para todo XE R, i>J,.X)dX=l.

3. La funci6n de distribucicn Fx es una funci6n continua, que es diferenciable en todos los puntos de continuidad de IK' cumpliendose F~x) =1J,.x).

Figura 27

Tambien aquf dejamos la demostracion al lector; se debe observar que para una variable aleatoria continua X y para un numero real cualquiera c, se curnple que (ver 4. 1 (3».

p(X=c) = f,{X)dX=O.

Veamos ahara un ejemplo.

Eje mpl o , Consideremos la funci6n (fig. 28), dada par

{ _2 (1-

fix) = b-a

o

2 1 a+b I)

b-a x--2- para a';; xa b.

para los demas.

Figura 28

Esta funci6n es no negativa y se cumple que i~1(X)dX=1 (fig. 28). Si una variable aleatoria continua X posee esta funci6n I como funci6n de densidad (fx=/)' entonces se cumple que, por ejemplo,

P(X:;;; a) =0, P (a:;;; X:;;; a:b )=p e;b,.; XO )=+, P(X~ b) =1.

Para la funci6n de distribuci6n F corres ondiente a esta variable aleatoria fi . 29 se ob-

(2)

o

para x~ a.

tiene que

F(x) = P(X -cx) = i~ 1(t) dt=

2(~)'1

b-a

a+b para a~ x~ --,

2

( b-x )'

1-2 --

b-a

para x~ b.

La distribuci6n de probabilidad caracterizada por la densidad de probabilidad lola funci6n de distribuci6n F, se denomina distribucion triangular.

}Y

--~Jf21_=-+'~--a..J.+""b-----L-- .c

Figura 29

A continuaci6n damos para algunas funciones especiales g, la relaci6n entre la densidad de probabilidad Ix de una variable aleatoria continua X y la Iy de la variable aleatoria Y =g(X).

Teorema 2. Sea X una variable aleatoria continua con la funci6n de densidad Ix. 1. La variable aleatoria Y=aX+b(a,..,O, b reales) posee la funci6n de densidad

I (X-b)

I"(x)=/afIx -a- , -~<x<~.

76

2. La variable aleatoria Y =X' posee la funcion de densidad fr•

[,{x) ={~J{x) +fJ -Vx) 2Vx

3. La variable aleatoria Y = Ixi posee la funci6n de densidad [yo

para x,,:; 0,

para x>O.

{o

[,J..x) =

!..(x)+[,{-x)

para x~ 0 para x>O.

La demostraci6n de este teorema se obtiene facilmente con el teorema 3 del epigrafe 4.1, aplicando la proposici6n 3 del teorema I.

5.2 Caraeteristicas numericas de las variables aleatorias continuas

T rataremos en este epigrafe el valor esperado y Ia varianza como caracteristicas numericas importantes de las variables aleatorias continuas. Observe el lector las analoglas con las definiciones y proposiciones correspondientes del epigrafe 4.3 sobre las caracteristicas numericas de las variables aleatorias discretas,

Definici6n 1. Sea X una variable aleatoria continua con la densidad de probabilidad I.. Entonces el numero EX definido por

EX= f~ x[Jx)dx (1)

se llama valor esperado de la variable aleatoria X; aqul se supone que la integral situ ada en el miembro derecho de (I) converge absolutamente; 0 sea. se cumple que

f Ixlf"J..x)dx<-.

Ejemplo. Calculemos para la variable aleatoria X. considerada en el ejemplo del epigrafe 5.1, el valor esperado:

EX=f-X[j.X)dX=[X~ (l-~Ix- a+b !)dX

__ • b a b a 2

=£ ';' x _2 (1 __ 2 (-X+ a+b ) \.Jx

• b=a b-a 2'"

+ t' x _2 (1- _2 (X- a+b ) )d~= a+b .

J.!..!± b-a b-a 2 2,

,

(3)

(4)

17

E(aX +h) =aEX +h.

(2)

Los teoremas siguientes son utiles para el calculo con valores esperados.

Teorema 1. Sea X una variable aleatoria continua con el valor esperado EX y sean a .. O y b. numercs reales cualesquiera, Entonces se cumple que

Demostraci6n. Si la variable aleatoria X posee la densidad de probabilidad IX' entonces la variable aleatoria Y =aX +b posee Ia densidad de probabilidad fy,

x-h

(ver 5.1. teorema 2. proposicien 1), Con esto obtenemos aplicando (1) y i>x<t)dt=1

EY=E(aX+b) = f xf,{x)dx= [x I~I fx e:b) dx ~i~ (tlt+h)/,(t) dl=ai~ I/,(t)dt+h i~/,(t)dt =aEX+h.

(En el calculo se debe realizar una diferenciaci6n de cases con respecto al signa de a.) Por tanto. se eumple en particular para una variable aleatoria continua X. la relacion

E(X-EX) =0.

(3).

Teorema 2. Sea X una variable aleatoria continua con la densidad de probabilidad Ix y , una funcicn real continua definida sobre el eje rea~ Si la integral [g(X)/x!X)dX converge absolutamente (es decir, si se cumple que i.lg(xl f.(x) dx < -). entonces se cumple que

Eg(X) = i~ g(x)f'(x)dx.

(4)

Renunciarernos a la exposicion (por 10 demas no muy sencilla) de la demostracion, Sin embargo. observamos que para g(x) =X se cumple el teorema 2 sobre la base de la definicion 1.

EI ealculo del valor er' rado Eg(x) sin recurrir al teorema 2. tendrfa que realizarse

con la formula Eg(x) = y f,r,r) (y)dy, 10 cual exige, por consiguiente, el conocimiento de la densidad de probabilidadf"XI de la variable aleatoria g(X) (ver demostraci6n del teorema I). Esto no es necesario utilizando (4). mediante la cual se simplifica considerablemente en muchas ocasiones el clilculo de Eg(X); de aquf se desprende la importancia del teorema 2.

Para g(x) =(x-c)j y ,,(x) = lx-eli U un numero natural cualquiera y c un mimero real arbitrario). se obtiene segun (4)

E(X-C)i= i~ (x-c)ifx!x) dx (5)

78

(8)

y

(6)

respectivamente, siempre y cuando Ia integral situada en el miembro derecho de (6) sea convergente.

Definici6n 2. Sea X una variable aleatoria continua con el valor esperado EX y la densidad de probabilidad IX' Entonces el numero D'X definido por

D'X=E(X-EX)'= [(X-EX)' I'(x) dx (7)

se llama varianza (dispersibn) de la variable aleatoria X. suponiendose la convergencia de la integral situ ada en el miembro derecho de (7). EI numero

se llama la desviacion estandar de la variable aleatoria X.

Ejemplo. Calculemos la varianza para la variable aleatoria consider ada en el ejema+b

plo del eplgrafe 5.1; aqul emplearemos EX=--:

2

D,x=i"(X-Ex)'f,(X)dX= I(x_ a+b )'~(I-~Ix- a+b \)dX

" ).1:2 b a b a 2

['-a

- 2 2 I

=2 • t' -- (1---) dl=- (b-a)'.

b-a b-a 24

Los teoremas siguientes son utiles para el calculo de la varianza.

Teorema 3. Sea X una variable aleatoria continua con el valor esperado EX, la varianza D'X y la densidad de probabilidad IX' Entonces existe EX' y se curnple que

D'X= i>'fX(X)dX-(i>/,(X)dX )'=EX'-(EX)'. (9)

La demostraci6n de este teorema se realiza de forma analoga a la del teorema 3(4.3). (Forrnalmente se tiene que sustituir + por i~. x, por x Y p, por I'(x) dx.)

Teorema 4. Sea X una variable aleatoria continua con la varianza D'X y sean a .. O y b numeros reales cualesquiera. Entonces se cumple que

D'(aX +b) =a'D'X.

(10)

La demostraci6n del teorema 5(4.3) es valida para aqui tambien,

Por consiguiente, para una variable aleatoria continua X se cumplen tambien las relaciones

D,(-X)=D'X

(11) 79

y

Como en el caso de las variables aleatorias discretas, se utiliza tarnbien para las continuas X

el concepto centrar para el paso de X a X-EX, el de normar para el de X a

y el de estandarizar para el de X a

X-EX ~D2X,

Por ultimo queremos advertir que el valor espcrado y la varianza, como para el caso de las variables aleatorias discretas, son momentos especiales que caracterizaremos en 18 definici6n siguiente.

Definicion J. Se. X una variable aleatoria continua con 14 densidad de probabilidadfx• j un nil· mere natural y c un numtTo real. Entonees se lIaman

~,<c) ~E(X -c)j~ i~ (x-c)i[,(X) dx (lJ)

QJ(c)~Elx-cl j~ [Ix-cl i[,(x) dx

los momento! ordinaria y absoluto de orden j con respecto a c respcctivamente, supcniendcse 1. convergencia de Is integral situada a I, dereeha en (14). Para (=0 Ie habla de momentos iniciales y para c=EX de momento.! centrales (sc supone la cJListcncia de EX).

Las proposiciones sobre momentos dad.s a continuaeien de la definicion 3 (4.3), so cumplen tambi~n para variables aleatorias continuas. De iaual modo que para las variables aleatorias discretas, se definen para las continuas las caractertstices num~ricas derivadas de los momentos: coeficienle de veriacion. coejidt1Ue de asimetria'y ('~rtosi.s (ver 4.3, dermici6n 4).

'.

S.3 Distribuci6n continua uniforme

En este y en los siguientes eplarafes trataremos aIsunas distribuciones de probabilidad especiales de variables aleatorias continues.

Definicion 1. Una variabl~ aleatoria continua X se denomina distribuida uniformemente (sobre el intervalo [1I.b]. a<b), si la densidad de probabilidad Ix tiene la forma

{_l_ para II~ x~ b. b-a

I}..xl=

o para los demas,

Se dice tambien que X posee una distribuci6n uniforme (sobre el intervale [II, b]) 0 una distribuci6n rectangular (fig. 30).

80

(12)

(14)

(1)

I b-a

Fiaura 30

b

Q

x

Para la funci6n de distribuci6n Fx (fig. 31) se obtiene

{o para x..; II.

F,.(x) =P(X -c x) = I'f"(')d' = .!.:!_ para II"; x"; b.

__ b=a

I para x;;' b.

y

(2)

Y=F,. (xl

x

Fiaura 31

o

Para el valor esperado EX se obtiene

Ex=I- xf,.(X)dx=f2._ dx= a+b

_ • b=a 2

y para la varianza se tiene

(3)

I- 1< a+b)' I (b-a) ,

D'X= (x-EX)'f,.(x) dx= x--- -- dx=--·

_ • 2 b-a 12

(4)

Para una variable aleatoria continua existe una distribuci6n uniforme, si y solo si esta toma valores de subintervalos de igual longitud pertenecientes a su dominic de valores y que es a su vez un intervale, con igual probabilidad. En casos de aplicaci6n se acepta que una variable aleatoria est4 distribuida uniformemente, si esta -hablando sin mucha precisi6n- no prefiere ninguno de los subintervalos de igual longitud (de su dominic de valores).

5.4 Distribucion normal

La distribuci6n normal es una distribuci6n de variables aleatorias continuas, que se utiliza mucho en las aplicaciones del Calculo de probabilidades. Pero antes de referirnos a esto, queremos caracterizar la distribuci6n normal mediante la densidad de probabilidad correspondiente e investigarla detal1adamente.

81

Definici6n 1. Sea 11 un numero real y a un numero positive. Una variable aleatoria continua se denomina distribuida normalmente con los parametros 11 yo', si la densidad de probabilidad Ix tiene la forma

1 -¥,

I}x)=-- e , --<X<-.

~a

(1)

Se dice tambien que X posee una dislribucion normal con los parametros 11 Y 0" 0 una dislribucion N(1l, a') (fig. 32).

y

I

!fir,,'

x Figura 32

La dernostraci6n de que mediante (1) estA definida realmente una densidad de probabilidad, se basa fundamentalmente sobre la ecuaci6n

Para la densidad de probabilidad de una variable aleatoria distribuida normalmente con los parametros 11 Y a', se utiliza generalmente la notaci6n cp, donde la dependencia de 11 y a' queda expresada en la forma

(2)

La inlluencia de los par4metros 11 y c:r' sobre la situaci6n y la forma de la eurva dada per (2), se reconoce de 1a fl8ura 32; la curva es simetrica con respeeto a 1a recta x = Il, posee puntos de inflexi6n en 11- 0 Y 11 + c:r y tiene en x = 11 un maximo con el valor de la

funci6n __ 1 __ .

fiic:r

Para la funci6n de distribucion F x de una variable aleatoria X, distribuida normalmente con los parametres 11 y c:r', se cumple que

[~

1 - ''''

Fx(x) =-- e dt.

fiic:r -

(3)

La integracion de la funci6n que esta en (3) bajo el simbolo de integral no es realizable sobre un intervalo cerrado, pero se puede indicar con la exactitud requerida un valor aproximado de la integral anterior para todo x, con metodos apropiados de 1a matematica practica,

82

Para la funeion de distribuee de una uriable aleatoria distribuida normalmente con los parlimetros 1.1 yo'. se utiliza generalmente la notacion Go. donde de forma analoga a (2). I. dependeneia de 1.1 y 0' queda expresada en la forma

L Lx l!.:J!!!.

1 - 2cr'

Go(x; IL. 0') = ql(1;' IL. 0') dl=-- e dl.

- .,p;o --

(4)

EI teorerna siguiente pone de manifiesto la significacicn teorico-probabiltstica de los parametrcs 1.1 yo'.

I eorema 1. Sea:1 una variable aleatoria distribuida IlutIJmhlleJlte COil los paX8uletlos

1.1 yo'. Entonees se cumple que

EX=I.I. D'X=o'.

(5) (6)

X-I.I r -% _C

Demost r ac ion. Con 1=-0- y J __ e dl= V21t se obtiene que

I- 1- I- l!=.I!!!

1 - 2,,1

EX= X Ix (x)dx= xql(x; 1.1. 0') dx=-- x e dx

_ -_ ~ 0' --

I I- of. 1 1- of.

=-- te 'dl+1.I -- e 'dl=l.I .

.,p; -- ~ --

De esta expresion y con

f" e-%di= f e-%dl=.,p;

se obtiene que

D'X= C(X-EX)'lxfX)dX= ("(X-I.I)' ql(x; 1.1. 0') dx

..... ~-

I- ~

1 - leI

=-- (x-I.I)'e dx

.,p; 0 -

0" I- -.!!. =-- I' e 'dl=o'.

~ --

El teorema siauiente se refiere a momentas de orden superior de 18 distribu.d6n normal y a caracterfsticas num~ricas derivadas de los momentos.

Te or e ma 2. Soa X una variable aleatcria distribuida normalmenre con los parametres 1.1 y "'. Entone .. so cumple que

II,,+,(EX) =E(X -EX)"·' =0. 1f=1.2 .... , (7)

",,(EX) =E(X-EX)"=I . 3...(2k-·l) alt. k=I.2..... (8)

"

~ = - (cooficionlc de . "riaci6n).

1.1

yeO (coefieiente de us imetrfa); 11 =0 (curto.is).

dondo so supone ell (9) que 1.1 .. 0.

(9)

(10) (11)

83

El lector puede realizer independientemente la demostraci6n sencilla de estas formulas. Aii.adimos..

Que una variable aleatoria distribuida normalmente con los parametres ~ y Ol es simetrica con respecto a x = l.l Y aseguramos Que todos los momentos de orden impar referidos a ~. asi como el coeficiente de asimetria, son iguales a cera. La curtosis esta de fin ida. precisamente. de modo que esta caractertstica numerica sea igual a cere para el caso especial de la distribucion normal.

Trataremos ahora la distribuci6n N(O,I). Queremos denotar con ql la densidad de probabilidad de una variable aleatoria distribuida normalmente con los parametres 0 y I, Y con cJI, la funci6n de distribuci6n correspondiente. Se curnple (figs. 33 Y 34), por tanto, que

I" ql(x) ~<p(x; 0,1) ~-- e

..p;;

I IX .!!..

cJI(x) ~CJI (x; 0,1) ~-- e 'dt,

..p;; --

-Oo,<X<oo.

(12)

-00 <x<oo .

(13)

y 1 2"

-2

-I

Figura 33

-3

y

Figura 34

La funci6n cJI (y ademas ql) esta tabulada (ver tabla 3 (12.3»; a causa de ql(-x) ~<p(x), -00 <x< "',

cJI{-x)~l-cJl(x), -oo<x<""

(14) (15)

nos podemos Iimitar en este caso a argumentos x no negativos.

Calculemos ahora la probabilidad de que una variable aleatoria X distribuida normalmente con los parametres 0 Y I, tome valores entre -k y + k (k: numero natural). Se cumple que:

p(lxl<k) ~P(-k<X <k) ~cJI(k) -cJl( -k) =2cJ1(k)-1.

(16)

84

99.7%

- 2 -I 0

(~- 30) '" - 20) '" - 0) (P)

Figura 35

Aqul hemos utilizado (15) y p(X=c) =0 (X, variable aleatoria continua y c, numero real).

Para k=I,2,3 obtenemos, PO'r consiguiente, (ver tabla 3(12.3) y fig. 35).

P(iXi<l) =0,683=68,3%, P( X <2) =0,955 =95,5%, P( X <3) =0,997=99,7%.

(17) (18) (19)

La relaci6n (19) expresa que es practicamenle seguro. que una variable aleatoria distribuida normalmente con IO'S parametres ~=O y "'= 1 tome solo valores entre -3 y +3. Observe el lector que la probabilidad de que una variable aleatoria distribuida normalmente con IO'S parametres 0 y I tome valores de un intervale arbitrario dado, es positiva, perc que es practicamente imposible que una tal variable aleatoria tome valores de un intervale disjunto con [x : XE RI\-3<x<3}.

Mostraremos ahora como se pueden ealeular IO'S valores ~ (x; II, ,,') de la funei6n de distribuci6n de una variable aleatoria distribuida normalmente CO'n parametres cualesquiera ~ y "', sobre la base de los valores ~ (x) de la funci6n de distribuci6n ~ de una variable aleatoria distribuida normatmente con IO'S parametres ~=O y "'= 1.

Teorema 3. Para todo numero realx se cumpleque

I (X-II)

fl)(x; ~ ,,')=-; cp -0- ,

(20)

(X-II )

~ (x; ~, o')=~ -,,- .

(21)

Demostraci6n

1 -~ 1 -t('7-)'

fl)(x; ~ 0')=-- e =- '-- e

..[2it cr u..[2it

(X-~ )

cp --,

o

I.!.::J!.

o X-J.L

= _ fl)(u)du=~ (-0-)

8S

De aqui se obtiene facilmente la proposici6n siguiente:

Teorema 4. Si X posee una distribuei6n N(11. a'), entonees X-~ posee una distria

buci6n N(O,I).

Demostraei6n

(X-~ )

F'-=J!_(x)=P --<x =P(X<xa+~)

u a

=.(xa+~; 11, a')=. c= )=.(X).

(Observemos que en virtud de EX=11 Y D'X=a', la variable aleatoria X-~ posee a

siemnre .1 valor es perado cero y la varianza uno; la proposicion fundamental del teorema

4 consiste en que si X est:!. distribuida normalmente, entonces X - ~ tambien 10 esta.)

, a

Estas proposiciones permiten calcular de forma seneilla, utilizando una tabla para .,

la probabilidad de que una variable aleatoria X distribuida normalmente can los parametros ~ y a' tome un valor de un intervalo arbitrario. Se cumple que

(22)

En particular, obtenemos para un mlmero natural k eualquiera que

p(lx-lll<ko) =.(k) -.(-k) =2.(k) -I, (23)

(ver (16», de donde se obtiene para k=l,2,3, utilizando (17), (18) y (19)

p(IX -111<a) ... 0,683=68.3 %, (24)

p(IX -1l1<20) .. 0,955=95,5 %, (25)

p(IX-lllda) ... O,997=99,7%. (26)

Luego, es pr4cticamente seguro que una variable aleatoria distribuida normalmente con los par4metros l1'y G' tome solo valores entre 11-3a Y 11+3a, a sea, Que esten a una distancia del valor esperado Il menor que el triple de la desviaci6n estandar 0. Esta regia se llama regia 3 G (ver fig, 35).

Queremos tratar ahora la existencia de la distribuc;pn normal. Para muchas variables aleatorias que aparecen en planteamientos de problemas practices, se muestra (por ejemplo, sobre la base de los valores observados de la variable aleatoria considerada especialmente) que 1a distribuci6n de probabilidad se puede describir rnuy bien a traves de una distribuci6n normal. Una caracterlstica comun de estas variables aleatorias consiste freeuentemente, en que estas se obtienen mediante superposicicn aditiva de un numero elevado de efectos aleatorios, independientes unos de otros, teniendo cada uno una inftuencia insignificante sobre la variable aleatoria considerada, en eomparaci6n can la suma de los otros efectos. Posterionbente daremos la fundamentaci6n matematica de que tales variables aleatorias puedan concebirse, en buena aproximaei6n, distribuidas normalmente (ver 7.6). Aqul solo queremos informar que los errores de observaci6n en un proceso de medicien (por ejemplo, en mediciones de longitud) y las propiedades de un producto, en una fabricacicln en serie, que se pueden describir numericamente (por ejemplo, la resis-

86

tencia a la compresion de cubos de hormig6n 0 del contenido de botellas llenadas automaticamente] , se pueden concebir como variables aleatorias distribuidas normalmente.

Eje mp lo , En una cepilladora de metales se producen discos y se investiga su grosor

X. Sobre la base de las experiencias existentes, se supone que X esta distribuida normalmente y que para una determinada graduaci6n de la maquina posee el valor esperado EX=~=lO mm y la varianza D'X=,,'=(0,02 mm) '. Un disco tiene las medidas adecuadas y, por tanto, esta en condiciones de ser utilizado, si su grosor esta entre 9,97 y 10,05 mm. Calculemos la probabilidad de que un disco posea las medidas adecuadas; para ello utilizaremos (22), (15) y la tabla 3(12.3):

(10,05~10 ) (9,97~1O)

p(9,97<X<10,05)=11> --- ~11> ---

0,02 0,02

=11>(2,5) ~Il>( ~1,5) =1l>(2,5) +1l>(1,5) ~ I ~0,927.

Considerando los limites de tolerancia dados y la simetria de la distribuci6n normal, es evidentemente mas conveniente elegir una graduaci6n de la maquina con ~=IO,l mm. Para una varianza fija "'=(0,02 mm)' se obtiene el valor 0,955 para la probabilidad buscada, 10 que puede confirmar directamente el lector con (25).

Queremos ccncluir nuestras consideraciones sobre la distribucion normal con algunas observaciones aeerea de la historia de esta distribuci6n tan nombrada y utilizada hoy en dia. Se puede lomar como fecha de nacimiento de 1'1 distribuci6n norma) el 12 de noviembre de 1733; esc dla se publico un pequenc eserito de A. De Mcivre (1661-1754. maternatico relevante Que fue desterrado de Francia y que en Lcndres se ocupo en dar indicaciones a los jugadores de azer) . en el cual la distribucion normal, inc1uyendo su ecuaci6n de definicion. se deduda como distribuci6n limite de 18 distribuci6n binomial. Las aplicacicnes practicas se cbtuvieron solo mediante las investigaciones astron6micas intensivas de P.S. Laplace (1149·1827. en 1812 apareci6 su gran obra sobre el Calculo de probabilidades) y C.F. Gauss (1777·1855) dentro de la teoria de los errores de observacion, con 10 cualla distribucicn normal fue redescubierta. Por esto. en 105 paises de habla germana se designa la gn\fica de la densidad de probabilidad de 18 distribucicn normal como curva de 1a campana de Gauss, La Hamada integral del error de Gauss

2 I '

G(x) =- e-' d.

{.;o

se relaciona can la funcion de distrfbucicn cz, de la distribucien N(O,I) G(x) =24>(x.,f2i -1.

4>(x) = _:_ + _:_ G (_:_)

2 2 V2

(27)

mediante las ecuaciones

(28)

A la divulgacion de la distribucion normal contribuy6 decisivamente el cientffico belga A, Quetelet (1796-1874), quien fue activo en numerosos campos, y se considers como descubridor de la distribution normal para la Biometda y de quien provino tambien el nombre de diunbucion normal. Esta denominecien die motivo a todo tipo de interpretaciones erroneas. Uno de los meritos de K. Pearson (1857· 1936. quien se ocupc adem's intensivamente de la historia de la di, ibuci6n normal), es haber comprobado que en la naturaleza existen variables aleatorias que no est4r +istribuidas normalmente y que esto no es algo anormal.

5,5 Distribucion exponencial

La distribuci6n exponencial es una distribuci6n de variables aleatorias continuas, que se presenta en casos de aplicaci6n, en particular, en la descripcion de tiempos y de diferen-

87

cias de tiempo dependicntes de la casualidad. Desde el punto de vista matematico. la distribucion exponencial sc caracteriza POT ser muy facil de manejar.

Definicion 1. Sea 11 un nurnero positive. Una variable aleatoria continua X se denomina distribuida exponencialmente con eJ parametro 11. si la den sid ad de probabilidad t, tiene la forma

para x,,; o. para x>O.

Se dice tambitn que X posee una distribucion exponencial con el parametro II (fig. 36). (El lector debe reflexionar si mediante (1) esta definida realmente una distribucion de

probabilidad, es decir, si se cumple en particular que f>, (x)dx= I).

Figura 36

Para la funci6n de distribuci6n F, de una variable aleatoria X distribuida exponencialmente con el parametro 11 (fig. 37). se cumple que

Fj_x) =f' fj.t)dl= {O para x,,; o,

__ 1-..-" para x;. O. (2)

r;:;l~(x).a=2

(I)

Figura 37

x

Ahora damos el valor esperado y la varianza de una variable aleatoria distribuida exponencialmente con el pararnetro 11>0 donde se muestra tambitn 10 significacicn te6rieo probabilistica del parametro 11.

Teorema 1. Sea X una variable aleatoria distribuida exponeneialmente con el parametro II >0. Entonces se cumnle que

EX= 2_.

II

D'X=( ~ )'.

88

(3)

(4)

Demo st r ac io n, S610 demoslraremos (3); la demostracion de (4) se desarrolla de forma similar. Se curnple que

r:ae-"' dx= -xe-~I' +I~··· dx

)o.x " 0

= -b e oJ, e-oh+ 2._.

a a

EX=[X /'/"X)dx=I;ae-u dx=lim

.--

-_ 0

b •

Ixae-u dx= _!_.

o a

Si X, y X, estan distrjbuidas exponencialmenle con los parametres a, y n" respectivamente, entonces se cumplen en caso de que a, < a, las inecuaciones EX, > EX, y D'X, > D'X,. Estas proposiciones ~oinciden bien con la idea de la distribucien expcnencial, que se logra con la figura 36.

Ejemplo. Calculemos la probabilidad de que una variable aleatoria X. distribuida exponencialmente con el parametro a >0, tome un valor que sea menor que el valor esperado. Con (3) y (2) se obtiene que

p(X<EX)=P (x<+ )=Fx( + ) =1--e-"~=I-e-I=O,63.

Esta probabilidad es, por consiguiente, independiente de n y es mayor que 0,5.

Para concluir, queremos nombrar algunas variables aleatorias que se presentan en casos de aplicacion, cuya distribuci6n de probabilidad se describe frecuentemente mediante una distribuci6n exponencial: duraci6n de llamadas telefonicas, diferencia de tiempo entre la ocurrencia de interrupciones en un parque de maquinas 0, mas general, entre el encuentro de clientes en una instalacion de servicios, tiempo de vida de elementos de contacto, asl como de seres vivientes, etc. Aqul se hara, de modo conveniente, el parametro a igual al inverse de la media aritmetica de los valores observados de 1a variable a1eatoria considerada en cada ocasi6n (ver (3) y 4.3, observaci6n antes del teorema I).

5.6 Distribuci6n Xl, t Y F

En este epigrafe presentaremos otras distribuciones de probabilidad de variables a1eatorias continuas, que desempei\an una funci6n en la estadlstica matematica y que en esta relaci6n se denominan distribuciones de prueba; se trata de las distribuciones X', t y F. Aqul caracterizaremos en cada ocasi6n la distribuci6n por medio de la densidad de probabilidad e indicaremos el valor esperado y la varianza. Renunciaremos 8 las demostraciones; el lector interesado las encontrara en otra bibliografla.

Para la realizaci6n practica de procedimientos estadisticos frecuentemente se necesita para un valor p dado (0 <p < 1) un valor x, de 18 variable aleatoria X correspondiente,

89

para el cual la probabilidad de que X tome valores mayores que x, sea igual a I-p (P(X>x,) =1-p). Tales valores se denominan percentiles de orden p, cuya caracterizacion exacta, utilizando la funcion de distribucion F X' es el objeto de la definicion siguiente.

Definicion 1. Sea X una variable aleatoria continua (densidad de probabilidad IX' funcion de distribucion F x) y p un numero situado entre cero y U '0. Entonces un mimero x, se llama percentil de orden p, si se cumple que (fig. 38)

Fj..9=p·

Un percentil de orden p = _!_ se llama mediana . • 2

Figura l8

Para las distribuciones de prueba que se tratan a continuacion, en el capitulo 12 se dan algunos percentiles.

5.6.1 Distribucion z!

Definici6n 2. Sea m un numero natural. Una variable aleatoria continua X se denomina dislribuida x' con m grades de libertad, si la densidad de probabilidad Ix tiene la forma

para x"; 0,

para x>O.

Se dice tambien que X posee una dislribucion X' con m grados de libenad (fig. 39). Denotarnos el percentil de orden p de la distribucion X' coil m grades de libertad con X'm".

En (2) r es la lIarnada funcion gamma completa definida por

r(z) =[,,-, e=dt, z>O. (3)

~t __ . O'I~

o 2 4 6 8 10 12 14 x

Figura 39

90

(2)

La funcion samma se debe a L. Euler (1707-1783), .1 matemauco mas productive .• 1 menos del sis10 XVIII. Aunque Euler perdi6 la vista de un ojo en 1735 y en 1766 qued6 completamente ciego. escribi6 en total 886 manuscritos. entre ios cuales se encuentra un mi.mero asombroso de libros de texto,

Para nuestros intereses es suficiente conocer las proposiciones siguientes sobre la funci6n gamma. Se cumple que

f(z) =(z-l)r(z-I), para z » I.

(4)

(5)

de donde se obtiene en particular que

f(m) =(m-I)!, para m~ I, mE IN.

(6)

EI teorema siguiente trata sobre el valor esperado y la varianza de la distribuci6n )(' con m grados de libertad; aqul se aelara tambien la influencia de m.

Teorema I. Si X posee una distribuci6n )(' con m grades de libertad, entonees se cumpie que

EX=m, D'X=:2m.

(7) (8)

Advertimos aun que la distribuei6n )(' eon m =:2 grades de libertad es una distribuei6n exponencial con el parametro (l=: 2_ (ver 5.5).

2

La distribuci6n )(' esta en estrecha relaci6n con la distribuei6n normal. Para mostrarlo demostraremos la siguiente proposici6n especial.

Teorerna 2. Sea X una variable aleatoria con una distribuci6n N(O, I). Entonees la variable aleatoria Y =:X' posee una distribuei6n )(' con un grade de libertad,

De mo st r ac idn , S. cumple (ver 5.1, teorema 2, proposicion 2) que

para x 0;; 0,

para x>O.

"

1 --

Con IX<I) =~I) = -- e 'y ~ -I) =~I) se obtiene de de .qul

V2n

para xo;; O.

para x>O.

con 10 cual est' demostrada la proposicion del teorema,

91

La distribucien Xl rue descubierta en 1816 par R. Helmert (como distribud6n de la suma de cuadrados de variables aleatorias independientes con distribuci6n N(O.l)} y vuelta a hallar en 1900 por K. Pearson, fundador en Inglaterra de una escuela de Estadistica matematica de altos rendimientos: por eso esta distrihllci6n se denornina de Heimerl 0 de Helmert-Pearson.

5.6.2 Distribuci6n t

Definici6n 3. Sea m un numero natural. Una variable aleatoria continua X se denomina distribuida t con '" grados de libertad, si la densidad de probabilidad II" tiene la forma

Ix(x)

r (,";1 )

-00 <x<oo,

(Xl )m;l .

1+m

Se dice tambien que X posee una distribucion t con m grados de libertad (fig. 40). Denotamos el percentil de orden p de la distribuci6n t con m grados de Iibertad con t mp'

y 0.4

Figura 40

En (9), r es de nuevo el slmbolo para la funci6n gamma completa. Observemos que la densidad de 1a distribuci6n t con In grados de libertad es una funci6n par (f,.i.-x) =/l(x), para todo x E R), cuya representacicn grafica no se diferencia sustancialrnente de la cu rva de la campana de Gauss para m grande (ver fig. 33).

Para," = 1 obtenemos especialmente (fl3. 40) la funci6n de densidad fl'

1 1

f,.i.x)=-· --. -~ <X<~l 1t l+x'

la distribuci6n de probabilidad determinada por ella se denomina tambien. en honor de A.L. Cauchy (1789-1857), distribucion de Cauchy.

El teorema siguiente se refiere al valor esperado y la varianza de la distribucion t con m grados de libertad.

Teorema 3. Si X posee una distribuci6n t con m grades de 1ibertad,entonces se cumpie que

EX=O, m;;. 2,

D2X=....!!!._. m;;' 3. m-2

92

(9)

(10)

(11)

(12)

Aiiadimos que una variable aleatoria que tenga una distribuci6n I con m grades de libertad posee solo mementos de orden k!f; m ~ 1. Por tanto, la distribuci6n de Cauchy no posee. en particular. ningun valor esper ado.

La distribuci6n I fue de scubiert a e investigada (1908) por W.S. Gosset (1876·1937). quien publicaba bajo el seudonirnc Student: por est a raz6n se encuentra tambien la dist ribucion r con el nombre de distribucion de Student.

5.6.3 Distribuci6n F

DefiAieioA 4.S~an "', :' "', A\im~rlls naturales, UAa ,ariaale alealeria ellllliA"a X se

denomina distnbuida F con (ml'm,) grades de libertad. si la densidad de probabilidad I, tiene la forma

I,(x) =

r (~' ) r (~' )

7' x

para x >0.

(13)

o

para x s; o.

Se dice tambien que X posee una disiribucion F con (m,. m,) grades de libertad (fig. 41). Denotamos el percentil de orden p de la distribuci6n F con (ml' m,) grados de libertad

F"",I?I,.p'

("'1""- 10. m., ""- 50)

Figura 41

Teorema 4. Si X posee una distribuci6n F con (m,. m,) grados de libertad. entonces se cumple que

EX=~. m,-2

2mi (m,+m,-2) --'--'--'--'--'--'-- .• (m,;;> 5). m,(m,-2)' (m,-4)

(m,;;> 3).

(14)

D'X

(15)

Observernos que el valor esperado no depende de m, y que EX=I para m, »1. Ademas. ailadimos que para m,';; 2 no existe valor esperado y para m, s; 4 no existe varianza.

La distribuci6n F se debe a R. A. Fisher (1890-1962), uno de 105 representantes mas conocidos de la Estadfstica maternatica en lnglaterra. quien ademas trabaio en el campo de la teoria de la informaci6n matematica.

93

6. Vectores aleatorios

Los vectores aleatorios son aquellos cuyas componentes son variables aleatorias. Estos se utilizan para representar, desde un punto de vista matematico, algunas caracterlsticas que se pueden describir numericamente en un fen6meno aleatorio. Asi, por ejemplo, la Iongitud, ancho y altura de una pieza de trabajo en forma de cubo, producida automaticamente, y la talla y peso de un hombre, se pueden describir por medio de un vector aleatorio.

Despues de la definicion general y la caracterizacion teorico-probabilistica de un vector aleatorio (epfgrafe 6.1), trataremos en el epigrafe 6.2 los lIamados vectores aleatorios discretos 10 cual realizaremos apoyandonos en el tratamiento de las variables aleatorias discretas (ver 4.2 y 4.3), y en el ep!grafe 6.3 nos ocuparemos de los denominados vectores aleatorios contilluos, para 10 cual partiremos de los estudios sobre variables aleatorias continuas (ver 5.1 y 5.2).

laci6n entre las componentes de un vector aleatorio, son de especial interes; estudiaremos, en particular, los lIamados coeficientes de correlacion para la dependencia lineal entre dos variables aleatorias. En el eplgrafe 6.4 trataremos el concepto independencia de variables aleatorias, que constitutuye un concepto central de toda la teorla de probabilidades. Aqul tambien deduciremos consecuencias de la independencia, que resultan muy utiles para el trabajo practice con variables aleatorias independientes. Por ultimo, se realiza en el ep!grafe 6.5 la caracterizacion de la distribucion de probabilidad para la suma, diferencia, producto V cociente de dos variables aleatorias continuas independientes; los teoremas sei\alados aqui se necesitaran especialmente en la parte correspondiente a la Esladistica matematica.

6.1 Definicion general de vector aleatoric

Realizaremos la exposieion de este eplgrafe de forma amUoga a como 10 hicimos en el epigrafe 4.1; en caso necesario el lector puede orientarse otra vez por all!.

94

Definici6n I. Sea [u,A,p1 un espacio de probabilidad y sean X" X" ... , X. (11;< 2) variables aleatorias (sobre [n.A. plJ. Entonces, el n-uplo (X" X" ... , X,) se llama vector aleatorio (a-dimensional sobre [n, A, p1).

Nos dedicaremos a continuaci6n a la caracterizacion de la distribuci6n de probabilidad de un vector aleatoric. Para ello, sean xI' X,,. .. , x, numeros reales cualesquiera. Como las X, son variables aleator ias, se cumple que (X, <x,) EA (k = 1,2 .... , II) .: A es una (T -al-

gebra, de modo que se cumple en particular la relacion n (X,<x,) EA. En virtud de

.. ~ t

{OJ EU:X,(OJ) <x,}= n (mEn:X,(rll) <x,l

>:=-1

resulta que (mEU:X,(m) <xl"'" X/m) <x,l EA.

Si denotamos abreviadamente el subconjunto {UlEU:X,(Ul) -c x., . ., X,(m) < xJ de 11 por

(X, <X, , , X.<x.), entonces es razonable hablar de la probabilidad del suceso aleatorio

(X, <x, X. <x,); para esta probabilidad escribiremos de forma abreviada

X -c x ,. .. ,X -c x

(1)

Definicion 2. Sea [n.A,p] un espacio de probabilidad y (X"X" ... , X,) un vector aleatorio. La funcion F. I, I.' x" definida par

F'XI"I '" (x"x""" x,) =P(X, <x,, X,<x" .. ., X.<x,)

(X,E R. k=I,2 ..... n), -

se denomina JUllci611 de distribucion del vector aleatorio (X" X, •... , X.) 0 funcion de distribucion conjunta de las variables aleatorias X" X" ... , X •.

.\

Figura 42

La funci6n de distribuci6n de un vector aleatorio n-dirnensicnal es, par tanto. una funcion real de n variables reales. Por media de la funcion de distribuci6n de un vector aleatorio se pueden expresar las probabilidades de casi todos los sucesos aleatorios que estan en relacion can este. As], por ejemplo. se cumple en el caso 11=2 (fig. 42)

p(a';; X «b.c« Y <d) =F",.n(b.d) -F"n(b.c) -F,xn(a.d) +F"n(a.c). (2)

En e1 teorema siguiente resumiremos las propiedades de la funci6n de distribucion de un vector aleatorio.

95

[g(X"X" ... , x.)l(oo) =s (X,(oo), x, (00), ... , X.(oo» es una variable aleatoria (sobre [n, A, Pl>.

(3)

Teorema 1. Sea F la funci6n de digtrihuci6n de un vecto:r ... Je:do .... :i.o .... _d_;_n.,..,._n_g ... "".n""J.

Entonces se cumple:

1. Para todo x.eR (k=1,2, ... , 11) es 0.;; F (x"x" ... , x.)';; 1.

2. F es mon6tona creciente en toda variable x~

3. F es continua por la izquierda en toda variable x •.

4. lim F(x" x" ... , x.> =O(k=l, 2, ... , 1I),lim F(x" x" ... , x.) =1.

"k-~- .111-+"

x,,_+_

La demostraci6n se desarrolla de acuerdo con la del teorema 1(4.1); la dejamos al lector.

Como muestra el ejemplo siguiente, las proposiciones sei\aladas en el teorema 1 no son suficjentes para que una funcion F, con estas propiedades, sea la funcien de distribucion de un vector aleatorio.

Eje mp lo . Consideremos I. funci6n dada por

{ 0 para x+yo; 0, F(x.y) =

I para x+y>O.

Evidentemente F posee todas las propiedades seftaladas en el teorema 1. Perc se cumple que

F(I,I) -F(l.O) -F(O, I) +F(O.O) =1-1-1 +0= -I:

luego en virtud de (2). F no puede ser la funci6n de distribucion de un vector aleatorio de dimension "=2.

El lector interesado puede informarse sobre las condiciones suplementarias que aseguran que una funci6n de varias variables sea funci6n de distribuci6n de un vector aleatorio.

En los capitulos correspondientes a la Estadistica matematica trataremos en muchas ocasiones funciones de un vector aleatorio (X,.X" ...• X,), por ejemplo, las funciones g(X"X, •...• XJ =X,+X,+ ... +X. y g(X" X" ...• X.) =p'+Xj+ ... +X;. Ya que nos interesaremos, en particular, por la distribuci6n de probabilidad de estas funciones, es importante conocer una c1ase de funciones g 10 suficientemente grande para la cual la funci6n

l' 2"'" 1

una variable aeleatoria, 0 sea. posea una distribucion de probabilidad. Para ello damos

el siguiente teorema sin demostraci6n:

Teorema2. Sea [H. A, pl un espacio de probabilidad, (X"X" ... , X,) un vector aleatorio II-dimensional (sobre [n.A.ph y g. una funci6n real continua definida sobre el conjunto de todos los 1I-uplos de numeros reales. Entonces la funci6n g(X"X" ... , X.) definida sobre n por

En especial. para las funciones g dadas por

g(xl'x, •... , x.) =x, +x,+ +x.,

g(xl'x2'· ... XII) =x~+x~+ -+ x;.

o

las funciones g(X,.X, ..... X.) definidas sobre U son variables aleatorias.

96

(2)

A continuaci6n nos limitaremos al caso n =2: por 10 tanto. trataremos los vectores aleatorios bidimensionales (X, Y). Muchas veces es de interes, por ejemplo, la distribuci6n de probabilidad de la variable aleatoria X en el marco del vector aleatorio (X, Y). Se curnple (ver 2.4. teorema I) que

F,(x) =p(X -cx) =P(X <x. Y < ee ]

=Iim P(X <x, Y <y) =Iim F ... n(x,y).

y-- y-- .

Definici6n 2. La funci6n de distribuci6n Fx dada por F,(x) = !~ F,xn(x,y)

(4)

se llama funcion de distribucion marginal de X, de la distribuci6n conjunta de X y Y: la distribucion de probabilidad caracterizada se llama distribuci6n marginal de X de la distribuci6n conjunta de X y Y. (Una definici6n correspondiente existe para la funci6n de distribuci6n marginal F r de y, de la distribucion conjunta de X'Y Y.)

Concluiremos este epigrafe con la observacion, de que para un vector aleatorio n-di-

mensional sc pueden considerar evidentemente ( : ) distribuciones marginales de veetores aleatorios k-dimensionales (k = 1.2 .... , n-I).

6.2 Vectores aleatorios discretos

Definici6n I. Un vector aleatorio se llama discreto. si puede tomar un numero finito

o infinito numerable de valores.

En las explicaciones posteriores nos limitaremos al caso de un vector aleatorio bidimensional.

Desde el punto de vista del Calculo de probabilidades, podemos considerar un vector

aleatorio bidimensional (X. Y) como dado. si estan dados a su vez todos los valores (x, y,) del vector aleatorio y las probabilidades particulates correspondientes

p"=p{X=X,, Y=y,),

(1)

con las cuales el vector aleatorio (X, y) toma estos valores. Por ello, se puede caracterizar tambien un vector aleatorio bidimensional (X, Y) por la Hamada tabla de distribuci6n.

PH p"

Pil Pll

PI! p"

P" p,.

~ _~~ ._~~ :'

--------------t--------

.---------------------------------------t----

p,

p.,=l

(Aclararemos mas tarde el significado de p , Y Pi')

97

Para las probabilidades p" se curnple que p,,~ 0, ! p,,=l.

"

(3)

Los valores de la funcion de distribucion (Fr,,,) se obtienen de las probabilidades P" segun

F,xn(x,y)=P(X<x,Y<y)= ~ p(X=x,.Y=y,)=

I.li<t k.Yk<}

P",

(4)

extendiendose la sumatoria sabre todos los i y k para los cuales se cumple que x, < x y Y,<y,

Ahara queremos caracterizar las distribuciones marginales de un vector aleatorio discrete (X. Y), La distribucion marginal de X puna distribucion discreta: l' toma los valores x, can las probabilidades

P,,= ~ P,,= ~ P(X=x,. Y=y,).

, ,

(5)

De igual forma la distribucion marginal de Yes una distribucion discreta; Y toma los valares V" con las probabj]jdades

P,= ! P,,= ! P(X=x,. Y=y,).

(6)

En la tabla de distribuci6n (2) hemos registrado en la ultima columna los nurneros P, Y p,. en la ultima fila los que caracterizan las distribuciones marginales de X y Y.

Seguidarnente nos referiremos a algunas caracterfsticas numericas para vectores aleatorios discretos bidimensionales (X. Y). Junto al valor esperado y la varianza de las variables aleatorias X y y, en caso de que existan, nos interesa, en especial, una medida para expresar la dependencia mutua de las variables aleatorias X y Y. Trataremos la llamada covarianza y, sabre esta base. el denominado coeficiente de correlacion, Pero primeramente anotaremos una formula para el calculo del valor esperado de una funci6n de un vector aleatoric discrete. de donde se obtienen formulas para el valor esperado y la varianza de una suma de variables aleatorias.

Teorema 1. Sea (X. Y) un vector aleatorio discreto, que torna los valores (x,. y,) con las probabilidades p", y g. una funcion real continua definida sabre el conjunto de todos

los pares de numeros reales. Si la serie ~ g(x,.Y,,) converge absolutamente (0 sea, si ~ Ig(x,. V,) Ip" < =), en lances se cumpI~'

"

Eg(X, Y) = ! g(x,.yJp" (7)

,k

(ver 4.3, teorerna 2).

Renunciaremos a la exposicion de la dernostracion de este teorema, Para g(x. ,v) =X y g(x, y) = Y obtenemos especialmente

(8)

98

es decir, los valores esperados de las variables aleatorias X y Y respectivamente, en el marco de la distribuci6n conjunta de X y Y. siempre y cuando las series indicadas en (8) converjan absolutamente.

Bajo una condici6n correspondienle se obtiene para g(x.y) =(x-EX), y g(x.y) =(_v-EY) '. la varianza de las variables aleatorias X y Y respectivamente, en el marco de la distribuci6n conjunta de X y Y.

D'X= ~ (x.-EX)'p. y D'Y= ~ (Y,-Ey)'p.,. k

Trataremos el case g (x.v) =x+y.

Teorema 2. Sea (X. Yl un vector aleatorio discreto. Entonces se cumple que

E(X+ Y) =EX+EY,

suponiendose la existencia de los valores esperados seilalados en el miembro derecho de (10) .

Demostraci6n. La funcion dada por g(x,y) =X+Y satisface todas las condiciones nombradas en el teorema 1. Por consiguiente, se cumple (7) y con esto

(9)

(10)

•. k

do'

E(X+ y) =

.k

~ x», + ! y,p,,=EX+EY. ,

La validez de la proposici6n siguierue se obtiene directamente de aqui con el principio de induccion cornpleta.

Co r o l a r io 1. Sean X" X, ..... X. variables aleatorias discretas con los valores esperados EX" EX, .... , EX •. Entonces se cumple que

£(X,+X,+ ... +X.) = EX, +EX,+ ... +EX •.

Observemos que para el calculo del valor esperado de una suma de variables aleatorias discretas, no se necesita su distribuci6n conjunta: para ello es suficiente el conocimiento de las distribuciones de probabilidad de cada una de las variables aleatorias. Para la varianza esto se comporta de otra forma.

Teorema 3. Sea (X,y) un vector aleatorio discreto. Entonces se curnple que

D'(X+y)=D'X+D'Y+2(EXY-(EX) (Ey),

suponiendose la existencia de los sumandos en el miembro derecho de (12).

Demostraci6n. Utilizando D'Z=EZ'-(EZ), (ver 4.3, teorema 3) y el corolario I, obtenemos

D,(X + Y) =E(X + Y) '-(E(X + Y)' =E(X'+2XY + Y') -(EX +Ey)'

=EX'+2EXY +EY'-(EX)'-2(EX)(EY) -(Ey)' =D'X +D'Y +7(EXY -(EX) (E Y) ).

(11)

(12)

99

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->