P. 1
Apuntes_maestro

Apuntes_maestro

|Views: 25.737|Likes:
Publicado pord-fbuser-47597128

More info:

Published by: d-fbuser-47597128 on Apr 17, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/08/2014

pdf

text

original

Sections

  • Tema 1. Fenómenos aleatorios
  • CAPÍTULO I:
  • Fenómenos Aleatorios
  • I.1.- FENÓMENO ALEATORIO. CONCEPTO
  • I.1.1.- Impredecibilidad de los resultados
  • I.1.2.- Repetitividad del fenómeno. Enfoques clásico y bayesiano
  • I.1.3.- Definición de fenómeno aleatorio
  • I.1.4. - Regularidad Estadística
  • I.2. - LA ESTADÍSTICA
  • Tema 2. Conceptos de probabilidad
  • CAPÍTULO II:
  • Concepto de Probabilidad
  • II.1.- INTRODUCCIÓN
  • II.2.- PROBABILIDAD
  • II.2.1.- Probabilidad frecuencialista
  • II.2.2.- Probabilidad objetiva o lógica
  • II.2.3.- Probabilidad subjetiva o bayesiana
  • II.3.- ESPACIOS DE PROBABILIDADES
  • II.3.1.- Espacio Muestral
  • II.3.2.- Definición axiomática de probabilidad
  • II.3.3.- Definición de Espacio de Probabilidades
  • II.4.- PROBABILIZACIÓN DE ESPACIOS MUESTRALES
  • II.4.1.- Espacios Muestrales finitos
  • II.4.2.- Espacios Muestrales infinitos numerables
  • II.4.3.- Espacios Muestrales de la potencia del continuo
  • Tema 3. Probabilidad condicional
  • CAPITULO III
  • Probabilidad Condicional
  • III.1.- INTRODUCCION
  • III.2.- PROBABILIDAD CONDICIONAL
  • III.2.1.- Definición
  • III.2.2.- Propiedades
  • III.3. - TEOREMA DE LA INTERSECCION
  • III.4.- TEOREMA DE LA PARTICIÓN O DE LA PROBABILIDAD TOTAL
  • III.5.- SUCESOS INDEPENDIENTES
  • III.5.1. - Definición
  • III.5.2. - Propiedades
  • III.6. - TEOREMA DE BAYES
  • Tema 4. Variables aleatorias
  • CAPÍTULO IV:
  • Variables Aleatorias Unidimensionales
  • IV.1.- CONCEPTO DE VARIABLE ALEATORIA UNIDIMENSIONAL
  • IV.1.1.-Definición de variable aleatoria unidimensional
  • IV.1.2.- Función de distribución
  • IV.1.3.- Analogía mecánica
  • IV.1.4.- Variables discretas
  • IV.1.5.- Variables continuas
  • IV.2. FUNCIONES DE VARIABLES ALEATORIAS
  • IV.3.- ESPERANZA MATEMÁTICA
  • IV.3.1.- Introducción
  • IV.3.2.- Concepto
  • IV.3.3.- Propiedades
  • IV.4.- MOMENTOS
  • IV.4.1.- Concepto
  • IV.4.2.- Propiedades
  • IV.5.- VARIANZA
  • IV.5.1.- Concepto
  • IV.5.2.- Propiedades
  • IV.6.- TEOREMA DE TCHEBYCHEFF
  • IV.7.- PARÁMETROS DE UNA DISTRIBUCIÓN
  • IV.7.1.- Parámetros de posición
  • IV.7.2.- Parámetros de dispersión
  • IV.7.3.- Parámetros de asimetría
  • IV.7.4.- Parámetros de apuntamiento
  • Tema 5.Variables aleatorias discretas
  • CAPITULO V:
  • Principales Distribuciones Discretas
  • V.1.- VARIABLE DICOTÓMICA
  • V.1.1.- Definición
  • V.1.2.- Valor medio
  • V.1.3.- Varianza
  • V.2.- VARIABLE BINOMIAL
  • V.2.1.- Definición
  • V.2.2.- Ley de probabilidades
  • V.2.3.- Media
  • V.2.4.- Varianza
  • V.2.5.- Adición
  • V.3.- TEOREMA DE BERNOUILLI
  • V.4.- DISTRIBUCION DE POISSON
  • V.4.1.- Definición
  • V.4.2.- Ley de probabilidades
  • V.4.3.- Media
  • V.4.4.- Varianza
  • V.4.5.- Adición
  • V.5.- VARIABLE HIPERGEOMÉTRICA
  • V.5.1.- Definición
  • V.5.2.- Ley de probabilidades
  • V.5.3.- Convergencia
  • V.6.- VARIABLE BINOMIAL NEGATIVA
  • V.6.1.- Definición
  • V.6.2.- Ley de probabilidades
  • V.6.3.- Media y Varianza
  • V.7.- VARIABLE K-ARIA
  • V.7.1.- Definición
  • V.7.2.- Vector de medias y Matriz de varianzas-covarianzas
  • V.8.- VARIABLE MULTINOMIAL
  • V.8.1.- Definición
  • V.8.2.- Ley de probabilidades
  • V.8.3.- Vector de medias y Matriz de varianzas-covarianzas
  • Tema 6. Variables aleatorias continuas unidimensionales
  • CAPITULO VI:
  • Principales distribuciones continuas
  • VI.1.- INTRODUCCION
  • VI.2.- VARIABLE NORMAL TIPIFICADA
  • VI.2.1.- Definición
  • VI.2.2.- Representación gráfica de fZ(z)
  • VI.2.3.- Media y Varianza
  • VI.2.5.- Manejo de tablas
  • VI.2.6.- Nomenclatura
  • VI.3.- DISTRIBUCION NORMAL GENERAL
  • VI.3.1.- Definición
  • VI.3.2.- Función de densidad
  • VI.3.3.- Adición
  • VI.3.5.- Manejo de tablas
  • VI.4.- TEOREMA CENTRAL DEL LIMITE
  • VI.4.1.- Teorema de Lindenberg-Levy
  • VI.5.- APROXIMACIONES DE VARIABLES ALEATORIAS
  • VI.6.- OTRAS VARIABLES CONTINUAS
  • VI.6.1.- Distribución Uniforme
  • VI.6.2.- Distribución Exponencial
  • VI.7.- DISTRIBUCIONES DERIVADAS DE LA NORMAL
  • VI.7.1.- Variable Chi-Cuadrado de Pearson
  • VI.7.2.- Distribucion F de Snedecor
  • VI.7.3.- Variable t de Student
  • Tema 7. Variables aleatorias bidimensionales
  • CAPITULO VII:
  • Variables Aleatorias Bidimensionales
  • VII.1.- DEFINICIÓN
  • VII.2.- FUNCIÓN DE DISTRIBUCIÓN
  • VII.2.1.- Definición
  • VII.2.2.- Propiedades
  • VII.3.- VARIABLES ALEATORIAS BIDIMENSIONALES DISCRETAS Y CONTINUAS
  • VII.4.- DISTRIBUCIONES MARGINALES
  • VII.5.- DISTRIBUCIONES CONDICIONALES
  • VII.5.1. Definición
  • VII.5.2.- Función de distribución condicional
  • VII.5.2.- Función de densidad y ley de probabilidades condicionales
  • VII.5.3. -Teorema de Bayes
  • VII.6.- VARIABLES INDEPENDIENTES
  • VII.7.- MOMENTOS
  • VII.8.2.- Propiedades
  • VII.9.2.- Propiedades
  • VII.10.- REGRESIÓN
  • VII.10.1.- Regresión condicional
  • VII.10.2.- Regresión lineal mínimo cuadrática
  • VII.11.- VARIABLES ALEATORIAS n-DIMENSIONALES
  • Variable Aleatoria Normal
  • Bidimensional
  • VII.1.1.- Variable normal bidimensional tipificada
  • VII.1.2.- Variable normal bidimensional general
  • VII.2.- VECTOR DE VALORES MEDIOS
  • VII.3.2.- Propiedades
  • VII.4.- COEFICIENTE DE CORRELACIÓN
  • VII.4.1.- Definición
  • VII.4.2.- Propiedades
  • VII.5.- INDEPENDENCIA DE VARIABLES ALEATORIAS
  • VII.6.- DISTRIBUCIÓN MARGINAL
  • VII.7.- DISTRIBUCIÓN CONDICIONAL
  • Tema 8. Muestreo
  • CAPITULO VIII:
  • Distribuciones en el Muestreo
  • VIII.1.- INTRODUCCIÓN
  • VIII.2.- POBLACIÓN, MUESTREO Y MUESTRA
  • VIII.3.- ESTADÍSTICOS
  • VIII.4.- DISTRIBUCIONES EN EL MUESTREO
  • VIII.4.1.- Distribución de la media muestral
  • VIII.4.2.- Distribución de la varianza muestral
  • VIII.4.3.- Distribución de la proporción muestral
  • VIII.5.- MUESTREO EN POBLACIONES NORMALES
  • VIII.5.1.- Distribución de la media muestral
  • VIII.5.2.- Distribución de la varianza muestral
  • VIII.5.3.- Distribución conjunta de x y sn-1
  • Tema 9. Inferencia
  • CAPÍTULO IX:
  • Introducción a la Inferencia Estadística
  • IX.1.- INTRODUCCIÓN
  • IX.2.- ESTIMACIÓN DE PARÁMETROS
  • IX.2.1.- Estimación puntual
  • IX.2.2.- Estimación por intervalos de confianza
  • IX.3.- TEST DE HIPÓTESIS
  • IX.3.1.- Errores de 1ª y 2ª especie
  • IX.3.2.- Test de hipótesis paramétricos y no paramétricos
  • IX.3.3.- Tests de hipótesis paramétricos
  • IX.3.4.- Tests de hipótesis no paramétricos
  • 9.4. ANÁLISIS DE LA VARIANZA (I). UN FACTOR CONTROLADO
  • 9.4. Análisis de la varianza (I). Un factor controlado
  • 9.4.1.- GENERALIDADES
  • 9.4.2.- MODELO TEÓRICO. HIPÓTESIS DEL MODELO
  • 9.4.3.- HIPÓTESIS NULA
  • 9.4.5.- TEST F
  • 9.5.2.3.- Hipótesis Nulas
  • Interpretación de Resultados

APUNTES DE MÉTODOS ESTADÍSTICOS 1

ÍNDICE
Tema 1. Fenómenos aleatorios..................................................................................................... 6 CAPÍTULO I:.................................................................................................................................. 7 Fenómenos Aleatorios .................................................................................................................. 7 I.1.- FENÓMENO ALEATORIO. CONCEPTO........................................................................... 8 I.1.1.- Impredecibilidad de los resultados .............................................................................. 8 I.1.2.- Repetitividad del fenómeno. Enfoques clásico y bayesiano...................................... 10 I.1.3.- Definición de fenómeno aleatorio .............................................................................. 11 I.1.4. - Regularidad Estadística ............................................................................................ 11 I.2. - LA ESTADÍSTICA............................................................................................................ 12 Tema 2. Conceptos de probabilidad ........................................................................................... 14 CAPÍTULO II:............................................................................................................................... 15 Concepto de Probabilidad ........................................................................................................... 15 II.1.- INTRODUCCIÓN............................................................................................................. 16 II.2.- PROBABILIDAD .............................................................................................................. 17 II.2.1.- Probabilidad frecuencialista...................................................................................... 17 II.2.2.- Probabilidad objetiva o lógica. .................................................................................. 17 II.2.3.- Probabilidad subjetiva o bayesiana .......................................................................... 18 II.3.- ESPACIOS DE PROBABILIDADES................................................................................ 18 II.3.1.- Espacio Muestral .......................................................................................................... 19 II.3.2.- Definición axiomática de probabilidad.......................................................................... 20 II.3.3.- Definición de Espacio de Probabilidades ................................................................. 22 II.4.- PROBABILIZACIÓN DE ESPACIOS MUESTRALES..................................................... 22 II.4.1.- Espacios Muestrales finitos ...................................................................................... 22 II.4.2.- Espacios Muestrales infinitos numerables................................................................ 23 II.4.3.- Espacios Muestrales de la potencia del continuo..................................................... 24 Tema 3. Probabilidad condicional ............................................................................................... 25 CAPITULO III............................................................................................................................... 26 Probabilidad Condicional............................................................................................................. 26 III.1.- INTRODUCCION............................................................................................................ 27 III.2.- PROBABILIDAD CONDICIONAL................................................................................... 27 III.2.1.- Definición ................................................................................................................. 29 III.2.2.- Propiedades............................................................................................................. 29 III.3. - TEOREMA DE LA INTERSECCION ............................................................................. 30 III.4.- TEOREMA DE LA PARTICIÓN O DE LA PROBABILIDAD TOTAL .............................. 31 III.5.- SUCESOS INDEPENDIENTES ..................................................................................... 33 III.5.1. - Definición ................................................................................................................ 33 III.5.2. - Propiedades............................................................................................................ 34 III.6. - TEOREMA DE BAYES.................................................................................................. 34 Tema 4. Variables aleatorias....................................................................................................... 37 CAPÍTULO IV: ............................................................................................................................. 38 Variables Aleatorias Unidimensionales....................................................................................... 38 IV.1.- CONCEPTO DE VARIABLE ALEATORIA UNIDIMENSIONAL..................................... 39 IV.1.1.-Definición de variable aleatoria unidimensional ....................................................... 39 IV.1.2.- Función de distribución ........................................................................................... 40 IV.1.3.- Analogía mecánica .................................................................................................. 41 IV.1.4.- Variables discretas .................................................................................................. 41

IV.1.5.- Variables continuas ................................................................................................. 43 IV.2. FUNCIONES DE VARIABLES ALEATORIAS ................................................................ 44 IV.3.- ESPERANZA MATEMÁTICA......................................................................................... 46 IV.3.1.- Introducción ............................................................................................................. 46 IV.3.2.- Concepto ................................................................................................................. 47 IV.3.3.- Propiedades ............................................................................................................ 48 IV.4.- MOMENTOS .................................................................................................................. 50 IV.4.1.- Concepto ................................................................................................................. 50 IV.4.2.- Propiedades ............................................................................................................ 50 IV.5.- VARIANZA ..................................................................................................................... 51 IV.5.1.- Concepto ................................................................................................................. 51 IV.5.2.- Propiedades ............................................................................................................ 51 IV.6.- TEOREMA DE TCHEBYCHEFF.................................................................................... 53 IV.7.- PARÁMETROS DE UNA DISTRIBUCIÓN. ................................................................... 54 IV.7.1.- Parámetros de posición........................................................................................... 54 IV.7.2.- Parámetros de dispersión ....................................................................................... 55 IV.7.3.- Parámetros de asimetría ......................................................................................... 55 IV.7.4.- Parámetros de apuntamiento .................................................................................. 56 Tema 5.Variables aleatorias discretas ........................................................................................ 57 CAPITULO V: .............................................................................................................................. 58 Principales Distribuciones Discretas ........................................................................................... 58 V.1.- VARIABLE DICOTÓMICA............................................................................................... 59 V.1.1.- Definición.................................................................................................................. 59 V.1.2.- Valor medio .............................................................................................................. 59 V.1.3.- Varianza ................................................................................................................... 59 V.2.- VARIABLE BINOMIAL .................................................................................................... 59 V.2.1.- Definición.................................................................................................................. 59 V.2.2.- Ley de probabilidades .............................................................................................. 60 V.2.3.- Media ........................................................................................................................ 62 V.2.4.- Varianza ................................................................................................................... 62 V.2.5.- Adición ...................................................................................................................... 63 V.3.- TEOREMA DE BERNOUILLI.......................................................................................... 63 V.4.- DISTRIBUCION DE POISSON....................................................................................... 65 V.4.1.- Definición.................................................................................................................. 65 V.4.2.- Ley de probabilidades .............................................................................................. 65 V.4.3.- Media ........................................................................................................................ 67 V.4.4.- Varianza ................................................................................................................... 67 V.4.5.- Adición ...................................................................................................................... 68 V.5.- VARIABLE HIPERGEOMÉTRICA .................................................................................. 68 V.5.1.- Definición.................................................................................................................. 68 V.5.2.- Ley de probabilidades .............................................................................................. 69 V.5.3.- Convergencia ........................................................................................................... 70 V.6.- VARIABLE BINOMIAL NEGATIVA ................................................................................. 70 V.6.1.- Definición.................................................................................................................. 70 V.6.2.- Ley de probabilidades .............................................................................................. 70 V.6.3.- Media y Varianza...................................................................................................... 71 V.7.- VARIABLE K-ARIA.......................................................................................................... 72 V.7.1.- Definición.................................................................................................................. 72 V.7.2.- Vector de medias y Matriz de varianzas-covarianzas.............................................. 73 V.8.- VARIABLE MULTINOMIAL ............................................................................................. 73

V.8.1.- Definición.................................................................................................................. 73 V.8.2.- Ley de probabilidades .............................................................................................. 74 V.8.3.- Vector de medias y Matriz de varianzas-covarianzas.............................................. 74 Tema 6. Variables aleatorias continuas unidimensionales ......................................................... 76 CAPITULO VI: ............................................................................................................................. 77 Principales distribuciones continuas. .......................................................................................... 77 VI.1.- INTRODUCCION ........................................................................................................... 78 VI.2.- VARIABLE NORMAL TIPIFICADA ................................................................................ 78 VI.2.1.- Definición................................................................................................................. 78 VI.2.2.- Representación gráfica de fZ(z)............................................................................... 78 VI.2.3.- Media y Varianza..................................................................................................... 80 VI.2.5.- Manejo de tablas ..................................................................................................... 80 VI.2.6.- Nomenclatura .......................................................................................................... 80 VI.3.- DISTRIBUCION NORMAL GENERAL........................................................................... 80 VI.3.1.- Definición................................................................................................................. 81 VI.3.2.- Función de densidad ............................................................................................... 81 VI.3.3.- Adición..................................................................................................................... 82 VI.3.5.- Manejo de tablas ..................................................................................................... 82 VI.4.- TEOREMA CENTRAL DEL LIMITE............................................................................... 83 VI.4.1.- Teorema de Lindenberg-Levy ................................................................................. 83 VI.5.- APROXIMACIONES DE VARIABLES ALEATORIAS ................................................... 83 VI.6.- OTRAS VARIABLES CONTINUAS ............................................................................... 86 VI.6.1.- Distribución Uniforme .............................................................................................. 86 VI.6.2.- Distribución Exponencial ......................................................................................... 87 VI.7.- DISTRIBUCIONES DERIVADAS DE LA NORMAL....................................................... 89 VI.7.1.- Variable Chi-Cuadrado de Pearson ........................................................................ 89 VI.7.2.- Distribucion F de Snedecor ..................................................................................... 93 VI.7.3.- Variable t de Student ............................................................................................... 94 Tema 7. Variables aleatorias bidimensionales............................................................................ 97 CAPITULO VII: ............................................................................................................................ 98 Variables Aleatorias Bidimensionales ......................................................................................... 98 VII.1.- DEFINICIÓN ................................................................................................................. 99 VII.2.- FUNCIÓN DE DISTRIBUCIÓN..................................................................................... 99 VII.2.1.- Definición................................................................................................................ 99 VII.2.2.- Propiedades ........................................................................................................... 99 VII.3.- VARIABLES ALEATORIAS BIDIMENSIONALES DISCRETAS Y CONTINUAS....... 100 VII.4.- DISTRIBUCIONES MARGINALES............................................................................. 101 VII.5.- DISTRIBUCIONES CONDICIONALES....................................................................... 103 VII.5.1. Definición ............................................................................................................... 103 VII.5.2.- Función de distribución condicional ..................................................................... 103 VII.5.2.- Función de densidad y ley de probabilidades condicionales ............................... 104 VII.5.3. -Teorema de Bayes ............................................................................................... 105 VII.6.- VARIABLES INDEPENDIENTES ............................................................................... 106 VII.7.- MOMENTOS ............................................................................................................... 107 VII.8.- MATRIZ DE VARIANZAS COVARIANZAS ................................................................ 108 VII.8.1.- Definición.............................................................................................................. 108 VII.8.2.- Propiedades ......................................................................................................... 108 VII.9.- COEFICIENTE DE CORRELACIÓN .......................................................................... 108 VII.9.1.- Definición.............................................................................................................. 108 VII.9.2.- Propiedades ......................................................................................................... 109

VII.10.- REGRESIÓN............................................................................................................. 109 VII.10.1.- Regresión condicional ........................................................................................ 109 VII.10.2.- Regresión lineal mínimo cuadrática ................................................................... 110 VII.11.- VARIABLES ALEATORIAS n-DIMENSIONALES .................................................... 115 CAPITULO VII: .......................................................................................................................... 118 Variable Aleatoria Normal ......................................................................................................... 118 Bidimensional ............................................................................................................................ 118 VII.1.1.- Variable normal bidimensional tipificada .............................................................. 120 VII.1.2.- Variable normal bidimensional general ................................................................ 121 VII.2.- VECTOR DE VALORES MEDIOS.............................................................................. 123 VII.3.- MATRIZ DE VARIANZAS COVARIANZAS ................................................................ 124 VII.3.1.- Definición.............................................................................................................. 124 VII.3.2.- Propiedades ......................................................................................................... 124 VII.4.- COEFICIENTE DE CORRELACIÓN .......................................................................... 125 VII.4.1.- Definición.............................................................................................................. 125 VII.4.2.- Propiedades ......................................................................................................... 125 VII.5.- INDEPENDENCIA DE VARIABLES ALEATORIAS.................................................... 125 VII.6.- DISTRIBUCIÓN MARGINAL ...................................................................................... 127 VII.7.- DISTRIBUCIÓN CONDICIONAL ................................................................................ 127 Tema 8. Muestreo ..................................................................................................................... 129 CAPITULO VIII: ......................................................................................................................... 130 Distribuciones en el Muestreo ................................................................................................... 130 VIII.1.- INTRODUCCIÓN ....................................................................................................... 131 VIII.2.- POBLACIÓN, MUESTREO Y MUESTRA.................................................................. 132 VIII.3.- ESTADÍSTICOS......................................................................................................... 133 VIII.4.- DISTRIBUCIONES EN EL MUESTREO.................................................................... 134 VIII.4.1.- Distribución de la media muestral. ...................................................................... 135 VIII.4.2.- Distribución de la varianza muestral. .................................................................. 136 VIII.4.3.- Distribución de la proporción muestral. ............................................................... 138 VIII.5.- MUESTREO EN POBLACIONES NORMALES. ....................................................... 138 VIII.5.1.- Distribución de la media muestral. ...................................................................... 139 VIII.5.2.- Distribución de la varianza muestral. .................................................................. 140 VIII.5.3.- Distribución conjunta de x y sn-1 ........................................................................ 140 Tema 9. Inferencia .................................................................................................................... 141 CAPÍTULO IX: ........................................................................................................................... 142 Introducción a la Inferencia Estadística .................................................................................... 142 IX.1.- INTRODUCCIÓN ......................................................................................................... 144 IX.2.- ESTIMACIÓN DE PARÁMETROS. ............................................................................. 145 IX.2.1.- Estimación puntual ................................................................................................ 145 IX.2.2.- Estimación por intervalos de confianza................................................................. 147 IX.3.- TEST DE HIPÓTESIS.................................................................................................. 150 IX.3.1.- Errores de 1ª y 2ª especie..................................................................................... 151 IX.3.2.- Test de hipótesis paramétricos y no paramétricos................................................ 151 IX.3.3.- Tests de hipótesis paramétricos............................................................................ 151 IX.3.4.- Tests de hipótesis no paramétricos....................................................................... 162 9.4. Análisis de la varianza (I). Un factor controlado................................................................. 171 9.4.1.- GENERALIDADES......................................................................................................... 172 9.4.2.- MODELO TEÓRICO. HIPÓTESIS DEL MODELO ........................................................ 173 9.4.3.- HIPÓTESIS NULA ......................................................................................................... 175 9.4.5.- TEST F ........................................................................................................................... 176

9.4.6.- COMPARACIÓN DE MEDIAS. TEST L.S.D. (diferencia mínima significativa) ............. 176 9.5.1.- INTRODUCCIÓN. PLANES FACTORIALES................................................................. 179 9.5.2.- ANOVA PARA DOS FACTORES CON REPETICIONES ............................................. 179 9.5.2.1.- Concepto de Interacción ............................................................................................. 179 9.5.2.2.- Modelo y supuestos teóricos ...................................................................................... 181 9.5.2.3.- Hipótesis Nulas ........................................................................................................... 182 9.5.2.4.- Descomposición de las Sumas de Cuadrados. Test F............................................... 182 9.5.2.5.- Comparación de Medias. Test L.S.D. ......................................................................... 182 Interpretación de Resultados .................................................................................................... 184

Tema 1. Fenómenos aleatorios

CAPÍTULO I: Fenómenos Aleatorios .

pues. los eclipses de sol serían resultados de un fenómeno aleatorio si no conociéramos las leyes que rigen el movimiento de la Tierra alrededor del Sol y de la Luna alrededor de la Tierra. lo constituyen los llamados fenómenos aleatorios. analizando la distribución de masas y los impulsos a los que está sometido el lanzamiento de un dado. Así.1. son aquellos fenómenos reales que se caracterizan por la impredecibilidad de sus resultados y por la llamada regularidad estadística. es completamente imposible predecir con exactitud cual será el número de accidentes que ocurrirán en las carreteras españolas el próximo fin de semana o los litros de agua de lluvia que se recogerán por m2 en un determinado observatorio meteorológico a lo largo del próximo año.FENÓMENO ALEATORIO. en general. Ahora bien. En consecuencia.Capítulo I: Fenómenos aleatorios I. CONCEPTO El objeto central del cálculo de probabilidades y de la Estadística. respecto a la referencia tomada. El llamado azar ¿no será una forma de justificar nuestra ignorancia o desconocimiento del fenómeno en cuestión? En 1927 Heisemberg. por tanto.Impredecibilidad de los resultados El número obtenido al lanzar un dado.. pues aquéllos serían impredecibles.8 . Los fenómenos aleatorios. En los fenómenos deterministas.1. se puede conocer unívocamente el resultado que se presentará en una realización concreta del mismo. es evidente que.1. podemos predecir con absoluta certeza que su posición. Surge. estableció el llamado Principio de Indeterminación o de Incertidumbre que establece que es imposible una determinación unívoca de la posición y de I. son resultados impredecibles y. por tanto. y desde este punto de vista. cuando se conocen las condiciones en que ocurre el fenómeno y la ley que lo rige. según la definición que hemos establecido de fenómeno aleatorio. realizaciones de fenómenos aleatorios. en contraposición con los fenómenos regidos por leyes deterministas. lógico que comencemos por analizar a éstos aunque sólo sea someramente. I. En el sentido contrario. no parece descabellado pensar que es posible. por ejemplo. desarrollar un modelo mecánico que permita conocer de antemano cual va a ser el resultado del lanzamiento de ese dado. la duración de una bombilla o la longitud de un tornillo recién fabricado. los fenómenos aleatorios podrían ser producto de nuestra ignorancia. después de un tiempo t será: e=eo+v·t Por el contrario. Parece. la primera pregunta respecto a la impredecibilidad de los fenómenos aleatorios: ¿Son impredecibles porque no podemos o porque no sabemos predecir sus resultados?.. si conocemos la situación inicial e0 de un cuerpo que se mueve en línea recta con velocidad constante v.

Llamaremos A al área comprendida entre las rectas x=a y x=b y situada entre y=k1 y la función. y=k2 y la función (Figura I. Llamaremos B al área delimitada por x=a. En consecuencia se cumplirá que: P(A)+P(B)=1 Area( A ) Area( A ) p= = Area( A ) + Area(B) (b − a)(k 2 − k1 ) y k2 B A k1 a b x y=f(x) Figura I. Las relaciones de incertidumbre de Heisemberg imponen en la microfísica la sustitución de las leyes deterministas por predicciones estadísticas.1). la probabilidad de que ocurra cualquier suceso de este recinto es proporcional a su área. a la cota inferior y a la cota superior de f(x) en el intervalo [a.9 . En consecuencia: I= ∫ f (x) ⋅ dx = (b − a) ⋅ k + p ⋅ (b − a) ⋅ (k b a 1 2 − k1 ) Si extraemos al azar n puntos del recinto A∪B y ν es el número de veces que ocurre A. Por último. y=k2 e y=k1. respectivamente. y llamamos: I. Si se representa por Δp a la imprecisión en la determinación de la posición de una partícula y mediante Δq a la imprecisión en la determinación de la cantidad de movimiento de la misma partícula.b]. Si extraemos puntos al azar (equiprobables) del recinto delimitado por x=a.1.26x10-27 ergios· seg-1). Heisemberg demostró que: Δp ⋅ Δq ≥ en la que h es la constante de Planck ( h=6. consideremos la integral: h 2π ∫ f (x) ⋅ dx b a Llamaremos k1 y k2. x=b.Capítulo I: Fenómenos aleatorios la cantidad de movimiento de una partícula atómica. x=b.

k1 y k2.I* y tomando valores absolutos. podemos escribir: ∀ ε ∈ ℜ+ .Repetitividad del fenómeno..5 4 Si α=10 y ε=10 . permite estimar I mediante: I* =(b -a)·k1+f·(b -a)·(k2 -k1) restando I . al menos. P [ f −p ≥ ε ≤ ] 1 4 ⋅ ε2 ⋅ n en consecuencia: es decir: P I − I * ≥ ε = P p − f ⋅ (b − a ) ⋅ (k 2 − k 1 ) ≥ ε [ ] [ ] ⎡ ⎤ ε P I − I * ≥ ε = P⎢ p − f ≥ (b − a) ⋅ (k 2 − k1 )⎥ ⎣ ⎦ [ ] de donde. simplemente no queremos (caso de la integral) predecir sus resultados.1. y conocidos a. podemos calcular n mediante: n≥ (b − a)2 ⋅ (k 2 − k1 )2 4 ⋅ ε2 ⋅ α Ejemplo I.1: La integral 5 ∫ x ⋅ dx = 4.10 . b. I.2. Esto permite hablar de la probabilidad de que al realizarse el fenómeno aleatorio ocurra un determinado suceso. que será expuesto más adelante. mediante I* podemos calcular aproximadamente I. no podemos (caso de la microfísica) o. Lo cual significa que si extraemos al azar 2500 puntos del recinto A∪B y calculamos la frecuencia relativa con que ocurre A. -2 -1 En los párrafos anteriores. tal y como se explica en capítulos posteriores. I. hemos visto que la impredecibilidad de un fenómeno aleatorio puede ser debida a que no sabemos (caso del dado). la posibilidad de efectuar una realización del mismo. cometiendo un error menor que 0. con a-b = k1-k2 = 1 entonces es n≥2500.Capítulo I: Fenómenos aleatorios f= ν n el teorema de Bernouilli. por el teorema de Bernouilli: P I−I* ≥ ε ≤ [ ) ] (b − a4 ⋅ ⋅n(kε − k ) ⋅ 2 2 1 2 2 ≤α Fijando α y ε. Enfoques clásico y bayesiano La impredecibilidad de los resultados implica la posibilidad de repetir el fenómeno o. ⎪I -I*⎪ =⎪p -f⎪·(b -a)·(k2 -k1) Por los Teoremas de Bernouilli y de Tchebycheff.1 con una probabilidad mayor del 99 por ciento.

es posible hablar de la probabilidad de que sea verdadera cualquier proposición (en el sentido de la lógica matemática). a la frecuencia con la que ocurre un determinado suceso. en general. se les aplica fértilmente las leyes de la Estadística. por ejemplo. o bien son numerosas las causas que influyen en el resultado y no es posible mantener constantes a todas ellas. Pero además. por lo que a este enfoque también se le llama subjetivista. como acabamos de ver: Existen fenómenos repetitivos cuyos resultados no se pueden predecir.Capítulo I: Fenómenos aleatorios Actualmente.11 . exista vida en Marte. . es posible hablar de la probabilidad de que. la probabilidad frecuencialista puede ser contemplada como un caso particular de la probabilidad bayesiana. I.3. mediante el que se puede hablar de probabilidad o grado de veracidad de ciertas proposiciones. En resumen. El segundo enfoque es el bayesiano. dando un enfoque bayesiano a nuestro problema.Regularidad Estadística Cuando realizamos varias repeticiones “independientes” de un fenómeno aleatorio bajo las “mismas condiciones”. aunque es evidente que ello no es el resultado de la realización de un fenómeno aleatorio y. Ello es debido a que. El primer enfoque es el clásico o frecuencialista que necesita de la posibilidad de repetición del fenómeno aleatorio. o bien hay pocas causas que influyen en el resultado pero que pequeñas variaciones en las mismas producen grandes modificaciones en éste. aunque tradicionalmente los fenómenos aleatorios eran el objeto del estudio de la Estadística. En consecuencia: I. I. la probabilidad puede asimilarse. estamos probabilizando un suceso frecuencialista de forma subjetiva y. otros que no sabemos predecir y otros que aunque podemos y sabemos renunciamos voluntariamente a su predicción y. no se obtiene el mismo resultado.1.1. Debemos hacer notar que si el fenómeno es repetitivo y medimos nuestro grado de creencia o de verdad a través de la frecuencia con que hemos observado la realización de un determinado suceso. En el enfoque clásico.Definición de fenómeno aleatorio Bajo la denominación de fenómenos aleatorios designaremos a cualquier fenómeno que pueda ser objeto de estudio probabilístico o de inferencia estadística.. por tanto. la probabilidad puede asimilarse al grado de verdad o de creencia que un determinado individuo tiene sobre una cierta proposición. Desde esta óptica. también es posible estudiar eficazmente los grados de veracidad o de creencia personal de cualquier proposición lógica. mediante la Estadística bayesiana. a todos ellos.4. En el enfoque bayesiano. de la forma que será precisada más adelante. en general.

calidad de los materiales empleados.1.Capítulo I: Fenómenos aleatorios Sobre la duración de una bombilla influyen numerosas causas como: características constructivas. existen discrepancias I. diremos que el fenómeno en cuestión posee regularidad estadística. que determinan la duración de la misma. es posible desarrollar una teoría científica sobre un fenómeno real. no basta con desarrollar una teoría. está influido por el impulso comunicado de manera que pequeñas variaciones en este impulso pueden dar lugar a resultados diametralmente opuestos.LA ESTADÍSTICA Esta ciencia se ha formado de la conjunción de otras dos que en el tiempo evolucionaron independientemente: La Teoría de las Probabilidades y la Inferencia Estadística. Sin embargo. .. es decir. el científico llega a demostrar determinadas proposiciones que son verdaderas en el contexto de la teoría. sino que. es decir.4. y fr a la frecuencia relativa de A. el investigador parte de una serie de proposiciones aceptadas como verdaderas y que constituyen el llamado Sistema Axiomático. al número de veces que ocurre un determinado suceso A asociado a dicho experimento. por el contrario. Si las proposiciones demostradas son realmente propiedades encontradas en el fenómeno estudiado. El ángulo que forma la aguja de una ruleta con una determinada dirección al detenerse. “mismas condiciones” y “tienden”) tienen aquí un cierto carácter ambiguo que será precisado más adelante. cuando n crece. Si. cuando el número de repeticiones crece indefinidamente. El desarrollo científico y tecnológico se realiza recorriendo dos caminos posibles: la deducción y la inducción.2.Definición de Regularidad Estadística Cuando la frecuencia relativa de cada uno de los posibles resultados de un fenómeno aleatorio “tiende” a estabilizarse alrededor de un cierto valor. o sea: fr = ν n Por definición de fenómeno aleatorio. condiciones ambientales. fr “tiende” a estabilizarse alrededor de un cierto número. ν a la frecuencia absoluta. A partir de estos axiomas y mediante la aplicación de una lógica deductiva. I. De esta forma. la teoría se muestra como correcta y es utilizable. Si llamamos n al número de repeticiones de un experimento aleatorio. es necesario validarla. En el primer caso. Estos axiomas se construyen extrayéndolos de las regularidades que se observan en el fenómeno sobre el que estamos desarrollando una teoría. en la medida en que los axiomas son ciertos y en la medida en que las deducciones han sido realizadas correctamente. .1. condiciones de uso.12 . Pues bien: I. además. Esta propiedad es fundamental para definir el concepto de probabilidad en el enfoque frecuencialista. Las palabras entrecomilladas (“independientes”. etc. es decir. contrastarla con la realidad.

En este sentido diremos que: La Estadística puede considerase como la Tecnología del Método Científico (S. La Inferencia Estadística permite cuantificar en términos de probabilidad ese riesgo de error. precisamente. I. que. Tampoco es posible deducir cuantos kilómetros recorrerá. Es indudable que el paso de lo particular a lo general está sometido a un riesgo de error. La Inferencia Estadística.13 . podamos inferir al total de la partida la proporción de ellos que son defectuosos. mediante el estudio de una muestra de tornillos. pues permite contrastar las proposiciones deducidas con las observaciones del fenómeno y permite. modificándolo o. un determinado tipo de neumáticos hasta que sufran un determinado desgaste. En las ciencias experimentales. El Cálculo de Probabilidades es un modelo teórico que se elabora a partir de un sistema axiomático (completo. sino que se procede en sentido contrario. por termino medio. completándolo. de la inducción. Permite. No es posible deducir cual es el número de tornillos de un lote que resistirán a un determinado esfuerzo de rotura por cizallamiento. se ocupa. la Estadística juega un importante papel como interfase entre la teoría y la realidad. no se suele pasar de lo general (axiomas) a lo particular (teoremas) mediante un proceso deductivo. de forma inductiva. así mismo. el sistema axiomático debería ser revisado. pasando de lo particular a lo general. no redundante y no contradictorio) desarrollado por Kolmogoroff. la Inferencia Estadística es inductiva. contrastar los axiomas. Las dos partes de que consta la Estadística recorren caminos opuestos: El Cálculo de Probabilidades (o mejor. Precisamente.Capítulo I: Fenómenos aleatorios entre los hechos reales y los teóricos. Ríos 1952). es decir. la Teoría de Probabilidades) es deductivo. por ejemplo. simplemente. Pero no siempre es posible proceder de esta elegante forma deductiva.

Capítulo I: Fenómenos aleatorios Tema 2. Conceptos de probabilidad I.14 .

CAPÍTULO II: Concepto de Probabilidad .

o bien extrayéndola experimentando con el fenómeno en estudio. confía en la calidad que le suministra habitualmente el proveedor y.. simplemente no queremos predecir cuál será su resultado. Es cierto que en éstas situaciones la incertidumbre existe. precisamente. en consecuencia. de tal forma que cada una de ellas puede ser clasificada como buena o como defectuosa. bien extraída de nuestra experiencia pasada. simplemente caros y que. quisiera que las partidas con ninguna o pocas piezas defectuosas no fueran rechazadas. pero puede que ésta no sea total. Supongamos también que los ensayos para clasificar a una pieza son destructivos o. Las piezas deben cumplir unas especificaciones de calidad. en las que no podemos. para fijar ideas supongamos que 20 piezas. no obstante. probabilidades intermedias representan grados de certidumbre intermedios. adquiere a un cierto proveedor.1. acepta. Si las 20 piezas muestreadas son correctas se aceptará la partida. no sabemos. II. se rechazará la partida.INTRODUCCIÓN En el capítulo anterior. en medir el grado de certidumbre de algunos sucesos. El comprador quisiera que en cada partida no hubiera ninguna pieza defectuosa. Antes de entrar en estas interpretaciones vamos a exponer un ejemplo que nos introduzca en esta problemática: Una empresa fabricante de automóviles. b) El comprador y el vendedor acuerdan mediante contrato. El vendedor. o. los conceptos de probabilidad y de incertidumbre podrán tener diferentes interpretaciones. es decir. Ante una partida concreta caben una serie de actitudes: a) El comprador. por tanto. analizar un pequeño número de piezas. en general. hemos estudiado el tipo de fenómenos que eran objeto de la Estadística. Según el tipo de enfoque que se adopte. experimentos.16 . Esta información hace que nuestra incertidumbre sobre el resultado del fenómeno aleatorio no sea total. partidas de una pieza determinada para ser montada en los automóviles de un cierto modelo. cualquier lote que le suministre el vendedor. etc. Si de ellas 1 o más son defectuosas. Vimos que existen fenómenos. tendremos alguna información. por su parte. una inspección de todas las piezas de la partida no es posible o no es conveniente por su elevado costo. proposiciones. El objeto del Cálculo de Probabilidades consiste. de tal forma que un suceso cierto tiene una probabilidad igual a 1 y un suceso imposible tiene una probabilidad nula. partidas con unas pocas piezas defectuosas podrían ser aceptadas. sin más. pero desearía rechazar las partidas que tuvieran un número de piezas defectuosas superior a un cierto umbral. por su experiencia pasada. que.Capítulo II: Concepto de Probabilidad II.

Sin embargo. En esta concepción. En el caso b).Probabilidad frecuencialista La concepción clásica de la probabilidad dada por Laplace. el comprador. como cociente entre casos favorables y casos posibles presenta problemas bien conocidos.1. el Cálculo de Probabilidades nos dice que si un lote de gran tamaño tiene un 5 por mil o menos de unidades defectuosas.. II. reduce el ámbito de aplicación de la probabilidad exclusivamente a fenómenos o experiencias repetitivas. II. entre ellos el de no aplicabilidad a una amplia gama de problemas reales.Probabilidad objetiva o lógica. En el año 1921..17 .Capítulo II: Concepto de Probabilidad En el caso a). la probabilidad de que al extraer 20 piezas al azar todas ellas sean correctas es igual o superior al 99%. más conocido en el campo de la teoría económica. Venn definió la probabilidad de un suceso como: “El valor alrededor del cual se estabiliza la frecuencia relativa de un suceso cuando el número de repeticiones independientes de la experiencia a la que va asociado crece indefinidamente”. En 1866.2. el matemático inglés John Maynard Keynes. dejando fuera del mismo numerosas áreas en las que se presentan realmente situaciones de incertidumbre que deberían poder ser cuantificadas y tratadas en el contexto de la ciencia estadística. existe sin embargo. II. una pieza defectuosa de entre las 20 muestreadas. consciente o inconscientemente.2. se define la probabilidad como II. se ha hecho uso de una probabilidad subjetiva. Von Mises formalizó rigurosamente esta concepción frecuencialista de la probabilidad. al menos. de que aparezcan.. aparte de otras posibles criticas. En 1928. es decir. es superior o igual al 90%.2. la probabilidad es objetiva o frecuencialista. y que si el lote tiene un 10. utiliza su experiencia pasada para determinar que es muy probable que el lote concreto que le está presentando el vendedor sea de un nivel de calidad aceptable. En el segundo caso.9% o más de defectuosas. la concepción lógica también denominada objetiva.PROBABILIDAD Aunque hoy en día hay un acuerdo total sobre las propiedades matemáticas que debe reunir el ente abstracto que denominamos “probabilidad”. la probabilidad de rechazar el lote.2. en su tesis doctoral propone una nueva concepción de la probabilidad. En el primer caso. esta concepción frecuencialista. un profundo desacuerdo respecto a lo que el término “probabilidad” significa en cuanto a su aplicación a los problemas reales y concretamente a la Inferencia Estadística.

18 . y que utilizaran la misma información objetiva. El valor que cada sujeto asigne a esta medida de incertidumbre. porque cada vez es menor el peso relativo de la información “a priori”. en la concepción subjetiva. también se define la probabilidad subjetiva como “aquélla que se determina en base a la experiencia personal de quien la establece”.. para transformarla en probabilidad “a posteriori”.Probabilidad subjetiva o bayesiana Mientras que en la concepción lógica la probabilidad tiene un carácter objetivo. además. Las cosas ocurren de tal forma.ESPACIOS DE PROBABILIDADES II.2. Esta concepción fue desarrollada posteriormente por Jeffreys. como algo intrínseco de la proposición a que se refiere. con lo que dos individuos que partieran de probabilidades subjetivas “a priori” diferentes. Esta probabilidad que puede parecer poco científica. Por ello.Capítulo II: Concepto de Probabilidad “el grado de evidencia de una proposición cualquiera” lo que permite abarcar situaciones mucho más generales que las contempladas en los enfoques clásicos o frecuencialistas. cuyo principal exponente es De Finetti.3. pues permite estudiar aquellos fenómenos a los que no es de aplicación la probabilidad frecuencialista. dependerá de la información de que disponga de manera que dos personas con información distinta asignarán probabilidades distintas a un mismo suceso. II. no es tal. La concepción lógica de Keynes admitía la posible existencia de probabilidades que fueran solo parcialmente ordenables. compañero de Keynes en Cambridge para quien sus probabilidades expresan también grados de evidencia pero son siempre ordenables y tienen carácter numérico. lo que significa que no todos los grados de evidencia son numéricamente medibles.3. Esta concepción subjetiva de la probabilidad. que. la información subjetiva “a priori” va pesando menos. mediante el Teorema de Bayes (que será estudiado más adelante) se puede incorporar a la probabilidad subjetiva “a priori” la información extraída de las repeticiones del fenómeno. la probabilidad se define como “el grado de creencia personal en la veracidad de una proposición” y puede variar de un sujeto a otro. las probabilidades “a posteriori” irían siendo cada vez más próximas. II. Pero. a medida que ésta última es mayor. presenta la ventaja de que si el fenómeno es susceptible de repetición.. a medida que se va obteniendo más información objetiva. es también denominada Bayesiana debido al papel clave que tiene el teorema de Bayes en esta teoría.

ha ocurrido A y. Llamaremos suceso elemental al constituido por un sólo elemento de E y suceso compuesto a cualquier subconjunto de E constituido por más de un elemento. II. también todos los sucesos que contienen al número 4. Al Espacio Muestral lo designaremos por E.Definición Llamaremos Espacio Muestral de un fenómeno aleatorio.. si la experiencia consiste en lanzar un dado y el suceso A está constituido por los números pares es: A={2. II. Seguiremos el sistema axiomático establecido por Kolmogoroff en 1933.. II. II. Diremos que ha ocurrido el suceso A si el resultado es un elemento de A.. Previamente. es decir: {A es un suceso} ↔ {A ∈ P(E)} en la que P(E) es el conjunto de las partes de E.1. abstracto.Clasificación Los Espacios Muestrales pueden ser: finitos. Si la experiencia consiste en lanzar una moneda al aire y el resultado es el número de veces que es necesario lanzarla hasta obtener por primera vez cara. Por ejemplo. lógicamente. al conjunto de sus posibles resultados.3. el Espacio Muestral es finito y consta de 6 elementos.Capítulo II: Concepto de Probabilidad En este apartado vamos a formalizar el concepto matemático y.3.1. el Espacio Muestral es infinito no numerable. aplicable a cualquiera que sea la concepción que de ésta se tenga. Si la experiencia consiste en lanzar un dado y el resultado es el número de puntos que obtenemos. Si la experiencia consiste en extraer al azar una pieza recién fabricada y medir una de sus dimensiones. por tanto.6} Si al lanzar el dado sale el número 4. el Espacio Muestral es infinito numerable.2.1..Sucesos Denominaremos suceso a todo subconjunto del Espacio Muestral E.1.4.19 .1. infinitos numerables e infinitos no numerables ó de la potencia del continuo.Espacio Muestral El primer elemento a considerar es el de los posibles resultados del fenómeno en estudio ó el conjunto de las posibles hipótesis a establecer sobre nuestras proposiciones.3. II.3. de probabilidad.3. definiremos los elementos que intervienen en esta definición.

2.3.. diremos que la aplicación P:F → ℜ es una probabilidad..3. A i I A j = ∅ es P ⎛ U A i ⎞ = ∑ P( A i ) ⎜ ⎟ i≠ j ⎝ i ⎠ i II.Propiedades a) Probabilidad del suceso contrario Como A ∪ A =E y A ∩ A =∅. basta que se cumplan las dos siguientes condiciones: a) {∀ (A1.) ∈ F.4...2. siga teniendo estructura de Álgebra de Boole. An. establecidos por Kolmogoroff : A1) ∀ A ∈ F es P(A)≥0 A2) P(E)=1 A3) ∀ (A1. An. ∪. el suceso que siempre ocurre es.20 .Capítulo II: Concepto de Probabilidad El suceso cierto. A2) ∈ F } → {(A1∪A2) ∈ F } b) {∀ A ∈ F } → { A ∈ F } Si la primera condición se cumple para todo conjunto numerable de sucesos es decir: ∞ a’) {∀ (A1. el suceso que nunca puede ocurrir es. lógicamente. si cumple los tres siguientes axiomas.Definición axiomática de probabilidad II..2. II. el número de sucesos es 2n.) ∈ F } → ⎧U A i ∈ F⎫ ⎬ ⎨ ⎩ i =1 ⎭ entonces F tiene estructura de σ-álgebra.3. II. ...1. que designaremos por F. pero es conveniente que la clase de los sucesos probabilizables. A2... ∩. A2. ¯} tiene estructura de Álgebra de Boole. El suceso imposible.. .1. Sin embargo.Estructura de la clase de sucesos Es conocido que la cuaterna { P(E).. . Para ello. por razones que serán expuestas más adelante. lógicamente.2.. . Si el Espacio Muestral E es finito y tiene n sucesos elementales. no siempre es posible probabilizar a todos los elementos de P(E). el conjunto vacío ∅.. por los axiomas A2 y A3: P(A)+P( A )=P(E)=1 de donde: P( A ) = 1 − P( A ) II.3..Axiomas Dado un Espacio Muestral E y una σ-álgebra F. es decir. es decir. el Espacio Muestral E.

1.Capítulo II: Concepto de Probabilidad b) Como corolario: P(∅ ) = 1 − P(E) = 0 c) Si {B⊃A}→{P(B)≥P(A)} Gráficamente: E A∩B A B Figura II. En efecto. es: B=A∪( A ∩B) y A∩( A ∩B)=∅ por el axioma A3: por el axioma A1 es: de donde: P(B)=P(A)+P( A ∩B) P( A ∩B)≥0 { B ⊃ A} → { P(B) ≥ P( A )} d) Como corolario. Consideremos dos sucesos A y B. por ser ∅ ⊂ A ⊂ E y por el axioma A2 y la propiedad b): ∀A ∈F 0 ≤ P(A) ≤ 1 e) Probabilidad de la reunión E B A A∩B A∩B Figura II.2. Se cumple: A∪B=A∪( A ∩B) y A∩( A ∩B)=∅ por el axioma A3: P(A∪B)=P(A)+P( A ∩B) II.21 .

Si en lugar de lanzar un dado (que es un cubo) lanzáramos un icosaedro.Capítulo II: Concepto de Probabilidad como. Bastará con que encontremos un ejemplo en el que la probabilidad de un suceso sea nula y. pero que sus recíprocos no son ciertos.Espacios Muestrales finitos En este tipo de Espacios Muestrales. P } se denomina Espacio de Probabilidades. Si lanzamos un dado perfectamente equilibrado. la probabilidad de que se apoye en un punto concreto es 1/∞ = 0. F. II. La probabilidad es nula y el suceso no es imposible.Definición de Espacio de Probabilidades A la terna {E. bastará con hacer corresponder a cada suceso elemental una probabilidad. II. por otra parte es: B=(A∩B)∪( A ∩B) y (A∩B)∩( A ∩B)=∅ por el axioma A3: de donde: P( A ∩B)=P(B)-P(A∩B) sustituyendo: P( A ∪ B) = P( A ) + P(B) − P( A ∪ B) P(B)=P(A∩B)+P( A ∩B) Aplicando esta ecuación al suceso A∪B∪C.. y que si el suceso es imposible su probabilidad es nula. Entonces. (poliedro regular de 20 caras) la probabilidad anterior es ahora 1/20. se obtiene: P( A ∪ B∪ C) = P( A ) + P(B) + P(C) − P( A ∩ B) − P( A ∩ C) − P(B ∩ C) + P( A ∩ B∩ C) Generalizando esta propiedad: n n n n −1 n P ⎛ U A i ⎞ = ∑ P( A i ) − ∑ ∑ P( A i ∩ A j ) + ..4.3. el suceso no sea imposible.. sin embargo. P(E) = P ⎛ U a ⎞ = ∑ P(a) = 1 ⎜ ⎟ ⎝ a∈E ⎠ a∈E II..1.. la probabilidad de que salga una de sus caras prefijada a priori es 1/6.3. Se deberá respetar la condición de que la suma de las probabilidades de los sucesos elementales sea igual a la unidad.22 . la probabilidad de cualquier suceso compuesto será la suma de las probabilidades de los sucesos elementales que lo constituyen.PROBABILIZACIÓN DE ESPACIOS MUESTRALES II. Si lanzamos ahora una esfera. + ( −1)n +1 ⋅ P ⎛ I A i ⎞ ⎜ ⎟ ⎜ ⎟ i =1 j = i + 1 ⎝ i =1 ⎠ i =1 ⎝ i =1 ⎠ Debemos hacer notar que si el suceso es cierto su probabilidad es 1.4.

3.2.. El cálculo de las probabilidades de algunos sucesos requerirá la suma de una serie. 2·n.. será P(A)=υ/n. por tanto no es de aplicación la Regla de Laplace... lo que constituye la conocida Regla de Laplace. el espacio muestral es: E={1. lógicamente.} entonces P( A ) = 1 1 1 1/ 4 1 + + L + 2n + L = = 22 2 4 2 1− 1/ 4 3 Y para suceso contrario. 5. la probabilidad de cada uno de ellos será 1/6. Si consideramos el suceso A= tirada par. II. 2. Calculemos algunas probabilidades: P(E) = ∑2 i =1 ∞ 1 υ = 1/ 2 =1 1− 1 / 2 Si el suceso A es obtener una cara por primera vez en una tirada par. obtener una cara por primera vez en una tirada impar: II. 4. no es de aplicación la Regla de Laplace. por tanto..Capítulo II: Concepto de Probabilidad Si todos los sucesos elementales son igualmente probables. n.... no son iguales entre sí y. .. al lanzar una moneda: A={2. y el número de elementos de E es n. 6} Como todos los resultados son igualmente probables. 4. es decir. 4. Las probabilidades elementales serán: P(X = υ ) = 1 2υ Obsérvese que las probabilidades elementales. 6} la probabilidad de A será: P(A)=P(2)+P (4)+P(6)=1/6+1/6+1/6=3/6=1/2 Del mismo modo podría obtenerse la probabilidad de cualquier otro suceso asociado a la experiencia aleatoria descrita..4. supongamos que realizamos una experiencia cuyo resultado es el número de veces que hay que lanzar al aire una moneda hasta obtener por primera vez una cara.23 . El Espacio Muestral es: E= { 1.. Evidentemente. Si analizamos el experimento consistente en lanzar un dado perfectamente equilibrado y observar el número de puntos que aparecen en la cara superior. en este caso el Espacio Muestral no puede ser simétrico ó de elementos equiprobables. la probabilidad de un suceso elemental será 1/n y si el suceso A tiene υ elementos.} Designemos genéricamente por X a un elemento de E. como P(E)=1. casos favorables dividido por casos posibles. Por ejemplo. A={2.. 3. y. 2. .Espacios Muestrales infinitos numerables La probabilización de este tipo de Espacios se efectúa de la misma forma que en el apartado anterior..

Espacios Muestrales de la potencia del continuo La única forma mediante la que probabilizaremos estos Espacios Muestrales.3.} será: P( A ) = 1 1 1 1/ 2 2 + 3 + L + 2n −1 + L = = 1 2 2 2 1 − 1/ 4 3 II....24 ..4. 2·n-1. Esta función será estudiada en un capítulo posterior. 3.. II. consistirá en la definición de una función de distribución...Capítulo II: Concepto de Probabilidad A ={1..

25 . Probabilidad condicional II.Capítulo II: Concepto de Probabilidad Tema 3.

CAPITULO III Probabilidad Condicional .

puede modificar la probabilidad de cualquier suceso de ese fenómeno aleatorio. es decir. es decir. 4. pasan a tener una probabilidad nula. cómo se calcula la nueva probabilidad de cualquier suceso de la σ-álgebra. la probabilidad de cualquiera de los seis sucesos elementales es de 1/6. 6. cuando tenemos la información de que ha ocurrido un determinado suceso A de la misma. la probabilidad de que haya ocurrido el suceso “rey”.. la de la definición de la nueva σ-álgebra y la de la III. si sabemos que ha ocurrido el suceso: A ={ 2. F. Si sabemos que el resultado de la tirada ha sido un número par. luego se cumplirá que cualquiera de los tres sucesos elementales 2. 3. pues el conjunto de los posibles resultados del fenómeno aleatorio ha pasado de ser E a ser A. La modificación del espacio muestral implica la del Espacio de Probabilidades y. La probabilidad de extraer un rey es de 4/40=1/10. la información que suministra este conocimiento puede suponer una modificación de las probabilidades de determinados sucesos. ahora. la probabilidad de que la carta extraída sea el rey de oros ha pasado de valer 1/40 a valer 0. otros sucesos no modifican su probabilidad. si el fenómeno consiste en lanzar un dado perfectamente equilibrado. por tanto. 4. 6} sabemos que ha ocurrido uno de los tres números pares. En este capítulo. cada uno de ellos con la misma probabilidad.PROBABILIDAD CONDICIONAL Sea {E. que la experiencia consiste en extraer al azar una carta de una baraja de 40 cartas. por lo que la información suministrada no aporta nada nuevo para el mejor conocimiento de estos sucesos. por tanto. Evidentemente. Supongamos que sabemos que ha ocurrido el suceso A ∈ F. pasan a tener una probabilidad de 1/3 y que cualquiera de los sucesos elementales 1. cuando sabemos que ha ocurrido A. vamos a estudiar. precisamente. Esta información transforma. Analicemos otro ejemplo en el que la información parcial del resultado del fenómeno aleatorio no modifica la probabilidad de determinados sucesos: Supongamos. Nótese. A esta probabilidad se le llamará probabilidad condicional. inmediatamente. pues es imposible que ocurra cualquiera de ellos si ha ocurrido A.27 .2. la misma que si no supiéramos nada respecto al resultado de la extracción (4/40). algunos sucesos modifican su probabilidad bajo esta información parcial. P} el espacio de probabilidades de un cierto fenómeno aleatorio. que aunque no conozcamos más que parcialmente el resultado de la realización del fenómeno aleatorio. Por ejemplo. cuando sabemos que ha salido una copa.Capítulo III: Probabilidad Condicional III. a A en un nuevo espacio muestral. 5. por ejemplo. Por ejemplo.. Sin embargo. es 1/10. Supongamos que sabemos que la carta extraída es una copa.1.INTRODUCCION El conocimiento total o parcial del resultado que ha ocurrido en una realización de un fenómeno aleatorio. III.

así: PA (2)= P(2) 1 / 6 1 = = P( A ) 1 / 2 3 P( A ) =1 P( A ) De la misma forma: PA ( A )= En general.Capítulo III: Probabilidad Condicional nueva probabilidad. Designaremos al nuevo Espacio de Probabilidades mediante: {A. PA}.Cambio de Espacio Muestral Si llamamos genéricamente C a cualquier suceso de F. el Espacio Muestral E se transforma en el A y PA se aplica a los sucesos de FA. por tanto. . Sin embargo. tal que P(A)≠0. es decir. pertenece a F. nótese que las probabilidades de los sucesos de A se obtienen sin más que dividir su probabilidad inicial por la del suceso A. mediante: ∀ B ∈ FA .. Si hacemos corresponder a cualquier suceso C de F la probabilidad: III. B=C∩A} es decir: {B ∈ FA } ↔ {∃ C ∈ F.28 .. conocido que ha ocurrido el suceso A. B2.) ∈ FA se cumple que U Bi ∈ FA i b) ∀ B ∈ FA → CAB ∈ FA En el ejemplo del dado de la introducción. definiremos a FA mediante: FA ={B/ ∃ C ∈ F. Como quedó dicho más arriba. Nótese que la σ-álgebra FA está contenida en F. PA (B)= P(B) P( A ) Se demuestra fácilmente que PA cumple los axiomas de probabilidad.1. E C B A B A Espacio Muestral inicial E Nuevo Espacio Muestral A Figura III. que todo suceso B de FA pertenece también a F.. FA. definiremos a PA. y B a cualquier suceso de FA. podemos extender la probabilidad condicional PA a toda la σ-álgebra F. pues B es intersección de dos sucesos de F y. si sabemos que ha ocurrido el suceso A. B =C∩ A } Puede demostrarse que FA cumple las dos condiciones para ser una σ-álgebra: a) ∀ (B1.

PA) es un Espacio de probabilidades en el que PA es una probabilidad condicional definida por: PA (C)= P(C/A) = P(C ∩ A) P(A) con P(A)≠0. f) La definición de probabilidad condicional se puede aplicar a la propia probabilidad condicional. o bien “sabiendo que ha ocurrido” A. PA} .29 ..2..2.1.2.Definición La terna (E. así: III.2 del capitulo II.Propiedades La probabilidad condicional reúne todas las propiedades de cualquier probabilidad establecidas en apartado II. III. PA (C) = P(C / A ) = P(C ∩ A ) P( A ) En la que P(C/A) se lee probabilidad de C “dado” A.3.2. La probabilidad PA puede escribirse ahora así: ∀ C ∈ F . el Espacio de Probabilidades es {E.Capítulo III: Probabilidad Condicional lo que estamos haciendo es: pues: PA(C)=PA(C ∩ A) PA(C ∩ A )=0 C=(C ∩ A) ∪ (C ∩ A ) con: (C ∩ A) ∩ (C ∩ A )=∅ De esta forma. III. F. F. es decir: a) ∀ C ∈ F es P( C / A) =1-P(C / A) b) P(∅ / A)=0 c) {C1 ⊂ C2} → P(C1 / A) ≤ P(C2 / A) d) ∀ C ∈ F es 0 ≤ P(C / A) ≤ 1 e) P(C1 ∪C2 / A) = P(C1 / A)+P(C2 / A) .P(C1 ∩ C2 / A) y su generalización a n sucesos. o bien probabilidad de que ocurra C “condicionada a” A.

Generalización de la Probabilidad Condicional III.. será: P( A ∩ B ∩ C) = P( A ) ⋅ P(B / A ) ⋅ P [C /( A ∩ B)] III. .TEOREMA DE LA INTERSECCION De la definición de probabilidad condicional se deduce que: P( A ∩ B) = P( A ) ⋅ P(B / A ) = P(B) ⋅ P( A / B) ecuación que se conoce como el Teorema de la Intersección. luego lo es a la probabilidad condicional: PA (B ∩ C) = PA (B) ⋅ PA (C / B) = PA (C) ⋅ PA (B / C) que puede escribirse: P [(B ∩ C) / A ] = P(B / A ) ⋅ P [(C / B) / A ] = P(B / A ) ⋅ P [C /( A ∩ B)] Esta última ecuación nos permitirá establecer el teorema de la intersección para tres sucesos: P(A ∩ B ∩ C) = P[A ∩ (B ∩ C)] = P(A)·P[(B ∩ C) / A] que.2.30 . por lo que acabamos de ver. Este teorema es de aplicación a cualquier tipo de probabilidad.3.Capítulo III: Probabilidad Condicional PA (C / B) = PA (C ∩ B) P( A ∩ B ∩ C) / P( A ) P( A ∩ B ∩ C) = = PA (B) P( A ∩ B) / P( A ) P( A ∩ B) de donde: luego: PA (C / B) = P [(C / B) / A ] = P [(C /( A ∩ B)] P [(C / B) / A ] = P [C /( A ∩ B)] Gráficamente: E B A A C Figura III.

. Sea B un suceso de F.TEOREMA DE LA PARTICIÓN O DE LA PROBABILIDAD TOTAL Sea A1. An una partición de E con Ai ∈ F.4. Este teorema resulta fácilmente generalizable. B y C lo que constituye el Teorema de la Intersección para tres sucesos. A2.. la probabilidad pedida será: P(A1 ∩ A2 ∩ A3) = P(A1)·P(A2 / A1)·P[A3 / (A1 ∩ A2)] = 5/10·4/9·3/8 = 60/720 III.Capítulo III: Probabilidad Condicional E A C B Figura III. Si de dicho lote tomamos al azar y sin reposición tres piezas ¿Cual es la probabilidad de que todas sean correctas? Si llamamos Ai al suceso “la pieza extraída en lugar i es correcta”.31 . ···.3. así para cuatro sucesos es: P(A ∩ B ∩ C ∩ D) = P(A)·P(B / A)·P[C / (A ∩ B)]·P[D / (A ∩ B ∩ C)] En general. para n sucesos es: P( A1 ∩ A 2 ∩ L ∩ A n ) = P( A1 ) ⋅ P( A 2 / A1 ) ⋅ L ⋅ P [A n /( A1 ∩ A 2 ∩ L ∩ A n −1 )] Ejemplo III.1: Consideremos un lote de 10 piezas en el que la mitad no superan el nivel de calidad establecido. aplicando el axioma tercero de la definición de probabilidad: P(B) = ∑ P(B ∩ A i ) = ∑ P( A i ) ⋅ P(B / A i ) i =1 i =1 n n III. Se cumple que: B = U (B ∩ A i ) i =1 n y para i≠j: (B ∩ Ai) ∩ (B ∩ Aj)=∅ Por tanto.Intersección de los sucesos A.

Ejemplo de partición de E Los elementos Ai de la partición de E pueden considerarse como las causas que motivan el suceso B o las circunstancias bajo las cuales puede ocurrir el suceso B. la probabilidad de que la persona seleccionada sea fumador es diferente según se dé la circunstancia de que se produzca la elección entre las mujeres (A1) o entre los hombres (A2) del colectivo. Si en el colectivo hay un 60% de mujeres y sabemos además que son fumadores el 10% de las mujeres y el 25% de los hombres. Ejemplo III. independientemente de que la persona elegida al azar sea hombre o mujer es la dada por la expresión del teorema aquí estudiado. E An B A1 A2 ··· Figura III.2 En consecuencia: P(B)=P(A1)·P(B/A1)+P(A2)·P(B/A2)=0.25 En nuestro caso la partición es del estilo del de la figura III. tendremos las siguientes probabilidades: P(A1)=0.60·0.5.Partición de E del ejemplo III.4.40·0. La probabilidad total de que sea fumador. Consideramos el experimento aleatorio “seleccionar una persona al azar” y en él el suceso (B) que “la persona seleccionada sea fumador”. E A1 B A2 Figura III.10 P(B/A2) = 0.10+0.25=0.5. III.32 .Capítulo III: Probabilidad Condicional ecuación que se conoce como el Teorema de la Partición.16 Como se ha visto..60 P(A2)=0..40 P(B/A1)=0.2: En un colectivo están presentes mujeres (A1) y hombres (A2).

. 2 ≤ K≤ n ∀(B1. De todo lo anterior. se desprende que: {A y B son independie ntes} ↔ {P( A ∩ B) = P( A ) ⋅ P(B)} lo que constituye otra definición..5. de sucesos independientes. An } ∈ F son mutuamente independientes si ∀ K. An} se cumple que: P(B1 ∩ B2 ∩ ....33 .·P(BK) Así.. B2.... A2 y A3 sean mutuamente independientes se deben cumplir las siguientes condiciones: a) P(A1 ∩ A2) = P(A1)·P(A2) b) P(A1 ∩ A3) = P(A1)·P(A3) c) P(A2 ∩ A3) = P(A2)·P(A3) d) P(A1 ∩ A2 ∩ A3) = P(A1)·P(A2)·P(A3) III. . diremos que son independientes si el conocimiento de que ha ocurrido uno de ellos no modifica la probabilidad del otro. .Capítulo III: Probabilidad Condicional III.. equivalente a la anterior.... {A y B son independie ntes} ↔ {P( A / B) = P( A )} Es fácil demostrar que: {P(A/B)=P(A)} ↔ {P(B/A)=P(B)} pues sí: P( A / B) = P( A ∩ B) = P( A ) P(B) se cumple que: P(A ∩ B)=P(A)·P(B) en consecuencia: P(B / A ) = P( A ∩ B) P( A ) ⋅ P(B) = = P(B) P( A ) P( A ) Cambiando A por B queda demostrado el recíproco. . BK) ⊂ { A1. .1. A2. A2.5. ∩ BK) = P(B1)·P(B2 )·..SUCESOS INDEPENDIENTES III.Definición Dados los sucesos A y B. Podemos realizar la generalización de la siguiente forma: Diremos que los sucesos {A1. para que A1.

.34 . An son sucesos mutuamente independientes. también lo son A y B En efecto.P(B / A )] Por la propiedad anterior si A y B son independientes. A2. Su enunciado es el siguiente: Sea A1. lo que pone de manifiesto su gran importancia teórica. El enfoque bayesiano de la Estadística se fundamenta en este teorema. An una partición de E. varios o todos los sucesos Ai por sus complementarios. . por definición de probabilidad condicional: P(A ∩ B ) = P(A)·P( B / A) Por una propiedad de la probabilidad condicional: P(A ∩ B ) = P(A)·[1 . es decir: E= i =1 n U Ai y para i ≠ j Ai ∩ Aj = ∅ P ( Ai / B ) = P ( Ai ∩ B ) P( B ) Sea B un determinado suceso de F tal que P(B)≠0. se puede demostrar que si A1.2. también lo son cualquier conjunto de sucesos que resulte de cambiar uno. . A2.. por lo que P(B/ A )=P(B)..5.TEOREMA DE BAYES Este teorema fue desarrollado por Thomas Bayes (1702-1761). A y B son independientes: P(A ∩ B ) = P(A)·[1 ..Capítulo III: Probabilidad Condicional III.6. .. III.Propiedades a) Si A y B son independientes.P(B)] = P( A )·P( B ) {Si A y B son independientes} → { A y B son independientes} c) Generalizando las dos propiedades anteriores. por hipótesis. luego: P( A ∩ B ) = P( A )·[1 . Entonces se cumple que: Por el teorema de la intersección: III.P(B / A)] Como.. también lo son B y A .P(B)] es decir: P(A ∩ B ) = P(A)·P( B ) {Si A y B son independientes} → { A y B son independientes} b) Si A y B son independientes A y B también lo son: P( A ∩ B ) = P( A )·P( B / A ) = P( A ∩ B ) = P( A )·[1 . .

44 ⋅ 0.01 La probabilidad buscada es: P ( A3 / B ) = P ( A3 ) ⋅ P ( B / A3 ) P ( A1 ) ⋅ P( B / A1 ) + P( A2 ) ⋅ P ( B / A2 ) + P ( A3 ) ⋅ P ( B / A3 ) 0. en función de las probabilidades de las causas y la de los efectos dadas las causas. Se extrae un tornillo al azar que resulta ser defectuoso.000 fabricadas por A2 y 20.03 es decir: P ( A3 / B ) = La probabilidad de la causa A3 era igual a 0.02 + 0.33 2 45 20 P( A ) = = 0.Capítulo III: Probabilidad Condicional P(Ai ∩ B)=P(Ai )·P(B / Ai ) Por el teorema de la partición: P ( B ) = ∑ P( Ai ) ⋅ P ( B / Ai ) i =1 n Con lo que queda demostrado que P ( Ai / B ) = P ( Ai ) ⋅ P( B / Ai ) n ∑ P( Ai ) ⋅ P( B / i =1 Ai ) En alguna ocasión. ¿Cuál es la probabilidad de que el tornillo hubiera sido fabricado por A3?.35 . 15.3: Supongamos que las partidas de tornillos que suministran tres proveedores A1.44 3 45 P( A1 ) = Las probabilidades del efecto dada la causa son: P(B / A1) = 0. Las probabilidades de las causas son: 10000 10 = = 0.22 10000 + 15000 + 20000 45 15 P( A ) = = 0. 0. 2% y 3% de unidades defectuosas. Cada tornillo puede ser clasificado como defectuoso (B) o como no defectuoso.60. III. Ejemplo III.03 = 0. a los sucesos Ai se les ha llamado causas y a B efecto.60 0.000 por A3. Con ésta nomenclatura. En un almacén hay 10.033 P(B / A2) = 0. A2 y A3 tienen respectivamente. 1%. después de conocer que el tornillo extraído es defectuoso.44 y pasa a ser.02 P(B / A3) = 0.22 ⋅ 0.44 ⋅ 0.33 ⋅ 0.01 + 0.000 unidades fabricadas por A1. el teorema de Bayes permite calcular la probabilidad de que cuando se ha dado el efecto B la causa haya sido Ai.

4: Los expertos de una cierta empresa. 0 .25 y 0.235 P ( A1 / B ) = III.1 P(B/A2) = 0.2 P ( A2 / B ) = = 0. a P(Ai) se le llama probabilidad “a priori” del suceso Ai. han calculado que ésta controla el 10%.085 0.36 .55.2 P(A2) = 0.25 P(A3) = 0. Si llamamos A1 a la proposición “ la empresa controla el 10% del mercado”.2. que tras observar el resultado B se transforma en la probabilidad “a posteriori” P(Ai/B). Ejemplo III. las probabilidades “a priori” serán: P(A1) = 0.P( B / i =1 n Ai ) = 0.235 luego. 0.1+0.1 = 0.213 0.2 ⋅ 0 .25·0.Capítulo III: Probabilidad Condicional Desde el punto de vista bayesiano.25 ⋅ 0.235 0.P( B / i =1 n Ai ) El denominador de esta expresión es: ∑ P( Ai ).2+0.3 P ( A3 / B ) = = 0. Si llamamos B a la proposición “el encuestado es cliente de la empresa”.702 0. será: P(B/A1) = 0.P ( B / AK ) ∑ P( Ai ).55 ⋅ 0.55.3 = 0.3 Las probabilidades “a posteriori” serán: P( AK / B ) = P ( AK ). ¿Cuales son las probabilidades “a posteriori”?. A2 a la proposición “la empresa controla el 20% del mercado” y A3 a la proposición “la empresa controla el 30% del mercado”.2 P(B/A3) =0.55·0. el 20% o el 30% del mercado con probabilidades respectivas de 0.235 0. Si al encuestar al azar a un consumidor resulta que éste adquiere el producto de la empresa en cuestión.2·0.

Capítulo III: Probabilidad Condicional Tema 4.37 . Variables aleatorias III.

CAPÍTULO IV: Variables Aleatorias Unidimensionales .

son ejemplos de magnitudes que cumplen los requisitos de una variable aleatoria unidimensional.CONCEPTO DE VARIABLE ALEATORIA UNIDIMENSIONAL De forma intuitiva puede considerarse como una variable aleatoria unidimensional a cualquier magnitud que puede tomar valores en un determinado dominio de forma impredecible influida por el azar. si y sólo si. En esencia..A. definiremos a una variable aleatoria unidimensional.Definición de variable aleatoria unimendional IV.Capítulo IV: Variables Aleatorias IV. la longitud. el peso de un fruto. pueden ser tomados como ejemplos de variables aleatorias multidimensionales. la duración de un componente electrónico. F. lo que determina que una magnitud pueda ser considerada como una variable aleatoria es la impredecibilidad de sus valores en situaciones concretas y la posibilidad de probabilizar el Espacio Muestral definido por ℜ.1. debemos formalizar el concepto de variable aleatoria de cara a su aplicación en el campo de la Teoría de la Probabilidad y de la Inferencia Estadística. dando lugar al concepto de variable aleatoria multidimensional.1.. mediante: (X: E→ℜ es V. la antiimagen de cualquier intervalo Ix=]-∞. A pesar de lo sencillos e intuitivos que son los conceptos anteriormente expuestos. P) diremos que la aplicación X:E→ℜ es una variable aleatoria unidimensional. la resistencia a la rotura de una probeta de hormigón. El concepto establecido para las variables aleatorias unidimensionales puede extenderse al caso en que en cada observación se evalúen varias magnitudes simultáneamente. En resumen.-Definición de variable aleatoria unidimensional Dado un Espacio de Probabilidades (E. etc.39 . El número de puntos obtenidos al lanzar un dado. O(Ix) ∈ F} Entonces: P(I x ) = P( X ∈ I x ) = P [O x (I x )] = P [X(e) ≤ x ] = P( X ≤ x ) ℜ E F O(Ix) ∈ F Ix e X X(e) x Figura IV. etc. diámetro y peso de un cilindro torneado.1.1. estatura y perímetro torácico de un individuo.x] pertenece a la σ-álgebra F. El peso.) ↔ {∀ x ∈ ℜ. IV.

pues como acabamos de ver.Propiedades FX(x) = P(Ix) = P(X(e)≤x) = P(X≤x) La función de distribución tiene las siguientes propiedades: a) ∀ x ∈ ℜ es 0 ≤ FX(x) ≤ 1. siendo discontinua por la IV.. En efecto.2. b] ) = P( ]-∞. si a<b se cumple que: ]-∞.b] = ∅ Por el axioma tercero de la definición de probabilidad P( ]-∞.2..b] ) es decir: P(X≤b) = P(X≤a) + P(a<X≤b) de donde. f) Continuidad: La función de distribución es continua por la derecha en cualquier punto de la recta real y continua por la izquierda en todo punto de probabilidad nula.b]) = FX(b) . se llama función de distribución de esta variable a la función FX(x) definida como sigue: ∀x∈ℜ IV. a] ∪ ]a.1. por la definición de función de distribución: por tanto: FX(b) = FX(a) + P(a<X≤b) P X ∈ ] a.40 .2.FX(a). Por ser P(a<X≤b) ≥ 0 será FX(b) ≥ FX(a). a] ∩ ]a.2.Capítulo IV: Variables Aleatorias IV.1. b] = ]-∞.Definición Dada una variable aleatoria X.b] y que ]-∞. b] = FX (b) − FX (a) ( ) e) La función de distribución es no decreciente. pues FX(x) es una probabilidad. b) El lim FX ( x ) = 1 pues: x →∞ x →∞ lim FX ( x ) = lim P( X ≤ x ) = P( X ≤ ∞ ) = P(ℜ) = 1 x →∞ c) El lim FX ( x ) = 0 pues: x → −∞ x → −∞ lim FX ( x ) = lim P( X ≤ x ) = P( X ≤ −∞ ) = P(∅ ) = 0 x → −∞ d) La P(X ∈ ]a.Función de distribución IV. si a<b es FX(b)=FX(a)+P(a<X≤b).1. a] ) + P( ]a..1.

FX(x) es continua en todo punto de probabilidad nula y discontinua en todo punto de probabilidad no nula.Continuidad de la función de distribución IV. una variable aleatoria discreta tiene la masa de probabilidad concentrada en un conjunto discreto de puntos.1. x1 m1=P(x1) x2 . para a<b.Analogía mecánica En determinadas ocasiones resulta útil identificar el concepto de probabilidad con el de masa.1.2.4.3. de esta forma a cada variable aleatoria le corresponde una determinada distribución de masa a lo largo del eje de abscisas. por ejemplo.. es algo así como un rosario de puntos con masa distinta de cero.. xi mi=P(xi) . IV. Por ejemplo. FX(x) FX(a) P(X=a) a X Figura IV. En la analogía mecánica expuesta en el apartado anterior. Así. la masa total contenida en todo el eje de las x vale la unidad. x]=IX... es decir. y FX(x) será la masa contenida en el intervalo ]+∞.Variables discretas Diremos que la variable aleatoria X es discreta si el conjunto imagen de la aplicación X:E→ℜ es discreto.3. Figura IV. Lógicamente. b].. si la experiencia aleatoria consiste en lanzar un dado y X(e) es el número que obtenemos en el lanzamiento.Capítulo IV: Variables Aleatorias izquierda en todo punto de probabilidad no nula con salto igual a la probabilidad de dicho punto. En consecuencia. FX(b)-FX(a) es la masa de probabilidad que se encuentra en el intervalo ]a.Variable aleatoria discreta La función de distribución se calculará mediante: FX ( x ) = P( X ≤ x ) = P( X ∈ Ix ) = x i ∈I x ∑ P( X = xi ) = ∑ PX ( xi ) x i ∈I x IV..41 ... X es una variable aleatoria que tiene distribuida la masa de probabilidad en 6 puntos conteniendo cada uno de ellos una masa igual a 1/6.

la probabilidad de cada valor de X será: 1 2 1 1 1 P ( X = 2 ) = P Cara1 ∩ Cara2 = ⋅ = 2 2 4 1 1 1 1 P ( X = 3 ) = P Cara1 ∩ Cara2 ∩ Cara3 = ⋅ ⋅ = 2 2 2 8 M 1 1 1 1 P ( X = n ) = P Cara1 ∩ L ∩ Caran −1 ∩ Caran = ⋅ L ⋅ ⋅ = n 2 2 2 2 P ( X = 1 ) = P ( Cara1 ) = ( ) ( ) ( ) Aplicando el concepto de función de distribución: FX (1 ) = 1 2 FX ( 2 ) = 1 1 + 2 4 ··· FX ( n ) = 1 1 1 + +L+ n 2 4 2 Gráficamente: IV.Capítulo IV: Variables Aleatorias en la que Ix = ]+∞. el campo de existencia de esta variable es: E = {1. x]. El aspecto típico de la representación gráfica de la función de distribución de una variable aleatoria discreta es el de una curva en escalera como el de la figura IV. en la que en cada punto con probabilidad no nula se produce un salto igual a esta probabilidad. por lo que el valor de FX(x) en éstos puntos de probabilidad no nula es el de la parte superior de cada salto.42 .1: Si consideramos la variable aleatoria X.Función de distribución de la variable discreta Ejemplo IV. xi son los puntos de Ix que tienen una probabilidad no nula y PX(x) es la función de probabilidad de la variable aleatoria X. Recuérdese que la función de distribución es continua por la derecha y discontinua por la izquierda en todo punto de probabilidad no nula. 4. FX(x) FX(x4) P(X=x4) x1 x2 x3 x4 X Figura IV..4. número de veces que hay que lanzar una moneda hasta obtener cara por primera vez. 2.. n} Teniendo en cuenta que el resultado obtenido en cada lanzamiento es independiente de los resultados obtenidos en los demás lanzamientos...4.. 3.

pues P(x<X≤x+Δx) es la masa de probabilidad contenida en el intervalo ]x. si existe una función fX(x) no negativa. llamada función de densidad.1 IV. por tanto. no basta que su función de distribución sea continua en todos sus puntos. IV.5.x+Δx] y. sino que por razones de tipo práctico hay que definirlas de distinta forma: Diremos que la variable aleatoria es absolutamente continua o simplemente continua. además.5 ··· 0 1 2 3 4 X Figura IV. a) Teniendo en cuenta la definición de FX(x).5..1.43 ..Capítulo IV: Variables Aleatorias FX(x) 1 0.Variables continuas Para que una variable aleatoria sea continua. es derivable con derivada continua excepto a lo sumo en un conjunto de puntos tales que todo intervalo finito contiene un número finito de ellos. que para todo x real cumple la condición de que FX (x) = ∫ x −∞ f X (x) ⋅ dx La definición anterior.75 0.Función de distribución del ejemplo IV. si su función de distribución es continua para todo x real y. es equivalente a la siguiente definición basada en las características de la función de distribución: La variable aleatoria es continua. será: dFX ( x ) d = dx dx ∫ x −∞ fX ( x ) ⋅ dx = fX ( x ) por tanto: fX ( x ) = dFX ( x ) dx como: fX ( x ) = dFX ( x ) F ( x + Δx ) − FX ( x ) P( x < X ≤ x + Δx ) = lim X = lim Δx → 0 Δx → 0 dx Δx Δx Queda justificado el nombre de función de densidad.

b]) = ∫ b a f ( x ) ⋅ dx A la misma conclusión llegamos aplicando la regla de Barrow: ∫ b a fX ( x ) ⋅ dx = FX (b) − FX (a) = P (X ∈ ] a. la variable Y=g(x) será una variable aleatoria si ∀ y ∈ ℜ.2. la probabilidad de cada uno de sus puntos es cero.b]. FUNCIONES DE VARIABLES ALEATORIAS Si X es una variable aleatoria y g(x) una función uniforme. si g(x) es monótona creciente o monótona decreciente) y X e Y son variables continuas y designamos por g-1(y) a la función inversa de g. la P(X ∈ [a. b]) = P (X ∈ [a. el eje de abscisas y la función de densidad. Si g(x) establece una correspondencia biunívoca entre X e Y. b) Nótese que en una variable continua. La masa de probabilidad contenida en [a. ∀ x ∈ ℜ P(X=x)=0. es la densidad de masa en el punto x. x=b. es decir. IV. En consecuencia. Og(IY) pertenece a la σ-álgebra de X. es: P (X ∈ [a. entonces podemos calcular Fy(y) y fy(y) mediante: a) Si g(x) es creciente: IV. y de acuerdo con lo establecido en el apartado correspondiente a las propiedades de la función de distribución. El límite de este cociente cuando Δx tiende a cero.44 . por ser su función de distribución continua. (es decir. no hay masa pero si hay densidad de masa variable con x e igual a fX(x). b]) La última igualdad se cumple porque al ser X continua es P(X=a)=0. en cada punto de una variable continua. c) La masa de probabilidad contenida en un segmento diferencial dx es fX(x)·dx. b]) coincide con el área limitada por las rectas x=a.Capítulo IV: Variables Aleatorias P(x < X ≤ x + Δx ) Δx es la masa por unidad de longitud en ese intervalo. Siguiendo la analogía mecánica.

Función g(x) creciente La función de distribución de Y es FY(y)=P(Y≤y)=P(g(X)≤y)=P(X≤g-1(y))=FX(g-1(y)) derivando respecto de y obtendremos la función de densidad: fY ( y ) = dFY ( y ) dFX (g−1( y )) dFX (g−1( y )) d(g−1( y )) = = ⋅ dy dy d(g−1( y )) dy de donde: fY ( y ) = fX (g−1( y )) ⋅ dx dy Nótese que dx ≥0..Función g(x) decreciente La Función de distribución de Y es: FY(y)=P(Y≤y)=P(g(X)≤y)=P(X>g-1(y))=1-FX(g-1(y)) derivando respecto de y: IV.14..45 .Capítulo IV: Variables Aleatorias Y Y=g(X) y=g(x) x=g (y) -1 X Figura IV.13. dy b) Si g(x) es decreciente: Y y=g(x) Y=g(X) x=g (y) -1 X Figura IV.

3.. será: Y=2·X entonces x=g-1(y)= por lo que dx 1 = dy 2 y 2 Finalmente. IV.ESPERANZA MATEMÁTICA IV.46 ..Capítulo IV: Variables Aleatorias fY ( y ) = dFY ( y ) dF (g−1( y )) dF (g−1( y )) d(g−1( y )) =− X = − X −1 ⋅ dy dy dy d(g ( y )) de donde: fY ( y ) = −fX (g−1( y )) ⋅ dx dy En la que dx ≤0 dy Ambos casos pueden ser escritos mediante la ecuación única: fY ( y ) = fX (g−1( y )) ⋅ dx dy Ejemplo IV.1.Introducción IV.2 La duración X de unos componentes electrónicos puede asumirse que es una variable aleatoria exponencial (EXP(θ)) con función de densidad: f(x)=θ e-θx ∀x≥0 Un determinado cambio en el diseño permite duplicar la duración de dichos componentes.3. ¿Cuál será la función de densidad de la variable que describe la duración de los nuevos componentes? Si llamamos Y a esta nueva variable. sustituyendo se obtiene: fY ( y ) = θ ⋅ e −θ ⋅ y 2 ⋅ 1 θ − 2 ⋅y = ⋅e 2 2 θ con y≥0 con lo que resulta otra exponencial EXP(θ/2).

-1.Concepto Dada la variable aleatoria X de función de distribución FX(x) y la función uniforme g(x). IV. tiene como campo de existencia X= (-2. Y para variables continuas es: E [g( x )] = ∫ g(x) ⋅ f (x) ⋅ dx -∞ X +∞ Nótese que. ¿Con cuántas pesetas debe penalizarse cada punto de diferencia negativa si queremos que el valor medio de la ganancia del jugador sea de 10 ptas. Si la diferencia es no negativa se ganan 100 Ptas. 3) y todos sus valores tienen la misma probabilidad PX(xi) = 1/6.3.Capítulo IV: Variables Aleatorias A lo largo de este capítulo se van a manejar conceptos relativos a la teoría de la medida o integración generalizada que el lector puede no poseer. Por ello los contenidos del capítulo se exponen de manera que puedan ser asimilados sin disponer de un conocimiento profundo de dicha teoría.3 (Variables discretas) Un juego consiste en lanzar un dado y determinar la diferencia entre el número de puntos obtenidos y el número 3.2. por cada punto de diferencia. La ganancia G(x) tiene la expresión: G(x)= 100·x si x≥0 G(x)= C·x si x<0 donde C es la penalización que debe imponerse por cada punto de diferencia negativa obtenido. IV. 0. 2. Ejemplo IV.47 . 1.. la esperanza matemática no existe si la serie o la integral (según corresponda) no es convergente.? La variable X=“diferencia entre el número de puntos obtenido y el número 3”. llamaremos Esperanza Matemática de g(x) a: E [g( x )] = ∫ g(x) ⋅ dF (x) ℜ X Para variables discretas es: E [g( x )] = ∑ g( xi ) ⋅ PX (xi ) i en la que xi son los valores de la variable X de probabilidad no nula (PX(xi)≠0). según esta definición.

. de penalización. se denomina Esperanza Matemática de una variable aleatoria X a: E( X) = ∫ x ⋅ dF(x) ℜ que se designará.Capítulo IV: Variables Aleatorias Calculando el valor medio de la ganancia e igualando a 10 pts.. es decir: E(X1+X2) = E(X1) + E(X2) E(k⋅X) = k⋅E(X) En efecto...Propiedades a) La esperanza matemática es un operador lineal.. se obtiene fácilmente generalizando el de una variable unidimensional: E [g( X1.: E ( g ( x )) = ∑ g( x ) ⋅ P ( x ) = 10 i X i i =1 6 C·(-2)·1/6 +C·(-1)·1/6 +100·1·1/6 +100·2·1/6 +100·3·1/6 =10 Con lo que se obtiene que C=180 pts. xn ) o también: r E g( X) = [ ] ∫ ℜ n r r r g( x ) ⋅ dFX ( x ) IV.. x 2 ) = ∫ ℜ2 x1 ⋅ dF(x1. simplemente por μ.. x n ) ⋅ dFX ( x1. teniendo en cuenta las propiedades de la integral de Stieljes: E( X1 + X2 ) = ∫ ℜ2 ( x1 + x 2 ) ⋅ dF(x1. El concepto de esperanza matemática de una función de variable aleatoria n-dimensional. x 2 ) + ∫ ℜ2 x 2 ⋅ dF(x1.48 .. x 2 ) = ∫ x ⋅ dF(x ) ℜ 1 1 1 ℜ 2 E( X1 + X2 ) = ∫ x ⋅ dF(x ) + ∫ x ℜ 1 ⋅ dF( x 2 ) E( X1 + X2 ) = E( X1 ) + E( X2 ) Así mismo E(k ⋅ X) = ∫ k ⋅ x ⋅ dF(x) = k ⋅ ∫ x ⋅ dF(x) ℜ ℜ por lo tanto IV. ℜ2 x1 ⋅ dF(x1.3.. cuando no se preste a la confusión. Xn )] = ∫ ℜn r g( x1.3. x 2 ) y que además ∫ obtenemos que es decir.. En particular.. también por μX o...

Capítulo IV: Variables Aleatorias E(k ⋅ X) = k ⋅ E(X) b) Si las variables aleatorias X e Y son independientes. t) ⎤ E X [g( x.25 ⋅ x) ⋅ 1 ⋅ dx = 187.25·x Calcular el coste medio por movimiento sabiendo que la función de densidad de una distribución uniforme en el intervalo [a. entonces: E(X·Y) = E(X)·E(Y) En efecto: E( X ⋅ Y ) = ∫ ℜ2 x ⋅ y ⋅ dF( x.400] Por lo tanto. t )] = E X ⎢ ⎥ dt ⎣ dt ⎦ Ecuación que será utilizada en la función característica. Ejemplo IV.b] SOLUCIÓN: La función de densidad de la variable carga será: f X (x) = 1 1 = 400 − 300 100 con x ∈ [300. es una función de la carga dada por la expresión g(x) = 100 + 0. el valor medio del coste por movimiento es: E [g(X)] = ∫ X g(x) ⋅ f X (x) ⋅ dx = ∫ 400 300 (100 + 0.5 pts 100 IV.4 (Variables continuas) La carga que tiene que transportar una carretilla en cada movimiento es una variable aleatoria X con distribución uniforme entre 300 y 400 Kg. t) ⋅ dF(x) dt de donde: d ⎡ d g(x. y ) = ∫ x ⋅ dF(x) ⋅ ∫ y ⋅ dF(y) = E( X) ⋅ E(Y) ℜ ℜ Se cumple entonces que { X e Y son independientes} ⇒ { E( X ⋅ Y ) = E( X) ⋅ E( Y )} c) Por una propiedad de la Integral de Stieljes. t )] = dt dt ∫ g(x. se cumple que: d d E X [g( x. El coste de cada movimiento expresado en pesetas.b] es: f X (x) = 1 b−a con x ∈ [a.49 . t) ⋅ dF(x) = ∫ ℜ ℜ d g(x.

Capítulo IV: Variables Aleatorias IV. el momento central de orden ν de la variable aleatoria X será: μν = ∫ +∞ −∞ ( x − α1 )ν ⋅ fX ( x ) ⋅ dx IV. simplemente por μ. α1 es la esperanza matemática o valor medio de X.50 . En particular. Denominaremos momento central de orden ν de la variable aleatoria X a: μ ν = E ( X − α1 ) ν = [ ] ∫ ℜ ( x − α1 )ν ⋅ dFX ( x ) Si X es discreta.4. pues μ1=E(X-α1)=E(X)-E(α1)=E(X)-E(μX)=μX-μX=0 b) El momento central μν se puede obtener en función de los momentos respecto al origen fácilmente sin más que desarrollar el binomio (x-α1)ν y aplicar las propiedades del operador E.4. la definición anterior es: α ν = ∑ x iν ⋅ dPX ( x i ) ℜ en la que por xi se designa genéricamente a los valores de X cuya probabilidad es no nula.4...MOMENTOS IV. teniendo en cuenta una propiedad de la Integral de Stieljes. la definición de momento de orden ν respecto al origen se escribirá: αν = +∞ -∞ ∫ x ν ⋅ fX ( x ) ⋅ dx en la que f(x) es la función de densidad de la variable aleatoria X. la definición anterior se escribirá: μ ν = ∑ ( x i − α1 )ν ⋅ PX ( x i ) i Si X es continua.1. y lo designaremos por μX o. por ejemplo: IV..Concepto Se denomina momento de orden ν respecto al origen de la variable aleatoria X a αν = ∫x ℜ ν ⋅ dFX ( x ) Si X es discreta.2. Si X es continua.Propiedades a) El momento central de primer orden es siempre nulo. Así.

por lo tanto. σ2 se calcula mediante: σ 2 = D2 ( X ) = X ∫ +∞ −∞ ( x − μ X )2 ⋅ fX ( x ) ⋅ dx en la que fX(x) es la función de densidad de X.Concepto Al momento central de orden dos μ2.VARIANZA IV. expuesta en un tema anterior. sino por su distancia al centro de gravedad elevada al cuadrado. los elementos diferenciales de masa de probabilidad no se multiplican por su distancia al origen.5. IV. el momento de inercia de la masa de probabilidad y es una medida del grado de dispersión de está masa. En la varianza.5. pues su masa de probabilidad está concentrada en un punto.2. Representa. La media no es más que la suma de los productos de los elementos diferenciales de masa de probabilidad multiplicados por su distancia al origen. la media no es más que el centro de gravedad de la masa de probabilidad. la aplicación de la analogía mecánica. Las propiedades de la varianza son: a) La varianza de una constante es cero.Capítulo IV: Variables Aleatorias 2 2 μ 2 = E ( x − α1 )2 = E( x 2 + α1 − 2 ⋅ x ⋅ α1 ) = α 2 + α1 − 2 ⋅ α1 2 [ ] 2 μ2 = α 2 − α1 De la misma forma se deduce que: 3 μ 3 = α 3 − 3 ⋅ α1 ⋅ α 2 + 2α1 IV..1. se le denomina varianza y también se le designa por σx2 y por D2(X).. a las definiciones de media y varianza..51 . Como la masa total es la unidad. Indica “por donde” se encuentra situada la masa de probabilidad. su centro de gravedad está en ese punto y las distancias de los puntos con masa IV.Propiedades Ayudará a la comprensión de las propiedades que se exponen a continuación. En el caso continuo.5. En el caso de X discreta se calcula mediante: σ2 = D2 ( X) = ∑ ( x i − μ X )2 ⋅ P( X = x i ) X i en la que los xi son los valores de X con probabilidad no nula.

μX)2] = k2·E[(X . el valor medio de k·X es: Por lo tanto: es decir: D2 (k ⋅ X) = k 2 ⋅ D2 ( X) E(k·X) = k·E(X) = k·μX D2(k·X) = E[(k·X . el momento de inercia también lo es: D2 (k ) = ∫ (k − k ) ℜ 2 ⋅ dFX ( x ) D 2 (k ) = 0 b) D2(k·X) = k2·D2(X) En efecto.μX)2] c) La varianza de a·X+b es a2·D2(X) En efecto. por tanto. X2 ) 2 IV.k·μX)2] = E[k2·(X .X2). Por tanto: 2 D2 (a1 ⋅ X1 + a2 ⋅ X2 ) = a1 ⋅ D2 ( X1 ) + a2 ⋅ D2 ( X2 ) + 2 ⋅ a1 ⋅ a2 ⋅ cov( X1. como es: por tanto: D2 (a ⋅ X + b) = a2 ⋅ D2 ( X) E(a·X+b) = a·μX+b D2 (a ⋅ X + b) = E ((a ⋅ X + b) .(a ⋅ μ X + b)) = E a2 ⋅ ( X − μ X )2 2 [ ] [ ] d) Varianza de la combinación lineal de dos variables: Como entonces E(a1·X1+a2·X2)=a1·μ1+a2·μ2 D2(a1·X1+a2·X2) = E ( [(a1 ⋅ X1 + a2 ⋅ X2 ) − (a1 ⋅ μ1 + a2 ⋅ μ 2 )] 2 ) de donde: D2(a1·X1+a2·X2) = E ( [(a1 ⋅ ( X1 − μ1 ) + a2 ⋅ ( X2 − μ 2 )] 2 ) elevando al cuadrado y aplicando las propiedades del operador E: 2 D2(a1·X1+a2·X2) = a1 ⋅ D2 ( X1 ) + a2 ⋅ D2 ( X2 ) + 2 ⋅ a1 ⋅ a2 ⋅ E [( X1 − μ1) ⋅ ( X2 − μ 2 )] 2 A la expresión: E[( X1 − μ1 ) ⋅ ( X2 − μ 2 )] se le denomina covarianza de X1 y X2 y se le representa por cov(X1.52 .Capítulo IV: Variables Aleatorias al centro de gravedad son nulas y.

Si g(X) es una función no negativa de la variable aleatoria X. la covarianza de X1 y X2. se cumple que ∀ h ∈ ℜ+: P [g( X) ≥ h] ≤ E [g( X)] h Sea Ah el conjunto de los valores de X que satisfacen a g(x)≥h.6.Valores de X que satisfacen que g(X)≥h Por ser Ah ⊂ ℜ (en sentido amplio): IV. es nulo. la varianza de la suma es la suma de las varianzas.TEOREMA DE TCHEBYCHEFF.. sustituyendo en la ecuación anterior: {X1 y X2 son independientes} → {D2 ( X1 + X2 ) = D2 ( X1) + D2 ( X2 )} es inmediato que: {X1 y X2 son independientes} → {D2 ( X1 .X2 ) = D2 ( X1) + D2 ( X2 )} IV. En efecto.53 . pues por ser las dos variables independientes se cumple que: E[( X1 − μ1 ) ⋅ ( X2 − μ 2 )] = E( X1 − μ1 ) ⋅ E( X2 − μ 2 ) = (μ1 − μ1 ) ⋅ (μ 2 − μ 2 ) = 0 por tanto.15. g(x) ≥ h} Gráficamente: g(X) h X Ah Figura IV.. si las variables X1 y X2 son independientes.Capítulo IV: Variables Aleatorias En general: n −1 n ⎛ n ⎞ n D2 ⎜ ∑ ai ⋅ Xi ⎟ = ∑ ai2 ⋅ D2 ( Xi ) + 2 ⋅ ∑ ∑ ai ⋅ a j ⋅ cov( Xi . es decir A h = { x ∈ ℜ. el término cov(X1.X2) es decir. X j ) ⎜ ⎟ i =1 i +1 ⎝ i =1 ⎠ i =1 e) Si dos variables aleatorias son independientes.

IV. IV.54 . Describiremos los más usuales..7. por ser muy asimétrica la distribución de la masa de probabilidad.7. IV.1. la media represente mal a la posición de la masa. Xn ) Por otra parte. la ecuación anterior se escribe: P ( X − μ X )2 ≥ k 2 ⋅ σ2 ≤ [ ] σ2 k 2 ⋅ σ2 de donde: P X − μX ≥ k ⋅ σ ≤ [ ] 1 k2 Ecuación que es conocida como la desigualdad de Bienaymé-Tchebycheff. si g(x)=(x-μX)2.. y h=k2⋅σ2. dispersión. o bien puede ocurrir que. asimetría y curtosis (o apuntamiento) de la masa de probabilidad.. la media puede no existir. r X = ( X1. X2.. Aunque la distribución de una variable aleatoria queda perfectamente caracterizada por su función de distribución o bien por su función de densidad (en variables continuas) o por su ley de probabilidades (en variables discretas). con el fin de describir determinados aspectos de la distribución de masa de probabilidad de una variable aleatoria.Capítulo IV: Variables Aleatorias E [g( x )] = ∫ g(x) ⋅ dF (x) ≥ ∫ g(x) ⋅ dF (x) ℜ X Ah X Por ser g(x)≥h para todo x∈Ah: ∫ g(x) ⋅ dF (x) ≥ h ⋅ ∫ dF (x) = h ⋅ P( X ∈ A ) = h ⋅ P [g( X) ≥ h] Ah X Ah X h En consecuencia: P [g( X) ≥ h] ≤ E [g( X)] h Es fácil comprobar que la demostración es la misma si sustituimos la variable aleatoria unidimensional X por la variable aleatoria n-dimensional.PARÁMETROS DE UNA DISTRIBUCIÓN. El más frecuentemente utilizado es el valor medio o esperanza matemática. Sin embargo.Parámetros de posición Estos parámetros indican por donde se encuentra situada la masa de probabilidad a lo largo del eje de abscisas. que. en cuyo caso se utilizan otros parámetros de posición.. como sabemos.. se utilizan ciertos parámetros que indican la posición. representa el centro de gravedad de la masa de probabilidad.

los momentos respecto al origen de orden impar (si existen) son siempre nulos.. como sabemos.16. las unidades de σ2 son las de la variable aleatoria X elevadas al cuadrado. la media.Parámetros de posición en distribuciones asimétricas IV.Capítulo IV: Variables Aleatorias La mediana es la abscisa del punto de intersección de la función de distribución con la recta FX(x)=0. se utiliza como medida de asimetría a: IV.5. Con el fin de utilizar un parámetro adimensional. representa al momento de inercia de la masa de probabilidad y puesto que ésta es constante e igual a la unidad. se toma como mediana la abscisa del punto medio de este segmento. Es un parámetro adimensional. Sin embargo. por otra parte. La moda corresponde a un máximo relativo de la función de densidad o de la ley de probabilidades. que se define como el cociente entre la desviación típica y la media.7. Evidentemente..2.. IV. Tiene las mismas unidades que la variable x. En el caso de que ésta intersección no sea un punto sino un segmento. Como. El parámetro más utilizado es la varianza σ2 que. En distribuciones asimétricas. en distribuciones simétricas unimodales. σ2 aumenta a medida que la masa de probabilidad se dispersa.Parámetros de asimetría Si la masa de probabilidad se distribuye simétricamente. que se define como la raíz cuadrada positiva de la varianza y se representa por σ. fX(x) mediana fX(x) mediana moda media X media moda X Figura IV.55 . Una misma variable puede tener más de una moda. Por esta razón se utiliza con mucha frecuencia a la desviación típica. La mediana tiene un 50% de masa de probabilidad a su izquierda y otro 50% de masa a su derecha. μ1 siempre es nulo. Otro parámetro de dispersión lo constituye el coeficiente de variación.7. la mediana y la moda coinciden.3. se puede utilizar μ3 como una medida de asimetría.Parámetros de dispersión Estos parámetros tratan de medir el mayor o menor grado de concentración o de dispersión de la masa de probabilidad. la posición relativa de estos parámetros es la que se muestra en la figura IV.16.

Parámetros de apuntamiento El coeficiente de apuntamiento o curtosis.Capítulo IV: Variables Aleatorias γ1 = μ3 σ3 En una función de densidad unimodal con una rama larga a la derecha y otra corta a la izquierda. IV.4. trata de medir el grado de apuntamiento de la distribución en las proximidades de su media y se define por: γ2 = μ4 −3 σ4 En función de los valores que tome este parámetro. por tanto γ1 es positivo.56 . las distribucciones se clasifican en: γ2<0 γ2=0 γ2>0 planicúrticas mesocúrticas leptocúrticas Las distribuciones mesocúrticas tienen un apuntamiento como el de la distribución Normal que veremos en capítulos posteriores.. IV. los cubos de las desviaciones positivas respecto de la media serán mayores que los cubos de las desviaciones negativas y. De forma análoga se define asimetría negativa.7. en este caso diremos que la asimetría es positiva.

Variables aleatorias discretas IV.57 .Capítulo IV: Variables Aleatorias Tema 5.

58 .CAPITULO V: Principales Distribuciones Discretas IV.

la esperanza matemática será: μ X = E(X ) = ∑ xi ⋅ P( x i ) = 0 ⋅ q + 1⋅ p = p i =1 2 es decir: E( X) = p V. la V.2... En cada repetición observemos si ha ocurrido el suceso A o su complementario. que después de cada repetición el fenómeno queda en la misma situación probabilística que antes de realizar dicha repetición y.Valor medio Por tratarse de una variable discreta.VARIABLE BINOMIAL V.Definición Sea A un suceso de probabilidad p asociado a una experiencia aleatoria.1.1.2. Repitamos n veces la realización del fenómeno aleatorio o de la experiencia de que se trate. en consecuencia.Capítulo V: Principales Distribuciones Discretas V.VARIABLE DICOTÓMICA V.1.Definición Diremos que la variable aleatoria X es una variable dicotómica de parámetro p y la representaremos por X≡D(p) si toma únicamente dos valores: X=1 con probabilidad p X=0 con probabilidad q=1-p V. Supongamos además.Varianza La varianza de X se calculará: σ2 = E ( x − μ )2 = ∑ (x i − μ ) ⋅ PX (xi ) = (0 − p)2 ⋅ q + (1 − p)2 ⋅ p = p2 ⋅ q + q2 ⋅ p X 2 i =1 [ ] 2 es decir: σ2 = p ⋅ q ⋅ (p + q) = p ⋅ q X por tanto: D2 ( X) = p ⋅ q La desviación típica será: σX = + p ⋅ q V..1..3.59 ..1.2..1.

Es decir. La misma probabilidad tendrá cualquier combinación en la que el suceso A ocurra dos veces. más concretamente. cuando efectuamos n repeticiones independientes del fenómeno al que va asociado”. su probabilidad es: P A1 ∩ A 2 ∩ A 3 ∩ A 4 = P(A1 ) ⋅ P A 2 ⋅ P(A 3 ) ⋅ P A 3 = p2 ⋅ q2 ( ) ( ) ( ) por ser las repeticiones independientes. La definición anterior es equivalente a la siguiente basada en el concepto de variable dicotómica: si por Yi designamos a la variable que expresa el resultado de la repetición número i y. Si. entonces X es una variable binomial de parámetros n y p y la representaremos por X≡B(n. coincide con su correspondiente probabilidad inicial. { X ≡ B(n. llamamos X a ∑ Yi = X i =1 n entonces X≡B(n.p). Si designamos por X a la variable “número de veces que ocurre el suceso A. entonces: ⎛6 ⎞ P( X = 2) = P ⎜ U Bi ⎟ = 6 ⋅ p2 ⋅ q2 ⎟ ⎜ ⎝ i =1 ⎠ V. además.60 . p)} ⇔ ⎧ X = ∑ Yi .. que tiene asociado un suceso A de probabilidad P(A)=p. A3.2.p) cuando las Yi son independientes. Yi es una variable dicotómica de parámetro p. en cada repetición. y obtenemos el resultado A1. que: Una variable aleatoria Binomial X≡B(n. Yi toma el valor 1 si en la repetición número i ocurre el suceso A y toma el valor 0 si no ocurre. entonces. A 4 (el subíndice indica el número de la repetición). El suceso A ocurrirá dos veces si ocurre uno de los siguientes sucesos: B1 = A1 ∩ A 2 ∩ A 3 ∩ A 4 B2 = A1 ∩ A 2 ∩ A 3 ∩ A 4 B3 = A1 ∩ A 2 ∩ A 3 ∩ A 4 B4 = A1 ∩ A 2 ∩ A 3 ∩ A 4 B5 = A 1 ∩ A 2 ∩ A 3 ∩ A 4 B6 = A1 ∩ A 2 ∩ A 3 ∩ A 4 con probabilidad p2·q2 con probabilidad p2·q2 con probabilidad p2·q2 con probabilidad p2·q2 con probabilidad p2·q2 con probabilidad p2·q2 Si designamos por X a la variable binomial “número de veces que ocurre A al efectuar 4 repeticiones independientes”.Capítulo V: Principales Distribuciones Discretas probabilidad condicional de A. A 2 . ⎨ n ⎩ i =1 ⎫ Yi ≡ D(p) independie ntes ⎬ ⎭ V. de probabilidad P(A)=p.2. Pues bien.p) es la suma de n variables dicotómicas independientes de parámetro p.Ley de probabilidades Supongamos que efectuamos 4 repeticiones independientes de un experimento aleatorio.

¿Cuál es la probabilidad de aceptar con este plan de control el lote anteriormente referido? c) Si aceptamos el lote solo cuando todos los remaches de la muestra son correctos ¿Cual debería ser el número de remaches que debemos inspeccionar si pretendemos aceptar con una probabilidad menor que 0.0.10 aquellos lotes que contengan un 5% de remaches V.1.2 0. cada uno de ellos con una probabilidad igual a pν⋅qn-ν. será la probabilidad de que ocurra uno de los ⎛n⎞ ⎜ ⎟ ⎜ν⎟ ⎝ ⎠ sucesos Bi. es decir: ⎛n⎞ P( X = ν ) = ⎜ ⎟ ⋅ pν ⋅ qn − ν ⎜ν⎟ ⎝ ⎠ La representación gráfica de la ley de probabilidades tiene la forma de la figura V. PX(x) 0. a) ¿Cuál es la probabilidad de que al tomar al azar de ese lote una muestra de 50 remaches contenga 2 remaches defectuosos? b) Para la aceptación de los lotes recepcionados se aplica un plan de control de calidad consistente en muestrear aleatoriamente 50 remaches y aceptar el lote si aparecen como máximo 2 remaches defectuosos. Este hecho es el que da nombre a la variable aleatoria binomial: ∑ ⎜⎜⎝ ν ⎟⎟⎠ p ⋅ q ν ν =0 n ⎛n⎞ n−ν = (p + q)n = 1n = 1 Ejemplo V.61 .2) Nótese que la suma de las probabilidades es 1. si hacemos n repeticiones independientes. la probabilidad de que ocurra X=ν veces el suceso A. En general. cada una de las probabilidades anteriores.1: En un almacén de repuestos se recibe un lote con miles de remaches de los que un 1% son defectuosos. pues el desarrollo del binomio de Newton da..1.Capítulo V: Principales Distribuciones Discretas donde el número 6 es el número de combinaciones al tomar 4 elementos de dos en dos. precisamente.1 0 0 1 2 3 4 5 6 7 8 9 10 X Figura V.Función de Probabilidad de una B(10.3 0.

05).99 48 = 0. y la probabilidad pedida es: ⎛ 50 ⎞ P(X = 2) = ⎜ ⎟ ⋅ 0.0. la varianza de una variable binomial.2. c) Si los remaches defectuosos en el lote son un 5% y seleccionamos al azar n remaches.05 0 ⋅ 0..10 ⎜0 ⎟ ⎝ ⎠ operando obtenemos: n≥45 remaches V.980 ⎜0 ⎟ ⎜1 ⎟ ⎜2⎟ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ Es decir. por ello: V. Deberemos seleccionar n de manera que se cumpla que P(Y=0)≤0.p) suma de n variables dicotómicas. b) El número de remaches defectuosos en la muestra sería la misma variable del apartado anterior y la probabilidad de aceptar al lote sería: Pa=P(X≤2)=P(X=0)+P(X=1)+P(X=2) ⎛ 50 ⎞ ⎛ 50 ⎞ ⎛ 50 ⎞ Pa = ⎜ ⎟ ⋅ 0.012 ⋅ 0.2. es decir: ⎛n⎞ P(Y = 0) = ⎜ ⎟ ⋅ 0. 0. la probabilidad obtenida indica que el 7’6% de las muestras de 50 remaches que pudiéramos obtener al azar del lote propuesto tendrían exactamente dos remaches defectuosos.99 49 + ⎜ ⎟ ⋅ 0..62 .Media Por ser X≡B(n.99 48 = 0.Capítulo V: Principales Distribuciones Discretas defectuosos? SOLUCIÓN: a) El número de remaches defectuosos en la muestra referida será una variable X≡B(50.99 50 + ⎜ ⎟ ⋅ 0.4. Yi. la variable que representa los remaches defectuosos será Y=B(n.01).012 ⋅ 0. su esperanza matemática será: ⎡n ⎤ n E( X) = E ⎢∑ Yi ⎥ = ∑ E( Yi ) = n ⋅ p ⎣ i =1 ⎦ i =1 E( X) = n ⋅ p V.011 ⋅ 0. pues éstas son independientes. el 98% de los lotes serán aceptados.3. es la suma de las varianzas de las variables dicotómicas que la definen.010 ⋅ 0.10.076 ⎜2⎟ ⎝ ⎠ En términos de frecuencia.Varianza Como en el apartado anterior.95 50 ≤ 0.

Adición Si X1 y X2 son variables Binomiales independientes con idéntico parámetro p..63 .p).5. la frecuencia relativa: fr = X n es una variable aleatoria cuya media es: E(fr ) = n⋅p =p n V. las funciones características son. En consecuencia. En consecuencia.TEOREMA DE BERNOUILLI Este teorema que fue publicado y demostrado (aunque de forma diferente a la que aquí se expone) por primera vez por J. X es una variable aleatoria binomial de parámetros n y p.. Si X es la frecuencia absoluta con que ocurre el suceso A de probabilidad P(A)=p al efectuar n repeticiones independientes de un cierto fenómeno aleatorio. sea X1≡B(n1. la función característica de la suma es el producto de las funciones características: ϕ X1 + X 2 ( t ) = p ⋅ eit + q ( ) n1 + n 2 que es la función característica de una variable Binomial de parámetros n1+n2 y p.3. Bernouilli en su obra póstuma Ars Conjectandi en 1713. (Anexo I). se cumple que: { Si X1≡ B(n1. respectivamente: ϕ X1 ( t ) = p ⋅ eit + q ( ) n1 ϕ X 2 ( t ) = p ⋅ eit + q ( ) n2 por ser X1 y X2 independientes. p) y X2 ≡ B(n2 . p)} V. p) independientes} ⇒ { X1 + X2 ≡ B(n1 + n2 . y teniendo en cuenta la correspondencia biunívoca entre función de distribución y función característica establecida por el teorema de la inversión.p) y X2 ≡B(n2. En efecto.Capítulo V: Principales Distribuciones Discretas ⎡n ⎤ n D2 ( X) = D2 ⎢∑ Y i⎥ = ∑ D2 ( Yi ) ⎣ i =1 ⎦ i =1 por lo tanto: D2 ( X) = n ⋅ p ⋅ q y la desviación típica es: σX = n ⋅ p ⋅ q V. su suma es otra variable Binomial con el mismo parámetro p.2. se enuncia así: La frecuencia relativa con que se presenta un suceso A de probabilidad p al efectuar n repeticiones independientes del experimento al que va asociado converge en probabilidad a p.

64 . más de una cierta cantidad prefijada. pues establece que haciendo un número suficientemente grande de repeticiones. al realizar un número n grande de repeticiones. puesto que si llamamos z=p·q=p·(1-p)=p-p2 derivando z respecto de p e igualando a 0: dz = 1 − 2p = 0 dp ⇒ p= 1 2 con d2 z = −2 < 0 dp2 entonces. en valor absoluto. siendo ε un número arbitrariamente pequeño. p⋅q ≤ 1 4 Obtendremos que P fr − p ≥ ε ≤ [ ] 1 4 ⋅ n ⋅ ε2 Para un ε ∈ ℜ+ se cumple que: n→∞ lim P fr − p ≥ ε = 0 [ ] es decir: fr ⎯P p ⎯→ La interpretación práctica de este teorema es muy clara. V. Es decir que: Si tomamos fr como estimación de p. es casi seguro que el error que cometeremos es menor que ε.Capítulo V: Principales Distribuciones Discretas y cuya varianza y desviación típica son: D2 (fr ) = 1 p⋅q n⋅p ⋅q = 2 n n D(fr ) = p⋅q n Por el teorema de Bienaymé-Tchebycheff: ⎡ p⋅q⎤ 1 P ⎢ fr − p ≥ k ⋅ ⎥≤ n ⎥ k2 ⎢ ⎣ ⎦ llamando ε a: ε =k⋅ p⋅q n tendremos que P fr − p ≥ ε ≤ [ ] p⋅q ε2 ⋅ n Teniendo en cuenta que el valor máximo de p·q es 1/4. es tan poco probable como queramos que la frecuencia relativa con que ocurre el suceso A difiera de la probabilidad de A.

para 0≤ν≤n.2. Como p= λ n p tenderá a cero cuando n tienda a infinito. cometeremos un error menor que 0.1. una vez fijado el error máximo ε que aceptamos cometer con una probabilidad menor o igual que δ. tendremos que: n≥ 1 = 2500 4 ⋅ 0.. Pues bien: Una variable de Poisson es una variable Binomial de parámetros n y p. si deseamos que la probabilidad de cometer un error mayor que ε=0.Definición Sea X una variable Binomial de parámetros n y p. cuando n tiende a infinito y simultáneamente p tiende a cero. hagamos λ=n·p en la que λ se mantiene constante cuando n crece indefinidamente.Capítulo V: Principales Distribuciones Discretas Si hacemos δ≥ 1 4nε2 entonces de donde obtenemos que P fr − p ≥ ε ≤ δ [ ] n≥ 1 4 ⋅ δ ⋅ ε2 lo que permite calcular n.4. su ley de probabilidades. al estimar p mediante fr.01 ⋅ 0.4. V. V. Hagamos tender n a infinito..65 . será ⎛n⎞ P( X = ν ) = ⎜ ⎟ ⋅ pν ⋅ (1 − p)n − ν ⎜ν⎟ ⎝ ⎠ que puede escribirse como V.12 en consecuencia. si efectuamos 2500 repeticiones del experimento aleatorio. Por ejemplo. manteniendo el valor medio de X constante.Ley de probabilidades Si X≡B(n.1 en más del 99% de los casos en el que se efectúe tal estimación.01. La designaremos por X≡PS(λ).. manteniéndose constante el valor medio λ=n·p.1 sea de δ≤0.4.p).DISTRIBUCION DE POISSON V. es decir.

con probabilidades: P( X = ν ) = e − λ ⋅ λν ν! obsérvese que: ν =0 ∑ P( X = ν ) = ∑ ∞ ∞ e − λ ⋅ λν λν = e−λ ∑ = e − λ ⋅ eλ = 1 ν! ν! ν =0 ν =0 ∞ PX(x) 0.2.. .3 0.Función de probabilidad de una Ps(2) Ejemplo V.(n − ν + 1) ν ⋅ p ⋅ (1 − p)n − ν ν! Multiplicando y dividiendo por nν : ⎡ 1 ⎤ ⎡ ν − 1⎤ 1⋅ ⎢1 − ⎥ ⋅ ⋅ ⋅ ⎢1 − n⎦ ⎣ n ⎥ ⎦ ⋅ (n ⋅ p)ν ⋅ (1 − p)n − ν P( X = ν ) = ⎣ ν! y teniendo en cuenta que λ=n·p ⎡ 1 ⋅ ⎢1 − P( X = ν ) = ⎣ ν − 1⎤ 1⎤ ⎡ ⋅ ⋅ ⋅ ⎢1 − n ⎥ ν n⎥ ⎦ ⎣ ⎦λ ν! λ⎤ ⎡ ⋅ ⎢1 − ⎥ ⋅ q− ν n⎦ ⎣ n tomando límites cuando n tiende a infinito y teniendo en cuenta que p tiende a cero (q→1) n→∞ lim P( X = ν ) = e − λ ⋅ λν ν! Luego si X es una variable de Poisson..2 0.. 2. X es discreta y toma los valores X = 0.Capítulo V: Principales Distribuciones Discretas P( X = ν ) = n ⋅ (n − 1). 3. 1.2 El número de defectos de pintura en la carcasa de una lavadora puede asumirse que es una variable aleatoria con distribución de Poisson de promedio λ=2 defectos/unidad. a) Determinar la probabilidad de que al seleccionar al azar una carcasa de esa fabricación V..1 0 0 1 2 3 4 5 6 7 8 9 10 X Figura V.66 ..

b) En este caso. podemos calcular α1 =μ : it dϕ X (t ) = eλ (e −1) ⋅ λ ⋅ eit ⋅ i dt de donde: ⎡ dϕ X ( t ) ⎤ ⎢ dt ⎥ = λ ⋅ i =α1·i ⎦ t =0 ⎣ por tanto: E( X) = λ V. en promedio 5 defectos por unidad fabricada? SOLUCIÓN: a) La probabilidad pedida es: P(X = 3) = e −2 ⋅ 2 3 = 0.4.3.4.Media Si derivamos la función característica respecto de t y hacemos t=0.Varianza Derivando nuevamente la función característica: d2ϕ X (t ) d λ (eit −1) = e ⋅ λ ⋅ eit ⋅ i dt dt 2 [ ] it it d2ϕ X (t ) = eλ (e −1) ⋅ λ2 ⋅ e2it ⋅ i2 + λ ⋅ eit ⋅ i2 ⋅ eλ (e −1) 2 dt haciendo t=0: V.4. la probabilidad anterior equivale a decir que el 18% de las carcasas fabricadas presentan exactamente 3 defectos. ¿Cuál es la probabilidad de aceptar como correcto con este control un proceso en el que se producen. b) Para controlar la calidad del proceso de fabricación de las carcasas.18 3! en términos de frecuencia. el número de defectos en cada carcasa será una variable con distribución X=Ps(5) y la probabilidad de aceptar el proceso como correcto: P ( aceptar) = P( Ps(5)≤2) = 0.Capítulo V: Principales Distribuciones Discretas aparezcan en ella exactamente 3 defectos..125 V.. se toma al azar una de las carcasas fabricadas y se acepta que el proceso es correcto si en ella encontramos 2 o menos defectos.67 .

1. si X1≡PS(λ1) y X2≡PS(λ2).p)..5. Llamemos n1 a las piezas defectuosas que hemos extraído y n2 a las piezas correctas.VARIABLE HIPERGEOMÉTRICA V. respectivamente: it it ϕX1 ( t ) = eλ1 (e −1) y ϕX 2 ( t ) = eλ 2 (e −1) por ser independientes. Lógicamente se cumple que n1+n2=n. es una variable hipergeométrica y la designaremos por X≡H(N. Extraigamos sin reemplazamiento n piezas del lote de tal forma que todas las piezas tengan la misma probabilidad de formar parte de las n piezas extraídas (n≤p·N y n≤q·N). Lógicamente se cumple que p+q=1 y N1+N2=N. el número de piezas defectuosas n1 se distribuye según una variable hipergeométrica...68 .Adición La suma de dos variables de Poisson independientes es otra variable de Poisson cuyo parámetro es la suma de los parámetros de las variables sumadas. la función característica de la suma es: ϕ X1 + X 2 ( t ) = e(λ1 + λ 2 )(e it −1 ) que es la función característica de una variable de Poisson de parámetro λ1+λ2. sus funciones características son. En efecto. será: σ2 = λ2 + λ − λ2 = λ es decir: D2 ( X ) = λ V. Por tanto: { Si X1 ≡ PS(λ1 ) y X 2 ≡ PS(λ 2 ) independientes} ⇒ { X1 + X2 ≡ PS(λ1 + λ 2 )} V. V. El número de elementos de A que resultan al extraer al azar y sin reemplazamiento n elementos de E.Capítulo V: Principales Distribuciones Discretas ⎡ d2ϕ X ( t ) ⎤ 2 2 ⎥ = λ + λ ⋅i ⎢ 2 ⎣ dt ⎦ t = 0 ( ) de donde : α 2 = λ2 + λ 2 Como σ 2 = α 2 − α 1 . Pues bien. Sea E una población finita cuyos elementos son de dos tipos: A y A .n.Definición Supongamos que un lote contiene N piezas y que de ellas p·N=N1 son defectuosas y que q·N=N2 son correctas.4.5.5.

Capítulo V: Principales Distribuciones Discretas

La variable Hipergeométrica es discreta y toma los valores X=0, 1, 2 .., n. V.5.2.- Ley de probabilidades Recordemos que el número de subconjuntos de tamaño n que se pueden formar de un conjunto de tamaño N es:
⎛ N⎞ ⎜ ⎟ ⎜n⎟ ⎝ ⎠

éste será, por tanto, el número de posibles extracciones, todas ellas con la misma probabilidad. El número de subconjuntos de n1 elementos de un conjunto de N1 elementos es:
⎛ N1 ⎞ ⎜ ⎟ ⎜n ⎟ ⎝ 1⎠

El número de subconjuntos de n2 elementos que se pueden extraer de un conjunto de N2 elementos es:
⎛ N2 ⎞ ⎜ ⎟ ⎜n ⎟ ⎝ 2⎠

El número de subconjuntos de n elementos que tienen n1 en A y n2 en A es:
⎛ N1 ⎞ ⎛ N2 ⎞ ⎜ ⎟·⎜ ⎟ ⎜n ⎟ ⎜n ⎟ ⎝ 1⎠ ⎝ 2⎠

En consecuencia, la probabilidad de que al extraer n unidades sin reemplazamiento de ellas n1 pertenezcan a A y n2 pertenezcan a A es:
⎛ N1 ⎞ ⎛ N2 ⎞ ⎜ ⎟⋅⎜ ⎟ ⎜n ⎟ ⎜n ⎟ ⎝ 1⎠ ⎝ 2 ⎠ ⎛ N⎞ ⎜ ⎟ ⎜n⎟ ⎝ ⎠

Teniendo en cuenta que N1=p·N, que N2=q·N, que n1+n2=n, y llamando ν=n1, si X≡H(N,n,p), entonces:
⎛N ⋅ p ⎞ ⎛ N ⋅ q ⎞ ⎜ ⎜ ν ⎟ ⋅ ⎜n − ν ⎟ ⎟ ⎜ ⎟ ⎠ ⎝ ⎠ P( X = ν ) = ⎝ ⎛ N⎞ ⎜ ⎟ ⎜n⎟ ⎝ ⎠

El valor medio y la varianza de esta variable son:
E( X) = n ⋅ p

V.69

Capítulo V: Principales Distribuciones Discretas

D2 ( X ) = n ⋅ p ⋅ q ⋅

N−n N −1

V.5.3.- Convergencia Cuando N es grande en comparación con n, después de extraer cada una de las n unidades, la composición de población prácticamente no se modifica, y todo ocurre como si las extracciones fueran con reemplazamiento y, por tanto, la variable X=H(N,n,p) pasa a ser X=B(n,p). Más exactamente, la variable hipergeométrica converge en distribución a una variable binomial cuando N crece manteniendo n y p constantes.

Ejemplo V-3 Calcular la probabilidad de obtener 4 aciertos al realizar una única apuesta en la loteria primitiva. SOLUCIÓN: En la lotería primitiva existen N=49 números diferentes de los cuales Np=6 son premiados y Nq=43 no lo son. Al realizar una apuesta se seleccionan (sin reemplazamiento) 6 números diferentes. Con este planteamiento, el número de aciertos obtenidos en una apuesta es una variable hipergeométrica X = H(49, 6, 6/49). Entonces
⎛ 6 ⎞ ⎛ 43 ⎞ ⎜ ⎟⋅⎜ ⎟ ⎜4 ⎟ ⎜2 ⎟ P(X = 4) = ⎝ ⎠ ⎝ ⎠ = 9.68 ⋅10 − 4 ⎛ 49 ⎞ ⎜ ⎟ ⎜6 ⎟ ⎝ ⎠

V.6.- VARIABLE BINOMIAL NEGATIVA V.6.1.- Definición Consideremos un suceso A de probabilidad p=P(A). Efectuemos repeticiones independientes hasta que ocurra “r” veces el suceso A. Pues bien: El número de repeticiones independientes que hay que efectuar hasta que ocurra exactamente “r” veces el suceso A de probabilidad p, es una variable aleatoria Binomial Negativa y la representaremos mediante X≡BN(r,p) La variable BN(r,p) es discreta, infinito numerable y toma los valores r, r+1,r+2,... V.6.2.- Ley de probabilidades

V.70

Capítulo V: Principales Distribuciones Discretas

La variable aleatoria X≡BN(r,p) toma el valor ν, si y sólo si en las ν-1 primeras repeticiones el suceso A ocurre r-1 veces y en la repetición ν-ésima ocurre el suceso A. La probabilidad de que en ν-1 repeticiones independientes ocurra r-1 veces el suceso A de probabilidad p es:
⎛ ν − 1⎞ r −1 ν −r ⎜ ⎜ r − 1⎟ ⋅ p ⋅ (1 − p) ⎟ ⎝ ⎠

en consecuencia:
⎛ ν − 1⎞ r ν −r P( X = ν ) = ⎜ ⎜ r − 1 ⎟ ⋅ p ⋅ (1 − p) ⎟ ⎝ ⎠

V.6.3.- Media y Varianza Por derivación de ϕX(t) respecto de t obtenemos los momentos respecto al origen de primero y segundo orden. A partir de estos momentos obtenemos:
E( X) = r p

y
D2 ( X ) = r⋅q p2

Ejemplo V.4 En la centralita de teléfonos de una empresa se reciben, de modo aleatorio, un 20% de llamadas del extranjero. a) Determinar la probabilidad de que se reciban 10 llamadas hasta registrar la segunda procedente del extranjero. b) ¿Cuál es el promedio de llamadas recibidas hasta totalizar 5 procedentes del extranjero? SOLUCIÓN: a) La variable "número de llamadas recibidas hasta obtener la segunda procedente del extranjero" será, según los datos del enunciado, X=BN(2,0.20). Entonces,
⎛10 − 1 ⎞ 2 8 P(X = 10) = ⎜ ⎜ 2 − 1 ⎟ ⋅ 0.2 ⋅ 0.8 = 0.06 ⎟ ⎝ ⎠

b) En este caso la variable es X=BN(5,0.20). Entonces,
E(X) = r 5 = = 25 p 0.20

llamadas

V.71

ahora.…. en general.0) con probabilidad p2=P(A2) (0.…. una de cuyas componentes toma el valor 1 y el resto son todo 0 y que sirve para indicar el suceso que ha ocurrido de los k sucesos en que se ha particionado E. X2. La variable aleatoria k-dimensional que indica en cada repetición cuál de los k sucesos ha ocurrido. como se cumple que: r M ∑ Xi i =1 k =1 la masa de probabilidad se encuentra en un hiperplano de dimensión k-1 y. Obsérvese que la masa de probabilidad se encuentra concentrada en dos puntos cuyas coordenadas satisfacen a X1+X2=1. si ha ocurrido el suceso A2 tomará el valor (0. se llama variable k-aria.72 .0. En la figura V. repeticiones independientes. Es. consideraremos que se efectúa una partición de E en k sucesos denominados A1.0.0.7. Así.. V.….0. se efectuaba una partición del Espacio Muestral E en dos sucesos que denominábamos A y A .Capítulo V: Principales Distribuciones Discretas V. una variable discreta que toma los valores que a continuación se expresan con las probabilidades que se indican: (1.0. A2. Observaremos. si ha ocurrido el suceso Ai la r variable X toma un valor que tiene un 1 en la componente número i y 0 en el resto. Aunque la variable k-aria tiene k componentes (variables marginales). Xk )' indica el suceso que ha ocurrido. Cada una de las variables marginales de una k-aria es una variable dicotómica de parámetro pi . la característica o rango de la matriz de varianzas covarianzas es r=k-1.1. En este apartado y en el siguiente.0. por tanto. por tanto.7.0.…. las diferentes variables indicaban las veces que ocurría el suceso A.Definición En las variables estudiadas hasta ahora.Ak. etc).VARIABLE K-ARIA V.….3 se ha representado a la variable binaria.0) con probabilidad p1=P(A1) (0. Bajo distintos supuestos (extracciones sin reemplazamiento.1.. límite cuando n→∞ y p→0...….1.0) y.1) con probabilidad pk=P(Ak) La variable X = ( X1.1.. por ejemplo. se denomina variable k-aria.. La variable k-dimensional discreta. el número de veces que ocurre cada uno de estos k sucesos al efectuar n repeticiones del fenómeno aleatorio.0) con probabilidad p3=P(A3) (0.

0) X1 Figura V.Ak.Variable binaria (k=2) La expresión de la función caracteristica de esta variable es: ϕn (t1..Vector de medias y Matriz de varianzas-covarianzas Esta variable k-dimensional tiene como vector de medias: r μ′ = (p1.…... una partición del espacio muestral E.8. p2 .7....73 ...t k .. X2 .. pk ) y como matriz de varianzas-covarianzas: ⎡ p1q1 − p1q2 ⎢ p2q2 −p q V=⎢ 2 1 ⎢ L L ⎢ ⎣ − pk q1 − pk q2 L − p1qk ⎤ ⎥ L − p2qk ⎥ L L ⎥ ⎥ L pk qk ⎦ V.. La variable k-dimensional X = ( X1.) = ∑ p j ⋅ e j =1 k it j V. Evidentemente: ∑ pi = 1 i =1 k Efectuemos n repeticiones independientes del fenómeno aleatorio.Capítulo V: Principales Distribuciones Discretas X2 (0.8.. Xk )′ se denomina variable multinomial.2.... es decir: U Ai = E y i Ai I A j = ∅ i≠ j Sea pi=P(Ai).1) p2 p1 (1.Definición Sea A1. t 2 . p3 .1. y llamemos Xi al número r de veces que ocurre Ai.3.VARIABLE MULTINOMIAL V. A2. V.

.74 .. es decir. que tenemos 3 sucesos A1...Capítulo V: Principales Distribuciones Discretas Si llamamos Yi a la variable aleatoria k-aria que indica el resultado de la repetición número i. i =1 i =1 k k V. A la variable multinomial la representaremos mediante X≡MN(n. supongamos que k=3 y que n=6. A1. es: X = ∑ Yi i =1 n por tratarse de repeticiones independientes.pk) V.3.p2. L .Vector de medias y Matriz de varianzas-covarianzas El vector de medias de esta variable k-dimensional es: r μ′ = (n ⋅ p1. Todos ellos tienen la misma probabilidad.. las variables Yi son independientes entre sí. A1.8...2. si ocurre cualquiera de los sucesos que se pueden obtener del B mediante las permutaciones con repetición de 6 elementos de los que 3 son de un tipo 2 de otro y 1 de otro.. Supongamos también que se ha obtenido el siguiente suceso: B= A1. n ⋅ p3 . A2. n ⋅ p2 ..8. Xk = νk ) = n! ν ν p1 1 ⋅ pν 2 ⋅ ... X3 =1) = 6! 3 p1 ⋅ p2 ⋅ p3 2 3!⋅2!⋅1 ! y en general: P(X1 = ν1. n ⋅ pk ) y la matriz de varianzas-covarianzas es: ⎡ np1q1 − np1q2 ⎢ − np2q1 np 2q2 V=⎢ ⎢ L L ⎢ − npk q1 − npk q2 ⎣ L − np1qk ⎤ ⎥ L − np 2qk ⎥ L L ⎥ ⎥ L npk qk ⎦ V. A2 la probabilidad de este suceso es: 3 P(B) = p1 ⋅ p2 ⋅ p3 2 Ocurrirá 3 veces A1..p1. 2 veces A2 y 1 vez A3. A3.Ley de probabilidades Con el fin de fijar ideas. X2 = ν 2. luego: P(X1 =3. X2 = 2... A2 y A3. ⋅ pk k 2 ν1!⋅ν 2!⋅. y hemos realizado 6 repeticiones del fenómeno aleatorio. ⋅ νk ! con ∑ νi = n y ∑ pi = 1 .

40 2 ⋅ 0. X 2 = 3.75 . el resto. Cuando el contenedor está lleno se seleccionan de forma aleatoria 6 piezas del mismo.5 Una línea de estampación de piezas metálicas trabaja con tres prensas diferentes cuya producción se recoge en el mismo contenedor. 0.35) La probabilidad pedida será: P(X1 = 2. SOLUCIÓN: La variable “número de piezas de cada prensa en la muestra” es una variable con distribución r X ≡ MN(6.351 = 0. Calcular la probabilidad de que en la muestra se encuentren 2 piezas fabricadas por la prensa A1. la segunda prensa A2. produce el 25% de las piezas y la tercera prensa A3.25 3 ⋅ 0.1! V. 0. produce el 40% del total de piezas.0525 2!. 0.Capítulo V: Principales Distribuciones Discretas Ejemplo V. La primera prensa A1.4.3!.25. 3 piezas fabricadas por la prensa A2 y 1 fabricada por A3. X 3 = 1) = 6! ⋅ 0.

Capítulo V: Principales Distribuciones Discretas Tema 6. Variables aleatorias continuas unidimensionales V.76 .

V.77 .CAPITULO VI: Principales distribuciones continuas.

Capítulo VI: Principales Distribuciones Continuas VI. son algunos de los ejemplos en los que la variable Normal ha sido utilizada con gran utilidad.78 .Representación gráfica de fZ(z) a) Asíntotas: z → −∞ lim fZ ( z ) = 0 y z → ∞ fZ ( z) = 0 lim VI.. el teorema central del límite. actualmente. justifica la gran importancia científica y práctica de la variable Normal. VI. la más importante de las variables aleatorias continuas. sin duda. en su Miscellanea Analytica. VI. aquel efecto sigue prácticamente una distribución Normal.. los test de inteligencia o de personalidad. Los errores de medidas de magnitudes físicas o astronómicas.2. Al ser muchos los fenómenos reales que cumplen las condiciones enunciadas en el párrafo anterior. a una colección de teoremas cuyo objetivo fundamental consiste en determinar las condiciones bajo las cuales una suma de variables aleatorias converge en distribución a una variable Normal. el Teorema Central del Límite. el consumo de energía eléctrica de una determinada compañía.2. Mucho tiempo después fue redescubierta por Gauss al estudiar la teoría de los errores en 1809.1.. De Moivre. encontró por primera vez ésta variable en relación con el teorema que lleva su nombre y que estudia la distribución límite de la variable binomial. ciertas distribuciones demográficas.1. etc. las producciones agrícolas por unidad de superficie cultivada. se engloban.VARIABLE NORMAL TIPIFICADA VI. Laplace publicó en 1812 en su obra Theorie analytique des probabilites. el importante Teorema Central del Límite. las características de calidad de numerosos productos industriales. De forma simplificada y general.. Bajo esta denominación.2. pues se usa eficazmente en el estudio de numerosos fenómenos reales. los beneficios o pérdidas de una compañía de seguros. por primera vez.Definición La variable aleatoria continua cuyo campo de existencia es ℜ y cuya función de densidad es: fZ (z) = 1 2 ⋅π e − z2 2 se denomina variable aleatoria Normal Tipificada y se representa por Z≡N(0.2.INTRODUCCION La variable aleatoria Normal (también conocida como variable de Gauss) es. En 1733. de tal forma que es poco probable que cualquiera de ellos tenga un efecto individual significativamente más importante que el resto. aunque de forma incompleta.1). establece que cuando un efecto es consecuencia de numerosas causas que actúan sumando sus efectos.

concavidad y convexidad: { f Z (z)′′ = 0 ↔ z = −1.. z = +1 } ⇒ {ptos.79 .1.1. en z = −1 y z = +1 } {f {f Z ( z )′′ > 0 ↔ z > 1 ⇒ cóncava en z > 1 ( z )′′ < 0 ↔ Z } { } z < 1 } ⇒ {convexa en z < 1 } De todo lo anterior se deduce que la forma de la función de densidad de una variable Normal Tipificada es la de la conocida campana de Gauss. de inflex. VI. fZ(z) 0 Z Figura VI.Función de densidad de la variable Normal Tipificada.Capítulo VI: Principales Distribuciones Continuas El eje de las x es asíntota. c) Derivadas: fZ ( z)′ = −1 2⋅π − z2 2 −z 2⋅π ⋅e − e z2 2 − z2 2 fZ ( z )′′ = ⋅e + −z 2⋅π ⋅ (− z ) = (z 2 −1 2⋅π )⋅e − z2 2 d) Máximos y mínimos: f Z ( z )′ = 0 ↔ z = 0 ⎫ ⎬ ⇒ máximo en z = 0 f Z (0)′′ < 0 ⎭ e) Crecimientos y decrecimientos: {f Z (z)′ > 0 ↔ z < 0} ⇒ {creciente en z < 0} {f Z (z)′ < 0 ↔ z > 0} ⇒ {decreciente en z > 0} f) Puntos de inflexión. que se representa en la figura VI. b) Simetría: fZ(z)=fZ(-z) El eje de ordenadas es eje de simetría.

un área igual a α.1).3. a la función de distribución la representaremos mediante φ.DISTRIBUCION NORMAL GENERAL VI. VI.2.80 .. De esta forma escribiremos: P( Z ≤ z) = φ( z ) Mediante zα designaremos el valor de una variable Normal Tipificada que a su derecha tiene..Capítulo VI: Principales Distribuciones Continuas VI.6. P(Z ≥ z α ) = α Fácilmente se obtiene que: φ(zα)=1-α fZ(z) φ(z) α z 0 zα Z Figura VI. para distintos valores de z.. bajo la función de densidad.Nomenclatura Para la variable Normal Tipificada reservaremos una notación específica.5.2.3. la probabilidad de que una variable Normal Tipificada tome un valor menor o igual a ese z..2. es decir..2.Manejo de tablas En la tabla más usada se representan.Distribución de una N(0. VI. Designaremos a la variable mediante la letra Z y a sus valores por z. el valor de z que tiene una probabilidad α de ser superado.Media y Varianza μ Z = E( Z ) = 0 y σ 2 = D 2 (Z) = 1 Z VI. es decir el valor de la función de distribución FZ(z). Nomenclatura.

σX). la función de densidad de la variable Normal General será: 1 σ X ⋅ 2π − (x − μ X )2 2⋅σ 2 X fX ( x ) = e que depende de los parámetros μX y σX.1.3.2. es una variable Normal General. utilizaremos la nomenclatura X≡N(μX.1). Por tanto.σX) para designar a una variable aleatoria con distribución Normal. designaremos por μ a μX y por σ a σX. la variable: X=aZ+b en la que a y b son constantes. si Z≡N(0.81 .E(Z)+b=a·0+b=b μX=E(X)=b D2(X)=a2·D2(Z) σ2 = a2 X y σX = a Por lo tanto.. VI.Definición Llamaremos variable aleatoria Normal Unidimensional General a toda transformada lineal de una variable aleatoria Normal Tipificada. y siempre que no haya lugar a confusión. lo que justifica el que designemos e esta variable mediante X≡N(μX. VI.Capítulo VI: Principales Distribuciones Continuas VI.Función de densidad Teniendo en cuenta que entre Z y X existe una correspondencia biunívoca se cumple que: fX ( x ) = fZ [z( x )] ⋅ dz dx 2 como: fZ ( z) = 1 2⋅π e− z 2 y dz 1 = dx a entonces: fX ( x ) = 1 2π ⋅e 1 ⎡ x −b ⎤ − ⎢ ⎥ 2⎣ a ⎦ 2 ⋅ 1 a Como: es: y de donde: E(X)=a.3.. Con el fin de simplificar la escritura. Si μX=E(X) y σX=D(X).

sería necesario elaborar una tabla para cada par de valores reales μ y σ.Capítulo VI: Principales Distribuciones Continuas VI. SOLUCIÓN: No cumplirán los requisitos establecidos aquellas piezas en las que la distancia entre centros sea menor que 4. Z= X−μ = N(0.1). es decir.1) σ La función de distribución de X será: x−μ⎞ ⎛ x−μ⎞ ⎛ ⎛ X−μ x−μ⎞ FX ( x ) = P( X ≤ x ) = P ⎜ ≤ ⎟ ⎟ = φ⎜ ⎟ = P ⎜Z ≤ σ ⎠ σ σ ⎠ ⎝ σ ⎠ ⎝ ⎝ es decir: ⎛ x−μ⎞ FX ( x ) = φ ⎜ ⎟ ⎝ σ ⎠ Ejemplo VI.. Sea X1≡N(μ1. Para que la pieza pueda ser utilizada. además de imposible. a2 ⋅ σ1 + b2 ⋅ σ2 ⎞ ⎜ 2 ⎟ ⎝ ⎠ VI.. En efecto.80 cm o mayor que 5. La proporción de piezas defectuosas obtenidas coincidirá con: p= P(X<4. por definición.25 cm. entonces 2 Y ≡ N ⎛ a ⋅ μ1 + b ⋅ μ 2 .80 cm y 5. entre los centros de dos taladros realizados en una pieza metálica es una variable aleatoria con distribución X≡N(5. la referida distancia debe estar comprendida entre 4.σ).82 . la variable X−μ σ se distribuye según una Normal Tipificada. expresada en cm. Determinar la proporción de piezas que no cumplen los requisitos de la especificación.1 La distancia.Adición Cualquier combinación lineal de variables aleatorias Normales independientes es una variable aleatoria Normal.σ1) y X2≡N(μ2. lo que.0.3.3.Manejo de tablas Para tabular la función de distribución de una variable Normal General. pues a partir de la función de distribución de una Normal Tipificada es posible deducir la de cualquier variable Normal General.3.80)+P(X>5. sería innecesario.5.σ2) y hagamos Y=a·X1+b·X2.25) Por ser X continua: VI. sea X≡N(m.25 cm.

83 .80)+[1-P(X≤5..Xn.3% de las piezas no cumplen los requisitos de especificación. Para fines prácticos. y establece que la variable binomial tipificada converge en distribución a una variable Normal tipificada cuando n tiende a infinito. si X es una variable de Poisson de parámetro λ. y.Capítulo VI: Principales Distribuciones Continuas p= P(X≤4. Por tanto.p) es X=ΣYi en la que Yi≡D(p) e independientes. una sucesión de variables aleatorias que converge en distribución a una variable Normal Tipificada cuando n tiende a infinito. todas ellas con la misma distribución e independientes.043 0. el 4. su suma tipificada es. VI.X2.TEOREMA CENTRAL DEL LIMITE Bajo esta denominación se engloban una serie de teoremas cuyo objetivo final consiste en determinar las condiciones bajo las cuales una sucesión de variables aleatorias converge en distribución a una variable Normal. bajo determinadas condiciones.Teorema de Lindenberg-Levy Si X1.0228 + 1 − 0..4. y hacemos crecer indefinidamente a este parámetro dándole valores naturales.4. a su vez. se cumplen las hipótesis del teorema de Lindenberg-Levy y. El Teorema de De Moivre es un caso particular del teorema de Lindenberg-Levy. la variable de Poisson tipificada converge en distribución a una variable Normal Tipificada cuando λ tiende a infinito.1 ⎠ es decir. en consecuencia.1 ⎠ ⎝ ⎝ 0.….9798 = 0. De forma análoga.1.5. por tanto. hemos visto que.25)= P(X≤4. VI.25)] Tipificando y mirando en tablas se obtiene que: ⎛ 4. En efecto. unas variables tienden en distribución a otras. podemos considerar que X es suma de λ variables de Poisson de parámetro unidad independientes entre sí. si tipificamos X estamos tipificando la suma de n variables aleatorias todas ellas con la misma distribución e independientes. es decir..25 − 5 ⎞ p =φ⎜ ⎟ +1 − φ ⎜ ⎟ = 0. sería conveniente conocer cuándo la distribución de una variable aleatoria puede ser sustituida por la de otra sin que se cometan errores importantes en el cálculo de probabilidades.80)+P(X>5. VI. si X≡B(n.APROXIMACIONES DE VARIABLES ALEATORIAS Tanto en este capítulo como en el anterior.… es una sucesión de variables aleatorias. VI. Por su generalidad e importancia enunciaremos sin demostrarlo el de Lindenberg-Levy.80 − 5 ⎞ ⎛ 5. se cumplen las hipótesis del teorema de Lindenberg-Levy.

no estudiado un este obra. En la práctica. {np ≥ 18} ⇒ { X ≡ B(n. es. p) ≅ PS(λ = np) } d) Utilizando la función característica se puede poner de manifiesto que la variable de Poisson tipificada converge en distribución a una variable Normal Tipificada. ⎧N ⎫ ⎨ ≥ 10 ⎬ ⇒ n ⎩ ⎭ { H(N.Capítulo VI: Principales Distribuciones Continuas a) En el tema anterior. En concreto. npq )} c) En el capítulo anterior. a su vez. Luego si λ es grande. En concreto. una variable Normal de media np y desviación típica npq . si λ≥18 la aproximación es aceptable. por ser una transformada lineal de una Normal Tipificada. por ser una transformada lineal de una Normal Tipificada. si N/n≥10. a su vez. se definió a la variable de Poisson como la variable límite de una Binomial cuando n tiende a infinito y p a cero.1. si np≥18 la aproximación es aceptable. { n ≥ 50. y para fines prácticos. una variable Normal de media λ y desviación típica λ . En consecuencia si X≡PS(λ) es: ⎡X − λ a − λ⎤ ⎡ a −λ⎤ P( X ≤ a) = P ⎢ ≤ ⎥ ≅ P ⎢Z ≤ ⎥ λ ⎦ λ ⎦ ⎣ λ ⎣ de donde: P( X ≤ a) = P Z λ + λ ≤ a = P( Y ≤ a) ( ) en la que Y. la aproximación es adecuada. n. p)} b) Según el teorema de Moivre. VI. Luego si n es grande. vimos que cuando la fracción de muestreo sin reemplazamiento es pequeña en comparación con el tamaño de la población. p) ≅ N (np. permaneciendo constante el producto np=λ. En concreto. la correspondiente variable Hipergeométrica se puede aproximar por una variable Binomial.84 . la distribución de una variable Binomial puede ser aproximada por la de una variable Normal. converge en distribución a una variable Normal Tipificada. Si X es una variable Binomial de parámetros n y p se cumplirá: ⎛ X − np a − np ⎞ ⎛ ⎞ ⎟ ≅ P ⎜ Z ≤ a − np ⎟ P( X ≤ a) = P ⎜ ≤ ⎜ npq ⎜ npq ⎟ npq ⎟ ⎝ ⎠ ⎝ ⎠ de donde: P( X ≤ a) ≅ P Z ⋅ npq + np ≤ a = P( Y ≤ a) ( ) en la que Y. la distribución de una variable de Poisson puede ser aproximada por la de una variable Normal. p) ≅ B(n. p ≤ 0.1 } ⇒ { X ≡ B(n. la aproximación es adecuada. la variable Binomial tipificada. si n≥50 y p≤0. es.

Representación de una B(50.12 0.1) VI.4 0.1) PX(x) 0.n. se resumen las aproximaciones expuestas en este apartado.3a.2.2 0.1 Ps(np) Ps(λ) n·p≥15 n·p≥15 N(np.2 0. λ ) λ≥15 B(n. en la figura VI. λ )} En la figura VI.1 0 0 1 2 3 4 5 6 7 8 9 10 X Figura VI.0.2.p) Figura VI.85 . H(N.08 0. Representación de una B(10..3b. npq ) N(λ.16 0.3 se ha representado la función de probabilidad de una variable binomial con p=0.Aproximaciones entre distribuciones Para ilustrar estos conceptos. PX(x) 0.p) N/n≥10 n≥50 p≤0.3 0.04 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 X Figura VI.0.Capítulo VI: Principales Distribuciones Continuas { λ ≥ 18 } ⇒ { X ≡ PS(λ ) ≅ N ( λ.1 y valores de n crecientes.

Función de densidad y de distribución de una variable U[a.. puede calcularse a partir de: ∫ de donde: X fX ( x ) ⋅ dx = ∫ c ⋅ dx = 1 b a ⎧ 1 ⎪ fX ( x ) = ⎨ b − a ⎪ ⎩0 para a ≤ x ≤ b en el resto La función de distribución la obtenemos por integración de la función de densidad: ⎧0 ⎪ ⎪x − a FX ( x ) = ⎨ ⎪b − a ⎪1 ⎩ x<a a≤x≤b x>b La representación grafica de su función de densidad y su función de distribución se muestran en la figura VI.. se denomina distribución uniforme y se representa como X≡U[a.b] VI.6.86 .1.4.09 0.0.03 0 0 1 2 3 4 5 6 7 8 9 10111213141516 171819 20 2122232425 X Figura VI. Representación de una B(100. fX(x)=c.12 0.Capítulo VI: Principales Distribuciones Continuas PX(x) 0.06 0.b].15 0.1) VI. fX(x) FX(x) 1 1/(b-a) a b X a b X Figura VI. Dado que su función de densidad es constante.6. b] con densidad de probabilidad constante en todos sus puntos.OTRAS VARIABLES CONTINUAS VI..Distribución Uniforme La distribución que tiene una variable continua que toma valores en el intervalo [a.3c.4.

a) La probabilidad de que tenga que esperar como máximo 3 minutos es P(X ≤ 3) = FX (3) = 3 −0 = 0. es decir.30 10 − 0 b) El tiempo medio de espera será: E(X) = 0 + 10 = 5 min. La función de distribución es: FX ( x ) = 0 FX ( x ) = para x<0 x 0 ∫ λ ⋅ e − λ ⋅ x ⋅ dx = 1 − e − λ ⋅ x para x≥0 VI.87 .6.Capítulo VI: Principales Distribuciones Continuas La media y la varianza de esta distribución son: E( X) = a+b 2 D2 ( X) = (b − a)2 12 Ejemplo VI. calcular: a) La probabilidad de que tenga que esperar 3 minutos como máximo. 2 VI. SOLUCIÓN: El tiempo de espera del viajero puede modelizarse como una variable con distribución uniforme entre 0 (cuando el viajero llega justo antes de la salida) y 10 minutos (cuando llega justo después de la salida del último autobús).Distribución Exponencial Se denomina distribución exponencial a la distribución de una variable continua cuya función de densidad es: ⎧λ ⋅ e−λ⋅x fX ( x ) = ⎨ ⎩0 para x ≥ 0 para x < 0 Dicha variable se representa como X≡EXP(λ).2.10]..2 De una estación de autobuses sale un vehículo cada 10 minutos. b) El tiempo medio de espera. X=U[0. Si un viajero llega al punto de salida en un momento al azar.

5. En efecto: P (X > t + s X > t ) = P (X > t + s ∩ X > t ) P (X > t + s) e − λ ⋅( t + s ) = = = e − λ ⋅s P( X > t ) P( X > t ) e− λ⋅t Luego P (X > t + s X > t ) = P( X > s) VI.Capítulo VI: Principales Distribuciones Continuas En la figura VI. donde λ es la tasa de fallos.Función de densidad y de distribución de una variable EXP(λ) La variable exponencial modeliza adecuadamente la duración aleatoria de componentes eléctricos.5 se muestran la función de densidad y la función de distribución de esta variable. La media y varianza de esta distribución son respectivamente: E( X) = 1 λ D2 ( X) = 1 λ2 El tiempo medio hasta que se produce el fallo de un componente o un sistema complejo recibe el nombre de MTTF (Mean Time To Failure) y vale 1/λ. el parámetro λ recibe el nombre de tasa de fallos del sistema y mide el número de fallos por unidad de tiempo. En este caso.. fX(x) FX(x) 1 λ X X Figura VI. si el sistema es reparable. Es decir. la expresión de dicha probabilidad será: P( X > t ) = 1 − FX ( t ) = e − λ ⋅t con t≥0 Una característica importante de esta distribución es que “carece de memoria”. electrónicos o mecánicos en su periodo de vida útil. Si establecemos que la fiabilidad de una componente para una misión de duración x=t unidades de tiempo es la probabilidad de que la duración de dicha componente supere el tiempo t. esta variable modeliza el tiempo entre dos fallos en un sistema de múltiples componentes en el periodo de vida útil. depende solo de la diferencia de tiempos s y no del instante inicial t considerado.88 . la probabilidad de que la duración de una componente supere un tiempo t+s sabiendo que la componente ya ha sido operativa durante el tiempo t. la media recibe el nombre de tiempo medio de buen funcionamiento MTBF (Mean Time Between Failures) con el referido valor 1/λ. Del mismo modo.

3 La duración de ciertas lámparas de incandescencia puede considerarse como una variable exponencial de media 1000 horas de funcionamiento..Variable Chi-Cuadrado de Pearson VI..a) 2 2 χ 2 = Z12 + Z2 + L + Zn n Para el estudio de la variable χ2.7. De ella derivan otras variables aleatorias. en los puntos que ahora nos son necesarios. .1.7. que se utilizarán en el muestreo en poblaciones Normales y que serán de uso frecuente y de gran importancia en la Inferencia Estadística. VI..1.607 VI. a la variable: se le denomina χ2 (chi-cuadrado) con n grados de libertad y se le representa 2 mediante χ n . La probabilidad de que su duración supere 500 horas es: P(X > 500) = e − 1 ⋅500 1000 = 0. VI.607 b) Recordando la propiedad expuesta anteriormente: P(X > 600/X > 100) = P(X > 600 − 100) = P(X > 500) = 0.1..89 . analizaremos..Capítulo VI: Principales Distribuciones Continuas Ejemplo VI.DISTRIBUCIONES DERIVADAS DE LA NORMAL La variable Normal es la variable aleatoria continua más importante.7. Z2.. Zn son variables aleatorias Normales Tipificadas Independientes. la F de Snedecor y la t de Student.1. a) Calcular la probabilidad de que una lámpara nueva elegida al azar tenga una duración superior a 500 horas.. SOLUCIÓN: a) La duración de las lámparas tiene una distribución X=EXP(1/1000). b) Se elige al azar una lámpara que lleva 100 horas de funcionamiento. en este capítulo se estudian dichas Variables Derivadas de la Normal.2. como la Chi-cuadrado de Pearson (χ2).7.Definición Si Z1. G(λ. a la variable Gamma. a). Precisamente. Calcular la probabilidad de que funcione mas de 600 horas en total.Algunos aspectos de la G(λ. VI.

Función de densidad de una χ1 Sea Z≡N(0.Capítulo VI: Principales Distribuciones Continuas Definición Si por Γ(a) designamos a la Gamma de Euler. a1) y X2 ≡ G(λ . a2 ) son indepen.1.} → { X1 + X2 ≡ G(λ.a) es: ⎡ i⋅t⎤ ϕ X( t ) = ⎢1 − ⎥ λ⎦ ⎣ −a Adición Si las variables aleatorias: X1 ≡G(λ. a) } ↔ ⎪∀ x ≥ 0.90 .a1) y X2 ≡G(λ.. fX ( x ) = e ⎨ ⎪ ⎩ ⎧ −λ x ⋅ (λ ⋅x )a − 1⋅ λ ⎫ ⎪ ⎬ Γ(a) ⎪ ⎭ Función característica La función característica de una G(λ.a2) cuyas funciones características son. que es: Γ(a) = ∫ ∞ e − x ⋅ x a −1 ⋅ dx ∀ a>0 0 y recordando que: Γ(½) = π podemos definir a la variable aleatoria Gamma de la siguiente forma: { X ≡ G(λ.7. a1 + a2 ) } 2 VI. la función de distribución de X será: FX ( x ) = P( X ≤ x ) = P( Z ≤ x ) = P − x ≤ Z ≤ x = 2 [ ] ∫ + x − x 1 2π ⋅e − z2 2 ⋅ dz VI.3. entonces: ⎡ i⋅t⎤ ϕ X1 + X 2 ( t ) = ϕ X1 ( t ) ⋅ ϕ X 2 ( t ) = ⎢1 − ⎥ λ⎦ ⎣ −( a 1+ a 2 ) de donde: { Si X1 ≡ G(λ . respectivamente: ⎡ i⋅ t⎤ ϕ X1 ( t ) = ⎢1 − ⎥ λ⎦ ⎣ − a1 −a2 ⎡ i⋅t⎤ y ϕ X 2 ( t ) = ⎢1 − ⎥ λ⎦ ⎣ son independientes.1) y X=Z2.

es decir: 2 1 1 χ1 ≡ G ( 2 .. tendremos que: FX ( x ) = 2 ⋅ ∫ x 0 1 2π ⋅e −z2 2 ⋅ dz La función de densidad de X será: fX ( x ) = − dFX ( x ) 1 1 = 2⋅ ⋅e 2⋅ dx 2π 2⋅ x x que puede ser escrita: fX ( x ) = e − 1 x 2 ⋅x − 1 2 1 2 2 ⋅ Γ (2 ) que..1. su función característica será: i⋅t ⎤ ⎡ ϕχ 2 ( t ) = ⎢1 − n 1/ 2 ⎥ ⎣ ⎦ − n 2 VI.7.5.Capítulo VI: Principales Distribuciones Continuas Teniendo en cuenta la simetría de la distribución Normal. 2 ) 2 VI.4.Distribución de una χn 2 2 2 Por definición. será: 2 2 1 1 1 χn = ∑ (χ1 )i = ∑ Gi ( 2 .91 .1. es la función de densidad de una variable aleatoria Gamma de parámetros λ=1/2 y a=1/2.Función característica 2 Por ser χ n una Gamma de parámetros λ=½ y a=n/2. por otra parte. n ) 2 n n i =1 i =1 por tanto. Teniendo en cuenta que una χ 1 es una Gamma y que la suma de Gammas independientes es otra Gamma. una χ n es la suma de n χ 1 independientes.7. 2 ) = G ( 2 . su función de densidad será: − x 2 fχ 2 ( x ) = n e − λ ⋅ x ⋅ (λ ⋅x )a −1⋅ λ = Γ(a) e ⎡x ⎤2 1 ⋅⎢ ⎥ ⋅ 2 ⎣2⎦ Γ (n ) 2 n −1 es decir: fχ 2 ( x ) = n e − x 2 n ⋅ x2 −1 2 2 ⋅ Γ (n ) 2 n VI.

haciendo t=0 y dividiendo por i. se obtiene: α2=(n+2)·n=n2+2·n 2 Como σ2 = α 2 − α1 .6. contiene los valores χn ( α ) de la variable que teniendo n grados de libertad.1. se puede utilizar una 2 aproximación basada en el hecho de que la transformada de una χn definida por: 2 2 ⋅ χn − 2 ⋅ n − 1 converge en distribución a una variable N(0. a partir de éstos la media y la varianza. Es una tabla de doble entrada que..7. Para grados de libertad superiores a los máximos de la tabla (n>30).7.1) (Ver anexo I). D 2 2 ⋅ χn − 2 ⋅ n − 1 ⎯⎯→ Z ≡ N(0.1) de donde: VI.Capítulo VI: Principales Distribuciones Continuas de donde: ϕχ 2 ( t ) = [1 − 2 ⋅ i ⋅t ] n − n 2 VI.2 ⋅ i ⋅ t ) 2 ⋅ i ⋅ ( −2 ⋅ i) n ⎝2 ⎠ de donde haciendo t = 0. resulta: 2 D2 ( χn ) = 2 ⋅ n VI. dϕ χ 2 ( t ) n dt =− n n n − −1 − −1 ⋅ (1 − 2 ⋅ i ⋅ t ) 2 ⋅ ( −2 ⋅i) = n ⋅ i ⋅ (1 − 2 ⋅ i ⋅ t ) 2 2 de donde. es decir.7.Manejo de tablas 2 La tabla de la χ2 más usada..92 .1. tienen una probabilidad α de ser superados. nos proporciona χn ( α ) .Media Y Varianza 2 Mediante las derivadas primera y segunda de la función característica de una χn . podemos calcular sus momentos respecto al origen y. resulta: 2 E( χn ) = n derivando nuevamente respecto a t: n ⎛n ⎞ − −2 ϕχ 2 ( t )′′ = ⎜ + 1⎟ ⋅ n ⋅ (1 . en 2 función de los parámetros n y α.

n1 n2 n1 −1 β ( n1 n 2 2 2 )⋅ ( n 2 + n1 ⋅ x ) n 1+ n 2 2 VI.1. n 2 ≥ Fn1.7.7. Utilizando la aproximación.2.2.2. [ ] VI. es decir: Fn 1 .05 o de 0.01.Función de densidad La función de densidad de esta variable es: fF ( x ) = n12 ⋅ n22 ⋅ x 2 ..599 − 59 = φ( −1.Distribucion F de Snedecor VI.Manejo de tablas En la tabla de más frecuente uso. n2 que tienen una probabilidad de 0. Así. se deduce que la P( χ30 ≤20.599)=0.599)≅ φ ( 2 ⋅ 20.05 y α =0.01 para α=0.7. obtenemos: 2 P( χ30 ≤ 20.Capítulo VI: Principales Distribuciones Continuas 2 2 P(χn ≤ a) = P ⎛ 2 ⋅ χn ≤ 2 ⋅ a ⎞ ⎜ ⎟ ⎝ ⎠ por tanto 2 2 P(χn ≤ a) = P ⎛ 2 ⋅ χn − 2 ⋅ n − 1 ≤ 2 ⋅ a − 2 ⋅ n − 1 ⎞ ⎜ ⎟ ⎝ ⎠ es decir: 2 P(χn ≤ a) ≈ P Z≤ 2 ⋅ a − 2 ⋅ n − 1 ( ) o lo que es lo mismo: 2 P(χn ≤ a) ≈ φ ( 2⋅a − 2⋅n −1 ) 2 Por ejemplo.2627 ) = 0.2.1038 ) VI.10 = 5.99 .3.7. por ejemplo F4.01 de ser superados.Definición La variable F de Snedecor se define como el cociente de dos variables χ2 independientes divididas por sus respectivos grados de libertad. de las tablas de la χn2. lo que será representado mediante: (α P Fn1.n 2 = 2 χ n1 /n1 2 χ n2 /n2 VI.10.2. los valores de Fn1.93 ..) n 2 = α 0... se recogen para n1 grados de libertad del numerador y para n2 grados de libertad del denominador.

Función de densidad La función de densidad de una tn tiene una representación gráfica muy similar a una Normal Tipificada..4 ≤ 0.x ≤ t n ≤ x ) es decir: FX ( x ) = ∫ + x − x ft ( t) ⋅ d t = 2 ⋅ ∫ 0 ft ( t) ⋅ dt x derivando respecto de y obtendremos la función de densidad: VI. es posible deducir determinadas probabilidades que no están en la tabla a partir de otros valores que si lo están.01 0.99) = 0.. resulta: 2 tn = 2 Z2 / 1 χ1 / 1 = 2 = F1. n 2 ≤ a = P ⎜ Fn 2 .94 .1669) = P ⎜ F4.1.Variable t de Student VI. tiene forma de campana y es simétrica respecto al origen.Definición La variable t de Student se define como el cociente entre una Normal Tipificada Z 2 y la raíz cuadrada de una χ n dividida por sus grados de libertad.1669 ⎠ ⎝ VI. En efecto: 2 2 ⎛ χn / n1 ⎞ ⎛ χ n / n2 1 ⎞ 1⎞ ⎛ ≤ a ⎟ = P ⎜ 22 ≤ ⎟ = P ⎜ Fn 2 .2. Si elevamos al cuadrado una tn.7.3.10 ≥ 5. n1 ≥ ⎟ a⎠ ⎝ ( ) Por ejemplo.. n 2 χn / n χn / n 2 Si llamamos X a la variable t n se cumplirá que: 2 FX ( x ) = P(X ≤ x ) = P(tn ≤ x ) = P(.10 ≥ ⎟ = P(F4. n 2 ≤ a = P ⎜ 2 1 ⎜ χ n / n2 ⎟ ⎜ χn / n1 a ⎟ a⎠ ⎝ ⎝ 2 ⎠ ⎝ 1 ⎠ ( ) es decir: 1⎞ ⎛ P Fn1. VI. 1 ⎞ ⎛ P(F10. es decir: tn = z 2 χ n /n donde n son los grados de libertad de la tn.3.4.Capítulo VI: Principales Distribuciones Continuas Puesto que el inverso de una F es otra F.7. n 1 ≥ ⎟ P Fn1.7.

n2 2 2 −1 n 1 +n 2 2 n1 2 )⋅ (n + n ⋅ y ) 1 Si Y es una F1. Si Y es una Fn1.7.n2 su función de densidad es: n1 n2 n1 fY ( y ) = β ( n12 n22 y 2 .Capítulo VI: Principales Distribuciones Continuas fX ( x ) = dFX ( x ) = 2 ⋅ ft dx ( x )⋅ 2 ⋅ 1 x 1 t como t2 = x fX ( t 2 ) = ft ( t) ⋅ luego: ft ( t) = t ⋅ fX ( t 2 ) Por tanto. La variable tn presenta. por tanto. n ) ⋅(n + y ) 2 2 n +1 cambiando y por t2 y multiplicando por t obtenemos: ft n ( t ) = nn / 2 ⋅ t -1 1 β (2 . que solo existe para n>2. una distribución más “abierta” (dispersa) que la Normal Tipificada.3.3. VI. es mayor que la unidad. n )⋅ n + t2 2 ( ) n +1 2 que suele escribirse también de la siguiente forma: ⎛ t2 ⎞ ft n ( t) = ⎜1+ ⎟ ⎜ n⎟ ⎠ ⎝ − n +1 2 ⋅ Γ (n ) ⋅ π ⋅ n 2 + Γ (n2 1 ) VI.n2 su función de densidad es: fY ( y ) = nn / 2 ⋅ y −1 / 2 1 β ( 2 .Manejo de tablas VI. obtendremos la función de densidad de una tn.n cambiamos y por t2 y el resultado lo multiplicamos por t. si en la función de densidad de una F1. n )⋅ n + t2 2 ( ) n +1 2 t es decir: ft n ( t ) = nn / 2 1 β (2 .4..3..7.Media y Varianza Se puede demostrar que: E(t n ) = 0 D2 ( t n ) = n n−2 La varianza de tn.95 .

α ) ) = P( t n ≥ F1.96 . el valor de tn tal que: P t n ≤ t (nα/2) = P(-t(nα/2) ≤ t n ≤ t (nα / 2 ) ) = 1 − α ( ) Algunos valores se pueden determinar usando la tabla de la Fn1 n2 .n ≤ a) = P(. es decir.α ) ) = α n n por tanto: ( t (nα/2) = F1.α ) n VI.a ≤ t n ≤ a ) entonces: ( ( P(F1.n ≥ F1.Capítulo VI: Principales Distribuciones Continuas Designamos por t(nα ) al valor de una tn tal que: P(tn ≥ t (nα ) ) = α Las tablas de la t de Student más usadas son aquellas en las que dados los grados de libertad n y la probabilidad α.pues: P(F1. determinan el valor de t(nα / 2 ) .

Capítulo VI: Principales Distribuciones Continuas Tema 7.97 . Variables aleatorias bidimensionales VI.

Capítulo IV: Variables Aleatorias

CAPITULO VII: Variables Aleatorias Bidimensionales

IV.98

MÉTODOS ESTADÍSTICOS I

VII.1.- DEFINICIÓN Llamemos Iab al intervalo de ℜ2 dado por: Iab={(X1, X2) ∈ℜ2; X1≤a; X2≤b} intervalo que se ha representado en la figura VII.1:
X2

b

Iab a
X1

Figura VII.1.- Intervalo Iab de la variable aleatoria bidimensional Dado el espacio de Probabilidades (E, F, P), diremos que la aplicación X:E→ℜ2 es una variable bidimensional si para todo intervalo I x1x 2 su original pertenece a F.

{X : E → ℜ

2

es v.a. bi dim ensional ↔ ∀ (x1, x 2 ) ∈ ℜ2 ; O(Ix1x 2 ) ∈ F

} {

}

De esta forma quedan probabilizados todos los conjuntos de ℜ2. Son ejemplos de variable aleatorias bidimensionales las parejas de valores peso-estatura de un colectivo de personas, diámetro-resistencia a la compresión de unas probetas de hormigón, número de puntos obtenidos en cada una de las caras superiores en el lanzamiento de dos dados equilibrados, etc. VII.2.- FUNCIÓN DE DISTRIBUCIÓN VII.2.1.- Definición Dada una variable aleatoria bidimensional (X1,X2), llamaremos función de distribución a:
FX1 X 2 (x1 , x2 ) = P ( X1 ≤ x1 ∩ X 2 ≤ x2 ) = P

{ (X (e ),X (e) ∈ I ) }
1 2 x1 x 2

VII.2.2.- Propiedades La función de distribución bidimensional tiene, entre otras, las siguientes propiedades: a) ∀ (x1,x2) ∈ ℜ2 es 0 ≤ FX1X 2 ( x1, x 2 ) ≤ 1

VII.99

MÉTODOS ESTADÍSTICOS I

b) c)

x 1 → −∞

lim FX1X 2 (x1, x 2 ) = lim FX1X 2 (x1, x 2 ) = 0
x 2 → −∞

x1 → ∞ x 2 →∞

lim FX1X 2 (x1, x 2 ) = 1

d) El intervalo de la figura VII.2 tiene una probabilidad:
P(a1 < X1 ≤ b1, a1 < X2 ≤ b2 ) = FX1X 2 (b1, b2 ) − FX1X 2 (a1, b2 ) − FX1X 2 (b1, a2 ) + FX1X 2 (a1, a2 )

e) Continuidad:
FX1X 2 ( x1, x 2 ) es continua por la derecha de x1 y de x2 y en puntos de probabilidad no nula

es discontinua por la izquierda de x1 o de x2.
X2 b2

a2 a1 b1 X1

Figura VII.2.- Intervalo de (X1,X2) VII.3.- VARIABLES CONTINUAS ALEATORIAS BIDIMENSIONALES DISCRETAS Y

En todo lo que sigue, y con el fin de simplificar la escritura, designaremos a la variable aleatoria bidimensional mediante (X,Y). Como en el caso de las variables aleatorias unidimensionales, también en las variables aleatorias bidimensionales existen dos tipos de variables particularmente interesantes: las variables aleatorias discretas y las variables aleatorias continuas En las variables aleatorias discretas, la masa de probabilidad se encuentra distribuida en un conjunto de puntos finito o numerable. La función de distribución se puede calcular sin más que sumar las probabilidades de los puntos incluidos en el correspondiente intervalo:
FXY ( x, y ) =
( a,b )∈I xy

∑ P[(a, b)]

en la que (a,b) representa a los puntos de Ixy con probabilidad no nula. Las variables continuas, se caracterizan por tener su masa de probabilidad distribuida según una función de densidad fXY(x,y), de tal forma que:
FXY ( x, y ) =

∫ ∫
x −∞

y −∞

fXY ( x, y ) ⋅ dx ⋅ dy

VII.100

como tales.1. variables aleatorias y. Siguiendo un razonamiento análogo al utilizado en el punto VII. Una variable bidimensional está constituida por dos variables unidimensionales llamadas marginales. es fácil llegar a la siguiente expresión: fXY ( x. fXY(x. y ) = δ2FXY ( x.Y) Por tanto.y) es el límite de la masa de probabilidad por unidad de superficie cuando ésta superficie tiende a cero. la densidad de probabilidad en un punto. y ) = δ2F P[(x.y) es una función de densidad.3 es: P(a1 ≤ X ≤ b1.4. tienen su propia función de distribución y sus respectivas funciones de densidad. El peso y la estatura por separado son. se pueden calcular la función de distribución y de densidad de las variables marginales de la siguiente forma: VII. por separado. y ) ⋅ dx ⋅ dy VII. y ) δx δy Es fácil ver que fXY(x. de la función de densidad conjunta. a2 ≤ Y ≤ b2 ) = ∫ ∫ b1 a1 b2 a2 fXY ( x. es decir.Y) hace corresponder a cada individuo de una población su peso (X) y su estatura (Y). A partir de la función de distribución conjunta y. La probabilidad del intervalo A de la figura VII..DISTRIBUCIONES MARGINALES Supongamos que la variable bidimensional (X.101 . en el caso de variables continuas. a su vez. se les llama variables marginales de la bidimensional. es decir.. A estas variables.MÉTODOS ESTADÍSTICOS I o lo que es equivalente: fXY ( x.6 para variables unidimensionales y utilizando la figura VII.3.3. representa la masa de probabilidad en un punto por unidad de superficie. y ) ∈ A ] = lim Δx → 0 δxδy Δy →0 Δx ⋅ Δy Y b2 Δx Δy A a2 a1 b1 X Figura VII.Intervalo de la variable bidimensional (X.

y ) ⋅ dy ∫ fX (x) +∞ −∞ f X ( x. y ) ⋅ dy ∫ x −∞ f X ( x ) ⋅ dx dFX ( x ) dx VII. sea cuál sea el valor de Y.MÉTODOS ESTADÍSTICOS I a) El valor de FX(x) es la probabilidad de que la variable X tome un valor inferior o igual a x. ∫ FXY (x. es decir FX(x) es la probabilidad de que la variable bidimensional tome un valor del intervalo rayado de la figura VII.4. Y < ∞ ) = lim FXY ( x. y ) ∫ FX (x) x −∞ dx ∫ +∞ −∞ f X ( x. y ) ⋅ dy En la figura VII.. y ) ⋅ dy δ FXY ( x. se cumple que: FX ( x ) = ∫ x −∞ du ⋅ ∫ +∞ −∞ f (u. y ) y →∞ b) Por las mismas razones que las expuestas en el punto a). y) y →∞ lim FXY ( x.Distribución marginal de X Por tanto: FX ( x ) = P( X ≤ x ) = P( X ≤ x. v ) ⋅ dv c) Derivando respecto a x ésta última ecuación: fX ( x ) = d FX ( x ) = dx ∫ +∞ −∞ f ( x. Y x X Figura VII. y) x −∞ dx ∫ y −∞ f X ( x.102 .4.5 se recogen las relaciones existentes entre las funciones de distribución y las funciones de densidad unidimensionales y bidimensionales. y ) δx ⋅ δy 2 fXY (x. v ) ⋅ dv = ∫ +∞ −∞ f ( x.

Si.5.5. Si consideramos la distribución de estatura ignorando a la variable peso.5.Relación entre funciones de densidad y de distribución VII.1. sea cual sea el peso. Definición A la distribución de la variable Y para el valor de X=x.MÉTODOS ESTADÍSTICOS I Figura VII. ignorando la otra.6..5.103 . la ecuación general se escribirá: FY / X ∫ ( y / x ) = lim h →0 x −∞ dy ∫ x +h ∫ x x +h fXY ( x. VII. Una distribución marginal se obtiene al considerar la distribución de una de las dos variables de una variable bidimensional. VII. es decir. se le llama distribución condicional de Y dado X. la función de distribución condicional se escribirá: FY / X (y / x ) = lim P(Y ≤ y / x ≤ X ≤ x + h) = lim h→0 h→0 P(Y ≤ y ∩ x ≤ X ≤ x + h) P(x ≤ X ≤ x + h) Ecuación general que se puede particularizar según la naturaleza de las variables condicionada y condicionante. por el contrario.. y ) ⋅ dx x fX ( x ) ⋅ dx Por el teorema del valor medio: VII. Demostramos la expresión de la función de distribución para el caso en que ambas variables sean continuas y presentamos las expresiones de dicha función en los demás casos. Y x x+h X Figura VII.. consideramos la distribución de la variable estatura para los individuos de un peso determinado obtendremos la distribución condicional de la estatura para ese peso.. Se representa por FY/X(y/x).DISTRIBUCIONES CONDICIONALES.Función de distribución condicional De acuerdo con la definición anterior.2.Distribución condicional de Y/X a) Ambas continuas: En este caso. obtendremos la distribución marginal de la estatura.

7. y ) ⋅ dy fX ( x ) b) Ambas discretas: Para los puntos en los que PX(x)≠0. y ) ⋅ dy h→0 fX (ξ′) Cuando h→0.2.Función de densidad y ley de probabilidades condicionales A partir de la función de distribución. tanto ξ como ξ` tienden a x.MÉTODOS ESTADÍSTICOS I ∫ y x +h x fXY ( x. y ) ⋅ dx = fXY (ξ. Luego: FY / X ∫f (y / x) = y −∞ XY ( x.. Será: FY / X ( y / x ) = lim ∫f y −∞ XY (ξ. y ) ⋅ h x +h x ∫ f X(ξ’) fX ( x ) ⋅ dx = fX (ξ′) ⋅ h en las que ξ y ξ′ son valores del intervalo [x.5. x ξ’ x+h X Figura VII. yi ) PX ( x ) = yi ≤ y ∑ PY ( yi ) ⋅ PX / Y ( x / yi ) PX ( x ) VII.104 . la ecuación general ahora se escribirá: FY / X ( y / x ) = P( X = x ∩ Y ≤ y ) = P( X = x ) yi ≤ y ∑ PXY ( x. así: a) Ambas variables continuas: Derivando respecto de y a la función de distribución se obtiene: VII. podemos calcular la ley de probabilidades condicional o la función de densidad condicional según sea la variable condicionada.7.x+h] como muestra la figura VII. discreta o continua.

b (Y≡ BT(a.b) es la beta de Euler: VII. era lógico obtener.b)). y )dy ⎥ ⎥ fX ( x ) ⎥ ⎥ ⎦ de donde: fY / X (y / x) = fXY(x. VII. b ) ∀ y ∈ [0 .MÉTODOS ESTADÍSTICOS I ⎡ dFY / X ( y / x ) d ⎢ ⎢ fY / X ( y / x ) = = dy dy ⎢ ⎢ ⎣ ∫f y −∞ XY ⎤ ( x.1] en la que β(a. por otra parte. su campo de existencia está entre [0.5. obtendremos las fórmulas que se exponen a continuación: a) Ambas variables continuas: fX / Y ( x / y ) = f X ( x ) ⋅ fY / X ( y / x ) +∞ ∫ f ( x) ⋅ f −∞ X Y/X ( y / x ) ⋅dx b) Ambas discretas: PX / Y ( x / y) = PX ( x) ⋅ PY / X ( y / x) ∑ PX (xi ) ⋅ PY / X (y / xi ) xi Ejemplo VII.3. según corresponda. y ) PX ( x ) n será: PY / X ( y / x ) = Como.1] y su función de densidad es: fY ( y ) = y a −1 ⋅ (1 − y )b −1 β ( a.105 . yi ) PX ( x ) PXY ( x. pues basta con aplicar la definición de probabilidad condicional. y) fY (y) ⋅ fX / Y (x / y) = fX (x) fX (x) b) Ambas variables discretas: Si tenemos en cuenta que en este caso es: FY / X ( y / x ) = y ii ≤ y ∑ PXY ( x. Esta variable es continua.1: Sea Y una variable beta de parámetros a. -Teorema de Bayes Teniendo en cuenta las leyes de probabilidades condicionales o las funciones de densidad condicionales.

b+n-x) Como puede observarse. b ) = ∫ 1 0 x a −1 ⋅ (1 − x)b −1 ⋅ dx con a>0 y b>0 Sea X/Y una variable binomial de parámetros n. b ) de donde: fY / X ( y / x ) = y a + x −1 ⋅ (1 − y )b + n + x −1 β ( a + x. que será estudiada en un tema posterior. la variable Y/X será continua para cada X que toma valores discretos.x] e IY=]-∞. toma valores naturales entre cero y n y su ley de probabilidad es: ⎛n⎞ PX / Y ( x / y ) = ⎜ ⎟ ⋅ y x ⋅ (1 − y )n − x ⎜x⎟ ⎝ ⎠ Entonces.106 .Y) es continua. VII. En consecuencia: fY / X ( y / x ) = fY ( y ) ⋅ PX / Y ( x / y ) ∫ f (y )⋅P 0 Y 1 X /Y ( x / y )⋅ dy Sustituyendo: fY / X ( y / x ) = y a −1 ⋅ (1 − y )b −1 β ( a. los sucesos IX=]-∞.6. es discreta.MÉTODOS ESTADÍSTICOS I β (a. y ) = FX ( x ) ⋅ FY ( y ) Si (X. b ) ⎛n⎞ ⋅ ⎜ ⎟ ⋅ y x ⋅ (1 − y )n − x ⎜x⎟ ⎝ ⎠ ⎛n⎞ ⋅ ⎜ ⎟ ⋅ y x ⋅ (1 − y )n − x ⋅ dy ⎜x⎟ ⎝ ⎠ ∫ 1 0 y a −1 ⋅ (1 − y )b −1 β ( a. Esta variable.y) ∈ ℜ2.Y≤y)=P(X≤x)·P(Y≤y) Por tanto: X e Y son independientes ↔ ∀ ( x. entonces: VII. la distribución “a posteriori” de la variable condicionada continúa siendo una Beta en la que sus parámetros dependen ahora del valor x de la variable condicionante X.y)). b + n − x ) es decir: Y/X ≡ BT(a+x. F( x. es decir: P(X≤x.Y) diremos que las variables marginales X e Y son independientes..VARIABLES INDEPENDIENTES Dada la variable bidimensional (X. y ) ∈ ℜ2 . y (X/Y≡ B(n. si para todo (x.y] son independientes.

0 = ∫x ℜ u 1 ⋅ dFX1 (x1 ) = αu análogamente: en particular: α0.a).. fY / X ( y / x ) = fY ( y ) Conclusiones análogas pueden obtenerse para los demás tipos de variables condicionadas. X2 = ( ) ∫ ℜ 2 u v x1 ⋅ x 2 ⋅ dFX1X 2 (x1.i ⋅ x 2. x 2 ) ⋅ dx1 ⋅ dx 2 como: αu.i) entonces: u v α u.v = ∫∫ ℜ u v x1 ⋅ x 2 ⋅ fX1X 2 ( x1. fXY ( x.0=μ1 α0.x2. se cumple: αu.i ) i Si la variable es continua. x 2 ) Si la variable es discreta. la masa de la probabilidad se concentra en unos puntos (x1. x 2 ) es la función de densidad: αu.7.MÉTODOS ESTADÍSTICOS I fXY ( x. X2 = x 2. es decir. y ) = δ2FXY ( x. y ) ∈ ℜ2 . VII.2.i. y ) = f X ( x ) ⋅ fY ( y ) δx ⋅ δy por tanto: X e Y son independie ntes ↔ ∀ ( x. acabamos de ver que: fXY(x. a: VII.1=μ2 Se denomina momento central de orden u.v = E X1 . x 2 ) por una propiedad de la integral de Stieljes.i. y fX1X 2 ( x1.MOMENTOS Se denomina momento respecto al origen de orden u.v de la variable bidimensional.y) = fX(x)·fY/X(y/x) Si las variables marginales son independientes.5.0 = ∫ ℜ2 u x1 ⋅ dFX1X 2 (x1.v = ∑ x1. v de la variable bidimensional.v=αv α1. y ) = fX ( x ) ⋅ fY ( y ) En el apartado VII.2. se cumplirá: es decir: fY/X(y/x) = fY(y) X e Y son independie ntes ↔ ∀ ( x. y ) ∈ ℜ2 .107 .i ⋅ P(X1 = x1. a: u v αu.

0 = σ1 = σ1. VII.1 2 Se define como matriz de varianzas-covarianzas de la variable bidimensional (X1.1. X 2 ) = σ1.1 σ2 ⎥ ⎣ ⎦ VII.8. X2 ) 2 que es la conocida desigualdad de Schwarz.2 = σ2 = σ2.. se cumple: μu. respectivamente.1 = cov( X1.9. X2 ) VII..108 .0 = σ1 μ 0.2 = σ2. en una recta o en el plano.1 = cov( X1.1 μ 0.2 2 2 2 μ1. 2 σ1 ⋅ σ2 ≥ cov 2 ( X1...1=0 Los momentos de segundo orden (u+v=2). según que la característica o rango de la matriz V sea 0.2 = σ2 2 μ1.8.1. son: 2 μ 2.MÉTODOS ESTADÍSTICOS I μu..1 o 2.COEFICIENTE DE CORRELACIÓN VII.v=μv en particular: μ1.0=μ0.2.Propiedades 2 a) La matriz de varianzas-covarianzas es simétrica pues σ1.MATRIZ DE VARIANZAS COVARIANZAS VII.2 ⎤ V = ⎢ 21 2 ⎥ ⎢σ2.Definición El coeficiente de correlación ρ de una variable aleatoria bidimensional se define mediante: VII.9.0=μu μ0.X2) a: 2 ⎡ σ2 σ1. c) La masa de probabilidad de una variable aleatoria bidimensional se encuentra concentrada en un punto.2 = σ 2.v = E (X1 − μ1 ) ⋅ (X2 − μ 2 ) u [ v ] Como en el caso anterior.8.1 2 b) La matriz de varianzas-covarianzas es semidefinida positiva.Definición Los momentos de segundo orden pueden ser escritos así: 2 2 μ 2.

9.2 ≤1 σ ⋅ σ2 2 2 1 por lo tanto: −1 ≤ ρ ≤ 1 2 b) Si las variables X1 y X2 son independientes.2 2 por lo que: ρ2 = 4 σ1.10. trataremos de encontrar una función h(X1) que permita obtener valores aproximados de X2 de modo que sea mínimo el valor medio anteriormente expresado. entonces σ12·σ22=cov2(X1.1.X2) con lo que ρ2=1 y ρ=±1 { Si X2 = α + β ⋅ X1 } ⇒ { ρ = ±1 } De las propiedades anteriores. X2 ) 2 σ1 ⋅ σ2 2 = 2 σ1. es: 2 4 σ1 ⋅ σ2 ≥ σ1.REGRESIÓN VII.10.MÉTODOS ESTADÍSTICOS I ρ= cov( X1. Por lo tanto. es decir. En este caso.. el rango de la matriz de varianzas-covarianzas vale 1 y por tanto su determinante es nulo y.. VII.2 = 0 En consecuencia: { Si X1 y X2 son independientes} el recíproco.2 σ1 ⋅ σ2 VII.Propiedades a) Por ser V semidefinida positiva.2. VII. si la masa de probabilidad se encuentra concentrada en una recta. es σ1.109 .Regresión condicional Uno de los problemas que se plantan en numerosas aplicaciones prácticas es el de predecir los valores de una variable X2 en función de los valores que tome otra variable X1 con la que se distribuye conjuntamente. se desprende que el coeficiente de correlación mide el grado de dependencia lineal entre X1 y X2. ⇒ {ρ = 0 } c) Si existe una relación lineal exacta entre las variables aleatorias X1 y X2. El objeto de este apartado será obtener la “mejor” función de predicción de acuerdo con un cierto criterio. el criterio será minimizar el valor medio del cuadrado de los errores de predicción. en general. no es cierto..

110 .MÉTODOS ESTADÍSTICOS I Si h(X1) no está sujeta a ninguna restricción (salvo que sea uniforme) se le denominará curva de regresión condicional. lo es: ∫ ℜ (x 2 − h( x1))2 ⋅ dFX 2 / X1 ( x 2 / x1 ) en la que x1 y. Calcularemos h(x1) derivando la última integral respecto a h(x1) e igualando a cero: según una de las propiedades de la integral de Stieljes. para x1 dado. Determinaremos por tanto la función h(X1) que minimiza: E (X2 − h( X1 )) [ 2 ] =∫ ℜ2 (x 2 − h( x1))2 ⋅ dFX X 1 2 ( x 2 .2. x1 ) expresión que puede ser escrita: E (X2 − h( X1 )) = 2 [ ] ∫ ℜ dFX1 ( x1 ) ⋅ ∫ ℜ (x 2 − h( x1))2 ⋅ dFX 2 / X1 ( x 2 / x1 ) que es mínima cuando. la variable aleatoria [X2.Regresión lineal mínimo cuadrática VII. se cumplirá que: d dh( x1 ) ∫ ℜ (x 2 − h( x1))2 ⋅ dFX X 1 2 ( x 2 / x1 ) = ∫ ∫ ℜ − 2 ⋅ (x 2 − h( x1 )) ⋅ dFX1X 2 ( x 2 / x1 ) igualando a cero la expresión anterior. h(x1) son constantes. Si h(X1) está sujeta a la restricción de ser una recta. se le denominará recta de regresión lineal minimo cuadrática..1.. VII.2. por tanto.h(X1)]2 representa el “error” al cuadrado que se comete al tratar de predecir el valor de X2 mediante el conocimiento de X1 y utilizando para ello la función h(X1). ∫ es decir: ℜ h( x1 ) ⋅ dFX1X 2 ( x 2 / x1 ) = ℜ x 2 ⋅ dFX1X 2 ( x 2 / x1 ) h( x1 ) = E( X2 / x1 ) Por tanto: Llamaremos curva de regresión condicional de X2 sobre X1 al lugar geométrico de los valores medios condicionales de la variable X2 dado el valor de X1.10.10. El objeto de la regresión condicional consiste en determinar h(X1) de tal forma que el valor medio del “error cuadrático” sea mínimo. Si h(X1) es una función uniforme de X1.Definición VII.

pasa por el punto medio de la distribución de (X1. es decir. Sustituyendo el valor de α en la definición de U: U=X2-(μ2-β·μ1)-β·X1=(X2-μ2)-β·(X1-μ1) y z será: z = E (( X 2 − μ 2 ) − β ⋅ ( X1 + μ1 )) [ 2 ] derivando z respecto de β e igualando a cero se obtiene: VII.Cálculo de los parámetros Llamaremos residuo a la variable aleatoria a Debemos minimizar: U = X2 -(α+β·X1) z = E(U2) = E[(X2 -(α+β·X1))2] derivando respecto de α y teniendo en cuenta la propiedad c) de la esperanza matemática: dz d ⎡ d 2 (X2 − α − β ⋅ X1 )2 ⎤ = E (X2 − α − β ⋅ X1 ) = E ⎢ ⎥ dα dα ⎣ dα ⎦ [ ] es decir: dz = E [− 2 ⋅ (X2 − α − β ⋅ X1 )] dα aplicando el operador E e igualando a cero: μ2-α-β·μ1=0 por tanto: α = μ 2 − β ⋅ μ1 Despejando μ2: μ2=α+β·μ1 lo que indica que el punto (μ1.MÉTODOS ESTADÍSTICOS I Sea X = ( X1..2.111 . Se llama recta de regresión mínimo cuadrática de X2/x1 a la recta ˆ x 2 = α + β ⋅ x1 r que minimiza la expresión: ˆ 2 E ⎡ X 2 − X2 ⎤ ⎢ ⎥ ⎣ ⎦ ( ) en la que ˆ X 2 = α + β ⋅ X1 VII.2.10.c. X2). μ2) satisface las condiciones de la recta.m. que la r. X2 ) una variable aleatoria bidimensional.r.

X2 ) − β ⋅ σ1 = 0 por tanto: β= cov (X1. Si ponemos β en función del coeficiente de correlación. X2 ) 2 σ1 Sustituyendo α en la ecuación de la recta de regresión se obtiene: ˆ X2 = μ 2 − β ⋅ μ1 + β ⋅ X1 = μ 2 + β ⋅ (X1 − μ1 ) Sustituyendo ahora el β por su valor tendremos que la r. cuya expresión es ρ= cov( X1.m.MÉTODOS ESTADÍSTICOS I dz = E − 2 ⋅ ( X1 − μ1 ) ⋅ ( X2 − μ 2 ) − β ⋅ ( X1 − μ1 )2 dβ [ ( )]= 0 tomando la esperanza matemática: 2 cov (X1. X 2 ) ˆ X2 − μ 2 = ⋅ (X1 − μ1 ) 2 σ1 Esta recta pasa por el punto (μ1. X2 ) σ1 ⋅ σ2 σ2 ⋅ρ σ1 tendremos que β= por lo que si ρ=0 entonces β=0 y la recta de regresión mínimo cuadrática coincide con ˆ X2 = μ 2 Ejemplo VII.3 La variable aleatoria (X.μ2) y su pendiente es β. es: cov (X1.c.112 .r.Y) se distribuye con densidad uniforme en el interior del recinto delimitado por las rectas: y=0 x=0 y=1 x+y=2 Calcular: a) La curva de regresión condicional de X/Y y de Y/X b) La recta de regresión mínimo cuadrática de Y/X y de X/Y c) El coeficiente de correlación ρ SOLUCIÓN: VII.

c. de X/Y es ˆ X = E [X/Y ] = ∫ 2 −y 0 x ⋅ 2 1 y ⋅ dx = − 2−y 2 ∀ y ∈ [0. ∀ y ∈ [0.c.r. ∀ y ∈ [0.Y) Las funciones de densidad marginales son: f X (x) = ∫ Y ⎧ ⎪ ⎪ f XY (x.1] VII. y) ⋅ dx = ∫ 2/3 ⋅ dy = 3 ⋅ (2 − y) 0 2−y Las funciones de densidad condicionales son: f X/Y (x/y) = f XY (x. y) = 1 1 2 = = Area A 3/2 3 Y A 1 2 X Figura VII.10.1] 0 2/3 ⋅ dy = 2 fY (y) = ∫ X f XY (x.MÉTODOS ESTADÍSTICOS I a) La c. por lo tanto.1] ∀ x ∈ [1.Campo de existencia de (X. 2 − x ] ⎧ 2/3 ⎪ 2/3 = 1 ⎪ fY/X (y/x) = ⎨ 2/3 1 ⎪ = ⎪ 2/3 ⋅ (2 − x) 2 − x ⎩ Sustituyendo en las ecuaciones correspondientes obtenemos que la c.r.1] ∀ x ∈ [0. las correspondientes funciones de densidad condicionales.2 ] .10. y) 2/3 1 = = fY (y) 2/3 ⋅ (2 − y) 2 − y ∀ x ∈ [0.113 .2 ∀ y ∈ [0. la función de densidad conjunta será: f XY (x. ∀ y ∈ [0.1] 2 ⋅ (2 − x) 3 ∀ x ∈[ ] 1. de X/Y es: ˆ X = E(X/Y) = ∫ x ⋅f X X/Y (x/y) ⋅ dx y la c. 2 − y ] .c.1] . y) ⋅ dy = ⎨ ⎪ ⎪ ⎩ ∫ ∫ 1 0 2− x 2/3 ⋅ dy = 2 3 ∀ x ∈ [0.. Dado que la variable tiene densidad uniforme en el recinto A de la figura VII. de Y/X: ˆ Y = E(Y/X) = ∫ y ⋅f Y Y/X (y/x) ⋅ dy Deberemos conocer.r.

Y) = E(X ⋅ Y) − E(X) ⋅ E(Y) = ∫ ∫ x ⋅ y ⋅ 2/3 ⋅ dx ⋅ dy − 9 ⋅ 9 = − 324 0 0 4 7 13 2 σ X = D 2 (X) = E(X 2 ) − E 2 (X) = ∫ 1 x 2 ⋅ 2/3 ⋅ dx + 0 ∫ 2 1 37 ⎛7 ⎞ x 2 ⋅ 2/3 ⋅ (2 − x) ⋅ dx − ⎜ ⎟ = 9⎠ 162 ⎝ 2 sustituyendo: VII.x) ⋅ dx = 9 1 2 cov(X. Y A 1 2 X Figura VII.r.. Y A 1 2 X Figura VII.114 .11.11.1] ∀ x ∈[ ] 1.Y ) ˆ Y − μY = ⋅ (X − μ X ) 2 σX donde: μY = E(Y) = μ X = E(X) = ∫ +∞ −∞ y ⋅ fY (y) ⋅ dy = ∫ y ⋅ 2/3 ⋅ (2 − y) ⋅ dy = 9 0 1 4 7 ∫ +∞ −∞ x ⋅ f X (x) ⋅ dx = ∫ 1 x ⋅ 2/3 ⋅ dx + 1 2−y 0 ∫ x ⋅ 2/3 ⋅ (2 .12.c.12.2 como se muestra en la figura VII.Curva de Regresión Condicional X/Y y la c. de Y/X es ⎧ ⎪ ⎪ ˆ Y = E [Y/X ] = ⎨ ⎪ ⎪ ⎩ ∫ y ⋅1 ⋅ dy = 2 2−x ∫ y ⋅ ⋅ dy = 2 0 2−x 1 1 2−x 1 1 ∀ x ∈ [0.MÉTODOS ESTADÍSTICOS I como muestra la figura VII..Curva de Regresión Condicional Y/X b) La recta de regresión mínimo cuadrática de Y/X tiene como expresión: cov ( X.

. xn ) ⋅dx1 ⋅dx 2 ⋅ L ⋅ dx n por tanto.. x 2 .. X/Y tiene como expresión: cov ( X. Así.x n al intervalo de la forma X1≤x1. diremos que la aplicación X:E→ℜn es una variable aleatoria n-dimensional si para todo intervalo I x1....y) ⋅ dx − ⎜ ⎟ = 162 ⎝9 ⎠ 2 sustituyendo: 1 ⎛ 4⎞ ˆ 7 X − = − ⋅ ⎜Y − ⎟ 9 2 ⎝ 9⎠ c) El coeficiente de correlación es ρ= cov(X.. xn ) = ∫ ∫ x1 −∞ x2 −∞ L ∫ xn −∞ f ( x1.. X2 ≤ x 2 ... VII. Xn≤xn.c.. mediante: F( x1.Y) 13/324 =− = −0....Y ) ˆ X −μ X = ⋅ (Y − μY ) 2 σY donde 2 σY = D 2 (Y) = E(Y 2 ) − E 2 (Y) = ∫ 1 0 13 ⎛4 ⎞ x 2 ⋅ 2/3 ⋅ (2 .. P)..x 2 ........ X2≤x2. xn ) δx1 ⋅ δx 2 ⋅ L ⋅ δxn Las variables marginales y condicionales se definen de forma análoga al caso de dos dimensiones....r. Xn ≤ xn ) cuyas propiedades son una fácil generalización de las expuestas en una y dos dimensiones. son fácilmente generalizables para variables de más de dos dimensiones.11..MÉTODOS ESTADÍSTICOS I 13 ⎛ 7⎞ ˆ 4 Y− =− ⋅⎜ X − ⎟ 9 74 ⎝ 9⎠ La r.. x 2 .x n su antiimagen O(I x1.m. y dado un Espacio de Probabilidades (E. Definiremos a la función de distribución...VARIABLES ALEATORIAS n-DIMENSIONALES Los conceptos expuestos en los apartados anteriores. x 2 .. xn ) = P( X1 ≤ x1.115 . . xn ) = δnF( x1.x 2 .. será: f ( x1..296 σ X ⋅ σY 37/162 ⋅13/162 VII. x 2 . Para las variables continuas se define a la función de densidad como aquella función que satisface a la condición: F( x1...x 2 .... F.. x 2 .. si designamos por I x1.x n ) pertenece a F.

y ) = FX ( x ).FY ( y )} VII.MÉTODOS ESTADÍSTICOS I Si el producto de las funciones de distribución marginales coincide en todo punto con la distribución conjunta. r r { X e Y son independie ntes} ↔ { F XY r r r r ( x.116 . las variables son independientes.

MÉTODOS ESTADÍSTICOS I VII.117 .

CAPITULO VII: Variable Aleatoria Normal Bidimensional .

es decir FX(x) es la probabilidad de que la variable bidimensional tome un valor del intervalo rayado de la figura VII. El peso y la estatura por separado son.119 . se pueden calcular la función de distribución y de densidad de las variables marginales de la siguiente forma: d) El valor de FX(x) es la probabilidad de que la variable X tome un valor inferior o igual a x. las probabilidades vienen determinadas por una función de densidad conjunta la cual debe verificar las siguientes propiedades: f XY ( x .. A estas variables. a partir de la función de densidad conjunta.CONCEPTO DE FUNCIÓN DE DENSIDAD Cuando en lugar de observar una característica numérica observamos n características en cada elemento de una población. por simplicidad consideraremos el caso bidimensional.1. definiremos su distribución de probabilidad. se les llama variables marginales de la bidimensional. VII. sea cuál sea el valor de Y. variables aleatorias y. a su vez. En el caso de variables continuas. como tales. diremos que se dispone de una variable aleatoria multidimensional. mediante una función de probabilidad conjunta que proporcione las probabilidades de cada posible valor. En el caso de una variable aleatoria bidimensional continua. por separado.Capítulo V: Variables Aleatorias Unidimensionales VII. en el caso discreto. tienen su propia función de distribución y sus respectivas funciones de densidad. y)dxdy = 1 Supongamos que la variable bidimensional (X.Y) hace corresponder a cada individuo de una población su peso (X) y su estatura (Y). Una variable bidimensional está constituida por dos variables unidimensionales llamadas marginales.1. y) ≥ 0 ∀i ∞ ∞ −∞−∞ ∫ ∫f XY ( x. Dada una variable aleatoria multidimensional.

Distribución marginal de X Por tanto: FX ( x ) = P( X ≤ x ) = P( X ≤ x. Sean X1 y X2 variables aleatorias Normales Tipificadas unidimensionales e independientes.Capítulo V: Variables Aleatorias Unidimensionales Y x X Figura VII.1.1. e) Por las mismas razones que las expuestas en el punto a).120 . v ) ⋅ dv f) Derivando respecto a x ésta última ecuación: d FX ( x ) = dx fX ( x ) = ∫ +∞ −∞ f ( x. x 2 ) = e 2π 2 x1 + x2 2 2 pues bien: VII.. y ) y →∞ Siendo FXY(x. La función de densidad conjunta de la variable bidimensional: r ⎡X ⎤ X = ⎢ 1⎥ ⎣X 2 ⎦ es: 1 − f ( x 1.y) la función de distribución conjunta.Variable normal bidimensional tipificada Un caso particular de variables aleatorias bidimensionales lo constituye la distribución normal bidimensional tipificada.1. se cumple que: FX ( x ) = ∫ x −∞ du ⋅ ∫ +∞ −∞ f (u.. v ) ⋅ dv = ∫ +∞ −∞ f ( x. Y < ∞ ) = lim FXY ( x. y ) ⋅ dy VII.

Para calcular la función de densidad de Y conocida la de. podremos utilizar la fórmula del Jacobiano para el cambio de variable. se denomina variable aleatoria Normal Bidimensional Tipificada y su función de densidad conjunta es: 1 − f ( x 1. I). A la variable bidimensional Y = AX + b la denominaremos variable Normal Bidimensional General.x ⎤ f y ( y 1. x 2 ) = e 2π r r 2 x1 + x2 2 2 La representaremos mediante X ≡ N(0. en la que 0 = (0. b un vector columna 2x1 y X una variable aleatoria Normal Bidimensional Tipificada ( X ≡ N(0. y 2 ) = f x ( x1.. r VII. por tanto. y 2 ⎦ como X = A −1 ( Y − b) es: ⎡x . y 2 ⎦ r r r como: 1 − f ( x 1.2. x 2 ) • J⎢ 1 2 ⎥ ⎣ y 1. es decir: r r ⎡x .121 .1. es X = A −1 ( Y − b) y existe. I)).0)' e I es la matriz unidad. x 2 ) = e 2π 2 x1 + x2 2 2 es: VII. La variable Normal Bidimensional General es una transformada lineal regular ( A ≠ 0) de una variable aleatoria Normal Bidimensional Tipificada.Capítulo V: Variables Aleatorias Unidimensionales La variable aleatoria bidimensional cuyas marginales son variables aleatorias Normales Tipificadas independientes.x ⎤ J⎢ 1 2 ⎥ = A −1 ⎣ y 1. correspondencia biunívoca entre los valores de X y de los de. r r r r r r r r r r r Si Y = AX + b con.Variable normal bidimensional general r r Sea A una matriz 2x2 regular ( A ≠ 0).

r r r r r r r m y = E( Y ) = E( AX + b) = AE( X ) + b = b r r rr rr r r Vy = E ( Y − m y )( Y − m y )' = E AXX ' A ' = AE( XX ' )A ' = AA ' r r r r [ ] [ ] por ser A no singular.1 σ 2.Capítulo V: Variables Aleatorias Unidimensionales f ( x 1.122 . será: r f y ( y) = − ( y − b)'( A 1 e 2 2•π −1 1 A pongamos ahora los valores de A y de b en función del vector de medias de Y(m y ) y de la matriz de varianzas-covarianzas de Y( Vy ). es: − V y 1 = A ' −1 • A − 1 y Vy = A 2 de donde: A = Vy 1/ 2 por tanto: r f y ( y) = 1 2 • π • Yy 1/ 2 e − r 1 r r − r ( y − m y )' Vy 1( y − m y ) 2 como: 2 2 ⎡ σ 11 σ 1. por tanto. x 2 ) = 1 − e 2π x' x 2 en la que x’=(x1. 2 ⎥ ⎢ ⎥ ⎣σ 2.2 ⎤ V = ⎢ 2.x2) y. es: r r r x = A −1 ( y − b) y x' = A −1( y − b)' (A -1 )' 1 r r r r )'• A −1 ( y − b) r r r en consecuencia.2 ⎦ es: 2 Vy = σ 1 • σ 2 • (1 − ρ 2 ) 2 y es: − Vy 1 1 ⎡ ⎢ 2 σ1 ⎢ = ρ 1 − ρ 2 ⎢− ⎢ σ •σ 1 2 ⎣ 1 − ρ ⎤ σ1 • σ 2 ⎥ ⎥ 1 ⎥ ⎥ 2 σ1 ⎦ VII.

0) y es: [m1.Capítulo V: Variables Aleatorias Unidimensionales y calculando: −1 ( y − m y )' Vy ( y − m y ) se obtiene: f y ( y) = 1 2πσ 1σ 2 1 − ρ 2 e − r 1 r r − r ( y − m y )' Vy 1( y − m y ) 2 en la que: −1 ( y − m y )' Vy ( y − m y ) = ⎡ ( y 1 − m1 ) 2 ( y − m 1 )( y 2 − m 2 ) ( y 2 − m 2 ) 2 ⎤ 2ρ 1 + ⎢ ⎥ 2 σ1 • σ 2 σ1 σ2 1 − ρ2 ⎣ ⎢ ⎥ 2 ⎦ 1 TEOREMA Las variables aleatorias marginales de una variable Normal Bidimensional General son. ⎥ ⎢ ⎥ = [ t.VECTOR DE VALORES MEDIOS VII.123 . V ) ⇒ Y1 ≡ N(m 1. variables Normales Unidimensionales Generales.2 ⎥ ⎣0 ⎦ ⎢σ 2.1 t⎥ 2 ⎦ ⎣ ⎦ entonces: ϕ Y1 ( t) = 1 2 im1t − σ1 • t 2 2 e que es la función característica de una variable Normal de media m1 y varianza.0]⎢ 2 ⎥ = σ 11 t = σ 1 • t .2 ⎤ ⎡ t ⎤ 2 2 2 2 .2. como: ϕ Y1 ( t) = ϕ Y1Y2 ( t.. Por tanto: r r Y ≡ N(m. en efecto.1 2 2 ⎡ σ 11 t ⎤ σ 1.0]⎢σ 2. σ 1 ) VII. σ 2. ⎡σ 2 ⎢ ⎣ 2. m 2 ]⎢0⎥ = m1t ⎣ ⎦ ⎡t⎤ y 11 [ t. a su vez.

X2 ) 2 que es la conocida desigualdad de Schwarz.2 = σ2. respectivamente. en una recta o en el plano.X2) a: 2 ⎡ σ2 σ1.2 ⎤ V = ⎢ 21 2 ⎥ ⎢σ2. el vector de valores medios.. es: r r ⎡ X ⎤ ⎡E( X 1 ) ⎤ ⎡ m 1 ⎤ m = E( X ) = E⎢ 1 ⎥ = ⎢ ⎥ = ⎢ ⎥ ⎣ X 2 ⎦ ⎣E( X 2 )⎦ ⎣m 2 ⎦ Si particularizamos dicho vector al caso concreto de una variable aleatoria normal bidimensional tipificada se tiene: r ⎡0 ⎤ m= ⎢ ⎥ ⎣0 ⎦ VII.3.1 2 e) La matriz de varianzas-covarianzas es semidefinida positiva. f) La masa de probabilidad de una variable aleatoria bidimensional se encuentra concentrada en un punto. por ejemplo.MATRIZ DE VARIANZAS COVARIANZAS VII.X2)=0 la matriz de varianzas-covarianzas viene dada por: ⎡1 0⎤ V =⎢ ⎥ ⎣0 1 ⎦ VII.3. 2 σ1 ⋅ σ2 ≥ cov 2 ( X1.2.1.1 o 2. por ser X1 y X2 independientes es: cov(X1.Definición Se define como matriz de varianzas-covarianzas de la variable bidimensional (X1. se considera una variable aleatoria normal bidimensional tipificada como D2(X1)=D2(X2)=1 y.124 ..Propiedades 2 d) La matriz de varianzas-covarianzas es simétrica pues σ1.1 σ2 ⎥ ⎣ ⎦ Si. VII.Capítulo V: Variables Aleatorias Unidimensionales Por definición.. según que la característica o rango de la matriz V sea 0.3.

Capítulo V: Variables Aleatorias Unidimensionales

VII.4.- COEFICIENTE DE CORRELACIÓN VII.4.1.- Definición

El coeficiente de correlación ρ de una variable aleatoria bidimensional se define mediante:
ρ= cov( X1, X2 )
2 σ1 ⋅ σ2 2

=

2 σ1,2

σ1 ⋅ σ2

VII.4.2.- Propiedades

d) Por ser V semidefinida positiva, es:
2 4 σ1 ⋅ σ2 ≥ σ1,2 2

por lo que:
ρ2 =
4 σ1,2 ≤1 2 σ1 ⋅ σ2 2

por lo tanto:
−1 ≤ ρ ≤ 1
2 e) Si las variables X1 y X2 son independientes, es σ1,2 = 0

En consecuencia:

{ Si X1 y X2 son independientes}
el recíproco, en general, no es cierto. f)

{ρ = 0 }

Si existe una relación lineal exacta entre las variables aleatorias X1 y X2, es decir, si la masa de probabilidad se encuentra concentrada en una recta, el rango de la matriz de varianzas-covarianzas vale 1 y por tanto su determinante es nulo y, entonces σ12·σ22=cov2(X1,X2) con lo que ρ2=1 y ρ=±1

{ Si X2 = α + β ⋅ X1 }

{ ρ = ±1 }

De las propiedades anteriores, se desprende que el coeficiente de correlación mide el grado de dependencia lineal entre X1 y X2.
VII.5.- INDEPENDENCIA DE VARIABLES ALEATORIAS

Dada la variable bidimensional (X,Y) diremos que las variables marginales X e Y son independientes, si para todo (x,y) ∈ ℜ2, los sucesos IX=]-∞,x] e IY=]-∞,y] son independientes, es decir:

VII.125

Capítulo V: Variables Aleatorias Unidimensionales

P(X≤x,Y≤y)=P(X≤x)·P(Y≤y) Por tanto:
X e Y son independientes ↔ ∀ ( x, y ) ∈ ℜ2 ; F( x, y ) = FX ( x ) ⋅ FY ( y )

Si (X,Y) es continua, entonces:
fXY ( x, y ) = δ2FXY ( x, y ) = f X ( x ) ⋅ fY ( y ) δx ⋅ δy

por tanto:
X e Y son independie ntes ↔ ∀ ( x, y ) ∈ ℜ2 ; fXY ( x, y ) = fX ( x ) ⋅ fY ( y )

TEOREMA Si dos variables aleatorias normales son incorrelacionadas, es decir (ρ =0), entonces son independientes.

Si dos variables aleatorias son independientes, su covarianza es nula y, por tanto, su coeficiente de correlación vale cero. Es decir, si son independientes están incorrelacionadas. En general, el recíproco no es cierto. Para darse cuenta de ello, basta con comprobar que las variables marginales de la variable aleatoria bidimensional uniforme en un círculo de centro en el origen de coordenadas, son incorrelacionadas pero no independientes. Sin embargo, en el caso particular de variables Normales, la incorrelación implica la independencia y, por tanto, incorrelación e independencia son términos equivalentes. En efecto, el exponente de la función de densidad de una variable aleatoria bidimensional Normal General, es:
⎡ ( y 1 − m1 ) 2 ( y − m 1 )( y 2 − m 2 ) ( y 2 − m 2 ) 2 ⎤ − 2ρ 1 + ⎢ ⎥ 2 σ1 • σ 2 σ2 1 − ρ2 ⎢ σ1 ⎥ 2 ⎣ ⎦ 1

( y − m)' V −1 ( y − m) =

por tanto, si ρ = 0, es:
1 f ( y 1, y 2 ) = e 2πσ 1σ 2

1 ⎡ ( y1 − m1 )2 ( y 2 − m 2 ) 2 ⎤ + ⎢ ⎥ 2 2⎢ σ1 σ2 ⎥ 2 ⎣ ⎦

es decir:
VII.126

Capítulo V: Variables Aleatorias Unidimensionales

f ( y 1, y 2 ) = f y 1 ( y 1 ) • f y 2 ( y 2 )

lo que implica que Y1 e Y2 son independientes. Por tanto:
{ Y1 ≡ N(m 1, σ 1 ) Y2 ≡ N(m 2 , σ 2 ) ρ(Y1, Y2 ) = 0} → {Y1 e Y2 indep. }

y

VII.6.- DISTRIBUCIÓN MARGINAL

Las variables aleatorias marginales de una variable Normal Bidimensional General son, a su vez, variables Normales Unidimensionales Generales.

en efecto, como:
ϕ Y1 ( t) = ϕ Y1Y2 ( t,0)

y es:

[m1, m 2 ]⎢0⎥ = m1t
⎣ ⎦

⎡t⎤

y
11 [ t,0]⎢σ 2,

⎡σ 2 ⎢ ⎣

2,1

2 2 ⎡ σ 11 t ⎤ σ 1,2 ⎤ ⎡ t ⎤ 2 2 2 2 , ⎥ ⎢ ⎥ = [ t,0]⎢ 2 ⎥ = σ 11 t = σ 1 • t , σ 2,2 ⎦ ⎣0 ⎦ σ 2,1 t⎦ ⎢ ⎥ 2 ⎥ ⎣

entonces:
ϕ Y1 ( t) =
1 2 im1t − σ1 • t 2 2 e

que es la función característica de una variable Normal de media m1 y varianza. Por tanto:
r r Y ≡ N(m, V ) ⇒ Y1 ≡ N(m 1, σ 1 )

VII.7.- DISTRIBUCIÓN CONDICIONAL

La variable aleatoria Y2 condicionada a un valor de la variable aleatoria Y1 =Y2, se calcula mediante:
VII.127

la curva que mejor se adapta a la masa de probabilidad. a su vez.Capítulo V: Variables Aleatorias Unidimensionales fc ( y 2 y1 ) = f ( y 1. es decir. la recta de regresión minimo cuadrática coincidirá con la curva de regresión condicional.2 ( y1 − m1 ) ⎥ ⎥ 2 ⎢ ⎢ ⎥⎦ σ1 1 ⎣ ⎦⎥ − ⎣ 2 2 2 σ 2 (1− ρ ) 2 fc ( y 2 y1 ) = 1 2π σ 2 1 − ρ 2 lo que pone de manifiesto que si Y1 e Y2 son variables aleatorias Normales. la e variable aleatoria Y1 / Y2 es. es: $ y 2 = E( Y2 y 1 ) = m 2 + cov( Y1. en general. una variable Normal de media: E( Y2 y 1 ) = m 2 + cov( Y1. y 2 ) f y1 ( y 1 ) operando se obtiene: ⎡ ⎡ ⎤⎤ σ2 ⎢ y 2 − ⎢m 2 + 1. Y2 ) 2 σ1 ( y 1 − m1 ) 2 D 2 ( Y2 y 1 ) = σ 2 • (1 − ρ 2 ) Como. una recta. la curva de regresión condicional es: $ y 2 = E( Y2 y 1 ) en el caso particular de variables Normales.128 . Y2 ) 2 σ1 ( y 1 − m1 ) por ser la curva de regresión condicional. VII.

Muestreo VII.129 .Capítulo V: Variables Aleatorias Unidimensionales Tema 8.

CAPITULO VIII: Distribuciones en el Muestreo .

. o superior al valor de la información obtenida. carecería de interés o aplicabilidad. etc. Dados los resultados de la inspección de un conjunto de componentes eléctricos • • VIII. Estudiar a todos los individuos del colectivo podría suponer un coste demasiado elevado en muchos casos. la aceptación de un lote de materiales. La urgencia por disponer de la información requerida (por ejemplo un sondeo preelectoral. Dado un conjunto de mediciones de la resistencia a la compresión de unas probetas de hormigón. las conclusiones obtenidas. no siempre es posible o conveniente analizar todas y cada una de las unidades que integran dicho colectivo. No obstante. Razones económicas. Por ejemplo. no disponer de acceso a todos los individuos del colectivo o no disponer de un listado de los mismos. y mediante el empleo de técnicas estadísticas. Cuando las observaciones a realizar ocasionan alteración o incluso la destrucción de los elementos analizados. Si aplicamos un ensayo destructivo a la totalidad de las piezas de un lote en su recepción. Por ejemplo: • En función de los resultados obtenidos al medir la capacidad de un conjunto de envases de vidrio y con el fin de poder aplicar las técnicas estadísticas habituales de Control de la Calidad ¿podemos admitir que dicha magnitud es una variable aleatoria con distribución normal?. en otros. Son muchas las preguntas que pueden plantearse acerca de la población total y que pueden responderse analizando adecuadamente los resultados observados en la muestra.131 . Las razones por las cuales no se extiende el análisis a la totalidad de la población pueden ser de distinta índole: • Razones estratégicas. • • • Para obviar estos inconvenientes se recurre al estudio de solo una parte del colectivo convenientemente seleccionada a partir del cual. Razones de tiempo. aunque completa. el colectivo objeto de estudio desaparecería y la información obtenida.INTRODUCCIÓN El objeto de todo estudio estadístico es siempre el conocimiento del colectivo o población a la que se refiere el estudio. podremos generalizar al universo o colectivo objeto del estudio. Algunos ejemplos o situaciones de la vida real ayudarán a justificar la necesidad y utilidad del muestreo.Capítulo VIII: Distribuciones en el Muestreo VIII. fabricadas con tres formulaciones diferentes ¿puede concluirse que las tres formulaciones tienen la misma resistencia media o presentan la misma variabilidad?.) puede imposibilitar el estudio de toda la población.1. Razones intrínsecas al estudio. lógicamente es inviable estudiar todos ellos.

peso específico de unas piezas de plástico ¿podemos admitir la existencia de una dependencia lineal entre estas características físicas del material estudiado? En función de unos resultados obtenidos al repetir bajo diferentes condiciones un proceso de síntesis ¿podemos decir que influyen en dicho proceso determinados factores?..132 . de esas piezas seleccionadas de forma aleatoria. la función de distribución de cada variable X1. ¿existe interacción entre ellos? Estas y otras muchas preguntas pueden contestarse mediante la aplicación de métodos estadísticos a la información suministrada por las muestras extraídas de una población.2.. X2. X2. 2.Población y muestra VIII. MUESTREO Y MUESTRA Desde el punto de vista estadístico. población será el conjunto de valores posibles de la longitud de las piezas obtenidas en un determinado proceso de fabricación. el vector aleatorio (X1.1. el muestreo se denomina aleatorio. Si las n observaciones muestrales se han realizado en una misma población con función de distribución FX(x). y muestra el subconjunto formado por las longitudes (x1. y una muestra es un subconjunto de dichos valores tomados aleatoriamente.. Muestreo Población Muestra Figura VIII.. x2... Xn también será FX(x).. .. . .POBLACIÓN.. n representa el valor de la característica X en el i-ésimo elemento extraído.. una población es el conjunto de todos los valores posibles o espacio muestral de una variable aleatoria (generalmente medida en las unidades del colectivo estudiado). En general.. xn) de un número finito n. Xn) es una variable n-dimensional en el que cada componente i = 1.. y la muestra obtenida es una muestra aleatoria. Por ejemplo.. Si en cada extracción todos los elementos tienen la misma probabilidad de ser seleccionados para formar parte de la muestra. VIII. .Capítulo VIII: Distribuciones en el Muestreo • • ¿podemos admitir que el lote muestreado tiene una proporción de componentes defectuosos inferior a un cierto valor límite? Dado un conjunto de valores de dureza .

son independientes y por tanto. Tanto en el primer caso como en el segundo si el colectivo es infinito. x n ) VIII.3. la función de distribución conjunta será: r FX ( x1.. X2.. el muestreo se denomina muestreo aleatorio simple o con reemplazamiento.a.133 .. x 2 . el muestreo se denomina muestreo aleatorio sin reemplazamiento. Xn) de los valores muestrales se le denomina estadístico. que son aleatorios.ESTADÍSTICOS A toda función T = T(X1.x n ) = FX1 ( x1 ) ⋅ FX 2 ( x 2 ) ⋅ L ⋅ FXn ( xn ) Formalmente.. Si no se produce la reposición.) de tamaño n al vector aleatorio o variable n-dimensional: r X = ( X1. x 2 . K . en general.. ~ = X + ⎛ n + 1 − e ⎞ ⋅ (x − x ) x ⎜ ⎟ e +1 e e ⎝ 2 ⎠ con e = INT ⎛ ⎜ • • n + 1⎞ ⎟ ⎝ 2 ⎠ La moda muestral: es el valor que más veces se repite en la muestra. K . Cada valor concreto de la muestra será un conjunto de n datos y se representará por letras minúsculas: r x = ( x1.Capítulo VIII: Distribuciones en el Muestreo Si después de cada extracción y antes de la siguiente se repone el objeto extraído.. Xn ) formado por n variables unidimensionales que indican los valores de las n observaciones y que serán independientes si en muestro realizado es aleatorio simple. Los estadísticos más utilizados son: • La media muestral x= X1 + X2 + L + Xn n • La mediana muestral: es el valor de la variable que deja el mismo número de datos por abajo que por arriba y se calcula mediante. denominamos muestra aleatoria simple (m. Evidentemente todo estadístico será.s. una variable aleatoria dado que su valor depende de los valores de la muestra. La varianza muestral 2 sn = ∑ ( Xi − x )2 i =1 n n • La cuasivarianza VIII. las variables aleatorias. . X2 .

Ésta es siempre una distribución discreta unidimensional (si la variable X estudiada es unidimensional) y su espacio muestral está formado por n valores diferentes (o menos si han coincidido dos o más valores de la muestra).4. A las características de la distribución muestral (media muestral. Estas distribuciones dependerán de: • • • • la función T que define el estadístico la distribución FX(x) que tenga la variable X muestreada el tamaño de muestra el tipo de muestreo efectuado Antes de pasar al estudio de estas distribuciones vamos a recoger algunos conceptos que facilitarán su comprensión.134 .DISTRIBUCIONES EN EL MUESTREO Las distribuciones de probabilidad de los estadísticos se denominan distribuciones en el muestreo.Capítulo VIII: Distribuciones en el Muestreo 2 sn −1 = ∑ ( Xi − x )2 i =1 n n −1 • La desviación típica muestral y la cuasidesviación típica 2 sn = + sn 2 s n −1 = + s n −1 • El rango o recorrido: R=Xmáx-Xmin • La proporción muestral ˆ p= X n donde X es el número de unidades muestrales en las que se presenta el suceso considerado..) se les denomina características muestrales. etc. por oposición a las características poblacionales que son las de la distribución X de la población. Dada una muestra aleatoria simple de tamaño n. VIII. es posible hacerle corresponder una distribución de probabilidades de los valores obtenidos asignando a cada uno de ellos una probabilidad igual a 1/n: ∗ PX ( xi ) = 1 n La distribución así obtenida se denomina distribución muestral. varianza muestral. VIII.

X2... por lo tanto tendrán media y varianza. si no se conoce FX(x) no se conocerá por completo la distribución de cada una de las características muestrales.Distribución de la media muestral. dependen de la distribución FX(x) que tenga la variable X muestreada por lo que. En el apartado anterior poníamos de manifiesto que la distribución que tienen los estadísticos (y las características muestrales lo son). aunque FX(x) sea desconocido pueden conocerse determinados aspectos de la distribución de las características muestrales como son algunos parámetros de su distribución. y este es precisamente el objeto del presente capítulo. . VIII. Así. estadísticos (variables aleatorias con una determinada distribución de probabilidades según hemos visto en el punto anterior).4. necesitamos conocer cuál es la relación que existe entre una distribución y otra..2. Para realizar adecuadamente el paso de lo "particular" reflejado en la distribución de los valores observados a lo "general" o distribución teórica de la variable. VIII. tendrá a su vez media E( x ) y varianza D2 ( x ) . POBLACIÓN f X(x) (X1.. en general. No obstante. Xn) ∗ PX ( x ) MUESTRA 1/n X Características poblacionales (constantes) X Características muestrales (variables aleatorias) x (media muestral) 2 s n (varianza muestral) 2 s n −1 (cuasivarianza) μ (media) σ (varianza) 2 σ (desviación típica) sn (desv.Capítulo VIII: Distribuciones en el Muestreo Estas características muestrales son función de la muestra y. la media muestral que representamos por x .135 . típica muestral) sn-1 (cuasidesviación típica) ˆ p (proporción muestral) p (proporción) Figura VIII. las características muestrales son variables aleatorias y. por lo tanto.1.Características poblacionales y muestrales A continuación analizaremos primero la distribución de las principales características muestrales sin considerar la distribución FX(x) de la variable muestreada. y en el punto siguiente completaremos el análisis considerando que la variable muestreada sigue la distribución Normal.. En efecto.

2.Distribución de la varianza muestral.Capítulo VIII: Distribuciones en el Muestreo La media de la distribución muestral (media muestral) es: ∗ ∑ xi ⋅ PX ( xi ) = n ⋅ ∑ xi = i =1 i =1 n 1 n ∑ xi i =1 n n =x que coincide con la media aritmética de los n valores obtenidos. si tomamos muestras aleatorias simples de tamaño n de una población cuya media es μX y su varianza es σX2.136 . Su valor medio será: 1 ⎛ n x ⎞ 1 ⎛ n ⎞ 1 n E( x ) = E ⎜ ∑ i ⎟ = ⋅ E⎜ ∑ x i ⎟ = ⋅ ∑ E(x i ) = ⋅ n ⋅ μ X = μ X ⎜ n⎟ n ⎜ ⎟ n n i =1 ⎝ i =1 ⎠ ⎝ i =1 ⎠ Y su varianza: ⎛ n x ⎞ 1 ⎛ n ⎞ D2 ( x ) = D2 ⎜ ∑ i ⎟ = 2 ⋅ D2 ⎜ ∑ x i ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ i =1 n ⎠ n ⎝ i =1 ⎠ y por ser las xi independientes. x converge en distribución a la distribución normal de media μX y varianza σX2/n. se tiene como consecuencia del Teorema de Lindenberg-Levy que cuando n tiende a infinito. todas ellas con la misma distribución.4. pues la muestra es aleatoria simple: D2 ( x ) = 1 n 2 1 σ2 ⋅ ∑ D ( xi ) = 2 ⋅ n ⋅ σ2 = X X n n2 i =1 n Por lo tanto. independientemente de la distribución que tenga la variable X muestreada.. La varianza de la distribución muestral (varianza muestral) es: 2 sn = ∑ (x − x ) ⋅ P (x ) = 2 i ∗ X i i =1 n ∑ (x − x ) i i =1 n 2 n Su valor medio es VIII. En la práctica la aproximación es buena cuando n>30. entonces el estadístico media muestral será una variable aleatoria con valor medio y varianza: E( x ) = μ X D2 ( x ) = σ2 X n Como x=∑ i =1 n xi n es una suma de variables aleatorias independientes. VIII.

Capítulo VIII: Distribuciones en el Muestreo ⎡ n ( x − x )2 ⎤ 1 ⎡ n 2⎤ 2 E(sn ) = E ⎢∑ i ⎥ = ⋅ E ⎢∑ (( xi − μ X ) − ( x − μ X )) ⎥ n n ⎣ i =1 ⎦ ⎣ i =1 ⎦ donde se ha sumado y restado μX. la estimación de parámetros poblacionales. Desarrollando el cuadrado 2 E(sn ) = 1 ⎡n ⎤ ⋅ E ⎢∑ ( x1 − μ x )2 + ( x − μ X )2 − 2 ⋅ ( x i − μ X ) ⋅ ( x − μ X ) ⎥ n ⎣ i =1 ⎦ ( ) Aplicando el sumatorio 2 E(sn ) = 1 ⎡ ⋅E ⎢ n ⎢ ⎣ ∑ i =1 n ( x1 − μ x )2 + n ⋅ ( x − μ X )2 − 2 ⋅ ( x − μ X ) ⋅ ∑ (x − μ )⎥⎥⎦ i X i =1 n ⎤ Teniendo en cuenta que ∑ ( xi − μ X ) = ∑ xi − n ⋅ μ X = n ⋅ x − n ⋅ μ X = n ⋅ ( x − μ X ) i =1 i =1 n n sustituyendo y aplicando las propiedades del operador E 2 E(sn ) = 1 ⎡n ⎤ ⋅ ⎢∑ E ( xi − μ X )2 − n ⋅ E ( x − μ X )2 ⎥ n ⎣ i =1 ⎦ ( ) ( ) Finalmente.137 . puesto que si 2 sn −1 = n 2 ⋅ sn = n −1 ∑( xi − x )2 i =1 n n −1 entonces 2 E(sn −1 ) = n n n −1 2 2 ⋅ ⋅ σ X = σ2 ⋅ E(sn ) = X n −1 n −1 n VIII. como veremos en el capítulo siguiente. de ahí que se emplee frecuentemente la cuasivarianza o varianza muestral corregida en lugar de la varianza muestral. recordando que E ( x − μ X )2 = D2 ( x ) = σ2 / n X [ ] y que E ( x i − μ X )2 = σ2 X [ ] se obtiene que 2 E(sn ) = 1 ⎛ σ2 ⎞ n − 1 2 ⋅ ⎜ n ⋅ σ2 − n ⋅ X ⎟ = ⋅ σX X n ⎜ n ⎟ n ⎝ ⎠ Una de las aplicaciones más importantes del muestreo es. Allí se recomienda la utilización de estadísticos cuyo valor medio coincida con el correpondiente parámetro poblacional.

la media y la varianza de la variable proporción muestral es: ˆ E(p) = p ˆ D2 (p) = n ⋅ p ⋅ (1 − p) Como p= X = n ∑ yi i =1 n n = ∑ ⎜ ni ⎟ i =1 n ⎛y ⎞ ⎝ ⎠ (donde las yi son variables dicotómicas de parámetro p). obtendremos que: n⋅p ⎛ X⎞ 1 ˆ E(p) = E ⎜ ⎟ = ⋅ E( X) = =p n ⎝n⎠ n y n ⋅ p ⋅ (1 − p ) p ⋅ (1 − p ) ⎛ X⎞ 1 ˆ D2 (p) = D2 ⎜ ⎟ = 2 ⋅ D2 ( X) = = n⎠ n n n2 ⎝ Por lo tanto. Se define la proporción muestral como: ˆ p= X n donde X es el número de veces que se presenta el suceso A. Analizaremos en este apartado la distribución de las principales características muestrales en el caso de que la población muestreada tenga una distribución normal (X≡N(μX. si tomamos muestras aleatorias simples de tamaño n de una población en la que A tiene una probabilidad p de ocurrir.MUESTREO EN POBLACIONES NORMALES.5. VIII.Capítulo VIII: Distribuciones en el Muestreo En definitiva. en general. p converge en distribución a la distribución normal con media y varianza igual a las expresadas. En el apartado anterior vimos que. si tomamos muestras aleatorias simples de tamaño n de una población cuya varianza es σX2.. Esta propiedad será utilizada en el establecimiento de intervalos de confianza y test de hipótesis para la proporción poblacional p. es la suma de n variables independientes idénticamente distribuidas. en virtud del Teorema de Lindenberg-Levy. Como X es una variable B(n.3. de probabilidad p.σX)).p).. no se podía caracterizar la distribución de los estadísticos muestrales si no se conocía la distribución FX(x) de la población muestreada.4. VIII. en n repeticiones independientes de la experiencia aleatoria o en las n unidades muestrales.Distribución de la proporción muestral.138 . entonces la media de la varianza muestral y la media de la cuasivarianza son: 2 E(sn ) = n −1 2 ⋅ σX n 2 E(sn −1 ) = σ2 X VIII.

2. En el proceso de pintado de la carrocería de un automóvil.1.3. X ⎟ ⎜ ⎟ n⎠ ⎝ En la figura VIII. ⎟ ⎜ 4⎠ ⎝ La probabilidad de rechazar el proceso será: ⎛ 95 − 100 ⎞ p = P (x ≤ 95 ) = φ ⎜ ⎟ = φ (− 2 ) = 0.139 .5 ) x ≡ N ⎜100. su distribución será siempre normal con la media y varianza vistas en el apartado anterior: ⎛ σ ⎞ x ≡ N ⎜ μX.1.Distribución de la media muestral..3 se ha representado la distribución de la media muestral.Distribución de la variable X y de la media muestral x .Capítulo VIII: Distribuciones en el Muestreo VIII. el espesor de la capa de imprimación es una variable aleatoria con distribución normal de media 100 micras y desviación típica 5 micras. f X(x) f x (x) σX / n σX μX X μX x Figura VIII.0228 ⎝ 2. Sabemos que x=∑ i =1 n Xi n Puesto que x es una combinación lineal de variables normales independientes.5. Ejemplo VIII.. VIII. Si el control del espesor de la capa de imprimación se realiza calculando el promedio de las cuatro medidas obtenidas en cuatro carrocerías seleccionadas al azar de dicho proceso y aceptando que el proceso funciona correctamente si el promedio obtenido es mayor de 95 micras ¿Cuál es la probabilidad de rechazar que el proceso funciona correctamente? SOLUCIÓN: La media aritmética de las cuatro mediciones será una variable: ⎛ 5 ⎞ ⎟ ≡ N (100.5 ⎠ es decir. en el 2’28% de los casos rechazaremos que el proceso funciona correctamente.

Distribución de la varianza muestral.140 .Distribución conjunta de x y sn-1 Como x − μX σX / n ≡ N (0.1) recordando la definición de la variable: tn = N (0. VIII.1) 2 χn / n y teniendo en cuenta el Teorema de Fisher.Capítulo VIII: Distribuciones en el Muestreo VIII.. el Teorema de Fisher establecer que: n⋅ 2 sn s2− 2 = (n − 1) ⋅ n2 1 = χn −1 2 σX σX VIII.5.5. tendremos que: x − μX σX / n s (n − 1) ⋅ σ 2 n −1 2 X = (n − 1) x − μX sn −1 / n = t n −1 distribución que utilizaremos en la realización de inferencias sobre μX.2..3. Si la variable muestreada tiene una distribución normal.

141 . Inferencia VIII.Capítulo VIII: Distribuciones en el Muestreo Tema 9.

CAPÍTULO IX: Introducción a la Inferencia Estadística .

143 .VIII.

INTRODUCCIÓN Como se dijo en el capítulo anterior. Es evidente que no es posible establecer mediante un proceso deductivo. pueden no serlo a nivel general del fenómeno. tras ser validado.. Para ello se realizan experiencias bajo condiciones determinadas. El otro camino para llegar al conocimiento del fenómeno aleatorio en cuestión es mediante una inferencia o aproximación inductiva consistente en generalizar ciertas conclusiones parciales al universo del fenómeno. tratamos de conocer aspectos generales de la población. Si tras realizar el oportuno contraste es aceptada la propuesta. podemos utilizar la correspondiente distribución Normal para determinar. lo usual es tomar una muestra y a partir de la información que nos brinda. .1. podemos medir una determinada dimensión en una muestra de piezas. incluso las situaciones particulares del mismo. Supongamos que las unidades fabricadas por una cierta línea de fabricación pueden ser clasificadas como correctas o defectuosas. un modelo matemático que permita obtener la fracción de unidades defectuosas. A partir de esta información y mediante un proceso inductivo estadístico podemos: a) Inferir cual es la proporción de piezas defectuosas presentes en el colectivo. Es evidente. Por ejemplo. porque las proposiciones que son válidas a nivel de unas pocas experiencias realizadas bajo unas condiciones determinadas. Por ejemplo.IX. Supongamos también que tratamos de determinar la fracción de unidades defectuosas que se obtienen en dicha línea de fabricación. mediante un proceso inductivo. que las conclusiones obtenidas mediante una inferencia inductiva presentan un cierto riesgo de ser falsas. Para ello tomamos unas cuantas unidades fabricadas y observamos cuantas son correctas y cuantas defectuosas. en muchos casos. Sin embargo. podemos conocer de forma aproximada la proporción p de piezas defectuosas en el lote a través de la ˆ proporción p de piezas defectuosas en una muestra de tamaño n. Precisamente la Inferencia Estadística se ocupa del estudio de los métodos que permiten efectuar inferencias inductivas cuya incertidumbre es susceptible de ser medida en términos probabilísticos. A este conocimiento puede llegarse mediante una inferencia o aproximación inductiva. en el estudio de la calidad de un lote de piezas recibidas en un almacén. Por ejemplo. Un ejemplo aclarará estos conceptos. se utilizará para describir dicho fenómeno. A continuación podemos proponer que la distribución de dicha magnitud es Normal. por ejemplo. observando parte del fenómeno y planteando a partir de esta observación un modelo que. De dichas experiencias se obtiene una información de la que se extraen conclusiones que serán generalizadas al universo del fenómeno. es posible efectuar inferencias inductivas sujetas a cierto grado de incertidumbre susceptible de medición. la proporción de piezas cuya magnitud cumple unas especificaciones dimensionales establecidas. b) Decidir sobre la aceptación o rechazo de determinadas hipótesis establecidas sobre la proporción de piezas defectuosas del colectivo (por ejemplo que dicha proporción es menor o igual que un determinado valor considerado como adecuado). el objeto de cualquier estudio estadístico es el conocimiento de la población o universo del fenómeno estudiado. pero sí que es posible efectuar una inferencia inductiva.

145 . La Estimación es la parte de la Inferencia Estadística que tiene como finalidad conocer. A este conocimiento de llega a través del análisis de muestras extraídas de la población. IX. la incertidumbre de nuestra inferencia. Un estimador es. en términos de probabilidad..2. Los estimadores pueden ser: • • puntuales. La estimación es un valor concreto del estimador al aplicar la función que lo define sobre una muestra concreta. A partir de este modelo podemos deducir la proporción de piezas que no cumple con unas determinadas especificaciones dimensionales. por intervalos de confianza. una variable aleatoria ya que sus valores dependen de la muestra. los valores de los parámetros de la distribución de las variables aleatorias. podremos estimar μ y σ y contrastar la normalidad de X. Ejemplos de estimadores puntuales son: a) Estimadores de la media poblacional μ: IX. Ciertamente no tendremos la seguridad absoluta de que la inferencia sea correcta.. un estimador de la media poblacional μ. pero sí que será factible de ser medida. Estimar un parámetro es calcular un valor aproximado del mismo a partir de los valores de la muestra. es la media muestral x . de la forma más exacta y precisa posible. así como los parámetros de los modelos aleatorios que puedan plantearse. La Inferencia Estadística aborda dos tipos de problemas: a) La estimación de parámetros.2. por tanto.Capítulo IX: Introducción a la Inferencia Estadística c) Si en cada una de las piezas hemos medido una dimensión X. IX.ESTIMACIÓN DE PARÁMETROS.Estimación puntual Un estimador puntual es toda función de los valores muestrales utilizada para obtener valores aproximados (puntuales) de un parámetro. b) El contraste de hipótesis.1. El estimador es una función de los valores de la muestra que se utiliza para obtener valores aproximados de un parámetro poblacional. Por ejemplo. En este apartado nos ocuparemos de la estimación de los parámetros de las distribuciones aleatorias y de las propiedades de los estimadores.

x x La mediana muestral. 4}. ~ Ejemplo IX. Sin embargo. 5.1. 4.Propiedades de los estimadores puntuales. p IX. Vamos a describir algunas de ellas: • Estimadores centrados o insesgados Son aquéllos cuyo valor medio coincide con el parámetro que estima.2 Con la muestra del ejemplo anterior sería 2 sn = (3 − 4)2 + (5 − 4)2 + (4 − 4)2 + (4 − 4)2 = 0.. No todos los estimadores son buenos estimadores. sn2 no es centrado para σ2 pues E(sn2)=(n-1)·σ2/n ≠ σ2.1 Dada la muestra {3.1. el estimador puntual de la media poblacional será: x =∑ i =1 n xi n y la estimación obtenida con la muestra propuesta: 3 +5 +4 +4 ˆ μX = =4 4 b) Estimadores de la varianza poblacional σ2: • • 2 La varianza muestral. sn −1 Ejemplo IX. sn 2 La cuasivarianza.5 4 c) Estimadores de la proporción poblacional p de una distribución binomial • ˆ La proporción muestral. Por ejemplo.2. Hay determinadas propiedades que son deseables en un estimador puntual.146 . IX. x es centrado para μ pues E( x )=μ. Si θ es el parámetro ˆ estimado y θ el estimador: ˆ ˆ { θ es centrado o insesgado} ↔ {E( θ )=θ ∀ θ ∈ Ω} siendo Ω el espacio paramétrico o conjunto de los posibles valores de θ.Capítulo IX: Introducción a la Inferencia Estadística • • La media muestral.

95 quiere decir que el 95% de los intervalos que construyamos a partir de numerosas muestras. tales que existe una probabilidad muy elevada (1. dicho estimador podrá.2.M. Los intervalos de confianza para los parámetros de poblaciones con distribución Normal son los siguientes: r r r IX.99). será un estimador U. Cualquier estimador de θ cuya varianza sea igual a dicha cota. también denominada cota de Cramer-Rao establece cual es.α donde 1-α es nivel de confianza (usualmente 0.147 .Capítulo IX: Introducción a la Inferencia Estadística • Estimadores uniformemente de mínima varianza.. bajo determinadas condiciones. y solo si. Cθ : Conjunto de posibles estimadores de θ. L2 ( X ) son los limites de confianza. P(L1 ( X ) ≤ θ ≤ L2 ( X )) = 1.V. de que entre ambos cubran el verdadero valor del parámetro. o cuanto mayor sea el nivel de confianza 1-α para una amplitud dada.α).} ↔ { D(θ) = min(D(θ*)) ∀ θ* ∈ Cθ y ∀ θ ∈ Ω} ˆ siendo: Ω : espacio paramétrico. α es el nivel de significación y L1 r r ( X ). la estimación por intervalos de confianza consiste en r r obtener dos valores L1 ( X ) y L2 ( X ).M.V. medida en términos de probabilidad.) si.2.V.Estimación por intervalos de confianza. ˆ Diremos que el estimador θ es uniformemente de mínima varianza (U. tiene menor o igual varianza que la de cualquier otro estimador para todo θ perteneciente a Ω. contendrán al valor verdadero del parámetro. Si la varianza del estimador es mayor que la cota de Cramer-Rao. b) Los intervalos de confianza nos servirán como reglas de decisión para realizar los tests de hipótesis a estudiar en apartados posteriores. IX. ˆ La frontera de Frechet-Cramer-Rao. El intervalo será tanto más preciso cuanto menor sea su amplitud para un α dado. ser U. Nuestra incertidumbre al estimar el parámetro resulta pues. Si por X designamos a una muestra.V.95 ó 0. La justificación de la estimación por intervalos de confianza radica en: a) Con los estimadores puntuales no podemos tener una idea clara de la precisión con que efectuamos una estimación. el valor mínimo que puede tomar la varianza de cualquier estimador de un determinado parámetro θ. de θ. función de la muestra. Es decir: ˆ ˆ ˆ ˆ { θ es U. Si 1-α= 0.M.M. o no.

De la producción de un día. obteniéndose los siguientes valores. 49.563 micras y zα/2=z0. 50} En el supuesto de que el espesor del recubrimiento tenga una distribución N(μ. 2 2 ⎡ (n − 1) ⋅ sn −1 (n − 1) ⋅ sn −1 ⎤ . 48. se seleccionan al azar 16 perfiles y se determina el espesor del recubrimiento en cada uno de ellos.C.Capítulo IX: Introducción a la Inferencia Estadística a) Para la media poblacional μ. 52. 47.3 Un proceso industrial consiste en la aplicación de un recubrimiento protector a unos perfiles metálicos. 50. c) El Intervalo de Confianza para la varianza σ2 del espesor considerado. 55. el I. si la única información de la que disponemos es la que nos proporciona la muestra. 52.148 . será: IX.96 Por lo tanto.1). 48. 49. expresados en micras: {51. 51. 2 (1− α 2 ) ⎥ ⎢ 2 ( α 2) χn −1 ⎣ χn −1 ⎦ Ejemplo IX. para μ cuando σ es conocida es: x ± zα/2 ⋅ σ n Realizando cálculos y consultando las tablas de la N(0. determinar: a) El intervalo de confianza para la media μ del espesor del recubrimiento si sabemos que la dispersión de la variable es σ=2.025=1.C. 54. 51. 49.2 micras. SOLUCIÓN: a) El I. 53. • Cuando σ es conocida x ± zα 2 ⋅ σ n sn −1 n • Cuando σ es desconocida x ± t ( α 12 ) ⋅ n− b) Para la varianza poblacional σ2.σ) y fijando el nivel de confianza al 95%. b) El Intervalo de Confianza para la media μ del espesor. se obtiene: x =50.

262 Sustituyendo.025) t nα/2) = t15 = 2.C. SOLUCIÓN: IX. se han seleccionado y entrevistado a 90 alumnos.149 . 8 han viajado al extranjero y el resto no.563 micras y sn-1=2. obtenemos que el I.025) =27.4 Se desea conocer la proporción p de alumnos de la U. 12.641] micras b) El I.364. El resultado ha sido que. de estos 90 alumnos.C para σ2 es 2 2 ⎡ (n − 1) ⋅ sn −1 (n − 1) ⋅ sn −1 ⎤ .95.063 2 (α 2 χ n −1 /2) = χ15(0.C es [2.96 ⋅ 2. suponiendo una apropiada aproximación de la binomial a la normal: ˆ p ± zα / 2 ⋅ ˆ ˆ p ⋅ (1 − p) n Ejemplo IX.V. y siguiendo un procedimiento aleatorio.C resulta: [49. ⎢ ⎥ 2 (α 2 ) 2 χ n −(1−α 2) ⎦ 1 ⎣ χ n −1 Con los datos muestrales y la tabla de la χ2.762] micras c) El I. Para ello.485. 51. para μ cuando σ es desconocida es: ( x ± t nα12 ) ⋅ − sn −1 n Con los datos del problema calculamos x =50.128] micras2 c) Para la proporción poblacional p de una distribución binomial.25 micras Y según las tablas de la t de Student: ( (0.2 16 ⇒ [49.131 −1 Sustituyendo los valores en la expresión del I. que viajaron al extranjero durante el año 1999.488 2 (1 2 χ n −1 -α/2) = χ15(0. 51.563 ± 1.763. se obtiene: 2 sn −1 =5.975) =6.P.Capítulo IX: Introducción a la Inferencia Estadística 50. Obtener el Intervalo de Confianza para la proporción p si tomamos 1-α=0.

Supongamos.. Ello nos permite decidir si aceptamos la hipótesis nula H0 establecida. es decir ¿en qué medida la muestra observada es coherente con la hipótesis de que la media poblacional es de 1500?.088 90 y zα/2=z0. o la rechazamos y aceptamos una hipótesis H1 llamada hipótesis alternativa que es la que se verifica si y solo si no se verifica H0. puntual y por intervalos de confianza.030. suponiendo la aproximación de la binomial a la normal.TEST DE HIPÓTESIS En el punto IX.96 Luego el I. y los contrastes de hipótesis. establecida sobre una cierta población. ¿podemos aceptar la igualdad de vidas medias poblacionales de las bombillas en el proceso modificado y en el no modificado? La vida media muestral es una variable aleatoria de valor medio igual a la media poblacional y. ¿Hasta que punto es aceptable admitir que la disminución observada de 1500 a 1450 horas es debida al azar del muestreo y no a una disminución real de la vida media?. es coherente o no con la información que suministra una muestra aleatoria extraída de dicha población. llamada hipótesis nula H0. 0. mediante los tests de hipótesis. que la vida media de las bombillas obtenidas mediante cierto proceso de fabricación es de 1500 horas.C es [0. IX.150 .025=1. Con el fin de confirmar o rechazar la hipótesis de igualdad vidas medias en las dos variantes del proceso se extrae una muestra de bombillas del proceso modificado y se evalúa la vida de cada una de ellas.1) obtenemos ˆ p= ) 8 = 0. podemos estudiar si una cierta hipótesis. ¿hasta qué punto esta diferencia puede atribuirse al azar y a partir de que valores ya no debemos admitir esta posibilidad? Los tests de hipótesis verifican la compatibilidad de los resultados muestrales con las hipótesis establecidas sobre la población y nos permiten decidir sobre la aceptación o rechazo de las mismas. Se considera que una cierta modificación del proceso que disminuye el coste de fabricación no modifica la vida media.C para p. por ejemplo. Supongamos que la vida media muestral resulta ser de 1450 horas.Capítulo IX: Introducción a la Inferencia Estadística El I. por lo tanto.2 se ha expuesto que la Inferencia Estadística aborda dos tipos de problemas: la estimación de parámetros. A grandes rasgos. Y en consecuencia. es ˆ p ± zα/2 ⋅ ˆ ˆ p ⋅ (1 − p) n Haciendo cálculos y buscando en la tabla de la N(0.148] IX.3. puede tomar valores menores que ella pero.

En los tests de hipótesis no paramétricos las hipótesis no se establecen sobre los parámetros anteriormente referidos sino que se establecen sobre la propia distribución aleatoria (la variable estudiada sigue una determinada distribución de probabilidades) o bien sobre determinados aspectos del fenómeno estudiado (independencia de dos o más factores en la ocurrencia de una determinada situación o un determinado hecho).Capítulo IX: Introducción a la Inferencia Estadística IX. también denominada “región crítica”.3. No obstante. A la probabilidad de cometer este tipo de error se le denomina α.3. respectivamente...Errores de 1ª y 2ª especie. modelos estocásticos. varianza poblacional. de probabilidades 1-α y α. Para contrastar la hipótesis nula establecida se utiliza un estadístico: G=g(x1.Tests de hipótesis paramétricos IX.3. b) Aceptar la hipótesis nula cuando es falsa.3.. Según a qué región pertenezca el valor de G calculado con la muestra. etc. de análisis de la varianza. En este caso diremos que se ha cometido un error de segunda especie.. Operando con un nivel de significación α del 5%.1.) o bien sobre los parámetros de determinados modelos aleatorios (modelos de regresión.xn) cuya distribución es conocida en el caso de que la hipótesis nula sea cierta..). esta forma de operar equivale a rechazar la hipótesis cuando un resultado como el observado solo se habría obtenido en un 5% de los casos si la hipótesis nula es cierta. diferencia de medias poblacionales. IX. llamada nivel de significación. lo cual no quiere decir que lleguemos a conocer con absoluta certeza si es verdadera o falsa.Curva de Potencia y Curva Característica de un test IX.. proporción poblacional. en cuyo caso diremos que se ha cometido un error de primera especie.x2..2.151 .3. A la probabilidad de cometer este tipo de error se le denomina β. Se elige una probabilidad α. En consecuencia pueden cometerse dos tipos de errores: a) Rechazar la hipótesis nula cuando es cierta. etc. y se divide el campo de variabilidad de G en dos regiones: una región de aceptación de la hipótesis nula y una de rechazo.1. IX.. se decide si se rechaza o se acepta la hipótesis H0.3. mediante un contraste de hipótesis decidimos si aceptamos o rechazamos la hipótesis nula. etc.Test de hipótesis paramétricos y no paramétricos Los tests de hipótesis paramétricos son aquéllos en los que las hipótesis se establecen sobre algún parámetro o vector de parámetros de alguna distribución aleatoria (media poblacional.

se le denomina Curva de Potencia de dicho test. podemos establecer las hipótesis H0(μ≤μ0) vs H1(μ>μ0). un test que permita contrastar las hipótesis anteriormente formuladas.Capítulo IX: Introducción a la Inferencia Estadística En los test de hipótesis paramétricos. PotS(θ) 1 α 0 ω0 θ0 ω1 θ (Ω) IX. el espacio paramétrico Ω (conjunto de posibles valores del parámetro θ sobre el que se establecen hipótesis). sobre la media μ de una distribución Normal con σ conocida (por ejemplo. Por ejemplo.1.152 . y como veremos en el apartado siguiente. intensidad de fuga de un diferencial eléctrico). Una posible regla de decisión será evaluar la intensidad de fuga en una muestra de n diferenciales tomados al azar y aceptar H0 (tomar la decisión d0) si x ≤ μ0 + zα ⋅ σ n y ω0 ∩ ω1 =∅ o tomar la decisión d1 en caso contrario. A la función que proporciona la probabilidad de rechazar H0 con un test de hipótesis S. se particiona en dos conjuntos ω0 y ω1 tales que: ω0 ∪ ω1 = Ω y de modo que las hipótesis a contrastar son: H0(θ ∈ ω0) vs H1(θ ∈ ω1) En general. no es más r que una regla de decisión S que a cada muestra X del espacio muestral (conjunto de posibles muestras) le hace corresponder la decisión d0 (aceptar H0) o la decisión d1 (aceptar H1). Esta curva es propia de cada test S y sus valores dependen del valor que tome el parámetro θ en cada caso. es decir PotS(θ) = P(d1(S) / θ) Al valor máximo de dicha potencia para θ ∈ ω0 se le denomina extensión del test y se representa por α. Si contrastamos las hipótesis H0(θ≤θ0) vs H1(θ>θ0) la Curva de Potencia tendrá la forma de la figura IX.

se utiliza más la denominada Curva Característica que definiremos seguidamente. la Curva Característica tendría como ecuación: ⎛ ⎞ σ μ⎟ PaS (μ ) = P ⎜ x ≤ μ 0 + zα ⋅ ⎜ ⎟ n ⎝ ⎠ Como para cada posible valor de μ la media muestral x es N ⎜ μ.). La Curva Característica de un test (o plan de control) es una función que proporciona la probabilidad de aceptar la hipótesis nula H0 con dicho test. en función de los valores que toma el parámetro θ. Nótese que para cada valor de θ ∈ Ω se cumple que PotS(θ)=1-PaS(θ) y que para cada valor de θ ∈ ω1 PaS(θ)=β(θ) (la probabilidad de error de segunda especie β depende del valor que tome θ y es diferente para cada θ). PaS(θ) 1 1-α β(θ1) θ0 β(θ2) θ1 θ2 ω1 ω0 θ (Ω) Figura IX.Curva de potencia de un test En las aplicaciones de los test de hipótesis al control de la calidad en los procesos industriales. ⎟ será: ⎜ ⎟ n⎠ ⎝ ⎛ σ ⎞ IX. varianza σ2.2. media μ.2. conceptualmente..153 . Si contrastamos las hipótesis H0(θ≤θ0) vs H1(θ>θ0) la Curva Característica tendrá la forma de la figura IX. etc. un test que se aplica sistemáticamente para contrastar hipótesis sobre parámetros de distribuciones aleatorias.1. Un plan de control de calidad es. los cuales representan la calidad de productos y/o procesos (proporción de piezas defectuosas.Capítulo IX: Introducción a la Inferencia Estadística Figura IX..Curva Característica de un test En el test sobre la media μ de la intensidad de fuga de los diferenciales expuesto en este punto.

Su representación gráfica tiene forma similar a la curva de la figura IX.2. Buscando una reducción de costes de fabricación.154 . Para comprobar el efecto de esta modificación. han sido: IX.2.2) mm..Algunos test paramétricos clásicos En este apartado se presentan algunos de los test de hipótesis paramétricos clásicos más importantes por sus aplicaciones prácticas a la industria y a otros campos. lógicamente. para μ=μ0 vale 1-α.3. Test de hipótesis sobre la media poblacional μ. Algunos ejemplos de tests de hipótesis sobre parámetros de variables normales son: 1. el ingeniero de procesos decide aumentar la proporción de material reciclado que se utiliza como materia prima manteniendo constantes el resto de parámetros del proceso. a) H0(μ=μ0) vs H1(μ≠μ0) • Si σ es conocida: Aceptamos H0 si x ∈ ⎢μ0 ± zα 2 ⋅ ⎣ ⎡ σ ⎤ ⎥ n⎦ σ ⎤ ⎥ n⎦ Rechazamos H0 si x ∉ ⎢μ0 ± zα 2 ⋅ ⎣ ⎡ • Si σ es desconocida: Aceptamos H0 si x ∈ ⎢μ0 ± t(nα 12) ⋅ − ⎣ α Rechazamos H0 si x ∉ ⎢μ 0 ± tn −2 ⋅ 1 ⎡ sn −1 ⎤ ⎥ n⎦ sn −1 ⎤ ⎥ n⎦ ⎡ ⎣ Ejemplo IX. Debido al carácter introductorio del capítulo. sustituyendo en parámetro genérico θ por μ.5 En el proceso de moldeado de unos recipientes de plástico.Capítulo IX: Introducción a la Inferencia Estadística ⎞ ⎛⎛ ⎞ ⎜ ⎜ μ0 + zα ⋅ σ ⎟ − μ ⎟ ⎜ ⎟ ⎟ ⎜ μ − μ0 ⎛ ⎞ n⎠ ⋅ n⎟ PaS (μ ) = φ ⎜ ⎝ ⎟ = φ ⎜ zα − σ σ ⎝ ⎠ ⎟ ⎜ ⎟ ⎜ n ⎠ ⎝ Expresión que. no se enuncian ni se demuestran los teoremas que permiten su obtención o la evaluación de sus propiedades. se seleccionan al azar 9 recipientes de plástico obtenidos con la nueva formulación de la materia prima y se determina el espesor del fondo de cada uno de ellos. Los resultados obtenidos.3. 0. En cambio. expresados en mm. podemos admitir que el espesor del fondo es una variable aleatoria con distribución N(4. sí que se proponen ejemplos que facilitarán su aplicación a las situaciones reales. IX.

SOLUCIÓN: En ambos apartados debemos contrastar la hipótesis nula de que el cambio efectuado en el proceso no afecta al espesor medio del fondo de los recipientes.96 Por lo tanto. 4.224] mm Puesto que la media muestral es x =4.5. 3.306 −1 b) H0(μ≤μ0) vs H1(μ>μ0) IX.025=1. 4. H0(μ=4) vs H1(μ≠4) a) En el caso de que conozcamos σ (σ=0. la decisión es que no podemos aceptar la hipótesis nula.2 mm).2.155 .7} a) Suponiendo que no ha habido ningún cambio en la dispersión y considerando un nivel de significación de 5%.156 mm y zα/2=z0. 4. y ( (0.2.025) t nα/2) = t8 = 2. la regla de decisión es Aceptamos H0 si x ∈ ⎢μ 0 ± zα 2 ⋅ ⎣ ⎡ σ ⎤ ⎥ n⎦ Con los datos del enunciado calculamos: x =4. 4. la zona de aceptación es [3. 3. 4. la regla de decisión es ( Aceptamos H0 si x ∈ ⎢μ 0 ± t nα12) ⋅ − ⎡ ⎣ sn −1 ⎤ ⎥ n⎦ Según los datos del enunciado: sn-1=0. 4.869.9.2. 3. es decir. aceptamos la hipótesis nula.156 y pertenece al intervalo. ¿podemos admitir que la nueva formulación de la materia prima no afecta al espesor medio del fondo de los recipientes fabricados? b) ¿Cuál sería la respuesta a la pregunta anterior si desconocemos el valor real de la desviación típica σ?. la zona de aceptación es [3. b) En este caso.9.9. 4.776.9.292 Por lo tanto.131] mm Como la media muestral no pertenece al intervalo anterior.Capítulo IX: Introducción a la Inferencia Estadística {3.

12 y zα=z0. Para comprobar que la producción cumple con los requisitos especificados.5 Ω? b) Contestar a la pregunta anterior en el supuesto de que no se conozca el valor de la desviación típica σ. 9.156 . mediante la tabla de la normal. frente a que la producción es incorrecta. expresados en ohmios: {9. obtenemos que la zona de aceptación de H0 es x ≤10.5.1.8.7.2.Capítulo IX: Introducción a la Inferencia Estadística • Si σ es conocida: Aceptamos H0 si x ≤ μ0 + zα ⋅ Rechazamos H0 si x > μ0 + zα ⋅ σ n σ n • Si σ es desconocida: Aceptamos H0 si x ≤ μ0 + t(nα )1 ⋅ − sn −1 n sn −1 n Rechazamos H0 si x > μ0 + t(nα )1 ⋅ − Ejemplo IX.6 Por razones técnicas de funcionamiento. 10.9. SOLUCIÓN: Debemos contrastar la hipótesis nula de que la producción es correcta por ser la media de las resistencia menor o igual a 10 Ω. se toman al azar 10 componentes y se miden sus resistencias obteniéndose los siguientes resultados. 11. 10.645 Sustituyendo.2} Suponiendo que la resistencia de los componentes estudiados sigue una distribución normal y considerando un nivel de significación del 5%. 9. 10. el valor de zα: x =10. se ha fijado en 10Ω el valor máximo de la resistencia media de unos componentes eléctricos fabricados en un determinado proceso. 9.8. 10. la zona de aceptación es x ≤ μ 0 + zα ⋅ σ n Calculamos el valor de la media muestral y determinamos.26 IX.05=1. 10. es decir: H0(μ≤10) vs H1(μ>10) a) En el caso de σ conocida. responder a las siguientes preguntas a) ¿Podemos considerar correcta la producción si sabemos que la desviación típica es 0.

1. obtenemos que la zona de aceptación de la hipótesis nula es x ≤10. Para ello se toman al azar 10 botellas fabricadas con el primer equipo y se obtienen los siguientes resultados: {750. obtenemos: sn-1=0.750. 749.2.3. 752.6} IX.749.751.748.05) t nα1 = t9 = 1.748.833 − Sustituyendo.5. 749.2.749.749. la zona de aceptación es ( ) x ≤ μ 0 + t nα1 ⋅ − sn −1 n Utilizando los datos de la muestra y la tabla de la t. 751. Ejemplo IX.8.1. 750. Se pretende comprobar si ambos equipos fabrican las botellas con la misma capacidad media.1. aceptamos la hipótesis nula de que la producción cumple con los requisitos. c) H0(μ1=μ2) vs H1(μ1≠μ2) con σ1=σ2=σ • Si σ es conocida: Aceptamos H0 si x1 − x 2 ≤ zα / 2 ⋅ σ ⋅ Rechazamos H0 si x1 − x 2 > z α / 2 ⋅ σ ⋅ • Si σ es desconocida: 2 Aceptamos H0 si x1 − x 2 ≤ t(nα +/ n 2) − 2 ⋅ s * ⋅ 1 1 1 + n1 n2 1 1 + n1 n2 1 1 + n1 n2 1 1 + n1 n2 2 Rechazamos H0 si x1 − x 2 > t (nα +/ n 2) − 2 ⋅ s * ⋅ 1 con s* = 2 (n1 − 1) ⋅ s'1 +(n2 − 1) ⋅ s'2 2 n1 + n2 − 2 donde s’=sn-1.227 por lo que aceptamos la hipótesis nula de que la producción es correcta. b) En el caso de σ desconocida.7 Se dispone de dos equipos de soplado de envases de vidrio y con ellos se fabrican botellas de 750 cc de capacidad nominal. 751.2.157 . 751.3. 750.749.Capítulo IX: Introducción a la Inferencia Estadística por lo que.748.5.1. al pertenecer la media muestral a la región de aceptación.0.9} Del segundo equipo se toman al azar 12 botellas cuyas capacidades resultan ser: {750.5.2.391 y ( ) (0.1.2.3.749.751.0. 750.1.

σ) las hipótesis a contrastar serán H0(μ1=μ2) vs H1(μ1≠μ2). y admitimos que X1≡N(μ1.98.58 x2 =749. a) H0(σ2=σ02) vs H1(σ2≠σ02) 2 Aceptamos H0 si sn-1 ∈ ⎢ 2 2 ⎡ σ0 ⋅ χn (−11− α 2 ) Rechazamos H0 si ⎣ (n − 1) ⎡ σ2 ⋅ χ2(1− α 2 ) 2 sn -1 ∉ ⎢ 0 n −1 ⎣ (n − 1) . han sido: {5. 4.05.846 Puesto que x1 − x2 = 1.77 ′ s22 =1.00 s*=0. Test de hipótesis sobre la varianza poblacional σ2.04 no podemos aceptar la igualdad de medias.05. 5.8 En un laboratorio de ensayos se evalúa repetidamente y con el mismo equipo de medida el diámetro de un cilindro patrón. 5. Tomar α=0. 5. 0 n −1 ⎥ (n − 1) ⎦ Ejemplo IX. que para el caso de σ desconocida.99} Suponiendo que los resultados de las mediciones son normales y que solamente es el equipo de medida el que produce variabilidad en los resultados.086 n Por lo que la zona de aceptación es x1 − x2 ≤ 0.158 .02. la zona de aceptación de H0 es: (α x1 − x2 ≤ t n1 /2) 2 − 2 ⋅ s * ⋅ +n 1 1 + n1 n2 con s* = 2 (n1 − 1) ⋅ s'12 +(n2 − 1) ⋅ s' 2 n1 + n2 − 2 Con los datos del enunciado obtenemos que x1 =750.025) t n1 +2)2 −1 = t 20 = 2.Capítulo IX: Introducción a la Inferencia Estadística Asumiendo que la capacidad de las botellas fabricados con cada uno de los equipos tiene una distribución normal y que en ambos casos la varianza es la misma. IX.97.01.99. 4. 2. 2 2 σ0 ⋅ χn (−α 2 ) ⎤ 1 ⎥ (n − 1) ⎦ σ 2 ⋅ χ 2( α 2 ) ⎤ . ¿podemos admitir que dicha variabilidad. después de realizar 9 mediciones del mismo.54 ′ s12 =0. 4.01.03.9468 ( α/ (0. ¿puede admitirse la igualdad de medias de las capacidades de las botellas fabricadas con los dos equipos de soplado? SOLUCIÓN: Si llamamos X1 y X2 a las capacidades de las botellas fabricadas con el equipo 1 y con el equipo 2. Los resultados obtenidos. respectivamente. representada por σ. expresados en cm.02?. es igual a 0.σ) y X2≡N(μ2. 5. 4.

0004) vs H1(σ2≠0. 4. 4.5. 3. Ejemplo IX.9.6. La zona de aceptación de la hipótesis nula es 2 2( ⎡σ 2 ⋅ χ 2 (1−α 2 ) σ0 ⋅ χ n −α 2 ) ⎤ 2 1 sn -1 ∈ ⎢ 0 n −1 .00065 aceptamos la H0.6.975 ) = 2.1. e identificando la precisión de cada método con la desviación típica σ que presentan sus resultados: IX.535 2 1 2 χ n −(1 −α / 2 ) = χ 8 ( 0.00087] 2 Puesto que sn −1 =0. 4. ⎥ (n − 1) ⎦ ⎣ (n − 1) A partir de los datos del enunciado obtenemos que 2 sn −1 =0. 4. Para ello se evalúa reiteradamente la concentración de dicho complejo proteico en una muestra de mortadela preparada al efecto.025 ) = 17.(n 2 −1) 2 donde n1 es tamaño de muestra utilizado para calcular la ( sn1 −1 )mayor y n2 es el tamaño 2 de muestra utilizado para calcular la ( sn 2 −1 )menor.0.Capítulo IX: Introducción a la Inferencia Estadística SOLUCIÓN: Debemos contrastar las hipótesis H0(σ2=0.0004). 0.7} Asumiendo la normalidad de las concentraciones. 4. son los siguientes: Método de referencia: {4.1.(n 2 −1) > F((nα1)−1).3.9 Se pretende comparar la precisión de dos métodos analíticos disponibles para la determinación de la concentración de un complejo proteico en un producto cárnico. expresados en gramos por cada 100 gramos de producto.3.7. 4.00065 2 (α 2 χ n −1 / 2 ) = χ 8 ( 0. 4.18 Por lo tanto. 4. 4. 4. b) H0(σ2≤σ02) vs H1(σ2>σ02) 2 Aceptamos H0 si sn-1 ≤ 2 2 σ0 ⋅ χn (−α ) 1 (n − 1) 2 2 σ0 ⋅ χn (−α ) 1 (n − 1) 2 Rechazamos H0 si sn -1 > c) H0(σ12=σ22) vs H1(σ12≠σ22) Aceptamos H0 si Rechazamos H0 si 2 (sn1 −1 )mayor 2 (sn 2 −1 )menor 2 (sn1 −1 )mayor 2 (sn 2 −1 )menor ≤ F((nα1)−1).1. Los valores obtenidos. 4.159 .000109.3} Método espectrofotométrico: {4.3.8. 4. la zona de aceptación de H0 será: [0.

Suponiendo que se dan las condiciones para que sea aceptable la aproximación de la distribución binomial a la normal.Capítulo IX: Introducción a la Inferencia Estadística a) Con un nivel de significación del 5% ¿podemos admitir la igualdad de varianzas de ambos métodos? b) ¿Podemos admitir que la varianza de método espectrofotométrico es menor o igual que 0.137 = 5. Test de hipótesis sobre la proporción poblacional p de una distribución binomial.1 ⋅14.21 Por lo tanto. 3.137 Entonces: 0.269 0.026 2 Método espectrofotométrico: sn −1 =0.6. los test de hipótesis más utilizados para p son: IX. obtenemos que (0 F7.2 7 En consecuencia.137 ≤ 0.160 . b) Ahora debemos contrastar H0(σ2≤σ02) vs H1(σ2>σ02) y aceptar H0 si 2 sn -1 ≤ 2 2( σ0 ⋅ χ n −α ) 1 (n − 1) Buscando en la tabla de la Chi-cuadrado y realizando cálculos: 0. tendremos que: a) Las hipótesis a contrastar en este apartado son H0(σ12=σ22) vs H1(σ12≠σ22) y aceptamos H0 si se cumple que 2 (sn1 −1 )mayor 2 (sn2 −1 )menor ( ) ≤ F(nα −1).(n2 −1) 1 Realizando los cálculos necesarios: 2 Método de referencia: sn −1 =0. Si llamamos σ12 a la varianza de los resultados que se obtienen con el método de referencia y σ22 a la varianza del método espectrofotométrico.1 (gr/100gr)2 con un nivel de significación del 5%? SOLUCIÓN. debemos rechazar la hipótesis de igualdad de varianzas. podemos aceptar la hipótesis nula establecida.026 Si buscamos en la tabla de la F.05) =4.067 = 0.

resultando 4 defectuosas. y 60 unidades de un lote del proveedor 2.07 z0.96 IX. las hipótesis a contrastar son: H0(p1=p2) vs H1(p1≠p2) cuya zona de aceptación de H0 es: ⎛1 1 ˆ ˆ p1 − p2 ≤ zα 2 ⋅ p * ⋅q * ⋅⎜ + ⎜n n ⎝ 1 2 ⎞ ⎟ ⎟ ⎠ con p* = ˆ ˆ n1 ⋅ p1 + n2 ⋅ p2 n1 + n2 A partir de los datos del ejercicio. 06 60 p* = 0. Para un nivel de significación del 5% ¿podemos admitir que la calidad de los envíos de ambos proveedores. es la misma?. dada por la proporción de unidades defectuosas. resultando 3 defectuosas.075 40 ˆ p2 = ) 4 = 0 . SOLUCIÓN: Si llamamos p1 a la proporción de unidades defectuosas de proveedor 1 y p2 a la proporción de unidades defectuosas del proveedor 2. Para ello se seleccionan al azar 40 unidades de un lote del proveedor 1.Capítulo IX: Introducción a la Inferencia Estadística a) H0(p=p0) vs H1(p≠p0) ˆ Aceptamos H0 si p ∈ ⎢p0 ± zα / 2 ⋅ ⎡ ⎢ ⎣ ⎡ p ⋅ (1 − p0 ) ⎤ ˆ p ∉ ⎢p0 ± z α / 2 ⋅ 0 ⎥ n ⎢ ⎥ ⎣ ⎦ p0 ⋅ (1 − p0 ) ⎤ ⎥ n ⎥ ⎦ Rechazamos H0 si b) H0(p≤p0) vs H1(p>p0) ˆ Aceptamos H0 si p ≤ p0 + zα ⋅ ˆ Rechazamos H0 si p > p0 + zα ⋅ p0 ⋅ (1 − p0 ) n p0 ⋅ (1 − p0 ) n c) H0(p1=p2) vs H1(p1≠p2) ˆ ˆ Aceptamos H0 si p1 − p2 ≤ zα 2 ⋅ p * ⋅q * ⋅⎜ + ⎜ ⎛1 1⎞ ⎟ ⎟ ⎝ n1 n2 ⎠ ⎛1 1⎞ ⎟ ⎟ ⎝ n1 n2 ⎠ ˆ ˆ Rechazamos H0 si p1 − p2 > zα 2 ⋅ p * ⋅q * ⋅⎜ + ⎜ con p* = ˆ ˆ n1 ⋅ p1 + n2 ⋅ p2 n1 + n2 y q*=1-p* Ejemplo IX. obtenemos que ˆ p1 = 3 = 0.161 .025=1.10 Se pretende comparar la calidad de los envíos de dos proveedores de un mismo tipo de repuesto para automóviles.

es decir: H0(F=F0) vs H1(F≠F0) Una de las formas de realizar el contraste es mediante el test χ2 de Pearson: se parte de una muestra formada por n observaciones (x1. Test χ2 de Pearson El objetivo de los tests de bondad de ajuste es verificar si una muestra observada puede proceder de una población que tiene una determinada distribución de probabilidad. En este caso se especifica la distribución supuesta y sus parámetros característicos.008 . Corresponde al caso en que solamente se especifica la distribución de probabilidad supuesta pero no sus parámetros característicos.1. la zona de aceptación de H0 es ˆ ˆ p1 − p2 ≤ 0. Es equivalente plantear la hipótesis nula de que la distribución de la variable muestreada es F0.Capítulo IX: Introducción a la Inferencia Estadística Por lo tanto. …. IX. Por ejemplo. se formula la hipótesis nula de que procede de una población cuya distribución es Fo (distribución supuesta que puede ser. aceptamos la hipótesis de igualdad de calidades. dada una muestra podemos contrastar simplemente si procede de una población con distribución normal. una vez obtenida una muestra X de tamaño n. x2.Tests de hipótesis no paramétricos Estudiaremos en este apartado dos de los casos más representativos que son: • • los test de bondad de ajuste y las tablas de contingencia IX. Por ejemplo.Tests de bondad de ajuste.1021 ˆ ˆ Puesto que p1 − p2 = 0. las clases corresponderán a k intervalos disjuntos y si F es la distribución de una variable discreta. En el caso de que F sea continua. En ambos casos. xn) independientes de una determinada característica. Dichas observaciones se clasifican en k clases o categorías mutuamente excluyentes. totalmente especificada). o no.162 .3.4.3. ante una muestra dada podemos contrastar la hipótesis de que procede de una distribución normal de media μ y desviación típica σ. Esta distribución de probabilidad supuesta puede ser: a) Totalmente especificada.. b) Parcialmente especificada..4. las clases suelen corresponderse con los valores posibles de dicha variable o con conjuntos de dichos valores. r IX.

Si la distribución teórica no está totalmente especificada. dentro de cada clase o intervalo la frecuencia observada Oi y la frecuencia teórica ti serán muy diferentes. IX. Si la hipótesis establecida H0 no es cierta.163 . puede demostrarse que si H0 es cierta: z= (O i − t i ) 2 2 = χ k − s −1 ∑ t i =1 i k En la expresión anterior. por tanto. la media poblacional μ la estimaremos mediante x y la desviación típica poblacional σ la estimaremos mediante sn-1. será necesario estimar sus parámetros a partir de los valores de la muestra obtenida. Si la distribución de la variable muestreada fuera Fo. Distribución del estadístico z cuando H0 es cierta. Bajo determinadas condiciones. se determina el valor de una χk − s −1 que 2( ) solo tiene una probabilidad α de ser superado (a este valor lo denotaremos por χk −α−1 ) y se s procede del siguiente modo: 2( ) Aceptamos H0 si z ≤ χk −α−1 s 2 (α) Rechazamos H0 si z > χk − s −1 Fz(z) Se acepta H0 Se rechaza H0 α 2( ) χ k −α −1 s z/H0 cierta Figura IX. de modo que se cumplirá: ∑ Oi = n i =1 k A las frecuencias Oi se les denomina frecuencias observadas. 2 En consecuencia. El estadístico z presentará valores mayores que si fuera cierta la distribución supuesta y. s es el número de parámetros que es necesario estimar a partir de la muestra. fijado un nivel de significación α.Contraste de hipótesis H0(F=F0) vs H1(F≠F0).Capítulo IX: Introducción a la Inferencia Estadística Las n observaciones se distribuirán entre las k clases presentando una frecuencia absoluta Oi de valores en cada una de las clases Ci establecidas. las frecuencias teóricas o esperadas ti de los n valores muestrales en cada una de las clases Ci serían: ti=n·pi donde pi es la probabilidad teórica de las clase Ci que puede calcularse a partir de F0. Por ejemplo. sus valores serán mayores que los de la χ2 correspondiente..3.

La prueba puede aplicarse a cualquier distribución. es conveniente tomar las siguientes precauciones para que sean aceptables los resultados obtenidos: • Las clases o intervalos deben establecerse de modo que las frecuencias absolutas con que se dan dichas clases sean todas ellas iguales o superiores a 5.755.5 - 6.0] ]745.752.05.Capítulo IX: Introducción a la Inferencia Estadística Teniendo en cuenta las aproximaciones que es necesario realizar en el test propuesto.5 745.747.1498 ti=n·p i ( Oi − t i )2 ti ≤ 742.0695 0.5 10 ]742.11 Se ha medido la capacidad de 100 envases de vidrio de un determinado formato.5 . • • Ejemplo IX.5 .1498 0.98 0.15 14.745. sea continua o discreta.1915 0.0000 IX. Es conveniente que las clases se definan de manera que las probabilidades teóricas pi de las diferentes clases Ci no sean demasiado diferentes.1755 0. utilizados para el envasado de un producto farmacéutico.0919 0.0 .0 747.5) c.4225 0. con un nivel de significación α=0.0] 16 ]745.0 .5] ]747.0370 0.19 14.757.15 19.5 ¿Puede aceptarse.5 .68 9.0 .164 . Los resultados obtenidos se encuentran agrupados en la tabla siguiente: Capacidad No de envases (c.5 ]742.0] 7 ]755.) 5 ≤ 742.? SOLUCIÓN: Construyamos la siguiente tabla: Ci Oi 5 10 16 20 21 15 pi 0. que la capacidad de dichos envases sigue una distribución N(750.0] 21 ]750.98 19.750.5] 6 > 757.1915 0.0714 0.668 0.c.5] 15 ]752.5] 20 ]747.c.

cada pi se calcula: ⎛ a − 750 ⎞ ⎛ a − 750 ⎞ pi = φ ⎜ i +1 ⎟ −φ ⎜ i ⎟ 5 5 ⎝ ⎠ ⎝ ⎠ A partir de la tabla determinamos el valor de z como z=∑ i =1 8 (Oi − ti )2 ti = 1.68 0.165 .19 6. ai+1] los límites del intervalo Ci.Tablas de contigencia. La hipótesis nula que hay que contrastar es que los dos factores A y B son independientes.0] ]755.2.5 755. si consideramos ]ai. una prueba de independencia no paramétrica.0919 0.0 757.3670 Además : 2 ( 05 χ 8 −0.0692 donde.1.5] > 757. Estudiaremos el caso de dos variables o factores de clasificación.5] ]752. la conclusión es que no podemos rechazar H0 y debemos aceptar que la capacidad de los envases sigue la distribución propuesta.1 0 Como z<14..−1 ) = 14.0] ]750.5 7 6 0. Test χ2 Las tablas de contingencia permiten verificar si dos o más variables o factores de clasificación son independientes entre sí. Constituyen.5219 0.4. por lo tanto. IX. H0(A y B independientes) vs H1(A y B dependientes) La tabla que debe construirse es la siguiente: NIVELES DEL FACTOR B B1 A1 NIVELE S A2 … B2 … Bj … Bm Frecuencias Marginales … O1j … O1m O1• … t1j … t1m … O2j … O2m O2• … t2j … t2m … … … … … O11 t11 O21 t21 … O12 t12 O22 t22 … IX.668 9.Capítulo IX: Introducción a la Inferencia Estadística 750.3.0 752.

que si la hipótesis nula es cierta: z= ∑∑ i =1 j =1 r m (O ij − t ij t ij ) 2 ≡ χ(2r −1)(m −1) Nota: IX.166 . tij es la frecuencia teórica (si los factores fueran independientes) correspondientes al nivel i del factor A y al nivel j del factor B. será: tij=n·pij Entonces: ˆ ˆ ˆ t ij = n ⋅ pij = n ⋅ pi• ⋅ p• j = n ⋅ Oi • O • j Oi • ⋅ O • j ⋅ = n n n Puede demostrarse.. O•j .Capítulo IX: Introducción a la Inferencia Estadística DEL FACTO R A Ai … Ar Oi1 Oi2 … Oij … Oim ti1 ti2 … tij … tim Or1 Or2 … Orj … Orm tr1 tr2 … trj … trm Oi• Or• n Frecuencias O•1 O•2 .. será: ˆ pi • = Oi • n De modo análogo.m Si estimamos las probabilidades marginales pi• de cada nivel Ai del factor A mediante la frecuencia relativa con que se presenta Ai en la muestra. Oi• es el total de frecuencias observadas en la fila i y O•j es el total de frecuencias observadas en la columna j. como en el apartado anterior. a la que hemos llamado pij. O•m marginales donde n es el número total de observaciones. Oij es el número de valores observados en la casilla correspondiente al nivel i del factor A y al nivel j del factor B.….. será. Si A y B son independientes se cumplirá: pij = P( A i ∩ B j ) = P( A i ) ⋅ P(B j ) = pi ⋅ p j con i=1. las probabilidades marginales p•j de cada nivel Bj del factor B se efectuarán mediante: ˆ p• j = O• j n La estimación de la probabilidad conjunta de Ai y Bj.…r y j=1. bajo el supuesto de independencia de A y B ˆ ˆ ˆ pij = pi• ⋅ p• j Las frecuencias teóricas de cada intersección de niveles A y B. dado que el total de observaciones es n..

que el sexo y el color preferido son independientes a la hora de elegir el coche? SOLUCIÓN: Las hipótesis a contrastar son H0(sexo y color son independientes) vs H1(sexo y color son dependientes) Completemos la tabla de frecuencias observadas: COLOR Rojo Azul 36 14 9 11 45 25 SEXO Blanco O Varones 10 Mujeres 20 30 O•j Oi. 60 40 100 Recordando que las frecuencias teóricas (si H0 cierta) se calculan mediante la expresión: IX. ¿podemos admitir.05. COLOR Blanco Rojo Varones 10 36 Mujeres 20 9 SEXO Azul 14 11 De acuerdo con la tabla anterior.Capítulo IX: Introducción a la Inferencia Estadística Obsérvese que el número de frecuencias a comparar es k=r·m y el número de parámetros a estimar: ˆ (n-1) proporciones pi • (la r-sima proporción se obtiene por 1 − ∑ pi • ) i =1 r −1 ˆ (m-1) proporciones p• j (la m-sima proporción se obtiene por 1 − m −1 i =1 ∑ p• j ) Total de parámetros a estimar: s=(r-1)+(m-1) Luego los grados de libertad de la χ k2− s −1 considerada en el apartado anterior son gl = k − s − 1 = r ⋅ m − (r − 1) − (m − 1) − 1 = (r − 1) ⋅ (m − 1) Con el mismo razonamiento que en el punto anterior deberemos: Aceptar H0 si z ≤ χ(2r(−α1))(m −1) Rechazar H0 si z > χ(2r(−α1))(m −1) Ejemplo IX.12 La siguiente tabla muestra las frecuencias observadas en relación con el color de automóvil preferido y el sexo en una muestra de 100 estudiantes encuestados al azar en la U.167 . con un nivel de significación α=0.V.P.

.556 2( ) 2(0.168 .Capítulo IX: Introducción a la Inferencia Estadística t ij = Oi • ⋅ O• j n construyamos la tabla de frecuencias teóricas: COLOR Blanco Rojo t Varones 18 27 Mujeres 12 18 SEXO Azul 15 10 El estadístico z será: z = ∑∑ i =1 j =1 2 3 (O ij − t ij ) 2 t ij = (10 − 18 )2 + (36 − 27 )2 18 27 + .05) z > χ2 por lo que debemos rechazar la hipótesis de independencia de los factores considerados y admitir que los gustos respecto al color de los automóviles son diferentes en los varones que en las mujeres.05) = χ 2 = 5. + (11 − 10 )2 10 = 16..05) Como χ(r −α1)(m −1) = χ12(0. IX.99 se tiene que: ⋅2 2(0.

Capítulo IX: Introducción a la Inferencia Estadística IX.169 .

.

Descomposición de las sumas de cuadrados. ANÁLISIS DE LA VARIANZA (I).Generalidades.3. Planes factoriales. Hipótesis del modelo. Un factor controlado. 1.2.5. 2.1.. 5.. 9.Ecuación fundamental.Modelo y supuestos teóricos 2. 6.Hipótesis nulas 2.ANOVA para dos factores con repeticiones 2. 3.Comparación de medias.4...Hipótesis nula. ANÁLISIS DE LA VARIANZA (II). DOS FACTORES CONTROLADOS 1...4.. Test F.Modelo Teórico.Introducción.4. Test LSD 9... Análisis de la varianza (I). 2...Test F. UN FACTOR CONTROLADO.ANÁLISIS DE LA VARIANZA 9. 171 .Concepto de interacción 2.. 4.

pH del líquido de gobierno y temperatura de almacenamiento del bote. Los factores pueden ser cuantitativos. se deseará además. 15º C y 30º C (3 niveles). Tratamiento: combinación de niveles Unidad experimental: Unidad física sobre la que se aplica un tratamiento (bote. precisar la naturaleza del mismo.).9. temperatura. En la terminología clásica del Análisis de la Varianza existen en este caso tres factores: Tipo de hojalata pH Temperatura de conservación cuyos efectos se desean estudiar. pH. por ejemplo un tratamiento será: bote hojalata tipo B con pH del líquido de gobierno 4'5 almacenado a 15º C.. Una experiencia podría consistir en preparar 5 botes (repeticiones) con cada uno de los 18 tratamientos posibles. variedad. pH. se considerarán en el estudio diferentes niveles (si el factor es cuantitativo) o variantes (si el factor es cualitativo). determinando. un mes de almacenamiento. Fue desarrollado por Fisher en el 1er tercio del siglo pasado. Factores: posibles causas controlables que pueden ser fuente de variabilidad en la respuesta (tipo de hojalata. etc. Para cada factor.) o cualitativos en otro caso (tipo de hojalata. Factor pH (cuantitativo): Se estudiarán conservas a pH 4'5 y pH 5'5 (2 niveles). por ejemplo.) 172 . y que se presume pueden influir sobre la respuesta. animal de ensayo etc. que variantes difieren significativamente entre sí * Resumen: X : variable a estudiar o respuesta (grado de corrosión en el ejemplo). En total existirán en este caso 3x2x3=18 tratamientos diferentes. etc. con lo que constaría en total de 18x5 = 90 botes o unidades experimentales. En aquéllos factores cuyo efecto sea significativo. método de fabricación etc. Factor temperatura de almacenamiento (factor cuantitativo): Se almacenarán los botes a 0º C.4. En un estudio sobre corrosión (X) en botes de conservas se desea investigar la influencia al respecto del tipo de hojalata.). Así por ejemplo: Factor tipo de hojalata (cualitativo): Se desean estudiar tres tipos distintos A. Variantes o niveles: valores que pueden tomar los factores. B y C (3 variantes). cuando sus niveles corresponden a valores medibles (temperatura.1. son aquéllos que podemos realmente controlar fijando a voluntad sus niveles (factores controlados). parcela. A cada combinación de variantes de los diferentes factores se le denomina tratamiento. El objetivo en una experiencia de este tipo sería el analizar cuáles de los tres factores tienen una influencia significativa sobre el grado de corrosión del bote al cabo de. Un ejemplo servirá para ilustrar un problema típico de aplicación de estos métodos.GENERALIDADES Bajo el nombre de Análisis de la Varianza se conocen un conjunto de métodos estadísticos aplicables en general al análisis de observaciones que dependen simultáneamente de varios factores. Los factores a considerar.

.2.4. en un conjunto de términos independientes. se tendrá: Xij = μi + εij (1) 173 εi . De cada variante se hacen J pruebas cuyos resultados podemos considerar como una muestra aleatoria simple extraída de la población de posibles resultados que podrían obtenerse con dicha variante. dejando para más adelante la generalización al caso de varios factores. Inicialmente desarrollaremos la teoría básica del Análisis de la Varianza en el caso más sencillo de un solo factor controlado.σ) (XI1……XIJ) Como veremos a continuación.I). La comparación de cada uno de estos términos con el correspondiente a la perturbación aleatoria residual (ó error). Siendo μi = Ε(Xij) el valor medio poblacional correspondiente a dicha variante. asumen la existencia de un modelo probabilístico que explica los resultados observados en función de un conjunto de parámetros desconocidos relativos a los efectos de los diferentes factores en estudio y de una perturbación aleatoria. relativos a los diferentes factores en estudio y al error experimental. Sea Xij la j-ava observación (j = 1.- Repeticiones: número de veces que se aplica un mismo tratamiento (sobre diferentes unidades experimentales) en una misma experiencia. HIPÓTESIS DEL MODELO Consideremos.X)2 con N -1 grados de libertad. La técnica de análisis consiste. y la hipótesis nula a contrastar es H0: μ1 = μ2 …= μI.σ) (X11……X1J) i N(μi. por ejemplo.. Sea I el número de niveles del factor y J el número de observaciones para cada una de las variantes (supondremos que dicho número es el mismo para todas las variantes. con sus correspondientes grados de libertad. permite contrastar la significación de los factores estudiados. Los métodos del Análisis de la Varianza.. en general. Variante Población Muestra 1 N(μ1. nuestras hipótesis sobre el modelo implican que cada una de estas poblaciones tiene una distribución N(μi.MODELO TEÓRICO.. en cuyo caso el modelo se denomina EQUILIBRADO). en descomponer la variabilidad total del conjunto de las observaciones expresada por la suma de cuadrados global Σ(Xijk . 9. Vemos por tanto que el problema que tenemos no es más que la generalización a I medias del problema de comparación de dos medias visto en un tema anterior.J) correspondiente a la i-ava variante del factor (i = 1.σ). o numero de veces que se repite la experiencia bajo las mismas condiciones.σ) (X21……X2J) I N(μI. que se desean comparar I variantes distintas de un determinado proceso industrial..

además Ε(εij) =0 Con respecto a los residuos εij se harán.μ es la diferencia entre la media de la variante i y el promedio general. además. j no dependiendo por tanto de la variante i considerada. c) Normalidad: los IxJ residuos εij tienen una distribución conjunta normal multivariante ε ≡ N(0. es decir. se verifica Σαi = Σ(μi . El modelo teórico anterior puede formularse de una forma alternativa que resulta aconsejable por su más fácil generalización al caso de varios factores. el modelo teórico puede formularse como sigue Xij = μ + αi + εI Con Σαi = 0 αi μ εij μi Xij X Donde Xjj = j-ava observación de la variante i del factor μ = promedio general αi = efecto específico de la variante i del factor 174 . αi mide por lo tanto el efecto específico (positivo.σ2 I) Las hipótesis b) y c) implican la independencia de los residuos. las siguientes hipótesis: a) Homocedasticidad: σ2ij = σ2 (εij) = σ2 ∀ i. todos los residuos están mutuamente incorrelacionados. Sea μ = Σμi /I el promedio de los valores medios de las diferentes variantes αi=μi .Iμ = 0 Como μi = μ + αi. Evidentemente.donde εjj es una perturbación aleatoria que origina las diferencias existentes entre las observaciones μi Xij de una misma variante o tratamiento.εi’j’) = 0 si i≠i' y/o j≠j'. b) Incorrelación: Cov (εij. Esta hipótesis hace necesaria la comprobación previa. negativo o nulo) de la variante i del factor.μ) = Σμi . mediante el test de Bartlett u otros similares. de la homogeneidad de las varianzas en los diferentes grupos o variantes.

= Σ i X ij J media de la variante i La ECUACIÓN FUNDAMENTAL del Análisis de la varianza muestra la descomposición de la variabilidad total de la variable respuesta estudiada.4.)2 se le denomina Suma de Cuadrados Total (SCT) pues mide la variabilidad total del conjunto de las I x J observaciones..ECUACIÓN FUNDAMENTAL Llamando X.) 2 = J ∑ ( X . − X..4.HIPÓTESIS NULA La hipótesis nula a contrastar es que el factor no influye sobre la respuesta.) 2 SCT SCF SCR • Σ(Xij – X.εij = residuos N (0.. = Σ ij X ij IJ media general de todas las observaciones Xi... que todos los niveles tienen la misma media Ho : μ1 = μ2 = μ3 … = μI = μ H1 : ∃ μi ≠ μj Estas hipótesis son equivalentes a contrastar H0 : ∀αi = 0 H1 : ∃ αi ≠ 0 ya que sustituyendo μi por μ + αi Ho : μ + α1 = μ + α2 = μ + α3 = … = μ + αI = μ α1 = α2 = α3 = ….)2 se denomina Suma de Cuadrados debida al factor(SCF) pues mide la magnitud de las desviaciones de la media de cada variante a la media general. 9. Mide la parte de la variabilidad total debida o explicada por el factor. JΣ (Xi-X.) +∑ 2 i i ij ( X ij − X i . es decir. = αI = 0 ∀ αi = 0 9.4.. ∑ ij ( X ij − X.3. • 175 .σ) e independientes entre sí..

y éste es cualitativo. ó DMS DMS = QIα( J−1) . e/1 test no suficiente potencia para detectarlas.TEST F Si a las sumas de cuadrados anteriores ( SCF y SCR ) las dividimos por sus grados de libertad correspondientes ( (I-1) e I(J-1) respectivamente) obtenemos los cuadrados medios CMF y CMR.6. resulta procedente estudiar entre qué variantes del factor son significativas las diferencias αi .D.)2 se denomina Suma de Cuadrados Residual pues se basa en las desviaciones de cada observación respecto a la media de la variante respectiva.S.4. 9. b) si el análisis no da como significativas determinadas diferencias no quiere decir que éstas no existan sino que. TEST L.I CMR J I = nº de niveles del factor (en general nº de medias a comparar). por tanto.| > DMS. que el factor influye en la respuesta estudiada. J = nº de observaciones en cada variante (en general.S. Este hecho tiene especial importancia cuando intentamos interpretar el por qué algunas veces a pesar de obtener 176 . debemos hacer notar: a) que el hecho de que las diferencias sean significativas no implica que las diferencias sean necesariamente importantes. Se demuestra que si la hipótesis nula es cierta ∀α i = 0 CMF ≡ F( I −1). en calcular una "diferencia mínima significativa" (DMS) tal que dos variantes i.αi’..I( J −1) para I la probabilidad de error de 1ª especie α considerado. etc. nº de datos con que se ha calculado cada una de las medias a comparar).• Σ(Xij-Xi.-Xj. Mide la parte de variabilidad total existente en las observaciones no explicada por el factor. calculando a partir de las observaciones el estadístico CMF/CMR = Fc y rechazándola si este es mayor que el valor en tablas de F(α−1). puede dar como significativas diferencias que en la práctica carezcan de importancia.o su equivalente.D.4. La forma de operar consiste en general. en la determinación de la significación de la diferencia entre dos medias -. Nota: En la determinación de la significación del efecto de un factor . es decir. si la variabilidad residual es pequeña. otros factores no estudiados.). I ( I −1) CMR La hipótesis nula ∀α i = 0 se contrastará. 9. El análisis de la varianza. En el test de Tuckey se propone como L.COMPARACIÓN DE MEDIAS. Esta regla es equivalente a rechazar H0 si el pvalor correspondiente al Fc calculado es menor que α.5. j difieren significativamente si |Xi. Rechazar H0 equivale a aceptar con un nivel de significación α. la debida a causas aleatorias (error experimental. (diferencia mínima significativa) Si el test F pone de manifiesto la existencia de un efecto significativo del factor. simplemente..

Los resultados obtenidos se reflejan en el siguiente CUADRO RESUMEN DEL ANÁLISIS DE LA VARIANZA Grados Origen de Suma de de la varianza cuadrados libertad TOTAL FACTOR ERROR SCT SCF SCR IJ-1 I-1 I(J-1) CMF = CMR = SCF I−1 SCR I(J − 1) CMF CMR F(α−1).I( J −1) I Cuadrado medio F calculada F tablas EJEMPLO: Se desea estudiar la influencia de la materia prima sobre la resistencia de unas piezas de plástico.1 4.2 5.5 Cuadro resumen del Análisis de la Varianza ----------------------------------------------------------------------------Fuente SC gl CM F calc P-Valor 177 .0 6.9 6.2 6.0 6.0 5.0 MAT PRIMA 3 5.8 MAT PRIMA 4 5.0 6. Con cada materia prima se fabricaron cinco piezas midiéndose finalmente la resistencia en cada una de las veinte piezas fabricadas.en la práctica diferencias importantes entre las medias. éstas no llegan a ser significativas.2 6.5 6.6 4.1 5.8 6.2 4.0 6. Para ello se realizaron experiencias utilizando cuatro materias primas diferentes.9 6.0 MAT PRIMA 2 6. Los resultados fueron: MAT PRIMA 1 6. Lo que habría que hacer en este caso es aumentar el tamaño de la experiencia o reducir el error experimental (disminuir el CMR) aumentando la homogeneidad del material experimental o utilizando un diseño más adecuado.

04 X M. 4 5 4. 1 5 6.P. 2 5 6. 3 5 5.17 0.P.30 X Observamos que solo la cuarta materia prima da lugar a una resistencia media estadísticamente diferente a las demás siendo menor en valor que el resto 178 . En el apartado siguiente analizaremos cuál o cuáles de las variantes de la materia prima son diferentes en cuanto a su resistencia promedio.P.----------------------------------------------------------------------------Factor 7.68 X M. existen diferencias estadísticamente significativas al nivel del 99% de confianza entre las medias de las cuatro materias primas.073 ----------------------------------------------------------------------------Total 9. Esta afirmación es equivalente a decir que la “materia prima” utilizada influye sobre la resistencia de las piezas de plástico con un nivel de significación del 99%.168 16 0.64067 36.P.01.922 3 2.0000 Residual 1.09 19 Dado que el P-Valor es menor que 0. Tests de rangos Repeticiones Media Grupos diferentes -------------------------------------------------------------------------------M.98 X M.

. se dice que no existe interacción entre dos factores cuando el incremento en la respuesta (+ ó -) al pasar de un nivel a otro de uno de los factores.5. Análisis de la varianza (II).2.1. el siguiente diseño factorial FACTOR B FACTOR A B1 =⎬n = = = B2 =⎬n = = = Bj = = = =⎬ n Xijk.ANOVA PARA DOS FACTORES CON REPETICIONES Utilizaremos como diseño base para el estudio de este apartado. De manera similar a la anterior. a) Consideremos el ejemplo de la corrosión de los botes de hojalata en el que contemplamos dos factores: Factor tipo de hojalata (hojalata A y hojalata B) y Factor pH (pH1. Apoyándonos en los conceptos y terminología expuestos en el apartado anterior. También se dice que existe interacción entre dos factores cuando el efecto de uno de ellos depende del nivel que consideremos en el otro.Concepto de Interacción Se dice que hay interacción entre dos factores si el efecto conjunto de la variante i de uno de ellos con la j del otro. BJ A1 A2 A3 Ai = = = = AI = = = = 9. vamos a desarrollar este apartado de forma esquemática. PH2 y pH3) 179 . PLANES FACTORIALES.1. Dos factores controlados. Solamente desarrollaremos en profundidad aquellos conceptos que sean nuevos y propios del presente capitulo.5.. es el mismo en cualquiera de los niveles que podamos considerar del otro factor. Constituyen un diseño especial para el estudio simultáneo de dos o más factores en el que todos los niveles de todos los factores se combinan entre sí.5. 9.9. 9.2.INTRODUCCIÓN. Vamos a considerar algunos ejemplos representativos. (Efectos no aditivos). no es igual a la suma de los efectos simples respectivos.5.. Los utilizaremos en este tema como diseño base para desarrollar las técnicas del Análisis de la Varianza para dos factores. PLANES FACTORIALES.

Grado de corrosión En este primer caso. Grado de corrosión En este caso. b) Consideremos ahora la calidad organoléptica de tres zumos de naranja (natural. a los 15 días) conservados a temperatura constante. a pH bajo presenta menor corrosión la hojalata B. además. En este caso influyen los dos factores (hojalata A mayor corrosión que la B. a pH intermedio el grado de corrosión es el mismo y a pH alto presenta menor corrosión la hojalata B. pasteurizado. Así. a los 5 días. Obsérvese que en este caso no tiene sentido preguntarse que hojalata es más resistente si no se especifica cual va a ser el pH a emplear en la conserva. esterilizado) a través del tiempo (recién preparado. cualquiera que sea el pH. 180 . el efecto del factor hojalata depende del valor del pH que consideremos. y a mayor pH menor corrosión) pero no hay interacción entre ellos. LA DIFERENCIA ENTRE UNA Y OTRA HOJALATA ES LA MISMA PARA CUALQUIER pH. la hojalata A presenta mayor corrosión que la hojalata B y.

Obtenga el lector sus propias conclusiones ¿Hay interacción? ¿Por qué? ¿Qué zumo es mejor? ¿Se comportan igual los tres zumos? ¿Influye el tiempo de conservación en la calidad? ¿Cómo? 9. εijk = residuo aleatorio ∑α i i =0 ∑β j j =0 ∑ (αβ) i ij =0 ∑ (αβ) j ij =0 Supuestos: Ε(ε ijk ) = 0 ε ijk ≡ N(0. j.Modelo y supuestos teóricos El modelo teórico completo es Xijk = μ + α i + β j + (αβ)ij + ε ijk donde Xijk = valor de la K.2. μ = promedio general αi = efecto específico de la variante i del 1er factor βj = efecto específico de la variante j del 2º factor (αβ)ij = efecto de la interacción entre los factores en sus niveles i. respectivos.ésima observación en el tratamiento formado por la variante i del primer factor con la variante j del segundo. σ 2 ) ⎬ independientes e incorrelacionados 181 .5.2..

1)(J .2.S.Comparación de Medias..)2 + N∑ ( X − X.3. expresados en gr.1) ⇒ gl La significación de cada factor se obtiene calculando el cociente SCF GLF CMF Fc = = SCR GLR CMR α > FGLF .S.)2 ijk = JN∑ ( X − X.) 182 . j. Con cada una de las 8 combinaciones . b = nº de datos con que se calculó cada una de las medias anteriores.. Los resultados. ó DMS α DMS = Q a.Descomposición de las Sumas de Cuadrados. Ejemplo: En una experiencia para analizar la influencia de un nuevo catalizador en dos métodos A y B de síntesis de un producto orgánico. Si algún factor resulta significativo podrá determinarse entre que variantes hay diferencias significativas comparando la diferencia de medias con la L.5.GLR significativo al nivel α ≤ FGLF . .. .Hipótesis Nulas Las hipótesis nulas a contrastar son la ausencia de efecto sobre la respuesta de cada uno de los factores así como la ausencia de interacción entre ellos H0: ∀α i = 0 ∀β j = 0 ∀( αβ )ij = 0 H1: ∀α i ≠ 0 ∀β j ≠ 0 ∀(αβ)ij ≠ 0 9. j.4. Test L..glr CMR b a = nº de medias a comparar entre si (nº de variantes del factor)..dosis x método se realizaron tres experiencias. se ensayaron 4 dosis de catalizador. ij.2.2..) + ∑ ( X − X )2 i.1) SCF1 (I .D.. − X + X.tratamientos .9.D..1) SCint (I .. Test F La variabilidad total de las observaciones se descompone de la siguiente forma similar al ANOVA de un factor ∑ ( Xijk − X.5.GLR No significativo α 9.5.5. i j ij ijk SCT (IJN .1) SCF2 (J .. de producto obtenido con la misma cantidad de materia prima en 1 hora.)2 + IN∑ ( X − X... ijk ij. se recogen en la tabla siguiente: Dosis de catalizador (mg.1) SCR IJ(N ..

Total Catalizador Método Interacción CxM Error 1469’13 660’66 3 16 0'01 489’71 11’86 > F3'16 = 5'29 * * SC 7096’96 1535’13 3432’04 GL 23 3 1 CM Fc Ft 0'01 511’71 12’39 > F3'16 = 5'29 * * '01 3432’04 83’12 > F1016 = 8'53 * * ' 41’29 Son significativos todos los efectos al 99 % (p < 0'01) 183 .Método/Do sis A 0’75 68 60 62 60 45 66 1 91 75 86 72 71 60 1’25 90 98 94 64 75 70 1’50 105 95 99 48 55 50 B Solución El modelo es: Xijk = μ + α i + β j + (αβ)ij + ε ijk ∑α = 0 ∑β = 0 ∑ (αβ) = 0 ∑ (αβ) = 0 i j ij i ij j ε ijk = N(0.V. σ) independientes. Cuadro resumen del análisis de la varianza O.

a la dosis máxima. luego no existe una concentración de catalizador óptima. con el método B da el mínimo rendimiento promedio (51 gr). b) No obstante. La concentración de 1'50. un rendimiento mayor que el método B.50 metodo A B rendimiento dosis a) La interacción es significativa.Interpretación de Resultados Interaction Plot 101 91 81 71 61 51 0.25 1. que con el método A da el rendimiento promedio máximo (99'67 gr). Por ello seria conveniente la utilización del catalizador sólo en el método A.75 1 1. 184 . Luego habrá que estudiar el efecto del catalizador en cada uno de los métodos. y preferiblemente. el método A presenta para cada concentración del catalizador.

185 .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->