P. 1
Variables Aleatorias Discretas y Continuas

Variables Aleatorias Discretas y Continuas

|Views: 96|Likes:
Publicado porYony Quenta

More info:

Published by: Yony Quenta on Aug 01, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

11/19/2012

pdf

text

original

Variables aleatorias discretas y continuas

y

y

Variables aleatorias discretas o Distribución uniforme o Distribución binomial o Distribución multinomial o Distribución hipergeométrica o Distribución multihipergeométrica o Distribución de poisson Variables aleatorias continuas o Distribución normal o de Gauss o Distribución Gamma ( ) o Distribución exponencial o Distribución Chi-cuadrado o Distribución T de Student o Distribución F de Snedecor POBLACIÓN Y MUESTRA

Variables aleatorias discretas
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser finito. Si la variable tiene k posibles valores, su función de probabilidad sería:

donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la función de probabilidad o densidad de una variable aleatoria) La media y la varianza de la variable uniforme se calculan por las expresiones:

El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme se le suele llamar distribución rectangular.

Distribución binomial
La distribución binomial es típica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1) El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo. 2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso. 3) La probabilidad del Ãéxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q 4) Las pruebas son estadísticamente independientes,

En estas condiciones, la variable aleatoria X que cuenta el número de Ãéxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento. La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el número de pruebas y p la probabilidad del Ãéxito. n y p son los parámetros de la distribución.

La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia

La media y la varianza de la variable binomial se calculan como: Media = =np

Varianza =

2

=npq

Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el caso en que n = 4:

Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes. Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:

N y K.Los parámetros de la distribución son p1.K como fracasos.. La función de probabilidad de la variable hipergeométrica es: Los parámetros de la distribución son n. Los valores de la media y la varianza se calculan según las ecuaciones: Si n es pequeño. así pues... la probabilidad de un Ãéxito variar muy poco de una prueba a otra. la probabilidad del Ãéxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. X cuenta el número de Ãéxitos obtenidos en la muestra. pK y n. El espacio muestral es el conjunto de los números enteros de 0 a n. Distribución hipergeométrica Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones: 1) Se toma una muestra de tamaño n. ó de 0 a K si K < n. con relación a N (n << N). En este caso. es .. de un conjunto finito de N objetos. 2) K de los N objetos se pueden clasificar como Ãéxitos y N . las pruebas no son independientes entre sí. la variable. en este caso. Por tanto. sin reemplazamiento.

. el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n << N. La media de la variable aproximada ( = n p = n (K / N)) es la misma que la de la variable antes de la aproximación.25 y n = 4) Distribución multihipergeométrica Este variable se define igual que la hipergeométrica con la única diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1. N suele ser muy grande y los números combinatorios se vuelven prácticamente inmanejables. x2. así pues. la probabilidades se calculan más cómodamente aproximando por las ecuaciones de una binomial con p = K / N.. en esta situación.. la varianza de la variable binomial es ligeramente superior a la de la hipergeométrica.. AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1. Como ejemplo.. xR) . A2. mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial = 0... sin embargo.esencialmente binomial. El aspecto de la distribución es bastante similar al de la binomial..

La función de probabilidad es: Distribución de poisson Una variable de tipo poisson cuenta Ãéxitos (es decir. El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior. Como consecuencia de estas condiciones. 2. La probabilidad de encontrar uno o más Ãéxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio. las variables Poisson típicas son variables en las que se cuentan sucesos raros. El experimento que la genera debe cumplir las siguientes condiciones: 1.Esta situación es análoga a la planteada en el caso de la distribución multinomial. La probabilidad de un Ãéxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él. 3. que es igual a la media y a la varianza . objetos de un tipo determinado) que ocurren en una región del espacio o del tiempo. La función de probabilidad de una variable Poisson es: El parámetro de la distribución es de la variable.

Como ejemplo. en paralelo. = 1. . la gráfica empieza a tener un aspecto acampanado.5 (arriba a la izquierda).Esta característica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definición. se utiliza una aproximación a través de una variable Poisson con media l = n p. La varianza de la variable aproximada es ligeramente superior a la de la variable binomial. por tanto. La distribución de Poisson se puede considerar como el límite al que tiende la distribución binomial cuando n tiende a y p tiende a 0. El aspecto de la distribución depende muchísimo de la magnitud de la media. en esta situación sería difícil calcular probabilidades en una variable binomial y. mostramos tres casos con = 0. siendo np constante (y menor que 7). Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias.5 (arriba a la derecha) y = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al crecer y que.

Una variable es normal cuando se ajusta a la ley de los grandes números. media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal. Como consecuencia. Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss.Variables aleatorias continuas Distribución normal o de Gauss La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística. cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. en una variable normal. Su función de densidad es la siguiente: Los parámetros de la distribución son la media y la desviación típica. y . es decir. respectivamente. .

. 2) Es perfectamente simétrica respecto a la media (g1 = 0). 3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas. 4) Sus colas son asintóticas al eje X.La curva normal cumple las siguientes propiedades: 1) El máximo de la curva coincide con la media.

Para calcular probabilidades en intervalos de valores de la variable. a la que se llama variable normal tipificada o Z. cualquier que sea la variable normal. por desgracia (o por suerte). consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese. . simplemente. habría que integrar la función de densidad entre los extremos del intervalo. se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal. La equivalencia entre ambas variables se obtiene mediante la ecuación: La función de distribución de la variable normal tipificada está tabulada y. no se puede integrar. X. Afortunadamente. la función de densidad normal no tiene primitiva. es decir. valor) y el asunto tendría una complejidad enorme. la suma de variables normales independientes es otra normal. De forma análoga a lo pasaba con las variables Poisson. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada ( . Histograma de una normal idealizada Histograma de una muestra de una variable normal . media 0 y varianza 1.

cuya ecuación es: La función de densidad de la distribución gamma es: y son los parámetros de la distribución. La media y la varianza de la variable gamma son: .Distribución Gamma ( ) La distribución gamma se define a partir de la función gamma.

Distribución exponencial Es un caso particular de la distribución gamma cuando de densidad es: = 1. La media y la varianza de la distribución exponencial son: . Su función Su parámetro es .

Distribución Chi-cuadrado .

Xn. X1. respectivamente: Otra forma de definir la distribución G es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes... con media i y varianza (i = 1 . siendo n un número natural..G Es otro caso particular de la distribución gamma para el caso / 2. n).. Su función de densidad es: =2y =n El parámetro de la distribución G es R y su media y su varianza son.. la variable definida como tiene distribución G con n grados de libertad y se le denomina Gn.. .

Distribución T de Student Supongamos dos variables aleatorias independientes. Z . y otra con distribución G con R grados de libertad.Variables chi-cuadrado con valores de progresivamente mayores son cada vez menos asimétricas. una normal tipificada. La función de densidad de la distribución t es: . la variable definida según la ecuación: tiene distribución t con R grados de libertad.

t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30..El parámetro de la distribución t es R. Es similar a la distribución Z salvo que es platicúrtica y. más aplanada. su número de grados de libertad. por tanto. Cuando n tiende a infinito. Variables T con valores de R progresivamente mayores son cada vez menos platicúrticas . Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X.

La variable definida según la ecuación: tiene distribución F con R1. La función de densidad de la distribución F es: . R2 grados de libertad.Comparación entre la variable T y la normal tipificado. Distribución F de Snedecor Sean U y V dos variables aleatorias independientes con distribución G con R1 y R2 grados de libertad. respectivamente.

Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente: Llamemos fER1.Los parámetros de la variable F son sus grados de libertad R1 y R2. Ambos valores están relacionados de modo que uno es el inverso del otro. 2 . Variables F con distintos valores de 1..R2 al valor de una distribución F con R1 y R2 grados de libertad que cumple la condición. P(F > fER1.R2) = .R2 al valor de una distribución F con R1 y R2 grados de libertad que cumple la condición. llamemos fER1.R2) = 1. P(F > fER1.

POBLACIÓN Y MUESTRA y y y La muestra aleatoria Parámetros y estadísticos o Estadísticos de centralidad:  La media aritmética  La mediana  La moda  Los cuantiles o percentiles o Estadísticos de dispersión:  El rango  La varianza  La desviación típica  Coeficiente de variación Pruebas chi-cuadrado de ajuste e independencia o Chi-cuadrado de ajuste o Chi-cuadrado de contingencia o independencia  Comparación múltiple de distintas proporciones o probabilidades  Prueba de homogeneidad de muestras La muestra aleatoria .

A este tipo de muestras se les llama muestras aleatorias o muestras al azar. es decir. las poblaciones pueden ser finitas e infinitas. hablaremos de poblaciones normales. si la población tiene tamaño N. se denomina a las poblaciones con el nombre de la distribución de la variable. elegidos de tal forma que nos digan algo sobre la totalidad de las observaciones de la población. La única forma de tener cierta garantía de que esto ocurra es tomar nuestra muestra de forma que cada individuo de la población y cada subgrupo posible de la población tengan igual probabilidad de ser elegidos. es decir. En este caso necesitaremos tomar una muestra y nos surgirá el problema de cómo hacer para que la muestra nos diga algo sobre el conjunto de la población. Está claro que si no conocemos la población no podemos saber si la muestra es representativa o no. Una muestra aleatoria de tamaño n es un conjunto de n individuos tomado de tal manera que cada subconjunto de tamaño n de la población tenga la misma probabilidad de ser elegido como muestra. Para estudiar una población existen dos posibilidades. Una de ellas consiste en estudiar todos sus elementos y sacar conclusiones. en el caso de poblaciones muy grandes o infinitas será muy difícil o imposible realizar un estudio total.Una población en estadística es el conjunto de todas las observaciones en las que estamos interesados. . cuando es posible. Se llama tamaño de la población al número de individuos que la componen. así pues. El mejor método ser el primero. Cada observación en una población es un valor de una variable aleatoria X con una función de probabilidad o densidad determinada f(x) Normalmente. binomiales. la otra consiste en estudiar sólo una parte de ellos. La condición más obvia que se le puede pedir a una muestra es que sea representativa de la población. cada una de las combinaciones posibles de n elementos debe ser equiprobable. una muestra. etc. siendo cada posible observación un individuo. lo cual sólo ocurre en las poblaciones finitas y razonablemente pequeñas.

Los sistemas de muestreo se basan normalmente en la asignación de un número a cada uno de los individuos de la población y la posterior obtención de una muestra de n números aleatorios que se obtendrá por sorteo utilizando bolas numeradas. que se ordenan. Este tipo de muestra se denomina muestra al azar sistemático. Por sorteo se elige un elemento del primer grupo y a continuación los elementos correspondientes de los demás grupos. ordenadores. etc Otra variante del muestreo es cuando se divide la población en n grupos. que no correspondan con ninguna clasificación relacionada con el problema en estudio. Si la población está subdividida en grupos podemos tomar otro tipo de muestra en la que cada grupo de la población está representado por un porcentaje .

P. multiplicando observaciones por frecuencias y sumando. Los Parámetros muestrales no son constantes sino variables aleatorias pues sus valores dependen de la estructura de la muestra que no es siempre la misma como consecuencia del muestreo aleatorio. constantes y únicos. así como las características de la población. . es decir. Estadísticos de centralidad: Son medidas de la tendencia central de la variable.de individuos igual al porcentaje de individuos de la población integrados en ese grupo. Los Parámetros poblacionales son números reales. la proporción de determinados sucesos. Parámetros y estadísticos Parámetros poblacionales Se llama parámetros poblacionales a cantidades que se obtienen a partir de las observaciones de la variable y sus probabilidades y que determinan perfectamente la distribución de esta. A estas variables se les suele llamar estadísticos. Parámetros muestrales Los Parámetros muestrales son resúmenes de la información de la muestra que nos "determinan" la estructura de la muestra. Los estadísticos se transforman en dos tipos: estadísticos de centralidad y estadísticos de dispersión. por ejemplo: La media. . la varianza 2. Este tipo se llama muestra al azar estratificado. los más conocidos son: 1) La media aritmética Es el valor esperado de las observaciones de la muestra calculado como si la muestra fuera una variable completa.

En poblaciones normales.. con ser una ventaja. en muestras pequeñas afectan mucho a la media.Si x1. la distribución de la media es normal. . por el teorema central del límite la distribución de la media será asintóticamente normal. la media aritmética se calcula como: La media aritmética es la medida de la tendencia central que posee menor varianza. pero la muestra es grande (n • 30). Engloba en ella toda la información de la muestra. La media de la media aritmética es igual a la de las observaciones ( ) y su varianza es igual a la de las observaciones partida por n. esto. xn representan una muestra de tamaño n de la población. Si la población no es normal.. supone una cierta desventaja pues los valores muy extremos.. x2.

la mediana es la observación central Si n es par. Si n es impar. podríamos decir que la mediana es el valor que es mayor o igual que el 50% de las observaciones de la muestra y menor o igual que el otro 50%. Para calcularla se ordenan las observaciones de menor a mayor.5. la mediana se define como la media de las dos observaciones centrales En resumen. .2) La mediana En una variable se define como el punto para el cual la función de distribución alcance el valor 0. en una muestra la mediana es el valor central.

La moda puede no existir y cuando existe no es necesariamente única. normalmente. sin embargo tiene mayor varianza que X y sólo toma en cuenta la información de los valores centrales de la muestra. Su cálculo es el más simple de los tres correspondientes a estadísticos de centralidad pero la moda es el estadístico de mayor varianza. 3) La moda Es el valor más frecuente. La media es el estadístico de centralidad más usado cuando uno espera que la población tenga una distribución más o menos simétrica. normalmente. En el caso de poblaciones o muestras subdivididas en grupos claramente definidos la media y la mediana carecen. de sentido y los valores que más claramente reflejan el comportamiento de las observaciones de la variable son las modas. la mediana es. sin estar clasificada en grupos claramente diferenciados. No tiene sentido en muestras pequeñas en las que la aparición de coincidencias en los valores es con gran frecuencia más producto del azar que de otra cosa. . con una cola muy larga. la mediana es el valor que mejor expresa el punto donde se acumulan mayoritariamente las observaciones de la variable.No tiene por qué ser igual a una de las observaciones de la muestra. Es más fácil de calcular que la media aritmética y apenas se afecta por observaciones extremas. En el caso de distribuciones muy asimétricas. En estos casos. el valor de elección dado que la media suele estar desplazada respecto al núcleo principal de observaciones de la variable.

es decir. El segundo cuartil es la mediana.Otros estadísticos de centralidad son los cuantiles. su posición relativa. Los cuantiles o percentiles Un percentil X. entre dos valores de la variable. . la máxima menos la mínima. Existe un tipo especial de cuantiles llamados cuartiles. es un valor de la distribución muestral o poblacional de la variable que es mayor o igual que el X% de las observaciones de la variable P(Y ” PX) = X%. o o Estadísticos de dispersión Los estadísticos de dispersión son parámetros muestrales que expresan la dispersión de los valores de la variable respecto al punto central. Se afecta mucho por observaciones extremas y utiliza únicamente una pequeña parte de la información. o El primer cuartil es el valor que es mayor o igual que el 25% de las observaciones de la muestra y menor o igual que el 75%. Expresa cuantas unidades de diferencia podemos esperar. Los más importantes son: El rango Es la diferencia entre las dos observaciones extremas. El tercer cuartil es mayor o igual que el 75% de las observaciones de la muestra y menor o igual que el 25%. como máximo. El rango estima el campo de variación de la variable. Los cuartiles son tres valores que dividen la distribución en cuatro partes equivalentes porcentualmente. PX.

Por tanto. Si la población de la que procede la muestra es normal: con n-1 grados de libertad. utiliza toda la información de la muestra. Normalmente. . para muchos propósitos se utiliza otro estadístico de dispersión que la desviación típica. Su mayor inconveniente consiste en que se expresa en unidades cuadráticas. en adelante. Por ello. salvo indicación expresa. Es el estadístico de dispersión más usado por las propiedades de su distribución. nos referiremos a la segunda. Su concepto es análogo al de la varianza poblacional. esencialmente igual que la anterior salvo que el denominador está disminuido en una unidad.La varianza Es la desviación cuadrática media de las observaciones a la media muestral. cuando hablemos de varianza muestral. estaremos interesados en saber cosas acerca de la varianza poblacional y no de la varianza muestral. Además. No obstante esta expresión de cálculo de la varianza muestral no se utiliza mucho pues sus valores tienden a ser menores que el de la auténtica varianza de la variable (debido a que la propia media muestral tiene una varianza que vale un enésimo de la de las observaciones) Para compensar esta deficiencia y obtener valores que no subestimen la varianza poblacional (cuando estamos interesados en ella y no en la varianza muestral) utilizaremos una expresión.

Permite comparar muestras de variables de distinta naturaleza o muestras de la misma variable en poblaciones en las que el orden de magnitud de las observaciones sea muy diferente. sin dimensiones. por tanto. los valores de las desviaciones de las observaciones a la media resultan ser números con varias cifras decimales. Por ello. Coeficiente de variación Es el cociente entre la desviación típica y la media aritmética muestrales y expresa la variabilidad de la variable en tanto por uno. el cálculo de la varianza puede ser complicado porque. La desviación típica Es la raíz cuadrada positiva de la varianza y. la equivalente a aquella de "la media de los cuadrados menos el cuadrado de la media". . Su concepto es análogo al de la desviación típica poblacional. alternativamente. se suele utilizar una ecuación que deriva directamente de la anterior: o. se expresa en las unidades de medida de la variable. habitualmente.Si no disponemos de una calculadora.

El tipo de distribución se determina. consideraciones teóricas al margen de esta y/o evidencia aportada por datos anteriores al experimento actual. cuya descripción parece adecuada. tiene una determinada función de probabilidad.Pruebas chi-cuadrado de ajuste e independencia Las pruebas chi-cuadrado son un grupo de contrastes de hipótesis que sirven para comprobar afirmaciones acerca de las funciones de probabilidad (o densidad) de una o dos variables aleatorias. ni en lo que refiere a su distribución de probabilidad ni en los valores y/o el conocimiento de sus parámetros. Chi-cuadrado de ajuste En una prueba de ajuste la hipótesis nula establece que una variable X tiene una cierta distribución de probabilidad con unos determinados valores de los parámetros. Estas pruebas no pertenecen propiamente a la estadística paramétrica pues no establecen suposiciones restrictivas en cuanto al tipo de variables que admiten. b) Cuando queremos averiguar si dos variables (o dos vías de clasificación) son independientes estadísticamente. La prueba correspondiente se llama chi-cuadrado de ajuste. en función de: La propia definición de la variable. según los casos. En este caso la prueba que aplicaremos ser la chi-cuadrado de independencia o chi-cuadrado de contingencia. . Se aplican en dos situaciones básicas: a) Cuando queremos comprobar si una variable.

Para ello calcularemos dichas probabilidades utilizando la . podría ocurrir que el tipo de distribución fuera correcto pero que nos hubiésemos equivocado en los valores de los parámetros.A menudo... Si la variable es discreta y tiene pocos valores posible estimaremos las probabilidades de dichos valores mediante sus frecuencias muestrales. necesitaremos una muestra de valores de la variable X. Como en casos anteriores. una vez calculadas las frecuencias absolutas de cada valor o intervalo de valores. Así pues. la prueba se basa en la comparación entre la serie de frecuencias absolutas observadas empíricamente para los valores de la variable (Oi) y las correspondientes frecuencias absolutas teóricas obtenidas en base a la función de probabilidad supuesta en la hipótesis nula (Ei). empezaremos definiendo las hipótesis. Hipótesis nula: X tiene distribución de probabilidad f(x) con parámetros y1... yp Hipótesis alternativa: X tiene cualquier otra distribución de probabilidad. obtendremos el número total de observaciones de la muestra (T) sumando las frecuencias observadas Para calcular las frecuencias esperadas repartiremos este número total de observaciones (T) en partes proporcionales a la probabilidad de cada suceso o grupo de sucesos. Obviamente. por ejemplo. la propia definición del tipo de variable lleva implícitos los valores de sus parámetros o de parte de ellos. Es importante destacar que el rechazo de la hipótesis nula no implica que sean falsos todos sus aspectos sino únicamente el conjunto de ellos. si esto no fuera así dichos parámetros se estimarán a partir de la muestra de valores de la variable que utilizaremos para realizar la prueba de ajuste. si la variable es continua o si es una discreta con muchos o infinitos valores estimaremos probabilidades de grupos de valores (intervalos). Metodológicamente.

Ok Frecuencias esperadas E1 E2 E3 . se puede calcular un parámetro que depende de ambos. Oi . tendremos los siguientes datos para la prueba: Valor de la variable x1 x2 x3 . xi . cuya distribución se ajusta a una chi-cuadrado. por tanto. la hipótesis nula fuera falsa los Ei ya no serían.. la suma de cocientes ser positiva y mayor que lo que se esperaría para los valores de una chi-cuadrado.. los valores esperados de las frecuencias. Por tanto.. el parámetro anterior será el estadístico de contraste de la prueba de hipótesis y la región crítica se encontrar siempre en la cola derecha de la . al efecto del azar. Ek Si la hipótesis nula es cierta. por estar elevadas al cuadrado... las diferencias entre valores observados y esperados (que siempre existirán por tratarse de una muestra aleatoria) son atribuibles. exclusivamente. de modo que.. cada valor Ei tendrá la siguiente expresión: Por tanto. realmente..función de probabilidad definida en la hipótesis nula f(x). xk Frecuencias observadas O1 O2 O3 .. por el contrario. En estas condiciones.. Ei ... las diferencias de los numeradores de la expresión anterior tienden a ser más grandes y. las diferencias entre los valores "esperados" y los observados reflejarían no sólo el efecto del azar sino también las diferencias entre los Ei y la auténtica serie de valores esperados (desconocida) Como consecuencia. Si..

Este número es. tendrá tantos grados de libertad como parejas frecuencia observada . el número de parámetros que es necesario calcular directamente a partir de los valores observados para establecer los valores esperados. Únicamente podremos colocar nuestra hipótesis en la alternativa en el caso excepcional de que pretendamos demostrar que cierto tratamiento produce una distorsión de la distribución básica de la variable en estudio. En un extremo de máxima rigidez se encuentran aquellos que opinan que no se puede realizar la prueba cuando alguna de las frecuencias. El número de grados de libertad de la variable chi-cuadrado se calcula de la siguiente forma:  A priori. nos vemos obligados a colocar nuestra propia hipótesis en la hipótesis nula. como mínimo. es decir. Evidentemente. en lo que refiere a las frecuencias observadas no existirían límites. sea menor que 5. habitualmente. Estadístico de contraste Se acepta la hipótesis nula si . sino porque lo razonable es que la distribución esperada esté . de la distribución Cabe señalar que en las pruebas chi-cuadrado lo corriente es que pretendamos comprobar que una variable tiene una cierta distribución y. el percentil 1 ± chi-cuadrado con grados de libertad.frecuencia esperada. esta prueba será siempre de una sola cola. observadas o esperadas. uno ya que siempre tendremos que calcular el número total de observaciones de la muestra.distribución chi-cuadrado. Las reglas que determinan cuando es posible o no realizar el contraste varían mucho de unos autores a otros. para que la prueba sea viable ninguna de las frecuencias esperadas debe ser menor que 1 y no más del 25% pueden ser menores que 5. por tanto.  A esta cantidad se debe restar el número de restricciones lineales impuestas a las frecuencias observadas. no sólo por razones prácticas. La autora de este texto simpatiza más con la segunda postura. Una condición básica para que podamos llevar a cabo una prueba chicuadrado es que las frecuencias de las distintas clases deben ser suficientemente altas como para garantizar que pequeñas desviaciones aleatorias en la muestra no tengan importancia decisiva sobre el valor del estadístico de contraste. En el otro extremo se encuentran quienes opinan que.

los valores extremos en la distribución observada simplemente reflejan diferencias importantes entre la distribución supuesta por la hipótesis nula y la real. tal como fue definida en la página anterior era: X e Y son independientes si y sólo si para cualquier pareja de valores x e y la probabilidad de que X tome el valor x e Y el valor y. En casos excepcionales se pueden englobar valores que no sean vecinos porque exista algún nexo lógico de conexión entre ellos. simultáneamente. los grados de libertad no se deben calcular hasta que tengamos establecidas definitivamente las parejas de frecuencias observadas y esperadas con las que calcularemos el estadístico de contraste. si resultara que la prueba no es viable podríamos recurrir a englobar los valores o clases de valores con sus vecinos más próximos y pasar así a engrosar sus frecuencias. Este procedimiento no puede llevarse hasta el absurdo pero proporciona una salida digna a situaciones complejas. Cuando sea necesario agrupar valores. Chi-cuadrado de contingencia o independencia La prueba chi-cuadrado de contingencia sirve para comprobar la independencia de frecuencias entre dos variables aleatorias. por tanto. La condición de independencia. es igual al producto de las probabilidades de que cada una tome el valor correspondiente. X e Y. Hipótesis alternativa: X e Y no son independientes (No importa cual sea la relación que mantengan ni el grado de esta.adecuadamente definida y. sin embargo. Sea cual sea el criterio que elijamos. Las hipótesis contrastadas en la prueba son: Hipótesis nula: X e Y son independientes. no debe incluir valores muy bajos. .

El número total de observaciones lo podemos obtener como la suma de todas las frecuencias observadas o.j) (Oij) La tabla siguiente. son nuestra estima de la función de probabilidad de X multiplicada por el número total de observaciones. el número de veces que hemos obtenido un valor de X (xi) en cualquier combinación con distintos valores de Y.Por tanto.yj) o de grupos de valores (i. también. Las sumas de filas (Fi) son. todo lo que necesitamos serán unas estimas de las funciones de probabilidad de ambas variables por separado (f(x) y f(y)) y de la función de probabilidad conjunta (f(x. como la suma de las sumas de filas o de las sumas de columnas: Así pues. en cada caso. las sumas de columnas (Cj) son nuestra estima de la función de probabilidad de Y multiplicada por el número total de observaciones.y)) Empezaremos la prueba tomando una muestra de parejas de valores sobre la que contaremos la frecuencia absoluta con la que aparece cada combinación de valores (xi. es en realidad nuestra estimación de la función de probabilidad conjunta multiplicada por el número total de datos (T). análogamente. si las variables fueran independientes debería cumplirse que . en la que se recogen estos datos. es decir. Para obtener las estimas de las funciones de probabilidad marginales debemos sumar por filas y por columnas los valores de las frecuencias conjuntas.

Naturalmente. las diferencias entre las series de frecuencias observadas y esperadas serán mayores que las atribuibles al efecto del azar y. si las variables son independientes. nuestro problema consiste en distinguir entre las diferencias producidas por efecto del muestreo y diferencias que revelen falta de independencia. se puede calcular un parámetro que depende de ambas que tiene distribución chi-cuadrado. Nuevamente. el parámetro anterior ser el estadístico de la prueba de hipótesis y la región crítica se encontrar siempre en la cola derecha de la distribución chicuadrado. Oij debe ser igual a y. Podemos convertir la ecuación anterior a frecuencias absolutas multiplicando por T: y tanto. es decir. Estadístico de contraste . Por otra parte. si las variables no son independientes. si las frecuencias Eij son realmente los valores esperados de las frecuencias Oij. por bajo la hipótesis de independencia. al estar elevadas al cuadrado en el numerador de la expresión anterior. nadie espera que esta condición se cumpla exactamente debido al efecto de los errores de muestreo aleatorio. y Si X e Y son independientes. Por tanto. esperado de Oij (Eij) es el valor Tal como pasaba en la prueba anterior. Por tanto. esta prueba será siempre de una sola cola. ésta tenderá a ser mayor que lo que suele ser el valor de una variable chi-cuadrado.

En resumen. que. En cuanto a la magnitud mínima necesaria de las frecuencias observadas y esperadas. los grados de libertad no deben calcularse hasta que no se hayan realizado todas las agrupaciones necesarias y quede claro cual es el número de filas y columnas de la tabla definitiva. es decir. habitualmente. el percentil 1 ± chi-cuadrado con grados de libertad.1 de las sumas de columnas. para calcular las frecuencias esperadas. Como hemos visto. debemos unir columnas o filas completas (y contiguas). necesitaremos calcular. la restante podemos obtenerla restando la suma de las anteriores del total de observaciones (T). En este caso.Se acepta la hipótesis nula si . . información contingente.  A continuación. a partir de las frecuencias observadas J . el número de grados de libertad de la prueba es el producto del número de filas menos uno por el número de columnas menos uno. yj tengamos (I J)  A este número tendremos que restarle I debido a que. nos veremos obligados a colocar nuestra hipótesis en la hipótesis nula. rigen las mismas normas que en el caso de la prueba de ajuste. Conocidas las sumas de filas obtenemos el número total de observaciones sin perder ningún grado de libertad. se le llama chi-cuadrado de contingencia. habitualmente. El número de grados de libertad de la chi-cuadrado que sirve de contraste se calcula de la siguiente forma:  A priori tendremos tantos grados de libertad como combinaciones de valores xi. Obviamente. necesitamos calcular las I sumas de filas en la tabla anterior. es decir. de la distribución Tal como ocurría en la prueba anterior lo corriente es que queramos demostrar que dos variables son independientes. si nos viéramos obligados a juntar valores para sumar frecuencias. esta prueba no hace ninguna suposición acerca del tipo de distribución de ninguna de las variables implicadas y utiliza únicamente información de la muestra. Esta es la razón por la que.

P. la probabilidad del suceso no-A en cada población i ser 1 . Si la clasificación de las observaciones en sucesos A y no-A fuera independiente de la clasificación en muestras. Supongamos que tenemos I poblaciones en las cuales las observaciones se pueden clasificar como A o no-A.Pi y la media de todas ellas valdrá 1 . la frecuencia relativa de A (y la de no-A) serían iguales en todos los casos y los valores esperados de las frecuencias absolutas se calcularían multiplicando la estima común de la frecuencia relativa global por el número de observaciones en cada muestra. Llamemos Pi a la probabilidad del suceso A en cada población i y P a la frecuencia media de A en el conjunto de las poblaciones. .Comparación múltiple de distintas proporciones o probabilidades Una aplicación concreta de la chi-cuadrado de independencia es la comparación múltiple de las distintas proporciones o probabilidades de un suceso en I poblaciones diferentes. Veamos como corresponden las hipótesis de una y otra prueba. Las hipótesis de la prueba serán: Hipótesis nula: Hipótesis alternativa: Si tomamos una muestra de tamaño ni en cada población y contamos en cada caso el número de sucesos A aparecidos en la muestra obtendríamos la siguiente tabla: Esta es una tabla típica a la que se puede aplicar la metodología de la prueba chicuadrado de independencia.

La estima global de la frecuencia de A se hallara dividiendo el número total de sucesos A por el número total de observaciones: lo cual no es otra cosa que el cociente entre la suma de la fila uno (F1) y el total de observaciones (T) Por tanto.i) será: La estima global de la frecuencia de no-A se hallara dividiendo el número total de sucesos no-A por el número total de observaciones: lo cual no es otra cosa que el cociente entre la suma de la fila dos (F2) y el total de observaciones (T) Por tanto.i) será: . el valor esperado de la frecuencia observada de no-A en la muestra i (Eno-A. el valor esperado de la frecuencia observada de A en la muestra i (EA.

la prueba de comparación múltiple de proporciones se realizar mediante una prueba de contingencia que nos dirá si las probabilidades son todas iguales o si. es decir. bien porque se trate de identificar diferencias entre las poblaciones de procedencia de las distintas muestras. Los grados de libertad serán siempre: Prueba de homogeneidad de muestras Otra de las aplicaciones interesantes de la prueba chi-cuadrado de independencia consiste en la comprobación de la homogeneidad de distintas muestras de una variable. tal como indica el procedimiento estándar de la prueba de contingencia. existe una que sea diferente de las demás. Las frecuencias observadas serán las de la tabla siguiente. Hipótesis alternativa: La clasificación en sucesos no es independiente de la clasificación en poblaciones. en la que Fi es la frecuencia absoluta total del valor xi y T es el número total de observaciones . En resumen. al menos. En definitiva: Hipótesis nula: La clasificación en sucesos es independiente de la clasificación en poblaciones. bien para utilizarlas conjuntamente. Supongamos que hemos obtenido J muestras de tamaño nj de una misma variable aleatoria (X) y queremos comprobar si son homogéneas. los valores esperados se calcularían.Es decir. si la variable tiene la misma distribución de probabilidad en todas ellas. en pura lógica.

En este caso. Obviamente. La clasificación de las observaciones según los valores de la variable no es independiente de la clasificación en muestras. la prueba se realizar según la metodología habitual. Si las muestras son homogéneas. a la prueba chi-cuadrado de contingencia se le suele llamar chi-cuadrado de homogeneidad. las hipótesis de la prueba serán: Hipótesis nula: Las muestras son homogéneas La clasificación de las observaciones según los valores de la variable es independiente de la clasificación en muestras. se puede obtener una estima conjunta de la frecuencia de cada valor xi (Fi / T) y el valor esperado de la frecuencia absoluta de xi en cada muestra se calcular como el producto de dicha frecuencia por el tamaño de la muestra correspondiente Así pues.El razonamiento en este caso es idéntico al anterior. Hipótesis alternativa: Las muestras no son homogéneas. .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->