Variables aleatorias discretas y continuas

y

y

Variables aleatorias discretas o Distribución uniforme o Distribución binomial o Distribución multinomial o Distribución hipergeométrica o Distribución multihipergeométrica o Distribución de poisson Variables aleatorias continuas o Distribución normal o de Gauss o Distribución Gamma ( ) o Distribución exponencial o Distribución Chi-cuadrado o Distribución T de Student o Distribución F de Snedecor POBLACIÓN Y MUESTRA

Variables aleatorias discretas
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser finito. Si la variable tiene k posibles valores, su función de probabilidad sería:

donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la función de probabilidad o densidad de una variable aleatoria) La media y la varianza de la variable uniforme se calculan por las expresiones:

El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme se le suele llamar distribución rectangular.

Distribución binomial
La distribución binomial es típica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1) El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo. 2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso. 3) La probabilidad del Ãéxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q 4) Las pruebas son estadísticamente independientes,

En estas condiciones, la variable aleatoria X que cuenta el número de Ãéxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento. La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el número de pruebas y p la probabilidad del Ãéxito. n y p son los parámetros de la distribución.

La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia

La media y la varianza de la variable binomial se calculan como: Media = =np

Varianza =

2

=npq

Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el caso en que n = 4:

Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes. Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:

Por tanto. las pruebas no son independientes entre sí. pK y n. la probabilidad de un Ãéxito variar muy poco de una prueba a otra. es . La función de probabilidad de la variable hipergeométrica es: Los parámetros de la distribución son n... con relación a N (n << N).K como fracasos.. así pues. de un conjunto finito de N objetos. X cuenta el número de Ãéxitos obtenidos en la muestra.. la probabilidad del Ãéxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Los valores de la media y la varianza se calculan según las ecuaciones: Si n es pequeño. en este caso. sin reemplazamiento. la variable.Los parámetros de la distribución son p1. 2) K de los N objetos se pueden clasificar como Ãéxitos y N . N y K. En este caso. El espacio muestral es el conjunto de los números enteros de 0 a n. Distribución hipergeométrica Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones: 1) Se toma una muestra de tamaño n. ó de 0 a K si K < n.

el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n << N. mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial = 0. así pues. AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1..esencialmente binomial. x2. en esta situación... la probabilidades se calculan más cómodamente aproximando por las ecuaciones de una binomial con p = K / N. El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo. A2... xR) .. N suele ser muy grande y los números combinatorios se vuelven prácticamente inmanejables. La media de la variable aproximada ( = n p = n (K / N)) es la misma que la de la variable antes de la aproximación. sin embargo.. la varianza de la variable binomial es ligeramente superior a la de la hipergeométrica.25 y n = 4) Distribución multihipergeométrica Este variable se define igual que la hipergeométrica con la única diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1..

La función de probabilidad de una variable Poisson es: El parámetro de la distribución es de la variable. El experimento que la genera debe cumplir las siguientes condiciones: 1. 3. 2. objetos de un tipo determinado) que ocurren en una región del espacio o del tiempo. La probabilidad de encontrar uno o más Ãéxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio. La función de probabilidad es: Distribución de poisson Una variable de tipo poisson cuenta Ãéxitos (es decir.Esta situación es análoga a la planteada en el caso de la distribución multinomial. las variables Poisson típicas son variables en las que se cuentan sucesos raros. El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior. que es igual a la media y a la varianza . Como consecuencia de estas condiciones. La probabilidad de un Ãéxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él.

se utiliza una aproximación a través de una variable Poisson con media l = n p. Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias. La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.5 (arriba a la derecha) y = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al crecer y que.5 (arriba a la izquierda). . por tanto. Como ejemplo. = 1. siendo np constante (y menor que 7). El aspecto de la distribución depende muchísimo de la magnitud de la media. en paralelo. en esta situación sería difícil calcular probabilidades en una variable binomial y. La distribución de Poisson se puede considerar como el límite al que tiende la distribución binomial cuando n tiende a y p tiende a 0. la gráfica empieza a tener un aspecto acampanado.Esta característica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definición. mostramos tres casos con = 0.

Una variable es normal cuando se ajusta a la ley de los grandes números. cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. Como consecuencia. . Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss. Su función de densidad es la siguiente: Los parámetros de la distribución son la media y la desviación típica. respectivamente. media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal. en una variable normal. y .Variables aleatorias continuas Distribución normal o de Gauss La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística. es decir.

La curva normal cumple las siguientes propiedades: 1) El máximo de la curva coincide con la media. 3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas. . 4) Sus colas son asintóticas al eje X. 2) Es perfectamente simétrica respecto a la media (g1 = 0).

consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese. X. por desgracia (o por suerte). Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada ( . la función de densidad normal no tiene primitiva. La equivalencia entre ambas variables se obtiene mediante la ecuación: La función de distribución de la variable normal tipificada está tabulada y. De forma análoga a lo pasaba con las variables Poisson. Histograma de una normal idealizada Histograma de una muestra de una variable normal .Para calcular probabilidades en intervalos de valores de la variable. valor) y el asunto tendría una complejidad enorme. es decir. simplemente. cualquier que sea la variable normal. no se puede integrar. la suma de variables normales independientes es otra normal. Afortunadamente. habría que integrar la función de densidad entre los extremos del intervalo. . media 0 y varianza 1. se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal. a la que se llama variable normal tipificada o Z.

La media y la varianza de la variable gamma son: . cuya ecuación es: La función de densidad de la distribución gamma es: y son los parámetros de la distribución.Distribución Gamma ( ) La distribución gamma se define a partir de la función gamma.

Su función Su parámetro es . La media y la varianza de la distribución exponencial son: .Distribución exponencial Es un caso particular de la distribución gamma cuando de densidad es: = 1.

Distribución Chi-cuadrado .

.. . con media i y varianza (i = 1 .G Es otro caso particular de la distribución gamma para el caso / 2.. respectivamente: Otra forma de definir la distribución G es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes.. Su función de densidad es: =2y =n El parámetro de la distribución G es R y su media y su varianza son. siendo n un número natural. X1.. la variable definida como tiene distribución G con n grados de libertad y se le denomina Gn. n). Xn..

La función de densidad de la distribución t es: . una normal tipificada. Z .Variables chi-cuadrado con valores de progresivamente mayores son cada vez menos asimétricas. y otra con distribución G con R grados de libertad. Distribución T de Student Supongamos dos variables aleatorias independientes. la variable definida según la ecuación: tiene distribución t con R grados de libertad.

. por tanto. Variables T con valores de R progresivamente mayores son cada vez menos platicúrticas . t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30. Es similar a la distribución Z salvo que es platicúrtica y. más aplanada. su número de grados de libertad.El parámetro de la distribución t es R. Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X. Cuando n tiende a infinito.

La variable definida según la ecuación: tiene distribución F con R1. respectivamente. R2 grados de libertad. La función de densidad de la distribución F es: .Comparación entre la variable T y la normal tipificado. Distribución F de Snedecor Sean U y V dos variables aleatorias independientes con distribución G con R1 y R2 grados de libertad.

Ambos valores están relacionados de modo que uno es el inverso del otro.R2 al valor de una distribución F con R1 y R2 grados de libertad que cumple la condición.R2) = 1.. Variables F con distintos valores de 1.R2) = . P(F > fER1. 2 . Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente: Llamemos fER1.Los parámetros de la variable F son sus grados de libertad R1 y R2. P(F > fER1.R2 al valor de una distribución F con R1 y R2 grados de libertad que cumple la condición. llamemos fER1.

POBLACIÓN Y MUESTRA y y y La muestra aleatoria Parámetros y estadísticos o Estadísticos de centralidad:  La media aritmética  La mediana  La moda  Los cuantiles o percentiles o Estadísticos de dispersión:  El rango  La varianza  La desviación típica  Coeficiente de variación Pruebas chi-cuadrado de ajuste e independencia o Chi-cuadrado de ajuste o Chi-cuadrado de contingencia o independencia  Comparación múltiple de distintas proporciones o probabilidades  Prueba de homogeneidad de muestras La muestra aleatoria .

en el caso de poblaciones muy grandes o infinitas será muy difícil o imposible realizar un estudio total. En este caso necesitaremos tomar una muestra y nos surgirá el problema de cómo hacer para que la muestra nos diga algo sobre el conjunto de la población. cuando es posible. La única forma de tener cierta garantía de que esto ocurra es tomar nuestra muestra de forma que cada individuo de la población y cada subgrupo posible de la población tengan igual probabilidad de ser elegidos. siendo cada posible observación un individuo. Una muestra aleatoria de tamaño n es un conjunto de n individuos tomado de tal manera que cada subconjunto de tamaño n de la población tenga la misma probabilidad de ser elegido como muestra. es decir. Está claro que si no conocemos la población no podemos saber si la muestra es representativa o no. se denomina a las poblaciones con el nombre de la distribución de la variable. lo cual sólo ocurre en las poblaciones finitas y razonablemente pequeñas. Se llama tamaño de la población al número de individuos que la componen. cada una de las combinaciones posibles de n elementos debe ser equiprobable. es decir. si la población tiene tamaño N. la otra consiste en estudiar sólo una parte de ellos. etc. Cada observación en una población es un valor de una variable aleatoria X con una función de probabilidad o densidad determinada f(x) Normalmente. hablaremos de poblaciones normales. elegidos de tal forma que nos digan algo sobre la totalidad de las observaciones de la población.Una población en estadística es el conjunto de todas las observaciones en las que estamos interesados. A este tipo de muestras se les llama muestras aleatorias o muestras al azar. La condición más obvia que se le puede pedir a una muestra es que sea representativa de la población. así pues. una muestra. Para estudiar una población existen dos posibilidades. El mejor método ser el primero. binomiales. las poblaciones pueden ser finitas e infinitas. . Una de ellas consiste en estudiar todos sus elementos y sacar conclusiones.

Los sistemas de muestreo se basan normalmente en la asignación de un número a cada uno de los individuos de la población y la posterior obtención de una muestra de n números aleatorios que se obtendrá por sorteo utilizando bolas numeradas. que se ordenan. ordenadores. que no correspondan con ninguna clasificación relacionada con el problema en estudio. Este tipo de muestra se denomina muestra al azar sistemático. Por sorteo se elige un elemento del primer grupo y a continuación los elementos correspondientes de los demás grupos. Si la población está subdividida en grupos podemos tomar otro tipo de muestra en la que cada grupo de la población está representado por un porcentaje . etc Otra variante del muestreo es cuando se divide la población en n grupos.

A estas variables se les suele llamar estadísticos. Parámetros y estadísticos Parámetros poblacionales Se llama parámetros poblacionales a cantidades que se obtienen a partir de las observaciones de la variable y sus probabilidades y que determinan perfectamente la distribución de esta. multiplicando observaciones por frecuencias y sumando. Los Parámetros muestrales no son constantes sino variables aleatorias pues sus valores dependen de la estructura de la muestra que no es siempre la misma como consecuencia del muestreo aleatorio. Los estadísticos se transforman en dos tipos: estadísticos de centralidad y estadísticos de dispersión. la proporción de determinados sucesos.de individuos igual al porcentaje de individuos de la población integrados en ese grupo. por ejemplo: La media. . es decir. así como las características de la población. Este tipo se llama muestra al azar estratificado. . Los Parámetros poblacionales son números reales. Parámetros muestrales Los Parámetros muestrales son resúmenes de la información de la muestra que nos "determinan" la estructura de la muestra. P. la varianza 2. Estadísticos de centralidad: Son medidas de la tendencia central de la variable. constantes y únicos. los más conocidos son: 1) La media aritmética Es el valor esperado de las observaciones de la muestra calculado como si la muestra fuera una variable completa.

por el teorema central del límite la distribución de la media será asintóticamente normal. la distribución de la media es normal. La media de la media aritmética es igual a la de las observaciones ( ) y su varianza es igual a la de las observaciones partida por n. En poblaciones normales. . Si la población no es normal. esto. Engloba en ella toda la información de la muestra. en muestras pequeñas afectan mucho a la media. xn representan una muestra de tamaño n de la población.. x2.. pero la muestra es grande (n • 30). con ser una ventaja.Si x1. la media aritmética se calcula como: La media aritmética es la medida de la tendencia central que posee menor varianza. supone una cierta desventaja pues los valores muy extremos..

Si n es impar.5. en una muestra la mediana es el valor central. podríamos decir que la mediana es el valor que es mayor o igual que el 50% de las observaciones de la muestra y menor o igual que el otro 50%. la mediana se define como la media de las dos observaciones centrales En resumen. la mediana es la observación central Si n es par. Para calcularla se ordenan las observaciones de menor a mayor. .2) La mediana En una variable se define como el punto para el cual la función de distribución alcance el valor 0.

En el caso de distribuciones muy asimétricas. 3) La moda Es el valor más frecuente. Su cálculo es el más simple de los tres correspondientes a estadísticos de centralidad pero la moda es el estadístico de mayor varianza. sin embargo tiene mayor varianza que X y sólo toma en cuenta la información de los valores centrales de la muestra. No tiene sentido en muestras pequeñas en las que la aparición de coincidencias en los valores es con gran frecuencia más producto del azar que de otra cosa. Es más fácil de calcular que la media aritmética y apenas se afecta por observaciones extremas. normalmente.No tiene por qué ser igual a una de las observaciones de la muestra. . sin estar clasificada en grupos claramente diferenciados. la mediana es. el valor de elección dado que la media suele estar desplazada respecto al núcleo principal de observaciones de la variable. normalmente. La moda puede no existir y cuando existe no es necesariamente única. La media es el estadístico de centralidad más usado cuando uno espera que la población tenga una distribución más o menos simétrica. la mediana es el valor que mejor expresa el punto donde se acumulan mayoritariamente las observaciones de la variable. En estos casos. de sentido y los valores que más claramente reflejan el comportamiento de las observaciones de la variable son las modas. con una cola muy larga. En el caso de poblaciones o muestras subdivididas en grupos claramente definidos la media y la mediana carecen.

es decir. El rango estima el campo de variación de la variable. Los cuantiles o percentiles Un percentil X. la máxima menos la mínima. o El primer cuartil es el valor que es mayor o igual que el 25% de las observaciones de la muestra y menor o igual que el 75%. Existe un tipo especial de cuantiles llamados cuartiles. entre dos valores de la variable. como máximo. Expresa cuantas unidades de diferencia podemos esperar. Los más importantes son: El rango Es la diferencia entre las dos observaciones extremas. El segundo cuartil es la mediana. Se afecta mucho por observaciones extremas y utiliza únicamente una pequeña parte de la información. o o Estadísticos de dispersión Los estadísticos de dispersión son parámetros muestrales que expresan la dispersión de los valores de la variable respecto al punto central. es un valor de la distribución muestral o poblacional de la variable que es mayor o igual que el X% de las observaciones de la variable P(Y ” PX) = X%. PX.Otros estadísticos de centralidad son los cuantiles. Los cuartiles son tres valores que dividen la distribución en cuatro partes equivalentes porcentualmente. su posición relativa. El tercer cuartil es mayor o igual que el 75% de las observaciones de la muestra y menor o igual que el 25%. .

nos referiremos a la segunda. en adelante. Por tanto. Normalmente. esencialmente igual que la anterior salvo que el denominador está disminuido en una unidad. para muchos propósitos se utiliza otro estadístico de dispersión que la desviación típica.La varianza Es la desviación cuadrática media de las observaciones a la media muestral. Por ello. utiliza toda la información de la muestra. Si la población de la que procede la muestra es normal: con n-1 grados de libertad. Es el estadístico de dispersión más usado por las propiedades de su distribución. No obstante esta expresión de cálculo de la varianza muestral no se utiliza mucho pues sus valores tienden a ser menores que el de la auténtica varianza de la variable (debido a que la propia media muestral tiene una varianza que vale un enésimo de la de las observaciones) Para compensar esta deficiencia y obtener valores que no subestimen la varianza poblacional (cuando estamos interesados en ella y no en la varianza muestral) utilizaremos una expresión. salvo indicación expresa. cuando hablemos de varianza muestral. estaremos interesados en saber cosas acerca de la varianza poblacional y no de la varianza muestral. Además. Su mayor inconveniente consiste en que se expresa en unidades cuadráticas. . Su concepto es análogo al de la varianza poblacional.

Permite comparar muestras de variables de distinta naturaleza o muestras de la misma variable en poblaciones en las que el orden de magnitud de las observaciones sea muy diferente. Su concepto es análogo al de la desviación típica poblacional. la equivalente a aquella de "la media de los cuadrados menos el cuadrado de la media". alternativamente. habitualmente. Por ello. se suele utilizar una ecuación que deriva directamente de la anterior: o. el cálculo de la varianza puede ser complicado porque.Si no disponemos de una calculadora. los valores de las desviaciones de las observaciones a la media resultan ser números con varias cifras decimales. La desviación típica Es la raíz cuadrada positiva de la varianza y. sin dimensiones. Coeficiente de variación Es el cociente entre la desviación típica y la media aritmética muestrales y expresa la variabilidad de la variable en tanto por uno. por tanto. se expresa en las unidades de medida de la variable. .

en función de: La propia definición de la variable. b) Cuando queremos averiguar si dos variables (o dos vías de clasificación) son independientes estadísticamente. . El tipo de distribución se determina. cuya descripción parece adecuada. La prueba correspondiente se llama chi-cuadrado de ajuste. consideraciones teóricas al margen de esta y/o evidencia aportada por datos anteriores al experimento actual. Se aplican en dos situaciones básicas: a) Cuando queremos comprobar si una variable. según los casos. Estas pruebas no pertenecen propiamente a la estadística paramétrica pues no establecen suposiciones restrictivas en cuanto al tipo de variables que admiten.Pruebas chi-cuadrado de ajuste e independencia Las pruebas chi-cuadrado son un grupo de contrastes de hipótesis que sirven para comprobar afirmaciones acerca de las funciones de probabilidad (o densidad) de una o dos variables aleatorias. En este caso la prueba que aplicaremos ser la chi-cuadrado de independencia o chi-cuadrado de contingencia. Chi-cuadrado de ajuste En una prueba de ajuste la hipótesis nula establece que una variable X tiene una cierta distribución de probabilidad con unos determinados valores de los parámetros. tiene una determinada función de probabilidad. ni en lo que refiere a su distribución de probabilidad ni en los valores y/o el conocimiento de sus parámetros.

Así pues. empezaremos definiendo las hipótesis. si la variable es continua o si es una discreta con muchos o infinitos valores estimaremos probabilidades de grupos de valores (intervalos).. necesitaremos una muestra de valores de la variable X. una vez calculadas las frecuencias absolutas de cada valor o intervalo de valores. por ejemplo. obtendremos el número total de observaciones de la muestra (T) sumando las frecuencias observadas Para calcular las frecuencias esperadas repartiremos este número total de observaciones (T) en partes proporcionales a la probabilidad de cada suceso o grupo de sucesos. si esto no fuera así dichos parámetros se estimarán a partir de la muestra de valores de la variable que utilizaremos para realizar la prueba de ajuste. Para ello calcularemos dichas probabilidades utilizando la .. la prueba se basa en la comparación entre la serie de frecuencias absolutas observadas empíricamente para los valores de la variable (Oi) y las correspondientes frecuencias absolutas teóricas obtenidas en base a la función de probabilidad supuesta en la hipótesis nula (Ei). yp Hipótesis alternativa: X tiene cualquier otra distribución de probabilidad.. Como en casos anteriores. Si la variable es discreta y tiene pocos valores posible estimaremos las probabilidades de dichos valores mediante sus frecuencias muestrales.. Es importante destacar que el rechazo de la hipótesis nula no implica que sean falsos todos sus aspectos sino únicamente el conjunto de ellos. podría ocurrir que el tipo de distribución fuera correcto pero que nos hubiésemos equivocado en los valores de los parámetros. Obviamente.A menudo. Metodológicamente. la propia definición del tipo de variable lleva implícitos los valores de sus parámetros o de parte de ellos. Hipótesis nula: X tiene distribución de probabilidad f(x) con parámetros y1.

al efecto del azar.. realmente..... la suma de cocientes ser positiva y mayor que lo que se esperaría para los valores de una chi-cuadrado. En estas condiciones. xk Frecuencias observadas O1 O2 O3 .. el parámetro anterior será el estadístico de contraste de la prueba de hipótesis y la región crítica se encontrar siempre en la cola derecha de la . por estar elevadas al cuadrado. cada valor Ei tendrá la siguiente expresión: Por tanto. las diferencias entre valores observados y esperados (que siempre existirán por tratarse de una muestra aleatoria) son atribuibles.. cuya distribución se ajusta a una chi-cuadrado.. Oi .función de probabilidad definida en la hipótesis nula f(x).. por tanto. de modo que. tendremos los siguientes datos para la prueba: Valor de la variable x1 x2 x3 . Ei . Ok Frecuencias esperadas E1 E2 E3 . xi ... la hipótesis nula fuera falsa los Ei ya no serían. las diferencias de los numeradores de la expresión anterior tienden a ser más grandes y. exclusivamente. Por tanto. Si. las diferencias entre los valores "esperados" y los observados reflejarían no sólo el efecto del azar sino también las diferencias entre los Ei y la auténtica serie de valores esperados (desconocida) Como consecuencia. Ek Si la hipótesis nula es cierta. se puede calcular un parámetro que depende de ambos. los valores esperados de las frecuencias. por el contrario..

es decir. no sólo por razones prácticas. En un extremo de máxima rigidez se encuentran aquellos que opinan que no se puede realizar la prueba cuando alguna de las frecuencias. En el otro extremo se encuentran quienes opinan que. de la distribución Cabe señalar que en las pruebas chi-cuadrado lo corriente es que pretendamos comprobar que una variable tiene una cierta distribución y.distribución chi-cuadrado. La autora de este texto simpatiza más con la segunda postura. Evidentemente. El número de grados de libertad de la variable chi-cuadrado se calcula de la siguiente forma:  A priori. como mínimo. por tanto. uno ya que siempre tendremos que calcular el número total de observaciones de la muestra. nos vemos obligados a colocar nuestra propia hipótesis en la hipótesis nula. el número de parámetros que es necesario calcular directamente a partir de los valores observados para establecer los valores esperados. habitualmente. Una condición básica para que podamos llevar a cabo una prueba chicuadrado es que las frecuencias de las distintas clases deben ser suficientemente altas como para garantizar que pequeñas desviaciones aleatorias en la muestra no tengan importancia decisiva sobre el valor del estadístico de contraste. Estadístico de contraste Se acepta la hipótesis nula si . Las reglas que determinan cuando es posible o no realizar el contraste varían mucho de unos autores a otros. esta prueba será siempre de una sola cola. Únicamente podremos colocar nuestra hipótesis en la alternativa en el caso excepcional de que pretendamos demostrar que cierto tratamiento produce una distorsión de la distribución básica de la variable en estudio. tendrá tantos grados de libertad como parejas frecuencia observada . el percentil 1 ± chi-cuadrado con grados de libertad. Este número es.  A esta cantidad se debe restar el número de restricciones lineales impuestas a las frecuencias observadas. sino porque lo razonable es que la distribución esperada esté . observadas o esperadas. sea menor que 5. en lo que refiere a las frecuencias observadas no existirían límites.frecuencia esperada. para que la prueba sea viable ninguna de las frecuencias esperadas debe ser menor que 1 y no más del 25% pueden ser menores que 5.

Este procedimiento no puede llevarse hasta el absurdo pero proporciona una salida digna a situaciones complejas. los grados de libertad no se deben calcular hasta que tengamos establecidas definitivamente las parejas de frecuencias observadas y esperadas con las que calcularemos el estadístico de contraste. La condición de independencia. sin embargo. X e Y.adecuadamente definida y. Cuando sea necesario agrupar valores. simultáneamente. no debe incluir valores muy bajos. Hipótesis alternativa: X e Y no son independientes (No importa cual sea la relación que mantengan ni el grado de esta. los valores extremos en la distribución observada simplemente reflejan diferencias importantes entre la distribución supuesta por la hipótesis nula y la real. . En casos excepcionales se pueden englobar valores que no sean vecinos porque exista algún nexo lógico de conexión entre ellos. Sea cual sea el criterio que elijamos. Las hipótesis contrastadas en la prueba son: Hipótesis nula: X e Y son independientes. es igual al producto de las probabilidades de que cada una tome el valor correspondiente. tal como fue definida en la página anterior era: X e Y son independientes si y sólo si para cualquier pareja de valores x e y la probabilidad de que X tome el valor x e Y el valor y. si resultara que la prueba no es viable podríamos recurrir a englobar los valores o clases de valores con sus vecinos más próximos y pasar así a engrosar sus frecuencias. por tanto. Chi-cuadrado de contingencia o independencia La prueba chi-cuadrado de contingencia sirve para comprobar la independencia de frecuencias entre dos variables aleatorias.

j) (Oij) La tabla siguiente. el número de veces que hemos obtenido un valor de X (xi) en cualquier combinación con distintos valores de Y. en la que se recogen estos datos. en cada caso. análogamente. las sumas de columnas (Cj) son nuestra estima de la función de probabilidad de Y multiplicada por el número total de observaciones.yj) o de grupos de valores (i. es decir. también. si las variables fueran independientes debería cumplirse que . todo lo que necesitamos serán unas estimas de las funciones de probabilidad de ambas variables por separado (f(x) y f(y)) y de la función de probabilidad conjunta (f(x. Para obtener las estimas de las funciones de probabilidad marginales debemos sumar por filas y por columnas los valores de las frecuencias conjuntas. como la suma de las sumas de filas o de las sumas de columnas: Así pues. es en realidad nuestra estimación de la función de probabilidad conjunta multiplicada por el número total de datos (T). son nuestra estima de la función de probabilidad de X multiplicada por el número total de observaciones. El número total de observaciones lo podemos obtener como la suma de todas las frecuencias observadas o.y)) Empezaremos la prueba tomando una muestra de parejas de valores sobre la que contaremos la frecuencia absoluta con la que aparece cada combinación de valores (xi.Por tanto. Las sumas de filas (Fi) son.

se puede calcular un parámetro que depende de ambas que tiene distribución chi-cuadrado. y Si X e Y son independientes. si las frecuencias Eij son realmente los valores esperados de las frecuencias Oij. al estar elevadas al cuadrado en el numerador de la expresión anterior. el parámetro anterior ser el estadístico de la prueba de hipótesis y la región crítica se encontrar siempre en la cola derecha de la distribución chicuadrado. Por otra parte. Estadístico de contraste . Oij debe ser igual a y. Por tanto. por bajo la hipótesis de independencia. es decir. nadie espera que esta condición se cumpla exactamente debido al efecto de los errores de muestreo aleatorio. las diferencias entre las series de frecuencias observadas y esperadas serán mayores que las atribuibles al efecto del azar y. si las variables no son independientes. Por tanto.Naturalmente. nuestro problema consiste en distinguir entre las diferencias producidas por efecto del muestreo y diferencias que revelen falta de independencia. esperado de Oij (Eij) es el valor Tal como pasaba en la prueba anterior. Nuevamente. si las variables son independientes. Podemos convertir la ecuación anterior a frecuencias absolutas multiplicando por T: y tanto. esta prueba será siempre de una sola cola. ésta tenderá a ser mayor que lo que suele ser el valor de una variable chi-cuadrado.

para calcular las frecuencias esperadas. Como hemos visto. debemos unir columnas o filas completas (y contiguas). información contingente. . el percentil 1 ± chi-cuadrado con grados de libertad. esta prueba no hace ninguna suposición acerca del tipo de distribución de ninguna de las variables implicadas y utiliza únicamente información de la muestra. Obviamente.1 de las sumas de columnas. habitualmente. a partir de las frecuencias observadas J .  A continuación. necesitamos calcular las I sumas de filas en la tabla anterior. Esta es la razón por la que. es decir. En este caso.Se acepta la hipótesis nula si . se le llama chi-cuadrado de contingencia. En cuanto a la magnitud mínima necesaria de las frecuencias observadas y esperadas. es decir. Conocidas las sumas de filas obtenemos el número total de observaciones sin perder ningún grado de libertad. si nos viéramos obligados a juntar valores para sumar frecuencias. yj tengamos (I J)  A este número tendremos que restarle I debido a que. El número de grados de libertad de la chi-cuadrado que sirve de contraste se calcula de la siguiente forma:  A priori tendremos tantos grados de libertad como combinaciones de valores xi. habitualmente. En resumen. la restante podemos obtenerla restando la suma de las anteriores del total de observaciones (T). rigen las mismas normas que en el caso de la prueba de ajuste. que. de la distribución Tal como ocurría en la prueba anterior lo corriente es que queramos demostrar que dos variables son independientes. nos veremos obligados a colocar nuestra hipótesis en la hipótesis nula. necesitaremos calcular. los grados de libertad no deben calcularse hasta que no se hayan realizado todas las agrupaciones necesarias y quede claro cual es el número de filas y columnas de la tabla definitiva. el número de grados de libertad de la prueba es el producto del número de filas menos uno por el número de columnas menos uno.

Llamemos Pi a la probabilidad del suceso A en cada población i y P a la frecuencia media de A en el conjunto de las poblaciones. Supongamos que tenemos I poblaciones en las cuales las observaciones se pueden clasificar como A o no-A. la frecuencia relativa de A (y la de no-A) serían iguales en todos los casos y los valores esperados de las frecuencias absolutas se calcularían multiplicando la estima común de la frecuencia relativa global por el número de observaciones en cada muestra. Veamos como corresponden las hipótesis de una y otra prueba.P.Pi y la media de todas ellas valdrá 1 . la probabilidad del suceso no-A en cada población i ser 1 . Si la clasificación de las observaciones en sucesos A y no-A fuera independiente de la clasificación en muestras.Comparación múltiple de distintas proporciones o probabilidades Una aplicación concreta de la chi-cuadrado de independencia es la comparación múltiple de las distintas proporciones o probabilidades de un suceso en I poblaciones diferentes. Las hipótesis de la prueba serán: Hipótesis nula: Hipótesis alternativa: Si tomamos una muestra de tamaño ni en cada población y contamos en cada caso el número de sucesos A aparecidos en la muestra obtendríamos la siguiente tabla: Esta es una tabla típica a la que se puede aplicar la metodología de la prueba chicuadrado de independencia. .

el valor esperado de la frecuencia observada de A en la muestra i (EA.La estima global de la frecuencia de A se hallara dividiendo el número total de sucesos A por el número total de observaciones: lo cual no es otra cosa que el cociente entre la suma de la fila uno (F1) y el total de observaciones (T) Por tanto.i) será: . el valor esperado de la frecuencia observada de no-A en la muestra i (Eno-A.i) será: La estima global de la frecuencia de no-A se hallara dividiendo el número total de sucesos no-A por el número total de observaciones: lo cual no es otra cosa que el cociente entre la suma de la fila dos (F2) y el total de observaciones (T) Por tanto.

bien porque se trate de identificar diferencias entre las poblaciones de procedencia de las distintas muestras. bien para utilizarlas conjuntamente. Supongamos que hemos obtenido J muestras de tamaño nj de una misma variable aleatoria (X) y queremos comprobar si son homogéneas. en la que Fi es la frecuencia absoluta total del valor xi y T es el número total de observaciones . tal como indica el procedimiento estándar de la prueba de contingencia. al menos. Las frecuencias observadas serán las de la tabla siguiente. En resumen. si la variable tiene la misma distribución de probabilidad en todas ellas. es decir. En definitiva: Hipótesis nula: La clasificación en sucesos es independiente de la clasificación en poblaciones. Los grados de libertad serán siempre: Prueba de homogeneidad de muestras Otra de las aplicaciones interesantes de la prueba chi-cuadrado de independencia consiste en la comprobación de la homogeneidad de distintas muestras de una variable. Hipótesis alternativa: La clasificación en sucesos no es independiente de la clasificación en poblaciones. existe una que sea diferente de las demás. en pura lógica. la prueba de comparación múltiple de proporciones se realizar mediante una prueba de contingencia que nos dirá si las probabilidades son todas iguales o si. los valores esperados se calcularían.Es decir.

se puede obtener una estima conjunta de la frecuencia de cada valor xi (Fi / T) y el valor esperado de la frecuencia absoluta de xi en cada muestra se calcular como el producto de dicha frecuencia por el tamaño de la muestra correspondiente Así pues. Si las muestras son homogéneas. las hipótesis de la prueba serán: Hipótesis nula: Las muestras son homogéneas La clasificación de las observaciones según los valores de la variable es independiente de la clasificación en muestras. Hipótesis alternativa: Las muestras no son homogéneas. Obviamente. En este caso.El razonamiento en este caso es idéntico al anterior. a la prueba chi-cuadrado de contingencia se le suele llamar chi-cuadrado de homogeneidad. La clasificación de las observaciones según los valores de la variable no es independiente de la clasificación en muestras. . la prueba se realizar según la metodología habitual.

Sign up to vote on this title
UsefulNot useful