Está en la página 1de 10

Espacio muestral

En la teoría de probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, Ω o U)

consiste en el conjunto de todos los posibles resultados de un experimento aleatorio, junto con

una estructura sobre el mismo (ver más adelante).

Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio muestral es el

conjunto {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier

subconjunto del espacio muestral con estructura de σ-álgebra,1 llamándose a los sucesos que

contengan un único elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el

primer lanzamiento", o {(cara, cara), (cara, cruz)}, estaría formado por los sucesos elementales

{(cara, cara)} y {(cara, cruz)}.

Para algunos tipos de experimento puede haber dos o más espacios de muestreo posibles. Por

ejemplo, cuando se toma una carta de un mazo normal de 52 cartas, una posibilidad del espacio

de muestreo podría ser el número (del as al rey), mientras que otra posibilidad sería el palo

(diamantes, tréboles, corazones y picas). Una descripción completa de los resultados, sin

embargo, especificaría ambos valores, número y palo, y se podría construir un espacio de

muestreo que describiese cada carta individual como el producto cartesiano de los dos espacios

de muestreo descritos.

Los espacios de muestreo aparecen de forma natural en una aproximación elemental a

la probabilidad, pero son también importantes en espacios de probabilidad. Un espacio de

probabilidad (Ω, F, P) incorpora un espacio de muestreo de resultados, Ω, pero define un

conjunto de sucesos de interés, la σ-álgebra F, por la cual se define la medida de probabilidad P.


Métodos de enumeración, probabilidad. Teoría axiomática de la probabilidad.

Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una

función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades.

Fueron formulados por Kolmogórov en 1933.

TEORIA AXIOMATICA DE LA PROBABILIDAD

Que ocurra un suceso futuro. Es el estudio de experimentos aleatorios o libres de

determinación. Probabilidad de un suceso es la razón entre el número de casos favorables

y el número total de casos posibles, siempre que nada obligue a creer que alguno de estos casos

debe tener lugar de preferencia a los demás, lo que hace que todos sean, para nosotros,

igualmente posibles. Esta es la llamada definición clásica, el tratamiento moderno de la teoría

de la probabilidad es puramente axiomático. Esto significa que las probabilidades de nuestros

eventos pueden ser perfectamente arbitrarias, excepto que ellas deben satisfacer ciertos axiomas

que se enuncian posteriormente.

En 1654, Antoine Chevalier de Méré, quién tenía un particular interés por los juegos de azar,

planteó a Blaise Pascal y a Pierre de Ferrmat, un dilema sobre un juego que consistía en lanzar

un par de dados 24 veces. El problema consistía en decidir si apostar o no a que durante los 24
lanzamientos ocurrirían al menos un par de seises. De las discusiones entre Pierre de Fermat y

Blaise Pascal surgieron los principios fundamentales de Teoría de Probabilidad planteados por

primera vez, no obstante que en los siglos XV y XVI algunos italianos y alemanes habían

discutido la cuestión en algunos problemas de juegos.

DISTRIBUCIONES DE PROBABILIDAD

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable

aleatoria es una función que asigna a cada suceso definido sobre la variable la probabilidad de

que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos

los sucesos y cada uno de los sucesos es el rango de valores de la variable aleatoria. También

puede decirse que tiene una relación estrecha con las distribuciones de frecuencia. De hecho, una

distribución de probabilidades puede comprenderse como una frecuencia teórica, ya que describe

cómo se espera que varíen los resultados.

La distribución de probabilidad está completamente especificada por la función de distribución,

cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.
Intervalos de confianza

El intervalo de confianza describe la variabilidad entre la medida obtenida en un estudio y la

medida real de la población (el valor real). Corresponde a un rango de valores, cuya distribución

es normal y en el cual se encuentra, con alta probabilidad, el valor real de una determinada

variable. Esta «alta probabilidad» se ha establecido por consenso en 95%. Así, un intervalo de

confianza de 95% nos indica que dentro del rango dado se encuentra el valor real de un

parámetro con 95% de certeza5-8.

Para comprender y hacer intuitivo el concepto de intervalo de confianza utilizaremos un ejemplo

clásico6:

Supongamos que tenemos una moneda, la cual puede o no estar balanceada. Así, después de

varios lanzamientos, la probabilidad que el resultado sea sello variará desde 0 (todas las veces

cara, es decir, una moneda balanceada) hasta 1 (todas las veces sello, nuevamente balanceada),

pasando por 0,5 (la mitad de las veces sello y las otras cara, lo que equivale a una moneda no

balanceada). Como no conocemos la verdadera naturaleza de la moneda, vamos a experimentar

con ella.

Iniciamos el experimento con 2 lanzamientos, uno es cara y el otro es sello. La probabilidad de

que el resultado sea sello fue 0,5, con lo que podríamos concluir que la moneda no está

balanceada, sin embargo, ¿con sólo 2 lanzamientos podemos concluir con total certeza que esa es

la naturaleza de la moneda? La respuesta es no, por lo tanto ¿cuál es el rango de valores donde se

encuentra el valor real? Dado que el azar pudo influir en este resultado, uno acepta que el rango
de valores reales posibles es amplio, incluso desde uno tan bajo como 0 a uno tan alto como 1,

por lo tanto aún no estamos seguros de la naturaleza de nuestra moneda.

Pruebas de hipótesis:

Prueba de Z, pruebas de T, prueba de F, prueba de Chi-cuadrado

DISTRIBUCIÓN Z

ESTIMACIÓN • La inferencia estadística, es el proceso que consiste en utilizar los resultados

de una muestra para llegar a conclusiones acerca de las características de una población. •

Existen dos tipos principales de estimación: • Estimación puntual: • Estimación de intervalo:

Estimación Puntual: • Consiste en una sola estadística de muestra que se utiliza para estimar el

valor verdadero de un parámetro de población. por ejemplo: La media de muestra X, es una

estimación puntual de la media poblacional µx. La varianza de muestra S2, es una estimación

puntual de la varianza de población ơ2x.


Estimación de Intervalo: El objetivo de la estimación es utilizar la distribución de muestreo para

desarrollar una estimación de intervalo de confianza para una media o para una proporción, y

determinar el tamaño de muestra necesario para obtener un intervalo de confianza deseado.

ESTIMACIÓN DE INTERVALO DE CONFIANZA DE LA MEDIA (ơx CONOCIDA).

Cuando una distribución en el muestreo de la media o de la proporción es normal, la

probabilidad de que las medias muestrales o proporciones estén dentro de la máxima ordenada

(y) y la ordenada en Z puede ser obtenida de la tabla de distribución normal.

NIVEL DE CONFIANZA. En términos generales el nivel de confianza se simboliza como (1 -

α) 100, en donde α, es la porción que se encuentra en los extremos de la distribución y que está

fuera del intervalo de confianza. por consiguiente, para obtener la estimación de intervalo de

confianza de (1 - α) 100 de la media, con desviación estándar conocida ơx, tenemos:

NIVEL DE CONFIANZA. X±Z ơ𝒙 √𝒏 ó X–Z ơ𝒙 √𝒏 ≤ µx ≤ X+Z ơ𝒙 √𝒏

En la que Z, es el valor correspondiente a un área (1-α)/2, desde el centro de una distribución

normal estandarizada. Así; para construir una estimación de intervalo de confianza de 95 %, el

valor Z correspondiente a un área de 0.95/2 = 0.4750 desde el centro de la distribución normal,

entonces Z = 1.96. El valor Z elegido para el intervalo de confianza se conoce como el valor

crítico de la distribución.

Curva normal para determinar el valor de Z necesario para un nivel de confianza del 95%.

Entonces podemos afirmar que tenemos 95% de confianza de que hemos seleccionado una

muestra cuyo intervalo incluye a la media de población. y solamente 5% de ellas no estarían

incluidas.
Curva normal para determinar el valor de Z necesario para un nivel de confianza del 99%. Si se

deseara un nivel de confianza de 99% entonces: 0.99 2 = 0.495, el valor Z = 2.58

Curva normal para determinar el valor de Z necesario para un nivel de confianza del 90%. En

otros casos podríamos estar dispuestos a aceptar una certeza menor, como 90% de haber

estimado correctamente la media de población. Entonces 0.90/2 = 0.4500, el valor Z = 1.645

ESTIMACIÓN DE INTERVALO DE CONFIANZA DE LA MEDIA (ơx DESCONOCIDA)

Puede parecer un tanto más extraño que se tenga la varianza de la población y no se conozca el

valor de la media de la población. De hecho, es común, que se desconozca tanto la varianza

como la media de la población. 𝑍 = 𝑋− µ ơ/√𝑛

Cuando el tamaño de muestra es mayor que 30, la confianza en la S como aproximación de la ơ

por lo general es sustancial, por lo que se justifica la utilización de la teoría de la distribución

normal para construir un intervalo de confianza.

PRUEBA T STUDENT

Se aplica cuando la población estudiada sigue una distribución normal pero el tamaño muestral

es demasiado pequeño como para que el estadístico en el que está basada la inferencia esté

normalmente distribuido, utilizándose una estimación de la desviación típica en lugar del valor

real.

PRUEBAS T PARA DOS MUESTRAS APAREADAS Y DESAPAREADAS:

DESAPAREADAS O DE MUESTRAS INDEPENDIENTES


SE UTILIZAN CUANDO SE OBTIENEN DOS GRUPOS DE MUESTRAS ALEATORIAS,

INDEPENDIENTES E IDÉNTICAMENTE DISTRIBUIDAS A PARTIR DE LAS DOS

POBLACIONES A SER COMPARADAS.

supóngase que estamos evaluando el efecto de un tratamiento médico, y reclutamos a 100 sujetos

para el estudio. Luego elegimos aleatoriamente 50 sujetos para el grupo en tratamiento y 50

sujetos para el grupo de control. En este caso, obtenemos dos muestras independientes y

podríamos utilizar la forma desapareada de la prueba t. La elección aleatoria no es esencial en

este caso

grupo de unidades que han sido evaluadas en dos ocasiones diferentes (UNA PRUEBA T DE

MEDICIONES REPETITIVAS). LAS PRUEBAS T DE MUESTRAS DEPENDIENTES O

APAREADAS

en esta prueba estadística se exige dependencia entre ambas, en las que hay dos momentos uno

antes y otro después. Con ello se da a entender que en el primer período, las observaciones

servirán de control o testigo, para conocer los cambios que se susciten después de aplicar una

variable experimental.

t = valor estadístico del procedimiento. Valor promedio o media aritmética de las diferencias

entre los momentos antes y después. desviación estándar de las diferencias entre los momentos

antes y después. N = tamaño de la muestra. EN CUANTO A LA HOMOGENEIDAD DE

VARIANZAS, ES UN REQUISITO QUE TAMBIÉN DEBE SATISFACERSE Y UNA

MANERA PRÁCTICA ES DEMOSTRARLO MEDIANTE LA APLICACIÓN DE LA

PRUEBA JI CUADRADA DE BARTLETT:


Ordenar los datos en función de los momentos antes y después, y obtener las diferencias entre

ambos. Calcular la media aritmética de las diferencias ( ). Calcular la desviación estándar de

las diferencias (sd). Decidir si se acepta o rechaza la hipótesis. PASOS:

Calcular el valor de t por medio de la ecuación. Calcular los grados de libertad (gl) gl = N - 1.

Comparar el valor de t calculado con respecto a grados de libertad en la tabla respectiva, a fin

de obtener la probabilidad. Decidir si se acepta o rechaza la hipótesis.

PRUEBA CHI CUADRADO

Una prueba de chi-cuadrado es una prueba de hipótesis que determina si 2 variables están

relacionadas o no. Compara la distribución observada de los datos con una distribución esperada

de los datos.

Dónde: X2 = valor estadístico de ji cuadrada. fo = frecuencia observada. fe = frecuencia

esperada.

Los datos estén recopilados en una tabla. Los datos estén expresados en frecuencias absolutas.

 Cada celda de la tabla contenga un valor mayor o igual a 5. PARA SU APLICACIÓN SE

REQUIERE:

Prueba chi- cuadrado Una variable Prueba de Bondad de ajuste Dos variables Prueba de

Homogenei dad Prueba de Independe ncia

Prueba de chi- cuadrado de bondad de ajuste Utilice este análisis para probar qué tan bien una

muestra de datos categóricos se ajusta a una distribución teórica.

Por ejemplo, se puede comprobar si un dado es justo, lanzando el dado muchas veces, para

determinar si los resultados siguen una distribución uniforme.


Prueba de Homogeneidad: Consiste en comprobar si varias muestras de una carácter cualitativo

proceden de la misma población. Por ejemplo: Se obtiene tres muestras de alumnos provienen de

poblaciones con igual distribución de aprobados.

Prueba de independencia: Utilice una prueba de independencia para determinar si el valor

observado de una variable depende del valor observado de otra variable.

Por ejemplo, el hecho de que una persona vote por un candidato depende del género del

elector?, o si el color de ojos está relacionado con el color de los cabellos?

También podría gustarte