Está en la página 1de 22

II.

Probabilidad

Notación de conjuntos:

El concepto de conjunto es intuitivo y se podría definir como una "colección


de objetos"; así, se puede hablar de un conjunto de personas, ciudades, gafas,
lapiceros o del conjunto de objetos que hay en un momento dado encima de
una mesa. Un conjunto está bien definido si se sabe si un determinado
elemento pertenece o no al conjunto. El conjunto de los bolígrafos azules está
bien definido, porque a la vista de un bolígrafo se puede saber si es azul o no.
El conjunto de las personas altas no está bien definido, porque a la vista de
una persona, no siempre se podrá decir si es alta o no, o puede haber distintas
personas, que opinen si esa persona es alta o no lo es.

Universo:

En estadística es el nombre especifico que recibe particularmente la


investigación social la operación dentro de la delimitación del campo de
investigación que tienen por objeto la determinación del conjunto de unidades
de observaciones del conjunto de unidades de observación que van a ser
investigadas. Para muchos investigadores él termino universo y población son
sinónima. En general, el universo es la totalidad de elementos o características
que conforman el ámbito de un estudio o investigación.

Vacío:
En matemáticas, particularmente en la Teoría axiomática de Conjuntos de ZF
el conjunto vacío es el conjunto que carece de elementos. Puesto que lo único
que define a un conjunto son sus elementos, el conjunto vacío es único.
Algunas propiedades de los conjuntos son trivialmente ciertas para el conjunto
vacío. En una teoría axiomática de conjuntos, la existencia de un conjunto
vacío se postula.
Definición y notación:
El conjunto vacío es el conjunto que no contiene elementos.
El conjunto vacío es denotado por los símbolos:
-Subconjunto:

Conjunto de elementos que tienen las mismas características y que está


incluido dentro de otro conjunto más amplio.

el conjunto de los números pares es un subconjunto del conjunto de los


números enteros.

Proceso de construcción del diagrama de Venn Euler.

Un diagrama de Venn usa círculos que se superponen u otras figuras para


ilustrar las relaciones lógicas entre dos o más conjuntos de elementos. A
menudo, se utilizan para organizar cosas de forma gráfica, destacando en qué
se parecen y difieren los elementos. Los diagramas de Venn, también
denominados "diagramas de conjunto" o "diagramas lógicos", se usan
ampliamente en las áreas de matemática, estadística, lógica, enseñanza,
lingüística, informática y negocios.

estos pueden ser diagramas sencillos que involucran dos o tres conjuntos con
algunos elementos o pueden volverse muy sofisticados, por ejemplo, en
presentaciones en 3D, ya que utilizan seis o siete conjuntos o más. Se usan
para hacer un análisis detallado y para representar cómo se relacionan los
elementos entre sí dentro de un "universo" o segmento determinado.

Explicar las operaciones entre conjuntos:

Unión de conjuntos:
Supongamos que tenemos los conjuntos M y N definidos como se muestra en la
siguiente figura:
Podemos crear otro conjunto conformado con los elementos que pertenezcan
a M o a N. A este nuevo conjunto le llamamos unión de M y N, y lo notamos
de la siguiente manera: M∪N. En la imagen de abajo puedes observar el
resultado de unir los conjuntos M y N.

Al elegir qué elementos estarán en la unión de nuestros conjuntos M y N,


debes preguntarte cuáles están en el conjunto M “o” en el conjunto N. El
resultado de la operación será el conjunto conformado por todos los
elementos del conjunto universal U, que cumplan la condición de estar en uno
o en otro.
Tenemos en este caso: M∪N={a,c,b,g,e,1}.

Intersección de conjuntos:
Sigamos tomando como ejemplo los conjuntos M y N definidos
anteriormente.
Podemos determinar un nuevo conjunto conformado por los elementos que
nuestros conjuntos M y N tienen en común. A este nuevo conjunto le
llamamos intersección de M y N y lo notamos de la siguiente manera: M∩N.

Para determinar qué elementos pertenecen a la intersección de los


conjuntos M y N te puedes preguntar qué elementos están en M “y”
en N. Todos los elementos del conjunto U que cumplan esta condición
deberán estar en el conjunto M∩N. En la figura de la arriba podemos ver la
intersección de nuestros conjuntos M y N, tenemos que M∩N={b}.
Diferencia de conjuntos

Además de la unión y la intersección podemos realizar la diferencia de


conjuntos.
En este caso se deben seleccionar los elementos de un conjunto que no estén
en el otro. Por ejemplo, si realizas la operación M menos N, debes seleccionar
los elementos de M que no están en N. Representamos la diferencia M menos
N así: M\N. Observa que en este caso M\N={a,c}

Complemento de un conjunto:
La última operación que estudiaremos no es entre dos conjuntos. Decimos
que el complemento de M es el conjunto conformado por todos los elementos
del conjunto universal U, que no pertenecen al conjunto M. Es común usar los
símbolos Mc, ¯M o M′ para representar el complemento del conjunto M,
nosotros usaremos el símbolo Mc.
En nuestro caso tenemos Mc={j,f,g,1,e,i,h}Mc={j,f,g,1,e,i,h} y Nc={i,h,j,f,a,c}.
Probabilidad Básica y Condicional

probabilidad básica:

El tratamiento de la probabilidad básica como un proceso de conteo discreto,


es satisfactorio si tratamos con números razonablemente pequeños, como en
los casos de tirada de dados o elección de cartas. Pero si el número de eventos
es muy grande como en la distribución de energía entre las moléculas de un
gas, entonces se puede calcular la probabilidad por medio de una variable
continua, de modo que podemos usar los métodos del cálculo.
Usando la variable x para representar un posible resultado o evento, entonces
se puede resumir el marco de trabajo básico para los casos discretos como
sigue:
Para un resultado particular xi
P(xi) = probabilidad de que xi sea observado
SiP(xi) =1 (normalización)

Probabilidad:

La Probabilidad es la mayor o menor posibilidad de que ocurra un determinado


suceso. En otras palabras, su noción viene de la necesidad de medir o
determinar cuantitativamente la certeza o duda de que un suceso dado ocurra
o no. Ésta establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles. Por ejemplo, lanzar un dado, y que salga el
número uno (caso favorable) está en relación a seis casos posibles (1, 2, 3, 4, 5
y 6); es decir, la probabilidad es 1/6.
La probabilidad está basada en el estudio de la combinatoria y es fundamento
necesario de la estadística, además de otras disciplinas como matemática,
física u otra ciencia. En ellas se aplica una teoría de probabilidades, la cual tiene
como fin examinar las formas y medios para obtener esas medidas de certeza,
así como encontrar los métodos de combinarlos cuando intervienen varios
sucesos en un experimento aleatorio o prueba.

Experimento:
Un experimento, en estadística, es cualquier proceso que proporciona datos,
numéricos o no numéricos.
Un conjunto cuyos elementos representan todos los posibles resultados de un
experimento se llama espacio muestral y se representa como S. El espacio
muestral de un experimento siempre existe y no es necesariamente único
pues, dependiendo de nuestra valoración de los resultados, podemos
construir diferentes espacios muéstrales.
Los elementos del espacio muestral se llaman puntos muéstrales y son los
distintos resultados del experimento.
Si consideramos el conjunto de las partes de (P(S)) sus elementos son los
sucesos. Un suceso, por tanto, es un subconjunto del espacio muestral.

Espacio muestral:

En la teoría de probabilidades, el espacio muestral o espacio de muestreo


(denotado E, S, Ω o U) consiste en el conjunto de todos los posibles resultados
de un experimento aleatorio, junto con una estructura sobre el mismo (ver
más adelante).

Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio


muestral es el conjunto {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un
evento o suceso es cualquier subconjunto del espacio muestral con estructura
de σ-álgebra, llamándose a los sucesos que contengan un único elemento
sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer
lanzamiento", o {(cara, cara), (cara, cruz)}, estaría formado por los sucesos
elementales {(cara, cara)} y {(cara, cruz)}.

Evento:

En la teoría de la probabilidad, un evento aleatorio o fuente de sucesos


aleatorio es un subconjunto de un espacio muestral, es decir, un conjunto de
posibles resultados que se pueden dar en un experimento aleatorio. En teoría
de la probabilidad a cada evento aleatorio se le puede asignar una medida de
probabilidad, y el conjunto de todos los sucesos aleatorios constituye una σ-
álgebra de conjuntos.

Evento mutuamente excluyente:

Un evento mutuamente excluyente es uno en el que la aceptación de una


alternativa automáticamente excluye otras posibles alternativas.
Un ejemplo común de esto es lanzar una moneda. La moneda caerá de cara o
cruz. Debido a que la moneda que caiga de cara significa que no caerá de cruz,
lanzar una moneda es un evento mutuamente excluyente. Es o de un lado o
del otro, no pueden ser ambos.
En el ejemplo de la moneda, ambos resultados son en teoría, sucesos
colectivamente exhaustivos, lo que quiere decir que por lo menos uno de los
resultados debe suceder, por lo que estas dos alternativas comprenden todas
las posibilidades. Sin embargo, no todos los eventos mutuamente excluyentes
son exhaustivamente colectivos.

Aproximación de probabilidad por frecuencias relativas:

Que, en un experimento aleatorio, la probabilidad es un número que


asignábamos a cada suceso, y con el que queremos indicar la frecuencia con la
que se da dicho suceso. Una sencilla manera de obtener la probabilidad de un
suceso aleatorio es a través de la tabla de frecuencias relativas de ese
experimento. A esa probabilidad la llamamos probabilidad empírica o
concepto frecuentista de probabilidad, porque se obtiene una vez realizado el
experimento. Así, si hemos realizado el experimento un número de veces n y
observado sus resultados, y nos damos cuenta de que en k de esas ocasiones
se ha verificado el suceso que queremos analizar, llamémosle
A, decimos que la probabilidad de que ocurra el suceso A, y lo denotamos P(A),
es k n , es decir:
P(A) = k/n.
Supongamos que vamos sacando una a unas 200 cartas de la baraja,
y las vamos dejando otra vez en la baraja después de observarlas.
Así, obtenemos la siguiente tabla de frecuencias relativas para este
experimento:
Método clásico:
EJEMPLO
En un proceso de control de calidad, el inspector selecciona una pieza terminada para inspección.
El inspector a continuación determina si la pieza tiene algún defecto importante, un defecto menor
o no tiene defectos. Considere la selección y clasificación de la pieza como un experimento.
Enliste los puntos muestrales o eventos simples para el experimento.

RESPUESTA

Los puntos muestrales o eventos simples son:


No efecto importante
Un defecto menor
No tiene defectos.
EJEMPLO

Experimento:

Lanzar un dado

Resultados Experimentales:

1,2,3,4,5,y 6

Espacio muestral:

S { 1,2,3,4,5,6}
METODO CLÁSICO
Es cuando se usa la suposición de resultados igualmente probables como una base para asignar
probabilidades. Si un experimento tiene n resultados posibles el método clásico asigna una
probabilidad de 1/n a cada resultado experimental.
El método clásico fue elaborado para analizar probabilidades en los juegos de azar donde la
suposición de resultados igualmente probables frecuente es razonables.

Probabilidad

1/6 = 0.1666

la probabilidad de obtener un número particular en el lanzamiento de un dado es 0.1666


Probabilidad Subjetiva:

Se basan en la creencias e ideas en que se realiza la evaluación de las


probabilidades y se define como en aquella que un evento asigna el individuo
basándose en la evidencia disponible (el individuo asigna la probabilidad en
base a su experiencia).
La probabilidad subjetiva puede tener forma de frecuencia relativa de
ocurrencia anterior o simplemente puede consistir en una conjetura
inteligente N.
Para clarificar lo antes dicho un ejemplo muy común es el pronóstico del
tiempo, muchos individuos como nosotros realizamos una predicción personal
de como serán las condiciones climáticas para el día, basadas más en nuestra
experiencia personal pero que muchas veces sustentamos en experiencia de
eventos pasados.
Las asignaciones de probabilidad subjetiva se dan generalmente cuando los
eventos ocurren solo 1 vez y a lo máximo unas cuantas veces más.
Sin embargo, en las organizaciones a pesar de que es común tomar decisiones
en base a la probabilidad subjetiva la mayoría de las veces esta se respalda con
datos futuros estadísticos.

Técnicas de conteo.
Diagrama de árbol:
Un diagrama de árbol o árbol de probabilidad es una herramienta que se utiliza
para determinar si en realidad en el cálculo de muchas probabilidades se
requiere conocer el número de objetos que forman parte del espacio muestral,
estos se pueden determinar con la construcción de un diagrama de árbol.
El diagrama de árbol es una representación gráfica de los posibles resultados
del experimento, el cual consta de una serie de pasos, donde cada uno de estos
tiene un número infinito de maneras de ser llevado a cabo. Se utiliza en los
problemas de conteo y probabilidad.

Ejemplos
Una universidad está formada por tres facultades:

 La 1ª con el 50% de estudiantes.


 La 2ª con el 25% de estudiantes.
 La 3ª con el 25% de estudiantes.
Las mujeres están repartidas uniformemente, siendo un 60% del total en cada
facultad.
¿Probabilidad de encontrar una alumna de la primera facultad?

P (alumna de la 1era facultad) = 0,5 . 0,6 =0,3


¿Probabilidad de encontrar un alumno varón?

P (alumno varón) = 0,5 . 0,4 , + 0,25 . 0,4 + 0,25 . 0,4= 0,4 pero también podría
ser lo contario.
- Regla multiplicativa:

Reglas multiplicativas
Si en un experimento pueden ocurrir los eventos A y B, entonces

P(A ∩ B) = P(A)P(B|A), dado que P(A)>0.

Así la probabilidad de que ocurran A y B es igual a la probabilidad de que ocurra A multiplicada por
la probabilidad condicional de que ocurra B, dado que ocurre A.

Como los eventos A ∩ B y B ∩ a son equivalentes, del teorema anterior se sigue que también
podemos escribir

P(A ∩ B) = P(B ∩ A) = P(B)P(A|B).

En otras palabras, no importa qué evento se considere como A y cuál como B.

Ejemplo: Suponga que tenemos una caja de fusibles que contiene 20 unidades, de las cuales 5
están defectuosas. Si se seleccionan 2 fusibles al azar y se retiran de la caja, uno después del otro,
sin reemplazar el primero, ¿cuál es la probabilidad de que ambos fusibles estén defectuosos?

Sean A el evento de que el primer fusible esté defectuoso y B ele vento de que el segundo esté
defectuoso; entonces, interpretamos A ∩ B como el evento de que ocurra A, y entonces B ocurre
después de que haya ocurrido A. La probabilidad de separar primero un fusible defectuoso es 1/4;
entonces, la probabilidad de separar un segundo fusible defectuoso de los restantes 4 es 4/19. Por
lo tanto,

P(A ∩ B) = (1/4)(4/19) = 1/19.

Eventos independientes

Dos eventos A y B son independientes si y sólo si

P(A ∩ B) = P(A)P(B).

Por lo tanto, para obtener la probabilidad de que ocurran dos eventos independientes,
simplemente calculamos el producto de sus probabilidades individuales.
Combinación:

Combinaciones

Cuando escogemos k de n objetos en un orden que no importa, el número de


combinaciones es el número de permutaciones para k de n objetos dividido
entre el número de permutaciones para escoger k de k objetos:

Las combinaciones son aquellas formas de agrupar los elementos de un


conjunto teniendo en cuenta que:
NO influye el orden en que se colocan.
Si permitimos que se repitan los elementos, podemos hacerlo hasta tantas
veces como elementos tenga la agrupación.
Ejemplo: Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve,
¿cuantas combinaciones de cinco cartas habría?
La cantidad de combinaciones posibles sería: P(9,5)/5! =
(9*8*7*6*5)/(5*4*3*2*1) = 126 combinaciones posibles.

Existen dos tipos de combinación: combinación sin repetición y combinación


con repetición.

Permutación:

En matemáticas, una permutación es la variación del orden o de la disposición


de los elementos de un conjunto ordenado o una tupla sin elementos
repetidos.

Por ejemplo, en el conjunto {1,2,3}, cada ordenación posible de sus elementos,


sin repetirlos, es una permutación. Existe un total de 6 permutaciones para
conjuntos de 3 elementos, en este caso: "1,2,3", "1,3,2", "2,1,3", "2,3,1",
"3,1,2" y "3,2,1".
Una permutación de un conjunto X es una función biyectiva de dicho conjunto
en sí mismo.
Probabilidad condicional:

Probabilidad condicional es la probabilidad de que ocurra un evento A,


sabiendo que también sucede otro evento B. La probabilidad condicional se
escribe P(A|B) o P(A/B), y se lee «la probabilidad de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A
puede causar B, viceversa o pueden no tener relación causal. Las relaciones
causales o temporales son nociones que no pertenecen al ámbito de la
probabilidad. Pueden desempeñar un papel o no dependiendo de la
interpretación que se les dé a los eventos.
Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un
dado. ¿Cuál es la probabilidad que en el dado salga un 6 dado que ya haya
salido una cara en la moneda? Esta probabilidad se denota de esta
manera: P(6|C).

Probabilidad conjunta:

La probabilidad de que los eventos A y B sucedan al mismo tiempo se expresa


como P(A & B). Para eventos A y B independientes, P(A & B)=P(A)P(B). P(A &
B) también se conoce como la probabilidad de la intersección de los eventos A
y B, según la descripción del diagrama de Venn.
Probabilidad Conjunta:
Si quisiéramos conocer cuál es la probabilidad de sacar 5 al tirar dos veces un
dado, estamos hablando de sucesos independientes; pues los tiros son
distintos.
Para estos casos la probabilidad de ocurrencia de ambos sucesos
simultáneamente será igual al producto de las probabilidades individuales.

Evento dependiente e independiente:

Eventos Independientes
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia
de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro
evento (o eventos). Un caso típico de eventos independiente es el muestreo
con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la
población donde se obtuvo.
Dos eventos, A y B, son independientes si la ocurrencia de uno no tiene que
ver con la ocurrencia de otro.
Por definición, A es independiente de B si y sólo si:A y B, son independientes
si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.
Por definición, A es independiente de B si y sólo si:A es independiente de B si
y sólo si:
(PnA)=P(A)P(B)

Eventos dependientes:

Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia


de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando
tenemos este caso, empleamos entonces, el concepto de probabilidad
condicional para denominar la probabilidad del evento relacionado. La
expresión P (A|B) indica la probabilidad de ocurrencia del evento A sí el evento
B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
P (A|B) = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)
Probabilidad Condicional = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A).

teoremas elementales de probabilidad y probabilidad condicional:

Probabilidad condicionada. Espacio de probabilidad condicionado La


probabilidad condicionada es uno de los conceptos clave en Teoría de la
Probabilidad. En el tema anterior se ha introducido el concepto de
probabilidad considerando que la única información sobre el experimento era
el espacio muestral. Sin embargo, hay situaciones en las que se incorpora
información suplementaria como puede ser que ha ocurrido otro suceso, con
lo que puede variar el espacio de resultados posibles y consecuentemente, sus
probabilidades. En este contexto aparece el concepto de probabilidad
condicionada. El objetivo es analizar cómo afecta el conocimiento de la
realización de un determinado suceso a la probabilidad de que ocurra
cualquier otro. La probabilidad condicionada tiene una clara interpretación en
espacios muéstrales finitos en los que puede aplicarse la regla de Laplace.
Definición. - Sea (Ω, A, P) un espacio probabilístico arbitrario y A un suceso (A
∈ A) tal que P(A) > 0. Para cualquier otro suceso B ∈ A, se define la probabilidad
condicionada de B dado A o probabilidad de B condicionada a A como P(B/A)
= P(B ∩ A) P(A) .

Proceso de cálculo de probabilidad condicional:


se sabe que el 50% de la población fuma y que el 10% fuma y es hipertensa.
¿Cuál es la probabilidad de que un fumador sea hipertenso?

A = {ser hipertenso} B = {ser fumador}


A Ç B = {ser hipertenso y fumador}
p(A|B) = 0,10/0,50 = 0,20

Obsérvese que los coeficientes falso-positivo y falso-negativo de las pruebas


diagnósticas son probabilidades condicionadas.

La fórmula anterior se puede poner p(A Ç B) = p(B) p(A|B) = p(A) p(B|A)


llamada regla de la multiplicación, que se puede generalizar a más sucesos
p(A1 Ç A2 Ç A3) = p((A1 Ç A2) Ç A3) = p(A1 Ç A2) p(A3|A1 Ç A2) = p(A1) p(A2|A1)
p(A3|A1 Ç A2)

En general p(A1 Ç A2 Ç A3 ...) = p(A1) p(A2|A1) p(A3|A1 Ç A2) ...


llamado principio de las probabilidades compuestas y especialmente útil para
aquellas situaciones en que las probabilidades condicionadas son más fáciles
de obtener que las probabilidades de las intersecciones.

Distribuciones Discretas de Probabilidad

Variable aleatoria discreta:


Se denomina variable aleatoria discreta aquella que sólo puede tomar un
número finito de valores dentro de un intervalo. Por ejemplo, el número de
componentes de una manada de lobos, puede ser 4 ó 5 ó 6 individuos, pero
nunca 5,75 ó 5,87. Otros ejemplos de variable discreta serían el número de
pollos de gorrión que llegan a volar del nido o el sexo de los componentes de
un grupo familiar de babuinos.
Densidad;
Se denomina densidad discreta a la probabilidad de que una variable
aleatoria discreta X tome un valor numérico determinado (x). Se representa:
f(x) = P[X=x]

La suma de todas las densidades será igual a 1

Métodos de las distribuciones:

La función de densidad de probabilidad (PDF) de una variable aleatoria,


X, permite calcular la probabilidad de un evento de la siguiente manera:

 Para las distribuciones continuas, la probabilidad de que X tenga valores


en un intervalo (a, b) es precisamente el área por debajo de su PDF en el
intervalo (a, b).
 Para las distribuciones discretas, la probabilidad de que X tenga valores
en un intervalo (a, b) es exactamente la suma de la PDF (también
denominada función de masa de probabilidad) de los posibles valores
discretos de X en (a, b).
Utilice la PDF para determinar el valor de la función de densidad de
probabilidad en un valor conocido de x de la variable aleatoria X.

Bimonial:

La distribución binomial se utiliza para representar el número de eventos que


ocurren en n ensayos independientes. Los valores posibles son enteros de cero
a n.
Fórmula
media = np
varianza = np(1 – p)
La función de masa de probabilidad (PMF) es:
Donde es igual a
Generalmente, puede calcular k! como
Notación
Término Descripción
n número de ensayos
x número de eventos
p probabilidad del evento

Hipergeométrica:

La distribución hipergeométrica se utiliza para muestras obtenidas de


poblaciones pequeñas, sin reemplazo. Por ejemplo, usted tiene un envío
de N televisores, donde N1 se encuentran en buen estado (éxito) y N2 están
defectuosos (falla). Si usted toma una muestra de n televisores
de Aleatoriamente, sin reemplazo, puede determinar la probabilidad de que
exactamente x de los n televisores estén en buen estado.
Fórmula
La función de masa de probabilidad (PMF) es:

Notación
Término Descripción
N N1 + N2 = tamaño de la población
N1 número de eventos en la población
N2 número de no eventos en la población
n tamaño de la muestra
x número de eventos en la muestra
Poisson:

Distribución de Poisson
La distribución de Poisson es una distribución discreta que modela el número
de eventos con base en una tasa constante de ocurrencia. La distribución de
Poisson se puede utilizar como una aproximación a la binomial cuando el
número de ensayos independientes sea grande y la probabilidad de éxito sea
pequeña.

Fórmula

La función de masa de probabilidad (PMF) es:

media = λ

varianza = λ

Notación
Término Descripción
e base del logaritmo natural

Distribuciones Continuas de Probabilidad

Variable aleatoria continua:


Una variable aleatoria X es continua si su función de distribución es una
función continua.
En la práctica, se corresponden con variables asociadas con experimentos en
los cuales la variable medida puede tomar cualquier valor en un intervalo:
mediciones biométricas, intervalos de tiempo, áreas, etc.
Ejemplos
 Resultado de un generador de números aleatorios entre 0 y 1. Es el
ejemplo más sencillo que podemos considerar, es un caso particular de
una familia de variables aleatorias que tienen una distribución uniforme
en un intervalo [a, b]. Se corresponde con la elección al azar de cualquier
valor entre a y b.
 Estatura de una persona elegida al azar en una población. El valor que
se obtenga será una medición en cualquier unidad de longitud (m, cm,
etc.) dentro de unos límites condicionados por la naturaleza de la
variable. El resultado es impredecible con antelación, pero existen
intervalos de valores más probables que otros debido a la distribución
de alturas en la población. Más adelante veremos que, generalmente,
variables biométricas como la altura se adaptan un modelo de
distribución denominado distribución Normal y representado por una
campana de Gauss.
características y métodos de las distribuciones.
- Normal:
Se llama distribución normal, distribución de Gauss, distribución gaussiana o
distribución de Laplace-Gauss, a una de las distribuciones de probabilidad de
variable continua que con más frecuencia aparece en estadística y en la teoría
de probabilidades.
La gráfica de su función de densidad tiene una forma acampanada y es
simétrica respecto de un determinado parámetro estadístico. Esta curva se
conoce como campana de Gauss y es el gráfico de una función gaussiana.
Chi cuadrada:
Distribución chi-cuadrado (ji-cuadrado).
II.1.1.- Definición.
Sean x1, x2, ..., xn variables independientes que siguen una
distribución N(0,1).
Sea X una nueva variable definida según:

en este caso, se dice que X se distribuye como una CHICUADRADO, con n


grados de libertad, que representamos como:

F de Fisher:
- Distribución F de Fisher
- Definición. Sean U y V dos variables aleatorias independientes, tal que:

Sea una variable X definida como:


X así definida, sigue una distribución F DE FISHERSNEDECOR
de m y n grados de libertad, que representamos
como: x ® Fm,n .
Distribuciones Muéstrales

Distribución muestral:
En estadística, la distribución muestral es lo que resulta de considerar todas
las muestras posibles que pueden ser tomadas de una población. Su estudio
permite calcular la probabilidad que se tiene, dada una sola muestra, de
acercarse al parámetro de la población. Mediante la distribución muestral se
puede estimar el error para un tamaño de muestra dado.
La distribución de muestreo de una estadística es la distribución de esa
estadística, considerada como una variable aleatoria, cuando se deriva de una
muestra aleatoria de tamaño n.
Error estándar:
El error estándar es la desviación estándar de la distribución muestral de un
estadístico. El término se refiere también a una estimación de la desviación
estándar, derivada de una muestra particular usada para computar la
estimación.
El error estándar de la media (es decir, el error debido a la estimación de la
media poblacional a partir de las medias muestrales) es la desviación estándar
de todas las posibles muestras (de un tamaño dado) escogidos de esa
población. Además, el error estándar de la media puede referirse a una
estimación de la desviación estándar, calculada desde una muestra de datos
que está siendo analizada al mismo tiempo.

Teorema de límite central:


El teorema del límite central es un teorema fundamental de probabilidad y
estadística. El teorema describe la distribución de la media de una muestra
aleatoria proveniente de una población con varianza finita. Cuando el tamaño
de la muestra es lo suficientemente grande, la distribución de las medias sigue
aproximadamente una distribución normal.
El teorema se aplica independientemente de la forma de la distribución de la
población. Muchos procedimientos estadísticos comunes requieren que los
datos sean aproximadamente normales.

d. inuforme Medias de la muestra.

Características y el método de cálculo de probabilidades de la distribución t de


Student:
En probabilidad y estadística, la distribución t (de Student) es una distribución
de probabilidad que surge del problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra es pequeño.

Caracterización
La distribución t de Student es la distribución de probabilidad del cociente

donde
Z es una variable aleatoria distribuida según una normal típica (de media nula
y varianza 1).
V es una variable continua que sigue una distribución χ² con V grados de
libertad.
Z y V son independientes.

También podría gustarte