Está en la página 1de 8

RESUMEN

Definición y conceptos básicos de probabilidad La probabilidad es simplemente qué tan


posible es que ocurra un evento determinado. Cuando no estamos seguros del resultado de un
evento, podemos hablar de la probabilidad de ciertos resultados: qué tan común es que
ocurran. Al análisis de los eventos gobernados por la probabilidad se le llama estadística.
Conceptos básicos de probabilidad

Para poder comprender qué probabilidad hay de que acontezca algo, existen algunas
notaciones y conceptos claves en el estudio de la probabilidad:

La probabilidad se denota con la letra P.

Un suceso es cualquier conjunto de resultados o consecuencias de un procedimiento. Por


ejemplo, lanzar dos dados y obtener 6 y 6.

Un suceso simple es un resultado o un suceso que ya no puede desglosarse en componentes


más simples. Por ejemplo, que salga el número 6 cuando lanzamos un dado.

El espacio muestral de un procedimiento son todos los posibles resultados. Es decir, el espacio
muestral está formado por todos los resultados que ya no puede desglosarse más.

•FENÓMENO (EXPERIMENTO): Es todo aquel acto O acción que se realiza con el fin de
observar sus Resultados y cuantificarlos.Los fenómenos pueden clasificarse de acuerdo al tipo

De resultados en:

• Determinístico Es aquel cuyos resultados se pueden predecir de Antemano.

• Probabilístico (aleatorio) Es aquel en el que para las limitaciones actuales Del conocimiento
científico, no se puede predecir Con certeza el resultado.

ESPACIO DE EVENTOS

• Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina


ESPACIO DE EVENTOS (S).

• A cada posible resultado del espacio le llamaremos ELEMENTO.

• Un EVENTO en general es un conjunto de eventos simples (o posibles resultados del


experimento).

• Si el evento está compuesto por un único elemento le llamaremos EVENTO SIMPLE.

• Si el evento no tiene ningún resultado posible se le denomina EVENTO VACÍO.

El espacio de eventos puede ser FINITO o INFINITO y a su vez DISCRETO O CONTINUO

AXIOMAS

Un axioma es el elemento básico de un sistema de lógica formal y junto con las reglas de
inferencia definen un sistema deductivo.
La palabra viene del griego αξιοειν (axioein) que significa “valorar”, que a su vez procede de
αξιος (axios) que significa “valuable” o “digno”. Entre los antiguos filósofos griegos, un axioma
era aquello que parecía ser verdadero sin ninguna necesidad de prueba.

La lógica del axioma es partir de una premisa calificada verdadera por sí misma (el axioma) e
inferir sobre esta otras proposiciones por medio del método deductivo, obteniendo
conclusiones coherentes con el axioma. Los axiomas han de cumplir sólo un requisito: de ellos,
y sólo de ellos, han de deducirse todas las demás proposiciones de la teoría dada. Los axiomas
de probabilidad son las condiciones mínimas que deben verificarse para que una función que
definimos sobre unos sucesos determine consistentemente valores de probabilidad sobre
dichos sucesos.

Los axiomas de la formulación moderna de la teoría de la probabilidad constituyen una base


para deducir a partir de ellas un amplio número de resultados.

La letra P se utiliza para designar la probabilidad de un evento, siendo P(A) la probabilidad de


ocurrencia de un evento A en un experimento.

AXIOMAS

Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una
función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Fueron formulados por Kolmogórov en 1933.

Axiomas de Kolmogórov:

Primer axioma:

La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.

0 £ p(A) ³ 1

Ejemplo: La probabilidad de sacar par en un dado equilibrado es 0,5. P(A)=0,5

Segundo Axioma:
La probabilidad de que ocurra el espacio muestral d debe de ser 1.

P(d) = 1

Ejemplo: La probabilidad de sacar un número del 1 al 6 en un dado equilibrado es “1”.

Tercer Axioma:

Si A y B son eventos mutuamente excluyentes, entonces la,

P(AÈB) = p(A) + p(B)

Teoremas básicos de probabilidad

Sean( Ω , A, pag)

Un espacio de probabilidad yA1,A2, . . . ∈ A

5.1 Teorema adicional

El teorema aditivo está relacionado con la probabilidad de la unión de eventos, así:

PAG(⋃yo = 1metroAi) =∑yo = 1metroPAG(Ai) -∑yo > jPAG(Ai∩Aj) +∑yo > j > kPAG(Ai∩Aj∩Ak)
- . . . – ( − 1)metro – 1PAG(⋂yo = 1metroAi)

En particular, párr.m=3

P(A1∪A2∪A3)=P(A1)+P(A2)+P(A3)−P(A1∩A2)−P(A1∩A3)−P(A2∩A3)+P(A1∩A2∩A3)

5.2 Teorema multiplicativo

El teorema aditivo está relacionado con la probabilidad de la intersección de eventos, así:


SiA1

yA2

son eventos independientes:

P(A1∩A2)=P(A1)P(A2)

Si no son independientes:

P(A1∩A2)=P(A1)P(A2|A1)

dóndeP(A2|A1)

, es la probabilidad condicional del eventoA2

Dado que esA1

, es decir es la proporción de elementos que sonA1

Entre los elementos que sonA2

5.3 Probabilidad condicional

La probabilidad condicional es una medida de probabilidad definida por:

P(Aj|Ai)=casos que son Ajy Aicasos que son Ai=P(Ai∩Aj)P(Ai)

Por ser una medida de probabilidad cumple las siguientes propiedades:

P(Acj|Ai)=1−P(Aj|Ai)

P(ϕ|Ai)=0

P(Aj∪Ak|Ai)

5.4 Teorema de la probabilidad total

El terorema de la probabilidad total se utiliza cuando se quiere encontrar la probabilidad de un


evento que se encuentra repartido en las partes de una patición. MarE1,E2,…,Em

Una fracción deΩ

, es decir,mi1,mi2, . . . , mimetro

Es una colección de subconjuntos deΩ

Cuentos que:
⋃yo = 1metromii= Ω

Mij∩mik= ϕ , j ≠ k

Entonces, la probabilidad de ocurrencias de un eventoA

Se reparte en la división de la siguiente forma:

PAG( Un )= PAG( A ∩mi1) + P( A ∩mi2) + . . . + pag( A ∩mimetro)= PAG( Un |mi1) pag(mi1) +


P( Un |mi2) pag(mi2) + . . . + pag( Un |mimetro) pag(mimetro)=∑yo = 1metroPAG( Un |mii)
pag(mii)

5.5 Teorema de Bayes

El terorema de Bayes es ampliamente utilizado en epidemiología, especialmente en la


evaluación de las características de las pruebas diagnósticas. En el teorema parte de la
probabilidad a priori de la ocurrencia de un evento,PAG(mik)

Las distribuciones de probabilidad son distribuciones de probabilidad continuas o


distribuciones de probabilidad discretas, dependiendo de si definen probabilidades para
variables continuas o discretas

Una distribución continua describe las probabilidades de los posibles valores de una variable
aleatoria continua. Una variable aleatoria continua es una variable aleatoria con un conjunto
de valores posibles (conocido como el rango) que es infinito y no se puede contar.

Las probabilidades de las variables aleatorias continuas (X) se definen como el área por debajo
de la curva de su PDF. Por lo tanto, solo los rangos de valores pueden tener una probabilidad
diferente de cero. La probabilidad de que una variable aleatoria continua equivalga a algún
valor siempre es cero.

Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable
aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores
contables, tales como una lista de enteros no negativos.

Con una distribución de probabilidad discreta, cada valor posible de la variable aleatoria
discreta puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una
distribución de probabilidad discreta suele representarse en forma tabular.

En estadística, una distribución discreta es una distribución de probabilidad de los


resultados de variables finitas o valores contables. Si una variable aleatoria sigue el
patrón de una distribución discreta, significa que la variable aleatoria es discreta. En un
sentido amplio, todas las distribuciones de probabilidad se pueden clasificar como
distribución de probabilidad discreta o distribución de probabilidad continua. Mientras
que una distribución continua se basa en valores medibles que son infinitos, la
distribución discreta se ocupa de las probabilidades de los resultados de valores finitos.
La distribución normal es un modelo teórico capaz de aproximar
satisfactoriamente el valor de una variable aleatoria a una situación ideal. 
En otras palabras, la distribución normal adapta una variable aleatoria a una
función que depende de la media y la desviación típica. Es decir, la función y
la variable aleatoria tendrán la misma representación pero con ligeras
diferencias.
Una variable aleatoria continua puede tomar cualquier número real. Por
ejemplo, las rentabilidades de las acciones, los resultados de un examen, el
coeficiente de inteligencia IQ y los errores estándar son variables aleatorias
continuas.
Una variable aleatoria discreta toma valores naturales
FUNCIÓN DE DISTRIBUCIÓN NORMAL
 

Si se tiene una gran cantidad de valores observados de la variable de interés, se podría


construir un histograma en el que las bases de los rectángulos fuesen cada vez más pequeñas,
de modo que el polígono de frecuencias tendría una apariencia cada vez más suavizada. Esta
curva suave representa de modo intuitivo la distribución teórica de la característica observada. 
Es la llamada función de densidad

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio


nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la
que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica
tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo
valor de  p  y valores de  n  cada vez mayores, se ve que sus polígonos de frecuencias se
aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay
muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal
El área bajo la curva representa la probabilidad de que el resultado del ensayo para un
caso positivo elegido aleatoriamente supere el resultado para un caso negativo elegido
aleatoriamente. La significación asintótica es menor que 0,05, lo que significa que usar
el ensayo es mejor que adivinar.
Aunque el área bajo la curva es un útil resumen de un estadístico de la precisión del
ensayo, es necesario poder elegir un criterio específico por el que se clasifican las
muestras de sangre y estimar la sensibilidad y la especificidad del ensayo bajo ese
criterio. Vea las coordenadas de la curva para comparar diferentes puntos de corte.
Muchas de las variables biológicas continuas, se distribuyen de forma
normal, de allí la importancia de conocer en primer término las
características de esta curva.

La curva normal, representa una distribución de frecuencia de una variable


continua, en la cual la variable es cada vez menos frecuente a medida que
nos distanciamos de su centro y viceversa más frecuente cuando nos
acercamos a su centro. La curva es totalmente simétrica, con un eje central
de simetría (asimetría = 0). En su centro coinciden las medidas de
tendencia central: media, mediana y moda. Posee dos colas una a la
derecha y otra a la izquierda. Tiene forma acampanada y
es asintótica hacia los extremos, del centro hacia los extremos se va
aplanando y acercándose cada vez más hacia el eje de las abscisas, aunque
nunca la toca. Como se dijo, en su centro se encuentra la media (parámetro
µ) y en los dos puntos de inflexión de la curva (lugar donde la curva pasa de
cóncava a convexa o viceversa) coincide  una desviación estándar

Aproximación de la distribución binomial por la normal


Una dstribución binomial B(n,p) se puede aproximar por una distribución
normal, siempre que n sea grande y p no esté muy próxima a 0 o a 1. La
aproximación consiste en utilizar una distribución normal con la misma
media y desviación típica que la distribución binomial.
En la practica se utiliza la aproximación cuando :

En cuyo caso :

Y tipificando se obtiene la normal estándar correspondiente:


La distribución binomial, es una distribución discreta en la que n ensayos
pueden producir un éxito o un fracaso.  La probabilidad de éxito la
denominamos p y la posibilidad de fracaso será q = (1 - p).  Como se ha visto
en otros apartados el cálculo de la distribución binomial puede exceder el límite
de cualquier tabla y volverse muy engorrosa en su cálculo si el valor de n es
muy grande.
 
Un método alternativo para el cálculo de la distribución binomial es por medio
del uso de la distribución normal para aproximar la distribución binomial.  Para
ello es fundamental que se satisfagan las siguientes condiciones, np  ≥ 5 y n(1 -
p)  ≥  5 y además p está próximo a 0,5.  
 
Si no se pudieran utilizar las tablas binomiales, se puede aproximar la
respuesta utilizando la distribución normal. Para ello podemos obtener la media
y la desviación estándar de la distribución normal con las siguientes  fórmulas:
 
μ=npσ=√npq
 
Debido a que la distribución normal es continua, y en consecuencia entre dos
valores existirá una serie infinita de valores posibles, para estimar una variable
aleatoria discreta se requiere de un leve ajuste, denominado factor de
corrección de continuidad, sumando o restando 1/2 al valor de x. De esta forma
el valor de z se obtiene mediante la fórmula:
z=(x+1/2)−μσ

También podría gustarte