Está en la página 1de 18

UNIVERSIDAD CENTRAL DE VENEZUELA

FACULTAD DE CIENCIAES ECONOMICAS Y SOCIALES


ESCUELA DE ESTUDIOS INTERNACIONALES
CATEDRA: ESTADISTICA I
SECCION: 13

TEORIA DE LAS PROBABILIDADES

AUTORES:
ADRIAN EDISON.
LANDAETA AARON.
MIGUEL SALVADOR.
NITTOLI ADOLFO.
SANDOVAL ANGELICA.
SINTAL ANDERSON.
PROFA: LISBETH DOMINGUEZ

CARACAS, ENERO 2011


INTRODUCCION

Todo inició con un juego de azar en la Francia del siglo XVII, donde, en una
disputa se estudió el comportamiento que tenían los dados y las barajas
durante uno de los juegos, asimismo en términos estadísticos se abocaron al
estudio de los sucesos aleatorios que en él se dan y buscando una forman
de predecir los posibles resultados, en ese sentido Pierre y Simón Laplace
agrega que "Es notable que una ciencia que comenzó con consideraciones
sobre juegos de azar haya llegado a el objeto más importante del
conocimiento humano". La doctrina de las probabilidades data desde Pierre
de Fermat y Blaise Pascal en 1654, asimismo Christian Huygens en 1657 le
dieron tratamiento científico, luego Ars Conjectandi, Jakob Bernoulli y
Abraham de Moivre trataron el tema como una rama de las matemáticas.

De ese modo la siguiente investigación tiene como fin exponer;


historia y conceptos básicos como la Definición Clásica de Probabilidades o
de Laplace, experimentos y sucesos aleatorios con sus respectivos tipos de
sucesos como: compatible, incompatible, dependiente e independiente. Así
como también los axiomas de la teoría de probabilidades y distribución de
Poisson. Del mismo modo las formulas y su aplicabilidad en la teoría de las
probabilidades según Soto Negrín, de ese modo, para comprender de
manera general la utilidad de las probabilidades y, ante hechos especulativos
que luego de un procedimiento matemático llegar a datos concretos hacen
gala la capacidad de predecir los resultados ante un estudio estadístico, en
tal sentido mediante el análisis probabilístico y de la comprensión estadística
de los resultados establecer la decisión pertinente ante un estudio el área
profesional.
HISTORIA Y ORIGEN DE LA TEORIA DE LAS PROBABILIDADES

La teoría de las probabilidades es resultado de una disputa ocurrida a


mediados del siglo XVII, entre jugadores de azar. Esta disputa se origina
debido al comportamiento que tenían los dados y las barajas durante uno de
los juegos, es aquí donde un caballero de la época, conocido como el
Chevalier De Meré, se da a la tarea de contactar a Blaise Pascal y Pierre De
Fermat, ambos matemáticos de la época, los cuales se darían a la tarea de
realizar estudios sobre el comportamiento de los dados a la hora de utilizar
uno o dos en un juego, las combinaciones que estos tendrían y las
probabilidades que existen de sacar una combinación a la hora de realizar
una jugada, particularmente, la resolución de este problema, constituye las
bases y el origen de la teoría de probabilidades moderna. Negrin S., (1999.
p.137).

Así mismo, tenemos que:

La probabilidad matemática tiene sus orígenes en los juegos de


azar, principalmente los juegos con dados y cartas, muy
populares desde tiempos antiguos. Los primeros estudios
“científicos” sobre fenómenos aleatorios se centraban en dos
problemas:
1. Contabilizar el número de posibles resultados de lanzar un
dado varias veces.
2. Distribuir las ganancias entre jugadores cuando el juego se
interrumpía antes de finalizar, conocido como el ‘problema del
reparto de apuestas’. (Salinero, P., (2005), p.3)

Luego de las bases y resultados matemáticos establecidos por Pascal


y Fermat, han sido muchos los personajes que han contribuido al
enriquecimiento de la teoría de probabilidades, entre ellos se encuentran,
Christiaan Huygens, James Bernoulli y Abraham De Moivre, quienes se
encargaron de desarrollar los estudios probabilísticos, que posteriormente
serian recogidos y publicados por Pedro Simón Laplace, acotándole este
ultimo la conocida definición clásica de probabilidad.
Durante los siglos XIX y XX, la teoría de probabilidades alcanzó gran
auge e importancia debido a las utilidades y beneficios matemáticos que
otorgaba, por tal se considera que la teoría de probabilidades es la base
matemática de las ciencias estadísticas actuales. Negrin S., (1999; p.137).

DEFINICION CLASICA Y MODERNA DE PROBABILIDAD

Definición Clásica de Probabilidades o de Laplace:

“Se define, como la relación o cociente entre los casos favorables sobre el
total de casos posibles que resultan al efectuar un experimento aleatorio
(experimento en que no puede predecirse su resultado a priori)”.

Escrito de forma matemática tenemos que:

p=CF/CP

Donde:

P= probabilidad favorable, de éxito o de acierto.

CF= Casos Favorables; CP= Casos Posibles

De igual manera, para conocer la probabilidad de fracaso o contraria


tenemos que:

q=CC/CP

Donde:

q= probabilidad de contraria, de fracaso o desfavorable.


CC= casos contrarios

Dado que nuestras formulas están expresadas en forma cociente conocemos


que la suma de ambas será igual a uno (1), escrito de forma matemática:
p+q= 1, para conocer la probabilidad favorable o contraria solo debemos
despejar. Negrin S., (1999; p.138).

Definición Moderna de Probabilidad

La probabilidad es todo número o cantidad numérica


asociada a cada uno de los sucesos que se pueden presentar al
realizar un experimento aleatorio, cantidad que viene medida
por el límite de la Frecuencia relativa cuando el número de ellos
“N” tiende al infinito. Negrin S., (1999; p.139).

En formulas matemáticas:

lim ❑
N→∞
( FiN )

EXPERIMENTOS Y SUCESOS ALEATORIOS

Según Negrín (1999; pág. 377) experimentos son “aquellos en que es


imposible predecir sus resultados a priori, ya que ellos varían de una
observación a otra. Son experimentos que realizándose en condiciones
similares indefinidamente, pueden dar lugar a resultados distintos”

Una de las características más importantes de ellos, establece que si


el experimento se realiza una cantidad suficientemente grande de veces, se
observa una tendencia a la estabilización en el valor de la Frecuencia
Relativa, acercándose hacia valores aproximadamente fijos.
Los resultados del experimento aleatorio son denominados sucesos
aleatorios, clasificándose como compatibles e incompatibles, (los cuales
varían si pueden ser o no verificables de forma simultánea) dependientes o
independientes de acuerdo a que sean con o sin reemplazamiento
respectivo.

Según la clasificación anterior (sucesos compatibles, incompatibles,


dependientes o independientes) se desarrolla a continuación el concepto
correspondiente a cada uno de ellos.

 Sucesos compatibles: Son verificables simultáneamente o a la


misma vez.
 Sucesos incompatibles: Son aquellos sucesos que no pueden
ocurrir de forma simultánea.
 Sucesos dependientes: La ocurrencia de unos afecta la
probabilidad de ocurrencia de los demás, asociándose con el
término “sin reemplazamiento”. Al efectuar la extracción de una
tarjeta o bola de una caja, se altera el número de casos posibles, y
por tanto se alteran también las respectivas probabilidades de los
elementos restantes.
 Sucesos independientes: En éstos, la ocurrencia de unos no afecta
la probabilidad de los demás, ya que cada vez que se realiza una
extracción, el elemento es reemplazado (con reemplazamiento), a
su lugar de origen.

Como consecuencia, se definen los sucesos aleatorios como los


resultados de un experimento cuya variación (la de los resultados) es debida
al azar.
AXIOMA Y AXIOMAS DE LA TEORÍA DE LA PROBABILIDAD

Afirma Negrín (1999), que un axioma es una “Verdad evidente por sí


misma que no es susceptible de ninguna demostración”. Por esto, se puede
definir que el axioma es aquello que parecía ser verdadero sin ninguna
necesidad de prueba.

Las condiciones mínimas que deben verificarse para que una función
definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades se entienden como los axiomas de probabilidad y fueron
formulados por Kolmogórov en 1933. Por tanto la probabilidad es siempre un
número comprendido entre cero y uno:

0≤ p≤1

Axiomas fundamentales de la teoría de probabilidades (Negrín. 1999)

 La probabilidad de un suceso seguro es siempre igual a uno.

p( A)=1

 La probabilidad de un suceso imposible es siempre igual a cero.

p( A)=0

 La probabilidad de éxito o de acierto más la probabilidad contraria


o de fracaso, es siempre igual a la unidad.

Σ p (A 1)
TEOREMAS FUNDAMENTALES DE LA TEORÍA DE PROBABILIDADES

Se entiende como teorema aquel que “…generalmente posee un


número de condiciones que deben ser enumeradas o aclaradas de antemano
y que se denominan propuestas. Luego existe una conclusión, una
afirmación matemática, la cual es verdadera bajo las condiciones en las que
se trabaja. El contenido informativo del teorema es la relación que existe
entre la hipótesis y la tesis o conclusión.” (Artículo en línea)

Los teoremas fundamentales de la teoría de probabilidades, “…son los


denominados Teorema Aditivo, o también Teorema de la Suma o de la “O”
(que resulte una cosa o la otra); y Teorema del Producto o de la “Y” (que se
obtenga un suceso o evento y el otro)” (Negrín. 1999; p. 439)

Teorema Aditivo: Considera como caso favorable cuando ocurra una


cosa o la otra (Es por esto que también se conoce como Teorema de la “O”).
El Teorema Aditivo se clasifica en Teorema para sucesos incompatibles y
para sucesos compatibles.

Teorema Aditivo para sucesos incompatibles: Tiene probabilidad


cuando la suma de dos o más sucesos es igual a la suma de la probabilidad
de cada uno de ellos.

p ( S 1 +S 2+ … S N )= p ( S1 ) + p ( S2 ) +… p ( S N )

Teorema Aditivo para sucesos compatibles: La probabilidad de dos o


más sucesos cuando éstos son compatibles, es igual a la suma de las
probabilidades de cada una de ellos menos la probabilidad del suceso
común.

p ( S 1 +S 2 )= p ( S1 ) + p ( S2 )− p ( S1 . S 2 )

Teorema del Producto: Se llama también de la “Y” por considerar


como caso favorable una cosa “Y” la otra. El teorema del producto se
clasifica en: Teorema del Producto para Sucesos Independientes y para
Sucesos Dependiente.

Teorema del Producto para Sucesos Independientes: La probabilidad del


producto de dos o más sucesos cuando éstos son independientes es igual al
producto de las probabilidades de cada uno de ellos.

p ( S 1 . S2 … S N )= p ( S1 ) . p ( S2 ) . … . p (S N )

Teorema del Producto para Sucesos Dependientes: La probabilidad del


producto de dos o más sucesos cuando éstos son dependientes, es igual al
producto de la probabilidad del primero por la probabilidad del segundo
condicionado al primero, y así sucesivamente con el tercero, cuarto, hasta el
enésimo suceso condicionado al suceso anterior.

p ( S 1 . S2 … S N )= p ( S1 ) . p ( S2 / S1 ) . … . p( S N /S N −1 )

Variables Discretas y Continuas

Para poder comenzar a definir los tipos de variables debemos conocer


primero el término de Variable que no es más que un símbolo que representa
un elemento no especificado de un conjunto dado. Dicho conjunto es llamado
conjunto universal de la variable, universo o variar de la variable, y cada
elemento del conjunto es un valor de la variable.

Sea x una variable cuyo universo es el conjunto {1,3,5,7,9,11,13}; entonces x


puede tener cualquiera de esos valores: 1,2,3,5,7,9,11,13. En otras palabras
x puede reemplazarse por cualquier entero positivo impar menor que 14.
Esta variable es un elemento de una fórmula, proposición o algoritmo que
puede adquirir o ser sustituido por un valor cualquiera (siempre dentro de su
universo). Los valores que una variable es capaz de recibir, pueden estar
definidos dentro de un rango.

Las variables, también llamadas caracteres cuantitativos, son aquellas cuyas


variaciones son susceptibles de ser medidas cuantitativamente, es decir, que
pueden expresar numéricamente la magnitud de dichas variaciones. Por
intuición y por experiencia sabemos que pueden distinguirse dos tipos de
variables; las continuas y las discretas

Ahora ya habiendo definido el concepto de variable podemos hablar de cada


una de ellas, comenzaremos definiendo:

La Variable Discreta que no es más que una variable para la que se dan de
modo inherente separaciones entre valores observables sucesivos. Dicho
con más rigor, se define una variable discreta como la variable tal que entre
dos cualesquiera valores observables (potencialmente), hay por lo menos un
valor no observable (potencialmente). Son aquellas que solo toman un
determinado números de valores, porque entre dos valores consecutivos no
pueden tomar ningún otro.

Por ejemplo, un recuento del número de colonias de un cultivo en agar es


una variable discreta. Mientras que cuentas de 3 y 4 son potencialmente
observables, no lo es una de 3,5.

La Variable Continua tiene la propiedad de que entre 2 cualesquiera valores


observables (potencialmente), hay otro valor observable (potencialmente).
Una variable continua toma valores a lo largo de un continuo, esto es, en
todo un intervalo de valores. Longitudes y pesos son ejemplos de variables
continuas. La estatura de una persona, por ejemplo, puede ser de 1,70 m o
de 1,75 m, pero en potencia al menos podría tomar cualquier valor
intermedio, como 1,7351 m. Las variables continuas se caracterizan por el
hecho de que puede tomar infinitos valores intermedios dentro de dos
valores consecutivos.

Un atributo esencial de una variable continua es que, a diferencia de una


variable discreta, nunca se la puede medir en términos de unidad.

Por esto se puede decir, que todo aquello susceptible de ser contado son
Variables Discretas, mientras más bien lo que puede ser medido caería en el
concepto de Variables Continuas.

La Probabilidad es todo numero o cantidad numérica asociada a cada uno de


los sucesos que se pueden presentar al realizar un experimento, cantidad
que viene medida por el limite de frecuencia relativa cuando el numero de
ellos tiende a ser infinito. Por eso a continuación vamos a definir a la variable
aleatoria y su clasificación para así poder abordar más aun en el tema de la
Distribución de Probabilidades.

Una Variable Aleatoria es un valor numérico que corresponde al resultado de


un experimento aleatorio, como la suma de los puntos obtenidos al lanzar
dos dados.

Las Variables Aleatorias Discretas son aquellas que pueden tomar solamente
un número finito o un número infinito numerable de valores. A este nivel, las
únicas variables aleatorias que consideraremos son aquellas que toman un
número finito de valores. Un ejemplo de este tipo de variable aleatoria sería
el resultado de lanzar un dado.

Las Variables Aleatorias Continuas son aquellas que pueden tomar cualquier
valor en un intervalo de la recta real. Un ejemplo de este tipo de variable
aleatoria seria la altura de una persona.

6.6 Distribuciones Probabilísticas


La Distribución de Probabilidad de una variable aleatoria es una función que
asigna a cada suceso definido sobre la variable aleatoria la probabilidad de
que dicho suceso ocurra. La distribución de probabilidad está definida sobre
el conjunto de todos los eventos rango de valores de la variable aleatoria.

Distribución de Poisson o de los sucesos raros:

Es una distribución de tipo discreta y por tanto aplicable a variables


aleatorias de tipo discreto. Se denomina de los sucesos raros ya que
generalmente es aplicada a sucesos cuya probabilidad de ocurrencia está
muy cerca de cero, de tal forma que el producto (np) sea menor que cinco.

Función de probabilidad de la distribución de Poisson:

λ x e−λ
p ( x) =
X!

Donde:

p (x): Probabilidad de Poisson dada por la aplicación de la formula anterior

λ❑ (Léase landa) es igual a la media aritmética de Poisson y la cual se


obtiene mediante el producto (n) (p), siendo (n) igual al tamaño de la
muestra.

λ x : Landa elevada a la cantidad de casos favorables.

e: base de los Logaritmos Neperianos e igual a 2, 7118.

x: Casos favorables.

X ! : lease Factorial, el producto de la descomposición de un nuemero hasta


llegar a la unidad.
Los valores de e se encuentran tabulados en la tabla de Poisson, con lo cual
nos evitamos el tener que trabajar con valores elevados a exponentes
negativos.

Ajuste a la distribución de Poisson:

a) Se halla la media aritmética de la distribución en estudio y se supone que


es igual a la media aritmética de Poisson.

FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡

b) Se determinan las respectivas probabilidades por la función de Poisson


para cada uno de los valores de la variable en estudio.

FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡

c) Se hallan las frecuencias teóricas, calculadas o esperadas (ft)


multiplicando la sumatoria de frecuencias absolutas u observables por cada
probabilidad P (x)

ft= (∑fii) P(x)

d) Se compara cada frecuencia teórica (ft) con cada frecuencia absoluta u


observada (fi) y se observa aparentemente si hay o no diferencias
significativas o discrepancias entre unas y otras.
Características de la distribución de Poisson:

La distribución de Poisson, se aplica a varios fenómenos discretos de la


naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3,…., n veces
durante un periodo definido de tiempo o en un área determinada) cuando la
probabilidad de ocurrencia del fenómeno es constante en el tiempo o el
espacio. Ejemplos de estos eventos que pueden ser modelados por la
distribución de Poisson incluyen:

 Los éxitos buscados en este tipo de experimentos son expresados por


unidad de área, tiempo, pieza, etc.
 De defectos de una tela por m2
 De aviones que aterrizan en un aeropuerto por día, hora, minuto, etc.
 De bacterias por cm2 de cultivo
 De llamadas telefónicas a un conmutador por hora, minuto, etc.
 De llegadas de embarcaciones a  un puerto por día, mes, etc.
 El número de errores de ortografía que uno comete al escribir una
única página.
 El número de mutaciones de determinada cadena de ADN después de
cierta cantidad de radiación.
 La inventiva de un inventor a través de su carrera.

Ejemplo

Si el 2% de los libros encuadernados en cierto taller tiene encuadernación


defectuosa, para obtener la probabilidad de que 5 de 400 libros
encuadernados en este taller tengan encuadernaciones defectuosas usamos
la distribución de Poisson. En este caso concreto, k es 5 y , λ, el valor
esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la
probabilidad buscada es
Este problema también podría resolverse recurriendo a una distribución
binomial de parámetros k = 5, n = 400 y θ=0,02.

Ejemplos chi cuadrado

En cierta máquina Expendedora de Refrescos existen 4 canales que expiden


el mismo tipo de bebida. Estamos interesados en averiguar si la elección de
cualquiera de estos canales se hace de forma aleatoria o por el contrario
existe algún tipo de preferencia en la selección de alguno de ellos por los
consumidores. La siguiente tabla muestra el número de bebidas vendidas en
cada uno de los 4 canales durante una semana. Contrastar la hipótesis de
que los canales son seleccionados al azar a un nivel de significación del 5%.

1 13

2 22

3 18

4 17

SOLUCIÓN:
Para realizar el contraste de Bondad de Ajuste debemos calcular las
frecuencias esperadas de cada suceso bajo la hipótesis de uniformidad entre
los valores. Si la selección del canal fuera aleatoria, todos los canales
tendrían la misma probabilidad de selección y por lo tanto la frecuencia
esperada de bebidas vendidas en cada uno de ellos debería ser
aproximadamente la misma. Como se han vendido en total 70 refrescos, la
frecuencia esperada en cada canal es

Ei= n * p i = 70* ¼ = 17.5 i = 1, ..., k

El estadístico del contraste sería

Este valor debemos compararlo con el valor crítico de la distribución


2
x 2 con (4-1)=3 grados de libertad. Este valor es: x 0.95 ( 3 )=7.81

Puesto que el valor del estadístico (2.34) es menor que el valor crítico, no
podemos rechazar la hipótesis de que los datos se ajustan a una distribución
uniforme. Es decir, que los canales son seleccionados aleatoriamente entre
los consumidores.

Otro ejemplo:

Se sabe que en un cruce T x T de palma, la descendencia de duras, teneras


y pisiferas esta en una proporción de 1:2:1. En una muestra de 104 palmas
se obtuvieron 28 duras, 49 teneras y 27 pisiferas. Se ajustan estos datos a la
proporción esperada?

Calculo :

Durase = 104 * 1
                      4

Tenerase 104 * 1
                    2

Pisiferase = 104 * 1
                           4
Categoría Esperado Observado (o-e)2/e
Duras 26 28 0.1538
Teneras 52 49 0.1731
Pisiferas 26 27 0.0385
Total 104 104 0.3654

X2c = 0.365 y  Gl = 2

Los grados de libertad (Gl) se obtienen restándole 1 al número de categorías.

Haciendo uso de la tabla de probabilidades de x 2 y con los grados de libertad


obtenidos, se determina el valor crítico al nivel de significancia deseado. En
este caso para Gl = 2 y para un nivel de 0.05 P se obtiene x 2 = 5.991.

Como x2c < x2t entonces se acepta la hipótesis planteada y se concluye que
los datos corresponden a una proporción de 1:2:1.

Otro ejemplo:

Supongamos que en una escuela las estadísticas de años pasados muestran


que, la comisión de admisión tiende a aceptar 4 alumnos por 1 que se
rechaza. Y en el presente año una comisión constituida por un grupo
diferentes de personas, aceptó 275 y rechazó 60. ¿Se puede decir que esta
nueva comisión difiere de manera significativa con la razón de rechazo de la
anterior comisión?
Corresponde en este caso calcular c 2 para esta razón de rechazo
comparada con la tradicional. De manera que tratándose de 330 casos en
total, si la comisión anterior hubiera actuado se esperaría que aceptaran 264
alumnos y rechazaran 66. Así pues tomamos estos números (razón 4:1)
como las frecuencias esperadas en cada caso.
Aceptado Rechazados Total
Frecuencia observada (fo) 275 55 330
Frecuencia esperada (fe) 264 66 330
( fe - fo ) = 11 -11
( fe - fo )2 = 121 121
( fe - fo )2/ fe = 121/ 264 121/66
( fe - fo )2/ fe = 0.4589 1.83
c 2 = 0.4589 + 1.83 = 2.29
Al comparar el valor c 2 obtenido con el valor crítico de un grado de libertad
y .05 de significatividad a dos colas vemos que el valor crítico (3.841) es
mayor que el observado por lo que no se puede desacreditar la hipótesis
nula y se concluye que la nueva comisión no muestra una política diferente a
la de la comisión anterior.

También podría gustarte