Está en la página 1de 37

UNIVERSIDAD DE SAN CARLOS DE GUATEMALA

FACULTAD DE CIENCIAS ECONOMICAS


ESCUELA DE AUDITORIA
CURSO: SEMINARIO DE INTEGRACION
CATEDRATICO: CARLOS MAURICIO GARCIA

COSTEO DIRECTO

SALON: 211
EDIFICIO: S-12

GUATEMALA, FEBRERO 2017


1

GRUPO NO. 6

Nombre Carnet
Lurdes Mishell Macario Roca 200921295
Sheila Merarí Santay Campos 201011012
Pedro Tocay Monroy 201111228
Miguel Suy Méndez 201111664
Vivian Karina Macario Roca 201119888
Cindi Regina López Ramírez 201120023
Ana Cristina Juárez Cuyún 201214841
Yojana Betzaly Sapón Coyoy 201214869
Gabriela Mariel Reneau Pastor 201214916
2

INDICE
INTRODUCCION ................................................................................................................................ i
CAPITULO I ...................................................................................................................................... 1
ANTECEDENTES Y GENERALIDADES DE LAS PROBABILIDADES ...................................... 1
1.1Naturaleza e importancia de la Probabilidad............................................................................... 1
1.2 Conceptos básicos.......................................................................................................................... 2
1.3 Otras definiciones importantes................................................................................................... 3
1.3.1 Experimento ........................................................................................................................ 3
1.3.2 Experimento Determinista .................................................................................................. 3
1.3.3 Experimento aleatorio ......................................................................................................... 3
1.3.4 Suceso o Evento Simple ...................................................................................................... 3
1.3.5 Espacio Maestral (S) .......................................................................................................... 3
1.3.6 Evento Compuesto .............................................................................................................. 3
1.3.7 Evento Contrario o Complementario................................................................................... 3
1.3.8 Evento o Suceso Cierto ....................................................................................................... 3
1.3.9 Evento o Suceso Imposible ................................................................................................. 4
1.4. Enfoque de las Probabilidades .................................................................................................. 4
1.4.1 Enfoque Objetivo ................................................................................................................ 4
1.4.2 Enfoque Empírico ............................................................................................................... 4
1.4.3 Enfoque Subjetivo ............................................................................................................... 5
1.4.4 El valor de la probabilidad ................................................................................................. 5
1.5 Objetivos de las probabilidades ................................................................................................. 5
1.6 Teoría de probabilidades............................................................................................................ 5
1.6.1 Aplicaciones........................................................................................................................ 6
1.6.1Teoremas básicos de la teoría de la probabilidad ................................................................ 8
1.6.2 Teorema de la Suma............................................................................................................ 8
1.6.3 Teorema de la Multiplicación ............................................................................................. 8
1.6.4 Teorema de Bayes ............................................................................................................... 9
1.7 La estadística y su relación con las probabilidades .................................................................. 10
1.8 Tipos de distribución ............................................................................................................... 11
3

1.8.1 Distribución de Probabilidades binomial .......................................................................... 11


1.8.3 Distribución de Probabilidades Normal (Curva Normal) .................................................. 13
CAPITULO II .................................................................................................................................... 16
Probabilidades y su clasificación ....................................................................................................... 16
2.1 Probabilidad Clásica.......................................................................................................... 16
2.1.1 Probabilidad Objetiva .................................................................................................... 16
2.1.2 Probabilidad teórica....................................................................................................... 16
2.2 Probabilidad empírica o frecuencial .................................................................................. 17
2.3 Probabilidad subjetiva ....................................................................................................... 18
2.4 Otras clasificaciones de las probabilidades........................................................................ 19
2.4.1 Probabilidad condicional ............................................................................................... 19
2.4.2 Probabilidad Simple ...................................................................................................... 20
2.4.3 Probabilidad Conjunta ................................................................................................... 21
2.4.4 Probabilidad Binominal ................................................................................................. 21
2.4.5 Probabilidad de Poisson................................................................................................. 22
2.4.6 Probabilidad Axiomática ............................................................................................... 23
2.5 Sucesos de pruebas repetidas............................................................................................. 24
CAPITULO III .................................................................................................................................. 25
3. Aplicación y ejemplos practicos de las probabilidades ............................................................. 25
3.1 Ejemplo No. 1 ................................................................................................................... 25
3.2 Ejemplo No. 2 ................................................................................................................... 26
3.3 Ejemplo No. 3 ................................................................................................................... 26
3.4 Ejemplo No. 4 ................................................................................................................... 28
CONCLUSIONES ............................................................................................................................. 30
RECOMENDACIONES.................................................................................................................... 31
BIBLIOGRAFIA ............................................................................................................................... 32
E-GRAFIA ........................................................................................................................................ 32
i

INTRODUCCION

El presente texto de investigación trata el tema de las Probabilidades, su origen,


proceso, clasificación y aplicabilidad, ya que es un tema de suma importancia en la
estadística, en el cual se desarrolla la teoría de la probabilidad y su utilización de manera
amplia en áreas como la física, la matemática, siendo la base para conclusiones sobre
posibles sucesos, por lo tanto es la rama de las matemáticas que estudia, mide o determina
a los experimentos o fenómenos aleatorios, contenido que es de suma importancia para los
estudiantes de la carrera de Contaduría Pública y Auditoria.

En el presente documento se pretende ampliar los conocimientos del tema de


probabilidades, tomando como base el bosquejo preliminar de temas, que fue plasmado en
el Plan de Investigación, con el fin de obtener las conclusiones que puedan comprobar o no
la hipótesis planteada.

La conformación de esta investigación está compuesta por tres capítulos,


comenzando con el Capítulo I, que muestran los antecedentes y generalidades de las
probabilidades, partiendo desde su historia y relación con la estadística. En el Capítulo II se
presenta la clasificación de las probabilidades, y otras clasificaciones, por último en el
Capítulo III se desarrollan varios casos prácticos acerca de la aplicabilidad del tema.

La finalidad de la investigación es que el estudiante obtenga los conocimientos


necesarios, para poder aplicar probabilidades, en el entorno en el que se desenvuelva, con
objeto de aportar soluciones a los posibles casos que se generen en su entorno laboral,
estudiantil y profesional.
1

CAPITULO I
ANTECEDENTES Y GENERALIDADES DE LAS PROBABILIDADES

Como todo estudio de investigación es importante conocer los antecedentes del


tema a investigar y en este capítulo presenta la historia y los antecedentes que dieron
origen a las probabilidades, como han cambiado y se han desarrollado a través del tiempo,
así también se tratan algunas generalidades del tema.

1.1Naturaleza e importancia de la Probabilidad


El ser humano constantemente está tratando de acercarse al futuro, con el propósito de
guiar sus actos presentes, de allí que desde tiempos remotos se ha tratado de encontrar un medio
para predecir con cierto grado de exactitud, lo que habrá de ocurrir en el futuro. La probabilidad
es una herramienta útil para la toma de decisiones, en condiciones, en acciones de incertidumbre,
por lo que constituye un apoyo valioso para estos casos; sin embargo, la aplicación de la
probabilidad se dio inicialmente en las casas de juegos de azar de Francia en el siglo XVII.

Fue hasta en el siglo XVIII cuando los matemáticos Blaise Pascal y Pierre Femat
intercambiaron información, acerca de problemas en los que intervenían elementos de azar, y
se empezaron a sentar bases de la teoría de la probabilidad.

Esta Disciplina que se inició a partir de los juegos de azar, recibió un gran impulso
durante los siglos XVII y XIX, sin embargo, la mayor parte de la contribución de ella a la
estadística moderna se ha dado durante los últimos 65 años y han hecho que cumpla un papel
importante en el conocimiento científico actual.

Existen diferentes criterios, con respecto a la probabilidad, abordaremos dos de los


puntos de vista o interpretación mas utilizados, haciendo resaltar que la diferencia de ellos son
los métodos que indican para la determinación de la probabilidad.
2

El primero es el que define a la probabilidad como una frecuencia relativa, con la que se
espera que ocurra o se presente un suceso, base en un numero de repeticiones del experimento.
La probabilidad determina así, suele denominarse probabilidad de frecuencia o probabilidad
objetiva, puesto que su valor se determina mediante una evidencia objetiva.

El segundo enfoque se refiere a la asignación de probabilidad a partir de estimaciones


subjetivas obtenidas, teniendo como guía el conocimiento previo, la información y la
experiencia. Esta forma de probabilidad, se ha denominado como subjetiva y ha ganado
recientemente considerable importancia en la teoría estadística, principalmente por su aplicación
a problemas en los que intervienen eventos o sucesos nuevos, y que por lo tanto no se tiene
información sobre el comportamiento pasado, pero si se tiene gran conocimiento del medio y
condiciones en que habrán de desarrollarse, por ejemplo el lanzamiento de un producto nuevo
al mercado, la ubicación de bodegas o centros de acopio, la compra y utilización de maquinarias
sofisticadas.

1.2 Conceptos básicos


Para iniciar el estudio de la probabilidad se abordaran algunos conceptos relacionados
con el tema a fin de proporcionar una panorámica general que facilite introducirse en el estudio
del contenido de esta disciplina.

Probabilidad Inducción

Los eventos que ocurren en la vida diaria no puede ser predichos con exactitud desde
antes por diversas razones, caso todos están influidos por factores externos. Además, existen
aquellos sucesos que están directamente influidos por el azar, es decir. Por procesos que no está
seguro de lo que va a ocurrir. Sin embargo, la probabilidad permite acercarse a esos sucesos y
estudiarlos, ponderando las posibilidades de su ocurrencia y proporcionando métodos para tales
ponderaciones.
3

1.3 Otras definiciones importantes

1.3.1 Experimento
Acción mediante la cual se obtiene un resultado y la observación de dicho resultado.
1.3.2 Experimento Determinista
Son los experimentos de los que podemos predecir el resultado antes de que se
realicen. Por ejemplo: Si dejamos caer una piedra desde una ventana sabemos, sin lugar a
dudas, que la piedra bajará. Si la arrojamos hacia arriba, sabemos que subirá durante un
determinado intervalo de tiempo; pero después bajará.
1.3.3 Experimento aleatorio
Cualquiera operación cuyo resultado no puede ser predicho de anterioridad con
seguridad, no se puede predecir el resultado, ya que éste depende del azar. Probabilidades
Ejemplo:
a) lanzamiento de una moneda
b) lanzamiento de un dado
c) extracción de una carta de una baraja de 52 cartas.

1.3.4 Suceso o Evento Simple


Es cada uno de los resultados posibles obtenidos a través de un experimento.
1.3.5 Espacio Maestral (S)
Se le da este nombre al conjunto de sucesos simples que componen un experimento.
La sumatoria de las probabilidades obtenidas en el espacio muestral da como resultado la
unidad.
1.3.6 Evento Compuesto
Es el evento que se encuentra integrado por varios sucesos o eventos simples.
1.3.7 Evento Contrario o Complementario
Es expresado como la probabilidad de fracaso o éxito.

1.3.8 Evento o Suceso Cierto


Es conocido como evento determinista y se expresa como la probabilidad de éxito de
cualquier suceso simple dentro del espacio muestral.
4

1.3.9 Evento o Suceso Imposible


Es la imposible ocurrencia de algún suceso o evento, aplicando la regla de Laplace el
resultado de la probabilidad será igual a cero.
a) Variables cuantitativas
Son las que resultan de experimentos cuyos resultados son directamente numéricos.
b) Variables cualitativas
Son las que proceden de experimentos cuyos resultados expresan una cualidad no numérica
que necesita ser cuantificada.

c) Variable discreta
Aquella que se define sobre un espacio muestral numerable, finito o infinito. Espacio
numerable es aquel cuyos elementos se pueden ordenar, asignándoles a cada uno un número
de la serie de los números naturales (del 1 al n ó del 1 al I). Todas las variables con un
número finito de valores y todas las que tomen valores en números enteros o racionales
(fraccionarios), son variables discretas.

d) Variable continúa
Es aquella que se define sobre un espacio asimilable al conjunto de los números
reales, es decir, un espacio no numerable (o un espacio infinito de tipo C o infinito dos)

1.4. Enfoque de las Probabilidades

1.4.1 Enfoque Objetivo


Es llamado probabilístico clásico, y se emplea cuando los espacios muestrales tienen
resultados igualmente probables.

1.4.2 Enfoque Empírico


También conocido como enfoque de experimentos o probabilidad estadística, se basa
en la frecuencia relativa de ocurrencia de un evento con respecto a un gran número de
ensayos repetidos.
5

1.4.3 Enfoque Subjetivo


Utiliza estimaciones personales de probabilidad y se encuentra basado en el grado de
confianza que se le asigne a los diferentes sucesos.

1.4.4 El valor de la probabilidad


El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento
es igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que indica que
el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la probabilidad de
ocurrencia de un evento A y P (A´) la probabilidad de no- ocurrencia de A, tenemos que:

1.5 Objetivos de las probabilidades


El objetivo fundamental de la probabilidad, es la de mostrar al alumno la importancia
y utilidad del Método Estadístico en el ámbito económico-empresarial. Con tal fin, el alumno
deberá aprender a manejar los métodos y técnicas más adecuadas para el correcto tratamiento
y análisis de la información proporcionada por los datos que genera la actividad económica.
Para ello se comienza afianzando los conocimientos que el alumno ya posee de Estadística
Descriptiva, además de algunos conceptos nuevos relacionados con este tema. Otro objetivo
es establecer y desarrollar modelos matemáticos adaptados al estudio de situaciones que
presentan cierto grado de incertidumbre.

1.6 Teoría de probabilidades


Se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en
un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es
más probable que otro. Es la parte de las matemáticas que estudia los fenómenos aleatorios
estocásticos. Estos deben contraponerse a los fenómenos determinísticos, los cuales son
resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones
determinadas.
6

Muchos fenómenos naturales son aleatorios, pero existen algunos, pero existen
algunos que debido a sus características del material hace que no exista una simetría del
mismo, así las repeticiones no garantizan una probabilidad definida. En los procesos reales
que se realizan mediante distribuciones de probabilidad corresponden a modelos complejos
donde no se conocen a prioridad todos los parámetros que intervienen; ésta es una de las
razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce
inmediatamente a la teoría de la probabilidad en sí.

1.6.1 Aplicaciones
Dentro de las principales aplicaciones de la teoría de la probabilidad, en el día a día,
son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se
les llama análisis de vías de dispersión, y a menudo miden el bienestar usando métodos que
son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis
estadísticos de su probable efecto en la población como un conjunto.

No es correcto decir que la estadística está incluida en el propio modelado, ya que


típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más
modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de
números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto
de estas elecciones, lo que hace de las medidas probabilísticas un tema político.

La teoría de las finanzas conductuales surgió para describir el efecto de este


pensamiento de grupo en el precio, en la política, en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para
calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de
los ciudadanos entender cómo se calculan los pronósticos y las probabilidades, y cómo
contribuyen a la reputación y a las decisiones, especialmente en una democracia.
7

Otra aplicación significativa de la teoría de la probabilidad, es en la fiabilidad.


Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la
teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La
probabilidad de avería también está estrechamente relacionada con la garantía del
producto.

Se puede decir que no existe una cosa llamada probabilidad. También se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en una baraja de cartas es la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% ó 0%, y la elección correcta puede ser hecha con precisión por
el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones
determinísticas donde sólo la descripción probabilística es factible debido a información
incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente
aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no hay


probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la
mano y el periodo de esta fuerza es conocida, entonces el número donde la bola parará será
seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la
ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano
durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces
ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de
lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la
teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo
(con el número de moléculas típicamente del orden de magnitud de la constante de
Avogadro) que sólo la descripción estadística de sus propiedades es viable.
No obstante hoy en día no existe un medio mejor para describir la física cuántica si
no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de
que la mecánica cuántica se describe a través de distribuciones de probabilidad con la
8

suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es


probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder
determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de
un sistema de ecuaciones determinista.

1.6.1Teoremas básicos de la teoría de la probabilidad


Los tres teoremas básicos que hicieron posible el desarrollo de la probabilidad tal y
como la conocemos hoy fueron los teoremas de la suma, de la multiplicación y de la
probabilidad total.

1.6.2 Teorema de la Suma


Pascal dio a entender implícitamente que sabía cómo calcular los casos favorables
de un suceso A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es
decir, si los Aj son una partición de A). Jakob Bernoulli también fue consciente de ello, y
fue más allá al darse cuenta de que la probabilidad de la unión no es la suma de las
probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón. Previamente,
Cardano había expresado un resultado similar en términos de casos en vez de
probabilidades. No fue ninguno de ellos quien formuló finalmente el teorema de la suma
de las probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo
fue leído póstumamente, en 1763. En esta obra, Bayes da la primera definición explícita de
sucesos disjuntos él los llamó ‘inconsistentes’ y enunció la fórmula ahora conocida:
P {AUB}=P {A}+P {B}-P {A∩B}

1.6.3 Teorema de la Multiplicación


Del mismo modo, el teorema de la multiplicación de probabilidades era conocido
por casi todos los estudiosos a través de cálculos particulares. Sin embargo, fue Abraham
De Moivre (1667–1754) el primero que los enunció con autoridad. En la introducción a su
obra Doctrina de las Posibilidades de 1711, De Moivre presentó el importante concepto
de independencia de sucesos aleatorios; así, escribió: Diremos que dos sucesos son
independientes, si uno de ellos no tiene ninguna relación con el otro y procedió a definir los
sucesos dependientes: dos sucesos son dependientes si están ligados el uno al otro y la
9

probabilidad de ocurrencia de uno de ellos influye en la probabilidad de ocurrencia del


otro». Una vez hecho esto, De Moivre lo aplicó al cálculo de probabilidades: la
probabilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de
ocurrencia de uno de ellos dividida por la probabilidad de que el otro ocurra si el primero
ya ha ocurrido. Esta regla puede generalizarse para varios sucesos. El caso de varios
sucesos lo describía así: se necesita elegir uno de ellos como el primero, otro como el
segundo, y así. Luego, la ocurrencia del primero debe considerarse independiente de todas
las demás; el segundo debe considerarse con la condición de que el primero ha ocurrido: el
tercero con la condición de que tanto el primero como el segundo han ocurrido, y así. De
aquí, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas
las probabilidades. O en notación moderna:
P {A1∩A2…An}=P {A1} .P {A2|A1} .P {A3 | A1 ∩ A2}…P {An ∩…An-1}

De Moivre acompañó sus afirmaciones con ejemplos resueltos. También fue


consciente de que lo verdaderamente difícil de este teorema es descubrir cuándo dos
sucesos son o no independientes.

1.6.4 Teorema de Bayes

El trabajo de Moivre obtuvo una gran difusión, así que el mérito de Bayes no fue
tanto la originalidad sino expresar la probabilidad condicional en función de la
probabilidad de la intersección:
P {A | B} = P {A∩B}/ P {B}
Además, el honor del teorema que lleva su nombre no es completamente suyo, ya
que él no estaba en condiciones de formular con probabilidades totales. Fue Pierre Simón
Laplace (1749–1827) quien desarrolló la mayor parte del teorema de Bayes en su
Experiencia en la Filosofía de la Teoría de la Probabilidad (1812). Sea A un suceso que
ocurre en conjunción con uno y sólo uno de los n sucesos disjuntos B1,..., Bn. Si se sabe
que el suceso A ha ocurrido, ¿Cuál es la probabilidad de que el suceso Bj también? Laplace
respondió de la siguiente manera: la probabilidad de existencia de una de esas causas es
igual a una fracción con un numerador igual a la probabilidad del suceso que se sigue de
10

esta causa y un denominador que es la suma de las probabilidades similares relativas a


todas las posibles causas. Si estas diferentes causas a priori no son equiprobables, entonces
en lugar de tomar la probabilidad del evento que sigue a cada causa, se toma el producto
de esta probabilidad veces la probabilidad de la causa. Esta enrevesada receta puede
escribir en notación moderna:

Laplace aplicó el teorema a problemas de la mecánica celeste, la estadística médica


e, incluso, a la jurisprudencia. Al igual que los otros dos teoremas, el Teorema de Bayes ya
se usaba anteriormente, aunque nunca había sido formulado.

1.7 La estadística y su relación con las probabilidades

La Estadística, y por tanto el Cálculo de Probabilidades, se ocupan de los


denominados fenómenos o experimentos aleatorios.
El conjunto de todos los resultados posibles diferentes de un determinado
experimento aleatorio se denomina Espacio Muestral asociado a dicho experimento y se
suele representar por Ω. A los elementos de Ω se les denomina sucesos elementales.
Así por ejemplo, el espacio muestral asociado al experimento aleatorio consistente
en el lanzamiento de una moneda es Ω= {Cara, Cruz}; el espacio muestral asociado al
lanzamiento de un dado es Ω={1, 2, 3, 4, 5, 6}, siendo Cara y Cruz los sucesos elementales
asociados al primer experimento aleatorio y 1, 2, 3, 4, 5 y 6 los seis sucesos elementales del
segundo experimento aleatorio.
A pesar de la interpretación que tiene el espacio muestral, no es más que un
conjunto abstracto de puntos (los sucesos elementales), por lo que el lenguaje, los
conceptos y propiedades de la teoría de conjuntos constituyen un contexto natural en el que
desarrollar el Cálculo de Probabilidades.
Sea A el conjunto de las partes de, es decir, el conjunto de todos los subconjuntos
de Ω. En principio, cualquier elemento de A, es decir, cualquier subconjunto del espacio
muestral contendrá una cierta incertidumbre, por lo que trataremos de asignarle un número
11

entre 0 y 1 como medida de su incertidumbre. En Cálculo de probabilidades dichos


subconjuntos reciben en el nombre de sucesos, siendo la medida de la incertidumbre su
probabilidad. La tripleta (Ω,A,P) recibe el nombre de espacio probabilístico.
Por tanto, asociado a todo experimento aleatorio existen tres conjuntos: el espacio
muestral, la clase de los sucesos, es decir, el conjunto de los elementos con incertidumbre
asociados a nuestro experimento aleatorio A, y una función real, P:A[0, l], la cual asignará
a cada suceso (elemento de A) un número entre cero y uno como medida de su
incertidumbre.
Es importante mencionar que la elección del espacio muestral asociado a un
experimento aleatorio no tiene por qué ser única, sino que dependerá de que sucesos
elementales queramos considerar como distintos y del problema de la asignación de la
probabilidad sobre esos sucesos elementales.

1.8 Tipos de distribución


Las distribuciones pueden ser de dos tipos: Discretas y continuas. Las discretas
tienen un número limitado de valores y es conocida como distribución binomial, mientras
que en las continuas la variable que se está considerando puede tomar cualquier valor
dentro de un intervalo dado, conocida también como distribución de probabilidad normal o
curva normal.

1.8.1 Distribución de Probabilidades binomial


Es una distribución de probabilidades basada en un desarrollo del binomio. Que se
considera pruebas repetidas e independientes de un experimento con dos resultados.
En estadística, la distribución binomial es una distribución de probabilidad discreta
que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes
entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un
experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos
resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al
otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de calcular la
12

probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de


hecho, en una distribución de Bernoulli.

Este tipo de probabilidad se basa en el desarrollo del siguiente binomio:


n n
(a + b) = (p + q)

Donde:
p = probabilidad de éxito
q = probabilidad de fracaso
n = número de ensayos

Entre las características del binomio presentado anteriormente se pueden


mencionar las siguientes:
• Los elementos a desarrollar en el binomio se determinan sumándole
la unidad al número de ensayos, es decir, n + 1.
• El primer término “p” aparece con exponente igual a “n”, e irá
disminuyendo de uno en uno.
• En el segundo término el exponente de “q” es igual a uno, e irá
aumentando de uno en uno.
• Los coeficientes de los términos son simétricos.
• La suma de los exponentes de cada término es igual a “n”.

Se presenta dicotomía en los resultados, es decir, que se pueden clasificar en dos


categorías, por ejemplo: bueno y malo, eficiente y deficiente, etcétera. Y se aplica de la
siguiente forma:
• Cada intento tiene solamente dos posibles resultados, ya sea éxito o
fracaso.
• La probabilidad del resultado de cualquier intento permanece fijo
respecto al tiempo.
13

• Los eventos son independientes, no alterando el resultado de un


evento al resultado del otro.
• Cuando la probabilidad de fracaso es igual a (1 – q) y ( p + q) es
igual a uno.

1.8.3 Distribución de Probabilidades Normal (Curva Normal)


La curva normal es también denominada curva o campana de Gauss, en honor al
matemático alemán Carl Friedrich Gauss, y consiste en la distribución media o promedio
de las características de una población, cuya gráfica produce una figura tipo acampanada.
La curva normal es una distribución continua de frecuencia de rango infinito, como
la que se obtiene cuando se persigue un objetivo sometido a desviación por error. Su
importancia y su gráfica asociada se deben a la enorme frecuencia con que aparece en todo
tipo de situaciones.

Por ejemplo, cuando se busca dar en una diana, si se intenta acertar, la mayor parte
de los disparos tenderán a acumularse en las franjas intermedias, tendiendo a ser menos
frecuentes en el punto de mayor valor (centro de la diana) y en las zonas periféricas.
El gráfico representa la distribución de los errores; la media o promedio es el
objetivo, y la desviación típica indica la dispersión de los errores (la raíz cuadrada de la
varianza).

La distribución de muchas variables, como la altura y peso de los individuos,


caracteres fisiológicos, sociológicos, psicológicos o físicos y, en general, cualquier
característica que se obtenga como suma de muchos factores, sigue la curva normal.
Cuando se miden los valores de la inteligencia se asume que su valor promedio en una
determinada población es 100 y que el valor de su desviación típica es 15.

En Europa, la distribución normal se conoce también como ‘distribución


gaussiana’, ‘laplaciana o gaussiana-laplaciana’, o ‘segunda ley de Laplace‘. En 1753 fue
enunciada por el matemático francés Abraham de Moivre como el caso límite de la
distribución binomial.
14

La Distribución de Gauss ocupa un lugar importante tanto en la estadística teórica


como en la estadística aplicada, por las siguientes razones:

• Puede coincidir muy cerca con las distribuciones de frecuencias


observadas y de muchas mediciones naturales y físicas.
• Se puede utilizar para aproximar probabilidades binomiales cuando
“n” es muy amplio.
• Las distribuciones de medias muéstrales y proporciones de grandes
muestras tienden a distribuirse normalmente y es por ello que tiene importantes
repercusiones en el muestreo.

Características de la curva normal


• La curva normal es simétrica, por lo tanto el coeficiente de sesgo es
igual a cero.
• Muestra pocos valores en los extremos.
• El promedio, la mediana y la moda tienen el mismo valor, tiene un
solo pico y es unimodal.
• Los puntos de inflexión están a media más, menos la desviación
estándar.
• La curva normal es “asíntota” al eje de las abscisas, sus extremos
nunca tocan el eje de las equis.
• La sumatoria el área bajo la curva normal es igual a uno o 100%.
• El coeficiente de kurtosis es igual a tres.
• El valor típico de “Z” es positivo cuando corresponde a un valor
mayor que la media y el valor negativo cuando el valor es menor que la media.
• El valor de “Z” para equis igual a la media, siempre será igual a
cero.
• La media aritmética más y menos una desviación estándar cubre un
68.26% de los casos.
• La media aritmética más y menos dos desviaciones estándar cubre el
95.45% de los casos.
15

• La media aritmética más y menos tres desviaciones estándar cubre el


99.73% de los casos.
• La media aritmética más o menos una desviación media cubre el
58% de los datos.
16

CAPITULO II
Probabilidades y su clasificación

Cuando se habla de los tipos de probabilidad, decimos que esta se clasifica en tres,
por lo que en el presente capítulo se desarrolla la clasificación de las probabilidades,
también se trataran otras clasificaciones.

2.1 Probabilidad Clásica

La probabilidad clásica de un evento es la razón entre el número de casos (suceso)


favorables, y el número total de casos (sucesos) posibles, siempre que nada obligue a creer
que algunos de estos sucesos debe tener preferencia a los demás, lo que hace que sean
igualmente posibles.
Es el número de resultados favorables a la presentación de un evento dividido entre
el número total de resultados posibles. Asignación de probabilidad "a priori", si necesidad
de realizar el experimento.
La probabilidad clásica o teórica se aplica cuando cada evento simple del espacio
muestral tiene la misma probabilidad de ocurrir.

2.1.1 Probabilidad Objetiva


Es aquella que se determina tomando como base algún criterio experimental u
objetivo ajeno al sujeto decisor, como el cociente entre el número de casos favorables y
número de casos posibles o el límite de una frecuencia relativa. La probabilidad objetiva se
subdivide en probabilidad teórica y empírica.

2.1.2 Probabilidad teórica


Es el número de resultados favorables a la presentación de un evento dividido entre
el número total de resultados posibles. Asignación de probabilidad "a priori", si necesidad
de realizar el experimento.
La probabilidad clásica o teórica se aplica cuando cada evento simple del espacio
muestral tiene la misma probabilidad de ocurrir.
17

Si un suceso puede ocurrir de N maneras mutuamente excluyentes e igualmente


probables, y m de ellas poseen una característica A

2.2 Probabilidad empírica o frecuencial


Una teoría de mayor aplicación y muy sostenida es la basada en la frecuencia
relativa. Puede atribuirse a este punto de vista el adelanto registrado en la aplicación de la
probabilidad en la Física, la Astronomía, la Biología, las Ciencias Sociales y los negocios.

Esta teoría está estrechamente relacionada con el punto de vista expresado por
Aristóteles: “lo probable es aquello que ocurre diariamente”.

Notamos a través de gran cantidad de observaciones acumuladas con los diversos


juegos de azar una forma general de regularidad que permitió establecer una teoría.

Supongamos que efectuamos una serie de n repeticiones del experimento E,


intentando mantener constantes las condiciones pertinentes. Sea f el número de
repeticiones en las que se presenta el suceso A, de forma que en las restantes n – f no se
presentará. Obtendremos así una serie de frecuencias relativas para n1, n2 ….

Estas frecuencias relativas diferirán poco entre sí cuando las ni sean grandes y
tenderán a acumularse en la proximidad de un valor fijo.

Debemos señalar que la estabilidad, a la larga, de las frecuencias relativas se aplica


a una amplia clase de experimentos aleatorios, de los que el juego de azar constituye un
caso en particular, casi insignificante.
18

Para establecer una descripción matemática sencilla de la conducta de las


frecuencias relativas para grandes valores de n, vamos a postular la existencia de un nro. p
que es el nro. al cuál tiende fr, es decir, la frecuencia relativa del suceso en estudio.
Este número se llamará probabilidad del suceso A en relación con el experimento
aleatorio E.
La frecuencia relativa fr se considerará entonces como una medida experimental de
la probabilidad y diremos:
“De acuerdo con el concepto empírico de la estabilidad de las razones frecuenciales
cabe esperar que, para grandes valores de n, la razón frecuencial observada sea
aproximadamente igual a p que se llamará probabilidad del suceso en estudio”.
Estaremos entonces “estimando” el valor de una probabilidad desconocida por
medio de un estudio de la conducta de las frecuencias relativas del hecho o suceso
correspondiente.
La aplicación de esta definición está relacionada con un experimento aleatorio que
puede ser repetido varias veces en condiciones uniformes. Naturalmente, la repetición real
será en ocasiones difícil o incluso imposible de realizar, por ejemplo, debido a los costos
prohibitivos de experimentación, pero bastará con que sea concebible una repetición en
condiciones uniformes.
En el caso particular de la probabilidad empírica en una muestra de sujetos, de los
cuales se ha estimado sus puntuaciones directas, la probabilidad empírica es la probabilidad
estadística asociada a cada sujeto individual, y mide las verdaderas posibilidades reales
individuales, en comparación al resto de sujetos de la muestra.

2.3 Probabilidad subjetiva


Se refiere a la probabilidad de ocurrencia de un suceso basado en la experiencia
previa, la opinión personal o la intuición del individuo. En este caso después de estudiar la
información disponible, se asigna un valor de probabilidad a los sucesos basado en el grado
de creencia de que el suceso pueda ocurrir.
Es una forma de cuantificar por medio de factores de ponderación individuales, la
probabilidad de que ocurra cierto evento, cuando no es posible de cuantificar de otra
manera más confiable.
19

Las probabilidades subjetivas están basadas en las creencias de las personas que
efectúan la estimación de probabilidad. La probabilidad subjetiva se puede definir como la
probabilidad asignada a un evento por parte de un individuo, basada en la evidencia que se
tenga disponible. Esa evidencia puede presentarse en forma de frecuencia relativa de
presentación de eventos pasados o puede tratarse simplemente de una creencia meditada.

Las valoraciones subjetivas de la probabilidad permiten una más amplia flexibilidad


que los otros dos planteamientos. Los tomadores de decisiones pueden hacer uso de
cualquier evidencia que tengan a mano y mezclarlas con los sentimientos personales sobre
la situación.
Las asignaciones de probabilidad subjetiva se dan con más frecuencia cuando los
eventos se presentan sólo una vez o un número muy reducido de veces.

Como casi todas las decisiones sociales y administrativas de alto nivel se refieren
a situaciones específicas y únicas, los responsables de tomar decisiones hacen un uso
considerable de la probabilidad subjetiva.

2.4 Otras clasificaciones de las probabilidades

Existen otras clasificaciones que a continuación se describen.

2.4.1 Probabilidad condicional

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo


que también sucede otro evento B. La probabilidad condicional se escribe P (A|B), y se lee
«la probabilidad de A dado B».
No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B,
viceversa o pueden no tener relación causal. Las relaciones causales o temporales son
nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se le dé a los eventos.
20

Definición.- Sean A y B dos eventos asociados a un experimento aleatorio. La


probabilidad que ocurra el evento B, dado que ocurrió el suceso A se llama probabilidad
condicionada del suceso B, esta se simboliza por P (B/A).
Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado.
¿Cuál es la probabilidad de obtener una cara (moneda) y luego un 6 (dado)?
Pues eso se escribiría como P (Cara | 6).
El condicionamiento de probabilidades puede lograrse aplicando el teorema de
Bayes.
Independencia de sucesos
Dos sucesos aleatorios A y B son independientes si y sólo si: A y B son
independientes, su probabilidad conjunta, puede ser expresada como el producto de las
probabilidades individuales.
En otras palabras, si A y B son independientes, la probabilidad condicional de A
dado B es simplemente la probabilidad de A y viceversa.

La falacia de la probabilidad condicional


La falacia de la probabilidad condicional se basa en asumir que P (A|B) es casi igual
a P (B|A). El matemático John Allen Paulos analiza en su libro El hombre a numérico este
error muy común cometido por personas que desconocen la probabilidad.

2.4.2 Probabilidad Simple


La posibilidad que hay de que ocurra algún evento determinado, por ejemplo, que
de un recipiente con 5 pelotas verdes, 2 azules y 3 rojas obtengamos una roja es de .3,
siempre debe ser un número menor o igual a uno, excepto cuando lo expresas en
porcentaje.
Probabilidad simple es igual a la cantidad de formas en que un resultado específico
va a suceder entre la cantidad total de posibles resultados.
Una manera, muy usada en la práctica, de denominar la probabilidad un evento
simple de un espacio muestral es como probabilidad simple o marginal, la cual hace
referencia a la probabilidad de un evento simple, y se denota con P(A), siendo A el evento
21

simple en cuestión. El nombre de probabilidad marginal se debe a que esta medida se


puede obtener a partir de los totales marginales de una tabla de contingencia.
Cantidad de formas en que un resultado especifico va a suceder
Probabilidad=cantidad total de posibles resultados

2.4.3 Probabilidad Conjunta


Es la probabilidad de ocurrencia de dos o más eventos.
De la expresión P (B|A)=P (A∩B)/P(A) se pude despejar P (A∩B)=P(A) P (B|A) expresión
llamada Ley de multiplicación de probabilidades.
P (A∩B) recibe el nombre de probabilidad conjunta y corresponde a la
probabilidad de que se presenten resultados comunes a los eventos A y B.
Supónganse dos eventos A y B que pertenecen al espacio muestral S
La probabilidad conjunta de A y B, es la probabilidad de que ocurran el evento A
y el evento B de manera simultánea.
Es decir: P(A B) P (A| B) P (B) o bien: P(A B) P (B | A) P(A) A B

2.4.4 Probabilidad Binominal


En estadística, la distribución binomial es una distribución de probabilidad
discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli
independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los
ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son
posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de
ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial
el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la
probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de
hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de
parámetros n y p, se escribe:
22

La distribución binomial es la base del test binomial de significación estadística.

2.4.5 Probabilidad de Poisson


En teoría de probabilidad y estadística, la distribución de Poisson es una
distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia
media, la probabilidad que ocurra un determinado número de eventos durante cierto
periodo de tiempo.
Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su
trabajo Recherches sur la probabilité des jugements en matières criminelles et matière
civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
La función de masa o densidad de la distribución de Poisson es

Donde:
• k es el número de ocurrencias del evento o fenómeno (la función nos da la
probabilidad de que el evento suceda precisamente k veces).
• λ es un parámetro positivo que representa el número de veces que se espera
que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado
tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad
de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de
distribución de Poisson con λ = 10×4 = 40.
• Es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribución
de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard
en λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.
23

La moda de una variable aleatoria de distribución de Poisson con un λ no entero es


igual al, el mayor de los enteros menores que λ (los símbolos representan la función parte
entera). Cuando λ es un entero positivo, las modas son λ y λ − 1. Las variables aleatorias
de Poisson tienen la propiedad de ser infinitamente divisibles.

Intervalo de Confianza
Un criterio fácil y rápido para calcular un intervalo de confianza aproximada de λ
es propuesto por Guerriero (2012)1 . Dada una serie de eventos k (al menos el 15 - 20) en
un periodo de tiempo T.

2.4.6 Probabilidad Axiomática


Los axiomas de probabilidad son las condiciones mínimas que deben verificarse
para que una función que definimos sobre unos sucesos determine consistentemente
valores de probabilidad sobre dichos sucesos.
La probabilidad P de un suceso E, denotada por P (E), se define con respecto a un
"universo" o espacio muestral Ω, conjunto de todos los posibles sucesos elementales, tal
que P verifique los Axiomas de Kolmogoróv, enunciados por el matemático ruso de este
nombre en 1933. En este sentido, el suceso E es, en términos matemáticos, un subconjunto
de Ω.
Primer axioma:
La probabilidad de un suceso A es un número real mayor o igual que 0. La
probabilidad de un suceso es un número positivo o nulo.
Segundo axioma:
La probabilidad del total, Ω, es igual a 1. Ω representa todas las posibles
alternativas y se denomina suceso seguro.
Tercer axioma:
Si A1, A2... son sucesos mutuamente excluyentes (incompatibles dos a dos,
disjuntos o de intersección vacía dos a dos), entonces:
Según este axioma se puede calcular la probabilidad de un suceso compuesto de
varias alternativas mutuamente excluyentes sumando las probabilidades de sus
componentes.
24

2.5 Sucesos de pruebas repetidas


Los sucesos de pruebas repetidas son de gran importancia en el cálculo de
probabilidades y sus aplicaciones. Este problema se presenta cuando un experimento u
observación se repite cierto número de veces bajo las mismas condiciones. Se dice que un
suceso simple interviene en una prueba si necesariamente acurre o deja de ocurrir una sola
vez. Se dice que un suceso simple interviene en pruebas repetidas si necesariamente bajo
exactamente las mismas condiciones, ocurre o deja de ocurrir, cada vez, una vez.

Si un evento ocurre en una prueba, se acostumbra a decir que se acierta, y que la


probabilidad de que el suceso ocurra es la probabilidad de acertar. De la misma forma, si
un evento no ocurre en una prueba, se acostumbra a decir que el suceso falla, y que la
probabilidad de que el suceso no ocurra es la probabilidad de fallar.
25

CAPITULO III
3. Aplicación y ejemplos practicos de las probabilidades

En el presente capítulo se presentaran varios casos prácticos respecto a la


aplicabilidad de las probabilidades, casos en los que se pondrá en práctica todo lo
comprendido en la realización del trabajo de investigación.

3.1 Ejemplo No. 1


Se hacen dos extracciones de una caja que contiene 8 bolitas rojas y 6 bolitas
negras. Hallar la probabilidad de sacar:
• Dos rojas con reposición.
P (R1 y R2) = ( 8 / 14) * ( 8 / 14)
P (R1 y R2) = 0.57 * 0.57
P (R1 y R2) = 0.33 = 33 %

Dos rojas sin reposición.

P (R1 y R2) = ( 8 / 14) * ( 7 / 13)

P (R1 y R2) = 0.57 * 0.54


P (R1 y R2) = 0.31 = 31 %

• Haciendo dos extracciones sucesivas, hallar la probabilidad de que


primero salga roja y luego negra, con reposición.
P (R y N) = ( 8 / 14) * ( 6 / 14)
P (R y N) = 0.57 * 0.43
P (R y N) = 0.24 = 24 %
26

• Haciendo dos extracciones sucesivas, hallar la probabilidad de que


primero salga roja y luego negra, sin reposición.
P (R y N) = ( 8 / 14) * ( 6 / 13)
P (R y N) = 0.57 * 0.46
P (R y N) = 0.26 = 26 %

3.2 Ejemplo No. 2


Cuál es la probabilidad de que una empresa tenga ingresos entre Q121.00 y Q165.00 miles
a) Datos
X=150
X=120.50
S=16 Z=?
Z=120.50-150 = 1.84 Tabla Áreas= 0.4671
16
b) Datos X=150
X=165.5
S=16 Z=?
Z=165.50-150 = 0.96875 = 0.97 Tabla Áreas = 0.3340
16
Luego sumamos ambas respuestas.
0.4671+ 0.3340= 0.8011 = 80.11%
R/La probabilidad de que un almacén tenga ventas entre 121.00 y 165.00 es de
80.11%

3.3 Ejemplo No. 3


Los precios de 700 artículos manufacturados en la Fábrica “La Calidad”, están
distribuidos normalmente, se estableció un promedio de Q. 200.00, un intervalo constante
de 10 y una varianza de Q. 225.00, se pide calcular lo siguiente:
27

a) La probabilidad y el número de artículos que tendrían precios entre Q.


180.00 y Q.220.00
b) La probabilidad de artículos que tendrían precios menores de Q. 185.00
c) La probabilidad de encontrar artículos con precios entre Q. 210.00 y Q.
225.00

Datos
N= 700
X=200
C = 10
S2 = 225
S = 15

a) 180 y 220

X1= 179,5
X2= - 200
Z 1= 179,5 – 200 = -1,37
15
Z 2=220,5 – 200
15 = 1,37
0,4147 + 0,4147= 0,8294 * 700 = 580,58
R/ La probabilidad de los artículos que tendrían precios entre Q. 180.00 y
220.00 es de 0.7994 (79.94%) y el número de artículos es de 640.
b) P(x < 185) X=184,5
X = -1.03
Z= 184,5 – 200 = -1.03 En tabla II = 0,3485
15
0,5 - 0,3485 = 0,1515
R/ La probabilidad de artículos que tendrían precios menores de Q. 185.00 es de
0.1515 (15.15 %).
28

c) P (210 < X < 225) X1 =209,5


X2 = 225,5
Z1 = 209,5 – 200 =0,63 En tabla II = 0,2357
15
Z2 = 225,5-200 = 1.70 En tabla II = 0,4554
15
0,4554- 0,2357= 0,2197
R/ La probabilidad de encontrar artículos con precios entre Q. 210.00 y Q. 225.00
es de 0.2197 (21.97%).

3.4 Ejemplo No. 4


El 70% de empresas tiene errores en sus activos financieros, el 60% tiene errores en
sus pasivos financieros y el 40% tiene errores en sus activos y en sus pasivos financieros.
Obtenga razonadamente el porcentaje de empresas sin errores en sus activos, en sus
pasivos o en ambos. De una muestra de 500 empresas, ¿cuántas se espera que no tengan
errores ni en sus activos ni en sus pasivos financieros?

Solución:
Llamemos A = {tener errores en los activos financieros} y B = {tener errores en los
pasivos financieros}. Entonces P(A) = 0’7, P(B) = 0’6 y P(A Ç B) = 0’4.
El suceso “no tener errores en los activos financieros” es A y por tanto P(A ) = = 1 -
P(A) = 1 - 0’7 = 0’3 lo que significa el 30%.
El suceso “no tener errores en los pasivos financieros” es B y por tanto P(B
)=1P(B)=1-0’6 = 0’4 lo que significa el 40%.
El suceso “no tener errores en ambos” equivale a “no tener errores en los activos
financieros y no tener errores en los pasivos financieros”, es decir, A ÇB . Pero, por las
leyes de Morgan, A ÇB = A ÈB. Entonces P(A ÇB ) = P(A ÈB) =1 - P(A È
B) = 1 - [P(A) + P(B) - P(A Ç B)] = 1 - (0’7 + 0’6 - 0’4) = 1 - 0’9 = 0’1 lo que
significa un 10%.
29

Según lo anterior se espera que un 10% de las empresas no tengan errores ni en sus
activos ni en sus pasivos financieros. Si tenemos una muestra de 500 empresas podemos
esperar que 500 100/10 = 50 empresas no tengan errores ni en sus activos ni en sus pasivos
financieros.
30

CONCLUSIONES

• La hipótesis que fue planteada en el plan de investigación, fue comprobada,


ya que se estableció que el efecto de la falta de conocimiento de la teoría de las
probabilidades afecta a los estudiantes universitarios, miembros de la Facultad de
Ciencias Económicas, provocando que sea difícil la aplicación y entendimiento del
tema.

• La teoría de probabilidades es muy extensa y sus aplicaciones han adquirido


mucha importancia tanto en la administración pública y empresarial. También las
probabilidades son de gran importancia en la estadística.

• Una de las características de un experimento aleatorio es que no se sabe qué


resultado particular se obtendrá al realizarlo, por tanto la probabilidad, es una
experiencia aleatoria, y una aplicación que asigna un número real a cada suceso con el
objetivo de llegar a la respuesta esperada para poderla visualizar.
31

RECOMENDACIONES

• Realizar evaluaciones a los estudiantes universitarios, sobre el tema de las


probabilidades y su aplicación, de manera que estén conscientes de las consecuencias
de no utilizar los métodos de Probabilidades de una forma correcta, ya que es un
instrumento que puede ser de mucho apoyo en los distintos ámbitos.

• Verificar que los estudiantes estén al corriente y actualizados sobre el tema


de probabilidades, y que puedan realizar el análisis correcto de los suceso o eventos,
seguido de una correcta formulación para obtener soluciones a problemas planteados,
y que sean de base en toma de decisiones a nivel profesional, empresarial y financiero
el ejercicio profesional.

• Ejecutar operaciones que traten las probabilidades aleatorias de manera que


se obtenga el resultado de manera eficaz y que sea el que se ha planteado antes de
llegar a la deducción esperada.
32

BIBLIOGRAFIA

• Quesada V, García A. Lecciones de Cálculo de Probabilidades. Madrid: Díaz de Santos;


1988.
• Otto Rene Morales Peña, Oscar Horldo Quiniones Porras, Axel Osberto
Marroquín Reyes. Metodos Cuantitativos I.
• López Cordón, Oscar Noé
Estadística

E-GRAFIA

• www.wikipedia.com artículo: “Probabilidades”

• http://dme.ufro.cl/clinicamatematica/pdf/Estadistica%20y%20Probabilidad.pdf

• http://www.monografias.com/trabajos81/distribuciones-
probabilidaddiscreta/distribuciones-probabilidad-discreta.shtml#ixzz40fwr0aZ1

• https://www.google.com/search?q=probabilidad+clasica&gws_rd=ssl

También podría gustarte