Está en la página 1de 18

República bolivariana de Venezuela

Ministerio del Poder Popular para la Educación

Universidad politécnica territorial

José Antonio Anzoátegui

Anaco, Estado, Anzoátegui

Probabilidad

Profesora: Integrantes:

Jackeline pino
Aldrin Bello.CI:29.729.271

Enerly Caro.CI:26.395.857

Sandra Rondón. CI: 29.962.780

Juliett Hinojosa.CI:27.471.042

Kirlyannis Gonzales CI: 29.729.597

Contaduría. Sección 02

Turno; tarde

Trayecto 1 fase 2

1
Índice

Introducción…………………………………………………………………………….1
historia de la probabilidad…………………………………………………………….2
Historia de la probabilidad a partir del siglo XVIII……………………………….2,3
Las aportaciones de Kolmogorov en el siglo XX…………………………..…………3
Probabilidad………………………………………………………………………......3,4
Diferencia entre estadística y probabilidad………………………………………......4
Aplicaciones de la probabilidad……………………………………………………….4
Tipos de probabilidad………………………………………………………………….4
Frecuencial………………………………………………………………………….5,6,7
Probabilidad binomial……………………………………………………………..7,8,9
La probabilidad objetiva puede obtenerse utilizando…………………………9,10,11
La probabilidad subjetiva…………………………………………………………11,12
probabilidad hipergeométrica………………………………………………………..12
Lógica probabilitaria………………………………………………………………12,13
Probabilidad condicionada………………………………………………………..13,14
conclusión……………………………………………………………………………...15

2
Introducción

La teoría de probabilidad tuvo como uno de sus primeros puntos de partida el intentar
resolver un problema particular concerniente a una apuesta de juego de dados entre dos
personas. El problema al que nos referimos involucraba una gran cantidad de dinero y
puede plantearse de la siguiente forma: Dos jugadores escogen cada uno de ellos un
número del 1 al 6, distinto uno del otro, y apuestan 32 doblones de oro a que el número
escogido por uno de ellos aparece en tres ocasiones antes que el número del contrario al
lanzar sucesivamente un dado. Suponga que el número de uno de los jugadores ha
aparecido dos veces y el número del otro una sola vez. ¿Cómo debe dividirse el total de
la apuesta si el juego se suspende?

Uno de los apostadores, Antonio de Gombaud, popularmente conocido como el


caballero De Mere, deseando conocer la respuesta al problema plantea a Blaise Pascal
(1623-1662) la situación.PascalasuvezconsultaconPierredeFermat(1601-
1665)einicianunintercambio de cartas a propósito del problema. Esto sucede en el año
de 1654. Los historiadores de la matemática están generalmente de acuerdo en
considerar este hecho como el origen del estudio de las probabilidades. Con lo
anteriormente mencionado se inician algunos esfuerzos por dar solución a éste y otros
problemas similares que se plantean. Con el paso del tiempo se sientan las bases y las
experiencias necesarias para la búsqueda de una teoría matemática que sintetice los
conceptos y los métodos de solución de los muchos problemas particulares resueltos a
lo largo de varios años.

Las ideas de probabilidades permanecen circunscritas a los problemas de juegos de azar


hasta que Pierre Laplace (1749-1827) y Friedrich Gauss (1777-1855) hacen notar que
las teorías desarrolladas son aplicables también a otras actividades diferentes de los
juegos de azar. En el segundo congreso internacional de matemáticas, celebrado en la
ciudad de Paris en el año 1900, el matemático David Hilbert (1862-1943) plantea 23
problemas matemáticos de importancia. Uno de estos problemas es el de encontrar
axiomas o postulados a partir de los cuales se pueda construir una teoría matemática de
la probabilidad. Aproximada- mente treinta años después, en 1933, el matemático ruso
Andrei Nikolaevich Kolmogorov (1903-1987) propone ciertos axiomas basados en la
teoría de la medida desarrollada por H. Lebesgue(1875-1941), que a la postre resultaron
adecuados para la construcción de una teoría de la probabilidad. Esta teoría prevalece
hoy en día y ha adquirido el calificativo de teoría clásica. Actualmente la teoría clásica
de la probabilidad se ha desarrollado y extendido enormemente gracias a muchos
pensadores que han contribuido a su crecimiento, y es sin duda una parte importante y
bien establecida de las matemáticas. Ha resultado útil para resolver problemas
puramente matemáticos, pero sobre todo y principalmente, para modelar situaciones
reales o imaginarias, en donde el azar es relevante

3
Historia de la probabilidad

La historia de la probabilidad abarca, principalmente, el periodo entre la escritura del


primer tratado que hace referencia a la misma (1553), hasta finales del siglo XX.

Aunque el concepto de probabilidad viene de hace miles de años, en realidad la historia


de la probabilidad es bastante más breve. Sobre todo, si tenemos en cuenta los avances
en materia de teoría de la probabilidad. Unos avances que no comenzaron a ser
tangibles hasta que se realizó la primera escritura por parte Gerolamo Cardano.

Habitualmente se concede a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), el


título de padres de la teoría de la probabilidad. Sin embargo, existen evidencias
históricas que nos inclinan a pensar que el primero en poner por escrito el concepto fue
Gerolamo Cardano (1501-1576).

Por alguna extraña razón, que aún se desconoce, su obra titulada «Liber de ludo aleae»
que significa algo así como «Un libro sobre los juegos de dados» no fue publicada hasta
el año 1663. Cuando, en realidad, la obra fue escrita en 1553.

Teniendo en cuenta que las publicaciones de Fermat y Pascal se realizaron hacia el año
1654, es comprensible que la historia les haya reconocido el hallazgo. Es en este punto,
donde podemos decir que documentalmente comienza la historia de la probabilidad.

Historia de la probabilidad a partir del siglo XVIII

Tras las sucesivas publicaciones de Pierre Fermat (1654), Blaise Pascal (1654) y
Gerolamo Cardano (1663) se sucedieron numerosas obras por parte de intelectuales que
han llegado a ser muy relevantes en la disciplina.

A principios del siglo XVIII, motivado por la notoriedad que adquirieron los juegos de
azar, se publicó un documento titulado «Ars Conjectandi» de Jacob Bernouilli. Una
obra publicada a título póstumo, ya que en realidad fue escrita hacia 1690. Tras la
muerte de Bernoulli, Abraham de Moivre cogió el testigo, y sentó las bases del Teorema
Central del Límite (1733), convirtiéndose así en uno de los referentes de la teoría de la
probabilidad. Un Teorema, todo sea dicho, que sería demostrado por Laplace años más
tarde.

Tras Moivre, Thomas Bayes (1702-1761) y Joseph Lagrange (1736-1813) realizaron


contribuciones muy importantes al campo de la probabilidad.

Con todo, sería Pierre-Simon Laplace (1749-1827) quién impulsaría definitivamente al


campo de la probabilidad. Su obra «Théorie analytique des probabilites», traducida
como «Teoría analítica de probabilidades» y publicada en 1812 constituyó gran parte de
la base sobre la que emerge la teoría de la probabilidad. En ella definía por vez primera
el concepto de probabilidad y dedujo el método de mínimos cuadrados ordinarios
(MCO) desarrollado antes por Carl Friedrich Gauss (1777-1855) cuando era estudiante.

4
En esa misma línea, con permiso de Gauss, le corresponde a Laplace la demostración y
aplicación de la distribución normal en la teoría de la probabilidad. Gauss, sin lugar a
dudas, realiza un aporte tremendo con la distribución normal. Sin embargo, se le debe a
Laplace la aplicación en términos probabilísticos.

Con su fallecimiento, la teoría de la probabilidad siguió creciendo. Eso sí, con


dificultades. Dificultades que provenían, principalmente, de matemáticos. Consideraban
que la teoría de la probabilidad carecía de una teoría robusta y precisa para ser aceptada
como parte de las matemáticas.

Las aportaciones de Kolmogorov en el siglo XX

Motivado por las críticas que recibía el campo de la probabilidad, Andréi Kolmogorov
(1903-1987) decidió armarse de valor para cambiar el rumbo de la historia. Hacia 1933
el matemático ruso publicaría una obra titulada «Los fundamentos de la Teoría de la
Probabilidad». En ella expuso la axiomática que lleva su nombre y le valió para ser
reconocido como una eminencia de la probabilidad.

Simultáneamente, aunque de publicación más tardía, Émilie Borel (1871-1956) ofreció


su aportación a la teoría de la probabilidad con su libro «Probabilité et Certitude»
publicado en 1950.

Sin duda, Kolmogorov y Borel ofrecieron un marco más preciso que el resto en cuanto a
la exposición de la teoría probabilística.

Además de los dos anteriores, destacan las aportaciones, durante todo el siglo XX, de
intelectuales como Paul Lévy (1919-1971), Norbert Wiener (1894-1964) o Maurice
Fréchet (1878-1973). Para terminar, diremos que existen otros muchos que podríamos
incluir en la historia de la probabilidad, pero estos son los más influyentes.

Probabilidad

El término probabilidad proviene de lo probable, o sea, de aquello que es más posible que
ocurra, y se entiende como el mayor o menor grado de posibilidad de que un evento aleatorio
ocurra, expresado en una cifra entre 1 (posibilidad total) y 0 (imposibilidad absoluta), o bien en
porcentajes entre el 100% o el 0%, respectivamente.
Para obtener la probabilidad de un suceso, generalmente se determina la frecuencia con la que
ocurre (en experimentos aleatorios bajo condiciones estables), y se procede a realizar cálculos
teóricos.
Para ello se sigue lo establecido por la Teoría de la probabilidad, una rama de
las matemáticas dedicada al estudio de la probabilidad. Esta disciplina es largamente empleada

5
por otras ciencias naturales y sociales como disciplina auxiliar, ya que les permite manejar
escenarios posibles en base a generalizaciones.
El origen de la probabilidad reside en la necesidad del ser humano de anticiparse a los hechos, y
de predecir en cierta medida el futuro. Así, en su empeño por percibir patrones y conexiones en
la realidad, se enfrentó constantemente al azar, o sea, a lo que carece de orden.
Las primeras consideraciones formales sobre esta materia provienen del siglo XVII,
específicamente de la correspondencia entre Pierre de Fermat y Blaise Pascal en 1654, o de los
estudios de Christiaan Huygens en 1657 y de la Kybeia de Juan Caramuel en 1649, texto hoy en
día perdido.

Diferencia entre estadística y probabilidad


Como decíamos al inicio estadística y probabilidad son habitualmente confundidos. Son
conceptos relacionados pero bajo ningún concepto son sinónimos. La diferencia puede parecer,
en un principio, algo sin importancia. Nada más lejos de la realidad. Conocer la diferencia entre
uno y otro concepto nos ayudará a entenderlos mejor y obtener un conocimiento más preciso de
la materia.
Así pues, la teoría de la probabilidad constituye un aparato matemático. Una herramienta que
proviene de la ciencia matemática. La estadística, por decirlo de alguna manera, se sirve de
dicha herramienta para poder llegar a conclusiones más precisas. Por tanto, probabilidad no es
lo mismo que estadística. Y de hecho, es más, ni siquiera es una rama de la estadística.

Aplicaciones de la probabilidad
Su aplicación resulta útil en diversas áreas y ciencias. Por ejemplo, la probabilidad y
estadística mantienen una estrecha relación, así como con la matemática, la física, la contaduría,
la filosofía, entre otras, en las que su teoría ayuda a llegar a conclusiones sobre eventualidades
posibles y encontrar los métodos de combinar los eventos cuando intervienen varios sucesos en
un experimento aleatorio o prueba.
Un ejemplo palpable es la predicción de los estados del tiempo, juegos de azar, proyecciones
económicas o geopolíticas, probabilidad de daño que toma en cuenta una empresa de seguros,
entre otras.
Tipos de probabilidad
Existen los siguientes tipos de probabilidad:

6
Frecuencial.
La probabilidad es el grado de certidumbre con que se mide la ocurrencia de cierto resultado.
La probabilidad frecuencial o empírica es la que se fundamenta en los datos obtenidos por
encuestas, preguntas o por una serie larga de realizaciones de un experimento.
El cálculo de la probabilidad de un evento y la frecuencia relativa del mismo es lo que se
conoce como probabilidad frecuencial.
Para determinar la probabilidad frecuencial, se repite el experimento aleatorio un número
determinado de veces, se registran los datos y se divide el número de veces que se obtiene el
resultado que nos interesa, entre el número de veces que se realizó el experimento.

Matemáticamente la probabilidad frecuencial se expresa como:

Dónde:

S: es un suceso determinado

N: Número total de sucesos

P(s): Es la probabilidad del suceso s

Intuitivamente esto se lee como el límite de la frecuencia cuando n tiende a infinito. En


palabras sencillas, el valor al que tiende la probabilidad de un suceso, cuando repetimos
el experimento muchísimas veces.

Por ejemplo, una moneda. Si lanzas 100 veces una moneda puede salir 40 veces cara y
60 cruz. Eso sí, este resultado (que podría haber sido cualquier otro) no indica que la
probabilidad de cara sea del 40% y la probabilidad de salir cruz del 60%. No. Lo que la
probabilidad frecuencial nos indica es que cuando lancemos la moneda infinitas veces la
probabilidad debe estabilizarse en 0,5. Siempre y cuando, claro está, la moneda sea
perfecta

Propiedades de la definición de probabilidad frecuencial

La definición frecuentista o frecuencial de la probabilidad tiene unas características que


merece la pena mencionar. Las propiedades son:

7
La probabilidad de un suceso S siempre estará entre 0 y 1.

En efecto, podemos demostrar este hecho, utilizando la fórmula de arriba. Por un lado,
sabemos que el suceso S siempre será menor que el número total de ensayos. Es de
lógica pensar que si repetimos el experimento N veces, el máximo número de veces que
ocurrirá S será igual a N. Así pues:

Es decir, partiendo de la premisa explicada anteriormente, dividimos (segundo paso)


todos elementos entre N. Una vez hecho esto, llegamos a la conclusión rodeada en rojo.
Es decir, la probabilidad frecuencial o frecuencia relativa de un suceso siempre estará
entre 0 y 1.

Si un suceso S es la unión de un conjunto de sucesos disjuntos, su probabilidad es


igual a la suma de las probabilidades de cada suceso por separado.

Dos sucesos disjuntos son aquellos que no tienen sucesos elementales en común. Por
tanto, tiene sentido pensar que la probabilidad de un suceso (S) que sea resultado de la
suma de frecuencias relativas de cada suceso (s). Matemáticamente se expresa así:

En la operación anterior se traslada de frecuencias absolutas a frecuencias relativas. Es


decir, entendido S como un conjunto de sucesos disjuntos (s), su unión es igual a la
suma de todos ellos. Esto nos daría como resultado la frecuencia absoluta. Esto es, el
número total de veces que ocurre el suceso. Para pasarlo a probabilidad no tenemos que
hacer más que dividir entre N dicho número. O, aún mejor, sumar las probabilidades de
cada suceso (s) que compone el suceso S.

Críticas a la definición de probabilidad frecuencial

Cómo cabría esperar, la definición de probabilidad frecuencial o frecuentista, nació hace


unos cuantos años. Concretamente, hacia el año 1850 comenzó a desarrollarse el
concepto. Sin embargo, no sería hasta 1919 cuando se desarrollaría de manera formal

8
por Von Mises. El economista austríaco fundamentó su teoría de la probabilidad
frecuencial en dos premisas:

Regularidad estadística: Aunque el comportamiento de los resultados concretos sea un


tanto caótico, tras repetir un experimento un gran número de veces, nos encontramos
con ciertos patrones de resultados.

La probabilidad es una medida objetiva: Von Mises defendía que la probabilidad se


podía medir y, además, era objetiva. Para defender este argumento, se apoyaba en que
los fenómenos aleatorios tienen ciertas características que los hacen únicos. Derivado de
lo anterior, podemos entender sus patrones de repetición.

Teniendo en cuenta lo anterior, y a pesar de que el concepto de probabilidad frecuencial


se postula como la única forma empírica de calcular probabilidades, el concepto ha
recibido las siguientes críticas:

El concepto de límite es irreal: La fórmula propuesta para el concepto, asume que la


probabilidad de un suceso debe estabilizarse cuando repetimos el experimento infinitas
veces. Es decir, cuando N tiende a infinito. Sin embargo, en la práctica es imposible
repetir algo infinitas veces.

No asume una sucesión verdaderamente aleatoria: El concepto de límite, al mismo


tiempo, supone que una probabilidad debe estabilizarse. Sin embargo, el mismo hecho
de estabilizarse, matemáticamente, no permite asumir que la sucesión sea
verdaderamente aleatoria. De alguna manera, indica que se trata de algo determinado

Probabilidad binomial

Una distribución binomial es una distribución de probabilidad discreta que describe el


número de éxitos al realizar n experimentos independientes entre sí, acerca de una
variable aleatoria.

Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados
bajo esta distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el
que definimos el suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y
contamos los éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades
se ajustaría a una distribución binomial.

Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos
en la que solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra
variable aleatoria.

Propiedades de la probabilidad binomial

Para que una variable aleatoria se considere que sigue una distribución binomial, tiene
que cumplir las siguientes propiedades:

9
 En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o
fracaso).

 La probabilidad del éxito ha de ser constante. Esta se representa mediante la


letra p. La probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es
constante dado que la moneda no cambia en cada experimento y las
probabilidades de sacar cara son constantes.

 La probabilidad de fracaso ha de ser también constate. Esta se representa


mediante la letra q = 1-p. Es importante fijarse que mediante esa ecuación,
sabiendo p o sabiendo q, podemos obtener la que nos falte.

 El resultado obtenido en cada experimento es independiente del anterior. Por lo


tanto, lo que ocurra en cada experimento no afecta a los siguientes.

 Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al


mismo tiempo. No se puede ser hombre y mujer al mismo tiempo o que al lanzar
una moneda salga cara y cruz al mismo tiempo.

 Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha


de ocurrir. Si no se es hombre, se es mujer y, si se lanza una moneda, si no sale
cara ha de salir cruz.

 La variable aleatoria que sigue una distribución binomial se suele representar


como X~(n,p), donde n representa el número de ensayos o experimentos y p la
probabilidad de éxito.

Formula de la probabilidad binomial

La fórmula para calcular la distribución normal es:

Donde:

n    = Número de ensayos/experimentos

x    = Número de éxitos

p    = Probabilidad de éxito

q    = Probabilidad de fracaso (1-p)

10
Es importante resaltar que la expresión entre corchetes no es una expresión matricial,
sino que es un resultado de una combinatoria sin repetición. Este se obtiene con la
siguiente formula:

El signo de exclamación en la expresión anterior representa el símbolo de factorial.

Ejemplo de distribución binomial

Imaginemos que un 80% de personas en el mundo ha visto el partido de la final del


último mundial de fútbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la
probabilidad de que 3 de ellos hayan visto el partido?

Definamos las variables del experimento:

n    = 4 (es el total de la muestra que tenemos)

x    = número de éxitos, que en este caso es igual a 3, dado que buscamos la
probabilidad de que 3 de los 4 amigos lo hayan visto.

p    = probabilidad de éxito (0,8)

q    = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.

Tras definir todas nuestras variables, simplemente sustituimos en la formula.

El numerador de la factorial se obtendría de multiplicar 4*3*2*1 = 24 y en el


denominador tendríamos 3*2*1*1 = 6. Por lo tanto, el resultado del factorial sería
24/6=4.
Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo 0,2
(dado que 4-3 = 1 y cualquier número elevado a 1 es el mismo).

Por tanto, nuestro resultado final sería: 4*0,512*0,2 = 0,4096. Si multiplicamos por 100
tenemos que hay una probabilidad del 40,96% de que 3 de los 4 amigos haya visto el
partido de la final del mundial.
11
La probabilidad objetiva puede obtenerse utilizando:

La recolección de datos que pueden ser históricos o generados en un experimento

El método clásico o lógico

En el caso de la recolección de datos podemos pensar en el caso de un vendedor de


periódicos que ha registrado el número de periódicos vendidos durante los últimos 52
lunes, la siguiente tabla muestra la información:

Periódicos vendidos Número de semanas

50 13

52 15

55 14

60 10

Totales52

De la tabla podemos leer que se vendieron 50 periódicos 13 veces, es decir, 13 lunes de


los últimos 52 lunes. Entonces, se vendieron 52 periódicos en 15 ocasiones, 55
periódicos en 14 ocasiones y 60 periódicos en 10 ocasiones.

También sabemos que el número total de observaciones es 52, se registró la venta de


periódicos para los últimos 52 lunes (13+15+14+10=52). Con esta información
podemos calcular la probabilidad de vender un cierto número de periódicos en lunes:

Periódicos vendidos Probabilidad

50 0.25

52 0.2885

55 0.2692

60 0.1923

Totales1

12
Entonces, podemos decir que la probabilidad de vender un cierto número de periódicos
en un lunes cualquiera es la frecuencia relativa con la que ocurre tal evento en un
número total de posibles resultados.

Se aclara que se habla de lunes puesto que la venta de periódicos en otro día de la
semana puede tener un comportamiento muy diferente para el vendedor de periódicos.

Un ejemplo del método clásico consiste en determinar de manera lógica las


probabilidades de los eventos de interés. Por ejemplo, sabemos que:

La probabilidad de que el resultado sea cara al arrojar una moneda al aire es 0.5. La
mitad de las veces se tendrá cara como resultado y la otra mitad de las ocasiones se
tendrá cruz.

La probabilidad de que cualquiera de las 6 caras de un dado sea el resultado después de


lanzarlo es un sexto. Si lanzamos el dado 600 veces esperamos que cada cara sea el
resultado 100 veces.

La probabilidad de sacar una carta del palo de espadas en una baraja de 52 cartas es
0.25, esto quiere decir que esperamos obtener una carta de espadas por cada 4 cartas que
sacamos.

Los resultados anteriores los podemos calcular sin necesidad de realizar el experimento,
no hemos lanzado moneda ni dado alguno, tampoco hemos sacado cartas de una baraja.

Sabemos que cuando una moneda se detenga después de haber sido arrojada al aire
existen dos posibles resultados: cara o cruz. Entonces, conocemos el denominador de la
fórmula para calcular la probabilidad:

Si el evento o resultado de interés es que caiga cara, entonces, el numerador de la


fórmula lo podemos determinar contestando la pregunta: ¿cuántas caras hay en una
moneda? Hay una cara en una moneda. Es decir, hay una sola cara considerando ambos
lados de la moneda.

13
Del mismo modo, podemos calcular la probabilidad de obtener un 4 después de lanzar
un dado. Solo existen 6 posibles resultados y, entre ellos, solamente uno corresponde al
resultado que nos interesa.

Para obtener el numerador y denominador nos podemos preguntar:

Finalmente, si en una baraja hay 52 cartas divididas en 4 palos —espadas, corazones,


rombos y tréboles— y, cada palo tiene el mismo número de cartas —trece—, entonces,
la probabilidad de sacar una carta del palo de espadas es:

La probabilidad subjetiva

En el segundo cuarto del siglo XX surgió una nueva interpretación de la probabilidad


llamada “subjetiva”, según la cual la probabilidad mide el grado de creencia de un
individuo en la verdad de una proposición, variando entre 0 (el individuo cree que es
falso) a 1 (cree que es cierto), es decir de lo que el observador conoce del fenómeno en
estudio. Esta interpretación fue propuesta por primera vez por el filósofo Frank P.
Ramsey. Para los subjetivistas la probabilidad de un suceso debe variar en función de la
nueva información recibida respecto del suceso.

Según este enfoque la probabilidad de que un evento en particular suceda es asignada


basándose en cualquier información disponible, como intuición, opiniones etc.

¿Cuál es la probabilidad de que un cierto equipo de fútbol gane en su próximo partido?.

Ciertas circunstancias internas del equipo, las condiciones del equipo rival o cualquier
otra condición externa, son elementos que sólo algunas personas conocen y que podrían
darnos una idea más exacta de esta probabilidad.

Es producto de la pericia de expertos. A lo largo del tiempo se han desarrollado técnicas


para evaluar la probabilidad subjetiva de algún evento, algunas de ellas son Jurado de
opinión ejecutiva y Método Delphi.

Ambas técnicas consideran las opiniones de expertos para obtener la estimación de la


probabilidad de un evento.

La probabilidad subjetiva es muy útil cuando se considera que los factores de juicio,
práctica y experiencia de un grupo de expertos son pertinentes ya que los datos
necesarios para calcular la probabilidad objetiva no existen o son poco precisos.

Algunas preguntas que la probabilidad subjetiva ayuda a contestar son:

14
¿Cuál es la probabilidad de que el precio del barril de petróleo sea mayor de 100 dólares
en los próximos 10 años?

¿Cuál es la probabilidad de que un nuevo teléfono inteligente domine el mercado?

¿Cuál es la probabilidad de fabricar un producto defectuoso en un nuevo proceso de


producción?

¿Qué es la probabilidad hipergeométrica?

La distribución hipergeométrica es una distribución discreta que modela el número de


eventos en una muestra de tamaño fijo cuando usted conoce el número total de
elementos en la población de la cual proviene la muestra. Cada elemento de la muestra
tiene dos resultados posibles (es un evento o un no evento). Las muestras no tienen
reemplazo, por lo que cada elemento de la muestra es diferente. Cuando se elige un
elemento de la población, no se puede volver a elegir. Por lo tanto, la probabilidad de
que un elemento sea seleccionado aumenta con cada ensayo, presuponiendo que aún no
haya sido seleccionado.

Utilice la distribución hipergeométrica para muestras obtenidas de poblaciones


relativamente pequeñas, sin reemplazo. Por ejemplo, la distribución hipergeométrica se
utiliza en la prueba exacta de Fisher para probar la diferencia entre dos proporciones y
en muestreos de aceptación por atributos cuando se toman muestras de un lote aislado
de tamaño finito.

La distribución hipergeométrica se define por 3 parámetros: tamaño de la población,


conteo de eventos en la población y tamaño de la muestra.

Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas. Supongamos
que el 2% de las etiquetas es defectuoso. El conteo de eventos en la población es de 10
(0.02 * 500). Usted toma una muestra de 40 etiquetas y desea determinar la probabilidad
de que haya 3 o más etiquetas defectuosas en esa muestra. La probabilidad de que haya
3 o más etiquetas defectuosas en la muestra es de 0.0384.

Lógica probabilitaria

Lógica en que las proposiciones no sólo tienen un significado de verdad y falsedad,


sino, además, un valor intermedio que se designa con los nombres de probabilidades de
la veracidad (p) de las proposiciones, grados de verosimilitud de las proposiciones, &c.
El sistema lógico que se estructura sobre este fundamento se aplica para obtener una
estimación aproximada de las hipótesis no por medio de su confrontación con la
realidad, sino a través de otras proposiciones que expresan nuestro saber.

Así, según sea la correspondencia de la hipótesis “Mañana lloverá” con los datos
meteorológicos, puede hablarse de un grado alto o bajo de p de dicha hipótesis. Por
consiguiente, la p de la hipótesis es una función de dos argumentos: de la propia

15
hipótesis (h) y del saber que se posea (k). Si h se sigue lógicamente de k, es verdadera
en la medida en que lo es k; si h contradice a k, es falsa; en todos los demás casos, p
obtiene un valor intermedio. El problema relativo al valor numérico exacto de la p de
unas proposiciones respecto a otras está sujeto a discusión y se resuelve de manera
distinta por parte de los representantes de orientaciones diferentes de la lógica
probabilitaria.

El cálculo de la p de hipótesis complejas cuando son conocidas las p de sus


proposiciones componentes, en todos los sistemas de la lógica probabilitaria se efectúa
según las reglas del cálculo matemático de probabilidades (Teoría de las
probabilidades). Resulta, pues, que la lógica probabilitaria es una de las interpretaciones
de dicho cálculo. Por lo visto, la lógica probabilitaria encuentra máximas posibilidades
de aplicación en la lógica inductiva. En Aristóteles y en los escépticos, se encuentran ya
algunos atisbos de lógica probabilitaria, más las primeras ideas serias formuladas sobre
ella pertenecen a Leibniz.

La teoría de las probabilidades, surgida a fines del siglo XVII, apareció asimismo más
bien como lógica probabilitaria o como una ciencia sin perfil propio. La lógica
probabilitaria empezó a separarse, como ciencia autónoma, de la teoría de las
probabilidades a mediados del siglo XIX, cuando comenzó a precisarse el objeto de esta
última: los acontecimientos casuales en masa. Por otra parte, también en nuestro tiempo
se realizan muchas tentativas para considerar la doctrina sobre las probabilidades como
una sola ciencia de la que serían ramas la teoría de las probabilidades y la lógica
probabilitaria.

Probabilidad condicionada

Como la probabilidad está ligada a nuestra ignorancia sobre los resultados de la experiencia,
el hecho de que ocurra un suceso, puede cambiar la probabilidad de los demás El proceso de
realizar la historia clínica, explorar y realizar pruebas complementarias ilustra este principio.

La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina 


probabilidad condicionada y se define

Esta definición es consistente, es decir cumple los axiomas de probabilidad.

Cuando ocurre un suceso cambia el espacio muestra, por eso cambia la probabilidad.
A veces es más fácil calcular la probabilidad condicionada teniendo en cuenta este cambio de
espacio muestra.

16
Ejemplo

Una mujer es portadora de la enfermedad de Dúchenme ¿Cuál es la probabilidad de que


su próximo hijo tenga la enfermedad?

Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre
portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma
probabilidad. El espacio muestra es W = {xX, xY, XX, XY}
el suceso A= {hijo enfermo} corresponde al genotipo xY, por tanto, según la definición
clásica de probabilidad
p(A) = 1/4 = 0,25

La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la enfermedad?

Se define el suceso B = {ser varón} = {xY, XY}


la probabilidad pedida es p (A|B) y aplicando la definición anterior
p (B) = 0,5; A Ç B = {xY}; p(A ÇB) = 0,25; p (A|B) = 0,25/0,5 = 0,5

Si sabemos que es varón, el espacio muestra ha cambiado, ahora es B. Por lo tanto se


puede calcular p (A|B) aplicando la definición clásica de probabilidad al nuevo espacio
muestra
p (A|B) = 1/2 = 0,5

Conclusión

Con el paso del tiempo el hombre siempre busca la forma o la manera de descubrir lo
desconocido, por consiguiente llegamos a esta teoría “La teoría de la probabilidad” que juega un
papel muy importante en la vida del hombre, puesto que es cien por ciento útil en todos los
campos de estudio y aprendizaje en que se necesite condiciones de azar. Debemos tomar los

17
puntos clave, tener el espacio muestra o un resultado ya esperado en una determinada posición y
poder dar un valor a ese ejemplo por lo cual cave analizar cada paso a realizar para obtener un
resultado más específico y saber algunas ecuaciones que nos ayudan a dar las respuestas a ellos
de una manera más rápida y clara

La probabilidad juega un rol importante ya que nos sirve porque está basada en la
recopilación de datos la cual estas son representadas mediante gráficos estadísticos. En la cual
se presentan los principales indicadores de la actividad constructora: producción, despachos,
ventas, exportación e importación de cemento, venta interna de asfalto y la producción y venta
de barras deconstrucción. Otro beneficio que obtendríamos de esta materia es que nos permite
realizar estudios reales, con poblaciones exactas; lo cual nos ayuda a mejorar nuestros
proyectos. Todo lo que muestra en este apartado es de gran importancia, ya que nos será de gran
utilidad a lo largo de nuestra carrera de ingeniería civil. Nos encontramos en un mundo
altamente probabilístico, por lo tanto se necesita que nosotros como jóvenes
tengamos conocimiento de probabilidades desde muy temprana edad, ya que la utilizaremos l
a cada instante de nuestras vidas. Además, actualmente la aplicación de la probabilidad es tan
amplia que abarca múltiples campos científicos, siendo de gran ayuda en la resolución de
problemas en la Economía, Biología, Psicología, Ingeniería, entre otras. Pero, lamentablemente
este es uno de los temas menos desarrollado en nuestras escuelas por varias razones que no son
de nuestro interés en este momento

18

También podría gustarte