Está en la página 1de 18

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN SUPERIOR


UNIVERSIDAD NACIONAL EXPERIMENTAL SIMÓN RODRÍGUEZ
NÚCLEO MARACAY

PROF. MARÍA EUGENIA OCHOA


CURSO:
ESTADÍSTICA II
SECCIÓN: 10500

PARTICIPANTES:
HARRINSON GÓMEZ, C.I.: V-19.468.988
ADRIANA SEGOVIA, C.I.: V-21.269.107
JENNIFER MATUTE, C.I.: V-30.521.469

Maracay 08 de marzo de 2024


ÍNDICE

Nro. Descripción Pág.

1 Probabilidad: Conceptos, Tipos. 3

2 Formulas y Aplicaciones de Probabilidad. 4

3 Fenómenos Probabilísticos: Características. 5

4 Espacio Muestral. 7

5 Sucesos y sus Tipos. 9

6 Distribución de Probabilidad. 10

7 Distribución Binominal. 11

8 Tabla de Distribución Binominal. 12

9 Distribución Normal y su Tipificación. 13

10 Aproximaciones de la Distribución Normal. 15

11 Uso de la tabla de Distribución Binominal. 15


¿Qué es la probabilidad?

El término probabilidad proviene de lo probable, o sea, de aquello que es más


posible que ocurra, y se entiende como el mayor o menor grado de posibilidad de que
un evento aleatorio ocurra, expresado en una cifra entre 1 (posibilidad total) y 0
(imposibilidad absoluta), o bien en porcentajes entre el 100% o el 0%, respectivamente.

Para obtener la probabilidad de un suceso, generalmente se determina la


frecuencia con la que ocurre (en experimentos aleatorios bajo condiciones estables), y
se procede a realizar cálculos teóricos. Para ello se sigue lo establecido por la Teoría de
la probabilidad, una rama de las matemáticas dedicada al estudio de la probabilidad.
Esta disciplina es largamente empleada por otras ciencias naturales y sociales como
disciplina auxiliar, ya que les permite manejar escenarios posibles en base a
generalizaciones.

El origen de la probabilidad reside en la necesidad del ser humano de anticiparse


a los hechos, y de predecir en cierta medida el futuro. Así, en su empeño por percibir
patrones y conexiones en la realidad, se enfrentó constantemente al azar, o sea, a lo
que carece de orden. Las primeras consideraciones formales sobre esta materia
provienen del siglo XVII, específicamente de la correspondencia entre Pierre de Fermat
y Blaise Pascal en 1654, o de los estudios de Christiaan Huygens en 1657 y de la Kybeia
de Juan Caramuel en 1649, texto hoy en día perdido.

TIPOS DE PROBABILIDAD

Existen los siguientes tipos de probabilidad:

Frecuencial: Aquella que determina la cantidad de veces que un fenómeno


puede ocurrir, considerando un número determinado de oportunidades, a través de la
experimentación.

Matemática: Pertenece al ámbito de la aritmética, y aspira al cálculo en cifras


de la probabilidad de que determinados eventos aleatorios tengan lugar, a partir de la
lógica formal y no de su experimentación.
Binomial: Aquella en la que se estudia el éxito o fracaso de un evento, o
cualquier otro tipo de escenario probable que tenga dos posibles resultados
únicamente.

Objetiva: Se denomina así a toda probabilidad en la que conocemos de


antemano la frecuencia de un evento, y simplemente se dan a conocer los casos
probables de que ocurra dicho evento.

Subjetiva: Contrapuesta a la matemática, se sustenta en ciertas eventualidades


que permiten inferir la probabilidad de un evento, aunque alejada de una probabilidad
certera o calculable. De allí su subjetividad.

Hipergeométrica: Aquella que se obtiene gracias a técnicas de muestreo,


creando grupos de eventos según su aparición.

Lógica: La que posee como rasgo característico que establece la posibilidad de


ocurrencia de un hecho a partir de las leyes de la lógica inductiva.

Condicionada: Aquella que se emplea para comprender la causalidad entre dos


hechos distintos, cuando puede determinarse la ocurrencia de uno tras la ocurrencia del
otro.

FÓRMULA PARA CALCULAR LA PROBABILIDAD

El cálculo de las probabilidades se lleva a cabo según la fórmula siguiente:

Probabilidad = Casos favorables / casos posibles x 100 (para llevarlo a


porcentaje)

Así, por ejemplo, podemos calcular la probabilidad de que una moneda salga cara
en un único lanzamiento, pensando que sólo puede salir una cara (1) de las dos que hay
(2), esto es, 1 / 2 x 100 = 50% de probabilidad.

En cambio, si decidimos calcular cuántas veces saldrá la misma cara en dos


lanzamientos seguidos, deberemos pensar que el caso favorable (cara y cara o sello y
sello) es uno entre cuatro posibilidades de resultado (cara y cara, cara y sello, sello y
cara, sello y sello). Por ende, 1 / 4 x 100 = 25% de probabilidad.
APLICACIONES DE LA PROBABILIDAD

El cálculo de la probabilidad tiene numerosas aplicaciones en la vida cotidiana,


como son:

El análisis de riesgo empresarial: Según el cual se estiman las posibilidades de


caída de precio de las acciones bursátiles, y se intenta predecir la conveniencia o no de
la inversión en una u otra empresa.

El análisis estadístico de la conducta: De importancia para la sociología, emplea


la probabilidad para evaluar la posible conducta de la población, y así predecir
tendencias de pensamiento o de opinión. Es común verlo en las campañas electorales.

La determinación de garantías y seguros: Procesos en los que se evalúa la


probabilidad de avería de los productos o la fiabilidad de un servicio (o de un asegurado,
por ejemplo), para así saber cuánto tiempo de garantía conviene ofrecer, o a quiénes
conviene asegurar y por cuánto.

En la ubicación de partículas subatómica: Según el Principio de Incertidumbre


de Heidelberg, el cual establece que no podemos saber dónde está una partícula
subatómica en un momento determinado y al mismo tiempo a qué velocidad se mueve,
de modo que los cálculos en la materia se realizan normalmente en términos
probabilísticos: existe X por ciento de probabilidades de que la partícula esté allí.

En la investigación biomédica: Se calculan porcentajes de éxito y de fracaso de


las drogas médicas o de las vacunas, para así saber si son fiables o no, y si conviene o no
producirlas en masa, o a qué porcentaje de la población podrán causarle determinados
efectos secundarios.

MODELOS PROBABILÍSTICOS FENÓMENOS

El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la


descripción y análisis de los fenómenos estadísticos o aleatorios.

Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos


resultados están establecidos, pero no se pueden predecir con exactitud A priori, o sea
que en situaciones idénticas pueden presentar resultados diferentes; además los
fenómenos pueden ocurrir repetidamente en forma indefinida.

CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS

 Multiplicidad de la ocurrencia.
 Variabilidad, ya que pueden presentar resultados distintos en cada experimento.
 Aleatoriedad, porque no pueden predecir.
 Ley del Azar, si una cierta experiencia se repite n veces y anotamos el número
n(A) de veces que ocurre una característica determinada, se observa la
frecuencia, tiende a estabilizarse, esto es, se aproxima a un valor fijo. Haremos
énfasis en la última característica o propiedad de los fenómenos aleatorios,
conocida también como "Estabilidad de las frecuencias" o "Principio de la
regularidad estadística".

Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de


probabilidades se basa en la regularidad estadística que caracteriza a los fenómenos
aleatorios.

Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir


resultados individuales, sin embargo, si consideramos un número de pruebas repetidas
o simultáneas, la situación cambia, y a pesar de la irregularidad de los resultados
individuales o aislados, los resultados promedios o globales muestran una sorprendente
regularidad.

ESPACIO MAESTRAL

El espacio maestral es el conjunto de todos los posibles resultados de un


experimento aleatorio y se suele representar como E (o bien como omega, Ω, del
alfabeto griego).

Por ejemplo, cuando lanzamos una moneda, ¿cuáles son todos los posibles
resultados que podemos obtener? Que salga cara o cruz, ¿verdad? En total son dos
posibles resultados, por lo que el espacio muestral tiene 2 elementos. E = {cara, cruz}
Y si lanzamos un dado, tenemos en total 6 posibles resultados que pueden salir.
Por lo tanto, el espacio muestral sería de 6 elementos.

E = {1, 2, 3, 4, 5, 6}.

En cualquier experimento aleatorio la primera cosa que nos preguntamos es


sobre lo que puede pasar. ¿Qué resultados puede ofrecer y cuáles no?
Sería muy interesante disponer de todo el abanico de posibles resultados. En este
sentido, al conjunto formado por todos los posibles resultados elementales de un
experimento aleatorio se le denomina espacio muestral de dicho experimento.
Dependiendo de cómo sea este conjunto, los espacios muéstrales pueden ser:

Espacio Muestral Discreto Finito. Consta de un número finito de elementos, por


ejemplo, lanzar un dado.

Espacio Muestral Discreto Infinito. Consta de un número infinito numerable de


elementos, por ejemplo, lanzar un dado hasta que salga un cinco.

Espacio Muestral Continuo. Consta de un número infinito no numerable de


elementos, por ejemplo, todas las medidas posibles de espárragos extraídos
aleatoriamente de una población.

Consideremos, por ejemplo:

El experimento consistente en el lanzamiento de un dado y anotar el resultado


de la cara superior. El espacio muestral sería:

E = {1 , 2 , 3 , 4 , 5 , 6 }

El experimento consistente en el lanzamiento de dos monedas al aire. El espacio


muestral o conjunto de todos los resultados elementales posibles sería:

E = { CCC , CCF , CFC , FCC , CFF , FCF , FFC , FFF}

El experimento consistente en elegir aleatoriamente cualquier número de tres


cifras mediante la extracción con reemplazamiento de bolas de una urna en la que
aparecen las diez cifras significativas. En este caso el espacio muestral sería:

E = { 000 , 001 ,................... , 999 }


El experimento consistente en el lanzamiento de dos dados de los que después
se escogerá la mejor de las puntuaciones. El espacio muestral sería:

E=[ 1 , 2 , 3 , 4 , 5 , 6 ]

El experimento consistente en abrir aleatoriamente un libro y anotar después la


primera letra de la página de la izquierda. El espacio muestral en este caso sería:

E = { A , B , ................. , Z}

SUCESOS Y TIPOS DE SUCESOS

En el contexto probabilístico, denominamos suceso a cualquier subconjunto de


un espacio muestral; esto es, a cualquier posible resultado de un experimento aleatorio.

Suceso Elemental: Un suceso se dice que es un suceso elemental si está formado


por un único elemento del espacio muestral. Por ejemplo, al tirar un dado el suceso
consistente en obtener un cinco.

Suceso Compuesto: Un suceso se dice que es un suceso compuesto si está


formado por más de un elemento del espacio muestral. En el mismo ejemplo anterior
obtener un número par, es decir, que salga un 2 o un 4 o un 6.

Entre los diferentes sucesos destacaremos los siguientes:

Suceso Seguro: El suceso seguro es aquél que está formado por todos los
resultados posibles del espacio muestral (E), es decir aquél que se cumple siempre. Por
ejemplo, al tirar un dado cúbico obtener un número del uno al seis.

Suceso Imposible: El suceso imposible es aquél que no ocurre nunca. Se expresa


con el símbolo Ø. Por ejemplo, obtener un ocho al tirar un dado cúbico.

Suceso Contrario o Complementario de otro Suceso: Se define el suceso


contrario a A como el suceso que acontece cuando no ocurre A. EL suceso contrario a
obtener un número par es obtener uno impar. Suele denotarse como:
DISTRIBUCIÓN DE PROBABILIDAD

En teoría de la probabilidad y estadística, la distribución de probabilidad de una


variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la
probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida
sobre el conjunto de todos los sucesos y cada uno de los sucesos es el rango de valores
de la variable aleatoria. También puede decirse que tiene una relación estrecha con las
distribuciones de frecuencia. De hecho, una distribución de probabilidades puede
comprenderse como una frecuencia teórica, ya que describe cómo se espera que varíen
los resultados.

La distribución de probabilidad está completamente especificada por la función


de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria
sea menor o igual que x.

TIPOS DE VARIABLES

Variable Aleatoria: Es aquella cuyo valor es el resultado de un evento aleatorio.


Lo que quiere decir que son los resultados que se presentan al azar en cualquier evento
o experimento.

Variable Aleatoria Discreta: Es aquella que solo toma ciertos valores


(frecuentemente enteros) y que resulta principalmente del conteo realizado.

Variable Aleatoria Continua: Es aquella que resulta generalmente de la medición


y puede tomar cualquier valor dentro de un intervalo dado.
DIVISIÓN DE DISTRIBUCIONES

Esta división se realiza dependiendo del tipo de variable a estudiar. Las cuatro
principales (de las que nacen todas las demás) son:

a) Si la variable es una variable discreta (números enteros), corresponderá una


distribución discreta, de las cuales existen:

Distribución Binomial (eventos independientes).

Distribución de Poisson (eventos independientes).

Distribución Hipergeométrica (eventos dependientes).

b) Si la variable es continua (números reales), la distribución que se generará será


una distribución continua. Ejemplos de ellas son:

Distribución Normal o Gaussiana.

Distribución de Cauchy

Distribución Exponencial

Además, se puede utilizar la «distribución de Poisson como una aproximación de


la distribución binomial» cuando la muestra por estudiar es grande y la probabilidad de
éxito es pequeña. De la combinación de los dos tipos de distribuciones anteriores (a y
b), surge una conocida como «distribución normal como una aproximación de la
distribución binomial y de Poisson».

DISTRIBUCIÓN BINOMIAL

La distribución binomial o distribución binómica es una distribución de


probabilidad discreta que cuenta el número de éxitos en una secuencia de ensayos
de Bernoulli independientes entre sí con una probabilidad fija p de ocurrencia de éxito
entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto
es, solo dos resultados son posibles, a uno de estos se le denomina “éxito” y tiene una
probabilidad de ocurrencia p y al otro se le denomina “fracaso” y tiene una probabilidad
q=1-p.
La distribución binomial se utiliza con frecuencia para modelizar el número de
aciertos en una muestra de tamaño n extraída con reemplazo de una población de
tamaño N. Si el muestreo se realiza sin reemplazo, las extracciones no son
independientes, por lo que la distribución resultante es una distribución
hipergeométrica, no una distribución binomial. Sin embargo, para N mucho mayores
que n, la distribución binomial sigue siendo una buena aproximación, y se utiliza
ampliamente.

Más matemáticamente, la distribución binomial es una distribución discreta de


probabilidad descrita por dos parámetros: n el número de experimentos realizados,
y p la probabilidad de éxito. Para cada experimento llamado ensayo Bernoulli,
utilizamos una variable aleatoria que toma el valor 1 cuando se consigue un éxito y el
valor 0 en caso contrario. La variable aleatoria, suma de todas estas variables aleatorias,
cuenta el número de éxitos y sigue una distribución binomial. Es posible entonces
obtener la probabilidad de k éxitos en una repetición de n experimentos:

Una distribución binomial también se puede utilizar para modelar situaciones


simples de acertar o fallar, un juego de lanzar una moneda, por ejemplo. El cálculo de
su función de probabilidad se vuelve rápidamente tedioso cuando n} es grande, es
posible entonces utilizar aproximaciones por otras leyes de probabilidad como
la distribución de Poisson o la distribución normal y utilizar tablas de valores.

La ley binomial se utiliza en diversos campos de estudio, especialmente a través


de pruebas estadísticas que permiten interpretar datos y tomar decisiones en
situaciones que dependen del azar. Debido a su sencilla definición, es una de las leyes
de probabilidad que se estudian en los cursos introductorios de teoría de la
probabilidad.
DISTRIBUCIÓN NORMAL:

Se dice que muchos fenómenos se distribuyen normalmente. Esto significa que,


si uno toma al azar un número suficientemente grande de casos y construye un polígono
de frecuencias con alguna variable continua, por ejemplo, peso, talla, presión arterial o
temperatura, se obtendrá una curva de características particulares, llamada distribución
normal. Es la base del análisis estadístico, ya que en ella se sustenta casi toda la
inferencia estadística. La función de densidad de probabilidad para la variable aleatoria
continua fue descubierta por Carl Gauss al estudiar el comportamiento de los procesos
aleatorios. Es ampliamente utilizada en estadística y teoría de las probabilidades.

Esta función, también conocida como distribución normal tiene la forma de una
campana, por este motivo también es conocida como la campana de Gauss. Sus
características son las siguientes:

 Es una distribución simétrica.


 Es asintótica, es decir sus extremos nunca tocan el eje horizontal, cuyos valores
tienden a infinito.
 En el centro de la curva se encuentran la media, la mediana y la moda.
 El área total bajo la curva representa el 100% de los casos.
 Los elementos centrales del modelo son la media y la varianza.

Esta distribución es un modelo matemático que permite determinar probabilidades


de ocurrencia para distintos valores de la variable.

TIPIFICACIÓN DE LA DISTRIBUCIÓN NORMAL:

La tipificación (o llamada también estandarización o normalización) de una


variable aleatoria continua consiste en la transformación o cambio de una
Variable X que tiene una distribución normal N (μ, σ) a otra variable Z que sigue
la distribución normal estándar o distribución normal tipificada N (0, 1).

Con la tipificación, respecto a las gráficas, se produce un desplazamiento


horizontal hacia el centro de coordenadas (0, 0) y un desplazamiento en la forma
vertical (o hacia arriba o hacia abajo):

Se pueden tipificar datos de variables, tanto si provienen de una población como


si proceden de una muestra estadística:

Las puntuaciones típicas o estándar no tienen unidades, pero debe verse que se
trata de a cuántas desviaciones típicas, en más o en menos, representa cada una. Según
sean positivas o negativas, estarán por encima de la media o por debajo de ella, como
lo podemos ver sobre la gráfica de la distribución normal estándar:
Los valores tipificados facilitan hallar la probabilidad acumulada de que un
suceso sea igual o menor que un valor determinado. En la tabla siguiente se muestran
las probabilidades acumuladas de puntuaciones z iguales o mayores que 0.

APROXIMACIONES A LA DISTRIBUCIÓN NORMAL:

La distribución binomial, es una distribución discreta en la que n ensayos pueden


producir un éxito o un fracaso. La probabilidad de éxito la denominamos p y la
posibilidad de fracaso será q = (1 - p). Como se ha visto en otros apartados el cálculo de
la distribución binomial puede exceder el límite de cualquier tabla y volverse muy
engorrosa en su cálculo si el valor de n es muy grande.

Un método alternativo para el cálculo de la distribución binomial es por medio


del uso de la distribución normal para aproximar la distribución binomial. Para ello es
fundamental que se satisfagan las siguientes condiciones, np ≥ 5 y n (1 - p) ≥ 5 y además
p está próximo a 0,5.

Si no se pudieran utilizar las tablas binomiales, se puede aproximar la respuesta


utilizando la distribución normal. Para ello podemos obtener la media y la desviación
estándar de la distribución normal con las siguientes fórmulas:

μ=npσ=√npq

Debido a que la distribución normal es continua, y en consecuencia entre dos


valores existirá una serie infinita de valores posibles, para estimar una variable aleatoria
discreta se requiere de un leve ajuste, denominado factor de corrección de continuidad,
sumando o restando 1/2 al valor de x. De esta forma el valor de z se obtiene mediante
la fórmula:

z=(x+1/2) −μσ

USO DE LA TABLA DE DISTRIBUCIÓN NORMAL:

La tabla de la distribución normal presenta los valores de probabilidad para una


variable estándar Z, con media igual a 0 y varianza igual a 1.
Para usar la tabla, siempre debemos estandarizar la variable por medio de la
expresión:

Siendo el valor de interés; la media de nuestra variable y su desviación


estándar. Recordemos que, y corresponden a parámetros, o sea valores en el universo,
que generalmente no conocemos, por lo que debemos calcular Z usando los datos de
nuestra muestra.

En general, el valor de Z se interpreta como el número de desviaciones estándar


que están comprendidas entre el promedio y un cierto valor de variable x. En otras
palabras, se puede decir que es la diferencia entre un valor de la variable y el promedio,
expresada esta diferencia en cantidad de desviaciones estándar. Suena abstracto, pero
con un ejemplo se podrá entender mejor:

Supongamos un conjunto de personas con edad promedio 25 años y desviación


estándar 3,86. Nuestro valor de interés (x) es 30 años. El valor de Z correspondiente
será:

Este valor de Z nos dice que la edad de 30 años está a 1,29 desviaciones estándar
sobre el promedio.

Ahora bien, la tabla de la distribución normal, entrega valores de probabilidad


para los distintos valores de Z.

También podría gustarte