Está en la página 1de 9

FACULTAD DE CIENCIAS EMPRESARIALES

ESCUELA DE ADMINISTRACIÓN

Curso: Métodos Cuantitativos Aplicado a los Negocios.

INTEGRANTES:

- Joseph Conislla Laura


- Roció Siancas Zapata
- Joel Prado Toccas
- Yesenia Keyla La Rosa Flores
- Alexis Ayaucan Cuadros

DOCENTE: YOPLA MERCADO, ALBERTO


INTRODUCCIÓN

El ser humano cuenta con una característica en particular, es la capacidad anticiparnos a los
eventos que puedan ocurrir, la cual nos permite predecir las oportunidades que se nos presentan
los riesgos de peligro que podamos enfrentar.
La probabilidad nos permite determinar la posibilidad de que un suceso ocurra o no ocurra, dadas
determinadas circunstancias, establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles basado en un experimento aleatorio que cuando se repite bajo
las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo como
ejemplo podemos usar el lanzar una moneda al aire. Esta se utiliza en distintas áreas como
matemáticas, estadística, física, economía, entre otras.
Podemos definir a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), como padres de la
teoría de la probabilidad. Sin embargo, existen evidencias históricas que nos inclinan a pensar
que el primero en poner por escrito el concepto fue Gerolamo Cardano (1501-1576).
Toda variable aleatoria posee una descripción de su comportamiento según la distribución de
probabilidades y puede definirse como cualquier característica medible que describe su
comportamiento, las cuales son distribuciones de probabilidad continuas o distribuciones de
probabilidad discretas.
Las variables continuas son aquellas cuyos valores posibles está compuesto de una lista de
secuencia infinita y que puede tomar cualquier valor dentro de un intervalo que permite
determinar las probabilidades que correspondan, en el caso de las variables discretas, esta
representa las probabilidades acumuladas, no puede tomar ningún valor entre dos consecutivos y
se pueden representar mediante un diagrama de barras y de sectores.

Variable Continua

Variable Discreta

Diagrama de barras
Diferencias:
Cuantitativas discretas: cuando se toman valores aislados. Por ejemplo: número de amigos de tu
pandilla, número de veces que vas al cine al mes, número de coches que tiene tu familia.
Cuantitativas continuas: cuando, entre dos valores cualesquiera, puede haber valores
intermedios. Es decir, se toman todos los valores de un determinado intervalo. Por ejemplo: peso
de las personas, nivel sobre el mar en que se encuentra tu ciudad, medida del perímetro torácico.

PROBABILIDAD DISCRETA
Cuando nos planteamos estudiar estas distribuciones de probabilidad, lo hacemos partiendo de la
base que su estudio nos permitirá simplificar el tratamiento estadístico de muchos fenómenos
reales. De esta manera, si nosotros nos encontramos con un fenómeno real tal y como puede ser
realizar una inversión o no. Este es un fenómeno que tiene dos posibles valores, invertir, no
invertir. Bien, veremos que este tipo de fenómenos los podemos estudiar como una variable o
distribución de Bernuille. Si nosotros hemos estudiado esta variable tendremos perfectamente
identificados tanto la media como la varianza como su función de cuantía, etc... Es decir,
conocemos el comportamiento probabilístico de este fenómeno. Si nos ponemos a pensar en
fenómenos económicos reales, veremos que existen muchos que se pueden ajustar a un
comportamiento de este tipo. Todos ellos están estudiados simultáneamente mediante la
distribución de Bernuilli o la generalización binomial. Por tanto, cuando estudiamos la
distribución binomial, estamos estudiando miles de posibles distribuciones.

1. Distribución Uniforme Discreta


Decimos que una variable aleatoria discreta, tiene distribución uniforme cuando la probabilidad
en todos los puntos de masa probabilística es la misma; es decir, cuando todos los posibles
valores que puede adoptar la variable tienen la misma probabilidad. Pongamos el socorrido pero
útil caso del lanzamiento de un dado. Si definimos una variable aleatoria como el número
resultante tras su lanzamiento, los valores que puede tomar esa variable aleatoria son {1, 2, 3, 4,
5, 6}. Pues bien, esa variable aleatoria tiene distribución uniforme si, como es el caso, la
probabilidad es la misma para cada uno de los resultados posibles.
2. Distribución Binominal
Una buena parte de los fenómenos que ocurren en la vida real pueden ser estudiados como una
variable aleatoria discreta con distribución binomial, por lo que su estudio puede ser de gran
utilidad práctica.

2.1. Proceso de Bernouilli


Para comprender el proceso de Bernouilli pensemos, por ejemplo, en situaciones en las que sólo
hay dos posibles resultados mutuamente excluyentes (verdadero/falso, en un test; defectuoso/no
defectuoso, en los artículos que salen de una fábrica; aprobado/suspendido, en los resultados de
un examen,etc....). Decimos que son mutuamente excluyentes porque no pueden darse
simultáneamente (un examen no puede estar aprobado y suspendido al mismo tiempo; una
respuesta no puede ser simultáneamente verdadera o falsa, etc...). Una manera común de designar
estos dos resultados es como Exito (E) o Fracaso (F). Una segunda característica de los
fenómenos que siguen el denominado Proceso de Bernouilli es que las pruebas de las que se
obtienen los éxitos o los fracasos son independientes. Así, el hecho de que un artículo salga
defectuoso en una línea de producción no tiene que ver con el resultado obtenido en el siguiente
artículo que examinamos.
Por último, una tercera característica de este Proceso es que las probabilidades de Exito o Fracaso
son constantes. Los fenómenos que en la vida real cumplen estas tres características pueden ser
considerados como Procesos de Bernouilli.
El estudio de la distribución Binomial: Sea un experimento aleatorio en el que pueden obtenerse
dos resultados posibles, mutuamente excluyentes, con probabilidades constantes en el que p es la
probabilidad de éxito. Supongamos que se realizan n pruebas independientes (es decir, se dan las
condiciones de Bernouilli) y tenemos una sucesión de Bernuilli de tamaño n. Sea X la variable
definida como el número de éxitos resultantes en la sucesión de Bernuilli. X diremos que se
distribuye como una distribución binomial. Pensemos, por ejemplo, en un agente de seguros que
tiene como posibles resultados de su gestión hacer un seguro (éxito) o no hacerlo (fracaso); o en
un test que debemos hacer para acceder a un master con posibles respuestas correctas o
incorrectas; o en la posibilidad de que acepten (éxito) o no acepten (fracaso) un grupo de
personas una invitación a cenar; o una máquina etiquetadora de botellas que pone mal o bien las
etiquetas; etc... Todas ellas, si son una sucesión de Bernuilli de tamaño n, se distribuyen como
una distribución binomial de parámetros n y p, y lo denotaremos como X ´ B(n,p) En donde n es
el tamaño de la sucesión de bernuilli, el número de veces que se repite el experimento (número de
familias de Las Palmas de Gran Canaria, etc..), y p es la probabilidad del éxito.

3. Distribución de Poisson
La distribución de Poisson se puede entender como un caso particular de la Binomial que
utilizamos para determinadas distribuciones en las que el cálculo de la probabilidad es engorroso
debido bien a que el número de pruebas es excesivamente elevado o bien a que la probabilidad de
éxito es excesivamente baja; en ambos casos la media (n*p) es muy pequeña en relación al
número de pruebas (n). En estos casos se puede demostrar que la distribución binomial converge,
tiende a comportarse, como una distribución de Poisson. Como regla práctica entenderemos que
es aplicable la distribución de Poisson en aquellas binomiales cuya media tenga un valor inferior
a 5 y el número de pruebas sea superior a 30. Algunos ejemplos de fenómenos que se ajustan a
una distribución de Poisson son los siguientes:
- El número de accidentes de tráfico en una ciudad durante una semana.
- El número de emergencias que llegan a un servicio de urgencia hospitalaria.
- El número de robos denunciados en un mes en la ciudad de Madrid.
- El número de llamadas telefónicas que llegan a la centralita de una gran empresa en hora
punta.
Todos estos casos pueden ser caracterizados como el número de sucesos de un determinado
evento en un período de tiempo. Cada uno de estos eventos toma dos posibles valores, éxito o
fracaso, equivalente a recibir una llamada o no recibirla, accidentarse o no accidentarse, etc...
Además, la probabilidad del éxito es muy pequeña. Es decir, la probabilidad de tener un
accidente es muy baja, la probabilidad de que una persona llama a la centralita de la gran empresa
es mínima. Y, no debemos de olvidar, que n, número de personas que hay en una ciudad, número
de personas que circulan en coche, etc... es muy grande. Todo esto nos lleva a que una buena
parte de fenómenos de esta naturaleza siguen una distribución del tipo Poisson. Es por ello que
esta distribución, también denominada "de los sucesos raros" es particularmente útil para resolver
problemas de colas y líneas de espera, temas ambos que se podrán estudiar en otras asignaturas
del área de métodos cuantitativos en economía.
PROBABILIDAD CONTINUA

Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos
se pueden definir infinitos valores más. En estas condiciones no es posible deducir la
probabilidad de un valor puntual de la variable; como se puede hacer en el caso de variables
discretas, pero es posible calcular la probabilidad acumulada hasta un cierto valor (función de
distribución de probabilidad), y se puede analizar como cambia la probabilidad acumulada en
cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad.
Una distribución continua describe las probabilidades de los posibles valores de una variable
aleatoria continua. Una variable aleatoria continua es una variable aleatoria con un conjunto de
valores posibles (conocido como el rango) que es infinito y no se puede contar. Las
probabilidades de las variables aleatorias continuas (X) se definen como el área por debajo de la
curva de su PDF. Por lo tanto, solo los rangos de valores pueden tener una probabilidad diferente
de cero. La probabilidad de que una variable aleatoria continua equivalga a algún valor siempre
es cero.

En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de


distribución es continua. Puesto que la función de distribución de una variable aleatoria X viene
dada por fx(x)=p(X<x). I, la definición implica que en una distribución de probabilidad continua
X se cumple P[X = a] = 0 para todo número real a, esto es, la probabilidad de que X tome el valor
a es cero para cualquier valor de a. Si la distribución de X es continua, se llama a X variable
aleatoria continua. En las distribuciones de probabilidad continuas, la distribución de
probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad
continua" se reserva a distribuciones que tienen función de densidad de probabilidad. También
estas funciones se llaman, con más precisión, variables aleatorias absolutamente continuas (véase
el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es
equivalente decir que la probabilidad P [X = a] = 0 para todo número real a, en virtud de que hay
unos incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).
Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera
definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni una
media ponderada de variables discretas y absolutamente continuas. En aplicaciones prácticas, las
variables aleatorias a menudo ofrecen una distribución discreta o absolutamente continua, aunque
también aparezcan de forma natural mezclas de los dos tipos.
LA DISTRIBUCION NORMAL
La distribución normal es la más común entre todas las distribuciones de probabilidad utilizadas
en Estadística y tiene importantes aplicaciones en la modelización de variables estadísticas
asociadas a los elementos de una población. Por ejemplo, las medidas físicas del cuerpo humano
en una población, las características psíquicas medidas por test de inteligencia o personalidad, las
medidas de calidad en muchos procesos industriales, los errores de las observaciones
astronómicas; siguen distribuciones normales. Una justificación de la frecuente aparición de la
distribución normal es el teorema central del límite que establece que cuando los resultados de un
experimento sean debidos a un conjunto muy grande de causas independientes, que actúan
sumando sus efectos, siendo cada efecto individual de poca importancia respecto al conjunto, es
esperable que los resultados sigan una distribución normal. Diremos que una variable aleatoria
sigue una distribución normal con parámetros m y s 2 y se representa: cuando su función de
densidad es de la forma:

LA DISTRIBUCION BETA
En teoría de la probabilidad y en estadística, la distribución beta es una familia de distribuciones
continuas de probabilidad definidas en el intervalo {\displaystyle [0,1]}[0,1] parametrizada por
dos parámetros positivos de forma, denotados por {\displaystyle \alpha }\alpha y {\displaystyle \
beta }\beta , que aparecen como exponentes de la variable aleatoria y controlan la forma de la
distribución. La generalización de esta distribución a varias variables es conocida como la
distribución de Dirichlet.

LA DISTRUCION EXPONENCIAL
En Teoría de Probabilidad y Estadística, la distribución exponencial es una distribución continua
que se utiliza para modelar tiempos de espera para la ocurrencia de un cierto evento. Esta
distribución al igual que la distribución geométrica tiene la propiedad de pérdida de memoria. La
distribución exponencial es un caso particular de la distribución gamma.

LA DISTRIBUCION F
En teoría de probabilidad y estadística, la distribución F, también conocida como distribución de
Fisher-Snedecor (nombrada por Ronald Fisher y George Snedecor), es una distribución de
probabilidad continua, aparece frecuentemente como la distribución nula de una prueba
estadística, especialmente en el análisis de varianza.
LA DISTRIBUCION GAMMA
En teoría de probabilidad y Estadística, la distribución gamma es una distribución con dos
parámetros que pertenece a las distribuciones de probabilidad continuas. La distribución
exponencial, distribución de Erlang y la distribución χ² son casos particulares de la distribución
gamma. Hay dos diferentes parametrizaciones que suelen usarse

LA DISTRIBUCION χ²
En teoría de la probabilidad y en estadística, la distribución ji al cuadrado (también llamada
distribución de Pearson o distribución {\displaystyle \chi ^{2}}{\displaystyle \chi ^{2}}) con {\
displaystyle k\in \mathbb {N} }{\displaystyle k\in \mathbb {N} } grados de libertad es la
distribución de la suma del cuadrado de {\displaystyle k}{\displaystyle k} variables aleatorias
independientes con distribución normal estándar. La distribución chi cuadrada es un caso especial
de la distribución gamma y es una de las distribuciones de probabilidad más usadas en Inferencia
Estadística, principalmente en pruebas de hipótesis y en la construcción de intervalos de
confianza.

LA DISTRIBUCIÓN T DE STUDENT
En probabilidad y estadística, la distribución {\displaystyle t}{\displaystyle t} (de Student) es una
distribución de probabilidad que surge del problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra es pequeño y la desviación estándar
poblacional es desconocida. Fue desarrollada por William Sealy Gosset bajo el pseudónimo
“Student”. Aparece de manera natural al realizar la prueba t de Student para la determinación de
las diferencias entre dos varianzas muestrales y para la construcción del intervalo de confianza
para la diferencia entre las partes de dos poblaciones cuando se desconoce la desviación típica de
una población y esta debe ser estimada a partir de los datos de una muestra.

LA DISTRIBUCIÓN UNIFORME CONTINUA


En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de
distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro
de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente
probables. El dominio está definido por dos parámetros, b, que son sus valores mínimo y máximo
respectivamente.

También podría gustarte