Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ESCUELA DE ADMINISTRACIÓN
INTEGRANTES:
El ser humano cuenta con una característica en particular, es la capacidad anticiparnos a los
eventos que puedan ocurrir, la cual nos permite predecir las oportunidades que se nos presentan
los riesgos de peligro que podamos enfrentar.
La probabilidad nos permite determinar la posibilidad de que un suceso ocurra o no ocurra, dadas
determinadas circunstancias, establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles basado en un experimento aleatorio que cuando se repite bajo
las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo como
ejemplo podemos usar el lanzar una moneda al aire. Esta se utiliza en distintas áreas como
matemáticas, estadística, física, economía, entre otras.
Podemos definir a Pierre Fermat (1601-1665) y Blaise Pascal (1623-1662), como padres de la
teoría de la probabilidad. Sin embargo, existen evidencias históricas que nos inclinan a pensar
que el primero en poner por escrito el concepto fue Gerolamo Cardano (1501-1576).
Toda variable aleatoria posee una descripción de su comportamiento según la distribución de
probabilidades y puede definirse como cualquier característica medible que describe su
comportamiento, las cuales son distribuciones de probabilidad continuas o distribuciones de
probabilidad discretas.
Las variables continuas son aquellas cuyos valores posibles está compuesto de una lista de
secuencia infinita y que puede tomar cualquier valor dentro de un intervalo que permite
determinar las probabilidades que correspondan, en el caso de las variables discretas, esta
representa las probabilidades acumuladas, no puede tomar ningún valor entre dos consecutivos y
se pueden representar mediante un diagrama de barras y de sectores.
Variable Continua
Variable Discreta
Diagrama de barras
Diferencias:
Cuantitativas discretas: cuando se toman valores aislados. Por ejemplo: número de amigos de tu
pandilla, número de veces que vas al cine al mes, número de coches que tiene tu familia.
Cuantitativas continuas: cuando, entre dos valores cualesquiera, puede haber valores
intermedios. Es decir, se toman todos los valores de un determinado intervalo. Por ejemplo: peso
de las personas, nivel sobre el mar en que se encuentra tu ciudad, medida del perímetro torácico.
PROBABILIDAD DISCRETA
Cuando nos planteamos estudiar estas distribuciones de probabilidad, lo hacemos partiendo de la
base que su estudio nos permitirá simplificar el tratamiento estadístico de muchos fenómenos
reales. De esta manera, si nosotros nos encontramos con un fenómeno real tal y como puede ser
realizar una inversión o no. Este es un fenómeno que tiene dos posibles valores, invertir, no
invertir. Bien, veremos que este tipo de fenómenos los podemos estudiar como una variable o
distribución de Bernuille. Si nosotros hemos estudiado esta variable tendremos perfectamente
identificados tanto la media como la varianza como su función de cuantía, etc... Es decir,
conocemos el comportamiento probabilístico de este fenómeno. Si nos ponemos a pensar en
fenómenos económicos reales, veremos que existen muchos que se pueden ajustar a un
comportamiento de este tipo. Todos ellos están estudiados simultáneamente mediante la
distribución de Bernuilli o la generalización binomial. Por tanto, cuando estudiamos la
distribución binomial, estamos estudiando miles de posibles distribuciones.
3. Distribución de Poisson
La distribución de Poisson se puede entender como un caso particular de la Binomial que
utilizamos para determinadas distribuciones en las que el cálculo de la probabilidad es engorroso
debido bien a que el número de pruebas es excesivamente elevado o bien a que la probabilidad de
éxito es excesivamente baja; en ambos casos la media (n*p) es muy pequeña en relación al
número de pruebas (n). En estos casos se puede demostrar que la distribución binomial converge,
tiende a comportarse, como una distribución de Poisson. Como regla práctica entenderemos que
es aplicable la distribución de Poisson en aquellas binomiales cuya media tenga un valor inferior
a 5 y el número de pruebas sea superior a 30. Algunos ejemplos de fenómenos que se ajustan a
una distribución de Poisson son los siguientes:
- El número de accidentes de tráfico en una ciudad durante una semana.
- El número de emergencias que llegan a un servicio de urgencia hospitalaria.
- El número de robos denunciados en un mes en la ciudad de Madrid.
- El número de llamadas telefónicas que llegan a la centralita de una gran empresa en hora
punta.
Todos estos casos pueden ser caracterizados como el número de sucesos de un determinado
evento en un período de tiempo. Cada uno de estos eventos toma dos posibles valores, éxito o
fracaso, equivalente a recibir una llamada o no recibirla, accidentarse o no accidentarse, etc...
Además, la probabilidad del éxito es muy pequeña. Es decir, la probabilidad de tener un
accidente es muy baja, la probabilidad de que una persona llama a la centralita de la gran empresa
es mínima. Y, no debemos de olvidar, que n, número de personas que hay en una ciudad, número
de personas que circulan en coche, etc... es muy grande. Todo esto nos lleva a que una buena
parte de fenómenos de esta naturaleza siguen una distribución del tipo Poisson. Es por ello que
esta distribución, también denominada "de los sucesos raros" es particularmente útil para resolver
problemas de colas y líneas de espera, temas ambos que se podrán estudiar en otras asignaturas
del área de métodos cuantitativos en economía.
PROBABILIDAD CONTINUA
Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos
se pueden definir infinitos valores más. En estas condiciones no es posible deducir la
probabilidad de un valor puntual de la variable; como se puede hacer en el caso de variables
discretas, pero es posible calcular la probabilidad acumulada hasta un cierto valor (función de
distribución de probabilidad), y se puede analizar como cambia la probabilidad acumulada en
cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad.
Una distribución continua describe las probabilidades de los posibles valores de una variable
aleatoria continua. Una variable aleatoria continua es una variable aleatoria con un conjunto de
valores posibles (conocido como el rango) que es infinito y no se puede contar. Las
probabilidades de las variables aleatorias continuas (X) se definen como el área por debajo de la
curva de su PDF. Por lo tanto, solo los rangos de valores pueden tener una probabilidad diferente
de cero. La probabilidad de que una variable aleatoria continua equivalga a algún valor siempre
es cero.
LA DISTRIBUCION BETA
En teoría de la probabilidad y en estadística, la distribución beta es una familia de distribuciones
continuas de probabilidad definidas en el intervalo {\displaystyle [0,1]}[0,1] parametrizada por
dos parámetros positivos de forma, denotados por {\displaystyle \alpha }\alpha y {\displaystyle \
beta }\beta , que aparecen como exponentes de la variable aleatoria y controlan la forma de la
distribución. La generalización de esta distribución a varias variables es conocida como la
distribución de Dirichlet.
LA DISTRUCION EXPONENCIAL
En Teoría de Probabilidad y Estadística, la distribución exponencial es una distribución continua
que se utiliza para modelar tiempos de espera para la ocurrencia de un cierto evento. Esta
distribución al igual que la distribución geométrica tiene la propiedad de pérdida de memoria. La
distribución exponencial es un caso particular de la distribución gamma.
LA DISTRIBUCION F
En teoría de probabilidad y estadística, la distribución F, también conocida como distribución de
Fisher-Snedecor (nombrada por Ronald Fisher y George Snedecor), es una distribución de
probabilidad continua, aparece frecuentemente como la distribución nula de una prueba
estadística, especialmente en el análisis de varianza.
LA DISTRIBUCION GAMMA
En teoría de probabilidad y Estadística, la distribución gamma es una distribución con dos
parámetros que pertenece a las distribuciones de probabilidad continuas. La distribución
exponencial, distribución de Erlang y la distribución χ² son casos particulares de la distribución
gamma. Hay dos diferentes parametrizaciones que suelen usarse
LA DISTRIBUCION χ²
En teoría de la probabilidad y en estadística, la distribución ji al cuadrado (también llamada
distribución de Pearson o distribución {\displaystyle \chi ^{2}}{\displaystyle \chi ^{2}}) con {\
displaystyle k\in \mathbb {N} }{\displaystyle k\in \mathbb {N} } grados de libertad es la
distribución de la suma del cuadrado de {\displaystyle k}{\displaystyle k} variables aleatorias
independientes con distribución normal estándar. La distribución chi cuadrada es un caso especial
de la distribución gamma y es una de las distribuciones de probabilidad más usadas en Inferencia
Estadística, principalmente en pruebas de hipótesis y en la construcción de intervalos de
confianza.
LA DISTRIBUCIÓN T DE STUDENT
En probabilidad y estadística, la distribución {\displaystyle t}{\displaystyle t} (de Student) es una
distribución de probabilidad que surge del problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra es pequeño y la desviación estándar
poblacional es desconocida. Fue desarrollada por William Sealy Gosset bajo el pseudónimo
“Student”. Aparece de manera natural al realizar la prueba t de Student para la determinación de
las diferencias entre dos varianzas muestrales y para la construcción del intervalo de confianza
para la diferencia entre las partes de dos poblaciones cuando se desconoce la desviación típica de
una población y esta debe ser estimada a partir de los datos de una muestra.