Está en la página 1de 22

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA

UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA


ARMADA

NÚCLEO CARABOBO – EXTENSIÓN GUACARA

PROCESOS ESTOCÁSTICOS: 3er CORTE

Alejandro Antonio Veleiro Chirinos

CI: 29618479

Ing. De Sistemas – 6to semestre


Distribución de probabilidad de una variable aleatoria

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable


aleatoria es una función que asigna a cada suceso definido sobre la variable la probabilidad
de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto
de todos los sucesos y cada uno de los sucesos es el rango de valores de la variable
aleatoria. También puede decirse que tiene una relación estrecha con las distribuciones de
frecuencia. De hecho, una distribución de probabilidades puede comprenderse como una
frecuencia teórica, ya que describe cómo se espera que varíen los resultados.

La distribución de probabilidad está completamente especificada por la función de


distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea
menor o igual que x.

Tipos de variables:

 Variable aleatoria: Es aquella cuyo valor es el resultado de un evento aleatorio. Lo


que quiere decir que son los resultados que se presentan al azar en cualquier evento
o experimento.
 Variable aleatoria discreta: Es aquella que solo toma ciertos valores (frecuentemente
enteros) y que resulta principalmente del conteo realizado.
 Variable aleatoria continua: Es aquella que resulta generalmente de la medición y
puede tomar cualquier valor dentro de un intervalo dado.

Esta división se realiza dependiendo del tipo de variable a estudiar. Las cuatro principales
(de las que nacen todas las demás) son:

a) Si la variable es una variable discreta (valores enteros), corresponderá una distribución


discreta, de las cuales existen:

 Distribución binomial (eventos independientes).


 Distribución de Poisson (eventos independientes).
 Distribución hipergeométrica (eventos dependientes).
b) Si la variable es continua, esto significa que puede tomar cualquier valor dentro de un
intervalo, la distribución que se generará será una distribución continua, también llamada
distribución normal o gaussiana.

Además, se puede utilizar la «distribución de Poisson como una aproximación de la


distribución binomial» cuando la muestra por estudiar es grande y la probabilidad de éxito
es pequeña. De la combinación de los dos tipos de distribuciones anteriores (a y b), surge
una conocida como «distribución normal como una aproximación de la distribución
binomial y de Poisson».

Dada una variable aleatoria x, su función de distribución F X ( x ), es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice x y se escribe
simplemente F (x). Donde en la fórmula anterior:

 Prob, es la probabilidad definida sobre un espacio de probabilidad y una medida


unitaria sobre el espacio muestral.
 μ μ μ p Es la medida sobre la σ-álgebra de conjuntos asociada al espacio de
probabilidad.
 Ω es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre
el que se define el espacio de probabilidad en cuestión.
 X :Ω → R es la variable aleatoria en cuestión, es decir, una función definida sobre el
espacio muestral a los números reales.

Propiedades

Como consecuencia casi inmediata de la definición, la función de distribución:

 Es una función continua por la derecha.


 Es una función monótona no decreciente.
Además, cumple

Para dos números reales cualesquieraaay b tal que (a< b)( )¿, los sucesos ( X ≤ a) y
(a< X ≤b) son mutuamente excluyentes y su unión es el suceso ( X ≤ b), por lo que tenemos
entonces que:

y finalmente

Por lo tanto una vez conocida la función de distribución F (x) para todos los valores de la
variable aleatoria x x conoceremos completamente la distribución de probabilidad de la
variable.

Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin


embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la
función de densidad.

Distribución de variable uniforme

La distribución de probabilidad uniforme es un ejemplo de una distribución de probabilidad


es continua. Una distribución de probabilidad es continua cuando los resultados posibles
del experimento son obtenidos de variables aleatorias continuas, es decir, de variables
cuantitativas que pueden tomar cualquier valor, y que resultan principalmente del proceso
de medición.

Ejemplos de variables aleatorias continuas son:

La estatura de un grupo de personas

El tiempo dedicado a estudiar

La temperatura en una ciudad

Es una distribución en el intervalo [a,b] en la cual las probabilidades son las mismas para
todos los posibles resultados, desde el mínimo de a hasta el máximo de b. El experimento
de lanzar un dado es un ejemplo que cumple la distribución uniforme, ya que todos los 6
resultados posibles tienen 1/6 de probabilidad de ocurrencia.

La función de densidad de una distribución uniforme (altura de cada rectángulo en la


gráfica anterior) es:

Donde:

a = mínimo valor de la distribución


b = máximo valor de la distribución

b – a = Rango de la distribución

La media, valor medio esperado o esperanza matemática de una distribución uniforme se


calcula empleando la siguiente fórmula:

La varianza de una distribución uniforme se calcula empleando la siguiente fórmula:

La probabilidad de que una observación caiga entre dos valores se calcula de la siguiente
manera:

Distribución de probabilidad normal

En estadística y probabilidad se llama distribución normal, distribución de Gauss,


distribución gaussiana o distribución de Laplace-Gauss, a una de las distribuciones de
probabilidad de variable continua que con más frecuencia aparece en estadística y en la
teoría de probabilidades
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto
de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y
es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos


naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte
de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables
incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse
asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes.

De hecho, la estadística descriptiva solo permite describir un fenómeno, sin explicación


alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la
estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por


mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la


normal son:

 caracteres morfológicos de individuos como la estatura;


 caracteres fisiológicos como el efecto de un fármaco;
 caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos;
 caracteres psicológicos como el cociente intelectual;
 nivel de ruido en telecomunicaciones;
 errores cometidos al medir ciertas magnitudes;
 etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por


ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal,
cuando la distribución de la población de la cual se extrae la muestra no es normal.
Además, la distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestral y varianza. La
distribución normal es la más extendida en estadística y muchos tests estadísticos están
basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de


probabilidades continuas y discretas.

La función de distribución de la distribución normal está definida como sigue:

donde:

 es la media (también puede ser la mediana, la moda o el valor esperado, según


aplique)
 es la desviación típica [estándar es un anglicismo]
 es la varianza
 representa la función de densidad de probabilidad

También podemos definir la normal a través de la función de densidad:

La función de distribución normal estándar es un caso especial de la función donde μ=0


y σ =1
Esta función de distribución puede expresarse en términos de una función especial llamada
función error de la siguiente forma:

y la propia función de distribución puede, por consiguiente, expresarse así:

El complemento de la función de distribución de la normal estándar,1−Φ ( x), se denota con


frecuencia Q(x ), y es referida, a veces, como simplemente función Q, especialmente en
textos de ingeniería. Esto representa la cola de probabilidad de la distribución gaussiana.
También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas
ellas transformaciones simples deΦ.

La inversa de la función de distribución de la normal estándar (función cuantil) puede


expresarse en términos de la inversa de la función de error:

y la inversa de la función de distribución puede, por consiguiente, expresarse como:

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para
la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado
la inexistencia de tal función. Existen varios métodos exactos para aproximar la función
cuantil mediante la distribución normal (véase función cuantil).
Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales
como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

Límite inferior y superior estrictos para la función de distribución

Para grandes valores de x la función de distribución de la normal estándar Φ ( x) es muy


próxima a 1 y Φ (−x )=1−Φ(x ) está muy cerca de 0. Los límites elementales

en términos de la densidad φ son útiles.

Usando el cambio de variable v = u²/2, el límite superior se obtiene como sigue:

De forma similar, usando φ ' ( u )=−uφ (u) y la regla del cociente,

Resolviendo 1−Φ ( x) para proporciona el límite inferior.

Distribución de probabilidad Beta


En estadística, una variable aleatoria X tiene una distribución beta con parámetros α , β >0
y escribimos X B(α , β ) si y sólo si su función de densidad para valores 0< x <1 es

dondeB(α , β ) es la función beta y se define para α , β >0 como

y satisface

1.

2.

El valor esperado y la varianza de una variable aleatoria X B(α , β ) son

Un caso especial de la distribución beta es cuando α =1 y β=1 que coincide con la


distribución uniforme en el intervalo [0, 1].

Distribución de probabilidad gamma


En estadística, se dice que una variable aleatoria X tiene distribución gamma con
parámetros α >0 y λ> 0 y escribimos X Γ ( α , λ) si y sólo si la función de densidad para
valores x >0 es

Donde

es la función gamma y satisface

1. Γ ( n+1 ) =n Γ (n)
2. Γ ( n+1 ) =n ! n ∈ Z
+¿ ¿

3. Γ ( 2 )=Γ ( 1 )=1

4. Γ ( 12 )=√ π
El valor esperado y la varianza de una variable aleatoria X Γ ( α , λ ) son

Distribuciones Relacionadas

 Si X 1 , X 2 , X 3 ,… , X n son variables aleatorias independientes e idénticamente

n
distribuidas tales que X i exp ( λ ) entonces ∑ X i Γ ( n , λ ).
i=1

 Si X Γ ( 1 , λ )entonces X exp ( λ ).
 Si X Γ ( n2 , 2) con n ∈ N entonces X X 2n.

Distribución de probabilidad exponencial negativa

En estadística, se dice que una variable aleatoria X continua tiene una distribución
exponencial con parámetro λ> 0 y escribimos X exp( λ) si su función de densidad es

Su función de distribución acumulada es:

Donde e representa el número e.

De forma adicional esta distribución presenta una función adicional que es función
Supervivencia (S), que representa el complemento de Función de distribución.

El valor esperado y la varianza de una variable aleatoria X exp( λ) son

La distribución exponencial es un caso particular de distribución gamma cuandoα =1.


Además la suma de variables aleatorias que siguen una misma distribución exponencial es
una variable aleatoria expresable en términos de la distribución gamma.
Ejemplo

Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos


de una variable continua que transcurren entre dos sucesos, que se distribuyen según la
distribución de Poisson.

 El tiempo transcurrido en un centro de llamadas hasta recibir la primera llamada del


día se podría modelar como una exponencial.
 El intervalo de tiempo entre terremotos (de una determinada magnitud) sigue una
distribución exponencial.
 Supongamos una máquina que produce hilo de alambre, la cantidad de metros de
alambre hasta encontrar una falla en el alambre se podría modelar como una
exponencial.
 En fiabilidad de sistemas, un dispositivo con tasa de fallo constante sigue una
distribución exponencial.

Calcular variables aleatorias

Se pueden calcular una variable aleatoria de distribución exponencial x por medio de una
variable aleatoria de distribución uniformeu=U (0,1):

o, dado que (1−u) es también una variable aleatoria con distribución U ( 0,1), puede
utilizarse la versión más eficiente:

Relaciones

Si X 1 , X 2 , … , X n son variables aleatorias independientes tales que X i exp( λ) entonces


Donde Γ ( n , λ) es la distribución de Erlang con parámetro λ, esto es

Es decir, la suma n de variables aleatorias independientes con distribución exponencial con


parámetro λ es una variable aleatoria con distribución de Erlang.

Valor esperado de una variable aleatoria

Es la generalización de la media aritmética a toda la población, es decir, es la media de la


variable aleatoria. También se llama valor medio, valor esperado o esperanza
matemática, y se representa por la letra griega μ.

Si X es una variable aleatoria discreta (representada, de manera general, por una tabla de
valores xi y probabilidades pi=P(X=xi)),

X P(X=xi)
X1 P1
X2 P2
… …
Xn Pn

La esperanza se calcula como la media aritmética de los valores, es decir, la suma de los
valores por sus posibilidades (las probabilidades serían las frecuencias relativas.
Recordemos que la media aritmética de una variable estadística se definió como

que, obviamente, sería equivalente a escribir

es decir, sería la esperanza de una variable cuyos valores aparecen todos con la misma
probabilidad pi=1/n .

Si a una variable estadística la representamos por sus valores x i, y sus frecuencias relativas
son f i=ni /n , entonces la media aritmética se puede escribir como

esto es, suma de valores por frecuencias. En el caso de una variable aleatoria, las
frecuencias se transforman en probabilidades (de ocurrencia). Por eso la esperanza es un
valor medio esperado.

Si X es una variable aleatoria continua, la variable toma infinitos valores. El equivalente


continuo de la suma es la integral. La fórmula matemática incluye en este caso a la función
de densidad:
Teorema de Tchebyshev

El Teorema de Chebyshev es considerado una desigualdad probabilística, proporciona un


límite superior a la probabilidad de que la desviación absoluta de una variable
correspondiente o aleatoria, de su medida, excede un umbral dado. En general, el Teorema
de Chebyshev se usa para medir la dispersión de los datos para cualquier distribución.

El Teorema de Chebyshev explica que al menos 1-1/k2 de datos de una muestra deben caer
dentro de K, que es las desviaciones estándar de estándar de la media. En cualquier
ejercicio o prueba, el K es un número real positivo mayor que uno.

En un conjunto de datos que se distribuye, o se encuentra en forma de curva de campana,


este posee unas ciertas características interesantes que vale la pena resaltar. Uno de ellos se
ocupa de la propagación de los datos, cuando se encuentra en relación con el número de la
desviación estándar de la media.

Cuando sucede una distribución normal, se sabe que al menos un 68% de los datos es una
desviación estándar de la media. Por otro lado, el 95% son dos desviaciones están de la
media, y el 99% aproximadamente se encuentra dentro de las tres desviaciones estándar de
la media.

Sin embargo, si el conjunto de estos datos no se logra distribuir adecuadamente, en forma


de curva de campana, entonces la cantidad diferente podría encontrarse dentro de una
desviación estándar. El Teorema de Chebyshev es el encargado de explicar una manera de
saber qué fracción de datos se encuentra dentro de las desviaciones estándar K de la media
para cualquier conjunto de datos en específico.
La regla 68-95-99.7 explica que, para una variable normalmente distribuida,
aproximadamente el 68% de los valores caerán dentro de una desviación estándar de la
media. Por otro lado, el 95% de los valores dentro de dos desviaciones estándar y el 99.7
dentro de tres desviaciones estándar.

Estos valores mencionados anteriormente, son bastante útiles para memorizar porque los
valores que se calculan a partir de los datos a menudo se distribuyen aproximadamente
normalmente debido al teorema del límite central. Tener una idea base de cómo los
diferentes múltiplos de una desviación estándar corresponde a los intervalos de confianza,
les permite a los usuarios comprender de manera más intuitiva la importancia de los
gráficos, tablas y cálculos que incluyen valores de error de una desviación estándar.

Las distribuciones que son aproximadamente normales, son consideradas comunes, pero
hay muchas circunstancias en que las que este no será el caso. La las distribuciones con una
cola más pesada, se esperaría que haya menos de la distribución dentro de cada uno de los
múltiplos de la desviación estándar. Mientras que para las distribuciones con una cola
menos pesada, ocurriría completamente lo contrario. Para las distribuciones que no son
normales, hay una gran probabilidad de que esos números 68/95/99.7 sean inexactos.

En caso que se esté trabajando con una distribución de probabilidad que es desconocida, los
valores de confianza para diferentes números de desviaciones estándar de la medida
también resultarán desconocido. De encontrarse en esta situación, resultará útil tener una
noción del ‘peor de los casos’ cuando los valores de confianza se encuentran bajo.
Características importantes del Teorema de Chebyshev

La desigualdad también se puede emplear con la frase de ‘datos de una muestra’ cuando se
encuentra en una distribución de probabilidad. Lo anterior ocurre porque la desigualdad de
Chebyshev es el resultado de la probabilidad, que luego se aplica en la estadística.

Se hace importante aclarar que esta desigualdad o Teorema de Chebyshev es un resultado


que se ha aclarado y demostrado matemáticamente. Por lo que cada una de sus aplicaciones
es completamente fidedignas, así como los resultados. No es como la relación empírica
entre la media y el modo, o la regla general que conecta el rango y la desviación estándar.

¿Cuán tan dispersas son las mediciones del Teorema de Chebyshev?

Cuando se muestrea los datos del teorema, es útil saber cuán dispensables o dispersas son
las mediciones en este rango. Por ejemplo, suponga que ha estado rastreando sus gastos de
desayuno y, en promedio, gasta unos 10$ por día antes y durante el trabajo. Probablemente
le interesaría saber si gastó constantemente esa cantidad o si tuvo unos gastos muy grandes
que sesgaron el promedio general.

Por lo que vemos, es una excelente manera de ver estadísticamente cuántos gastos  hemos
hecho de acuerdo a la probabilidad estándar del Teorema de Chebyshev. Si bien esta
ecuación a menudo da como resultado un rango relativamente amplio de valores, es útil
porque solo requiere el conocimiento de la media y la desviación estándar, que se calculan
fácilmente a partir de cualquier muestra o población de datos. El teorema también
proporciona lo que podría llamarse una mirada en el peor de los casos de la dispersión de
datos, como se mencionó anteriormente.

Formula del Teorema de Chebyshev

Para poder investigar este teorema, primero es necesario comparar los cálculos con la regla
general 68-95-99.7 para distribuciones normales. Dado que esos números representan los
datos que se encuentran dentro de los límites, se utiliza la desigualdad de Chebysgev para
los datos dentro de los límites. Esta fórmula es la siguiente.

Probabilidad = 1 – (1 / k 2 )

Donde, matemáticamente, los valores menores o iguales a 1 no son válidos para este
cálculo. Sin embargo, conectar los valores de k para 2 y 3 es más simple de lo que parece.
En esos casos de 2 y 3, el Teorema de Chebyshev establece que al menos el 75% de los
datos caerán dentro de las 2 desviaciones estándar de la media y se espera que el 89% de
los datos caigan dentro de las 3 desviaciones estándar de la media.

Esto es menos preciso que los 95% y 99.7% que se pueden usar para una distribución
normal conocida; sin embargo el Teorema de Chebyshev es cierta para todas las
distribuciones de los datos, no solo para una distribución normal.

Ejemplo del Teorema de Chebyshev

Supongamos que se han muestreado los pesos de los perros en un determinado refugio de
animales. Al analizar el muestreo, se ha descubierto que la muestra tiene una media de 20
libras con una desviación estándar de 3 libras. Con el uso del Teorema de Chebyshev.
Sabiendo que el 75% de los perros que se han muestreado tienen pesos que son dos
desviaciones estándar de la media. Dos veces la desviación estándar da un resultado de
2×3= 6. Restando y sumando esto, da una media de 20
Lo anterior solo nos dice que el 75% de los perros tienen un peso de 14 libras a 26 libras.
Este es un ejemplo bastante práctico de cómo funciona el Teorema de Chebyshev o al
menos cómo se puede emplear en un ejemplo de la vida real. La estadística se encuentra
siempre al tanto.

Uso del Teorema de Chebyshev

Si sabemos más acerca de la distribución con la que se está trabajando, entonces se podrá
garantizar que más datos estén a un cierto número de desviaciones estándar de la media.
Por ejemplo, si se sabe la distribución normal, entonces el 95% de los datos son dos
desviaciones estándar de la media. El Teorema de Chebyshev explica que en esta
situación, sabremos que al menos el 75% de los datos son dos desviaciones estándar de la
media. Tal como se mostró en el ejemplo anteriormente resuelto.

El valor de la desigualdad da un escenario de peor caso en el que lo único que sabemos


sobre nuestros datos de muestra, o la distribución de probabilidad, es la media y la
desviación estándar. Cuando no sabemos nada más sobre los datos, el Teorema de
Chebyshev proporciona una idea adicional de cuán extendido es el conjunto de datos.

La ley de los grandes números

El Teorema de Chebyshev puede ser útil al hacer ciertas estimaciones aproximadas sobre
los intervalos de confianza, pero a menudo también es una herramienta muy útil cuando se
quieran probar casos estadísticos. Una muestra simple, pero bastante eficaz, donde el
teorema se usa a menudo es en la ley de los grandes números. Por ejemplo, una gran prueba
de esto sería:

La ley de los grandes números establece que para k, las variables aleatorias
independientes e idénticamente distribuidas es la media muestral.

Límites del teorema

El Teorema de Chebyshev es importante por sus aplicaciones en el ámbito estadístico, y


también su aplicabilidad a cualquier distribución. Como resultado de que sea general, es
posible que, y generalmente no se debe hacer, proporcionar un límite tan agudo como los
métodos alternativos que se pueden emplear si se conoce bien la distribución de la
variable aleatoria. Para mejorar los límites de la nitidez de los resultados de la desigualdad,
se ha desarrollado varios métodos como:

Variables estandarizadas

Los límites se pueden derivar primero estandarizando la variable aleatoria y obteniendo


resultados más específicos.

Semivarianzas

Este es un método alternativo al estandarizado para obtener los límites más definidos
mediante las variaciones parciales, también conocido como semivarianzas.

Distancia entre la media y la mediana

La variante unilateral puede usarse para probar la proposición de que para distribuciones de
probabilidad que tienen un valor esperado y una media, la media y la mediana no pueden
diferir entre sí en más de una desviación estándar.

También podría gustarte