Está en la página 1de 21

DISTRIBUCION

DE
PROBABILIDADES

profesor: Autor:

Wilmer millan Castillo Luis C.I: 27592413

M01 T3
Contenido
Introducción......................................................................................................................................3
Distribuciones de probabilidades......................................................................................................4
Distribuciones discretas................................................................................................................4
Ejemplo.................................................................................................................................4
Distribución Uniforme discreta (a,b)......................................................................................5
Distribución hipergeométrica (N, R, n)...................................................................................5
Distribución Geométrica (p)...................................................................................................6
Distribución Binomial negativa (r,p)......................................................................................7
Distribución Poisson (lambda)...............................................................................................8
Ejemplo.................................................................................................................................8
Distribuciones continuas...............................................................................................................8
Ejemplo.................................................................................................................................8
Distribución Uniforme (a,b)...................................................................................................9
Distribución Normal (Mu, Sigma)...........................................................................................9
se caracteriza por.................................................................................................................10
Distribución Lognormal (Mu, Sigma)....................................................................................10
Distribución Logística (a, b)..................................................................................................11
Distribución Beta (p,47).......................................................................................................11
Distribución Gamma (a,p)....................................................................................................12
Distribución Exponencial (lambda)......................................................................................12
Distribución Ji-cuadrado (n).................................................................................................13
Distribución t de Student (n)................................................................................................13
Distribución F de Snedecor (n,m).........................................................................................14
Función de densidad........................................................................................................................14
Propiedades.................................................................................................................................15
CASO DISCRETO...................................................................................................................15
Ejemplo...............................................................................................................................15
Esperanza matemática....................................................................................................................16
Utilidad........................................................................................................................................16
Ejemplo...............................................................................................................................16
CASO CONTINUO:........................................................................................................................17
Ejemplo...............................................................................................................................17
Curvas de probabilidad/ curva normal...........................................................................................18
Varianza...........................................................................................................................................18
Ejemplo...............................................................................................................................19
Conclusión.......................................................................................................................................20
Introducción
En estadística, economía y muchas otras áreas, es necesario inferir y decidir sobre situaciones en
las que hay diferentes probabilidades de ocurrencia en los resultados, la distribución de
probabilidad permite a partir de una función describir el comportamiento esperado en esos casos.

Una distribución de probabilidad indica toda la gama de valores que pueden representarse como
resultado de un experimento. Una distribución de probabilidad es similar a la distribución de
frecuencias relativas .Si embargo, en vez de describir el pasado, describe la probabilidad que un
evento se realice en el futuro, constituye una herramienta fundamental para la prospectiva,
puesto que se puede diseñar un escenario de acontecimientos futuros considerando las
tendencias actuales de diversos fenómenos naturales.

Las decisiones estadísticas basadas en la estadística inferencial son fundamentales en la


investigación que son evaluadas en términos de distribución de probabilidades.

Los conceptos y métodos estadísticos no son solo útiles sino con frecuencia son indispensables
para entender el mundo que nos rodea. Proporcionan formas de obtener ideas nuevas del
comportamiento de muchos fenómenos que se presentarán en su campo de especialización
escogido en ingeniería o ciencia.

La disciplina de estadística nos enseña cómo realizar juicios inteligentes y tomar decisiones
informadas entre la presencia de incertidumbre y variación.
Distribuciones de probabilidades.
Una distribución de probabilidad indica toda la gama de valores que pueden representarse como
resultado de un experimento si éste se llevase a cabo.

Es decir, describe la probabilidad de que un evento se realice en el futuro, constituye una


herramienta fundamental para la prospectiva, puesto que se puede diseñar un escenario de
acontecimientos futuros considerando las tendencias actuales de diversos fenómenos naturales.

Uno de los objetivos de la estadística es el conocimiento cuantitativo de una determinada parcela


de la realidad. Para ello, es necesario construir un modelo de esta realidad particular objeto de
estudio, partiendo de la premisa de que lo real es siempre más complejo y multiforme que
cualquier modelo que se pueda construir. De todas formas, la formulación de modelos aceptados
por las instituciones responsables y por los usuarios, permite obviar la existencia del error o
distancia entre la realidad y el modelo.

Uno de los conceptos más importantes de la teoría de probabilidades es el de variable aleatoria


que, intuitivamente, puede definirse como cualquier característica medible que toma diferentes
valores con probabilidades determinadas. toda variable aleatoria posee una distribución de
probabilidad que describe su comportamiento (vale decir, que desagrega el 1 a lo largo de los
valores posibles de la variable). si la variable es discreta, es decir, si toma valores aislados dentro
de un intervalo, su distribución de probabilidad especifica todos los valores posibles de la variable
junto con la probabilidad de que cada uno ocurra. en el caso continuo, es decir, cuando la variable
puede tomar cualquier valor de un intervalo, la distribución de probabilidad permite determinar
las probabilidades correspondientes a con subintervalos de valores. Una forma usual de describir
la distribución de probabilidad de una variable aleatoria es mediante la denominada función de
densidad, en tanto que lo que se conoce como función de distribución representa las
probabilidades acumuladas.

Distribuciones discretas
Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable
aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores
contables, tales como una lista de enteros no negativos.

Ejemplo
Con una distribución discreta, a diferencia de una distribución continua, x P (X = x)usted puede
calcular la probabilidad de que X sea exactamente igual a algún valor. Por ejemplo, puede
5 0.037833
utilizar la distribución discreta de Poisson para describir el número de quejas de clientes en
un día. Supongamos que el número promedio de quejas por día es 10 y 10 0.12511usted desea
saber la probabilidad de recibir 5, 10 y 15 quejas de clientes en un día.
15 0.034718
Usted también puede visualizar una distribución discreta en una gráfica de distribución para ver
las probabilidades entre los rangos.

Las barras sombreadas en este ejemplo representan el número de ocurrencias cuando las quejas
diarias de los clientes son 15 o más. La altura de las barras suma 0.08346; por lo tanto, la
probabilidad de que el número de llamadas por día sea 15 o más es 8.35%.

Distribución Uniforme discreta (a,b)


Describe el comportamiento de una variable discreta que puede tomas n valores distintos con la
misma probabilidad cada inda de ellos, Un caso partículas de esta distribución ocurre cuando los
valores son enteros consecutivos, esta distribución asigna igual probabilidad a todos los valores
ros entre el limite inferior y el limite superior que definen el recorrido de la variable. Si la variable
puede tomar valores entre a y b, debe ocurrir que sea mayor que a, y la variable toma los valores
empezando por a, a+1, a+2, etc. Hasta el valor máximo b. por ejemplo cuando se observa el
numero obtenido tras el lanzamiento de un dado perfecto, los valores posible siguen una
distribución uniforme discreta entre {1, 2, 3, 4, 5, 6,}, y la posibilidad de cada cara en 1/6

Parámetros

a: mínimo, a entero

b: máximo, b entero <b

Distribución hipergeométrica (N, R, n)


La distribución hipergeométrica es una distribución discreta que modela el número de eventos en
una muestra de tamaño fijo cuando usted conoce el número total de elementos en la población de
la cual proviene la muestra. Cada elemento de la muestra tiene dos resultados posibles (es un
evento o un no evento). Las muestras no tienen reemplazo, por lo que cada elemento de la
muestra es diferente. Cuando se elige un elemento de la población, no se puede volver a elegir.
Por lo tanto, la probabilidad de que un elemento sea seleccionado aumenta con cada ensayo,
presuponiendo que aún no haya sido seleccionado.
Utilice la distribución hipergeométrica para muestras obtenidas de poblaciones relativamente
pequeñas, sin reemplazo. Por ejemplo, la distribución hipergeométrica se utiliza en la prueba
exacta de Fisher para probar la diferencia entre dos proporciones y en muestreos de aceptación
por atributos cuando se toman muestras de un lote aislado de tamaño finito.

La distribución hipergeométrica se define por 3 parámetros: tamaño de la población, conteo de


eventos en la población y tamaño de la muestra.

Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas. Supongamos que el 2% de
las etiquetas es defectuoso. El conteo de eventos en la población es de 10 (0.02 * 500). Usted
toma una muestra de 40 etiquetas y desea determinar la probabilidad de que haya 3 o más
etiquetas defectuosas en esa muestra. La probabilidad de que haya 3 o más etiquetas defectuosas
en la muestra es de 0.0384.

Distribución Geométrica (p)


Supóngase, que se efectúa repetidamente un experimento o prueba, que las repeticiones son
independientes y que se está interesado en la ocurrencia o no de un suceso al que se refiere como
"éxito", siendo la probabilidad de este suceso p. La distribución geométrica permite calcular la
probabilidad de que tenga que realizarse un número k de repeticiones hasta obtener un éxito por
primera vez. Así pues, se diferencia de la distribución binomial en que el número de repeticiones
no está predeterminado, sino que es la variable aleatoria que se mide y, por otra parte, el
conjunto de valores posibles de la variable es ilimitado.

Para ilustrar el empleo de esta distribución, se supone que cierto medicamento opera
exitosamente ante la enfermedad para la cual fue concebido en el 80% de los casos a los que se
aplica; la variable aleatoria "intentos fallidos en la aplicación del medicamento antes del primer
éxito" sigue una distribución geométrica de parámetro p=0,8. Otro ejemplo de variable geométrica
es el número de hijos hasta el nacimiento de la primera niña.

La distribución geométrica se utiliza en la distribución de tiempos de espera, de manera que, si los


ensayos se realizan a intervalos regulares de tiempo, esta variable aleatoria proporciona el tiempo
transcurrido hasta el primer éxito.

Esta distribución presenta la denominada "propiedad de Harkov" o de falta de memoria, que


implica que la probabilidad de tener que esperar un tiempo t no depende del tiempo que ya haya
transcurrido.

Valores:

x: 0, 1, 2, ...

Parámetros:

p: probabilidad de éxito, 0<9<1


Distribución Binomial negativa (r,p)
Una generalización obvia de la distribución geométrica aparece si se supone que un experimento
se continúa hasta que un determinado suceso, de probabilidad p, ocurre por r-ésima vez. La
variable aleatoria que proporciona la probabilidad de que se produzcan k fracasos antes de
obtener el r-ésimo éxito sigue una distribución binomial negativa de parámetros r y p, BN(r,p). La
distribución geométrica corresponde al caso particular en que r=1. Un ejemplo es el número de
lanzamientos fallidos de un dado antes de obtener un 6 en tres ocasiones, que sigue una
BN(3,1/6).

En el caso de que los sucesos ocurran a intervalos regulares de tiempo, esta variable proporciona
el tiempo total para que ocurran r éxitos, por lo que también se denomina "distribución binomial
de tiempo de espera".

La distribución binomial negativa fue propuesta, originalmente, como una alternativa a la


distribución de Poisson para modelar el número de ocurrencias de un suceso cuando los datos
presentan lo que se conoce como variación extra-Poisson o sobre dispersión, En estas situaciones,
la varianza es mayor que la media, por lo que se incumple la propiedad que caracteriza a una
distribución de Poisson, según la cual la media es igual a la varianza. La primera aplicación en
bioestadística la realizó Student (William S. Gosset) a principios de siglo cuando propuso esta
distribución para modelar el número de glóbulos rojos en una gota de sangre. En este caso, la
variabilidad extra se debe al hecho de que esas células no están uniformemente distribuidas en la
gota, es decir, la tasa de intensidad no es homogénea.

Por ejemplo, la distribución binomial negativa es más adecuada que la de Poisson para modelar el
número de accidentes laborales ocurridos en un determinado lapso. La distribución de Poisson
asume que todos los individuos tienen la misma probabilidad de sufrir un accidente y que ésta
permanece constante durante el período de estudio; sin embargo, es más plausible la hipótesis de
que los individuos tienen probabilidades constantes en el tiempo, pero que varían de unos sujetos
a otros; esto es lo que se conoce en la literatura como la propensión a los accidentes ("accident
proneness")". Esta hipótesis se traduce en una distribución de Poisson mixta, o de efectos
aleatorios, en la que se supone que las probabilidades varían entre individuos de acuerdo a una
distribución gamma y esto resulta en una distribución binomial negativa para el número de
accidentes.

Valores:

X: 0, 1, 2, …

Parámetros:

P:probabilidad de éxito, 0<p<1

R:numero de éxitos, r >=0


Distribución Poisson (lambda)
La distribución de Poisson, que debe su nombre al matemático francés Simeón Denis Poisson
(1781-1840), ya había sido introducida en 1718 por Abraham De Moivre como una forma límite de
la distribución binomial que surge cuando se observa un evento raro después de un número
grande de repeticiones'. En general, la distribución de Poisson se puede utilizar como una
aproximación de la binomial, Bin(n, p), si el número de pruebas n es grande, pero la probabilidad
de éxito p es pequeña; una regla es que la aproximación Poisson-binomial es "buena" si n>=20 y
p<=0,05 y "muy buena" si n>=1100 y ps<=0,01.

La distribución de Poisson también surge cuando un evento o suceso "raro" ocurre aleatoriamente
en el espacio o el tiempo. La variable asociada es el número de ocurrencias del evento en un
intervalo o espacio continuo, por tanto, es una variable aleatoria discreta que toma valores
enteros de O en adelante (O, 1, 2, ...). Así, el número de pacientes que llegan a un consultorio en
un lapso dado, el número de llamadas que recibe un servicio de atención a urgencias durante 1
hora, el número de células anormales en una superficie histológica o el número de glóbulos
blancos en un milímetro cúbico de sangre son ejemplos de variables que siguen una distribución
de Poisson. En general, es una distribución muy utilizada en diversas áreas de la investigación
médica y, en particular, en epidemiología.

Ejemplo
Este tipo de distribución se observa en diferentes procesos, algunos ejemplos de esta pueden ser:

Cuando se desea estudiar la probabilidad o el número de veces que pueda darse una reacción
adversa a la aplicación de un fármaco.

Cuando se requiere conocer el número de defectos en un lote de tela. En este caso el intervalo
establecido sería una unidad de área.

Cuando se pretende conocer el número de bacterias por unidad de área en un cultivo.

Cuando se espera conocer la cantidad de llegadas de embarcaciones en un sitio en particular.

Distribuciones continuas
Una distribución continua describe las probabilidades de los posibles valores de una variable
aleatoria continua. Una variable aleatoria continua es una variable aleatoria con un conjunto de
valores posibles (conocido como el rango) que es infinito y no se puede contar.

Las probabilidades de las variables aleatorias continuas (X) se definen como el área por debajo de
la curva de su PDF. Por lo tanto, solo los rangos de valores pueden tener una probabilidad
diferente de cero. La probabilidad de que una variable aleatoria continua equivalga a algún valor
siempre es cero.

Ejemplo
La distribución normal continua puede describir la distribución del peso de hombres adultos. Por
ejemplo, usted puede calcular la probabilidad de que un hombre pese entre 160 y 170 libras.
El área sombreada debajo de la curva en este ejemplo
representa el rango de 160 a 170 libras. El área de este
rango es 0.136; por lo tanto, la probabilidad de que un
hombre seleccionado aleatoriamente pese entre 160 y
170 libras es de 13.6%. Toda el área por debajo de la
curva equivale a 1.0.

Distribución Uniforme (a,b)


La distribución uniforme es útil para describir una variable aleatoria con probabilidad constante
sobre el intervalo [a,b] en el que está definida. Esta distribución presenta una peculiaridad
importante: la probabilidad de un suceso dependerá exclusivamente de la amplitud del intervalo
considerado y no de su posición en el campo de variación de la variable.

Cualquiera sea la distribución F de cierta variable X, la variable transformada YF(X) sigue una
distribución uniforme en el intervalo [0,1]. Esta propiedad es fundamental por ser la base para la
generación de números aleatorios de cualquier distribución en las técnicas de simulación.

Campo de variación:

a<=x<=b

Parámetros:

a: mínimo del recorrido

b: máximo del recorrido

Distribución Normal (Mu, Sigma)


La distribución normal es, sin duda, la distribución de probabilidad más importante del Cálculo de
probabilidades y de la Estadística. Fue descubierta por De Moivre (1773), como aproximación de la
distribución binomial. De todas formas, la importancia de la distribución normal queda totalmente
consolidada por ser la distribución límite de numerosas variables aleatorias, discretas y continuas,
como se demuestra a través de los teoremas centrales del límite. Las consecuencias de estos
teoremas implican la casi universal presencia de la distribución normal en todos los campos de las
ciencias empíricas: bióloga, medicina, psicóloga, física, economía, etc. En particular, muchas
medidas de datos continuos en medicina y en bióloga (talla, presi6n arterial, etc.) se aproximan a
la distribuci6n normal.

La distribución normal queda totalmente definida mediante dos parámetros: la media (Mu) y la
desviación estándar (Sigma).

Campo de variación:

-∞<x<∞
Parámetros:

Mu: media de la distribución, -∞<Mu<∞

Sigma: desviación estándar de la distribución, sigma>0

se caracteriza por
1. Los valores de las mediciones tienden a agruparse alrededor de un punto central, la media

2. La representación de los datos es simétrica a ambos lados de la media

3. Las desviaciones estándares quedan situadas a igual distancia unas de otras

4. La proporción de mediciones situada entre la media y las desviaciones es una constante en


la que:

La media ± 1 * desviación estándar = cubre el 68,3% de los casos

La media ± 2 * desviación estándar = cubre el 95,5% de los casos

La media ± 3 * desviación estándar = cubre el 99,7% de los casos

Podemos analizar el comportamiento de los procesos gráficos y determinar su efectividad


tomando como base su grado de aproximación a la curva de distribución normal a partir de los
datos generados y la creación de histogramas que permitan la comparación con curva de
distribución normal.

Distribución Lognormal (Mu, Sigma)


La variable resultante al aplicar la funci6n exponencial a una variable que se distribuye normal con
media Mu y desviación estándar Sigma, sigue una distribución lognormal con parámetros Mu
(escala) y Sigma (forma). Dicho de otro modo, si una variable X se distribuye normalmente, la
variable lnX, sigue una distribución lognormal.

La distribución lognormal es útil para modelar datos de numerosos estudios médicos tales como el
periodo de incubación de una enfermedad, los títulos de anticuerpo a un virus, el tiempo de
supervivencia en pacientes con cáncer o SIDA, el tiempo hasta la seroconversión de VIH+, etc.
Campo de variación:

0<x<∞

Parámetros: Mu: parámetro de escala, -∞ < Mu < ∞

Sigma: parámetro de forma, Sigma > 0

Distribución Logística (a, b)


La distribución logística se utiliza en el estudio del crecimiento temporal de variables, en
particular, demográficas. En biología se ha aplicado, por ejemplo, para modelar el crecimiento de
células de levadura, y para representar curvas de dosis-respuesta en bioensayos.

La más conocida y generalizada aplicación de la distribución logística en Ciencias de la Salud se


fundamenta en la siguiente propiedad: si U es una variable uniformemente distribuida en U el
intervalo [0,1], entonces la variable X = ln(u/1-U) sigue una distribución logística. Esta
transformación, denominada logit, se utiliza para modelar datos de respuesta binaria,
especialmente en el contexto de la regresión logística.

Campo de variación: - ∞<x < ∞

Parámetros:

a: parámetro de posición, -∞ < a < ∞

b: parámetro de escala, b>0

Distribución Beta (p,47)


La distribución beta es posible para una variable aleatoria continua que toma valores en el
intervalo [0,1], lo que la hace muy apropiada para modelar proporciones. En la inferencia
bayesiana, por ejemplo, es muy utilizada como distribución a priori cuando las observaciones
tienen una distribución binomial.

Uno de los principales recursos de esta distribución es el ajuste a una gran variedad de
distribuciones empíricas, pues adopta formas muy diversas dependiendo de cuáles sean los
valores de los parámetros de forma p y q, mediante los que viene definida la distribución.

Un caso particular de la distribución beta es la distribución uniforme en [0,1), que se corresponde


con una beta de parámetros p=1 y q=1, denotada Beta(1,1).

Campo de variación:
0<=x<=1

Parámetros:

p: parámetro de forma, p > 0

q: parámetro de forma, q > 0

Distribución Gamma (a,p)


La distribución gamma se puede caracterizar del modo siguiente: si se está interesado en la
ocurrencia de un evento generado por un proceso de Poisson de media lambda, la variable que
mide el tiempo transcurrido hasta obtener n ocurrencias del evento sigue una distribución gamma
con parámetros nxlambda (escala) y p=n (forma). Se denota Gamma(a,p).

Por ejemplo, la distribución gamma aparece cuando se realiza el estudio de la duración de


elementos físicos (tiempo de vida).

Esta distribución presenta como propiedad interesante la "falta de memoria". Por esta razón, es
muy utilizada en las teorías de la fiabilidad, mantenimiento y fenómenos de espera (por ejemplo,
en una consulta médica "tiempo que transcurre hasta la llegada del segundo paciente").

Campo de variación:

O<x<∞

Parámetros:

a: parámetro de escala, a > O

p: parámetro de forma, p > O

Distribución Exponencial (lambda)


La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta
ley de distribución describe procesos en los que interesa saber el tiempo hasta que ocurre
determinado evento; en particular, se utiliza para modelar tiempos de supervivencia. Un ejemplo
es el tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que
sigue este evento se utiliza, por ejemplo, para la datación de fósiles o cualquier materia orgánica
mediante la técnica del carbono 14.

Una característica importante de esta distribución es la propiedad conocida como "falta de


memoria". Esto significa, por ejemplo, que la probabilidad de que un individuo de edad t sobreviva
x años más, hasta la edad x+t, es la misma que tiene un recién nacido de sobrevivir hasta la edad x.
Dicho de manera más general, el tiempo transcurrido desde cualquier instante dado to hasta que
ocurre el evento, no depende de lo que haya ocurrido antes del instante to.

La distribución exponencial se puede caracterizar como la distribución del tiempo entre sucesos
consecutivos generados por un proceso de Poisson; por ejemplo, el tiempo que transcurre entre
dos heridas graves sufridas por una persona. La media de la distribución de Poisson, lambda, que
representa la tasa de ocurrencia del evento por unidad de tiempo, es el parámetro de la
distribución exponencial, y su inversa es el valor medio de la distribución.

También se puede ver como un caso particular de la distribución gamma(a,p), con a=lambda y p=1

El uso de la distribución exponencial ha sido limitado en bioestadística, debido a la propiedad de


falta de memoria que la hace demasiado restrictiva para la mayoría de los problemas.

Campo de variación: O < x < ∞

Parámetros:

lambda: tasa, lambda > O

Distribución Ji-cuadrado (n)


Un caso especial, muy importante, de la distribución Gamma se obtiene cuando a=1/2 y pan/ 2. La
distribución resultante se conoce con el nombre de Ji-cuadrado con n grados de libertad. Es la
distribución que sigue la suma de los cuadrados de n variables independientes N(0,1).

La Ji-cuadrado es una distribución fundamental en inferencia estadística y en los tests estadísticos


de bondad de ajuste. Se emplea, entre muchas otras aplicaciones, para determinar los límites de
confianza de la varianza de una población normal, para contrastar la hipótesis de homogeneidad o
de independencia en una tabla de contingencia y para pruebas de bondad de ajuste.

La distribución Ji-cuadrado queda totalmente definida mediante sus grados de libertad n.

Campo de variación: o x < ∞

Parámetros:

n: grados de libertad, n>0

Distribución t de Student (n)


La distribución t de Student se construye como un cociente entre una normal y la raíz de una Ji-
cuadrado independientes. Esta distribución desempeña un papel importante en la inferencia
estadística asociada a la teoría de muestras pequeñas. Se usa habitualmente en el contraste de
hipótesis para la media de una población, o para comparar las medias de dos poblaciones, y viene
definida por sus grados de libertad n.

A medida que aumentan los grados de libertad, la distribución t de Student se aproxima a una
normal de media O y varianza 1 (normal estándar).

Campo de variación:

- ∞ <x < ∞

Parámetros:

n: grados de libertad, n>0


Distribución F de Snedecor (n,m)
Otra de las distribuciones importantes asociadas a la normal es la que se define como el cociente
de dos variables con distribución Ji-cuadrado divididas por sus respectivos grados de libertad, n y
m. En este caso la variable aleatoria sigue una distribución F de Snedecor de parámetros n y m.
Hay muchas aplicaciones de la F en estadística y, en particular, tiene un papel importante en las
técnicas del análisis de la varianza y del diseño de experimentos.

Campo de variación: O<= x < ∞

Parámetros:

n: grados de libertad del numerador, n>0

m: grados de libertad del denominador, m>0

Función de densidad
En la teoría de la probabilidad, la función de densidad de probabilidad, función de densidad, o,
simplemente, densidad de una variable aleatoria continua describe la probabilidad relativa según
la cual dicha variable aleatoria tomará determinado valor.

La probabilidad de que la variable aleatoria caiga en una región específica del espacio de
posibilidades estará dada por la integral de la densidad de esta variable entre uno y otro límite de
dicha región.

La función de densidad de probabilidad (FDP o PDF en inglés) es positiva a lo largo de todo su


dominio y su integral sobre todo el espacio es de valor unitario.

Una función de densidad de probabilidad caracteriza el comportamiento probable de una


población en tanto especifica la posibilidad relativa de que una variable aleatoria continua X tome
un valor cercano a x.

Una variable aleatoria X tiene densidad f, siendo f una función no-negativa integrable de Lebesgue,
si:

Por lo tanto, si F es la función de distribución acumulativa de X, entonces:

y (si f es continua en x)
Propiedades
De las propiedades de la función de densidad se siguen las siguientes propiedades de la fdp (a
veces visto como pdf del inglés):

 f(x)>=0 para toda x.


 El área total encerrada bajo la curva es igual a 1:

 La probabilidad de que X tome un valor en el intervalo [a,b] es el área bajo la curva de la


función de densidad en ese intervalo o lo que es lo mismo, la integral definida en dicho
intervalo. La gráfica f(x) se conoce a veces como curva de densidad.

Algunas FDP están declaradas en rangos de - ∞ a + ∞, como la de la distribución normal.

CASO DISCRETO
Sea X una variable aleatoria discreta asociada a un espacio probabilístico, se define la función de
distribución:

Ejemplo
Consideramos un experimento aleatorio de lanzar una moneda al aire tres veces y anotamos el
resultado. Se define la variable aleatoria X como número de caras aparecidas en los tres
lanzamientos.

(0 caras, 1/8); (1 cara, 3/8); (2 caras, 3/8); (3caras, 1/8), Calcula la probabilidad de obtener menos
dos caras?

Para resolver el problema lo que debemos de calcular es la probabilidad de que la variable


aleatoria tome valores inferiores a dos. Esto viene dado por la expresión

La función de distribución para una variable discreta siempre verifica las siguientes propiedades:
 F (-∞)=0; F(+∞)=1
 P [ ( a, b ) ] = F( b )-F(a)
 Es una función no decreciente:

Esperanza matemática
La esperanza matemática o valor esperado de una variable aleatoria discreta es la suma del
producto de la probabilidad de cada suceso por el valor de dicho suceso.

Los nombre de esperanza matemática y valor esperado tienen su origen en los juegos de azar y
hacen referencia a la ganancia promedio esperada por un jugador cuando hace un gran número de
apuestas.

Si la esperanza matemática es cero, E(x) = 0, el juego es equitativo, es decir, no existe ventaja ni


para el jugador ni para la banca.

Utilidad
La esperanza matemática se utiliza en todas aquellas disciplinas en las que la presencia de sucesos
probabilísticos es inherente a las mismas. Disciplinas tales como la estadística teórica, la física
cuántica, la econometría, la biología o los mercados financieros. Una gran cantidad de procesos y
sucesos que ocurren en el mundo son inexactos. Un ejemplo claro y fácil de entender es el de la
bolsa de valores.

En la bolsa de valores, todo se calcula en base a valores esperados ¿Por qué valores esperados?
Porque es lo que esperamos que suceda, pero no podemos confirmarlo. Todo se basa en
probabilidades, no en certezas. Si el valor esperado o esperanza matemática de la rentabilidad de
un activo es de un 10% anual, querrá decir que, según la información que tenemos del pasado, lo
más probable es que la rentabilidad vuelva a ser de un 10%. Si solo tenemos en cuenta, claro está,
la esperanza matemática como método para tomar nuestras decisiones de inversión.

Ejemplo
Si una persona compra una papeleta en una rifa, en la que puede ganar de 5.000 € ó un segundo
premio de 2000 € con probabilidades de: 0.001 y 0.003. ¿Cuál sería el precio justo a pagar por la
papeleta?

E(x) = 5000 · 0.001 + 2000 · 0.003 = 11 €

Un jugador lanza dos monedas. Gana 1 ó 2 € si aparecen una o dos caras. Por otra parte, pierde 5 €
si no aparece cara. Determinar la esperanza matemática del juego y si éste es favorable.

E = {(c,c);(c,x);(x,c);(x,x)}
p(+1) = 2/4
p(+2) = 1/4
p(−5) = 1/4
E(x)= 1 · 2/4 + 2 · 1/4 - 5 · 1/4 = −1/4. Es desfavorable

CASO CONTINUO:
Sea X una variable aleatoria continua con función de densidad f(x), se define la función de
distribución, F(x), como:

La función de distribución para una variable continua siempre verifica las siguientes propiedades:

 F(x)dx>=0;

 d

 F(x)=F(x) la función de densidad es la derivada de la función de distribución

Ejemplo
Sea X una variable aleatoria cuya función de densidad viene dada por f (X), calcula su función de
distribución:

Calculamos la función de distribución, obteniendo

por tanto, la función de distribución será:


Curvas de probabilidad/ curva normal
Una curva es aquello que se aparta de forma
continua de la dirección recta, aunque sin crear
ángulos. También se llama curva a la línea empleada
para representar, de forma gráfica, la magnitud de
un fenómeno de acuerdo a los valores de una de sus
variables. Normal, por su parte, es lo que resulta
natural o que funciona como norma.

Estas ideas pueden ayudarnos a entender qué es una curva normal, aunque el concepto tiene un
uso específico en el terreno de la estadística. Se llama curva normal a la distribución gaussiana: la
distribución de probabilidad de una variable continua que suele resultar próxima a un fenómeno
real.

La utilización de un modelo normal permite asumir que las observaciones derivan de la sumatoria
de causas independientes. La curva normal, en este marco, sirve para modelar fenómenos sociales
y naturales de forma aproximada a la realidad.

La representación gráfica de la curva normal se conoce como campana de Gauss. Esta línea de
forma acampanada resulta simétrica respecto a un cierto parámetro: hay una zona media cóncava,
que tiene en el centro el valor medio de la función, y dos extremos convexos que tienden a
acercarse al eje X. La distribución gaussiana, por lo tanto, muestra los valores más frecuentes en el
centro de la campana, quedando los menos frecuentes en los extremos.

Varianza
La varianza de las variables aleatorias, por lo tanto, consiste en una medida vinculada a su
dispersión. Se trata de la esperanza del cuadrado de la desviación de esa variable considerada
frente su media y se mide en una unidad diferente. Por ejemplo: en los casos en que la variable
mide una distancia en kilómetros, su varianza se expresa en kilómetros al cuadrado.

Cabe destacar que las medidas de dispersión (también identificadas con el nombre de medidas de
variabilidad) se encargan de expresar la variabilidad de una distribución por medio de un número,
en los casos en que las diferentes puntuaciones de la variable están muy alejadas de la media. A
mayor valor de la medida de dispersión, mayor variabilidad. En cambio, a menor valor, más
homogeneidad.

Lo que hace la varianza es establecer la variabilidad de la variable aleatoria. Es importante tener


en cuenta que, en ciertos casos, es preferible emplear otras medidas de dispersión ante las
características de las distribuciones.

Se denomina varianza muestral cuando se calcula la varianza de una comunidad, grupo o


población en base a una muestra. La covarianza, por otra parte, es la medida de dispersión
conjunta de un par de variables.
Los expertos hablan de análisis de la varianza para nombrar a la colección de modelos estadísticos
y sus procedimientos asociados en la cual la varianza aparece particionada en distintos
componentes.

Ejemplo
Para calcular la varianza, primero se debe calcular la media o el promedio de los datos usados. Por
otro lado, si se tiene la desviación estándar, simplemente se eleva al cuadrado ese resultado y así
se obtiene la varianza.

A continuación, se muestra un ejemplo para entender cómo se calcula la varianza y cuál podría ser
su interpretación.

Supongamos que se tienen los ingresos anuales de cinco empresas distintas, pertenecientes a un
mismo empresario, los cuales son:

Empresa A: 2.500 $

Empresa B: 1.800 $

Empresa C: 2.300 $

Empresa D: 3.000 $

Empresa E: 2.700 $

Entonces calculamos la media de los ingresos, simplemente sumando cada cifra y dividiéndolo
entre el número total de empresas, lo cual da como resultado: 2.460$.

Ahora simplemente terminamos de calcular la varianza con la formula ya expuesta, lo cual da


como resultado una varianza de 162.400 $2.

Al sacar la raíz cuadrada a este resultado obtenemos la desviación estándar, siendo ésta 403 $ de
diferencia entre los ingresos de las cinco empresas.

Conclusión
La media de una distribución de probabilidad es el valor esperado de su variable aleatoria.

El valor esperado de una variable aleatoria discreta puede considerarse como su promedio pesado
sobre todos los resultados posibles, siendo los pesos la probabilidad asociada con cada uno de los
resultados.
Todos los procedimientos paramétricos tienen tres características distintivas: Los procedimientos
de prueba paramétricos pueden definirse como aquellos 1)que requieren que el nivel de medición
obtenido con los datos recolectados esté en forma de una escala de intervalo o de una escala de
cociente; 2)implican la prueba de hipótesis de valores de parámetros especificados 3) y por último
requieren un conjunto limitante de suposiciones.

La competencia estadística proporciona recursos para analizar datos críticamente y para formarse
una opinión fundamentada acerca de las decisiones que toman las administraciones, las empresas
y otros colectivos, así como acerca de la marcha general de la sociedad. Además, la probabilidad y
la estadística contribuyen a aportar una imagen mucho más equilibrada de la ciencia que
tradicionalmente ha presentado ante el alumno un carácter marcadamente determinista en el que
todo es explicable en términos de causas y efectos.

También podría gustarte