Está en la página 1de 53

1

Instituto Tecnológico Superior de Valladolid

TEMA 2: VARIABLES ALEATORIAS Y


DISTRIBUCIÓN
INVESTIGACIÓN

2do semestre grupo B

Asignatura: Probabilidad y Estadística


2

INDICE

PORTADA

INTRODUCCION

2.1 Variable aleatoria y funciones de densidad de probabilidad y de distribución

acumulativa

2.2 Valor esperado y momentos

2.3 Distribuciones discretas

2.3.1 Bernoulli

2.3.2 Binomial

2.3.3 Poisson

2.3.4 Geométrica

2.4 Distribuciones continuas

2.4.1 Uniforme

2.4.2 Exponencial

2.4.3 Normal y normal estándar

2.4.4 Aproximaciones con la normal

CONCLUSION

BIBLIOGRAFIA
3

INTRODUCCIÓN

La probabilidad y la estadística son importantes en cada momento que tomamos

decisiones usamos sus conceptos y técnicas, son un fundamento muy importante

para las matemáticas y de otras disciplinas y el doble de importante en nuestras vidas

puesto que el azar y los fenómenos aleatorios impregna nuestra vida y nuestro

entorno. En este investigación realizada por los alumnos de ingeniería civil de

segundo semestre, tienen como objetivo dar a conocer temas relacionados con la

materia de probabilidad y estadística que son aplicadas y relacionados con la vida,

dando como un énfasis y profundidad de dichos temas que serán prestados a

continuación Impartidas por la docente, Lucila Guadalupe Aguilar Rivero, los temas

son de suma importancia para cualquier estudiante que tenga esa noción de saber

un poco más y no quedarse con la duda, contiene definición y ejemplos aparte te

ayudara en futuro , si en algún momento les llegará a servir este documento que fue

realizado de manera ordena y precisa no sé arrepentirán de hablarlo leído, ya que la

probabilidad siempre será importante y nos dejara nuevos conocimientos.


4

2.1 Variable aleatoria y funciones de densidad de probabilidad y de distribución

acumulativa

¿Qué es una variable?

Una variable, también conocida como variable matemática, es un símbolo que se usa para

proponer fórmulas, algoritmos o ecuaciones. Este tipo de variable puede tomar distintos valores,

dependiendo de otras variables, así como de una serie de parámetros y ciertas constantes.

¿Qué es una variable aleatoria?

Una variable aleatoria es un tipo de variable, utilizada principalmente en estadística, cuyos

posibles valores dependen del resultado de cierto fenómeno aleatorio. Ya que una variable

aleatoria puede tener distintos valores, normalmente se etiqueta con una letra (por ejemplo:

variable “X”). Cada variable posee una función de probabilidad específica de distribución. Esto

quiere decir una variable matemática que representa las probabilidades de que ocurran todos los

resultados posibles.

En pocas palabras, una variable aleatoria es un número que representa un resultado de una

circunstancia o un experimento aleatorio.

Ejemplo de variable aleatoria

Ejemplo: un volado

Tenemos una moneda cuyas caras son un águila y un sol.

Vamos a hacer un experimento aleatorio que consiste en lanzar dos de estas monedas y

colocamos los resultados de la siguiente forma:


5

águila-águila

sol-águila

águila-sol

sol-sol

Definimos nuestra variable aleatoria X.

X: número de soles

águila-águila → 0

sol-águila → 1

águila-sol → 1

sol-sol → 2

Recuerda que la variable aleatoria siempre va con letras mayúsculas (en este caso X), mientras

que los valores de su rango siempre van con letras minúsculas (en este caso x1 , x2 , x3)

águila-águila → 0 = x1

sol-águila → 1 = x2

águila-sol → 1 = x2

sol-sol → 2 = x3

Tipos de variables aleatorias


6

1. Variables aleatorias discretas

Una variable aleatoria discreta, es una variable (aleatoria) cuyos valores toman solamente un

número finito de valores.

Tomemos el ejemplo más conocido de una variable aleatoria discreta: un dado. Cuando lanzas un

dado, es un evento totalmente aleatorio. Pero a la vez, el dado solamente puede tener un número

finito de resultados {1, 2, 3, 4, 5, y 6}.

Cada valor resultante de una variable aleatoria discreta contiene una cierta probabilidad. En el

ejemplo del dado, cada probabilidad de resultado es ⅙, ya que los valores resultantes son de

probabilidades iguales.

Ejemplo de variable aleatoria discreta

Por ejemplo, si salimos a la calle y seleccionamos a 10 personas al azar para un examen sorpresa

de inglés, podemos definir la variable aleatoria X:

X: número de personas que aprobaron el examen

Los valores que asume X van del 0 al 10 {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10} y su rango se expresa de

la siguiente manera:

RX = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10}

La variable aleatoria X asume un número contable de valores, por lo tanto, es una variable

aleatoria discreta.

2. Variables aleatorias continuas


7

A diferencia de las variables aleatorias discretas, las variables aleatorias continuas pueden tomar

un número infinito de posibles valores.

Un ejemplo de una variable aleatoria continua es el retorno sobre las acciones. Estos retornos

pueden tener un valor de una posibilidad infinita de valores (en este caso son porcentajes). Otro

ejemplo de una variable aleatoria continua es el peso o altura de los alumnos de un salón. Unos

pueden medir 1.75m, otros 1.845m, otro pesar 72.1kg, otros 68.91, y así sucesivamente.

Ejemplo de variable aleatoria continua

Por ejemplo, digamos que vamos a una granja de peces para estudiar sus características,

podemos definir la variable aleatoria X:

X: peso de un pez en la granja (en kilogramos).

Un pez puede pesar 3.42kg, otro puede pesar 8.91kg y si tomamos más ejemplares, podemos

tener más y más valores, y nunca terminaríamos. Pero en esta ocasión, conocemos el peso del

pez más pequeño y el más grande.

Supongamos que va desde 3 kg a 100 kg.

X = peso de un pez en la granja (kg)

Rx = 3 < X < 100

De esta forma, tenemos un número incontable de valores para el rango de esta variable. El rango

de esta variable aleatoria continua puede ser cualquier valor dentro del intervalo que va desde 3

kg hasta 100 kg. Por ello, es una variable aleatoria continua.


8

-Funciones de densidad de probabilidad

La función de densidad, también llamada función de densidad de probabilidad es

una función matemática que describe la probabilidad de que una variable aleatoria

continua tome un determinado valor.

Es decir, la función de densidad asociada a una variable define matemáticamente

las probabilidades de que la variable tome cualquier valor.

Por ejemplo, imaginemos que la probabilidad de que una persona adulta mida más

de 1,80 m en una población es del 35%, entonces la función de densidad indicará

un 35% de probabilidades al hacer el cálculo de dicha probabilidad.

En ocasiones, la función de densidad de probabilidad se abrevia mediante las siglas

FDP.

Calcular una probabilidad con la función de densidad

Para hallar la probabilidad de que una variable continua tome un valor dentro de un

intervalo se debe calcular la integral de la función de densidad asociada a dicha

variable entre los límites del intervalo.

Donde f(x) es la función de densidad de la variable aleatoria continua.


9

O, dicho de otro modo, la probabilidad de que la variable tome un valor dentro de

un intervalo es equivalente al área debajo de la función de densidad en ese

intervalo.

Ten en cuenta que el cálculo de la probabilidad solo se puede hacer de esta manera

si la variable estadística sigue una distribución continua, tales como la distribución

normal, la distribución exponencial, la distribución de Poisson, etc.

Propiedades de la función de densidad

La función de densidad cumple con las siguientes propiedades:

• El valor de la función de densidad es nulo o positivo para cualquier valor de

x.

• Además, el valor máximo de la función de densidad es igual a 1.

• De hecho, el área total bajo la gráfica de la función de densidad siempre es

equivalente 1 independientemente de la variable, ya que corresponde al conjunto

de todas las probabilidades.


10

• Tal y como se ha explicado en el apartado anterior, la probabilidad de que

una variable continua tome un valor dentro de un intervalo se calcula con la

integral de la función de densidad en ese intervalo.

-Distribución acumulativa

La función de distribución acumulativa especifica la probabilidad de que una

variable aleatoria sea menor o igual a un valor dado. La función de distribución

acumulativa de la variable aleatoria X es la función F(x) = P(X ≤ x).

• Los valores de F(x) se encuentran siempre en este intervalo: 0 ≤ F(x) ≤ 1.

• F(x) no es una función decreciente.

Además, para la función de distribución acumulativa de la variable aleatoria

discreta, se cumple que:

Una moneda tiene en sus caras, un gato y un perro. Encontrar la función de

distribución acumulativa del número de perros obtenidos al lanzar 2 monedas y

graficar la función.
11

Arrancamos definiendo la variable aleatoria discreta con la que vamos a trabajar:

• X = número de perros obtenidos al lanzar 2 monedas.

Si lanzamos dos monedas, podemos obtener los siguientes resultados: gato con

gato, gato con perro, perro con gato o por último, perro con perro.

A continuación, colocamos en una tablita vertical, los valores de la variable

aleatoria X (número de perros obtenidos al lanzar 2 monedas):


12

A cada valor de la variable aleatoria, le asignamos una probabilidad:

Y completamos la tablita que venimos construyendo, agregando la columna de la

función de probabilidad:

Ahora sí, vamos con la función de distribución acumulativa, recordando su

fórmula:

i) Calculamos los valores de F(x), empezando con F(0).


13

La probabilidad de obtener 0 perros o menos al lanzar 2 monedas, es 0,25.

ii) Continuamos con F(1):

La probabilidad de obtener 1 perro o menos al lanzar 2 monedas, es 0,75.

iii) Seguimos con F(2):

La probabilidad de obtener 2 perros o menos al lanzar 2 monedas, es 1.

Completamos nuestra tablita

Puedes ver en la tabla como los valores de f(x) se van acumulando para obtener los

valores de F(x).
14

Agradecemos a f(x) por su participación, pero ya no la necesitamos. Nos quedamos

con x y F(x):

Y empezamos nuestra gráfica de F(x), marcando los puntos de la tabla:

En la gráfica, colocamos líneas continuas entre los valores, partiendo desde el lado

izquierdo:
15

2.2 Valor esperado y momentos

-Valor esperado

¿Qué es la esperanza matemática (o valor esperado)?

En estadística, la esperanza matemática, también llamada valor esperado, es un

número que representa el valor medio de una variable aleatoria. La esperanza

matemática es igual al sumatorio de todos los productos formados por los valores

de los sucesos aleatorios y sus respectivas probabilidades de suceder.

El símbolo de la esperanza matemática es la E mayúscula, por ejemplo, la

esperanza matemática de la variable estadística X se representa como E(X).

Asimismo, el valor de la esperanza matemática de un conjunto de datos coincide

con su media (media poblacional).

Cómo calcular la esperanza matemática

Para calcular la esperanza matemática de una variable discreta se deben hacer los

siguientes pasos:
16

• Multiplicar cada posible suceso por su probabilidad de ocurrencia.

• Sumar todos los resultados obtenidos en el paso anterior.

• El valor obtenido es la esperanza matemática (o valor esperado) de la

variable.

De modo que la fórmula para calcular la esperanza matemática (o valor esperado)

de una variable discreta es la siguiente:

Ejemplo de la esperanza matemática

Vista la definición de la esperanza matemática (o valor esperado), a continuación,

tienes un ejemplo resuelto para que veas cómo se hace el cálculo.

Una persona participa en un juego en el que puede ganar o perder dinero según el

número que salga al lanzar un dado. Si sale un 1 gana $800, si sale un 2 o un 3

pierde $500, y si sale un 4, un 5 o un 6, gana $100. El precio por participar es de

$50. ¿Recomendarías la participación en este juego de probabilidades?


17

Lo primero que debemos hacer es determinar la probabilidad de cada suceso.

Como un dado tiene seis caras, la probabilidad de obtener cualquier número es:

Por lo tanto, la probabilidad de ocurrencia de cada suceso es:

Ahora que ya sabemos la probabilidad de que ocurra cada evento, aplicamos la

fórmula de la esperanza matemática:

Y hacemos el cálculo de la esperanza matemática (o valor esperado):


18

El valor de la esperanza matemática es menor que el precio por participar en este

juego, por lo tanto, sería mejor no jugar ya que a la larga se acabará perdiendo

dinero. Puede ser que si solo participas una vez toque un 1 y entonces saques un

gran beneficio, pero la probabilidad de obtener pérdidas a largo plazo es alta.

Cabe destacar que el resultado de la esperanza matemática a veces es un valor

imposible, por ejemplo, en este caso no se puede obtener $16,67.

-Momentos

Son formulaciones matemáticas, que se definen como parámetros estadísticos,

algunos de ellos cuales tienen amplia connotación dentro del estudio de curvas de

distribución de frecuencias y más específicamente respecto del sesgo y de la

curtosis.

Los momentos son una forma de generalizar toda la teoría relativa a los parámetros

estadísticos y guardan relación con una buena parte de ellos.

Dada una distribución de datos estadísticos x1, x2, ..., xn, se define el momento

central o momento centrado de orden k como


19

Para variables continuas la definición cambia sumas discretas por integrales (suma

continua), aunque la definición es, esencialmente, la misma.

De esta definición y las propiedades de los parámetros implicados que se han visto

más arriba, se deduce inmediatamente que:

y que

Se llama momento no centrado de orden k a la siguiente expresión:

De la definición se deduce que:

Usando el binomio de Newton, puede obtenerse la siguiente relación entre los

momentos centrados y no centrados:


20

2.3 Distribuciones discretas

Las distribuciones de probabilidad discretas permiten establecer toda la gama

posible de valores de un suceso cuando este se describe con una variable aleatoria

discreta. Se muestran ejemplos de uso de las distribuciones de Bernoulli, binomial,

geométrica e hipergeométrica.

2.3.1 Bernoulli

Vamos a partir de un ensayo de Bernoulli, es decir, de un experimento que tiene

solo 2 resultados posibles, a uno de ellos lo llamaremos éxito y al otro fracaso.

Por ejemplo, voy a realizar un experimento bien facilito que consiste en preguntar

a un suscriptor de este canal seleccionado al azar si le gusta la pizza. Si me dice

que si, lo considero un éxito, si me que no, lo considero u n fracaso. Otro ensayo

de Bernoulli sería lanzar mi moneda que de un lado tiene gato y del otro lado tiene

perro. Si defino perro como éxito, obtener un gato será un fracaso.


21

Se denomina ensayo de Bernoulli a todo experimento aleatorio que tiene solo dos

resultados posibles mutuamente excluyentes, generalmente llamados éxito y

fracaso.

En un ensayo de Bernoulli vamos a definir la variable aleatoria X de la siguiente

manera:

• si obtenemos un éxito, la variable aleatoria X vale 1.

• caso contrario, si el ensayo termina en fracaso, la variable aleatoria X vale 0.

De manera sencilla podemos decir que X cuenta el número de éxitos. Si sale

fracaso, el número de éxitos sería 0, no hay ningún éxito. Si el experimento

termina en éxito, hay 1 éxito.

A continuación, vamos a elaborar una tabla muy sencilla con los valores de X en

un ensayo de Bernoulli:

La probabilidad de éxito se denota por p, por ello, la probabilidad de fracaso será

1-p. Agregamos esta información a la tabla:


22

Y listo, ya tenemos la distribución de probabilidad de Bernoulli representada

mediante una tabla. Si queremos la función de probabilidad (una fórmula), sería la

siguiente:

Una variable aleatoria discreta X tiene una distribución de Bernoulli si su función

de probabilidad está dada por:

De forma resumida, se puede colocar de la siguiente manera:

Para indicar que la variable aleatoria X sigue una distribución de Bernoulli de

parámetro p usamos la siguiente notación:


23

Un juego consiste en lanzar un dado una sola vez, si se obtiene un 3 se gana el

juego, si se obtiene otro valor, se pierde. Sea X = el número de veces que sale un 3.

Determinar la distribución de probabilidad de X.

Solución:

Vamos a considerar un éxito si se obtiene un 3, con cualquier otro resultado,

consideraremos un fracaso. Como X cuenta el número de veces que sale un 3,

puede tomar dos valores:

• X = 0, cuando no se obtenga 3.

• X = 1, cuando se obtenga un 3.

Armamos nuestra tabla:

Ahora asignamos probabilidades, calculamos primero la probabilidad de éxito p, es

decir, la probabilidad de obtener un 3 al lanzar un dado:

Ahora asignamos probabilidades, calculamos primero la probabilidad de éxito p, es

decir, la probabilidad de obtener un 3 al lanzar un dado:


24

Recuerda que la probabilidad de fracaso será 1 – p. Completamos la tabla

asignando probabilidades f(x).

Ya tenemos la distribución de probabilidad expresada con una tabla.

Vamos en búsqueda de la función de probabilidad, sabemos de la tabla que:

También le podemos dar la siguiente forma compacta equivalente:

Como vemos, la función de probabilidad de X tiene la forma de una función de

probabilidad de Bernoulli con probabilidad de éxito p de 1/6. Por lo tanto:


25

Esa sería la respuesta, la variable aleatoria X sigue una distribución de Bernoulli

con una probabilidad de éxito de 1/6.

El problema no lo pide, pero, así como hemos representado la función de

probabilidad de X mediante una tabla y mediante una fórmula, también lo podemos

hacer mediante un diagrama de barras. Colocamos un eje horizontal para los

valores de X y otro vertical para las probabilidades f(x).

2.3.2 Binomial

Una función de densidad de probabilidad más valiosa con muchas aplicaciones es

la distribución binomial. Esta distribución calculará las probabilidades de cualquier

proceso binomial. Un proceso binomial, a menudo llamado proceso de Bernoulli

en honor a la primera persona que desarrolló plenamente sus propiedades, es

cualquier caso en el que solo hay dos resultados posibles en cualquier ensayo,

llamados éxitos y fracasos. Recibe su nombre del sistema numérico binario, en el

que todos los números se reducen a 1 o 0, que es la base de la tecnología

informática y de las grabaciones musicales en CD.

Fórmula binomial b(x)=(nx)px qn–x


26

donde b(x) es la probabilidad de X aciertos en n ensayos cuando la probabilidad de

un éxito en CUALQUIER ENSAYO es p. Y, por supuesto, q=(1-p) y es la

probabilidad de un fracaso en cualquier ensayo.

Ahora podemos ver por qué la fórmula combinatoria se llama también coeficiente

binomial, ya que vuelve a aparecer aquí en la función de probabilidad binomial.

Para que la fórmula binomial funcione, la probabilidad de éxito en cualquier

ensayo debe ser la misma de un ensayo a otro, o en otras palabras, los resultados de

cada ensayo deben ser independientes. Lanzar una moneda es un proceso binomial

porque la probabilidad de obtener una cara en un lanzamiento no depende de lo

que haya ocurrido en los lanzamientos anteriores. (En este momento hay que

señalar que utilizar p para el parámetro de la distribución binomial es una violación

de la regla de que los parámetros de la población se designan con letras griegas. En

muchos libros de texto se utiliza θ (pronunciado theta) en lugar de p y así es como

debe ser.

Al igual que un conjunto de datos, una función de densidad de probabilidad tiene

una media y una desviación típica que describe el conjunto de datos. Para la

distribución binomial vienen dadas por las fórmulas:

μ=npμ=np

σ = √npq.
27

Observe que p es el único parámetro en estas ecuaciones. La distribución binomial

se considera, pues, de la familia de las distribuciones de probabilidad de un

parámetro. En resumen, sabemos todo lo que hay que saber sobre la binomial una

vez que conocemos p, la probabilidad de éxito en cualquier ensayo.

En la teoría de la probabilidad, en determinadas circunstancias, una distribución de

probabilidad puede utilizarse para aproximar otra. Decimos que una es la

distribución límite de la otra. Si hay que extraer un número pequeño de una

población grande, aunque no haya reemplazo, podemos utilizar la binomial,

aunque no sea un proceso binomial. Si no hay reemplazo se viola la regla de

independencia del binomio. Sin embargo, podemos utilizar la binomial para

aproximar una probabilidad que es realmente una distribución hipergeométrica si

extraemos menos del 10 por ciento de la población, es decir, n es menos del 10 por

ciento de N en la fórmula de la función hipergeométrica. El fundamento de este

argumento es que al extraer un pequeño porcentaje de la población no alteramos la

probabilidad de éxito de un sorteo a otro de forma significativa. Imagine que saca

una carta no de una baraja de 52 cartas, sino de 6 barajas de cartas. La probabilidad

de sacar un as, por ejemplo, no cambia la probabilidad condicional de lo que

ocurre en una segunda extracción de la misma manera que lo haría si solo hubiera

4 ases en lugar de los 24 que hay ahora para sacar. Esta capacidad de utilizar una
28

distribución de probabilidad para estimar otras será muy valiosa para nosotros más

adelante.

Hay tres características de un experimento binomial

1. Hay un número fijo de ensayos. Piense en los ensayos como repeticiones de

un experimento. La letra n indica el número de ensayos.

2. La variable aleatoria, x, número de aciertos, es discreta.

3. Solo hay dos resultados posibles, llamados “acierto” y “fallo” para cada

ensayo. La letra p indica la probabilidad de éxito en un ensayo cualquiera, y q la

probabilidad de fracaso en un ensayo cualquiera. p + q = 1.

4. Los n ensayos son independientes y se repiten utilizando condiciones

idénticas. Piense en esto como una extracción CON reemplazo. Como los n

ensayos son independientes, el resultado de un ensayo no ayuda a predecir el

resultado de otro. Otra forma de decir esto es que para cada ensayo individual la

probabilidad, p, de un acierto y la probabilidad, q, de un fallo siguen siendo las

mismas. Por ejemplo, estimar al azar una pregunta de estadística de verdadero-

falso solo tiene dos resultados. Si un acierto es estimar correctamente, un fallo es

estimar incorrectamente. Supongamos que Joe siempre acierta en cualquier

pregunta de estadística de verdadero-falso con una probabilidad p = 0,6. Entonces,

q = 0,4. Esto significa que para cada pregunta de estadística de verdadero-falso que
29

responda Joe su probabilidad de acierto (p = 0,6) y su probabilidad de fallo (q =

0,4) siguen siendo las mismas.

Los resultados de un experimento binomial se ajustan a una distribución de

probabilidad binomial. La variable aleatoria X = el número de aciertos obtenidos

en los n ensayos independientes.

La media, μ, y la varianza, σ2, de la distribución de probabilidad binomial son μ =

np y σ2 = npq. La desviación típica, σ, es entonces σ =√npq.

Cualquier experimento que tenga las características tres y cuatro y en el que n = 1

se llama Ensayo de Bernoulli (llamado así por Jacob Bernoulli que los estudió

ampliamente a finales de 1600. ). Un experimento binomial se produce cuando se

cuenta el número de aciertos en uno o más ensayos de Bernoulli.

A Rafael, el investigador de la Estación Biológica de Doñana se le plantea el

siguiente problema, de los diez huevos que han tenido Daisy y Donald este año,

¿cuántos polluelos saldrán adelante? ¿qué probabilidad hay de que, como ocurrió

el año pasado, al menos ocho eclosionen?

Recuerda, los estudios de Rafael han llegado a la conclusión de que la probabilidad

de que un huevo eclosione es de 0.66.

Vamos a ayudar a Rafael.


30

En primer lugar vamos a estudiar cuál es la probabilidad de que de los 10 huevos,

solo eclosionen 8. Empezaremos numerando los huevos del 1 al 10, y viendo de

cuántas maneras puede ocurrir lo anterior. La siguiente escena nos puede ayudar.

Puedes ver que las diferentes formas en que puedes eclosionar 8 de los 10 huevos

anteriores no son más que las combinaciones de 10 elementos tomados de 8 en 8.

Es decir:

Es decir, 45 formas diferentes de que eclosionen 8 y 2 no.

La probabilidad de cada una de esas formas diferentes es igual a , ya que el que

cada huevo eclosione o no, es independiente de que lo hagan los demás.

Por tanto, la probabilidad de que 8 de los 10 huevos eclosionen será igual a:


31

De la misma manera podemos ir calculando la probabilidad de que eclosionen 0, 1,

2,..., 7 huevos. Y así sabremos cuál es la probabilidad de que al menos 8 lo hagan.

A una distribución con características similares a las situaciones que hemos

planteado con la eclosión de los huevos, el lanzamiento de las monedas o la

máquina de Galton se la denomina Binomial.

Diremos que una distribución es binomial, si cumple las siguientes características.

1. Es un experimento aleatorio que se repite n veces de modo independiente.

2. Cada vez que se realiza el experimento solo pueden darse dos sucesos al

estilo de la Bernouilli, éxito o fracaso.

3. La suma de las probabilidades del éxito y fracaso debe ser 1. Normalmente p

es la probabilidad del suceso éxito, y q=1–p la del suceso fracaso.

La distribución la denotaremos por es B(n,p).

Su función de probabilidad es:

Donde k es el número de éxitos de los queremos conocer la probabilidad. Por tanto

puede tomar los valores 0, 1, 2,..., n.


32

2.3.3 Poisson.

Otra distribución de probabilidad útil es la distribución de Poisson o distribución

del tiempo de espera. Esta distribución se utiliza para determinar cuántos

empleados de caja son necesarios para mantener el tiempo de espera en la fila a

niveles especificados, cuántas líneas telefónicas son necesarias para evitar que el

sistema se sobrecargue, y muchas otras aplicaciones prácticas. Una modificación

de la distribución de Poisson, la Pascal, inventada hace casi cuatro siglos, es

utilizada hoy en día por las compañías de telecomunicaciones de todo el mundo

para los factores de carga, los niveles de conexión de los satélites y los problemas

de capacidad de internet. La distribución recibe su nombre de Simeón Poisson, que

la presentó en 1837 como una extensión de la distribución binomial, que veremos

que se puede estimar con la Poisson.

Hay dos características principales de un experimento de Poisson.

1. La distribución de probabilidad de Poisson da la probabilidad de que se

produzca un número de eventos en un intervalo fijo de tiempo o espacio si estos

eventos se producen con una tasa promedio conocida.


33

2. Los eventos son independientes del tiempo transcurrido desde el último

evento. Por ejemplo, un editor de libros podría estar interesado en el número de

palabras escritas incorrectamente en un libro en particular. Puede ser que, en

promedio, haya cinco palabras mal escritas en 100 páginas. El intervalo son las 100

páginas y se supone que no hay relación entre el momento en que se producen los

errores ortográficos.

3. La variable aleatoria X = el número de ocurrencias en el intervalo de interés.


34

2.3.4. Geométrica

Supóngase que se efectúa repetidamente un experimento o prueba, que las

repeticiones son independientes y que se está interesado en la ocurrencia o no de

un suceso al que se refiere como “éxito”, siendo la probabilidad de este suceso p.

La distribución geométrica permite calcular la probabilidad de que tenga que

realizarse un número k de repeticiones antes de obtener un éxito por primera vez;

esta probabilidad decrece a medida que aumenta k con lo que la función de masa

de probabilidad es siempre decreciente. Así pues, se diferencia de la distribución

binomial en que el número de repeticiones no está predeterminado, sino que es la

variable aleatoria que se mide y, por otra parte, el conjunto de valores posibles de

la variable es ilimitado.

Para ilustrar el empleo de esta distribución, se supone que cierto medicamento

opera exitosamente ante la enfermedad para la cual fue concebido en el 80% de los

casos a los que se aplica; la variable aleatoria “intentos fallidos en la aplicación del

medicamento antes del primer éxito” sigue una distribución geométrica de

parámetro p = 0,8. Otro ejemplo de variable geométrica es el número de hijos hasta

el nacimiento de la primera niña.


35

La distribución geométrica se utiliza en la distribución de tiempos de espera, de

manera que si los ensayos se realizan a intervalos regulares de tiempo, esta

variable aleatoria proporciona el tiempo transcurrido hasta el primer éxito.

Esta distribución presenta la propiedad denominada “falta de memoria”, que

implica que la probabilidad de tener que esperar un tiempo t no depende del tiempo

que ya haya transcurrido.

Valores:

k: 0, 1, 2, ...

Parámetros:

p: probabilidad de éxito, 0 < p < 1

Ejemplo

La probabilidad de que cierto examen médico dé lugar a una reacción “positiva” es

igual a 0,8, ¿cuál es la probabilidad de que ocurran menos de 5 reacciones

“negativas” antes de la primera positiva?

La variable aleatoria “número de reacciones negativas antes de la primera positiva”

sigue una distribución geométrica con parámetro p = 0,8.

Resultados con Epidat 4:


36

La probabilidad de que ocurran menos de 5 reacciones “negativas” antes de la

primera positiva es casi 1 (0,9997).

2.4 Distribuciones continuas.

Para calcular las probabilidades cuando tenemos una variable aleatoria continua,

utilizamos lo que se llama la función de densidad. Para que una función f(x) sea

una función de densidad de una variable aleatoria continua sobre la recta real, debe

cumplir:

•F(x) ≥ 0 para todo x en un rango [a,b].

• El área bajo la curva y por encima del eje de abscisas es igual a 1

•El rango [a,b] delimita los valores que la variable puede tomar.

Debido a esto, la probabilidad de que el valor de una variable continua aleatoria X

esté dentro de un intervalo [a,b] es el área bajo la curva dentro de este intervalo:
37

Esto implica que la probabilidad de que una variable aleatoria tome un valor

concreto es nulo, puesto que, por definición:

Ahora, si queremos calcular la probabilidad acumulada hasta el valor X=x,

utilizamos la función de distribución de la variable X:

Por tanto, se verifica que la función de densidad sea la derivada de la función de

distribución:
38

Calcula la función de distribución de la siguiente función de densidad:

Solución:

Para calcular la función de distribución, debes integrar la función de densidad, tal

como se mencionó anteriormente. Como nuestra función de densidad empieza a

tomar valores a partir del 0, este será el límite inferior de nuestro intervalo de

integración (entre -∞ y 0 la función es nula):

Para calcular la función de distribución, debes integrar la función de densidad, tal

como se mencionó anteriormente. Como nuestra función de densidad empieza a

tomar valores a partir del 0, este será el límite inferior de nuestro intervalo de

integración (entre -∞ y 0 la función es nula):


39

Por tanto, la función de distribución será:

En general, la distribución normal es la distribución continua más usada; Sin

embargo, hay otras distribuciones continuas como:

Distribución Beta

Distribución Gamma

Distribución de Pareto.

2.4.1 UNIFORME

La distribución uniforme es aquella que puede tomar cualquier valor dentro de un

intervalo, todos ellos con la misma probabilidad. Es una distribución continua

porque puede tomar cualquier valor y no únicamente un número determinado

(como ocurre en las distribuciones discretas).

Ejemplo:

El precio medio del litro de gasolina durante el próximo año se estima que puede

oscilar entre 140 y 160 ptas. Podría ser, por tanto, de 143 ptas., o de 143,4 ptas., o
40

de 143,45 ptas., o de 143,455 ptas, etc. Hay infinitas posibilidades, todas ellas con

la misma probabilidad.

Su función de densidad, aquella que nos permite conocer la probabilidad que tiene

cada punto del intervalo, viene definida por:

Donde:

b: es el extremo superior (en el ejemplo, 160 ptas.)

a: es el extremo inferior (en el ejemplo, 140 ptas.)

Por lo tanto, la función de distribución del ejemplo sería:

probabilidad, que esté entre 141 y 142, otro 5%, etc.

El valor medio de esta distribución se calcula:


41

En el ejemplo:

Por lo tanto, el precio medio esperado de la gasolina para el próximo año es de 150

ptas.

2.4.2 EXPONENCIAL

La distribución exponencial suele referirse a la cantidad de tiempo que transcurre

hasta que se produce algún evento específico. Por ejemplo, la cantidad de tiempo

(que comienza ahora) hasta que se produzca un terremoto tiene una distribución

exponencial. Otros ejemplos son la duración, en minutos, de las llamadas

telefónicas de larga distancia comerciales y la cantidad de tiempo, en meses, que

dura la batería de un automóvil. También se puede demostrar que el valor del

cambio que se tiene en el bolsillo o en el monedero sigue una distribución

exponencial aproximadamente.

Los valores de una variable aleatoria exponencial se producen de la siguiente

manera. Hay menos valores grandes y más valores pequeños. Por ejemplo, los
42

estudios de marketing han demostrado que la cantidad de dinero que los clientes

gastan en una visita al supermercado sigue una distribución exponencial. Hay más

gente que gasta pequeñas cantidades de dinero y menos gente que gasta grandes

cantidades de dinero.

Las distribuciones exponenciales se utilizan habitualmente en cálculos de

fiabilidad de productos, es decir, el tiempo que dura un producto.

La variable aleatoria de la distribución exponencial es continua y suele medir el

paso del tiempo, aunque puede utilizarse en otras aplicaciones. Las preguntas

típicas pueden ser: "¿cuál es la probabilidad de que algún evento ocurra en los

próximos x horas o días, o cuál es la probabilidad de que algún evento ocurra

entre x1 horas y x2 horas, o cuál es la probabilidad de que el evento dure más de

x1 horas para llevarse a cabo" En resumen, la variable aleatoria X es iguala (a) el

tiempo entre eventos o(b) el paso del tiempo para completar una acción, por

ejemplo, esperar a un cliente. La función de densidad de probabilidad viene dada

por:

e(x)=1μe–1μx

donde μ es el tiempo promedio de espera histórico.

y tiene una media y una desviación típica de 1/μ.


43

Una forma alternativa de la fórmula de la distribución exponencial reconoce lo que

suele llamarse el factor de decaimiento. El factor de decaimiento simplemente

mide la rapidez con la que la probabilidad de un evento disminuye a medida que la

variable aleatoria X aumenta. Cuando se utiliza la notación con el parámetro de

decaimiento m, la función de densidad de probabilidad se presenta como

e(x) = me–mx

donde m=1μ

Para calcular las probabilidades de determinadas funciones de densidad de

probabilidad, se utiliza la función de densidad acumulada. La función de densidad

acumulativa (cdf) es simplemente la integral de la pdf y es:

F(x)=∫∞0[1μe–xμ]=1–e–xμ

Supongamos que X = la cantidad de tiempo (en minutos) que un empleado de

correos pasa con un cliente. A partir de los datos históricos, se sabe que el tiempo

promedio es de cuatro minutos.

Dado que μ = 4 minutos, es decir, el tiempo promedio que el dependiente pasa con

un cliente es de 4 minutos. Recuerde que seguimos calculando probabilidad y por

tanto nos tienen que decir los parámetros poblacionales como la media. Para hacer
44

cualquier cálculo, necesitamos conocer la media de la distribución: el tiempo

histórico de prestación de un servicio, por ejemplo. Conocer la media histórica

permite calcular el parámetro de decaimiento, m.

m=1μ

. Por lo tanto, m=14=0,25

Cuando la notación utiliza el parámetro de decaimiento, m, la función de densidad

de probabilidad se presenta como e(x) = me–mx, que es simplemente la fórmula

original con m sustituido por 1μ, o e(x)=1μe–1μx

Para calcular las probabilidades de una función de densidad de probabilidad

exponencial, tenemos que utilizar la función de densidad acumulada. Como se

muestra a continuación, la curva de la función de densidad acumulada es:

f(x) = 0,25e–0,25x donde x es al menos cero y m = 0,25.

Por ejemplo, f(5) = 0,25e(–0,25)(5) = 0,072. Es decir, la función tiene un valor de

0,072 cuando x = 5.
45

El gráfico es el siguiente:

Observe que el gráfico es una curva descendente. Cuando x = 0,

f(x) = 0,25e(−0,25)(0) = (0,25)(1) = 0,25 = m. El valor máximo en el eje y es

siempre m, uno dividido entre la media.

2.4.3 Normal y normal estándar.

Una variable aleatoria continua, X, sigue una distribución normal de media μ y

desviación típica σ, y se designa por N(μ, σ), si se cumplen las siguientes

condiciones:

1.La variable puede tomar cualquier valor: (-∞, +∞)

2.La función de densidad, es la expresión en términos de ecuación matemática de

la curva de Gauss:
46

Curva de la distribución normal

El campo de existencia es cualquier valor real, es decir, (-∞, +∞).

Es simétrica respecto a la media µ.

Tiene un máximo en la media µ.

Crece hasta la media µ y decrece a partir de ella.

En los puntos µ − σ y µ + σ presenta puntos de inflexión.

El eje de abscisas es una asíntota de la curva.

El área del recinto determinado por la función y el eje de abscisas es igual a la

unidad.

Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la

izquierda y otra igual a 0.5 a la derecha.

La probabilidad equivale al área encerrada bajo la curva.

p(μ - σ < X ≤ μ + σ) = 0.6826 = 68.26 %


47

p(μ - 2σ < X ≤ μ + 2σ) = 0.954 = 95.4 %

p(μ - 3σ < X ≤ μ + 3σ) = 0.997 = 99.7 %

Recordando la definición de distribución normal

Se dice que una variable aleatoria tiene una distribución normal con media

y desviación estándar , si tiene una

distribución continúa cuya de densidad de probabilidad (f.d.p) es la siguiente:

La distribución normal con media \mu = 0 y desviación típica \sigma = 1 se llama

distribución normal estándar, o tipificada, o reducida. La función de densidad de

probabilidad (f.d.p) de la distribución normal tipificada usualmente se denota por

el símbolo {\bf\phi} y la función de distribución (f.d) se denota por el símbolo

{\bf\Phi}. Entonces:

Su función de densidad de probabilidad es:


48

Y su función de distribución es:

donde el símbolo u se utiliza en la ecuación anterior como variable muda de

integración.

Además, la gráfica de la f.d.p es:

La probabilidad de la variable X dependerá del área del recinto sombreado en la

figura. Y para calcularla utilizaremos una tabla.

2.4.4 Aproximaciones con la normal

En probabilidad y estadística se le llama Distribución normal a una de las

distribuciones de probabilidad de variable continua. Fue desarrollada por Abraham

De Moivre como una aproximación a la distribución binomial.

PRINCIPALES CARACTERISTICAS
49

1. La distribución tiene 2 parámetros: media ( ) y desviación estándar ( ) y queda

perfectamente determinada por ellos. Debido a esto es que la notación abreviada

que se usa para representar la distribución es N ( )

2. La moda (el valor más frecuente), la mediana (el valor central) y la media tienen

el mismo valor.

3. El área total bajo la curva y el eje de las "x" es la unidad.

4. La distribución es simétrica respecto a la media, es decir, el 50% del área está a

la izquierda de la media y el otro 50% a la derecha.

Teorema de Moivre

La distribución binomial se puede aproximar mediante una distribución

normal , de manera que se aproxima a

Ejemplo:

En una ciudad una de cada tres familias posee teléfono. Si se eligen al azar 90

familias, calcular la probabilidad de que entre ellas haya por lo menos 30 que

tengan teléfono.

El total de familias se representa por


50

La probabilidad de que una familia posea teléfono es

La probabilidad de que una familia no posea teléfono es

Verificamos que se cumplan las condiciones del Teorema de Moivre

Tenemos del Teorema de Moivre que

La probabilidad de que por lo menos 30 familias tengan teléfono es


51

CONCLUSION

En teoría, la estadística es el conjunto de diversos métodos matemáticos que tienen como

objetivo obtener, presentar y analizar datos (ya sean números o cualidades). Para dar una

retroalimentación al tema principal podemos decir que la distribución de probabilidad, describe

el comportamiento de fenómenos estadísticos, es decir, es un listado de las probabilidades de

todos los resultados posibles que podrían presentarse si se efectúa un experimento. En la

distribución discreta, las variables asumen un número limitado de valores, por ejemplo el número

de años de estudio y en la distribución continua, las variables en estudio pueden asumir cualquier

valor dentro de determinados límites. Como conclusión este trabajo evidencia todos y cada uno

de los subtemas del tema 2 “Variables aleatorias y distribuciones” dentro del plan semestral de la

ingeniería civil; lo aquí presentado permitió desarrollar el sentido de localización de los temas,

por lo que el conocer la teoría nos ayuda a enfocar soluciones y conocer la realidad nos ayuda a

contextualizar y a diferenciar soluciones.


52

REFERENCIAS BIBLIOGRÁFICAS

J. (2022, July 14). Función de distribución acumulativa de una variable

aleatoria binomial | Matemóvil. MateMovil. https://matemovil.com/funcion-

de-distribucion-acumulativa-de-una-variable-aleatoria-

°Estadística, P. Y. (2022, January 31). ▷ Esperanza matemática (o valor

esperado). Probabilidad Y Estadística.

https://www.probabilidadyestadistica.net/esperanza-matematica-o-valor-

esperado/

° Distribución binomial - Introducción a la estadística empresarial |

OpenStax. (s. f.). https://openstax.org/books/introducci%C3%B3n-

estad%C3%ADstica-empresarial/pages/4-2-distribucion-binomial

°Distribución de Poisson. (2020, 16 agosto). GeoGebra.

https://www.geogebra.org/m/fvd8fpz8

°Rodó, P. (2021, 12 enero). Distribución de Bernoulli. Economipedia.

https://economipedia.com/definiciones/distribucion-de-bernoulli.html

°Probabilidad Y Estadística.

https://www.probabilidadyestadistica.net/esperanza-matematica-o-valor-
53

esperado/Fernández-Abascal H, Guijarro MM, Rojo JL, Sanz JA. Cálculo de

probabilidades y estadística. Barcelona: Editorial Ariel; 1994

°Distribuciones continuas de probabilidad. (s. f.). StudySmarter ES.

https://www.studysmarter.es/resumenes/matematicas/estadistica-y-

probabilidad/distribuciones-continuas-probabilidad/

°distribución normal. (s. f.). Diccionario de Matemáticas | Superprof.

https://www.superprof.es/diccionario/matematicas/probabilidades/distribuci

on-normal.html

°5.3 La distribución exponencial - Introducción a la estadística empresarial |

OpenStax. (s. f.). https://openstax.org/books/introducci%C3%B3n-

estad%C3%ADstica-empresarial/pages/5-3-la-distribucion-exponencial

También podría gustarte