Está en la página 1de 46

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA


UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA
FUERZA ARMADA NACIONAL
UNEFA

TRABAJO DE INVESTIGACION DE LAS UNIDADES 3, 4 Y 5


PROBABILIDAD Y ESTADISTICAS

Prof: Alays Díaz

Integrantes:
Mota, Adrian C.I. 27.225.919
Yarves, José C.I. 26.440.202

Catia La Mar, abril de 2019

i
INDICE

Contenido
INTRODUCCIÓN ........................................................................................................ 1

UNIDAD 3. VARIABLES ALEATORIAS BIDIMENSIONALES ............................ 3

3.1 Función de densidad conjunta. ............................................................................ 3

3.1.1 Caso continuo ............................................................................................... 3

3.1.2 Caso discreto ................................................................................................. 4

3.2 Función de densidad marginal. ............................................................................ 4

3.2.1 Características ............................................................................................... 5

3.2.2 Usos .............................................................................................................. 5

3.2.3 Ventajas ........................................................................................................ 5

3.2.4 Desventajas ................................................................................................... 5

3.3 Función de densidad condicional, valor esperado condicional. .......................... 5

3.4 Variables aleatorias independientes. .............................................................. 6

3.5 Esperanza matemática de funciones de varias variables aleatorias. ............... 7

3.6 Extensión al caso n-dimensional. ................................................................... 8

UNIDAD 4. DISTRIBUCCIONES DE PROBABILIDAD ......................................... 8

4.1 Distribuciones de variables aleatorias discretas. ................................................. 8

4.2 Distribución Binominal. ...................................................................................... 9

4.2.1 Experimento binomial................................................................................... 9

4.3 Esperanza matemática y varianza de la distribución Binominal. ...................... 10

4.4 Distribución de Poisson. .................................................................................... 11

4.4.1 Propiedades ................................................................................................. 11

ii
4.4.2 Relaciones con otras distribuciones. ........................................................... 12

4.4.3 Aplicaciones................................................................................................ 13

4.4.4 Características de los procesos que producen una distribución de la


probabilidad de Poisson. ...................................................................................... 13

4.4.5 Procesos de Poisson .................................................................................... 14

4.4.6 Cálculo de probabilidades mediante la distribución de Poisson. ................ 15

4.5 Esperanza matemática y varianza de la distribución de Poisson. ...................... 16

4.6 Distribución geométrica. ................................................................................... 16

4.6.1 Características ............................................................................................. 17

4.6.2 Propiedades ................................................................................................. 17

4.6.3 Distribuciones relacionadas ........................................................................ 18

4.7 Esperanza matemática y varianza de la distribución geométrica. ................... 18

4.7.1 Esperanza matemática................................................................................ 18

4.7.2 Varianza de la distribución geométrica ..................................................... 19

4.8 Distribución hipergeometrica. ........................................................................... 21

4.9 Esperanza matemática y varianza de la distribución hipergeometrica. ............ 22

4.10 Distribuciones de variables aleatorias continuas. ............................................ 23

4.11 Distribución Uniforme. ................................................................................... 24

4.12 Esperanza matemática y varianza de la distribución exponencial................... 25

4.15 Distribución Gamma. ..................................................................................... 26

4.16 Esperanza matemática y varianza de la distribución Gamma. ........................ 27

4.17 Distribución normal. ........................................................................................ 28

4.18 Esperanza matemática y varianza de la distribución normal........................... 29

4.19 Distribución x de Pearson. ............................................................................... 30

iii
4.20 Esperanza. ........................................................................................................ 33

UNIDAD 5. LEY DE LOS GRANDES NUMEROS. TEOREMAS DEL LÍMITE


CENTRAL .................................................................................................................. 33

5.1 Desigualdad de Chebyshev................................................................................ 33

5.2 Ley de los grandes números .............................................................................. 35

5.3 Teorema del límite central ................................................................................. 37

5.3.1 Propiedades del teorema del límite central ................................................ 37

Ejemplo del teorema central de límite ................................................................. 38

CONCLUSIÓN ........................................................................................................... 40

CONSULTAS BIBLIOGRÁFICAS ........................................................................... 41

iv
INTRODUCCIÓN

La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat


y Blaise Pascal tratan de resolver algunos problemas relacionados con los juegos de
azar. Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya)
escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fue publicado hasta
más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a
elaborarse una teoría aceptable sobre los juegos.
Por otro lado, es difícil conocer los orígenes de la Estadística. Desde los
comienzos de la civilización han existido formas sencillas de estadística, pues ya se
utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de
madera y paredes de cuevas para contar el número de personas, animales o ciertas
cosas. Su origen empieza posiblemente en la isla de Cerdeña, donde existen
monumentos prehistóricos pertenecientes a los Nuragas, las primeros habitantes de la
isla; estos monumentos constan de bloques de basalto superpuestos sin mortero y en
cuyas paredes de encontraban grabados toscos signos que han sido interpretados con
mucha verosimilidad como muescas que servían para llevar la cuenta del ganado y la
caza.
En este mismo orden de ideas podemos decir que La Estadística se ocupa de
los métodos y procedimientos para recoger, clasificar, resumir, hallar regularidades y
analizar los datos (Estadística Descriptiva), siempre y cuando la variabilidad e
incertidumbre sea una causa intrínseca de los mismos; así como de realizar
inferencias a partir de ellos, con la finalidad de ayudar a la toma de decisiones y en su
caso formular predicciones (Estadística Inferencial) y la probabilidad comprende lo
que en ocasiones la intuición nos indica de manera errónea. Esta propone modelos
para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y
estudia sus consecuencias lógicas.

1
En la siguiente investigación estaremos realizando un paseo por las diferentes
vertientes de ambas ciencias, esperando ser lo suficientemente amplios para su
comprensión.

2
UNIDAD 3. VARIABLES ALEATORIAS BIDIMENSIONALES

3.1 Función de densidad conjunta.


El estudio de variables aleatorias y su distribución de probabilidad, en lo
aprendido anteriormente ha estado restringido a espacios muéstrales
unidimensionales en los que registramos los resultados asumidos por una sola
variable en un experimento. Sin embargo habrá situaciones en las que convenga
registrar resultados simultáneos de diferentes variables aleatorias. Se dice que dos
variables aleatorias X e Y tienen una distribución continua conjunta si existe una
función NO negativa f definida sobre todo el plano x,y tal que para cualquier
subconjunto A del plano

3.1.1 Caso continuo


Es aquella cuyo dominio de definición (campo de variación) es un intervalo
(compacto) de la recta real, una unión de varios intervalos, o la totalidad de la recta
real. (Por lo tanto los valores definidos de la variable aleatoria son un conjunto
infinito no numerable). El algebra de sucesos del que surge debe contener un número
infinito no numerable de sucesos, cada uno de ellos se corresponderá con algunos de
los (infinitos) intervalos incluidos en el campo de definición.
En el caso continuo no podremos hacer corresponder a los valores (puntuales) con
sucesos de algebra de sucesos, la correspondencia se establecerá entre sucesos del
algebra e intervalos pertenecientes al campo de variación de la variable, sino solo
intervalos.
Ejemplo:
 Ante el experimento: contemplar los coches que pasen por un tramo de
carretera se aleatoria de forma que la variable aleatoria de X = tiempo que hay
que esperar hasta que pase un coche X= [0, µ [, es decir X=R+

3
3.1.2 Caso discreto
Una variable aleatoria es discreta cuando su campo de variación (dominio de
definición) está constituido por un conjunto finito o infinito numerables de valores
posible. Cada suceso de W se corresponde con un valor.
Si la variable aleatoria es discreta, cada valor de los pertenecientes al campo de
variación se corresponderá con un sucesos del algebra de sucesos. (Los que permitirá
después asignar probabilidades a cada valor).
Una variable aleatoria discreta es el modelo teórico de una variable estadística
discreta (con valores sin agrupar). Es aquella función de distribución es escalonada.
Ejemplo:
 Ante el experimento: lanzar un dado diez veces se aleatoriza de forma que la
variable aleatoria X= n° de ases que se obtengan: X= {0,1,2,3,4,5,6,7,8,9,10}
(v.a discreta de orden finito).
 Ante el experimento: contemplar los coches que pasen por un tramo de
carretera se aleatoriza de forma que la variable aleatoria X= n° de coches que
pasen: X= {0, 1, 2, 3,…} (X = N) (v. a. discreta de orden infinito).

3.2 Función de densidad marginal.


La distribución marginal proporciona la probabilidad de un subconjunto de
valores del conjunto sin necesidad de conocer los valores de las otras variables. Esto
contrasta con la distribución condicional, que proporciona probabilidades
contingentes sobre el valor conocido de otras variables.
El término variable marginal se usa para referirse a una variable del
subconjunto, retenidos y cuyos valores pueden ser conocidos. La distribución de las
variables marginales, se obtiene marginalizando sobre la distribucion de variables
descartadas y las variables descartadas y las variables descartadas se llaman a veces
variables marginalizadas.
Las funciones de densidad de probabilidad marginal de X y Y, denotadas por
X (X) y Y (Y), respectivamente, están dada por:
X (X) = f(x,y) dy para -“<x<”

4
Y (Y) = f(x,y) dx para -“<x<”

3.2.1 Características
La distribución marginal de X es simplemente la función de probabilidad de x,
pero la palabra marginal sirve para distinguirla de la distribución conjunta de X e Y.
Una distribución marginal nos da la idea de la forma como depende una probabilidad
con respecto a una sola variable.

3.2.2 Usos
Es usada para hallar las diferentes distribuciones de probabilidad estadísticas
de las variables individuales, con esta función podemos asignar diferentes valores a
las variables conjuntas sin tener que relacionarlas, por ello se amplía las
probabilidades de cada una de las variables.

3.2.3 Ventajas
 La distribución marginal de dos variables aleatorias se pueden obtener a partir
de su distribución conjunta.
 Para una variable aleatoria se puede especificar probabilidades para dicha
variable sin tener en cuenta los valores de cuales quiera otras variables
aleatorias.

3.2.4 Desventajas
 No es posible reconstruir la distribución conjunta de dos variables aleatorias a
partir de sus distribuciones marginales sin información adicional.
 La f.d.p marginal representada en grafica no proporcionan información
acercar de la relación entre las variables aleatorias conjuntas.

3.3 Función de densidad condicional, valor esperado condicional.


La probabilidad condicional de un evento dado otro evento es entonces un
concepto que nos permite interaccionar con la realidad del fenómeno azaroso al

5
incorporar información adicional del mismo y actualizar el cálculo de probabilidades.
Otro de los conceptos clave en el lenguaje moderno de la teoría de la probabilidad es
el de variable aleatoria. Una variable aleatoria es simplemente una función X: Ω → R
tal que para cualquier intervalo abierto (a, b) de R, la imagen inversa X−1(a, b) es un
elemento de la σ-´algebra A, dominio de definición de la medida de probabilidad P.
La medida de probabilidad P se traslada entonces a los intervalos abiertos de R
mediante la siguiente regla. La probabilidad asignada al intervalo (a, b) es
simplemente el número P (X−1(a, b)). Ahora, dada una variable aleatoria X, uno
puede calcular ciertos números asociados a X. Estos números son los llamados
momentos que se denotan y calculan como sigue. Para cada número natural n.

3.4 Variables aleatorias independientes.


De manera intuitiva podemos decir que dos variables aleatorias son
independientes si los valores que toma una de ellas no afectan a los de la otra ni a sus
probabilidades.
En muchas ocasiones la independencia será evidente a partir del experimento,
por ejemplo, es independiente el resultado del lanzamiento de un dado y el de una
moneda, por tanto las variables Puntuación obtenida con el dado y Número de caras
obtenidas al lanzar la moneda una vez serán variables independientes.
X = puntuación del dado
Y = variable indicadora de puntuación par
En otras ocasiones tenemos una dependencia clara, por ejemplo, al lanzar un dado
consideremos las variables.
Es evidente que existe una clara dependencia, si sabemos qué Y = 1, la
variable X sólo puede tomar los valores 2, 4 o 6; si sabemos que X = 3, entonces, Y =
0 forzosamente.
Algunas veces podemos suponer la existencia de una cierta relación entre
variables, aunque sea en forma algo abstracta y sin concretar. Por ejemplo si
realizamos unas mediciones sobre unos individuos, las variables altura en cm y peso

6
en Kg probablemente estarán relacionadas, los valores de una influirán en los valores
de la otra. Intentar determinar la naturaleza exacta.
De la relación entre ambas es lo que en estadística conocemos como un
problema de regresión.
Si queremos una definición algo más formal, basta con que recordemos que
dos sucesos son independientes si la probabilidad de la intersección es igual al
producto de probabilidades, aplicando esta definición a sucesos del
tipo X ≤ a tenemos la definición siguiente:
Diremos que dos variables aleatorias X e Y son independientes si y sólo si
P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P (Y ≤ b) = FX(a) · FY (b)
A la función F(x, y) = P(X ≤ a ∩ Y ≤ b) se la conoce como la función de
distribución conjunta de X e Y.
Como consecuencia inmediata de la independencia de X e Y, se cumple lo
siguiente: P(a < X ≤ c ∩ b < Y ≤ d) = P(a < X ≤ c) · P (b < Y ≤ d)

3.5 Esperanza matemática de funciones de varias variables aleatorias.


La esperanza matemática de una variable aleatoria es una característica
numérica que proporciona una idea de la localización de la variable aleatoria sobre la
recta real. Decimos que es un parámetro de centralización o de localización.
Su interpretación intuitiva o significado se corresponde con el valor medio
teórico de los posibles valores que pueda tomar la variable aleatoria, o también con el
centro de gravedad de los valores de las variables supuesto que cada valor tuviera una
masa proporcional a la función de densidad en ellos. La definición matemática de la
esperanza en el caso de las variables aleatorias discretas se corresponde directamente
con las interpretaciones proporcionadas en el párrafo anterior. Efectivamente,
supuesta una variable aleatoria discreta X con recorrido {X1, X2,…X3,…} y con
función de densidad f(x), se define la esperanza matemática de X como el valor.

7
Donde el sumatorio se efectúa para todo valor que pertenece al recorrido de X.
En caso de que el recorrido sea infinito la esperanza existe si la serie resultante es
absolutamente convergente, condición que no siempre se cumple. La definición se
corresponde con un promedio ponderado según su probabilidad de los valores del
recorrido y, por tanto, se corresponde con la idea de un valor medio teórico.

3.6 Extensión al caso n-dimensional.


Sea un experimento aleatorio cuyo resultado sea una n – pla numérica (x1;
x2;...; xn). A este experimento se le pueden asignar n variables aleatorias X1; X2;...;
Xn que en una realización del experimento asumirán respectivamente los valores x1;
x2;...; xn de la n – pla resultante del mismo. Se dirá que estas n variables aleatorias
X1; X2;...; Xn son simultáneas, y a la n – pla de variables aleatorias (X1; X2;...; Xn)
se la llamará variable aleatoria n – dimensional. Si en la realización de un
experimento resulta que las variables X1 ; X2 ; ... ; Xn asumen respectivamente los
valores x1 ; x2 ; ... ; xn se dirá que la variable aleatoria n – dimensional (X1 ; X2 ; ... ;
Xn) asume el valor (x1 ; x2 ; ... ; xn)

UNIDAD 4. DISTRIBUCCIONES DE PROBABILIDAD

4.1 Distribuciones de variables aleatorias discretas.


Una distribución discreta describe la probabilidad de ocurrencia de cada valor
de una variable aleatoria discreta. Una variable aleatoria discreta es una variable que
tiene valores contables, tales como una lista de enteros no negativos. Con una
distribución de probabilidad discreta, cada valor posible de la variable aleatoria
discreta puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una
distribución de probabilidad discreta suele representarse en forma tabular.
Ejemplo: Con una distribución discreta a diferencia de una distribución continua,
usted puede calcular la probabilidad de que X sea exactamente igual a algún valor,
puede utilizar la distribución discreta de Poisson para describir el número de quejas

8
de clientes en un día. Supongamos que el número promedio de quejas por día es 10 y
usted desea saber la probabilidad de recibir 5, 10, y 15 quejas de clientes en un día.
X P (X = x)
5 0.037833
10 0.12511
15 .034718

4.2 Distribución Binominal.


Una distribución binominal es una distribución discreta que modela el número
de eventos en un número de ensayos fijos. Cada ensayo tiene dos resultados posibles,
y eventos es el resultado de interés en un ensayo.
Utilice la distribución binominal para describir un proceso donde los
resultados se pueden etiquetar como un evento o un no evento y cuando esté
interesado en la ocurrencia de un evento y no en su magnitud. Por ejemplo, un
elemento pasa o no pasa una inspección o un partido político gana o pierde. La
distribución binominal se usa frecuentemente en control de calidad, sondeos de
opinión pública, investigaciones médicas y seguros.

4.2.1 Experimento binomial


Existen muchas situaciones en las que se presenta una experiencia binomial.
Cada uno de los experimentos es independientes de los restantes (la probabilidad del
resultado de un experimento no depende del resultado del resto). El resultado de cada
experimento ha de admitir solo dos categorías (a las que se denomina éxito y fracaso).
El valor de ambas posibilidades ha de ser constante en todos los experimentos, y se
denotan como p y q respectivamente, o p y 1-p de forma alternativa.
Se designa por X a la variable que mide el número de éxitos que se han
producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la
variable X sigue una distribución de probabilidad binomial, y se denota B(x, y).

9
Ejemplo: Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos
conocer la probabilidad de que el numero 3 salga 20 veces. En este caso tenemos una
X~ (51, 1/6) y la probabilidad seria P(X=20).
Se utiliza la distribución binomial para calcular la probabilidad de que 3 o más
elementos defectuosos se encuentren en una muestra de 25 elementos si la
probabilidad de un elemento defectuoso en cada ensayo es 0,02. El número de
elementos defectuosos (X) sigue una distribución binomial con n= 25 y p= 0,02.
El número de eventos (X) en n ensayos sigue una distribución binomial si se
cumple las condiciones:
El número de ensayos es fijo.
Cada ensayo es independiente de otros ensayos.
Cada ensayo tiene 1 de 2 resultados: evento o no evento.
La probabilidad de un evento es igual para cada ensayo.

Una de las propiedades de la distribución binomial es que cuando n es grande,


la distribución binomial puede ser aproximada razonablemente por la distribución
normal. Por ejemplo, para la siguiente distribución binomial, n = 100 y p =0,5.

4.3 Esperanza matemática y varianza de la distribución Binominal.


Consideramos la variable aleatoria de X que sigue una binomial B(n, p).
Recordamos que la variable aleatoria X expresa el número de éxitos que se obtienen
al realizar “n” pruebas o ensayos independientes de Bernouilli con probabilidad “p”
de éxito “(1-p)” de fracaso. Esta variable puede interpretarse perfectamente como
suma de “n” variable de Bernouilli, una por cada uno de los ensayos realizados. En
consecuencia, para deducir la esperanza matemática y la varianza de la binomial B(n,
p) podemos calcular la esperanza matemática y varianza variable correspondiente a
un ensayo y después aplicar las propiedades generales de dichos parámetros con
respecto a la suma de variables independientes.

10
4.4 Distribución de Poisson.
La distribución de Poisson se emplea para describir varios procesos, entre
otros la distribución de las llamadas telefónicas que llegan a un computador, la
demanda (necesidades) de servicios en una institución asistencial por partes de los
pacientes, los arribos de los camiones y automóviles a la caseta de cobro y el número
de accidentes en un cruce. Los ejemplos citados tiene un elemento en común, puede
ser discreto por una variable aleatoria discreta que asume valores enteros (0, 1, 2,
3, 4, 5 y así sucesivamente).
La distribución de Poisson se llama así en honor a Simeón Dennis Poisson
(1781-1840), francés que desarrollo esta distribución basándose en estudios
efectuados en la última parte de su vida.
El número de enfermos que llegan a un consultorio en cierto intervalo de
tiempo será de 0, 1, 2,3, 4, 5 o algún otro numero entero. De manera análoga, si se
cuenta el número de automóviles que llegan a una caseta de cobro durante un periodo
de 10 minutos, el número será entero.

4.4.1 Propiedades
El campo de variación de la variable, al tratarse de un modelo discreto, es el
conjunto de los números naturales, incluido también el cero.
Sea x el número de veces que se repite el evento estudiado, y λ un número
positivo que nos indica el número de veces que se repite dicho evento durante un
intervalo de tiempo o espacio dado; donde λ será nuestro parámetro. Entonces, la
función de probabilidad de la distribución de Poisson es:
El valor de la media o esperanza y el de la varianza coinciden y son iguales al
parámetro λ: E[x]=Var[x]= λ.

La función de distribución es:

11
La función generatriz es

La representación en función del parámetro es:

La distribución de Poisson cumple la propiedad reproductiva, es decir,


podemos sumar dos distribuciones de Poisson de parámetro λ1 y λ2 respectivamente,
de tal forma que obtenemos una distribución de Poisson cuyo parámetro será igual a
la suma de los anteriores: λ1+ λ2.

4.4.2 Relaciones con otras distribuciones.


Parte de la importancia de esta distribución se debe a la relación existente con
otras distribuciones. Podemos vincularla con las siguientes:
 Distribución binomial: Diremos que una distribución binomial de parámetros
n y p, se aproxima a una distribución de Poisson de parámetro λ =np, cuando
se cumpla que n>30, p< 0,1 y np<10.
 Distribución normal: Por el Teorema Central del Límite, tenemos que una
distribución de Poisson de parámetro λ, tiende a una distribución normal
donde la media es λ, y la varianza es λ.

12
 Distribución exponencial: Cuando el número de eventos de un fenómeno
estudiado sigue una distribución de Poisson, entonces los tiempos discurridos
entre dos eventos seguidos diremos que sigue una distribución exponencial.

4.4.3 Aplicaciones.
Esta distribución puede ser encontrada en varias ocasiones de la vida
cotidiana, sobre todo en fenómenos relacionados con la naturaleza, es decir, con los
fenómenos que se dan 0, 1, 2….veces en un intervalo de tiempo o espacio. Algunos
ejemplos de estos fenómenos que podemos modelar con una distribución de Poisson
son:
 El número de peces muertos encontrados por unidad de superficie en una
determinada área.
 El número de vehículos que pasan por un radar fijo durante un intervalo de
tiempo concreto.
 Número de llamadas telefónicas recibidas en una central por minuto.
 El número de inventos llevados a cabo por una persona a lo largo de su
carrera. Y así podríamos continuar de forma infinita….

4.4.4 Características de los procesos que producen una distribución de la


probabilidad de Poisson.
 El número de vehículos que pasan por una caseta de cobro en las horas de
mayor tráfico sirve como ejemplo para mostrar las características de una
distribución de probabilidad de Poisson.
 El promedio (media) de los arribos de vehículos por de gran trafico puede
estimarse a partir de los datos anteriores del trafico. Si dividimos las horas de
gran tráfico en periodos (intervalos) de un segundo cada uno, encontraremos
que los siguientes enunciados son verdaderos:
 La probabilidad de que exactamente un vehículo llegue por segundo a una
caseta individual es un número muy pequeño y es constante para que cada
intervalo de un segundo.

13
 La probabilidad de que dos o más vehículos lleguen en un intervalo de un
segundo es tan reducida que podemos asignarle un valor cero.
 El número de vehículos que llegan en determinado intervalo de un segundo es
independiente del momento en que el intervalo de un segundo ocurre durante
la hora de gran tráfico.
 El número de llegadas en cualquier intervalo de un segundo no depende del
número de arribos de cualquier otro intervalo de un segundo.
Ahora bien, podemos generalizar partiendo de las cuatro condiciones que
hemos descrito en este ejemplo, si estas condiciones se cumplen nos apoyaremos en
una distribución de probabilidad de Poisson para describirlos.

4.4.5 Procesos de Poisson


La distribución de Poisson se aplica a varios fenómenos discretos de la
naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3,…. A veces durante un
periodo definido de tiempo o en un área determinada) cuando la probabilidad de
ocurrencia del fenómeno es constante en el tiempo o el espacio. Ejemplos de estos
eventos que puede ser modelado por la distribución de Poisson incluyen:
 El número de autos que pasan a través de un cierto punto en una ruta
(suficientemente distante de los semáforos) durante un periodo definido de
tiempo.
 El número de errores de ortografía que uno comete al escribir una única
pagina.
 El número de llamadas telefónicas en una central telefónica por minuto.
 El número de servidores de web accedidos por minuto.
 El número de animales muertos encontrados por unidad de longitud de ruta.
 El numero de mutaciones de determinada cadenas de ADN después de cierta
cantidad de radiación.
 El numero de núcleos atómicos inestables que se han desintegrado en un
determinado periodo.

14
 El numero de estrellas en un determinado volumen de espacio.
 La distribución de receptores visuales en la retina del ojo humano.
 La inventiva de un inventor a lo largo de su carrera.
 La distribución de la riqueza humana.

4.4.6 Cálculo de probabilidades mediante la distribución de Poisson.


La distribución de Poisson, según hemos señalado, se refiere a ciertos
procesos que pueden ser descritos con una variable aleatoria discreta. La letra X suele
representar esa variable y pueden asumir valores enteros (0, 1, 2, ,3 etc...). Utilizamos
la letra X mayúscula para presentar la variable aleatoria y la x minúscula para
designar un valor especifico que puede asumir la X mayúscula. La probabilidad d
exactamente x ocurrencias en una distribución de Poisson se calcula mediante la
fórmula:
P (x) = | x * e-|/x!
| x = Lambda (número medio de ocurrencia por intervalo de tiempo) elevada a la
potencia x.
x! = e = 2.71828 elevado a la potencia de lambda negativa.
Ejemplo: Supóngase que estamos investigando la seguridad de un crucero muy
peligroso. Los archivos de la policía indican una medida de 5 accidentes por el mes.
El numero de la distribución de Poisson, y la división de seguridad en carreteras
quiere calcular la probabilidad de exactamente 0, 1, 2, 3, y 4 accidentes en un mes
determinado.
Aplicando la formula anterior:
P (0)= (5)0 (e-5) /0!= 0,00674.
P (1)= (5)1 (e-5) /1!= 0,003370
P (2)= (5)2 (e-5) /2!= 0,08425
P (3) = (5)3 (e-5) /3! = 0,14042
P (4) = (5)4 (e-5) /4! = 0,17552
Para saber cuál es la probabilidad en 3 o menos, sumaremos las
probabilidades de 0, 1, 2, 3 lo que será igual a:

15
P (0) = 0,00674
P (1) = 0,03370
P (2) = 0,8425
P (3)= 0,14042
P (3 o menos) = 0,26511
Dado que la probabilidad de que haya 3 o menos accidentes es de 0,26511
entonces más de tres debe ser = 1-0,26511 = 0,73489.
La distribución de Poisson como una aproximación a la distribución binomial.
Algunas veces, si se desea evitar el tedioso trabajo de calcular las distribuciones
binominales, se puede usar a cambio la de Poisson, pero debe cumplir con ciertas
condiciones como:
n=>20
p=<0,05
En los casos en que se satisfacen tales condiciones, podemos sustituir la media de la
distribución binomial en lugar de la medida de la distribución de Poisson de modo
que la formula quedaría así:
P (x) = (np) X * e-np /x1!

4.5 Esperanza matemática y varianza de la distribución de Poisson.


Se sabe que se encuentra frente a la necesidad de emplear una
distribución de Poisson cuando existe un determinado intervalo en el
cual suceden eventos, y se necesita calcular cuántos eventos sucederán
en dicho intervalo

4.6 Distribución geométrica.


La distribución geométrica es un modelo adecuado para aquellos procesos en
los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene
interesantes aplicaciones en los muestreos realizados de esta manera. También
implica la existencia de una dicotomía de posibles resultados y la independencia de
las pruebas entre sí.

16
4.6.1 Características
 El proceso consta de un número no definido de pruebas o experimentos
separados o separables. El proceso concluirá cuando se obtenga por primera
vez el resultado deseado
(Éxitos).
 Cada prueba puede dar dos resultados mutuamente excluyentes: A y no A.
 La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q siendo (p + q = 1). Las probabilidades p y q
son constante en todas las pruebas, por lo tanto, las pruebas son independiente
(si se trata de un proceso de “extracción” este se llevara a, cabo con
devolución del individuo extraído).
 Derivación de la distribución. Si en estas circunstancia aleatorizamos de
forma que tomemos como variable aleatoria X = el número de pruebas
necesarias para obtener por primera vez un éxito o resultado A, esta variable
se distribuirá con una distribución geométrica de parámetro p.

4.6.2 Propiedades
Si la probabilidad de éxitos en cada ensayo es p, entonces la probabilidad de
que x ensayos sean necesarios para obtener un éxito es:
P(X = X)= (1-p) x-1p
Para x = 1, 2, 3,… equivalentemente, la probabilidad de que haya x fallos antes del
primer éxito es:
P (X = X) = (1 –p) xp
para x = 0, 1, 2, 3,…
En ambos casos, la secuencia de probabilidad es una progresión geométrica. El valor
esperado de una variable aleatoria X distribuida geométricamente es:
E (X) = 1/p
Y dado que Y = X-1
En ambos casos. La varianza es:

17
var (Y) = var (X) (1/p) /p2
Las funciones generatrices de probabilidad de X y la de Y son, respectivamente.

4.6.3 Distribuciones relacionadas


La distribución geométrica es un caso especial de la distribución binomial
negativa con parámetro de K = 1. Mas generalmente, si Y 1,…, Y k son variables
independientes distribuidas geométricamente con parámetro p, entonces sigue una
distribución binomial negativa con parámetros k y p.
Si Y 1,…, Y son variables independiente distribuidas geométricamente (con
diferentes parámetros de éxito pm posibles), entonces su mínimo también
geométricamente distribuido, con parámetro.

4.7 Esperanza matemática y varianza de la distribución geométrica.


4.7.1 Esperanza matemática
En estadística la esperanza matemática (también llamada esperanza, valor
esperado, media poblacional o media) de una variable aleatoria X, es el número {E}
[X] que formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la
probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de
un experimento aleatorio cuando la probabilidad de cada suceso se mantiene
constante y el experimento se repite un elevado número de veces. Cabe decir que el
valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en
el sentido más general de la palabra (el valor de la esperanza puede ser improbable o
incluso imposible).
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras
es 3,5. Podemos hacer el cálculo:

18
Y cabe destacar que 3,5 no es un valor posible al tirar el dado. En este caso, en
el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media
aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los
juegos de azar. Por ejemplo, la ruleta francesa tiene 37 casillas equiprobables. La
ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir,
cobramos 35 veces lo que hemos apostado). Por tanto, considerando los 37 posibles
resultados, la esperanza matemática del beneficio para apostar a un solo número es:

4.7.2 Varianza de la distribución geométrica


La distribución geométrica es un modelo adecuado para aquellos procesos en
los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene
interesantes aplicaciones en los muestreos realizados de esta manera. También
implica la existencia de una dicotomía de posibles resultados y la independencia de
las pruebas entre sí. Proceso experimental del que se puede hacer derivar.
Esta distribución se puede hacer derivar de un proceso experimental puro o de
Bernouilli en el que tengamos las siguientes características:

El proceso consta de un número no definido de pruebas o experimentos


separados o separables. El proceso concluirá cuando se obtenga por primera vez el
resultado deseado (éxito).
Cada prueba puede dar dos resultados mutuamente excluyentes: A y no A
La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un
resultado no A es q

19
Siendo (p + q = 1).
Las probabilidades p y q son constantes en todas las pruebas, por tanto, las
pruebas, son independientes (si se trata de un proceso de "extracción" éste se llevará a
cabo con devolución del individuo extraído) .
(Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que
tomemos como variable aleatoria X = el número de pruebas necesarias para obtener
por primera vez un éxito o resultado A, esta variable se distribuirá con una
distribución geométrica de parámetro p.

La Función Generatriz de Momentos (F.G.M.) quedaría:

Por lo que queda establecida que la F.G.M. tiene la expresión


En base a la FGM podemos obtener la media y varianza:

Haciendo t =0 tendríamos que

20
4.8 Distribución hipergeometrica.
La distribución hipergeométrica es una distribución discreta que modela el
número de eventos en una muestra de tamaño fijo cuando usted conoce el número
total de elementos en la población de la cual proviene la muestra. Cada elemento de
la muestra tiene dos resultados posibles (es un evento o un no evento). Las muestras
no tienen reemplazo, por lo que cada elemento de la muestra es diferente. Cuando se
elige un elemento de la población, no se puede volver a elegir. Por lo tanto, la
probabilidad de que un elemento sea seleccionado aumenta con cada ensayo,
presuponiendo que aún no haya sido seleccionado.
Utilice la distribución hipergeométrica para muestras obtenidas de
poblaciones relativamente pequeñas, sin reemplazo. Por ejemplo, la distribución
hipergeométrica se utiliza en la prueba exacta de Fisher para probar la diferencia
entre dos proporciones y en muestreos de aceptación por atributos cuando se toman
muestras de un lote aislado de tamaño finito.
La distribución hipergeométrica se define por 3 parámetros: tamaño de la
población, conteo de eventos en la población y tamaño de la muestra.
Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas.
Supongamos que el 2% de las etiquetas es defectuoso. El conteo de eventos en la
población es de 10 (0.02 * 500). Usted toma una muestra de 40 etiquetas y desea
determinar la probabilidad de que haya 3 o más etiquetas defectuosas en esa muestra.

21
La probabilidad de que haya 3 o más etiquetas defectuosas en la muestra es de
0.0384.

Ejemplo de cálculo de las probabilidades hipergeométricas


Supongamos que hay diez automóviles disponibles para que usted los pruebe
(N = 10) y cinco de ellos tienen motores turbo (x = 5). Si prueba tres de los vehículos
(n = 3), ¿cuál es la probabilidad de que dos de los tres que probará tengan motores
turbo?
Elija Calc > Distribuciones de probabilidad > Hipergeométrica.
Elija Probabilidad.
En Tamaño de la población (N), ingrese 10. En Conteo de eventos en la población
(M), ingrese 5. En Tamaño de la muestra (n), ingrese 3.
Elija Constante de entrada e ingrese 2.
Haga clic en Aceptar.
La probabilidad de que seleccione exactamente dos automóviles con motores turbo de
forma aleatoria cuando pruebe tres de los diez vehículos es 41.67%.

4.9 Esperanza matemática y varianza de la distribución hipergeometrica.


Considerando que una variable hipergeométrica de parámetros N, n, p puede
considerarse generada por la reiteración de un proceso dicotómico n veces en el que
las n dicotomías NO son independientes; podemos considerar que una variable
hipergeométrica es la suma de n variables dicotómicas NO independientes.

22
Es bien sabido que la media de la suma de variables aleatorias (sean éstas
independientes o no) es la suma de las medias y por tanto la media de una
distribución hipergeométrica será, como en el caso de la binomial:
En cambio si las variables sumando no son independientes la varianza de la
variable suma no será la suma de las varianzas.
Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de

una distribución hipergeométrica de parámetros N,n,p es : si

Esta forma resulta ser la expresión de la varianza de una binomial (n, p)


afectada por un coeficiente corrector [N-n/N-1], llamado coeficiente de exhaustividad
o Factor Corrector de Poblaciones Finitas (F.C.P.F.) y que da cuenta del efecto que
produce la no reposición de los elementos extraídos en el muestreo.

4.10 Distribuciones de variables aleatorias continuas.


Se dice que una variable aleatoria X es continua si su conjunto de posibles
valores es todo un intervalo (finito o infinito) de números reales. Por ejemplo, una
v.a. continua puede ser el tiempo de retraso con el que un alumno o un profesor
llegan al aula de clases ó también el peso o la estatura de los estudiantes del FE.
La función f(x) es una función de densidad de probabilidad para la variable aleatoria
continua X, definida sobre el conjunto de los números reales, sí:

Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área


bajo la gráfica de la función de densidad, como lo ilustra la figura 4.1 La gráfica de f
(x), se conoce a veces como curva de la densidad.

23
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad, como lo ilustra la figura. La gráfica de f(x), se
conoce a veces como curva de densidad.

4.11 Distribución Uniforme.


En probabilidad, la distribución uniforme puede hacer referencia a:
La distribución uniforme continua, distribución de probabilidad para variables
aleatorias continuas tales que para cada miembro de la familia, todos los intervalos de
igual longitud en la distribución en su rango son igualmente probables.
La distribución uniforme discreta, distribución de probabilidad que asume un número
finito de valores con la misma probabilidad.

La distribución Uniforme es el modelo (absolutamente) continuo más simple.


Corresponde al caso de una variable aleatoria que sólo puede tomar valores
comprendidos entre dos extremos a y b, de manera que todos los intervalos de una
misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede
expresarse como el modelo probabilístico correspondiente a tomar un número al azar
dentro de un intervalo (a, b).
De la anterior definición se desprende que la función de densidad debe tomar
el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del
intervalo). Es decir,

Gráficamente:

24
La función de distribución se obtiene integrando la función de densidad y
viene dada por:

Gráficamente:

Propiedades del modelo Uniforme:


Su esperanza vale (b + a)/2
Su varianza es (b − a)2/12

4.12 Esperanza matemática y varianza de la distribución exponencial.


Este modelo suele utilizarse para variables que describen el tiempo hasta que
se produce un determinado suceso.

25
Su función de densidad es de la forma:

Como vemos este modelo depende de un único parámetro α que debe ser
positivo: α > 0. A continuación se muestra un programa que nos permite ver cómo
cambia la forma de la función de densidad según el parámetro α.
La función de distribución se obtiene integrando la de densidad y es de la
forma:

Podemos utilizar el programa siguiente para calcular dicha función de distribución:


Propiedades del modelo Exponencial
Su esperanza es α.
Su varianza es α2.
Una propiedad importante es la denominada carencia de memoria, que
podemos definir así: si la variable X mide el tiempo de vida y sigue una distribución
Exponencial, significará que la probabilidad de que siga con vida dentro de 20 años
es la misma para un individuo que a fecha de hoy tiene 25 años que para otro que
tenga 60 años.
Cuando el número de sucesos por unidad de tiempo sigue una distribución de
Poisson de parámetro λ (proceso de Poisson), el tiempo entre dos sucesos
consecutivos sigue una distribución Exponencial de parámetro α = 1/λ.
4.15 Distribución Gamma.
Este modelo es una generalización del modelo Exponencial ya que, en
ocasiones, se utiliza para modelar variables que describen el tiempo hasta que se
produce p veces un determinado suceso.
Su función de densidad es de la forma:

26
Como vemos, este modelo depende de dos parámetros positivos: α y p. La
función Γ(p) es la denominada función Gamma de Euler que representa la siguiente
integral:

que verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p + 1)
= p!
El siguiente programa permite visualizar la forma de la función de densidad
de este modelo (para simplificar, se ha restringido al caso en que p es un número
entero).

4.16 Esperanza matemática y varianza de la distribución Gamma.


Propiedades de la distribución Gamma
Su esperanza es pα.
Su varianza es pα2
La distribución Gamma (α, p = 1) es una distribución Exponencial de parámetro α. Es
decir, el modelo Exponencial es un caso particular de la Gamma con p = 1.
Dadas dos variables aleatorias con distribución Gamma y parámetro α común
X ~ G(α, p1) y Y ~ G(α, p2) se cumplirá que la suma también sigue una distribución
Gamma X + Y ~ G(α, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables
aleatorias con distribución Exponencial de parámetro α (común) e independientes, la
suma de todas ellas seguirá una distribución G (α, k).

27
4.17 Distribución normal.
En estadística y probabilidad se llama distribución normal, distribución de
Gauss, distribución gaussiana o distribución de Laplace-Gauss, a una de las
distribuciones de probabilidad de variable continua que con más frecuencia aparece
en estadística y en la teoría de probabilidades.
La gráfica de su función de densidad tiene una forma acampanada y es
simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce
como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos
fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observación se obtiene como la suma
de unas pocas causas independientes.
De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin
explicación alguna. Para la explicación causal es preciso el diseño experimental, de
ahí que al uso de la estadística en psicología y sociología sea conocido como método
correlacional.
La distribución normal también es importante por su relación con la
estimación por mínimos cuadrados, uno de los métodos de estimación más simples y
antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el
modelo de la normal son:
Caracteres morfológicos de individuos como la estatura;
Caracteres fisiológicos como el efecto de un fármaco;
Caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos;
Caracteres psicológicos como el cociente intelectual;
Nivel de ruido en telecomunicaciones;
Errores cometidos al medir ciertas magnitudes; etc.

28
La distribución normal también aparece en muchas áreas de la propia
estadística. Por ejemplo, la distribución muestral de las medias muestrales es
aproximadamente normal, cuando la distribución de la población de la cual se extrae
la muestra no es normal. Además, la distribución normal maximiza la entropía entre
todas las distribuciones con media y varianza conocidas, lo cual la convierte en la
elección natural de la distribución subyacente a una lista de datos resumidos en
términos de media muestral y varianza. La distribución normal es la más extendida en
estadística y muchos tests estadísticos están basados en una "normalidad" más o
menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias


distribuciones de probabilidad continua y discreta.
Su función de densidad viene dada por la fórmula:

que, como vemos, depende de dos parámetros μ (que puede ser cualquier valor real) y
σ (que ha de ser positiva). Por esta razón, a partir de ahora indicaremos de forma
abreviada que una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por ejemplo,
si nos referimos a una distribución Normal con μ = 0 y σ = 1 lo abreviaremos N(0, 1).
A continuación presentamos la gráfica de esta función de densidad (donde se pueden
cambiar los parámetros):
Como se puede ver, la función de densidad del modelo Normal tiene forma de
campana, la que habitualmente se denomina campana de Gauss. De hecho, a este
modelo, también se le conoce con el nombre de distribución gaussiana.

4.18 Esperanza matemática y varianza de la distribución normal.


Propiedades del modelo Normal
Su esperanza es μ.

29
Su varianza es σ2 y, por tanto, su desviación típica es σ.
Es simétrica respecto a su media μ, como puede apreciarse en la
representación anterior.
Media, moda y mediana coinciden (μ).
Cualquier transformación lineal de una variable con distribución Normal
seguirá también el modelo Normal. Si X ~ N(μ, σ) y definimos Y = aX + b (con a ≠
0), entonces Y ~ N(aμ + b, |a|σ).Es decir, la esperanza de Y será aμ + b y su
desviación típica, |a|σ.
Cualquier combinación lineal de variables normales independientes sigue
también una distribución Normal. Es decir, dadas n variables aleatorias
independientes con distribución Xi ~ N(μi, σi) para i = 1, 2, ..., n la combinación
lineal: Y = anXn + an−1Xn−1+ ... + a1X1 + a0 sigue también el modelo Normal:

4.19 Distribución x de Pearson.


Esta distribución, junto con la t de Student y la F de Snedercor (además de la
normal) son de fundamental importancia para el desarrollo de la inferencia
estadística. Como las otras dos, es la distribución de una cierta característica de los
datos obtenidos aleatoriamente a partir de una distribución normal. En consecuencia
puede hacerse derivar de un proceso experimental de selección aleatoria, aunque
también puede ponerse en relación con las distribuciones Eulerianas.

Se define la con n grados de libertad, como la distribución que sigue la


variable suma de los cuadrados de n variables normales (tipificadas) [0;1]
independientes.

Así , dadas n variables aleatorias independientes tales que :

las variables seguirá una con n grados de libertad.

30
Dado que la es la suma de n normales tipificadas al cuadrado podemos
afirmar, por el motivo de ser precisamente cuadrados, que el campo de actuación-
variación de la variable así distribuida será siempre positivo .La forma de la función
de densidad y distribución variarán según los grados de libertad, siendo su forma
habitual la campaniforme, así

El cálculo de las diversas probabilidades para los diferentes valores de la


variable X, se explicita normalmente en tablas desarrolladas para los diversos valores
de grados de libertad; nosotros planteamos un script (programa) para su cálculo
directo.

31
Como hemos dicho, la representación gráfica de la distribución (su forma)
varía según los valores que tome su parámetro n (grados de libertad); así y como
puede observarse en el gráfico animado, para grados de libertad bajos (sobre todo
para un g.l.) El conjunto de la probabilidad queda muy próxima al valor cero de la
variable; de esta característica surge, para algunos tipos de contrastes que utilizan la
Chi2, la corrección de Yates

La función de densidad de la vendrá dada por :

Siendo una distribución gamma de Euler de parámetro y

Siendo n (número de grados de libertad) el único parámetro de la distribución


La función generatriz de momentos vendrá dada por

Partiendo de ella podemos establecer, por aplicación del teorema


de los momentos, que la media vendrá establecida en siendo la

varianza
La distribución JHI-2 (chi 2) cumple el teorema de adición para su parámetro
n (grados de libertad), así la suma de dos chi2 con n y m grados de libertad
respectivamente, no será otra cosa que una chi2 con (n+m) grados de libertad. Es
lógico pensar que si una chi2 con n grados de libertad es la suma de n normales
tipificadas (independientes) al cuadrado; y que una chi2 con m grados de libertad es
la suma de m normales tipificadas (independientes) al cuadrado, la suma de ambas
será, obviamente, la suma de (m+n) normales tipificadas (independientes) al
cuadrado: es decir, una chi2 con (n+m) grados de libertad.

32
4.20 Esperanza.
La esperanza matemática es la suma de la probabilidad de cada posible
suceso multiplicado por la frecuencia de dicho proceso, es decir si tenemos una
variable cuantitativa discreta con posibles sucesos y probabilidades la esperanza
matemática es:

Ejemplo:
Cuatro personas apuestan € a que saldrá un número en un dado, cada uno a un
número diferente. Entonces por cada euro apostado si se gana recibes euros más.
¿Saldrá a cuenta apostar en este juego?
La probabilidad de perder € es, ya que perderemos si no sale el número elegido.
En cambio la probabilidad de ganar € es de.
Así la esperanza es: Por tanto por cada euro apostado podemos perder 0.33 céntimos.
Se dice que este es un juego de esperanza negativa.
Decimos que un juego es equitativo cuando la esperanza de beneficio es.
Si tenemos un juego con esperanza de beneficio positiva se dice que es un juego de
esperanza positiva.

UNIDAD 5. LEY DE LOS GRANDES NUMEROS. TEOREMAS DEL LÍMITE


CENTRAL
5.1 Desigualdad de Chebyshev
La desigualdad de Chebyshev es un teorema utilizado en estadística que
proporciona una estimación conservadora (intervalo desconfianza) de la probabilidad
de que una variable aleatoria con varianza finita, se situé a una cierta distancia de su
esperanza matemática o de su medida.
Su expresión formal es la siguiente:
X = Valor estimado
µ = Esperanza matemática del valor estimado
Ϭ =Desviación típica del valor esperado

33
K = Numero de desviaciones típicas
Partiendo de esta expresión general y desarrollando la parte que queda dentro
del valor absoluto tendríamos lo siguiente:
Si prestamos atención a la expresión anterior, se aprecia que la parte de la
izquierda no es mas es un intervalo de confianza. Este nos ofrece tanto una cota
inferior, como una superior para el valor estimado. Por lo tanto, la desigualdad de
Chebyshev nos dice la probabilidad mínima, de que el parámetro poblacional se
encuentre dentro de una determinada cantidad de desviaciones típicas por encima. O
dicho de otra manera, nos da la probabilidad de que el parámetro poblacional se
encuentre dentro de ese intervalo de confianza.
La desigualdad de Chebyshev proporciona cotas aproximadas para el valor
estimado. A pesar de tener cierto grado de imprecisión, es un teorema bastante útil
dado que se puede aplicar a un amplio abanico de variables aleatorias
independientemente de sus distribuciones. La única restricción para poder utilizar esta
desigualdad es que K tiene que ser mayor que 1 (k>1).

Ejemplo de aplicación de la desigualdad de Chebyshev


Supongamos que somos gestores de un fondo de inversión. La cartera que
estamos gestionando tiene una rentabilidad media del 8,14% y una desviación típica
del 5,12%. Para saber por ejemplo que porcentaje de nuestro retornos se encuentra al
menos a 3 desviaciones típicas de nuestra rentabilidad media simplemente
aplicaríamos la formula anterior de la expresión 2.
K= 1,96
Sustituyendo el valor de K: 1-1/1,96^2 = 0,739 = 73,9%
Esto quiere decir que hay un 73,9% de los resultados que están en el intervalo de
confianza situado a 1,96 desviaciones típicas de la medida.
Realicemos el ejemplo anterior para valores distintos de K
K = 2,46
K=3
Sustituyendo el valor de K: 1-1/2,46^2 = 0,835 = 83,5%

34
Sustituyendo el valor de K: 1-1/3^2 = 0,889 = 88,9%
Hay un 83,5% de los datos que están a una distancia de 2,46 desviaciones
típicas de la medida y un 88,9% que están a 3 desviaciones típicas de la medida
Utilizando la desigualdad de Chebyshev, es sencillo deducir que a mayor valor de K
(mayor desviación del valor sobre su medida) mayor probabilidad de que la variable
aleatoria se encuentra dentro del intervalo acotado.

5.2 Ley de los grandes números


Ley de los grandes números se engloban varios teoremas que describen el
comportamiento del promedio de una sucesión de variables aleatorias conforme
aumenta su número de ensayos.
Estos teoremas prescriben condiciones suficientes para garantizar que dicho
promedio converja (en los sentidos explicados abajo) al promedio de las esperanzas
de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los
grandes números (y sus asociadas) especifican la convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una
muestra al azar de una población de gran tamaño tendera a estar cerca de la medida
de la población completa….
La frase “ley de los grandes números” es también usada ocasionalmente para
referirse al principio de que la probabilidad de que cualquier evento posible (incluso
uno improbable) ocurra al menos una vez en una serie aumenta con el numero de
eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería
es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es
bastante alta, suponiendo que suficientes personas comprasen boletos de lotería.

Historia de los grandes números


El matemático Italiano Gerolamo Cardano (1501-1576) afirmo sin pruebas
que la precisión de las estadísticas empíricas tiende a mejorar con el número de
intentos. Después esto fue formalizado como una ley de los grandes números. Una
forma especial de la ley (para una variable aleatoria binaria) fue demostrada por

35
primera vez por Jacob Bernouilli. Le llevo más de 20 años desarrollar una prueba
matemática suficientemente rigurosa que fue publicada en sus Ars Conjectandi [El
arte de la conjetura] en 1713. Bernouilli le llamo su << Teorema dorado>>, pero
llego a ser conocido generalmente como <<Teorema de Bernouilli>>. Este no debe
confundirse con el principio físico de igual nombre, del sobrino de Jacob, Daniel
Bernouilli. En 1873, S.D Poisson describió con más detalle bajo el nombre de <<la
loi des grands nombres>> (la ley de los grandes números). A partir de entonces, se
conoce con ambos nombres, pero se utiliza con mayor frecuencia la << ley de los
grandes números>>.
Después de que Bernouilli y Poisson publicasen sus esfuerzos, otros
matemáticos también contribuyeron al refinamiento de la ley, como Chebyshev,
Markov, Borel, Cantelli, Kolmogorov y Khinchin, que finalmente proporciono una
prueba completa de la ley d los grandes números: una se llama la ley “débil” y la otra
la ley “fuerte”, en referencia a dos modos diferentes de convergencia de la muestra
acumulada significa el valor esperado; en particular, como se explica a continuación,
la forma fuerte implica la débil.

Ley débil
La ley débil de los grandes números establece que si X1, X2, X3,… es una
sucesión infinita de variables aleatorias independientes que tienen el mismo valor

esperado µ y varianza , entonces el promedio.

Converge en probabilidad a µ. En otras palabras, para cualquier número positivo tiene


ε se tiene

36
Ley fuerte
La ley fuerte de los grandes números establece que si X1, X2, X3,… es una
sucesión infinita de variables aleatorias independientes e idénticamente distribuidas
que cumplen E (|Xi|) < ∞ y tiene el valor esperado µ, entonces,

Es decir, el promedio de las variables aleatorias converge a µ casi


seguramente (en un conjunto de probabilidad).
Esta ley justifica la interpretación intuitiva del valor esperado de una variable
aleatoria como el “promedio a largo plazo al hacer un muestreo repetitivo”.

5.3 Teorema del límite central


El teorema del límite central indica que, en condiciones muy generales, si Sn
es la suma de n variables aleatorias independientes y de varianza no nula pero finita,
entonces la función de distribución de Sn <<se aproxima bien>> a una distribución
normal (también llamada distribución gaussiana, curva de gaus o campana de gaus).
Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables
aleatorias e independientes es lo suficientes grande.

5.3.1 Propiedades del teorema del límite central


 El teorema del límite central garantiza una distribución aproximadamente
normal cuando n es suficiente grande.
 Existen diferentes versiones del teorema, en función de las condiciones
utilizadas para asegurar la convergencia. Una de las más simples establece
que es suficientes que las variables que se suman sean independientes,
idénticamente distribuidas, con valor esperado y varianza finitas.
 La aproximación entre las dos distribuciones es, en general, mayor en el
centro de las mismas que en sus extremos o colas, motivo por el cual se

37
prefiere el nombre “teorema del límite central” (“central” califica al límite,
más que al teorema).
 Este teorema, perteneciente a la teoría de la probabilidad, encuentra aplicación
en muchos campos relacionados, tales como la inferencia estadística o la
teoría de renovación.

Ejemplo del teorema central de límite


Imaginemos que queremos analizar las rentabilidades medias históricas del
índice S&P 500, que como sabemos, tiene unas 500 compañías dentro del mismo.
Pero no tenemos suficiente información como para analizar la totalidad de las 500
compañías del índice. En este caso la rentabilidad media del S&P seria la media
poblacional.
Ahora bien, siguiendo al TLC (teorema del límite central) podemos coger una
muestra de estas 500 empresas para realizar el análisis. La única limitación que
tenemos es que en la muestra tiene que haber más de 30 compañías para que se
cumpla el teorema. Entonces imaginemos que cogemos 50 compañías del índice de
manera aleatoria y repetimos el proceso varias veces. Los pasos a seguir del ejemplo
serian los siguientes:
 Elegimos la muestra de unas 50 compañías y obtenemos la rentabilidad media
de la totalidad de la muestra.
 De manera continua seguimos escogiendo 50 compañías y obtenemos la
rentabilidad media.
 La distribución de todas las muestra escogidas se aproximara a una
distribución normal
 Las rentabilidades medias de todas las muestras seleccionadas se aproximara a
la rentabilidad media del total índice. Tal y como demuestra el teorema central
del límite.
Por tanto mediante inferencia de la rentabilidad media de la muestra podemos
acercarnos a la rentabilidad media del índice.

38
39
CONCLUSIÓN

Los conceptos antes mencionados han sido analizados e investigados de tal


manera de hacer más fácil su comprensión y entendimientos ya que la estadística es la
ciencia que trata de entender, organizar y tomar decisiones que estén de acuerdo con
los análisis efectuados. La estadística juega un papel muy importante en nuestras
vidas, ya que actualmente ésta se ha convertido en un método muy efectivo para
describir con mucha precisión los valores de datos económicos, políticos, sociales,
psicológicos, biológicos y físicos, además, sirve como herramienta para relacionar y
analizar dichos datos. El trabajo del experto estadístico ha evolucionado mucho, ya
no consiste sólo en reunir y tabular los datos, sino sobre todo en el proceso de
interpretación de esa información, ahora tiene un papel mucho más importante del
que tenía en años pasados.

Es de vital importancia para nuestra vida profesional venidera, que


manejemos estos conceptos con facilidad, así mismo el que los usemos de la manera
apropiada, siempre en pro de buscar soluciones a los problemas que se nos puedan
presentar.

40
CONSULTAS BIBLIOGRÁFICAS

https://matematica.laguia2000.com/general/distribucion-de-poisson
https://groups.google.com/forum/#!topic/estadisticai/Nc56o9Vvio0
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
9.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
14.htm
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/basics/continuous-and-discrete-
probability-distributions/
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
12.htm
https://economipedia.com/definiciones/desigualdad-chebyshev-teorema.html
https://es.m.wikipedia.org/wiki/Teoremadell%C3%ADmitecentral
https://economipedia.com/definiciones/teorema-central-del-limite.html
https://es.m.wikipedia.org/wiki/leydelosgrandesn%C3%BAmeros#citenoteFOOTNO
TESeneta2013-6
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
14.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2m1t
12.htm
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/distributions/hypergeometric-
distribution/
https://es.wikipedia.org/wiki/Distribución_geométrica
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
1.htm

41
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
3.htm
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t
7.htm
https://www.uv.es/ceaces/normaMu/chi2/chi2.htm
https://www.sangakoo.com/es/temas/esperanza-matematica

42

También podría gustarte