Está en la página 1de 49

Estadística

Antonio Jara Sánchez-Caro

24 de enero de 2003
Índice general

1. Estadística Descriptiva 6
1.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Variables Estadísticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Variables Cuantitativas Discretas y Contínuas. . . . . . . . . . . . . . . . . . . 7
1.4. Frecuencias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1. Frecuencia Absoluta ni  . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2. Frecuencia Relativa f i  . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.3. Frecuencia Absoluta Acumulada Ni  . . . . . . . . . . . . . . . . . . . 8
1.4.4. Frecuencia Relativa Acumulada Fi  . . . . . . . . . . . . . . . . . . . 8
1.5. Distribución de Frecuencias. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1. Distribuciones no agrupadas. . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.2. Distribuciones agrupadas. . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6. Amplitud del Intervalo y Marca de Clase. . . . . . . . . . . . . . . . . . . . . 9
1.6.1. Amplitud del Intervalo ci  . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2. Marca de Clase xi  . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7. Representaciones Gráficas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.1. Diagrama de Barras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.2. Diagrama de Frecuencias Acumuladas. . . . . . . . . . . . . . . . . . 9
1.7.3. Histograma de Frecuencias. . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.4. Polígono de Frecuencias Absolutas. . . . . . . . . . . . . . . . . . . . 10
1.7.5. Polígono de Frecuencias Acumuladas. . . . . . . . . . . . . . . . . . . 10
1.8. Medidas de Posición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.8.1. Media Aritmética x  . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.8.2. Mediana Me  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.8.3. Moda (Mo ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8.4. Cuantiles CN  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9. Medidas de Dispersión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.9.1. Recorrido o Rango. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.9.2. Recorrido Intercuantílico. . . . . . . . . . . . . . . . . . . . . . . . . 15
1.9.3. Varianza  Sx2  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.9.4. Desviación Típica Sx  . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.9.5. Coeficiente de Variación de Pearson CV  . . . . . . . . . . . . . . . . 16
1.9.6. Variable Tipificada zi  . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.10. Momentos de la Distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2
1.10.1. Momentos respecto al origen. . . . . . . . . . . . . . . . . . . . . . . 18
1.10.2. Momentos respecto a la media. . . . . . . . . . . . . . . . . . . . . . . 18

2. Variables Estadísticas Bidimensionales 20


2.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2. Distribuciones Conjuntas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3. Representaciones Gráficas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4. Distribuciones Marginales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5. Distribuciones Condicionadas. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6. Independencia Estadística. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Momentos de una distribución bidimensional. . . . . . . . . . . . . . . . . . . 22
2.7.1. Momentos con respecto al origen. . . . . . . . . . . . . . . . . . . . . 22
2.7.2. Momentos con respecto a la media. . . . . . . . . . . . . . . . . . . . 22
2.8. Regresión Lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.9. Coeficiente de Correlación Lineal. . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10. Coeficiente de Determinación. . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3. Teoría de la Probabilidad 26
3.1. Fenómenos Deterministas y Aleatorios. . . . . . . . . . . . . . . . . . . . . . 26
3.2. Espacio Muestral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3. Sucesos y Tipos de Sucesos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Operaciones con sucesos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4.1. Unión de sucesos (A  B). . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4.2. Intersección de sucesos (A  B). . . . . . . . . . . . . . . . . . . . . . 27
3.4.3. Leyes de De Morgan. . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5. Definición Axiomática de la Probabilidad. . . . . . . . . . . . . . . . . . . . . 28
3.6. Otras definiciones de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6.1. Definición frecuencial de la probabilidad. . . . . . . . . . . . . . . . . 29
3.6.2. Definición de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7. Probabilidad Condicionada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.8. Sucesos Independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.9. Probabilidad de la intersección de sucesos. . . . . . . . . . . . . . . . . . . . . 31
3.10. Probabilidad “a priori” y “a posteriori”. . . . . . . . . . . . . . . . . . . . . . 32
3.11. Probabilidad Total. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.12. Teorema de Bayes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4. Variable Aleatoria Discreta 35


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.1. Concepto de una variable aleatoria . . . . . . . . . . . . . . . . . . . . 35
4.1.2. Función de distribución de una variable aleatoria . . . . . . . . . . . . 35
4.1.3. Clasificación de una variable aleatoria discreta y contínua . . . . . . . 35
4.1.3.1. Variables aleatorias discretas . . . . . . . . . . . . . . . . . 36
4.1.3.2. Variables aleatorias contínuas . . . . . . . . . . . . . . . . . 36
4.2. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3
4.2.1. Función de masa de una variable aleatoria discreta . . . . . . . . . . . 36
4.2.1.1. Representación gráfica de la función de masa . . . . . . . . . 36
4.2.2. Distribución de probabilidad . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.3. Función de distribución de una variable aleatoria discreta . . . . . . . 37
4.2.3.1. Representación gráfica de la función de distribución . . . . . 37
4.2.3.2. Cálculo de probabilidades a partir de la función de distribución 38
4.2.4. Momentos con respecto al origen (α r ) . . . . . . . . . . . . . . . . . . 38
4.2.4.1. Esperanza matemática. Propiedades . . . . . . . . . . . . . . 39
4.2.5. Momentos respecto a la esperanza . . . . . . . . . . . . . . . . . . . . 41
4.2.5.1. Varianza. Propiedades . . . . . . . . . . . . . . . . . . . . . 41
4.2.5.2. Desviación Típica . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.6. Función característica. Propiedades . . . . . . . . . . . . . . . . . . . 41
4.2.7. Algunas distribuciones discretas . . . . . . . . . . . . . . . . . . . . . 41
4.2.7.1. Distribución de Bernoulli B p  . . . . . . . . . . . . . . . . 41
4.2.7.2. Distribución Binomial B n  p  . . . . . . . . . . . . . . . . . 42
4.2.7.3. Distribución de Poisson P λ  . . . . . . . . . . . . . . . . . 42

4
Índice de figuras

1.1. Diagrama de barras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9


1.2. Diagrama de frecuencias acumuladas. . . . . . . . . . . . . . . . . . . . . . . 10

2.1. Nube de puntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.1. Representación de la función de masa . . . . . . . . . . . . . . . . . . . . . . 36


4.2. Representación de la función de distribución . . . . . . . . . . . . . . . . . . . 38

5
1 Estadística Descriptiva

1.1. Introducción.
Existen dos formas de interpretar el término "estadística":

Se entiende por estadística, cualquier colección de datos numéricos clasificados según un


criterio.
1 Esla ciencia que utiliza los números para el estudio de las leyes que dependen del azar.
Tratando de descubrir mediante el razonamiento inductivo la causa general a la que obe-
dece el modelo particularmente analizado.

En la vida cotidiana el hombre protagoniza dos tipos de fenómenos:

Deterministas: aquellos que dadas las mismas condiciones se obtienen los mismos resul-
tados.

Aleatorios: aquellos que dadas las mismas condiciones se obtienen distintos resultados
(lanzar un dado). Se suele decir que están regidos por la ley del azar.

La estadística descriptiva trata de la descripción numérica de conjuntos, siendo particularmente


útil cuando el número de elementos del conjunto es elevado. No pretende sacar conclusiones del
conjunto, solo pretende describirlo.

1.2. Variables Estadísticas.


Estudiaremos dos tipos de variables:

Variables cualitativas: No toman valores númericos y describen cualidades.


Se representan con las primeras letras del abecedario en mayúsculas.
Ej: A, color de pelo.

Variables cuantitativas: Toman valores numéricos y se utilizan si el carácter que quere-


mos valorar es susceptible a la medida.
Se representan con las ultimas letras del abecedario en mayúsculas.
Ej: X (altura), Y (peso).
1 Es la definición académico-científica

6
1.3. Variables Cuantitativas Discretas y Contínuas.
Hay dos tipos de variables cuantitativas:

Variables discretas: Pueden tomar valores que estarán siempre asociados a números en-
teros.

Variables contínuas: Dados dos valores cualesquiera, la variable puede tomar cualquier
valor intermedio entre los dos2 .

1.4. Frecuencias.
1.4.1. Frecuencia Absoluta  ni  .
Es el número de veces que se repite un valor de una variable.
La suma de frecuencia absolutas es igual al número de individuos del grupo:
n
∑ ni
N
i 1

1.4.2. Frecuencia Relativa  f i  .


Es la razón entre la frecuencia absoluta y el número de elementos que tenemos en el conjun-
to.
ni
fi

N
Notas:

0 fi 1

∑ni 1 fi
1

Ejemplo:

xi ni fi Ni Fi
0 1 1/36 1 1/36
1 19 19/36 20 20/36
2 11 11/36 31 31/36
3 2 2/36 33 33/36
4 3 3/36 36 1

2 Normalmente están asociadas a números reales.

7
1.4.3. Frecuencia Absoluta Acumulada  Ni  .
Es la suma de las frecuencias absolutas hasta un valor determinado (i).

1.4.4. Frecuencia Relativa Acumulada  Fi  .


Es la suma de las frecuencias relativas hasta un determinado valor (i).

1.5. Distribución de Frecuencias.


Es el conjunto de todos los valores que ha tomado la variable estadística acompañados de
sus correspondientes frecuencias.
Según cómo estén agrupados los datos tendremos dos tipos de distribuciones:

1.5.1. Distribuciones no agrupadas.


Una vez recogida la información, esta se dispone asociando a cada valor de la variable sus
correspondientes frecuencias. Se representan en una tabla como la que sigue:

xi ni fi Ni Fi
x1 n1 f1 N1 F1
x2 n2 f2 N2 F2
.. .. .. .. ..
. . . . .
xn nn fn Nn Fn
N 1

1.5.2. Distribuciones agrupadas.


Los datos se agrupan en intervalos cuando el número de valores que ha tomado la variable
estadística es lo sufucientemente grande.
Se agrupan para optimizar el tratamiento de la información. El número de intervalos está,
generalmente, entre 4 y 15, no siendo nunca superior al 10 % de los datos.
Una regla muy utilizada para elegir el número de intervalos es tomar el entero más próximo
a n, siendo n el número de datos.
Se representa en una tabla como la siguiente:

Li Li  1 ni fi Ni Fi
L0 L1 n1 f1 N1 F1
L1 L2 n2 f2 N2 F2
.. .. .. .. ..
. . . . .
Ln  1 Ln nn fn Nn Fn
N 1

Nota: Los intervalos son cerrados por la derecha y abiertos por la izquierda   .

8
1.6. Amplitud del Intervalo y Marca de Clase.
1.6.1. Amplitud del Intervalo  ci  .
Es la diferencia entre el valor superior e inferior de un intervalo.

ci
Li  1  Li

1.6.2. Marca de Clase  xi  .


Hace referencia al punto medio del intervalo. Se utiliza para calcular la media de la distribu-
ción.
Li  1  Li
xi

1.7. Representaciones Gráficas.


1.7.1. Diagrama de Barras.
Se utiliza para variables discretas y en general para distribuciones no agrupadas. Ver figura
1.1.
ni

xi

Figura 1.1: Diagrama de barras.

1.7.2. Diagrama de Frecuencias Acumuladas.


Se representan las frecuencias acumuladas en el eje de ordenadas (y) y los valores que toma
la variable en el eje de abscisas (x). Ver figura 1.2

1.7.3. Histograma de Frecuencias.


Se utiliza para datos agrupados y se construye levantando sobre cada intervalo un rectángulo
de área proporcional a la frecuencia absoluta (n i ) correspondiente a ese intervalo.
Dependiendo si los intervalos son o no uniformes se procederá de la siguiente forma:

9
ni

L1 L2 L3 L4 L5 Li

Figura 1.2: Diagrama de frecuencias acumuladas.

Intervalos uniformes (igual amplitud): en este caso las alturas de los rectángulos serán
igual a las frecuencias absolutas, ya que al ser las bases de los rectángulos iguales, las
áreas solo dependerán de las alturas, y por tanto de la frecuencia absoluta.
Intervalos no uniformes (distinta amplitud): tendremos que calcular las distintas alturas,
ya que las bases de los rectángulos son diferentes.
El cálculo de la altura lo haremos calculando la densidad de frecuencia (d i ).
ni
di

ci

1.7.4. Polígono de Frecuencias Absolutas.


También dependerá de si los datos están o no agrupados.

Datos no agrupados: el polígono se construye uniendo los puntos más altos del diagrama
de barras.

Datos agrupados: en este caso se construye calculando primeramente la marca de clase


de cada intervalo, luego unimos los puntos obtenidos con el primer valor del intervalo
inicial y el último del intervalo final.

1.7.5. Polígono de Frecuencias Acumuladas.


El gráfico será siempre ascendente por el hecho de ser frecuencias acumuladas.
Se utilizará para distribuciones agrupadas.

1.8. Medidas de Posición.


1.8.1. Media Aritmética  x  .

∑ni 1 xi ni
x

N
Propiedades:

10
La suma de las desviaciones de los valores de la variable con respecto a la media es
siempre nula.

n
∑ xi  x  n i
0
i 1

Si a todos los valores de la variable les sumamos una constante, es decir, les hacemos un
cambio de origen, la media queda también sumada por esa constante.

Si a todos los valores de la variable les multiplicamos por una constante, es decir, les
hacemos un cambio de escala, la media también queda multiplicada por esa constante.

1.8.2. Mediana  Me  .
Es el valor de la distribución que deja a ambos lados el mismo número de observaciones.
Para calcularla hay que ordenar las observaciones de menor a mayor. Es decir, la mediana es
el valor que ocupa el lugar central si el número de observaciones es impar.
Si el número de datos es par, podrá decirse que existen dos valores medianos y, en tal caso
se calcula la media de los valores medianos.
Ej:  1  2  3  4  5  Me
3
Ej:  1  2  3  4  5  6  Me
3  2 4
3  5
La mediana puede definirse también como el valor que tiene una distribución acumulada
igual a N2 . Para calcularla distinguiremos de nuevo si los datos están o no agrupados:

Datos no agrupados:

Los datos no se repiten (frecuencias unitarias): se hace como en los ejemplos ante-
riores.

Los datos se repiten: tenemos que seguir los siguientes pasos:
1. Calcular las frecuencias absolutas acumuladas (Ni ).
2. Calcular el número de observaciones que tiene la muestra dividido entre 2 ( N2 ).
Si N2
Ni  Me
xi  2xi 1
Si N2
 Ni  Me
valor de la variable cuya Ni sea la inmediatamente superior
a N2

Ejemplo:
xi ni Ni
0 2 2
1 3 5
2 4 9
3 1 10
14
x
10
1 4
1 2 N 10
Me
2
1  5 (porque 2
Ni  2
5)

11
Ejemplo:
xi ni Ni
0 2 2
1 4 6
2 3 9
3 1 10
14
x
10
1 4
N
2
5, no coincide con ningún Ni  por tanto Me
1

Datos agrupados: tenemos que seguir los siguientes pasos:

1. Calcular las frecuencias absolutas acumuladas (Ni ).


2. Calcular el número de observaciones que tiene la muestra dividido entre 2 ( N2 ).
Si N2
Ni  Me
Li  1
Si N2
 Ni  El intervalo3 donde aparezca la Ni inmediatamente superior a N2 es el
que contiene a la mediana, que calcularemos mediante la siguiente fórmula:
N
2  Ni  1
Me
Li  ci
ni

Ejemplo:
Li Li  1 ni Ni ci
2-4 4 4 2
4-6 10 14 2
6-8 40 54 2
8 - 10 20 74 2
10 - 12 1 75 2
N 75
2
2
37  5
37  5  14
Me
6 40 2
7  175

Ejemplo:
Li Li  1 ni Ni ci
2-4 2 2 2
4-6 3 5 2
6-8 5 10 2
N 10
2
2
5
Me
6
3 Se le conoce como “intervalo mediano”

12
1.8.3. Moda (Mo ).
Es el valor que más se repite en la distribución, el que tiene mayor frecuencia absoluta (n i ).
Para calcularla dependemos de nuevo de si los datos están o no agrupados:

Datos no agrupados: la moda se corresponde con el valor con mayor n i .


Ejemplo:
xi ni
2 5
3 4 Mo
4
4 6
7 2
Datos agrupados: en este caso distinguiremos entre intervalos de igual o distinta ampli-
tud. Puede existir más de un valor modal.

Intervalos con igual amplitud: se pueden utilizar diferentes métodos para seleccio-
nar el valor modal:
1. M o
Li  1
2. M o
Li
3. M o
xi
4. La distancia de la moda a los intervalos contiguos es inversamente proporcional
a las frecuencias de dichos intervalos: M o
Li  1  ni  n1 i  n1 i 1 ci
5. La distancia de la moda a los intervalos contiguos es directamente proporcional
a las frecuencias de dichos intervalos: M o
Li  1   ni  ni  n1i    ni  n1i  ni 1  ci

Intervalos con distinta amplitud: es lo mismo pero con la densidad de frecuencia
(di ).

Nota: Li  1 es el extremo inferior del intervalo.

1.8.4. Cuantiles  CN  .
Son valores de la distribución que la dividen en partes iguales. Dependiendo en cuántas
partes dividan a la distribución reciben varios nombres, cuartiles (4), deciles (10), percentiles
(100). A continuación estudiaremos cómo calcular los cuantiles:
Tomaremos dos variables (r y k) que representarán:
r - el cuantil que queremos calcular, por ejemplo si queremos calcular el cuartil 3, r
3.
k- el números de cuantiles, es decir, si son cuartiles serán 4, deciles 10, etc..
Tendremos que distinguir tambien si los datos están o no agrupados:

Datos no agrupados:
xi  xi 
Si kr N
Ni  Cuantil
2
1

Si kr N
 Ni  Cuantil
valor de la Ni inmediatamente superior a kr N

13
Datos agrupados:
Si kr N
Ni  Cuantil
Extremo superior del intervalo
r
k N Ni 
Si kr N
 Ni  Cuantil
Li  ni
1
ci

Ejemplo:
Calcular el primer y el tercer cuartil (C1 y C3 ) de la siguiente distribución:

xi ni Ni
0 2 2
1 3 5
2 10 15
3 16 31
4 5 36
6 5 41

r 1
Para calcular el primer cuartil tomamos r
1 y k
4, por tanto tenemos: kN
4 41
10  25.
Cogemos el valor de Ni inmediatamente superior que es 15 y por tanto C1
2.
r 3
Para calcular el tercer cuartil tomamos r
3 y k
4, por tanto tenemos: kN
4 41
30  75.
Cogemos el valor de Ni inmediatamente superior que es 31 y por tanto C3
3.

Ejemplo:
Calcular el primer y el tercer cuartil (C1 y C3 ) de la siguiente distribución:

Li Li  1 ni Ni
20 - 25 5 5
25 - 30 9 14
30 - 35 14 28
35 - 40 20 48
40 - 45 26 74
45 - 50 18 92
50 - 55 7 99
55 - 60 11 110

Para calcular el primer cuartil tomamos r


1yk
4, por tanto tenemos: kr N

1
4 110

27  25
N
Calculamos 2
55
r
N N
Como kr N no coincide con ningún Ni tenemos que aplicar la fórmula: Li  k ni i  1 ci donde
Li es el extremo inferior del intervalo en el que Ni es inmediatamente superior a N2 . Por
r
k N Ni  1 27  25  14
tanto: Li  ni ci
30  14 5
34  82

Para calcular el tercer cuartil tomamos r


3 y k
4, por tanto tenemos: kr N
3
4 110
82  5
N
Calculamos 2
55

14
Como kr N no coincide con ningún Ni tenemos que proceder de la misma forma que antes:
r
k N Ni  1 82  5  74
Li  ni ci
30  18 5
47  36

1.9. Medidas de Dispersión.


1.9.1. Recorrido o Rango.
Será la diferencia entre el valor máximo y mínimo de la distribución.

D
xM  xm

1.9.2. Recorrido Intercuantílico.


Será la diferencia entre el mayor y el menor cuantil.
Por ejemplo, para los cuartiles sería R I
C3  C1

1.9.3. Varianza Sx2 ! .


Es una medida de dispersión de los valores de la variable con respecto a la media.

∑ni xi  x  2 ni
Sx2

1
N
 
∑ni" ∑ni" ∑ni" 1 x2i ni
2x ∑i" ∑ni" 1 x2i ni
n
xi  x  2 n i x2i  x2  2xi x  ni x2 N 1 xi n i
Sx2
N
1

1
N
N  N  N
N  x2  2x2

∑ni" 1 x2i ni

N  x2
Propiedades:

Sx2 # 0

Si a todos los valores de la variable les sumamos una constante, es decir, hacemos un
cambio de origen, la varianza no se ve afectada. x i x; xi$
xi  k

∑ni xi$  x$  2 ni
Sx2%

1
N
Si a todos los valores de la variable les multiplicamos por una constante, la varianza queda
afectada por la constante, concretamente, multiplicada por la constante al cuadrado.

Sx2%
k2 Sx2

Nota: Las unidades de la varianza serán las mismas que las de la variable elevadas al cua-
drado.

15
1.9.4. Desviación Típica  Sx  .

∑ni 1 xi  x  2 ni
Sx
&(' Sx2
*)
N
Propiedades:

Sx #
0

Si a todos los valores de la variable les sumamos una constante, es decir, hacemos un
cambio de origen, la desviación típica no se ve afectada. S x%
∑i" 1 Ni  i
n
x%  x% 2 n

Si a todos los valores de la variable les multiplicamos por una constante, la desvación
típica queda afectada por la constante, concretamente, multiplicada por la constante. S x%+

kSx

1.9.5. Coeficiente de Variación de Pearson  CV  .


Es el resultado de la razón entre la desviación típica y la media aritmética.
Sx
CV

x
Servirá para averiguar cuál es la dispersión relativa de una variable.
Es adimensional, y por tanto, servirá para comparar la dispersión de dos o más distribuciones
con diferentes unidades de medida.
No se puede utilizar si el valor de la media es nulo.

1.9.6. Variable Tipificada  zi  .


Se denota como zi y se obtiene de la siguiente forma:
xi  x
zi

Sx
Propiedades:

z
0

Sz2
1

Sz
1

16
Problema Consideremos una variable estadísitica cuya media aritmética es 70, y cuya desvia-
ción típica es 10, sea el valor de la variable en la observación i-ésima igual a 90.
Calcular el valor tipificado e interpretar su significado.
xi  x 90  70
zi


2
Sx 10
El valor de la variable está dos veces la desviación típica por encima de la media.

Calcular ahora para una observación i-ésima igual a 60.


60  70
zi$

, 1
10
El valor de la variable está una vez la desviación típica por debajo de la media.

Problema Un estudiante obtiene en matemáticas una nota de 8.5, siendo 7.8 la nota media de
la asignatura y con una desviación típica de 1.3.
En estadística la nota media es de 6.3 y la desviación típica 1.65, el estudiante obtiene una
nota de 7.2.
Calcula:

¿En qué asignatura obtiene la mejor puntuación relativa?

8 5  7 8
zM

0  538
1 3

7 2  6 3
zE

0  545
1  65

Por tanto, la mayor puntuación relativa la obtiene en estadística.

¿En cuál de las dos asignaturas presenta la nota una mayor dispersión relativa?

SM 1 3
CVM


0  167
xM 7 8

SE 1  65
CVE


0  262
xE 6 3

La mayor dispersión se obtiene también en estadística.

1.10. Momentos de la Distribución.


Son unos valores que caracterizan la distribución. Distinguiremos dos tipos:

17
1.10.1. Momentos respecto al origen.
Al momento de orden r respecto al origen lo llamaremos α r y lo calcularemos según la
siguiente fórmula:

∑ni 1 xri ni
αr

N
Casos particulares:

∑ni" 1 x0i ni ∑ni" 1 ni


Si r
0  α0
N
N
1
∑ni" 1 x1i ni
Si r
1  α1
N
x
∑ni" 1 x2i ni
Si r
2  α2
N

1.10.2. Momentos respecto a la media.


Al momento de orden s respecto a la media lo llamaremos m s y, lo calcularemos según la
siguiente fórmula:

∑ni 1 xi  x  s ni
ms

N
Casos particulares:

∑ni" 1 xi  x  0 n i ∑ni" 1 ni N
Si s
0  m0
N
N
N
1

∑ni" 1 xi  x  1 n i 40
Si s
1  m1
N


∑ni" xi  x  2 n i
Si s
2  m2

1
N
Sx2

Nota: Cómo expresar la varianza en función de los momentos.

∑ni xi  x  2 ni ∑ni 1 x2i ni


Sx2

1

 x2
a2  a21
N N

Problema Un fabricante de tubos de televisión dispone de dos tipos de tubos, A y B. Los tubos
tienen una duración media de 1495 h. y 1875 h. respectivamente. Las desviaciones típicas son
280 para A y 310 para B.
Determinar qué tubo presenta mayor dispersión absoluta y cuál presente mayor dispersión
relativa.

A
1495 y SA
280
4 Por la primera propiedad de la media.

18
B
1875 y SB
310
Podemos decir directamente que el tipo B presenta mayor dispersión absoluta, ya que la
desviación típica es una medida de dispersión.
Para ver la dispersión relativa debemos calcular el Coeficiente de Variación de Pearson
(CV ):

SA 280
CVA


0  187
A 1495

SB 310
CVB


0  165
B 1875

Por tanto, será el tubo A el que presente mayor dispersión relativa.

19
2 Variables Estadísticas Bidimensionales

2.1. Introducción.
En el tema anterior hemos visto como estudiar una característica de un determinado conjun-
to. En este tema trataremos la idea de poder estudiar a la vez dos características de ese conjunto,
que podrán ser cualitativas o cuantitativas.

2.2. Distribuciones Conjuntas.


Por el hecho de trabajar con dos características tendremos que utilizar dos variables.
Hay que tener en cuenta que las frecuencias serán también bidimensionales.
Para representar los valores de las variables utilizaremos la Tabla de Doble Entrada o Tabla
de Distribución Conjunta1 .
Las frecuencias absolutas las representaremos con dos subíndices de la siguiente forma:

x\y y1 y2 -.-.- yj -.-.- yk ni /


x1 n11 n12 -.-.- n1 j -.-.- n1k n1 /
x2 n21 n22 -.-.- n2 j -.-.- n2k n2 /
.. .. .. .. .. ..
. . . . . .
xi ni1 ni2 -.-.- ni j -.-.- nik ni /
.. .. .. .. .. ..
. . . . . .
xh nh1 nh2 -.-.- nh j -.-.- nhk nh /
n/ j n 1 n 2 -.-.- n/ j -.-.- n/ k N

Donde i corresponde a la variable x, y j a la variable y.


Nota: ∑hi 1 ∑kj 1 ni j
N

2.3. Representaciones Gráficas.


La más utilizada el la Nube de Puntos.
En caso de tener los datos agrupados, representaremos las marcas de clase en el eje de
abscisas.
Ver figura 2.1.
1 Si utilizamos variables cualitativas se la denomina Tabla de Contingencia.

20
Figura 2.1: Nube de puntos.

2.4. Distribuciones Marginales.


Puede ser interesante estudiar por separado las características del grupo, para ellos existen
las distribuciones marginales.
Como ya hemos visto en la tabla de doble entrada tenemos dos tipos.

Distribución marginal de la y: ni /

Distribución marginal de la y: n / j

2.5. Distribuciones Condicionadas.


Son distribuciones en las cuales una variable está condicionada a un determinado valor de la
otra variable.
xi 0 y y j ni 0 y y j xi 0 x xi n j 0 x xi
x1 n1 j y1 n1i
x2 n2 j y2 n2i
... xi .... ni j ... y j .... n ji
xh nh j yk nki

ni j ni j
Frecuencia relativa condicionada: fi 0 j
n1 j y f j0 i
ni 1
ni2
Por ejemplo: f i 0 2
n2 2

2.6. Independencia Estadística.


Se dice que dos variables son estadísticamente independientes cuando su frecuencia relativa
n
conjunta  Ni j  es igual al producto de las frecuencias relativas marginales.
ni j ni / n/ j

N N 3 N
ni j ni 1 n1 j
ni j N N 4 N ni 1
fi 0 j
n1 j
n1 j
n1 j
N
N N

21
ni j ni 1 n1 j
ni j N N 4 N n1 j
f j0 i
ni 1
ni 1
ni 1
N
N N

2.7. Momentos de una distribución bidimensional.


2.7.1. Momentos con respecto al origen.
El momento de orden r,s con respecto al origen de una variable bidimensional será:
h k
ni j
αrs
∑ ∑ xri ysj N
i 1 j 1

Casos Particulares:

α10 1 0 ni j ni j ni j
∑hi 1 ∑kj ∑hi 1 ∑kj ∑hi 1 xi ∑kj ∑hi 1 xi Ni
n1

1 xi y j N
1 xi N
1 N

x

α01 0 1 ni j ni j h ni j n1 j

∑hi 1 ∑kj 1 xi y j N
∑hi 1 ∑kj 1 yj N
∑kj 1 y j ∑i 1 N
∑kj 1 yj N
y

α20 2 0 ni j 2 ni j ni j
∑hi 1 ∑kj ∑hi 1 ∑kj ∑hi 1 x2i ∑kj ∑hi 1 x2i Ni
n1

1 xi y j N
1 xi N
1 N

α02 0 2 ni j 2 ni j 2 h ni j 2 n1 j

∑hi 1 ∑kj 1 xi y j N
∑hi 1 ∑kj 1 yj N
∑kj 1 y j ∑i 1 N
∑kj 1 yj N

2.7.2. Momentos con respecto a la media.

h k
s ni j
mrs
∑∑ xi  x  r
yj  y
N
i 1 j 1

Casos Particulares:
0 ni j ni j
∑hi 1 ∑kj ∑hi 1 ∑kj ∑hi
1 ni 1 2
m10
1 xi  x  yj  y N
1 xi  x  N
1 xi  x  N

0
1 ni j 1 ni j n1 j
m01
∑hi 1 ∑kj 1 xi  x  0 yj  y N
∑hi 1 ∑kj 1 yi  y  N
∑hi 1 yj  y N
0
1 ni j ni j
m11
∑hi 1 ∑kj 1 xi  x  1 yj  y N
∑hi 1 xi  x  ∑kj 1 y j  y N

3S
xy

0 ni j
m20
∑hi 1 ∑kj 1 xi  x  2 yj  y N
∑hi 1 xi  x  2 ni 1
N

4 S2
x

2 ni j 2 ni j 2 n1 j
m02
∑hi 1 ∑kj 1 xi  x  0 yj  y N
∑kj 1 ∑i 1
h
y j  y N
∑kj 1 y j  y N

5 S2
y

Momentos con respecto a la media expresados en función de los momentos con respecto al origen:
2 Por la primera propiedad de la media
3 Se denomina covarianza
4 Será la varianza de x
5 Será la varianza de y

22
∑hi 2 ni 1
∑hi ∑hi 1 x2i Ni ∑hi 1 x2 Ni ∑hi 1 2xi x Ni
ni 1 n1 n1 n1
m20
1 xi  x  N
1 x2i  x2  2xi x  N
 


α20  x 2
 2xx
α20  x2
α20  α210
m11
∑hi 1 ∑kj 1 ni j ni j ni j ni j
1 xi  x 1 y j  y
N
∑hi 1 ∑kj 1 xi y j N  y ∑i 1 ∑ j 1 xi N
h k
 x ∑hi 1 ∑kj 1 yj N 
n ni j n1
 xy ∑hi 1 ∑kj 1 Ni j
∑i 1 ∑ j 1 xi y j N
h k
 y ∑hi 1 xi nNi 1  x ∑kj 1 y j Nj  x  y


α11  α10 α01  α10 α01  α10 α01
α11  α10 α01

2.8. Regresión Lineal.


En esta sección estudiaremos la dependencia que tienen las dos variables (x e y) y la forma
en la que se relacionan.
Podemos estudiar la regresión de dos maneras:

1. Regresión: consiste en analizar la forma de las dependencias entre las dos variables.
2. Relación: consiste en analizar el grado de dependencia de las dos variables.

Nos centraremos en la regresión.


El objetivo es buscar una función (y
f x  ) que relacione las dos variables. Esta función
deberá aproximar a una recta la representación de la nube de puntos.
Para ello utilizaremos un método matemático que es la aproximación por mínimos cuadra-
dos, obteniendo dos rectas:
Sxy Sxy
Recta de regresión de y sobre x: y
ax  b, donde a
Sx2
yb
y Sx2
x
Sxy Sxy
Recta de regresión de x sobre y: x
a $ y  b$ , donde a$
Sy2
y b$
x Sy2
y

2.9. Coeficiente de Correlación Lineal.


Determina el grado y el sentido de la dependencia lineal que existe entre las variables.
Sxy
R

Sx Sy
El rango de valores es:  1 R 1
El signo dependerá de la covarianza (S xy ).

Casos Extremos:

Si R
1, existe correlación lineal total directa 6 entre las variables.
Si R
0, no existe correlación entre las variables.
Si R
5 1, existe correlación lineal total inversa 7 entre las variables.
6S 0 7 si aumenta x, aumenta y.
xy 6
7S 0 7 si aumenta x, disminuye y.
xy 8

23
2.10. Coeficiente de Determinación.
Mide la capacidad explicativa del modelo que hemos creado.
2
Sxy
2
R

Sx2 Sy2

Ejemplo: Si R2
0  9, significa que explico el 90 % de la y en el caso y
ax  b.

Problema De la siguiente tabla de doble entrada, calcula:

La distribución marginal de la variable y (n / j ).

La distribución de la variable x condicionada a que la variable y tome el valor 3.

El momento m20

El coeficiente de determinación.

x\y 1 2 3 4 ni /
5 1 2 1 3 7
10 2 1 3 2 8
15 3 2 1 2 8
n/ j 6 5 5 7 23

y n/ j
1 6
2 5
Distribución marginal de la variable y:
3 5
4 7
23
x ni /
5 7
Distribución marginal de la variable x: 10 8
15 8
23
x9 y
3 ni / 9 y
3
5 1
Distribución de la variable x condicionada a que la variable y tome el valor 3: 10 3
15 1
5
x2i ni 1
m20
Sx2
∑hi 1 N  x2
120  65  10  222
16  20

24
y2 n 1 j
m02
Sy2
∑kj 1 jN  y2
7  96  2  562
1  4
n
m11
Sxy
∑hi 1 ∑kj 1 xi  x  1 y j  y  1 Ni j
α11  α10 α01
25  22  10  22 2  56
5 0  9
3

2
Sxy  0  9 2
R2


0  036
Sx2 Sy2 16  20 1  4
3

25
3 Teoría de la Probabilidad

3.1. Fenómenos Deterministas y Aleatorios.


Un fenómeno es un experimento, como pueda ser el lanzar un dado. Existen dos tipos de
fenómenos:

Deterministas: cuando al realizar un experimento en las mismas condiciones, siempre


obtenemos el mismo resultado.

Aleatorios: cuando al realizar un experimento en las mismas condiciones, nunca podre-


mos predecir el resultado.

3.2. Espacio Muestral.


Lo denotaremos como E.1
Es el conjunto formado por los posibles resultados de un fenómeno aleatorio.

Ejemplo Para el lanzamiento de una moneda al aire: E


 cara  cruz 

Ejemplo Para el lanzamiento de un dado: E


 1 2 3 4 5 6

Ejemplo Para el lanzamiento de dos monedas al aire: E


 cara  cara   cruz  cruz   cara  cruz   cruz  cara  

3.3. Sucesos y Tipos de Sucesos.


Un suceso es un subconjunto del espacio muestral. Para denotarlos usaremos letras mayús-
culas.

Ejemplo Para el E
 1 2 3 4 5 6 :

A
salir 2
 2

B
salir par
 2 4 6

C
salir impar
 1 3 5
1 En algunos textos se denota como Ω.

26
Existen seis tipos de sucesos:

1. Suceso Elemental: Aquel que está formado por un solo elemento del espacio muestral.

2. Suceso Compuesto: Aquel que está formado por varios elementos del espacio muestral.

3. Suceso Imposible: Aquel cuyos elementos son el conjunto vacío, por tanto se denota
como φ. Ej: Para E
 1  2  3  4  5  6  , F
salir 7
φ.

4. Suceso Seguro: es el que se va a presentar siempre, por tanto, es el suceso que está com-
puesto por los elementos del espacio muestral.

5. Suceso Contrario o Complementario: Sea A un suceso, definimos su complementario


(A) como aquel suceso que está formado por los sucesos elementales que no pertenecen a
A. Ej: Para E
 1  2  3  4  5  6  , A
salir par
 2  4  6  , A
 1  3  5 
salir impar.

6. Sucesos Condicionados: Sean A y B dos sucesos, se llama suceso de A condicionado a


B (A 9 B ) si se presenta A una vez que se haya presentado B. Ej: B
salir par
 2  4  6 
A
salir 2
 2  .

7. Sucesos Incompatibles: Sean A y B dos sucesos, se dice que son incompatibles si A  B

φ. En caso contrario se dice que son compatibles.

8. Sucesos Independientes: Sean A y B dos sucesos, se dice que son independientes si P A 


B :
P A  P B  . En caso contrario se dice que son dependientes.

3.4. Operaciones con sucesos.


3.4.1. Unión de sucesos (A ; B).
Dados dos sucesos A y B su unión estará formada por los sucesos elementales que pertenecen
a A ó a B ó a ambos.
Propiedad: A  A
E

3.4.2. Intersección de sucesos (A < B).


Dados dos sucesos A y B su intersección estará formada por los sucesos elementales que
pertenecen a A y a B simultáneamente.
Propiedad: A  A
φ

3.4.3. Leyes de De Morgan.


Hay dos:

A B
A B

A B
A B

27
3.5. Definición Axiomática de la Probabilidad.
La probabilidad es una medida de la incertidumbre asociada a los fenómenos o los experi-
mentos que dependen del azar. Existen distintas definiciones de la probabilidad; nos centramos
en la definición axiomática de Kolmogorov: La probabilidad es una función que se asigna a un
número real llamado probabilidad (P A  ).

Axiomas:

La probabilidad de un suceso es siempre mayor o igual a cero.

P A #
0

La probabilidad de un suceso seguro es siempre la unidad.

P E =
1

Sean A1  A2 .>?>?>? An sucesos incompatibles2 donde Ai  A j


φ, para todo i
 j.

P A1  A2 @>.>.>. An :
P A1 A P A2 AB-.-.- P An 

C
n n
P Ai D
∑ P Ai 
i 1 i 1

Consecuencias de los axiomas:

P A :
1  P A 
P A  A E
P A F P A  (por el tercer axioma), P E G
1 (por el primer axioma) H

P A D
1  P A 
P E D
0

0 P A 1
P A # 0 (por el primer axioma); E
A  A; P E I
1
P A J P A ; P A =
1 si A
φ

Sean A y B dos sucesos compatibles


H P A  B K
P A A P B F P A  B 
A  B =
A  B A A  BA A  B  sucesos incompatibles, por tanto,
P A  B =
P  A  B   A  B  A  B MLN
P A  B J P A  BJ P A  B F


P B O P A  B J P A F P A  B A P A  B P
P A J P B F P A  B 

Sean A, B y C sucesos compatibles


H P A  B  C I

P A A P B A P C F P A  B F P A  C O P B  C A P A  B  C 


2A y B son sucesos incompatibles si A Q B R φ, en caso contrario serán compatibles.

28
3.6. Otras definiciones de probabilidad.
3.6.1. Definición frecuencial de la probabilidad.
Sea A un suceso cualquiera. Definimos frecuencia relativa de ese suceso como el cocien-
te del número de veces que aparece dicho suceso entre el número de veces que se realiza el
experimento.

no de veces que aparece el suceso


fr A :

no de veces que se realiza el experimento


Ejemplo: Sea A un suceso consistente en lanzar una moneda y que salga “cara”.

no de veces que sale cara


fr A :

no de veces que se lanza la moneda


La frecuencia relativa de un suceso tiende a estabilizarse en torno a un valor, a medida que
el número de veces que se realiza el experimento crece indefinidamente. A ese valor se le llama
probabilidad frecuencial del suceso:

P A :
lı́m fr A 
no de veces que se realiza el experimento S ∞

Tiene dos inconvenientes:

1. El número de veces que hay que repetir el experimento es muy elevado.

2. No es fiable; el resultado obtenido es aproximado.

3.6.2. Definición de Laplace.


Sea A un suceso. Se define la probabilidad como el cociente entre el número de casos favo-
rables y el número de casos posibles.

no de casos favorables
P A :

no de casos posibles
Ejemplo: Lanzo un dado.
E
 1 2 3 4 5 6
3 1
A
salir par
 2  4  6  luego, P A :
6
2

Ejemplo: lanzo dos veces una moneda.


E
 cara  cara   cara  cruz   cruz  cara   cruz  cruz  

B
salir la primera cara
P B :
24
12

29
3.7. Probabilidad Condicionada.
Dados dos sucesos A y B, la probabilidad de A condicionada a B se define como P A 9 B  y
será:
P A  B
P A 9 B :
si P B 
 0
P B

P A  B
P B 9 A :
si P A 
 0
P A

3.8. Sucesos Independientes.


Sean A y B dos sucesos, diremos que son independientes
si P A   B K
P A  P B 
Si dos sucesos son independientes P A 9 B T
PPA BU B 
P AP  BP B  , por tanto, P A  B T

P A 9 B  P B :
P A  P B 
P A1  A2  -.-.-  An :
P A1  P A2 J-.-.- P An 

Problema Tengo una urna con 5 bolas blancas y 4 bolas rojas.

Si se extraen dos bolas con reemplazamiento, determinar la probabilidad de que la primera


sea blanca y la segunda roja.

5
P B :

0  556
9

4
P R :

0  444
9

Si se extraen tres bolas con reemplazamiento, determinar la probabilidad de que la primera


sea blanca, la segunda roja y la tercera blanca.

5
P B :

0  556
9

4
P R :

0  444
9

5
P B :

0  556
9

30
Si se extraen dos bolas sin reemplazamiento, determinar la probabilidad de que la primera
sea blanca y la segunda roja.

5
P B :

0  556
9

4
P R :

0 5
8

Si se extraen tres bolas sin reemplazamiento, determinar la probabilidad de que la primera


sea blanca, la segunda roja y la tercera blanca.

5
P B :

0  556
9

4
P R :

0 5
8

4
P B :

0  571
7

3.9. Probabilidad de la intersección de sucesos.


Distinguiremos si los sucesos son independientes o dependientes.

Sucesos dependientes. Sean A y B dos sucesos dependientes. Se verifica que la probabli-


dad de su intersección es la probabilidad de A condicionada a B por la probabilidad de B
e igual a la probabilidad de B concionada a A por la probabilidad de A.

P A  B =
P A 9 B  P B :
P B 9 A  P A 

Sucesos independientes. Sean A y B dos sucesos independientes. La probabilidad de su


intersección será la probabilidad de A por la probabilidad de B.

P A  B K
P A  P B 

31
3.10. Probabilidad “a priori” y “a posteriori”.
Suponemos que tenemos un suceso H, llamaremos probabilidad a priori a la probabilidad
que se le asigna individualmente al suceso H. Es decir, la probabilidad de que salga H.
Supongamos que partimos de cierta información (X), la probabilidad a posteriori es la pro-
babilidad de H condicionada a la información que tenemos (X).

P H  X
P H 9 X =

P X

P H  X
P X 9 H =

P H

P X9 H P H
P H  X =

P X

3.11. Probabilidad Total.


Sean H1  H2 .>?>?>? Hn incompatibles. Hi  H j
φ para todo i
 j. Sea A otro suceso,
n
P A :
∑P A 9 Hi  P Hi 
i 1

3.12. Teorema de Bayes.


Supongamos que tenemos H sucesos incompatibles (H1  H2 .>?>?>? Hn  cuya unión será E > Sea
un suceso cualquiera. El teorema de Bayes dice:

P A 9 Hi  P Hi 
P Hi 9 A D

P A

P Hi  A 
P A 9 Hi :

H P Hi  A =
P A 9 Hi  P Hi 
P Hi 

Problema. El volumen de producción diario en tres plantas diferentes de una fábrica es de 500
unidades en la primera, 1000 unidades en la segunda y 2000 unidades en la tercera. Sabiendo
que el porcentaje de unidades defectuosas producidas en las tres plantas es del 1 %, 0,8 % y 2 %
respectivamente, determinar la probabilidad de que:

1. Extraida una unidad al azar resulte NO defectuosa.


Llamaremos:
500
A
producción de la primera planta
H P A :
3500
0  143

32
1000
B
producción de la segunda planta
H P B K
3500
0  286
2000
C
producción de la primera planta
H P C D
3500
0  571
D
pieza defectuosa

P D V
P D 9 A  P A W P D 9 B  P B W P D 9 C  P C V
0  01P A X 0  008P B X 0  02P C V

0  0153
P D :
1  0  15
0  985

2. Habiendo sido extraida una unidad defectuosa, haya sido producida en la primera planta.
o
P D9 A P A 0  01 0  143
P A 9 D :

3
0  095
P D 0  015

Problema. Una compañía dedicada al transporte público explota tres líneas periféricas de una
gran ciudad, se observa que el 60 % de los autobuses cubren el servicio de la primera linea, el
30 % cubren el servicio de la segunda linea, y el 10 % cubren el servicio de la tercera línea. Se
sabe que la probabilidad de que diariamente un autobús se averíe es del 2 % en la primera línea,
del 4 % en la segunda y del 1 % en la tercera. Determinar:

1. La probabilidad de que en un día un autobús sufra una avería


Llamamos:

θ1
Que sea de la primera línea
θ2
Que sea de la segunda línea
θ3
Que sea de la tercera línea
A
Que se averíe

2 4 1
P A V
P A 9 θ1  P θ1 W P A 9 θ2  P θ2 W P A 9 θ3  P θ3 V
0 6  0 3  0  1
0  025
100 100 100

2. Sabiendo que un autobús ha sufrido una avería en un día determinado, ¿Cuál es la proba-
bilidad de que preste servicio en la primera línea?

P A 9 θ1  0  02 0  6
P θ1 9 A :

3
0  48
P A 0  025
3 aplicamos el punto 3.11

33
Problema. Demostrar:

1. P A 9 B A P A9 B D
1 siendo P B ZY 0
Suponemos que A y B son sucesos independientes y por tanto P A  B I
P A  P B 
P A  B K
P A  P B 
  
P A U B  P A  P B
P A 9 B :
P B
P B
P A
P A 9 B [
P A 
P A J P A:
P A A 1  P A K
1

2. P A  B 9 C =
P A 9 C J P B 9 C O P A  B 9 C  siendo P C \Y 0
P A  B K
P A A P B 

P A U B 
P A 9 B :
P B
       
P ] A ^  B  U C_ P ] AU C  ^ BU C _ P AU C  P BU  C  P AU BU C P A U C  P B U C 
P A  B 9 C F
P C
P C
P C
P C  P C 

P AU  BU C
P C
P A 9 C A P B 9 C F P A  B 9 C 

34
4 Variable Aleatoria Discreta

4.1. Introducción
4.1.1. Concepto de una variable aleatoria
Una variable aleatoria la representamos por ξ y es una función que va desde el espacio
muestral hasta el conjunto de los números reales. De tal forma que a cada suceso elemental le
asigna una imagen.

ξ: E  a`

4.1.2. Función de distribución de una variable aleatoria


Es una función que va desde los números reales hasta el intervalo [0,1], de modo que para
cualquier x la función de distribución lo que indica es la probabilidad de que la variable aleatoria
tome valores menores o iguales al número que me dan.

F:`   0  1L

x F x b
P ξ x

Que será la probabilidad acumulada hasta el valor x.

Propiedades

lı́mx Sc ∝F x [
1

lı́mx Sd ∝F x [
0

Es una función monótona creciente, sea x 1 y x2 tal que x1 e x2 H F x1 Ze F x2 

Es una función contínua por la derecha, lı́m h S 0 F x  h D


F x  h Y 0

4.1.3. Clasificación de una variable aleatoria discreta y contínua


Las variables aleatorias se clasifican en variables aleatorias discretas y variables aleatorias
contínuas.

35
4.1.3.1. Variables aleatorias discretas

Son aquellas que toman valores aislados. Como por ejemplo, el lanzamiento de una moneda,
puede tomar dos valores: cara o cruz.

4.1.3.2. Variables aleatorias contínuas

Son aquellas que pueden tomar cualquier valor dentro de un intervalo dado. Por ejemplo la
temperatura.

4.2. Variables aleatorias discretas


4.2.1. Función de masa de una variable aleatoria discreta
También se conoce como Función de Cuantía.
Es una función definida en el conjunto de los números reales y cuyas imágenes pertenecen
al intervalo cerrado [0,1], donde a cada valor del conjunto de números reales se le asocia la
probabilidad inducida cuando la variable aleatoria toma el valor x i .

F: `   0  1L

xi  F xi D
P ξ
xi 

4.2.1.1. Representación gráfica de la función de masa

x1 x2 ... xn

Figura 4.1: Representación de la función de masa

Se representa mediante un diagrama de barras, se omite el eje de ordenadas, sobre el cual


se ponen los valores que toma la variable, levantando una barra sobre cada valor de la variable
cuya altura es la probabilidad de que la variable tome ese valor. Véase figura 4.1.
La suma de las alturas de todas las barras tiene que ser 1.

4.2.2. Distribución de probabilidad


Es una tabla que nos proporciona la información de todos los posibles valores que toma la
variable aleatoria acompañada de sus correspondientes probabilidades.

36
ξ
xi x1 x2 -.-.- xn
P ξ
xi  ξ
x1 ξ
x2 -.-.- ξ
xn

4.2.2.1. Ejemplo

Para el lanzamiento de una moneda la tabla sería:


ξ
xi 0 1
P ξ
xi  1
2
1
2

4.2.3. Función de distribución de una variable aleatoria discreta

F:`   0  1L

x  F x [
P ξ x [
∑P ξ
xi 
i

Ejemplo
3
F x3 D
∑P ξ
xi :
P ξ
x1 A P ξ
x2 A P ξ
x3 :
∑F xi 
i 1 i

La diferencia entre la función de distribución y la de masa es que para la primera es la


probabilidad acumulada y para la de masa es la probabilidad en el punto.

4.2.3.1. Representación gráfica de la función de distribución

Suponemos que la variable solo toma dos valores diferentes (x 1 y x2 ). Para dibujarla nos
basamos en el diagrama de barras.
Vamos a considerar diferentes tramos:

Considero un valor x e x1 para el cual F x D


P ξ x D
0

El siguiente que considero será x1 x e x2 para el que F x D


P ξ x [
P ξ
x1 

El tercer tramo será x #


x2 para el que F x [
P ξ x D
P ξ
x1 A P ξ
x2 D
1

hji 0 x e x1
F x b
gf P ξ
x1  x1 x e x2
P ξ
x1 A P ξ
x2 :
1 x # x2

Una función de distribución de una variable aleatoria discreta debe quedar como en la figura
4.2, siendo escalonada (“da saltos” en los puntos donde se concentra la probabilidad). El incre-
mento que experimenta la función en cada salto es igual a la probabilidad correspondiente a ese
valor (P ξ
xi  ).

37
F(x)

x
x1 x2

Figura 4.2: Representación de la función de distribución

4.2.3.2. Cálculo de probabilidades a partir de la función de distribución

Sea F x  la función de distribución de una variable aleatoria discreta y sean a y b dos núme-
ros reales cualesquiera tales que a e b, entonces se verifica que 1 :

1. Pa e ξ b :
F b F F a 

2. Pa e ξ e b :
F b F F a F P ξ
b 

3. Pa ξ b :
F b F F a A P ξ
a 

4. P a ξ e b D
F b F F a O P ξ
b A P ξ
a 

4.2.4. Momentos con respecto al origen (αr )


Definimos momento de orden r con respecto al origen

αr
∑ xri P ξ
xi 
i

Casos particulares:
2 Para r
0, αo
∑i P ξ
xi :
∑i P ξ
xi [
1
Para r
1  recibe el nombre de esperanza matemática, valor esperado o valor probable.
Se puede representar como:

α1
E  ξLJ
M
∑ xi P ξ
xi 
i
1 Ya que F k b lR P k ξ m b l , es decir, todos los puntos anteriores y el punto b.
2 La suma de todas las probabilidades es 1.

38
4.2.4.1. Esperanza matemática. Propiedades

La esperanza de una constante es igual a la constante

E  C LA
C

Si C es constante, P ξ
C :
1

La esperanza de una constante por una variable aleatoria es igual a la constante por la
esperanza de la variable aleatoria.

E  C ξLP
C E  ξL

(definición previa a la demostración) Sea ξ una variable aleatoria discreta y sea g  ξL una
función de la misma, entonces se verifica que:

E  g ξ MLA
∑ g xi  P ξ
xi 
i

E  C ξLA
∑i C xi P ξ
xi D
C ∑i P ξ
xi D
C E  ξL

La esperanza de una suma o resta de variables aleatorias es igual a la suma o resta de las
esperanzas.

E  ξ1 n ξ2 LA
E  ξ1 Lon E  ξ2 L

Ejemplo Lanzamos un dado una vez y consideramos la variable aleatoria ξ


puntuación obtenida,
determinar:

1. La distribución de probabilidad y su representación gráfica.

ξ
xi 1 2 3 4 5 6
P ξ
xi  1
6
1
6
1
6
1
6
1
6
1
6

1/6 1/6 1/6 1/6 1/6 1/6

1 2 3 4 5 6

2. La función de distribución y su representación gráfica.

x e 1H F x D
P ξ x D
0

39
1 x e 2H F x b
P ξ x D
P ξ
1 D
1
6
2 x e 3H F x b
P ξ x D
P ξ
1 A P ξ
2 [
1
6 
1
6

2
6
3 x e 4H F x b
P ξ x D
P ξ
1 A P ξ
2 A P ξ
3 :
1
6 
1
6 
1
6

3
6
4 x e 5 H F x G
Pξ x G

1 I P ξ
2 I P ξ
3 K P ξ
4 p

1 1 1 1 4
6  6  6  6
6
4 x e 5 H F x =
P ξ x =
P ξ
1 q P ξ
2 q P ξ
3 q P ξ
4 q P ξ

5 D
16  16  16  16  16
56
5 x e 6 H F x =
P ξ x =
P ξ
1 q P ξ
2 q P ξ
3 q P ξ
4 q P ξ

5 A P ξ
6 D
16  16  16  16  16  16
66
6/6

5/6

4/6

3/6

2/6

1/6

1 2 3 4 5 6

3. La puntuación esperada (esperanza de la variable).

1 1 1 1 1 1
E  ξLA
∑ xi P ξ
xi D
1
6
 2
6
 3  4  5  6
6 6 6 6

3 5
i

Problema3 En un grupo de 50 alumnos el número de estudiantes que resuelve los problemas


propuestos en clase un día cualquiera es una variable aleatoria con la siguiente probabilidad:

kx x
1  2 .>?>?>? 20
P ξ
x Fr
5k x
21  22 .>?>?>? 50
Calcula:

El valor de k para que la función anterior sea efectivamente una ley de probabilidad.
i 1 P ξ
xi :
1
Tiene que cumplir que ∑50
∑20
i 1 k xi  ∑i 21 5k
1
50
H k ∑20
i 1 xi  5k ∑i 21 1
50

1 H 210 k  5k 30
1 H 360 k

1
1 H k
360
0  0028

La probabilidad de que un día resuelvan los problemas propuestos más de 20 alumnos


( Y 20). (Ver fotocopias de problemas).

Cuál es la probabilidad de que lo resuelvan como mucho 5. Y la de que lo resuelvan más


de 15 y menos de 25. (Ver fotocopias de problemas).
3 de examen

40
Problema4 Se lanza una moneda tres veces y se considera la variable aleatoria ξ al número de
caras obtenidas, se pide:
(Ver fotocopias de problemas).

Distribución de probabilidad de la variable aleatoria.

Número de caras esperado.

Varianza y función característica.

Probabilidad de que salga cara la primera vez si se sabe que la variable aleatoria toma el
valor 2 (ξ
2).

Esperanza y varianza a partir de la función característica.

4.2.5. Momentos respecto a la esperanza


4.2.5.1. Varianza. Propiedades

4.2.5.2. Desviación Típica

4.2.6. Función característica. Propiedades


4.2.7. Algunas distribuciones discretas
4.2.7.1. Distribución de Bernoulli B p 

Se usa para representar fenómenos en los que sólamente se pueden dar dos sucesos incom-
patibles.
ξ
1 P ξ
1 [
p
ξ
0 P ξ
0 [
q

Función de masa Representa la probabilidad en los puntos.

h i p x
1
f x [
P ξ
x D
f q x
0
0 resto

Esperanza E ξ :
1 p  0 q
p
E ξ :
p

Varianza V ξ D
α2  α21
p  p2
p 1  p
Como 1  p
q  V ξ :
p q
4 de examen

41
ϕξ t \
E s eit ξt
Función Característica
∑ j eit j P ξ
x j Z
ei t 1 P ξ
1 V ei t 0 P ξ

0 D
ei t
p q
ϕξ
ei t p  q

4.2.7.2. Distribución Binomial B n  p 

Seguirá una distribución binomial si el resultado de sumar n variables independientes entre


sí donde cada una se distribuye como una Bernoulli de parámetro p.
ξ u B n  p
ξ
∑ni 1 ξi independientes
ξ
ξ1  ξ2 B-.-.-. ξn
En definitiva, una distribución binomial puede ser considerada como una distribución de
Bernoulli que se repite n veces.

Función de masa Representa la probabilidad en los puntos.


n px qn  x x
0  1  2 .>?>? n
f x b
P ξ
x D
r
x
0 resto

Esperanza E ξ I
E  ξ1  ξ2 v-.-.-M ξn LN
E ξ1 q E ξ2 qv-.-.-M E ξn F
p  p v-.-.-w p
n p
E ξ :
np

Varianza V ξ E
V  ξ1  ξ2 &-.-.-x ξn Lb
(por ser independientes)
V ξ1 = V ξ2 =y-.-.-x
V ξn D
p q  p q z-.-.-. p q
n p q
V ξ :
n p q

 
Función Característica ϕξ t I
E s ei t ξt E s ei t ξ1  ξ2 K{ { {  ξn  t
ei t ξ1  ξ2 I{ { {  ξn  ei t ξ1





e i t ξ2 z-.-.-| e i t ξn
ϕξ
ei t p  q  n

4.2.7.3. Distribución de Poisson P λ 

Sólo dependerá de un parámetro λ que será siempre positivo.


Mediante esta distribución se representa el número de veces que se presenta un fenómeno en
un intervalo de tiempo o en una región del espacio.

Función de masa Representa la probabilidad en los puntos.

e λ λx
x# 0
f x [
P ξ
x D
~} x!
0 resto

Esperanza E ξ :
λ

42
Varianza V ξ :
λ

ϕ ξ
eλ ei t
Función Característica  1

Problema En un laboratorio se comprobó que la utilización de un producto mejoraba el 80 %


de las reacciones químicas de cierto tipo. Si se utiliza dicho producto en 8 reacciones de ese tipo,
calcular:

La probabilidad de que mejoren 5.

La probabilidad de que mejoren al menos 3.

El número de reacciones que se espera que mejoren.

ξi
1 P ξ
1 D
0  8 si mejora
ξi
0 P ξ
0 D
0  2 si no mejora

Se trata de una distribución de Bernoulli B p  donde p


0  8
Como son dos sucesos independientes, ξ
∑8i 1 ξi
ξ u B 8  0  8

8!
P ξ
5 D
0  85 0  23
0  15
5! 3!
P ξ
0 D
8!
0! 8! 0  80 0  28
0  28 =
P ξ
1 D
8!
1! 7! 0  81 0  27

P ξ
2 D
8!
2! 6! 0  82 0  26

Pξ #
3 D
1  P ξ
0 F P ξ
1 O P ξ
2 D
0  998

1
Problema Suponiendo que la probabilidad del nacimiento de un chico es 2, determinar la
probabilidad de que un una familia con cinco niños:

al menos uno sea niño

de obtener 1 ó 2 niñas

todos sean niños

43
Nos encontramos con una distribución binomial.
ξi
1 P ξ
1 D
0  8 si mejora
ξi
0 P ξ
0 D
0  2 si no mejora
ξ
∑5i 1 ξi
ξ u B 5  0  5

P ξ
0 D

P ξ
3 D

P ξ
4 D

P ξ
5 D

Pξ # 1 D
1  P ξ
0 D

P ξ
4 J P ξ
3 :

P ξ
5 D

Problema El número de automóviles que llega a una gasolinera es de 210 por hora. Si dicha
estación de servicio puede atender un máximo de 10 automóviles por minuto, determinar la
probabilidad de que en un minuto dado lleguen más de los que se pueden atender.
Nos encontramos con una Poisson, ello lo podemos deducir viendo que nos encontramos
ante una variable discreta que es coche. Además las distribuciones de Poisson hacen referencia
a intervalos de tiempo como es el caso.
λ
210
60
3  5
P λ :
P 3  5 
P ξ 10 
P ξ
0 V P ξ
1 V P ξ
2 V P ξ
3 V P ξ
4 V P ξ
5 V P ξ

6 J P ξ
7 A P ξ
8 A P ξ
9 J P ξ
10 [

P ξ
0 D

P ξ
1 D

P ξ
2 D

P ξ
3 D

P ξ
4 D

P ξ
5 D

P ξ
6 D

P ξ
7 D

P ξ
8 D

P ξ
9 D

P ξ
10 D

Pξ Y 10 D
1  P ξ 10 [€ 0  02

44
Problema Aún estando sometidas a control diario los componentes electrónicos suministrados
por una importante empresa, se estima que la probabilidad de que en un día sean vendidos r
r
artículos defectuosos es 32  13  si r
0  1  2  3 .>?>?> determinar la probabilidad de que en un día
sean vendidos:

Dos o más defectuosos.


Pξ #
2 D
1  P ξ
1 O P ξ
0 D
1  2 1
3 3  1 D
1
9
0  111

5 artículos defectuosos.
P ξ
5 D
2 1 5
3 3
0  0027

Tres o menos artículos defectuosos.


Pξ 3 D
P ξ
0 J P ξ
1 A P ξ
2 A P ξ
3 D
2
3 1 1
3 
1
9 
1
27 [

Problema Con el fin de estimar la posible ausencia de alumnos en horas clase en la asignatura
de Estadística se analiza el número de dñias soleados en una semana lectiva (5 días) de prima-
vera. Para ello se han examinado los datos meteorológicos de 1000 semanas primaverales del
último siglo obteniendo la siguiente tabla:

días soleados 0 1 2 3 4 5
Frecuencia (semanas 38 144 342 287 164 25

Se pide ajustar una distribución binomial a los datos anteriores.

BINOMIAL ξ u B 5  p 

x
0 4 38  1 4 44  2 4 342  3 4 287  4 4 164  5 4 25
1000
2  47
E  ξLJ
n p H p
2  47
5
0  494

Problema Se ha observado un telar durante cierto tiempo anotando el número de roturas por
cada 10000 pasadas de lanzadera y se ha obtenido lo siguiente:

no de roturas 0 1 2 3 4 5 6
Frecuencia 40 48 39 16 5 1 1

Ajustar una ley de Poisson y calcular las probabilidades del número de roturas.
P ξ
0 D
0  254
P ξ
1 D
0  348
P ξ
2 D
0  238
P ξ
3 D
0  108
P ξ
4 D
0  037
P ξ
5 D
0  010
P ξ
6 D
0  0023

45
Problema En una determinada zona geogafica se pretende introducir un nuevo producto del
que es razonable esperar sea demandado por el 0,4 % de los habitantes de dicha zona. Determinar
la probabilidad de que consultados 1000 de estos dicho producto sea demandado por:

tres o más.

cinco o menos

ξi
1 P ξ
1 D
0  004 si se demanda el producto
ξi
0 P ξ
0 D
0  996 si no se demanda el producto
ξ u B n  p I
B 1000  0  004  es binomial porque se da para 1000, es decir, se repite 1000
veces, por ello n
1000.

P ξ # 3 D
1  P ξ
0 O P ξ
1 F P ξ
2 D
0  7619

P ξ 5 [
P ξ
0 A P ξ
1 A P ξ
2 A P ξ
3 J P ξ
4 A P ξ
5 [
0  7852

P ξ
x D
nx  0  004x 0  996n  x
x!  nn! x  ! 0  004x 0  996n  x
0!1000! x
1000! 0  004 0  996
n x

Como nos encontramos en el caso de que prácticamente n ∞ y p 0 aproximamos con


una Poisson en la que λ
n p
1000 0  004
4  por tanto:
 λ x 3
P ξ
x D
e x! λ calculamos ahora las probabilidades para cada uno de los casos que nos
interesan.
 4 0
P ξ
0 D
e 0!4
0  0183
 4 1
P ξ
1 D
e 1!4
0  0773
 4 2
P ξ
2 D
e 2!4
0  1465
 4 3
P ξ
3 D
e 3!4
0  1954
 4 4
P ξ
4 D
e 4!4
0  1954

Si nos encontramos ante una distribución binomial en la que n ∞y p 0 aproximamos


con una Poisson P λ  en la que λ
n p

Problema En una población los individuos con renta superior a 12000 EUR es de 0.005 %,
determinar la probabilidad de que entre 5000 individuos consultados haya dos con ese nivel de
renta.

ξi
1 P ξ
1 D
0  005 si la renta es mayor a 12000 EUR.
ξi
0 P ξ
0 D
0  996 si la renta es menor a 12000 EUR.
ξ u B n  p F
B 5000  0  005  es binomial porque se hace un muestreo entre 5000, es decir,
se repite 5000 veces, por ello n
5000.
Como nos encontramos en el caso de que prácticamente n ∞ y p 0 aproximamos con
una Poisson en la que λ
n p
5000 0  005
0  25  por tanto:
3

46
e 0  25 0  252
P ξ
2 D

0  02433
2!

Problema Dada una variable ξ cuya distribución de probabilidad viene dada por:
3 q
 x
0 1 2 3 4
P ξ
x K} 2 x! 4  x  !
0 resto

Determinar:

La función de distribución de la variable.

P ξ
3 ; P 1 ξ 2  5 ; P ξ 2  5

F x D
P ξ x D
∑Pξ
xi 
xi  x

P ξ
0 D
3
2
1
0! 4!

3
48
P ξ
1 D
3
2
1
1! 3!

3
12
P ξ
2 D
3
2
1
2! 2!

3
8
P ξ
3 D
3
2
1
3! 1!

3
12
P ξ
4 D
3
2
1
4! 0!

3
48

ξ
x 0 1 2 3 4
P ξ
x 3
48
3
12
3
8
3
12
3
48

T0 T1 T2 T3 T4 T5

0 1 2 3 4

T0: x e 0
H F x b
0
T1: 0 xe 1
H F x D
P ξ
3
0 D
48
T2: 1 xe 2
H F x D
P ξ
0 A P ξ
1 [
15
48
T3: 2 xe 3
H F x D
P ξ
0 A P ξ
1 A P ξ
2 D
33
48
T4: 3 xe 4
H F x D
P ξ
0 A P ξ
1 A P ξ
2 J P ξ
3 D
45
48
T5: x # 2
H F x b
P ξ
0 A P ξ
1 A P ξ
2 J P ξ
3 A P ξ
4 D
1

47
F 2  5 [
P ξ
0 A P ξ
1 A P ξ
2 [
33
48
F 1 b
P ξ
0 J P ξ
1 D
15 48

3 1 3
P ξ
3 D

2 3! 1! 12

33 15 3 6
P1 ξ 2  5 D
F 2  5 F F 1 J P ξ
1 D
 

48 48 12 48

33
Pξ 2  5 D
P ξ
0 A P ξ
1 A P ξ
2 D

48

48
Índice alfabético

Amplitud del Intervalo, 9 Nube de Puntos, 20

Bayes, 32 Polígono de Frecuencias, 10


Probabilidad a posteriori, 32
Coeficiente de Correlación Lineal, 23 Probabilidad a priori, 32
Coeficiente de Determinación, 24 probabilidad acumulada, 35
Coeficiente de Variación de Pearson, 16
covarianza, 22 Recorrido, 15
Cuantiles, 13 Recorrido Intercuantílico, 15
Regresión, 23
Desviación Típica, 16 Relación, 23
Diagrama de Barras, 9
Diagrama de Frecuencias Acumuladas, 9 suceso, 26
Distribuciones Condicionadas, 21
Distribuciones Marginales, 21 Tabla de Contingencia, 20
Tabla de Doble Entrada, 20
Espacio Muestral, 26
esperanza matemática, 38 Unión, 27
estadística, 6
Estadística Descriptiva, 6 variable aleatoria, 35
Variable Tipificada, 16
fenómeno, 26 Variables contínuas, 7, 36
Frecuencia Absoluta, 7 variables cualitativas, 6
Frecuencia Relativa, 7 variables cuantitativas, 6
frecuencia relativa, 29 Variables discretas, 7, 36
Función de Cuantía, 36 Variables Estadísticas Bidimensionales, 20
Función de distribución, 35, 37 Varianza, 15, 18, 22
Función de Masa, 36

Histograma, 9

Intersección, 27

Leyes de De Morgan, 27

Marca de Clase, 9
Media, 10
Mediana, 11
Moda, 13
Momentos, 17, 22, 38

49

También podría gustarte