Está en la página 1de 61

ESTADÍSTICA ACTUARIAL NO VIDA

ecosdelaeconomia.wordpress.com
ÍNDICE

Introducción

1. Los modelos de probabilidad específicos


1.0 Conceptos básicos de estadística
1.1 Modelos discretos
Distribución de Bernoulli
Distribución Binomial
Distribución de Poisson
Distribucción Binomial Negativa
Distribución con contagio
Ejemplos
1.2 Modelos continuos
Distribución uniforme
Distribución Normal
Distribución log-normal
Distribución Pareto
Distribución Gamma
Distribución Beta
Distribución Exponencial
Ejemplos
1.3 Convergencia y teoremas sobre límites
1.4 Introducción a los procesos estocásticos

2. Teoría del riesgo y de la ruina


2.1 Procesos del número de siniestros: Proceso de Poisson
2.2 Procesos del daño total: procesos compuestos de Poisson
2.2.1 Teoría y ejemplos del cálculo de reservas, parámetros, prima y prob. de insolvencia
2.3 Aproximaciones a la distribución del daño total
2.3.1 Recurrencia de Panjer: ejemplos en Poisson, Bin., Bin.negativa y geométrica
2.4 Teoría de la ruina

3. Inferencia aplicada
3.1 Métodos de estimación
3.2 Contrastación no paramétrica (Chi², K-S, S-W)
3.3 Estimación de los parámetros del riesgo total
3.4 Métodos de aproximación en la estimación

4. Simulación
4.1 El método de Montecarlo
4.2 Aplicaciones a las distribuciones del Riesgo
4.3 Obtención empírica de la siniestralidad

ecosdelaeconomia.wordpress.com
INTRODUCCIÓN

El objetivo de la asignatura es resolver

Donde S representa la cuantía total que debe afrontar una aseguradora como suma de un número N de
siniestros, de cuantía Xi cada uno. Es decir, la suma de cada siniestro nos da el importe total en euros que
deberá desembolsar una compañía de seguros. De esta forma existen 2 variables aleatorias:
1. El numero N de siniestros
2. La cuantía X de cada uno de estos siniestros.

Conceptos básicos de estadística:

¿Qué es una variable aleatoria?

Es una función que transforma la aleatoriedad en un número.

¿Qué es una función de distribución, o función de distribución de probabilidad?

Es una función que a cada número real x le da la probabilidad de que la variable aleatoria tome valores
inferiores o iguales a x. Es decir, representa la probabilidad acumulada de -∞ a ∞.

¿Qué es una función de cuantía o función de densidad?

Es la probabilidad exacta de que la variable X sea un valor determinado. Para variables discretas se habla de
función de cuantía y es posible calcularlo, por ejemplo; probabilidad de tener 2 siniestros (N=2). Para las
variables continuas se habla de función de densidad, y es imposible calcular la probabilidad de un valor
exacto (dado que es continuo e infinitamente exacto), pero sí es posible determinar la probabilidad dentro
de un rango, por ejemplo probabilidad de que la cuantía de un siniestro esté entre 100 y 110 €.

Se obtiene derivando la función de distribución:

ecosdelaeconomia.wordpress.com
¿Qué es la esperanza matemática?

Representa el valor medio esperado de una variable aleatoria, y se representa como la suma de cada valor x
por su probabilidad de ocurrencia:

Si es una variable discreta;

Si es una variable continua

Las propiedades de la esperanza,


 la esperanza de la cartera de Barcelona y Baleares es igual a la suma de la
esperanza de la suma de ambas.
 la esperanza de una cartera sujeta a una divisa

¿Qué es la varianza?

Es una medida de dispersión, elevada al cuadrado para evitar compensación de valores por encima y por
debajo de la media, y también para magnificar los valores más alejados.

Las propiedades de la esperanza,

¿Qué es una función generatriz?

Es una transformación que permite condensar en una función todos los valores de una secuencia. Es una
cuerda de la ropa en la que tendemos una sucesión de números para exhibirla. Y permite hallar las
probabilidades y momentos de una variable aleatoria.

¿Qué son los momentos de una variable aleatoria?

Son valores que relacionándose permiten estudiar una distribución, indica su punto medio, su dispersión, su
asimetría y su altura.
El primer momento es el valor central =
El segundo momento es la varianza
El tercer momento es la asimetría o sesgo.
El cuarto momento es la ‘puntiagudez’ o curtosis.

Propiedades de las funciones de distribución de probabilidad

Es continua por la derecha y monótona no decreciente.

Cuando estamos con variable discretas la función de distribución es del estilo

ecosdelaeconomia.wordpress.com
Y sucede en distribuciones binomiales, binomiales negativas, bernoulli, Poisson, geométrica, etc.

Cuando estamos con variables continuas la función de distribución es

Y sucede en las distribuciones normal, ji cuadrado, t student, exponencial, etc.

¿Qué es la distribución de Bernoulli?

Sirve para sucesos dicotómicos; (sucede / no sucede). Como lanzar una moneda al aire, o vivir/morir. La
probabilidad de éxito es “A” y tiene una probabilidad “p”, y la de fracaso es A’ y tiene una probabilidad
complementaria 1-p.
En esta distribución la media y varianza de los éxitos será;

¿Qué es la distribución binomial?

Cuenta el número de veces que sucede un éxito en una serie de n experimentos con la misma probabilidad p.

siendo

Si x es una variable aleatoria con distribución binomial, su

¿Qué es la distribución binomial negativa?

Cuenta el número de experimentos necesarios para que suceda el m-ésimo éxito.

Donde,

¿Qué es la distribución de Poisson?

Se trata de una distribución que mide el número de veces que sucede un fenómeno. Lo que supone es que
ante un experimento (número de accidentes en las carreteras, emisión de fotones de una partícula)
tendremos una que será el número de veces que se da el suceso en un intervalo de tiempo (2
accidentes/hora). Su ley de probabilidad es;

Y tiene como media y varianza;

ecosdelaeconomia.wordpress.com
Debe cumplir que sería posible fraccionar el tiempo hasta unidades temporales donde sólo se da 1 suceso, y
con la probabilidad de que sucedan 2 o más sucesos = 0 en este mínimo intervalo temporal, y que sean
independientes entre estas fracciones mínimas temporales.
Cumplido esta condición, la puede ser un número no entero > 0

ecosdelaeconomia.wordpress.com
TEMA 1. MODELOS DE PROBABILIDAD ESPECÍFICOS

1.0 definición de probabilidad y conceptos de estadística

0.
La probabilidad

Ley de los grandes números de Bernouilli: Un experimento aleatorio se caracteriza porque, repetido muchas
veces y en idénticas condiciones, el cociente entre el número de veces que aparece un resultado (suceso) y el
número total de veces que se realiza el experimento tiende a un número fijo.

Definición axiomática de la probabilidad por Kolgomorov: Consideró que esta frecuencia relativa de un
suceso está en relación directa con su probabilidad de ocurrencia. De forma que se puede extrapolar que,
para un solo experimento, la probabilidad de que ocurra el suceso es igual a la frecuencia relativa observada
después de haber repetido el experimento muchísimas veces.
Además, la probabilidad del suceso (a) será complementario a la probabilidad de no-suceso .

Este último se lee como “la probabilidad de que suceda “a” o que no suceda “a”, es igual al todo”.

La probabilidad de que suceda “a” o “b” es la suma de probabilidades:

La probabilidad de que suceda “a” y “b” es el producto de probabilidades:

La probabilidad de que suceda “a” condicionado a que haya sucedido “b” es:

Parámetros estadísticos

El parámetro estadístico es un número, obtenido a partir de datos de la población, que resume el conjunto de
datos que contiene una variable aleatoria. Su función es crear un modelo de la realidad. Por ejemplo, la media
aritmética. Este parámetro se analizará para ver si se ajusta al modelo ideal, se estimará, o se descartará en
busca de parámetros más fiables.
En su acepción matemáticamente más pura, un parámetro es una variable que define una familia de objetos
matemáticos en determinados modelos. Como la distribución normal con parámetros media y desviación
estandar, N(μ, σ), o en Poisson su parámetro λ, o la Binomial con n, y p.

Las propiedades de un parámetro estadístico son:


1. Que se defina de manera objetiva, sin ambigüedades.
2. Es capaz de concebir todas las observaciones, sin dejar valores fuera de su marco.

ecosdelaeconomia.wordpress.com
3. Es interpretable, y tiene un significado claro.
4. Es poco sensible a las fluctuaciones muestrales.

Medidas de posición: Son parámetros que indican los valores en determinados puntos de la distribución,
como medias, modas y mediana respecto la tendencia central, o los cuantiles.
Medidas de dispersión: son parámetros que resumen la heterogeneidad de los datos, varianza o desviación
estandar, coeficientes de variación.
Medidas de forma: dan valores a la asimetría y curtosis de la distribución.

Los momentos

Son una generalización de los parámetros estadísticos. Son valores obtenidos a partir de todos los datos de
una variable estadística y sus frecuencias absolutas, centrados respecto a la media observada. Como yo lo
entiendo: a partir de unos datos observados en realidad sólo se pueden encontrar dos cosas: cuál es la
media, y cuál es la dispersión de los datos alrededor de la media.

El momento ordinario de orden k se obtiene como

El momento central de orden k se obtiene como

Demostración de que la media es = momento ordinario de orden 1 y su momento central es = 0.

La interpretación que yo le doy es que los momentos ordinarios son una medida de los valores observados
(potenciados k veces) y los momentos centrales es una relación entre estas medidas y el centro; la media.
Son valores abstractos, pero que combinados ofrecen una perspectiva de la distribución de la variable.

Demostración de la varianza; primero es necesario encontrar el momento ordinario de orden 2, y luego


combinarlos en el momento central de orden 2,

Se puede demostrar que

Y, lo que ya se ha dicho, siempre en cada caso es fácil calcular el valor del momento ordinario k como

ecosdelaeconomia.wordpress.com
La asimetría se obtiene como

La curtosis se obtiene como

Ejemplo:
La variable N tiene función de distribución F(x)=

0 x<0
0,5 0≤x<1
0,75 1≤x<2
0,87 2≤x<3
0,95 3≤x<4
1 x≥4

Como la función de distribución son las probabilidades acumuladas, y N es una variable discreta,

P(N=0) 0,5
P(N=1) 0,25
P(N=2) 0,12
P(N=3) 0,08
P(N=4) 0,05

Momento ordinario de orden 1, o media,

Para encontrar la varianza será necesario encontrar el momento ordinario de orden 2,

La asimetría

La curtosis

ecosdelaeconomia.wordpress.com
Pleno de retención

Importe a partir del cual los siniestros de una cartera los asume una empresa de reaseguro. Por ejemplo: se
contrata un reaseguro con pleno de retención en 1200 euros. A partir de este importe, los siniestros se los
queda la empresa reasegurado.

Franquicia

Importe por debajo del cual los siniestros los asume otra compañía. Por ejemplo: se contrata una franquicia
de 1200 euros. Otra compañía se hace cargo de hasta los 1200, y los importes por encima de 1200 los afronta
nuestra aseguradora.

Variable aleatoria mixta

Sea X la v.a. pérdida de un asegurador, cuando existe un deducible “d” y un beneficio límite de M:

Es decir, no existe pérdida siempre que el coste del siniestro sea inferior al deducible (p.ej. tienes un
siniestro de 40 pero siempre se deducen 50, por lo que no estás en pérdidas).
Existen unas pérdidas entre el valor máximo deducible (50) y un tope de beneficio límite, p.ej 100, de forma
que si se da precisamente un siniestro de 100, el valor de la pérdida será de 100-50= 50.
A partir del valor M, la pérdida para el asegurador será siempre un máximo de M, p.ej., si se da un siniestro
de 150, el coste para el asegurador será 150-50 = 100.

La función de distribución en este caso será

Es decir, valores negativos de pérdida no existen; probabilidad de ocurrencia cero, valores superiores a M
menos el descuento son el máximo, lo que queda por lo tanto es la distribución de la probabilidad de coste
entre cero y el límite superior M-d.

La función de densidad será

Donde el límite inferior es el valor discreto de la probabilidad de que el coste sea = d. El límite superior es el
valor discreto de que la probabilidad del coste sea = M. Entre ambas, existe una función de probabilidad
continua.

ecosdelaeconomia.wordpress.com
Transformación de una variable aleatoria

Ejemplo:

Dada la función , cuál es la transformación si


a) Y=5+x
b) Y=log(x)

1º hay que verificar la monotonía de las funciones Y;


a)

b)

2º Se invierte la función Y; en lugar de Y igual a X, se invierte a X igual a Y;


a)

b)

3º Una vez demostrada la monotonía e invertida la función ya sólo queda

a)

b)

ecosdelaeconomia.wordpress.com
1.1 modelos discretos

1.
Distribución de Bernoulli

Esta distribución X∼Be(p) es la base para luego construir la distribución Binomial. La distribución de
Bernoulli es aquella distribución donde la variable aleatoria sólo puede tomar 2 resultados mutuamente
excluyentes; éxito (A) o fracaso (A’). El espacio muestral W sólo está constituido por estas dos posibilidades
, donde A tiene una probabilidad de ocurrencia = p, y A’ tiene una probabilidad q=1-p. El
ejemplo clásico es el ensayo de lanzar una moneda al aire: la posibilidad de éxito excluye el fracaso; sucede
uno u otro. Y la suma de ambas probabilidades es = 1, no hay espacio para nada más. La distribución de
Bernoulli sirve para encontrar la probabilidad de éxito al realizar un ensayo. Volviendo a la generalidad:
La función de densidad de Bernoulli se resume,

Y su función de distribución es,

La esperanza matemática es,

La varianza matemática es,

Ejemplo:
Un comercial coloca un seguro el 30% de las veces que sale a la caza de clientes. Modelizar la variable
aleatoria “venta” según una distribución de Bernoulli. ¿Cuál será la probabilidad de vender 1 seguro?

La función de densidad será,

La media o valor esperado será,

Y la varianza será,

La probabilidad de que al hacer un intento de venta, consiga vender el seguro será

ecosdelaeconomia.wordpress.com
2.
Distribución Binomial

Se conoce como X∼B(n,p), donde n es el número de repeticiones del experimento y p es la probabilidad de


éxito. La distribución Binomial consiste en la repetición de n ensayos de Bernoulli independientes y en las
mismas condiciones. Si antes Bernoulli nos daba la probabilidad de éxito para un ensayo, ahora la Binomial
nos informa de la probabilidad de k éxitos al realizarse n ensayos. En cada prueba existe la probabilidad p de
éxito (A), y la probabilidad q=1-p de fracaso (A’).
a) Así, A sucederá k veces, y A’ sucederá n-k veces, es decir,

b) Todos los sucesos elementales posibles, independientes, son al final y al cabo permutaciones con
repetición de n elementos de los cuales k son del tipo A, y n-k son A’, el número de permutaciones es:

Una vez se tiene la probabilidad de que suceda k, y el número de permutaciones, ya se puede calcular la
probabilidad de que se den k éxitos con n ensayos:

Si no vamos a los extremos, la probabilidad de que en n ensayos no haya ningún éxito será,

y la probabilidad de que en n ensayos haya n éxitos,

Por ejemplo, tiras una moneda 100 veces y esperas la probabilidad de que no salga ni una cara:

y la probabilidad de que salgan 100 caras,

Ya se puede deducir también que la probabilidad de, por ejemplo, un solo éxito es

así como la probabilidad de un solo fracaso,

En definitiva, la probabilidad de que sucedan x éxitos será,

Las condiciones de la función de distribución Binomial son


1. valores siempre positivos
2. la suma de todo debe ser igual a 1.

La segunda condición se demuestra porque si entonces


Ya que recoge todas las n permutaciones:

ecosdelaeconomia.wordpress.com
La distribución Binomial es simétrica cuando las probabilidades de éxito y fracaso son iguales (0,5, como al
tirar la moneda al aire). Si existe una mayor probabilidad de éxito (p>0,5) entonces la distribución es
asimétrica y su media se encuentra a la derecha del centro (si es que colocamos un eje de coordenadas
básico con el 0 -fracaso- en origen y el 1 -éxito- a la derecha).
Si es al revés y existe una mayor probabilidad de fracaso (q>0,5) entonces la asimetría es por la izquierda
porque el máximo de la distribución se encuentra a la izquierda del centro.

La función de distribución de la Binomial es

Una buena herramienta de cara a aquellas preguntas puñeteras del estilo, si la probabilidad de X=k es tal,
cuál es la probabilidad de X=k+1? , es la relación entre los coeficientes binomiales de k y k+1 para el mismo
número de ensayos, es decir, se puede demostrar que,

Ya que,

Por lo tanto,

La esperanza matemática será, según la propiedad de que la esperanza de una suma es la suma de
esperanzas;

La varianza será,

La varianza será máxima cuando p=q=0,5

ecosdelaeconomia.wordpress.com
Ejemplo:

Un comercial coloca un seguro el 30% de las veces que sale a la caza de clientes. ¿Cuál es la probabilidad de
que en las 10 próximas visitas realice al menos una venta?

Suponiendo que cada visita se puede considerar como una variable aleatoria de Bernoulli con p=0,3
entonces la variable X número de ventas en 10 visitas será
B(n=10, p=0,3)

Con una función de densidad

Entonces, la probabilidad de obtener al menos una venta en las próximas diez visitas será

3.
La distribución de Poisson

La distribución de Poisson X∼P(λ) aparece como límite de la distribución Binomial cuando el número de
ensayos es grande ( n > 30) y la probabilidad de éxito pequeña ( p < 0,1), o bien n·p > 5. Por extensión de
estas dos condiciones, también se relaciona con la probabilidad de que ocurra un suceso en un intervalo de
tiempo o en un espacio determinado; número de errores por página en una imprenta, número de accidentes
por día, número de estrellas en un volumen de espacio,…

Desarrollando la Binomial cuando el límite tiende a infinito se llegaría a la función de densidad de la Poisson,

Siempre que,
para todo k positivo
también positivo
se cumplirá que f(k) es una función de densidad entre 0 y 1. Y la suma de todo f(k) = 1

ecosdelaeconomia.wordpress.com
k será el número de sucesos que pueden ocurrir sujetos a una probabilidad, y λ será el parámetro de la
distribución de Poisson, que se puede entender como el número medio de sucesos por unidad de espacio o
tiempo. Y se expresa que la variable X sigue una distribución de Poisson de parámetro lambda;

La esperanza matemática, coincide con el parámetro lambda

Y la varianza también será,

Otra propiedad de la distribución de Poisson es que si son variables aleatorias de Poisson


independientes de parametros , se cumplirá que la suma de variables sigue una distribución de
parámetro lambda igual a la suma de parámetros.

Ejemplo:

Si se tienen una cartera de 10.000 pólizas, y el siniestro que cubren sucede 1 vez cada 1000 con un coste por
siniestro de 5000 euros,
a) probabilidad de que ocurran menos de 2 siniestros.
b) probabilidad que ocurran al menos 3 siniestros
c) esperanza matemática de la indemnización

a)
La variable aleatoria X “número de siniestros” sigue una distribución Binomial n=10.000 y probabilidad p=
0,001. Como n es grande y p pequeña, se puede aproximar por la Poisson, donde el parámetro λ será = n*p

Por lo tanto es una distribución de media 10, y varianza 10.

La probabilidad de que X sea inferior a dos será

b) Mediante complementarios:

ecosdelaeconomia.wordpress.com
c) La esperanza de la indemnización será,

4.
La distribución Binomial Negativa

X∼BN(n,m,p) Dentro de procesos dicotómicos, se puede tener como objetivo calcular el número de
exposiciones al riesgo necesario para que tenga lugar m siniestros.
Esto significa que habrá sucedido m-1 siniestros durante n-1 veces. Y que exactamente en la exposición
número n, sucede el m-ésimo siniestro.

Más fácil de ver en ejemplos;


Si se sabe que se venden 3 seguros cada 10 intentos de venta, se puede calcular cuál es la probabilidad de
a) que al cabo de 9 intentos se hayan vendido 2 seguros.
b) que al cabo de 10 intentos se hayan vendido 3 seguros.
c) que al cabo de 11 intentos se hayan vendido … etc.

O por ejemplo, si nos dedicamos a tirar una moneda al aire, cuál es la probabilidad de que al décimo
lanzamiento nos salga la quinta cara. Esto obliga a que en las nueve tiradas anteriores hayan salido 4 caras y
5 cruces, y que exactamente en la 10 tirada salga al 5ª cara. n=10 y m=5

Por lo tanto, esta probabilidad será =


y como se ve, los exponentes suman las n-1 exposiciones al riesgo y se está añadiendo la probabilidad de que
la n-ésima exposición sea el resultado buscado. Se pueden sumar los exponentes y reducir la expresión a

Pero también hay que añadirle el número de permutaciones de estos éxitos y fracasos, esto es: la cantidad de
veces que se dan ese número de éxitos y fracasos pero en cualquier orden. Finalmente, la probabilidad que
estamos buscando será exactamente una de ésas permutaciones de las n-1 exposiciones previas de forma
que justamente en la última exposición sucede el último éxito:

La expresión de la distribución Binomial Negativa es: X~BN(m, p)


Donde “m” es el m-ésimo éxito esperado, y “p” la probabilidad de dicho éxito.

La función de distribución será,

La esperanza matemática será,

ecosdelaeconomia.wordpress.com
La varianza será,

Ejemplo:

Si se venden 3 seguros cada 10 intentos de venta, cuál es la probabilidad de que en el intento número 100 se
consiga la venta número 30?

m= 30, el número de ventas objetivo


n= 100, momento en el que se espera obtener esa venta número 30.

Existe un 2,6% de probabilidades de que en el intento de venta número 100, llegue la 30 venta..

La Binomial Negativa es una alternativa al modelo de Poisson cuando la frecuencia de ocurrencia del suceso
no es constante. Suponiendo que una cartera N siga una distribución de Poisson de media λ, y que a su vez
esta media λ muestra la variabilidad de la cartera representada con una función de densidad continua (por
ejemplo del tipo Gamma, de parámetros α y ϴ), entonces la distribución de accidentes seguirá una
distribución Binomial Negativa para un número de sucesos α y probabilidad p=1/(1+ϴ).

Recurrencia para el cálculo de probabilidades en una Binomial Negativa

A partir de la Binomial Negativa se pueden llegar a dos distribuciones muy útiles.


Por un lado, averiguar la probabilidad de que en m+k exposiciones al riesgo hayan ocurrido exactamente k
fracasos

Se puede desarrollar la expresión anterior para llegar a una distribución aún mucho más interesante:

5.
Proceso de Polya-Eggenberger

Consiste en una distribución de probabilidad que tiene en cuenta el efecto de contagio de la ocurrencia. A
medida que sucede el siniestro “contagia” al resto de exposiciones incrementando su ocurrencia.
Se nombra a “h” como el grado de heterogeneidad de las variables aleatorias, a mayor h, menos efecto
contagio. Y “μ” será el parámetro media.

ecosdelaeconomia.wordpress.com
donde

Por efecto de la recurrencia, se demuestra que

ecosdelaeconomia.wordpress.com
Ejemplos:

1.
¿Cuál es la probabilidad de obtener 3 caras si se tira una moneda al aire 5 veces?

Tirar una moneda al aire sigue una distribución de Bernouille, y cuantificar la probabilidad cuando se
realizan n exposiciones sigue una distribución Binomial, donde la variable aleatoria X es número de caras
X~B(n,p)
donde n= 5

2.
¿Cuál es la probabilidad de una Poisson truncada por la exclusión del valor 0, es decir, omitiendo el valor 0?

3.
Se tienen 2000 personas sometidas a un riesgo con probabilidad 0,001. Si existe independencia en la
ocurrencia del siniestro, ¿qué distribución de probabilidad le corresponde? ¿cuál será la media y la varianza?

Se define X como la variable aleatoria “número de siniestros”, que sigue una Binomial (n=2000 y p=0,001)
Por lo tanto, la variable X sigue una Poisson de parámetro lambda

4.
Se tienen 10.000 asegurados sometidos a un riesgo con probabilidad de ocurrencia del 0,005%. ¿Cuál es el
número medio de accidentes? ¿Cuál es la probabilidad de tener que afrontar el pago de más de 3 siniestros?

X se define como la variable aleatoria “número de accidentes” que sigue una Binomial (n=10.000 y
p=0,00005)

El número medio de accidentes será = 0,5

La probabilidad que P(X>3) será,

5.
En una fábrica el número de accidentes por semana sigue una Poisson de λ=2
a) ¿cuál es la probabilidad de que en una semana haya algún accidente?
b) ¿cuál es la probabilidad de que haya 4 accidentes en 2 semanas?

ecosdelaeconomia.wordpress.com
c) ¿cuál es la probabilidad de que haya 2 accidentes en 1 semana y 2 más la siguiente semana?
d) ¿cuál es la probabilidad de que en una semana que sí ha habido accidentes, no sean más de 3?

Se define X como la variable aleatoria “número de accidentes por semana”


X~P(λ=2)

a) probabilidad de que haya algún accidente supone el complementario a que no ocurra ninguno:

b) probabilidad de 4 accidentes al cabo de 2 semanas, suponiendo que existe independencia y la cantidad de


accidentes de una semana no afecta al número de accidentes de la siguiente, se puede definir ahora X como
la suma de accidentes de dos semanas; , y con parámetro λ igual a la suma de

c) la probabilidad de 2 accidentes una semana y 2 más la siguiente semana supone una intersección donde se
tiene que dar P(X=2) y P(X=2), que es igual a P(X=2)*P(X=2)

d) Es una probabilidad de P(X<3) pero condicionada a P(X>0),

6.
Un broker hace una media de 4 inversiones intradia y cobra 10 euros fijos por operación como comisión.
¿Cuál es la probabilidad de ganar más de 1000 euros al mes? Suponer que el número de inversiones diarias
sigue una distribución de Poisson y que hay 20 días laborales al mes.

Sea “X” el número de operaciones mensuales, que sigue una ley de Poisson de parámetro

Si

Por lo tanto

Una aproximación sería decir que para llegar a 100 operaciones, si hay 20 días laborales, esto supone 5
operaciones al día. Sea ahora “X” la variable aleatoria número de operaciones diarias, que sigue una

ecosdelaeconomia.wordpress.com
distribución de Poisson de parámetro λ=4. Se calcula la probabilidad de que hayan más de 5 operaciones al
día, a lo largo de 20 días, para conseguir superar la cifra de 1000 euros:

Y ahora, que esto se dé durante 20 días supone

7.
Un analista de bolsa contabiliza las veces que una acción cae más de 50 céntimos de euro respecto a la hora
anterior. Le sale una media de 0,5 veces a la semana.¿Cuál es el riesgo de que en una semana se produzcan
más de 2 caídas? ¿Cuál es la probabilidad de que en 3 semanas no haya ni una? Supongamos distribución de
Poisson.

Sea “X” la variable aleatoria número de caídas de 50 céntimos respecto la hora anterior, que sigue una
distribución de Poisson λ=0,5

Que no suceda nada durante 3 semanas quiere decir

O lo que es lo mismo, se puede suponer que tenemos una distribución de Poisson de λ=0,5·3=1,5 donde
ahora “X” es el número de caídas cada 3 semanas.

8.
Un actuario ha analizado unos datos de siniestralidad y concluye que la probabilidad de que un mismo
asegurado tenga dos siniestros en un año es cuatro veces la probabilidad de que tenga un siniestro en un
año. Sabiendo que el número de siniestros que sufre un asegurado en un año sigue una distribución de
Poisson. Determinad:
a) El número esperado de siniestros que sufre el asegurado en un año según la hipótesis de Poisson.
b) La probabilidad de que un asegurado tenga más de 3 accidentes en un año.
c) Si la ocurrencia de siniestros en un año y el siguiente es independiente. ¿Cúal es la probabilidad de que un
asegurado tenga al menos un accidente en dos años?

a)
Sea “X” la variable aleatoria número de siniestros en un año, que sigue una distribución de Poisson λ. Si,

ecosdelaeconomia.wordpress.com
b)

c) Se puede plantear como la probabilidad de que un año no haya suceso y al año siguiente haya un suceso.

Pero es más correcto decir que “X” es la variable aleatoria número de siniestros cada 2 años, que sigue una
distribución de Poisson de parámetro λ=8·2=16

9.
Una entidad ofrece a sus clientes preferentes (un total de 5000 clientes) una tarjeta de crédito. La
probabilidad de que se realice un uso fraudulento de la tarjeta es de un 0.003% al mes. En una operación
fraudulenta, la pérdida se considera fija e igual a 1350 euros.
a) Calculad la probabilidad de que no se produzca ningún uso fraudulento de la tarjeta durante un mes.
b) El coste anual por tarjeta emitida que tendrá una cobertura por uso fraudulento (coste esperado anual).
Se supone independencia entre un mes y el siguiente.

Sea “X” la variable aleatoria uso fraudulento de la tarjeta al mes. Que por tener una muestra grande y una
probabilidad de ocurrencia pequeña, sigue una distribución de Poisson de parámetro λ=5000·0,00003=0.15

a)Probabilidad de no suceso

b) Coste de la cobertura anual del uso fraudulento

que es la media de usos fraudulentos al año. Si se multiplica por el valor de la operación fraudulenta,

y si ahora se reparte entre la población de 5000 targetas,

0,49 céntimos por tarjeta cubrirían el valor del uso fraudulento anual.

ecosdelaeconomia.wordpress.com
1.2 modelos continuos

1
Distribución uniforme

Toda variable aleatoria se puede relacionar con una distribución uniforme en el intervalo (0,1). Supone que
la función de intensidad de probabilidad es constante, con lo cual la probabilidad de ocurrencia es constante
independientemente de la cantidad de exposiciones al riesgo. Su función de densidad es,

Para todo el intervalo (a,b) de distribución uniforme. Y cumple que,

La función de distribución dentro del intervalo será,

La esperanza matemática será,

Y la varianza,

Ejemplo:
El tiempo que una ambulancia tarda en acudir al lugar del accidente sigue una distribución uniforme entre 0
y 10 minutos. ¿Cuál es la probabilidad de que tarde más de 3 minutos? ¿Cuál es el tiempo medio de espera?

X es la variable aleatoria “tiempo de espera” que sigue una distribución U(0;10)

otro ejemplo:
El coste de los siniestros se distribuye uniformemente entre 0 y 10.000€
a) cuál es la media?
b) cuál es la media si se establece una franquicia de 1000€?
c) cuál es la media si se establece un límite de 9000€?
d) cuál es la media si b+c?

ecosdelaeconomia.wordpress.com
a)

b)

c)

d)

ecosdelaeconomia.wordpress.com
2.
La distribución Normal

Si se tiene n variables aleatorias independientes e igualmente distribuidas, por el Teorema Central del
Límite, cuando n tiende a infinito entonces X sigue una distribución Normal. También surge en otros casos
cuando los sumandos son dependientes entre sí. La característica fundamental es que en la distribución
Normal la media, mediana y moda coinciden, y separa en dos lados perfectamente simétricos la distribución,
además es el punto donde la densidad de probabilidad es máxima. Esta simetría supone que la densidad de
la probabilidad se puede medir en términos de media±desviación estandar. Su función de densidad es,

Y si X es una variable aleatoria que sigue una distribución Normal de media μ y varianza σ², se expresará,
X~N(μ, σ²)

o expresado en desviación estandar, X~N(μ, σ)

Dos distribuciones Normales de igual varianza y media tendrán un dibujo,

Dos distribuciones Normales de igual media y varianza σ²< σ² tendrán un dibujo,

Si X~N(μ, σ²) y a≠0 es una constante, la variable aleatoria Y del tipo


Y=aX+b
también será una distribución Normal N(aμ+b, a²σ²)

Si y entonces la variable aleatoria tendrá una distribución

La función de distribución será,

ecosdelaeconomia.wordpress.com
Y para cualquier media y varianza se cumplirá que la proporción de probabilidad acumulada dentro de los
intervalos entre la media y n veces la varianza es constante,
μ ± σ = 0,6826
μ ± 1,64·σ = 0,9
μ ± 1,96·σ = 0,95
μ ± 2·σ = 0,9544
μ ± 2,58·σ = 0,99
μ ± 3·σ = 0,9972

Distribución Normal estandarizada

Consiste en una distribución Normal con media 0 y varianza = 1. Esto permite para cualquier distribución
con media y varianza particular estandarizarlo a N(0, 1). Para transformar la variable aleatoria particular X a
una variable aleatoria estandarizada Z, donde las tablas de la normal indican cuál es la probabilidad
acumulada para cualquier valor de Z, que se obtiene

Ejemplo:
La distribución del resultado técnico (en miles €) de una cartera de seguros sigue una distribución Normal
con parámetros μ=0 y σ=30
a) ¿cuál es la probabilidad de obtener resultados negativos?
b) ¿cuál es la probabilidad de obtener beneficio entre 10 y 15?
c) ¿cuál es la probabilidad de un beneficio superior a 30?

Sea X la variable aleatoria “resultado técnico en miles de euros”, con distribución


X~N(0, 30)

La probabilidad de obtener resultados negativos será,

si se estandariza dará el mismo resultado,

b)

c)

ecosdelaeconomia.wordpress.com
3.
La distribución logarítmico-Normal

Es una de las distribuciones más usadas para ajustar datos en relación al coste de un siniestro. Por efecto del
logaritmo, se da más importancia a los valores grandes y no presenta una distribución simétrica: la
pendiente a la derecha de la media es más suave. Esto permite una mayor densidad de probabilidad a la
derecha, y por lo tanto es “más fácil” encontrar valores extremos por la derecha: es más pesimista.
Para valores medios o altos de la varianza, respecto a la función de distribución Normal, la asimetría tiende a
ser más pronunciada. Y por el contrario, cuando la varianza de la lgN tiende a cero, más simétrica es la
distribución hasta el límite de superponerse a la distribución normal.
Una variable aleatoria X sigue una distribución lgN si el logaritmo neperiano de X se distribuye como una
normal.

También se puede estandarizar, de forma que,

Si se opera en esta expresión se puede despejar X en función del valor Z de la normal estandarizada:

Su función de distribución será,

Su esperanza matemática será,

Y su varianza será,

Ejemplo:
Un siniestro tiene para su cuantía una función de distribución lgN(μ=7, σ=1,5)
a) ¿cuál es la probabilidad de tener un siniestro de cuantía inferior a 200?
b) ¿cuál es la probabilidad de tener un siniestro de cuantía superior a 1000?

Sea X la variable aleatoria “cuantía del siniestro”


X~ln(7, 1’5)

ecosdelaeconomia.wordpress.com
4.
La distribución de Pareto

Es una distribución muy útil en el cálculo de la probabilidad de que se produzca una pérdida grande. Si la
distribución lgN muestra más densidad de probabilidad en el extremo de la derecha que la distribución
Normal, la distribución de Pareto todavía converge a cero más lentamente que la propia lgN. Por este motivo
se usa para determinar las primas de un reaseguro en los tramos de grandes siniestros.
El primer paso es considerar la probabilidad de que una variable aleatoria X tome un valor superior a un
determinado x. Siendo x>k y α>0

Su función de distribución será,

Su función de densidad es, para todo x>k

y f(x)=0 para x≤k

Su esperanza matemática es,

Su varianza es,

La distribución de Pareto suele utilizarse junto con otra distribución. Para modelizar la distribución de una
variable aleatoria X se usa una distribución de las anteriores hasta un cierto valor k crítico, a partir del cual
entra en funcionamiento la distribución de Pareto con su particular lentitud en converger a cero por la
derecha.

El parámetro k es la altura inicial de la función de distribución, y el parámetro α es el responsable de la


suavidad con que la función tiende a cero. Cuando menor sea el parámetro α  más suavidad  más
lentitud en converger a cero  mayor densidad de probabilidad  es más probable que ocurra un siniestro
de elevada cuantía.

Ejemplo:
La distribución del coste de un siniestro de una cartera de seguros, sigue una distribución de pareto de
parámetros α=2 y k=300, ¿cuál es la proporción de siniestros que exceden los 600? ¿ cuál es el coste medio?

Sea “X” la variable aleatoria “coste del siniestro”,

Un 25% de los siniestros exceden los 600 u.m.

ecosdelaeconomia.wordpress.com
5.
La distribución Gamma

Es otra distribución muy útil cuando se dispone de un conjunto de datos positivos, con una sola moda, y de
asimetría positiva; la mayoría de los sucesos se concentran a la izquierda de la media. Esto se corresponde
con distribuciones donde se dan muchos sucesos de poca cuantía y pocos sucesos de más cuantía. También
se usa para modelizar el tiempo hasta que se produce p veces un determinado suceso.

Ejemplo: en un estudio de la guardia urbana de Barcelona se toma una distribución gamma para modelizar el
número de víctimas en accidentes de tráfico. Como es más habitual la proporción de 1 ocupante por
vehículo, y es más rara la probabilidad de 4 ó 5 ocupantes por vehículo siniestrado, se crea una distribución
gamma para modelizar el número de víctimas por accidente de tráfico. El 38% de la distribución lo acumula
la proporción 1 accidentado por accidente, el 36% 2:1, 16% la 3:1, 6% el 4:1 y finalmente un 3% para 5:1

La función de densidad es

donde x>0 y h,α son parámetros positivos.

Se demuestra que f(x) es una función de densidad porque para f(x)≥0

La función característica es,

La esperanza matemática será,

ecosdelaeconomia.wordpress.com
La varianza será,

donde

6.
La distribución beta

Es una distribución para modelizar variables que representan proporciones. Su función de densidad
incopora la función gamma Γ(x),

Su esperanza es,

y su varianza,

Ejemplo:
La proporción de pólizas de hogar que durante el año tienen algún siniestro sigue una distribución Beta con
valor esperado 0,375 y varianza 0,1302. ¿Cuál es la probabilidad de que la proporción de hogares con algún
siniestro sea como máximo del 45%? ¿cuál es la probabilidad de que la proporción de hogares con algún
siniestro sea como mínimo del 75%?

Sabiendo que

se encuentra que p=0,3 y q=0,5

P(X≤0,45)= 0,6138

P(X≥0,75)= 1-P(X≤0,75)= 0,2343

ecosdelaeconomia.wordpress.com
7.
La distribución exponencial

La distribución exponencial se aplica en fiabilidad de sistemas, en variables que representan tiempo de vida
de componentes con pequeño desgaste. Tiene dos parámetros, α y θ. Es un caso especial de ley gamma
cuando θ=0 y α=1. Se puede interpretar como tiempo transcurrido hasta la presencia de un acontecimiento.

Su función de densidad es

y si suponemos que θ=0 y que λ=1/α, entonces

Su función de distribución es

Y su esperanza es

y su varianza,

Ejemplo:
El tiempo que un paciente tarda en ser atendido en un centro de salud sigue una distribución exponencial de
media 10 minutos. ¿Cuál es la probabilidad de que un paciente tarde más de 20 minutos en ser atendido?

Sea “X” la variable aleatoria tiempo de ser atendido. Si la media son 10 minutos, entonces

Entonces,

ecosdelaeconomia.wordpress.com
Ejemplos:

1.
Un asegurador ha observado que en una de sus carteras en promedio tiene 5 siniestros anuales superiores a
los 3 millones de Euros. Los datos de los últimos 10 siniestros que superan esta magnitud son:
{3,2 ; 4 ; 5 ; 4,5 ; 3,1 ; 3,8 ; 7 ; 3,2 ; 3,4 ; 4 }
Suponiendo que la variable aleatoria "Coste del siniestro en millones de Euros" sigue una distribución de
Pareto, calculad:
1. Probabilidad de tener un siniestro que cueste más de 20 millones de Euros.
2.¿Cada cuantos años se espera un siniestro de más de 20 millones de Euros?
3. Si la cartera está formada por 200.000 pólizas que se renuevas anualmente, ¿cuánto cuesta por póliza el
reaseguro de los siniestros de más de 20 millones?

Primero se encuentra la media y la varianza muestral de los 10 siniestros:

Se establece el parámetro k=3

A partir de la muestra, se puede suponer que

La probabilidad de tener un siniestro superior a 20 millones es de 0,093%

Esta probabilidad próxima a 0,01% supone que uno de cada mil siniestros supera los 20 millones de euros.
Si cada año hay cinco siniestros; mil siniestros dividido por 5 siniestros al año da 200 años para que suceda
un siniestro superior a 20 millones.

Sea ahora “X” la variable aleatoria “valor esperado de los siniestros superiores a 20 millones”.

Lo que se ha hecho es plantear ahora “k=20” y suponer que el parámetro α sigue siendo = 3,68

Como que hay 5 siniestros al año,

0,1279 millones de euros es el coste esperado anual. Si se tienen 200.000 pólizas,

ecosdelaeconomia.wordpress.com
El precio de la cobertura del reaseguro anual de los siniestros de un importe mayor de 20 millones de euros
es de 64 céntimos de euro para cada una de las 200.000 pólizas.

2.
El coste de un siniestro sigue un a distribución normal de media 1 millón de euros, con una desviación
estándar de 300.000 euros. Si los siniestros son independientes y se producen 5 siniestros. Nota dejad
indicado el cálcullo de la función de distribución de una normal estándard
a) Calculad la probabilidad de que el coste total supere los 7 millones de euros.
b) Calculad la probabilidad de que ningún siniestro sea superior a 1 millón de euros.
Sea “X” la variable aleatoria coste total de un siniestro, que sigue una ley Normal de media μ=1 millón y
desviación estandar σ=300.000.
a) que 5 siniestros superen en total los 7 millones supone 1,4 millones por siniestro;

También,
Sea “X” la variable aleatoria coste del siniestro ~N(1;0,3), y si los siniestros son independientes entonces

y así

b) La probabilidad de que ninguno de los 5 siniestros supere el coste de 1 millón, es

3.
El número de tramitaciones de siniestros que realiza la central de una entidad en un día oscila
uniformemente entre 60 y 120. Si los días son independientes entre sí, calculad la probabilidad de que en
cinco días se superen las 500 tramitaciones.

Sea “X” la variable aleatoria número de tramitaciones al día, X~U(60,120), si renombramos “X” como
variable aleatoria número de tramitaciones en 5 días, será X~U(5·60, 5·120) = X~U(300, 600).

y ahora, si la función de densidad de una distribución uniforme es

y la función de distribución es

ecosdelaeconomia.wordpress.com
4.
Un conjunto de pólizas tienen dos tipos de coberturas. Para cada una de ellas el coste del siniestro sigue una
distribución log-normal de media = 1; = 2 y desviación estándard = 1, = 2 respectivamente.
Suponiendo que los dos costes son independientes.
a) Hallad que distribución sigue el producto de los dos costes.
b) Escribid el valor esperado del producto de los dos costes.

Sea la variable aleatoria coste del siniestro, y su logaritmo sigue una distribución
Sea la variable aleatoria coste del siniestro, y su logaritmo sigue una distribución

Entonces el producto de los dos costes será


que seguirá una distribución

b) el valor esperado será

ecosdelaeconomia.wordpress.com
1.3 Convergencia de sucesiones de variable aleatoria

1.
Sucesión de variable aleatoria

Si una sucesión de números reales es una función que genera una lista ilimitada de números; sucesión
constante (2,2,2,2,2…), la sucesión de números naturales (1,2,3,4,5,…), sucesiones recurrentes como la de
Fibonacci (1,1,2,3,5,…), o progresiones aritméticas o geométricas… Entonces una sucesión de variable
aletoria es una función que genera una lista ilimitada de números inciertos, debido a que cada número es
una variable aleatoria. Se reconoce como

Convergencia en probabilidad
Una sucesión converge en probabilidad a la variable aleatoria X si cuando al llevar la sucesión al límite
la probabilidad de que la diferencia entre y X sea mayor que un error ε es igual a cero.

Esta convergencia en probabilidad de a X se escribe

Propiedades:

1. Si y se tiene que g(x) es una función continua, entonces

2. Si y y g(x,y) es una función continua, entonces

3. Se cumple también que

2.
Teorema de Bernoulli

Sea una variable aleatoria con distribución Binomial B(n,p). Si tenemos otra variable aleatoria tal que

Su función de densidad será

Siendo la frecuencia relativa de la presencia de un suceso de probabilidad p en n pruebas independientes:

ecosdelaeconomia.wordpress.com
La frecuencia relativa converge en probabilidad p cuando el número n tiende a infinito.

Conclusión: Dado un suceso de probabilidad p, cuando n tiende a infinito la frecuencia relativa se aproxima a
p.

3.
Teorema de Poisson

Es una generalización del teorema anterior de Bernoulli, que también dice que la frecuencia relativa
converge en probabilidad a p. Sea A un suceso y consideremos n experiencias independientes, cada una de
ellas asociada a un espacio de probabilidades que no son necesariamente iguales, con como las
probabilidades de A en cada uno de estos espacios. Entonces

Cuando el número de experiencias tiende a infinito, la frecuencia relativa verifica que

4.
Ley de los grandes números

La media muestral de n observaciones independientes de una variable aleatoria, tiende a m cuando crece n.
Si tenemos una sucesión de n observaciones de una variable aleatoria, y consideramos que

Entonces

5.
Convergencia en la distribución

Es la forma más débil en convergencia. La sucesión converge en ley o en distribución a la variable X de


función de distribución F(x) si

Si es una binomial B(n,p) con n que tiende a infinito y p muy pequeña, y n·p=λ entonces

donde X es una distribución de Poisson de parámetro λ

ecosdelaeconomia.wordpress.com
6.
Convergencia en probabilidad

Supone que la probabilidad de encontrar un resultado inusual se vuelve más y más pequeña cuando la
secuencia avanza. Un estimador será consistente si converge en probabilidad a la cantidad que estima. Es la
convergencia que establece la ley débil de los grandes números

7.
Convergencia casi segura

Supone que la secuencia converge casi seguro, en casi todas partes, con probabilidad de 1 hacia X. Implica la
convergencia en probabilidad, y por lo tanto también la convergencia en la distribución. La convergencia casi
segura es la que establece la ley fuerte de los grandes números.

Teorema de Laplace-de Moivre:


Si es una binomial B(n,p) con n que tiende a infinito y p constante, y entonces

Teorema central del límite:


Si una sucesión de variables aleatorias independientes, con esperanza y varianza finitas, se verifica que

Es decir, la variable aleatoria “suma de variables aleatorias” se comporta como una distribución normal.

El problema que se plantea es: ¿cómo de grande debe ser n para que este límite se cumpla?

Ley débil de los grandes números: Asegura que en muchas situaciones la media aritmética de n variables
aleatorias converge en probabilidad hacia E( ): La convergencia cuando converge en
probabilidad a cero.

Ley fuerte de los grandes números: La convergencia cuando converge a cero.

Es decir, la ley débil nos dice que el promedio de las observaciones es muy probablemente casi igual que el
valor esperado. La ley fuerte nos dice que la convergencia de los valores observados al valor esperado es casi
segura. El detalle es que se pasa de una convergencia de probabilidad, a una convergencia casi segura.

8.
Ley de Kolmogorov de los grandes números

Si las variables aleatorias de la sucesión son independientes, igualmente distribuidas, de varianza común,
entonces

9.
Teorema de Moivre

Sea con y donde p=q=0,5


Es decir, el experimento de lanzar una moneda al aire.

ecosdelaeconomia.wordpress.com
Cuando n∞ sucede que la variable converge en distribución a una N(0,1), con lo cual la variable tiene
una distribución N(n·p, )

ecosdelaeconomia.wordpress.com
1.4 Introducción a los procesos estocásticos

Cualquier estudio de una variable aleatoria a lo largo de un plazo temporal o espacial es un proceso
estocástico. El estudio pretende modelizar teóricamente una variable aleatoria para poder hacer
predicciones del comportamiento futuro de un proceso.

Se identifica un proceso estocástico con una sucesión de variable aleatoria . Normalmente la “t”
hace referencia al momento temporal, y X a la variable aleatoria. De forma que será el valor de la variable
aleatoria en un momento temporal. Por ejemplo; número de palabras escritas el último minuto. Estos
procesos pueden ser sobre variables aleatorias independientes, o llegar a una gran complejidad si se aplican
a variables aleatorias no independientes, como los procesos estocásticos de cadena de Markov; el último
evento condiciona la probabilidad de eventos futuros.

Un proceso estocástico markoviano es tal que la distribución de sólo depende de la distribución de y


no de los otros anteriores.

ecosdelaeconomia.wordpress.com
TEMA 2. TEORÍA DEL RIESGO Y DE LA RUINA

2.1 Proceso del número de siniestros. Proceso de Poisson.

Un proceso de Poisson es aquel que


1. El número de sucesos que se producen en un intervalo de tiempo es una variable aleatoria, independiente
de los que se produzcan en otro intervalo de tiempo: los sucesos se dan de forma independiente.
2. La probabilidad de que en un intervalo de amplitud infinitesimal ocurra un único suceso es λ·Δt, siendo
lambda constante.
3. La probabilidad de que en una amplitud infinitesimal se produzca más de un suceso es despreciable.

Dicho de otra forma, un proceso de Poisson cuenta los eventos raros que suceden a lo largo del tiempo.

Se demuestra que la probabilidad de que en el espacio t sucedan x siniestros es una Poisson de parámetro λ·t

Distribuciones mixtas de Poisson

Si para una Poisson se cumple que tiene valor esperado y varianza iguales a λ, en la realidad sucede que no
siempre coinciden E(X) y V(X): algunas veces la varianza es superior a la media. Además, no concurre la
hipótesis de independencia, y el acaecimiento de un siniestro aumenta la probabilidad de los siguientes:
sucede contagio.

Lo que se plantea es una distribución de Poisson donde el propio parámetro λ es a su vez una variable
aleatoria compuesta por una constante y una variable aleatoria que recoge la heterogeneidad de la cartera:

Ahora la media será

y la varianza será

Ejemplo:
El número medio anual de siniestros por póliza no es constante, sino una variable aleatoria que puede tomar
3 valores diferentes sujetos a una probabilidad de ocurrencia:

0,4 0,1
0,8 0,8
1,2 0,1
El valor esperado de λ será

Las variaciones de λ se considera que están producidas por la variable ξ, de forma que

ecosdelaeconomia.wordpress.com
de forma que para cada escenario se puede despejar el valor de la variable ξ

k ξ
0,4 0,8 0,5 0,1
0,8 0,8 1 0,8
1,2 0,8 1,5 0,1

Los momentos de segundo orden son,

ecosdelaeconomia.wordpress.com
2.2 Procesos de Daño Total. Proceso compuesto de Poisson.

El daño total es un proceso compuesto en tanto que está formado por la variable aleatoria número de
siniestros y la también variable aleatoria cuantía del siniestro. En un principio, y por restricciones técnicas,
los primeros estudios de seguros simplificaban la realidad suponiendo que el valor de nº de siniestros y
cuantía tenían valor igual al valor esperado (la media de observaciones anteriores).

De Moivre demostró que si una empresa aseguradora simplifica las variables aleatorias de su cartera por los
valores medios, la probabilidad de ruina es elevadísima. Es necesario incluir un margen adicional; un
recargo de seguridad, para englobar las fluctuaciones aleatorias. En la teoría del riesgo se estudia o analiza
las fluctuaciones aleatorias que se producen sobre la siniestralidad, con el objetivo de saber qué reservas hay
que tener, que retención vamos a asumir (reaseguro) y el nivel de riesgo aceptado en la cartera.

Los fondos del asegurador serán ingresos menos pagos:

Ejemplo:
Si una empresa tiene 1000 pólizas, donde con un 10% de probabilidades suceden siniestros de media 100
euros, el valor esperado de coste total será = 1000·0,1·100 = 10.000 euros.
Si la desviación típica es de 30, significa que la desviación típica de la cartera es =

Se puede estandarizar a una distribución normal N(0,1) haciendo que

¿cuál es la probabilidad de que el coste sea superior a 11.500 euros?

Cartera con importe de siniestro constante

Supone que todos los siniestros son del mismo importe, X, y que el número total de siniestros de la cartera
sigue una distribución de media n. Si k es el número total de pólizas de cartera y q la probabilidad de
ocurrencia, entonces

Entonces,

Si n es mayor de 10, entonces se puede utilizar la aproximación normal a la distribución de Poisson:

Siendo X el importe de cada siniestro, k el número total de pólizas, y N el número de pólizas siniestradas de
un conjunto n, y además λ es el recargo de seguridad, las reservas del asegurador a final de año deberían
ser

ecosdelaeconomia.wordpress.com
Si se estandariza a la normal (0,1) se puede escribir una función con el valor del error asumible, es decir,
valor de la reserva sujeto a una Z que garantiza una solvencia en el 99% de los casos, por ejemplo:

o lo mismo pero expresado dede el valor de la reserva:

Ejemplo:
Una cartera de 1000 pólizas, con un capital asegurado por póliza de 500 euros. La frecuencia es de 0,01, el
recargo de seguridad es de λ=0,1. ¿Cuál es la reserva para tener una solvencia en el 99% de los casos?

¿Qué tamaño debe tener la cartera para que no sea precisa reserva inicial?

Si K es el número total de pólizas, y n=λ·K y sabemos que

Cartera con un importe de siniestros variable

Evitamos la restricción anterior de que todos los siniestros son del mismo importe. N sigue siendo el número
total de siniestros de un conjunto de n pólizas, pero ahora cada siniestro es de un importe .
La variable aleatoria coste total (C) es ahora

Que antes se reducía a C=N·X gracias a la restricción de que todos los importes son iguales.

El número esperado de siniestros sigue siento n=k·q y su distribución es

y se supone que cada siniestro tiene su media = m y momento de segundo orden . Se deduce que

Es decir, el coste total esperado es el total de polizas siniestradas por su valor esperado. También

Si las reservas libres a comienzo del año son , y el total de primas devengadas es

Incluyendo también un recargo de seguridad, y el coste total a afrontar, las reservas a final del ejercicio
serán:

ecosdelaeconomia.wordpress.com
Igual que en el apartado anterior se puede estandarizar

Y las reservas necesarias condicionadas a una Z de error será

Ejemplo:
Una empresa tiene una cartera de pólizas que siguen una Poisson de parámetro (media) = 10 siniestros/año
Otra empresa tiene otra cartera de pólizas que también es una Poisson = 20 siniestros/año
En cada caso, el siniestro es de 1 millón de euros (la severidad del siniestro).

a) Cuál es el margen mínimo para cada empresa para cumplir la normativa europea de un 99% de solvencia.
b) Y si se fusionan?

a)
Se crea una columna en excel con el valor acumulado de una Poisson de parámetro = 10, de forma que en la
primera fila se tiene P(X=0), en la segunda P(X=1),… y se van sumando probabilidades.
Se observa que para P(X=17) la probabilidad acumulada es de 0,9857, y que para P(X=18)=0,9928. Por lo
tanto, se necesitan 18·1 millón = 18 millones de reserva para garantizar el 99% de solvencia.

Por lo tanto, si la media es de 10 siniestros al año, el margen de solvencia es de . Es decir, necesitas


poner el 80% más de los siniestros esperados para garantizar el 99% de solvencia.

Para la segunda entidad, cuando P(X=31) la probabilidad acumulada llega a 0,991908. Se necesitan 31
millones.

Si la media es de 20 siniestros al año, el margen de solvencia es de Es decir, necesitas poner el


55% más de los siniestros esperados para garantizar el 99% de solvencia.

b)
Si se fusionan, se tendrá una distribución de Poisson de parámetro = 30.
Haciendo el mismo procedimiento que en el apartado anterior, cuando P(X=43) la probabilidad acumulada
es de 0,990264.

Ahora el margen de solvencia es de . Se necesita un 43% de más sobre el valor esperado para
poder garantizar un 99% de solvencia.

Ejemplo 2:
Una tabla recoge los datos observados de la distribución del coste de los siniestros de una cartera de seguros
generales. Estimar los momentos m y de la distribución del coste de un siniestro.

Si se planteara un pleno de retención, es decir, un importe a partir del cual se activa el reaseguro, la suma
será hasta el coste dentro del reaseguro, con lo que aparcerán un nuevo y un .

ecosdelaeconomia.wordpress.com
Las reservas libres serán, para cada caso,

donde también k·q=n

Ejemplo 3:
Si una aseguradora quiere tener unas reservas de 12000, para una cartera que sigue una Poisson de
parámetro λ=0,05, con parámetros m=967,4 y , condicionados a una solvencia del 99%
( ), y la probabilidad del siniestro es q=0,035 ¿cuál debe ser el tamaño de la cartera?

Nos preguntan por el valor de k. El primer paso es encontrar el número de pólizas siniestradas = n

Ya que

Será necesario tener o menos de 837 pólizas contratadas, o más de 60117, para disponer de unas reservas
de 12000.

Ejemplo 4:
¿Cuál debe ser la prima de riesgo de un seguro si la cuantía media de los siniestros es de m=412,9, y la
probabilidad de ocurrencia es de q=0,035?

Elección del tipo de distribución

Si existe un número máximo de sucesos posibles entonces la mejor opción es la distribución Binomial.
Cuando no existe techo o n tiende a infinito se usa Poisson, ya que formalmente la Binomial tiende a la
Poisson.
La Binomial Negativa se usa cuando media y varianza son distintas, y es la primera que se usa antes que
otras distribuciones más complejas.

ecosdelaeconomia.wordpress.com
2.3 Aproximaciones a la distribución del daño total

Sea “S” el coste total o daño total que hace frente una compañía de seguros de forma anual. Será fundamental
poder calcular la probabilidad de que P(S≤s), es decir; la probabilidad de que el daño total S sea inferior a un
importe “s”. O bien encontrar la probabilidad complementaria; la probabilidad de que el daño total exceda de
un determinado importe. Una forma de aproximar el valor de S es hacer la suma de las cuantías de cada
siniestro ocurrido; es el modelo de riesgo individual. Otra aproximación es la del riesgo colectivo; donde se
trata el número de siniestros y la cuantía de cada uno como variables aleatorias. Esto último es lo que acaba
sucediendo, en tanto es dificil conocer en cada momento los datos reales.

1.
Recurrencia de Panjer

Se demuestra que cuando estamos en el modelo de riesgo colectivo, si las variables aleatorias cumplen una
serie de condiciones, la fórmula de Panjer expresa con gran exactitud la distribución de probabilidad de que
el daño total S sea menor o mayor a una cuantía s.

Si N es la variable aleatoria número total de siniestros, entonces será una variable discreta (porque no
sucede medio accidente). Para que la fórmula de Panjer funcione, deben cumplir que la probabilidad
sea de la clase (a,b;0), es decir, que dependa de dos constantes, a y b, de forma que

Por ejemplo, la probabilidad de que la cantidad de siniestros totales sea = 1, es decir (N=1), será

Resulta que sólo las distribuciones de Poisson, Binomial, Bin. negativa y geométrica, pertenecen a esta clase,
y se cumplen cuando:

N es una binomial de parámetros (n,p); N~B(n,p) y las constantes son

N es una Poisson, N~P(λ),

N es una binomial negativa, N~BN(α, p)

Si se despeja la fórmula de la probabilidad de forma que;

se tiene la fórmula de una recta, Y=a·X+b donde “a” es la pendiente de la recta. Si sabemos que Poisson no
tiene pendiente, que la Binomial es de pendiente negativa, y que Binomial Negativa y geométrica son de
pendiente positiva, un gráfico de nos dará una pista de cuál es la función de distribución que mejor se
ajusta a las frecuencias observadas.

ecosdelaeconomia.wordpress.com
La fórmula de recurrencia de Panjer es laboriosa, pero la mejor de las peores, y supone que f(x) será la
función de densidad de la variable aleatoria S, discreta, asociada a la cantidad de reclamación.

Y para cada distribución, f(x) será:

Para la distribución de Poisson;

Para la distribución Binomial;

Para la distribución Binomial Negativa;

Y para la distribución Geométrica;

Ejemplo de Panjer aplicado a una Poisson:


Si el número total de siniestros N sigue una Poisson de parámetro λ=5, y con , ¿cuál es
la probabilidad de que S>3?

Como estamos en una Poisson, a=0, y b=λ=5

Aplicando Panjer, para los valores positivos de x tendremos que;

Y ahora hay que aplicar la recurrencia;

la probabilidad de no tener ningún siniestro,

la probabilidad de tener 1 siniestro,

la probabilidad de tener 2 siniestros,

ecosdelaeconomia.wordpress.com
la probabilidad de tener 3 siniestros,

Por lo tanto,

Ejemplo de Panjer aplicado a una Binomial:


Si el número total de siniestros N sigue una Binomial de parámetros N=100 y θ=0,05, y con
, ¿cuál es la probabilidad de que S>3?

Las constantes serán

Aplicando Panjer, para los valores positivos de x se tiene que

Y ahora hay que aplicar la recurrencia;

la probabilidad de no tener ningún siniestro,

la probabilidad de tener 1 siniestro,

la probabilidad de tener 2 siniestros,

la probabilidad de tener 3 siniestros,

Y finalmente,

Ejemplo de Panjer aplicado a una Binomial Negativa:


Si el número total de siniestros N sigue una Binomial de parámetros r=5 y θ=0,3, y con
, ¿cuál es la probabilidad de que S>3?

ecosdelaeconomia.wordpress.com
Las constantes serán

Aplicando Panjer, para los valores positivos de x se tiene que

Y ahora hay que aplicar la recurrencia;

la probabilidad de no tener ningún siniestro,

la probabilidad de tener 1 siniestro,

la probabilidad de tener 2 siniestros,

la probabilidad de tener 3 siniestros,

Y finalmente,

Ejemplo de Panjer aplicado a una geométrica:


Si el número total de siniestros N sigue una geométrica de parámetros θ=0,1, r=1, y con
, ¿cuál es la probabilidad de que S>3?

Las constantes serán

Aplicando Panjer, para los valores positivos de x se tiene que

Y ahora hay que aplicar la recurrencia;

la probabilidad de no tener ningún siniestro,

la probabilidad de tener 1 siniestro,

la probabilidad de tener 2 siniestros,

ecosdelaeconomia.wordpress.com
la probabilidad de tener 3 siniestros,

Y finalmente,

2
Aproximación al daño total por una distribución Normal

Como el método recursivo de Panjer se demuestra limitado, se han desarrollado métodos de cálculo para
aproximar la distribución de la cantidad total (S) independientemente de la distribución N. Así no nos
preocupamos de si la función de probabilidad de N es de la clase (a,b;0) o no.

Las aproximaciones más utilizadas son la Normal, Normal-power, log-normal, Gamma, Edgeworth y Esscher.
Será necesario tener los datos empíricos de la variable aleatoria S, y de no tenerlos habrá que encontrar los
momentos del coste total a partir de los momentos de N y X (variable aleatoria número de siniestros y
cuantía de cada siniestro, respectivamente).

El método de la aproximación por la distribución normal consiste en plantear que la función de distribución
del daño total,

sigue una distribución normal con la misma media y varianza que S, tal que

y que como cualquier normal se puede tipificar, siendo la función de la normal tipificada;

Se justifica la aproximación normal por el teorema central del límite, puesto que N es una función de
variables aleatorias independientes e idénticamente distribuidas.
El problema que presenta es el supuesto de simetría propia de la normal, algo muy difícil de defender en la
realidad ante la mayoría de carteras de pólizas.

Aproximación al daño total por una distribución Gamma

La distribución gamma se usa cuando la variable aleatoria S tiene un poco de asimetría (un poco, no mucho),
o cuando el parámetro de la Poisson es grande.

Aproximación de Edgeworth

Primero es necesario estandarizar la variable, para dejar la media=0 y la varianza=1. Da muy buenos
resultados entorno al valor medio, pero funciona muy mal en los extremos.

ecosdelaeconomia.wordpress.com
Aproximación de Esscher

Es la que presenta mejores resultados dentro de la teoría del riesgo. Es la utilizada para modelizar los
seguros de coches con bonus-malus

Aproximación de Normal-power

Se estandariza la variable en una variable simétrica. No funciona en colectivos reducidos. En todo caso su
utilidad es demostrar cuán mala es la distribución normal.

ecosdelaeconomia.wordpress.com
TEMA 3. INFERENCIA APLICADA

3.1 Métodos de estimación

1
Introducción a la estimación puntual

Cuando se estudia un fenómeno aleatorio puede suceder que, o bien se desconoce el modelo de probabilidad
al que se ajusta la variable aleatoria que estamos estudiando; inferencia no paramétrica, o bien conocemos el
modelo de probabilidad pero se desconocen los parámetros que la definen; inferencia paramétrica.

La estimación puntual forma parte de la inferencia paramétrica, y consiste en usar la información de la


muestra para determinar el valor de los parámetros que, supuestamente, tiene la distribución de
probabilidad de la población.

Espacio paramétrico: el conjunto de todos los valores admisibles para los parámetros, se escribe Θ.

La función de distribución que depende de nuestro parámetro a analizar será

Por lo tanto, la familia de distribuciones de una variable aleatoria ξ, tendrá valores dentro del conjunto

Ejemplo:
Si ξ es una variable aleatoria, y sabemos que sigue una distribución Binomial con parámetros n=3 y p
desconocido, pero con valores entre 0 y 1;

Por lo tanto, los valores del parámetro depende de la muestra elegida. Por esto el parámetro no puede ser el
parámetro real de la población, sino que se trata de un estimador. El estimador es una función de los valores
muestrales con un conjunto de posibles valores que han de ser los valores posibles del parámetro de la
población.

El estimador se obtiene calculando la media de los valores observados, o con la media geométrica, o
tomando el valor de la moda, o tal vez tomando el valor mínimo observado,… en definitiva, se obtiene
mediante estadísticos. El estadístico, o estadístico muestral, es una medida cuantitativa derivada del
conjunto de datos de la muestra. Y por lo tanto: Ni todos los estadísticos son estimadores, y no todos los
estimadores asignan el mismo valor al parámetro desconocido.

Evidentemente, como los datos de la población son inescrutables, nunca se sabrá cuál es el error que se
comete al realizar la predicción con nuestros estimadores.

Propiedades de los estimadores

1. Propiedad de insesgadez: Consiste en contrastar el valor del estimador θ que nos planteamos, respecto
sucesivas muestras de θ’ de la población. De forma que comparándolos y asumiendo que a veces se cometen
errores de más y de menos, la media de θ’-θ será = 0

Un estimador θ’ es un estimador insesgado de θ si:

ecosdelaeconomia.wordpress.com
Y si planteamos que b(θ) es la diferencia entre el estimador del parámetro y el parámetro a estimar,

Cuando b(θ)>0 el sesgo será positivo: nuestro estimador está sobreestimando el parámetro.
Cuando b(θ)<0 el sesgo es negativo: nuestro estimador está infravalorando el parámetro.

Ejemplo:
Consideremos una distribución normal, y que deseamos plantear tres estimadores de la media (μ). El primer
estimador, lo calcularemos como la media = suma de las n observaciones dividido por n-1. El segundo
estimador, lo calcularemos como la media = suma de las n observaciones dividido por n. El tercer
estimador, lo calcularemos como la media = suma de las n observaciones dividido por n+1.
Y a ver qué pasa:

Por lo tanto, es un estimador que siempre tendrá un ligero sesgo positivo

Por lo tanto, es un estimador insesgado.

Por lo tanto, es un estimador que siempre tendrá un ligero sesgo negativo.

Estimador de mínimo error cuadrático medio

Supongamos que estudiamos una variable aleatoria ξ, que sabemos que se ajusta a un modelo probabilístico
con función de distribución F, conocida, que depende de un parámetro θ, desconocido. Se considera θ’
entonces como el estimador de ese parámetro.

Por lo tanto θ’ es una variable aleatoria, que depende de la muestra seleccionada, y con un posible error de
sesgo planteado en el apartado anterior. El error cuadrático medio entre estimador y parámetro será

Y evidentemente, el mínimo error será lo deseable. Desarrollando la expresión anterior se llega a que

ecosdelaeconomia.wordpress.com
O dicho de otra forma,

Ejemplo:
Volviendo al primer estimador del ejemplo del apartado anterior, si suponemos que la variable aleatoria ξ
sigue una distribución normal ~N(μ, 30), entonces su error cuadrático medio será:

2. Propiedad de eficiencia: Si resulta que nos encontramos con dos estimadores insesgados el que tenga
menor varianza será el que tenga menor error cuadrático medio. Se dirá entonces que, el que tenga menor
varianza, será más eficiente.

Podemos compararlos, y si V(θ’)<V(θ’’), y hablar de eficiencia relativa;

Ya que los estimadores provienen de la muestra, siempre existirá una varianza mínima. Esto significa que si
estimamos un parámetro y resulta insesgado pero con una cierta varianza, y por lo tanto con un cierto error
cuadrático medio, estamos ante algo inevitable. No habrá forma de encontrar un estimador con error
cuadrático medio igual a cero. Este valor mínimo es la cota de Cramer-Rao.

y en caso de tratarse de un estimador insesgado;

3. Propiedad de consistencia: Insesgadez y eficiencia no dependen del tamaño de la muestra, pero


evidentemente influye. Lo lógico es que si se incrementa n, la calidad de nuestro estimador también crece en
tanto que aumenta su capacidad de previsión.

Se indica el tamaño de n en el estimador, de forma que, por ejemplo, si tenemos una muestra de 100;

En este caso se cumple una convergencia de probabilidad del estimador respecto el parámetro. Cuando n
tiende a infinito, la probabilidad de que la diferencia entre estimador y parámetro sea superior a un error es
cero.

ecosdelaeconomia.wordpress.com
Se cumple cuando el estimador es insesgado o asintóticamente insesgado. También se verifica que la
varianza del estimador cuando n tiende a infinito es = 0.

Si se cumple que la probabilidad de error tiende a cero, y que la varianza también, entonces se dice que es un
estimador consistente en Error cuadrático medio.

Ejemplo:
Volviendo a los 3 estimadores planteados anteriormente;

y entonces, aplicando límites:

Y por lo tanto es un estimador consistente.

Respecto al siguiente;

y entonces, aplicando límites:

Y por lo tanto es un estimador consistente.

Y respecto al último

ecosdelaeconomia.wordpress.com
y entonces, aplicando límites:

Y por lo tanto es también un estimador consistente.

4. Propiedad de suficiencia: Un estimador es suficiente si incluye todas las observaciones de la muestra y no


se le escapan valores extremos. El criterio que se usa para determinar esta propiedad es la factorización de
Fisher-Neyman, donde el objetivo es decubrir si la función de verosimilitud de la muestra aleatoria simple se
puede descomponer en otras dos funciones; una que sí depende del parámetro, otra que no.

2.
Métodos de estimación

Para encarar la búsqueda del estimador más adecuado existen dos caminos: El método de los momentos, y el
método de la máxima verosimilitud.

Método de los momentos

Un momento es una representación de la población, y por lo tanto los momentos de una muestra deben
coincidir con los momentos de la población. El método de los momentos en la estimación de los parámetros
supone crear los parámetros de la función a partir de una muestra.
El procedimiento consiste en plantear un sistema de ecuaciones en el que la incógnita sean los momentos
muestrales. No se garantiza que el estimador obtenido vaya a ser insesgado, pero sí que pueden serlo
asintóticamente (cuando n tiende a infinito) y sí que son estimadores consistentes y asintóticamente
normales.

Sólo para recordarlo: la varianza de una muetra siempre tiene denominador n-1:

Ventajas del método de los momentos: su simplicidad.


Desventajas: no se tiene en cuenta la distribución de probabilidad de la población, y por lo tanto no se usa
toda la información disponible.

Ejemplo 1:
Si se tiene una muestra aleatoria simple de tamaño = n, y tenemos una variable X~P(λ) donde se desconoce
el valor del parámetro λ:

El momento de la población

y cualquier muestra debería cumplir que

ecosdelaeconomia.wordpress.com
Por lo tanto,

Y ya está.
Lo que se ha hecho es suponer que la media de la muestra “deberá” ser la media de la población, en tanto que
el método de los momentos plantea que los momentos muestrales y poblacionales deben coincidir.

Ejemplo 2:
Si tenemos una muestra de tamaño = n, de una variable X~BN(m, p), donde m y p son desconocidos,

Lo que hay que hacer es encontrar la media y varianza de la muestra, y plantear un sistema de ecuaciones en
tanto que tenemos dos incógnitas, m y p, precisamente los parámetros a estimar.

Ejemplo 3:
Muestra = n, y variable de una distribución exponencial: X~exp(λ), donde es el parámetro
desconocido:

Ejemplo 4:
Muestra = n, y variable de una distribución uniforme: X~U(a, b)

Y de nuevo, encontrando la media y la varianza de la muestra, se despejan los estimadores de a y b.

Método de la máxima verosimilitud

Es un método simple pero de cálculo complejo. Consiste en elegir entre todos los estimadores del parámetro
aquel que haga máxima la probabilidad de haber obtenido la muestra encontrada. Es decir; maximizar la
probabilidad de observar lo que realmente se ha observado.

El procedimiento es, ante una muestra, definir la función de verosimilitud L(X, θ), donde cada valor
observado X tiene su probabilidad asociada por un parámetro θ. Así, será la función de densidad de la
variable x. De forma que

Es decir, L(X; es la probabilidad de haber obtenido toda la serie de observaciones encontrada.

Como trabajar con productos es un lío, se puede aplicar logarítmos de forma que

ecosdelaeconomia.wordpress.com
Propiedades:
No garantizan la insesgadez de los estimadores. Aunque sí que lo son de manera asintótica. Son consistentes,
son asintóticamente normales, tampoco se garantiza suficiencia.

ecosdelaeconomia.wordpress.com
3.2 Contraste no paramétrico

Es un procedimiento para verificar el ajuste a una distribución de probabilidad. La distribución que sigue la
variable es conocida, y los parámetros de la misma pueden conocerse o no. El procedimiento consiste en
verificar si la muestra proviene de una población que sigue una distribución determinada. Es lo que se
conoce como “contrastes de bondad del ajuste”.

Existen 3 tipos de contraste: El de chi cuadrado o de Pearson, el de Kogomorov-smirnov, y el de Shapiro-


Wilk.

La hipotesis a contrastar es la afirmación sobre la función de distribución. La hipotesis nula por lo tanto es
que la muestra proviene de la población planteada, y se justifica cuando no existen diferencias significativas
entre la distribución muestral y la teórica. Un caso extremo supone rechazar la hipotesis nula.

1.
Contraste de Pearson

Es una prueba de bondad del ajuste que se basa en la distribución chi cuadrado (o Ji cuadrado, o χ²). Mide el
ajuste entre valores observados (reales) y esperados (teóricos) bajo la hipótesis nula establecida. La es
que no hay diferencias significativas. La alternativa, es que se distribuyen con funciones diferentes.
Es un contraste donde los parámetros de la variable aleatoria pueden ser conocidos o no. Para poder realizar
esta prueba se necesita medir la variable aleatoria en diferentes intervalos.

Donde k es el número de categorías o intervalos definidos, y h el número de parámetros estimados. Como se


ve en la función, es un estadístico que mide la discrepancia entre cada elemento observado θ, y el que le
debería corresponder según la teoría E.

Consideraciones:
1. el número de intervalos será por lo menos de 5, y no más de 20.
2. el número esperado de observaciones por intervalo también será > 5
3. Si un intervalo no cumple esta condición (2), se agrupará con el intervalo siguiente.

Se define α como el nivel de significación crítico, De forma que se rechazará la hipotesis nula si

2.
Contraste de Kolgomorov-Smirnov

Soluciona un problema que tiene el contraste de Pearson, y es el de la necesidad de una muestra grande. El
contraste de K-S se utiliza cuando la muestra es pequeña, la función continua, y aparecen intérvalos vacíos.
No necesita agrupar las observaciones a intervalos. Pero necesita que se sepan los parámetros de la variable,
excepto cuando se trata de una distribución normal.

Procedimiento:
1. Extraer una muestra aleatoria simple de tamaño = n.
2. Calcular la función de distribución empírica de la muestra.

ecosdelaeconomia.wordpress.com
Donde F es la función de la frecuencia relativa acumulada de las observaciones, N(x) es el número de
observaciones de la muestra con valor igual o inferior a x (una frecuencia absoluta acumulada), y n es el
número total de observaciones muestrales.
3. La función Fn se puede utilizar como estimador de la función de distribución de la población F(x).
4. Comparación entre función empírica y planteada.
5. Medir las discrepancias a través de la distancia máxima entre las dos observaciones.

6. La distribución de este estadístico Dn, depende del tamaño de la muestra n, no depende de la función
planteada, sí depende del nivel de significación.

Es decir, el objetivo es valorar la diferencia máxima entre la distribución empírica y la planteada. Si esta
distancia es significativa, entonces es que son distribuciones diferentes.

Se rechazará la hipotesis nula cuando:

Ventajas de K-S respecto chi cuadrado:


La potencia del contraste K-S es mayor que la de chi cuadrado porque funciona con muestras pequeñas.
Aunque cuando n tiende al infinito se igualan.

Para recordar: la potencia define el grado de confianza para concluir que la hipotesis nula es falsa cuando
realmente es falsa. Es decir, la potencia la probababilidad de NO cometer un error tipo II; aceptar la hipotesis
nula cuando es falsa.

3.
Contraste de normalidad de Shapiro-Wilk

Trata de contrastar si una muestra viene de una población Normal sin necesidad de conocer los parámetros.

La hipotesis alternativa es que la función sigue otra distribución diferente a la normal.

Procedimiento:
1. ordenar la muestra de menor a mayor.
2. El estadístico para realizar el contraste es

3. buscar en tablas en función de n y del nivel de significación

ecosdelaeconomia.wordpress.com

También podría gustarte