Está en la página 1de 7

Análisis de datos económicos: Capitulo 7

El resumen que se presenta aquí está basada en Movellan, J. R. ( 2008), “Introduction


to Probability Theory and Statistics” que podéis encontrar en
http://mplab.ucsd.edu/tutorials/ProbabilityAndStats.pdf .

El resumen es una traducción, no completa, y tampoco exacta, pero representa el


contenido de este apartado del curso Análisis de Datos Económicos.

Teoría de probabilidad da un base matemático a conceptos como probabilidad,


incertidumbre, confianza, variabilidad, riesgo etc. La teoría de probabilidad es un
fundamento racional para hacer inferencia y contrastar hipótesis basado en datos
empíricos con incertidumbre.

Detrás de la teoría de probabilidad hay diferentes interpretaciones filosóficas de


probabilidad.

1. Probabilidad como una frecuencia relativa.

La probabilidad de un evento es interpretado como una proporción de veces el evento se


espera que se realice durante un tiempo largo.

Dónde es el número de veces un evento se observa durante un total de


experimentos independientes. Por ejemplo, lanzamos una moneda y contamos el
número de caras. La frecuencia relativa debe acercarse a 0,5 cuando aumentamos el
número de veces que lanzamos la moneda.

En práctica no podemos realizar un experimento infinitamente veces. El concepto de


una probabilidad como conocimiento subjetivo no se considera.

2. Probabilidad como un conocimiento bajo incertidumbre.

“Es probable que voy a conseguir una notable en este curso”. “Es probable que voy a
morir pobre”. Aquí no es necesario que repetir el experimento para especificar una
probabilidad: No es necesario contar una frecuencia relativa. Si estamos dispuestos de
incluir conocimiento interno en esta manera se llama inferencia bayesiana.
Los fundamentos de una teoría de probabilidad

Conjunto

es un conjunto que incluye los elementos 1, 2, y 3.

Conjunto universal

Es un conjunto que incluye todos los elementos posibles en un experimento.


Conjunto universal. Conjunto de referencia.

Por ejemplo, si tiramos un dado, podemos encontrar los resultado 1, 2, 3, 4, 5 y 6.

Si lanzamos una moneda dos veces;

Inclusión de elemento

el elemento está incluido en el conjunto .


el elemento NO está incluido en el conjunto .

Inclusión de conjunto

A y B son conjuntos, y todos los elementos de A también son elementos


de B.

Conjuntos iguales (Set equality)

Si y tenemos dos conjuntos iguales.

Operaciones de conjuntos

1. Unión (“o”, “or”)

La unión de dos conjuntos A y B es un conjunto que incluye todos los elementos de A y


todos los elementos de B. La unión representamos con el símbolo .

Por ejemplo, y entonces .


2. Intersección (“y”, “and”)

La intersección de dos conjuntos A y B es un conjunto C que incluye los elementos de


A que también se encuentran en B. La intersección representamos con el símbolo .

Por ejemplo, y entonces .

3. Complemento

El complemento de un conjunto A al respecto a un conjunto de referencia, , es un


conjunto de todos los elementos de que no se encuentran en A. El complemento de
es .

Por ejemplo, y entonces .

Conjunto vacío
Un conjunto vacío es un conjunto que no tiene elementos. Usamos el símbolo Ø.

Sucesos (eventos) mutuamente exclusivos


Dos conjuntos son mutuamente exclusivos si no tienen elementos en común, es decir, su
intersección es un conjunto vacío.

Medidas de probabilidad
Una medida de probabilidad representamos con y tiene tres restricciones, axiomas de
Kolmogorov;

1. Una medida de probabilidad de un evento tiene que ser más grande o igual a
zero. .
2. Una medida de probabilidad de un conjunto de referencia es 1. .
3. Si los conjuntos son sucesos mutuamente exclusivos, entonces:

Por ejemplo; lanzar una moneda o un dado.


Una probabilidad conjunta
Una probabilidad conjunta de dos o más eventos es la intersección de estos eventos. Por
ejemplo lanzar un dado, , , dónde es obtener un número
par, y es obtener un número mayor que 3.

La probabilidad conjunta de y es 2/6.

Una probabilidad condicionada


Una probabilidad condicionada de eventos y es:

Una probabilidad condicionada implica una revisión de la probabilidad inicial, porque


ahora sabemos que evento ha ocurrido con probabilidad 1. Hacemos evento el
conjunto de referencia nueva. .

Seguimos con el ejemplo de lanzar un dado, . Si sabemos que el


resultado de lanzar un dado es un valor mayor que 3, entonces la probabilidad de
obtener un numero par es 2/3.

Independencia de dos eventos


Si sabemos que dos eventos, y , son independientes, entonces saber que haya
ocurrido no cambia la probabilidad que va a ocurrir.

Dos eventos y , son independientes sólo, y sólo si, .

¿Son independientes y en el ejemplo de lanzar dados? – No.


mientras .

Independencia de n eventos
Los eventos ,…, son independientes sólo y sólo si los siguientes criterios son
cumplidas;

1) Todas las parejas con diferentes índices son independientes;


para todos los cuando .
2) Todas los tríos con diferentes índices son independientes;
para todos los
cuando .
3) La misma idea para cuatro eventos, etc. hasta n.

La regla de cadena de probabilidades


Si tenemos un conjunto de eventos, podemos usar la regla de cadena
de probabilidad para calcular la probabilidad conjunta del conjunto entero.

Ejemplo, una empresa de coches tienen tres sitios produciendo; Sitio 1 produce 10%,
sitio 2 produce 50% y sitio 3 produce 40%. 1 de 20 coches producidas del primer sitio
son defectuosas. 99% de los coches defectuosas producidas en el primer sitio son
devueltas al productor. ¿Qué es la probabilidad de que un coche producido en sitio 1 es
defectuoso y no se devuelve al productor?

representa coches producidas en sitio 1.


representa coches defectuosas.
representa coches no devueltas.

Sabemos:

Usamos la regla de cadena de probabilidad:

La ley de probabilidad total, LPT

Deja ser particiones contables de un conjunto universial, .


, para .
.

En algunos casos conviene calcular la probabilidad de un evento usando la formula;

Prueba:
, para .

Entonces;

Ejemplo: Una enfermedad afecta a 1 por ciento de la población. Una prueba de la


enfermedad da el resultado positivo con una probabilidad de 90% si alguien tiene la
enfermedad. La prueba da el resultado positivo con una probabilidad de 20% si alguien
no tiene la enfermedad. ¿Cuál es la probabilidad de un individuo elegido al azar realice
la prueba y obtiene el resultado “positivo”?

representa “positivo” en la prueba, es no tener la enfermedad y es tener la


enfermedad. Sabemos , . También conocemos
y . Aplicamos LPT;

Aquí hemos usado la formula de una probabilidad condicionada,

, para calcular las probabilidades de las intersecciones,

y .

El teorema de Bayes

Este teorema (de Bayes, 1744-1809) usamos para revisar una probabilidad dado que
hemos recibido información nueva. El teorema es consistente con teoría de probabilidad
y frecuentistas o Bayesianos lo puede usar. La diferencia es que frecuentistas no lo
aplica con probabilidades subjetivas.

Deja ser un evento con probabilidad positiva, son sucesos contables


mutuamente exclusivos.

, para .
.

son “hipótesis” y es “data”. El teorema de Bayes indica;

Dónde:
es una probabilidad de la hipótesis , evaluado antes de recoger los datos.
es una probabilidad de la hipótesis , evaluado después de recoger los datos.
son verosimilitudes.

Prueba:
Usamos la definición de probabilidad condicionada;
También usamos la ley de probabilidad total, LTP;

Ejemplo: Una enfermedad afecta a 1 por ciento de la población. Una prueba de la


enfermedad da el resultado positivo con una probabilidad de 90% si alguien tiene la
enfermedad. La prueba da el resultado positivo con una probabilidad de 20% si alguien
no tiene la enfermedad. Un individuo elegido al azar realice la prueba y obtiene el
resultado “positivo”, ¿cuál es la probabilidad que la persona tiene la enfermedad?

representa “positivo” en la prueba, es no tener la enfermedad y es tener la


enfermedad. Antes que realizar la prueba sabemos , .
También conocemos y . Aplicamos el teorema de
Bayes;

También podría gustarte