Está en la página 1de 5

Un modelo es una representacin simplificada de una parte de la realidad.

Principal objetivo :Permitir una mejor comprensin y descripcin de la parte de la realidad que representa que a su vez permite tomar
mejores decisiones
Los modelos se pueden clasificar
atendiendo a multitud de
criterios:
Objetivos Vs Subjetivos. En funcin de que intervengan sucesos no experimentables objetivos o si
sean objetivos
Analticos Vs De Simulacin:
Los modelos analticos han de ser resueltos (sirven para obtener soluciones). Se
encuentran los modelos de optimizacin, permiten determinar valores a las variables
maximice o minimice otra variable que se tiene como objetivo (solucin optima y
prescriptiva).
Los modelos de simulacin representaciones simplificadas de la realidad estudiar los
efectos de las alternativas seleccionando la ms conveniente (solucin descriptiva).
Estticos Vs Dinmicos: Los modelos estticos no utilizan la variable tiempo, al contrario que los
dinmicos.
Deterministas Vs Probabilsticos:
En los modelos deterministas conocidos con certeza todos los datos .
Si uno o varios datos se conocen slo en trminos de probabilidad, el modelo se
denomina probabilstico,
Los estados de la naturaleza, son los sucesos de los que depende la decisin y en los
que no puede influir apenas el decisor.
Certeza, el decisor conoce con absoluta seguridad los estados de la naturaleza que van a presentarse.
Riesgo, el decisor no sabe los estados de la naturaleza, pero si conoce cuales pueden presentarse y la probabilidad de cada uno de ellos.
Incertidumbre:
Estructurada, se conocen los estados de la naturaleza, pero no la probabilidad de cada uno de ellos.
No estructurada, ni si quiera se conocen los posibles estados de la naturaleza.
LLUVIA FRIO CALOR
ABRIGOS 150 600 25
GABARDINAS 300 50 100
AMERICANAS 75 -50 500
Estrategias Diferentes alternativas que podemos elegir
Matriz de Pagos Muestra los resultados que obtenemos con cada
estrategia y cada estado de la naturaleza. Estos datos se obtienen por la
experiencia, estadstica etc.
Como ejemplo para explicar los criterios de decisin
Empresa:
3 Estrategias: Fabricar Abrigos 3 Estados de la Naturaleza: Frio
Fabricar Gabardinas Calor
Fabricar Americanas Lluvia
Con la siguiente matriz de pagos
Criterio de LAPLACE
Todos los estados tienen la misma probabilidad de ocurrir.
Se calcula la esperanza de cada estrategia y se elige la mas alta.
Probabilidad Lluvia=Frio=Calor= 33.33 %
Abrigos= 150*0.33+600*0.33+25*0.33 = 255.75
Gabardinas = 300*0.33+50*0.33+100*0.33= 148.5
Americanas= 75*0.33+ -50*0.33+500*0.33= 175
Maximo
Abrigos 600
Gabardinas 300
Americanas 500
Criterio OPTIMISTA(MAXI-MAX)
De cada estrategia cogemos el mximo y luego escogemos el mximo
de los mximos
Minimo
Abrigos 25
Gabardinas 50
Americanas - 50
Criterio PESIMISTA-WALD (MAX-MIN)
De cada estrategia cogemos los mnimos, dentro de los
mnimos escogemos el mximo
Criterio OPTIMISMO PARCIALHURWICZ
Coeficiente de pesimismo
Coeficiente de optimismo &=1-
De cada estrategia cogemos MIN y MAZ y calculamos H Coeficiente
de Hurwicz
H= & MAX + MIN y Elegimos el H ms alto
Criterio de SAVAGE (DE MINIMO PESAR)
Mide el coste de oportunidad, lo que estoy dejando de ganar.
Se crea una matriz de pesares a partir y luego calculamos el
mximo de los mnimos teniendo en cuenta que los valores de la
matriz de pesares son negativos

Abrigos 150 600 25 150-300 600-600 25-500 -150 0 -475
Gabardinas 300 50 100 300-300 50-600 0 -550 -400
Americanas 75 -50 500 75-300 -50-600 -225 -650 0
Elegimos MAX de
cada Columna
Restamos MAX en cada
celda de columna
Elegimos MIN y de
estos el MAX

En muchas ocasiones, el resultado obtenido no slo depende de la alternativa del decisor, tambin de las decisiones tomadas por otros
Las principales clasificaciones, segn los criterios, de los juegos de estrategia son, segn:
El nmero de participantes.
La ganancia total obtenida por el conjunto de todos los participantes:
El nmero de jugadas.
La informacin de la que disponen los participantes:
Elementos que intervengan en las decisiones:
En general, para obtener una solucin de un juego rectangular tendremos que hallar las mejores estrategias de los dos jugadores y el
valor del juego (cantidad que un jugador gana y que el otro pierde).
Los juegos en los que, el maxi-min del ganador, coincide con el mini-max del perdedor, se denominan juegos con punto de silla.
Tcnica ms sencilla para encontrar un punto de silla es determinar un nmero que sea el menor de su fila y el mayor de su columna.
Estrategia pura.
Estrategia mixta.
Suma nula (suma rectangular) o no nula.
Suma constante o variable.
La definicin clsica, o de Laplace:
Si en un total de n casos posibles, todos igualmente factibles, un suceso S puede presentarse en h de los casos favorables, la probabilidad
de ocurrencia de ese suceso, P(S) , es:
( ) |
.
|

\
|
=
n
h
S P
Sean S y T dos sucesos. Se denomina Suceso Compuesto de S y T al consistente en que acontezcan S y T y se designa S T
( ) ( ) ( ) ( ) S T P S P T S P T P T S P = =
Si S y T son dos sucesos independientes entonces
( ) ( )
( ) ( ) T P S T P
S P T S P
=
=
Cuando dos procesos no se pueden presentar conjuntamente se dice que son mutuamente excluyentes
( )
( ) ( ) ( ) ( ) ambos o T o S ocurra que de ad probabilid La
0
+ =
=
T S P T P S P T S P
T S P
Sean S
1
,S
2
, S
n
un conjunto de sucesos disjuntos, y sea T un suceso que puede producirse si acaece S
1
, o acaece S
2
,, o si acaece S
n
:
( ) ( ) ( )
( )
( ) ( )
( ) T P
S T P S P
T S P
T S T S T S T
i i
i
n

Bayes de Teorema el obtenemos donde De


...
2 1
=
=
La informacin proporcionada por la materializacin de un suceso depende de la probabilidad de su acaecimiento; proporciona
tanta ms informacin cuanto mayor sea la sorpresa que produce, es decir, cuanto menor fuera la probabilidad de su
acaecimiento.
Si denominamos a h(P)como la informacin proporcionada por la realizacin de un suceso con probabilidad (P), podemos decir
que tal informacin es funcin de P
Para determinar esa funcin hay que tener en cuenta que:
Debe ser decreciente con P .
Tiende a infinito si P tiende a 0 (suceso imposible).
Tiende a 0 si P tiende a infinito (suceso seguro).
Debe ser montona y continua (a cada uno de los infinitos valores de le corresponde una y solo una, medida de
informacin).
La informacin proporcionada por la ocurrencia conjunta de dos o ms sucesos independientes entre s, debe ser igual a la suma
de las informaciones que nos proporcionan por separado.
En teora de la informacin, como medida de la cantidad de informacin asociada a un suceso, h, se utiliza el logaritmo del
recproco de su probabilidad, P:
( ) ( ) P
P
P h log
1
log = |
.
|

\
|
=
Si el logaritmo es:
Neperiano, informacin viene dada en nits. Decimal, informacin viene dada en hartley. Binario, informacin viene dada en bits.
Si se consideran un conjunto, o sistema de sucesos complementarios y mutuamente excluyentes, S
1
,S
2
S
n
, a los que le corresponden
unas probabilidades respectivas P1,P2, Pn (donde P1+P2++Pn=1), a cada uno de los S
i
le corresponder:
Por lo tanto, la esperanza matemtica del tamao de la informacin (informacin esperada) ser:
H mide la incertidumbre que afecta al sistema antes de saberse cual de los sucesos va a producirse.
AH se le denomina entropa o desorden del sistema, y es siempre no negativa, alcanzando su:
Mnimo, cuando H=0 (slo uno de los sucesos es posible).
Mximo, cuando H=log (n) (todos los sucesos son equiprobables).
Nula, cuando no existe incertidumbre alguna.
Ala entropa tambin se define como la esperanza matemtica del valor de la informacin.
La ocurrencia de un suceso, comunicacin o noticia, denominado mensaje, que haciendo variar la probabilidad de Pj a Qj y variando
adems la incertidumbre existente en relacin con tal suceso, viene dado por:
Por tanto, la expresin anterior se define como el contenido informativo del mensaje, o lo que es lo mismo, la ganancia de informacin
derivada del mismo.
Si en lugar de tratarse de un nico suceso, se tratase de un conjunto o sistema de sucesos, el contenido informativo del mensaje o
informacin de canal o valor esperado de la informacin del mensaje, se definira como:
Denominando a I(Q:P) como informacin de canal.
( ) ( )
i i
P P h log =
( ) ( ) ( ) ( ) ( ) ( ) | |
n n n n
P P P P P P P h P P h P P h P H log ... log log ...
2 2 1 1 2 2 1 1
+ + + + + + =
( ) ( ) ( ) ( )
|
|
.
|

\
|
= + =
j
j
j j j j
P
Q
Q P Q h P h log log log
I
( )
|
|
.
|

\
|
+ +
|
|
.
|

\
|
+
|
|
.
|

\
|
=
n
n
P
Q
P
Q
P
Q
P Q I log ... log log :
2
2
1
1

También podría gustarte