Está en la página 1de 9

DIVISION DE INGENIERAS CAMPUS IRAPUATO - SALAMANCA

Contornos activos

Jos Manuel Flores Prez

Tarea No.1

Teorema de bayes, gradiente descendente, contornos y mapa de distancia

21 de Octubre del 2011

1.- Teorema de Bayes


En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A. En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados. Sea {A1,A3,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresin:

Donde: P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hiptesis Ai. P(Ai | B) son las probabilidades a posteriori. Adems, unido a la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

Aplicaciones El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades

subjetivas.

El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros, que se adaptan con el uso.

2.- El gradiente descendente.


El mtodo del gradiente descendente se define como:

d (t) [J (t , (t))] =( ) dt (t)


donde la matriz diagonal positiva se define como

m1 0 0 = 0 m 2 0 0 0 m3

la matriz constante que regula la convergencia y estabilidad del algoritmo. Los valores de las entradas de esta matriz controlan la tasa de convergencia as como la estabilidad del algoritmo. El mtodo del gradiente descendente garantiza la solucin deseada si la funcin de costo es globalmente cuadrtica en sus parmetros. De otra forma, si la forma de la funcin de costo no es cuadrtica (como en este caso), o no est descrita claramente, una demostracin matemtica, debe realizarse para garantizar la convergencia de las soluciones del mtodo del gradiente descendente hacia el mnimo punto de la funcin de costo. El valor estimado del vector de parmetros se denota por

(t)=[ A (t),(t), (t)]


donde A(t ), (t), (t) , representan los valores estimados de la amplitud, la frecuencia y la constante de fase, respectivamente. Efectuando las operaciones matemticas indicadas en la ecuacin, se llega al conjunto de ecuaciones diferenciales dado por
A (t )=21 e (t)sin( (t ))

(t)=22 e (t) A (t)cos( (t))


(t)=(t )+ 3 (t )

donde el valor de error e (t) , est dado por

e(t)=u(t) A( t)s i(t) n

y los parmetros 1 , 2 y 3

son constantes dadas por 1=m 1 , 2=m 2 m 4 , 3=m3 ( m2 m4 )1 donde m4 , es una constante que sustituye a la variable temporal t . Con esto, se convierte el sistema que originalmente es variante en el tiempo e inestable, en invariante en el tiempo y estable.

Contornos y mapa de distancia en Matlab


Se utiliza la siguiente figura como original.

De esta figura se obtienen los contornos por medio de diferentes filtros. El primero de ellos es el canny el cual utiliza el siguiente cdigo.
I=imread('cont2.pgm'); h1=edge(I, 'canny'); %Representacion de imagen subimage(h1),title('Filtro de Canny'); Del cual se obtiene:

El siguiente es el prewitt, con el siguiente cdigo:


I=imread('cont2.pgm'); h1=edge(I, 'prewitt', 'vertical'); h2=edge(I, 'prewitt', 'horizontal'); %Representaciones de las imgenes subplot(2,1,1),subimage(h1),title('Filtro de Prewitt vertical'); subplot(2,1,2),subimage(h2),title('Filtro de Prewitt horizontal');

Resultando:

El siguiente es el roberts, con el siguiente cdigo:


I=imread('cont2.pgm'); h1=edge(I, 'roberts', 'vertical'); h2=edge(I, 'roberts', 'horizontal'); %Representaciones de las imagenes subplot(2,1,1),subimage(h1),title('Filtro de Roberts vertical'); subplot(2,1,2),subimage(h2),title('Filtro de Roberts horizontal');

El siguiente es el sobel, con el siguiente cdigo:


I=imread('cont.pgm'); h1=edge(im, 'sobel', 'vertical'); h2=edge(im, 'sobel', 'horizontal'); %Representaciones de las imgenes subplot(2,1,1),subimage(h1),title('Filtro de Sobel vertical'); subplot(2,1,2),subimage(h2),title('Filtro de Sobel horizontal');

Resultando:

El siguiente cdigo es para determinar el mapa de distancias el cdigo para obtenerlo es el siguiente:
I=imread('cont2.pgm'); h1=edge(I, 'prewitt'); h=bwdist(I,'cityblock'); mat2gray(h); imcontour(h);

Resultando: