Está en la página 1de 65

APRENDIZAJE

APRENDIZAJE

 APRENDIZAJE ANIMAL
 Componentes:
 Habituación.
 Aprendizaje asociativo.
 Impronta.
 Imitación.
APRENDIZAJE

 APRENDIZAJE AUTOMÁTICO
 Tipos:

Deductivo
Componentes:
Resolución de problemas.
Análisis de la traza.
Filtrado.
Generalización.
Construir nueva información.
Incorporar.
APRENDIZAJE

 APRENDIZAJE AUTOMÁTICO
 Tipos:

Inductivo
Adquisición de componentes
(supervisado).
Por observación (no
supervisado).
APRENDIZAJE

 APRENDIZAJE AUTOMÁTICO
 Tipos:

Por analogía
Modelo unificado de analogía.
Analogía transformacional.
Algoritmo genético
Conexionista
Multiestrategia
APRENDIZAJE

 APOYOS AL APRENDIZAJE

 Aprendizaje supervisado
 Aprendizaje no supervisado
 Aprendizaje con refuerzo de tablas
 Inmediato.
 Retardado.
1 Introducción

 Hay una corriente que dice que sin


aprendizaje no hay inteligencia, entonces
los S.E. no son inteligentes.
 Wiener:“Un sistema organizado que aprende es
aquel que recibe una señal de entrada y la
transforma en una de salida de acuerdo con algún
principio de organización”.
 “Si tal principio esta sujeto a un criterio de validez
de funcionamiento (decir si funciona bien o mal),
hay un objetivo de funcionamiento que permite
ver la evolución del sistema. Si el método de
transformación se ajusta a fin de que tienda a
mejorar el funcionamiento del sistema de acuerdo
con ese criterio. Se dice que el sistema aprende”.
2 Aprendizaje animal (I)

 Se entiende como un proceso adaptativo que cumple las


funciones de wiener, aprendemos para ajustarnos al medio.
 Para que se produzca aprendizaje animal se entiende que debe
de perdurar en la memoria un cierto tiempo
2 Aprendizaje animal (II)
 Es también difícil enunciar una definición, así que se definen una
serie de características:
 Habituación
 Aprendizaje asociativo
 Impronta
 Imitación
Habituación:

 El sistema aprende a no prestar atención de ciertos


inputs y nos habituamos a ello y no lo consideramos
importante. Es muy complicado en sistemas artificiales
decidir cuales aspectos son importantes y hemos de
prestarles, atención.
Aprendizaje asociativo

Aprenden asociando elementos que llegan a estar


asociados (paulov: perro, comida y campanilla). Hay
un aprendizaje de este modo que se llama latente: el
aprender habilita mayor capacidad de aprender.
Impronta

Durante un periodo de, tiempo de su vida todo lo que el


ser ve lo sigue como a una madre. No existe dentro
de la inteligencia artificial. En las primeras fases de la
vida la impronta es más fuerte que en la fases
posteriores.
Imitación:

 Importante en sistemas biológicos. Consiste en imitar el


comportamiento de otro ser. No existe dentro de sistemas
artificiales.
2 Aprendizaje automático
(artificial)(I)
 Tipos de aprendizaje automático:

 Deductivo: mediante procesos de inferencia deductiva aplicando a


hechos reglas conocidas. Necesita conocimientos previos. Ejemplo:
hay colillas -> han fumado.
2 Aprendizaje automático
(artificial)(II)
 Tipos de aprendizaje automático:
 Inductivo: consiste en inducir información
de una concepto a partir de un conjunto
de cosas en concreto. No requiere
información previa del dominio. Ejemplo:
ese gato tiene 4 patas -> todos los gatos
tienen 4 patas. Si veo un caso supongo
que todos los casos son iguales hasta que
encuentre una contradicción que me
obligue a remodelar las informaciones.
Se realiza una estructura del dominio a
base de inducciones.
2 Aprendizaje automático
(artificial)(III)
 Tipos de aprendizaje automático:

 Analogía: aplicar un marco conocido a un problema


nuevo para resolver lo  aprendizaje basado en casos.
 Algoritmos genéticos: se basa en la teoría de Darwin,
mediante mutaciones se mejora el problema.
2 Aprendizaje automático
(artificial)(IV)
 Tipos de aprendizaje automático:

 Conexionista: es el que se usa en redes neuronales.


Algunos están implícitos en la red y otros son externos.
 Multiestrategia: usa distintos tipos de aprendizaje.
3 Apoyos al aprendizaje:

 Aprendizaje supervisado: durante el proceso de


aprendizaje existe un profesor o tutor que
mostrando ejemplos y resultado al sistema. En la
clasificación de elementos el profesor le enseña un
elemento y el sistema le dice a que clase
pertenece. Por ejemplo backpropagation.
 No supervisado: no hay un profesor que guié el
aprendizaje sino que se le muestra el dominio
completo y se le deja al sistema que decida como
realizar esta clasificación, solo hay ejemplos. Por
ejemplo contrapropagación.
 Con refuerzo: hay un supervisor que informa si los
resultados son correctos o no. No dice que clases
hay.
APRENDIZAJE INDUCTIVO
APRENDIZAJE AUTOMÁTICO
1 Definición (I)
Consiste en la adquisición de un nuevo conocimiento por la inferencia
inductiva sobre los datos por el entorno o el adiestrador.
Se suele caracterizar como una búsqueda heurística en la que tenemos los
siguientes elementos:
1. Estado inicial: datos de entrada y las descripciones simbólicas
asociadas. La descripción simbólica son descripciones de los elementos
del dominio.
2. Estado de sucesores son descripciones simbólicas con mayor o menos
número de generalidad.
3. Operadores: serán diversas reglas de inducción de dos tipos:
a. Generalización: de descriptores concretos a descriptores mas
generales.
b. Especialización: de una descripción mas general a una mas
concreta.
4. Estado final: va a ser una descripción simbólica con las siguientes
características:
a. Implica los datos de entrada.
b. Satisface los requerimientos de1 dominio.
c. Es suficientemente satisfactoria.
Inducir es suponer que lo que vemos es siempre así: si vemos que un gato
tiene 4 patas, todos los gatos tienen 4 patas.
1 Definición (II)
Las reglas de generalización pueden ser:
Reglas de selección: va a modificar el conocimiento obtenido. Tenemos los
siguientes.
 Supresión de conjugados eliminando un elemento de la conjunción
para, obtener un descriptor mas general. Por ejemplo: los latinos son
simpáticos y bajitos -> los latinos son bajitos.
 Adicción de disyuntados: incluimos un descriptor más como una
disyunción y obtenemos una expresión mas general. Ejemplo: hay un
fantasma bajo la cama -> hay un fantasma bajo la cama o en el
armario.
 Cambio de constantes por variables. Por ejemplo: la hormiga
atómica lleva casco -> la hormiga X lleva casco.
Reglas constructivas: va a añadir nuevo conocimiento (nuevos
descriptores).
 Adiciones cuantitativas; por ejemplo: cosa lisa y negra -> cosa lisa,
negra y con tres picos
 Detección de dependencias. Por ejemplo la serie: (3,6),(4,8),(5,10)
seria dos números entre paréntesis separados por una coma donde
uno es la mitad del otro.
 Lo que hacemos es buscar un descriptor que mejor identifique a
cada clase para hacer una clasificación eficiente. Para obtener
buenos descriptores usamos los operadores.
2 Tipos de aprendizaje
inductivo (I)
Hay fundamentalmente dos tipos:
 Adquisición de conceptos (aprendizaje
inductivo supervisado). Contamos con
una serie de elementos ya clasificados y
sabemos a que clase pertenece cada
elemento. Nuestro objetivo es obtener
un descriptor apropiado de cada clase.
 Por observación (no supervisado).
Tenemos todo el dominio y hemos de
clasificar los elementos de nuestro
sistema.
2 Tipos de aprendizaje
inductivo (II)
Método de Hayes-Roth (supervisado)
Intenta las generalizaciones conjuntivas más específicas a partir de un conjunto de
afirmaciones positivas, a ese conjunto se le llama "maximal abstraction" o "inferencial
matches".
 Ejemplo:

- Case Frame (elementos): El, E2 Y E3.


- Case labell (propiedades): sombreado, liso, grande, pequeño....
- Parameters (partes): El esta formado por a, b y c.
2 Tipos de aprendizaje
inductivo (III)
Método de Hayes-Roth. Ejemplo
Buscamos un descriptor para los tres casos:
 Paso 1: el primer elemento de entrada configura el
primer conjunto de generalizaciones conjuntivas de la
clase que llamaremos G1. En el ejemplo Gl=E1.
 Paso 2: Para un nuevo elemento de entrada se consigue
un nuevo conjunto de generalizaciones M que se obtiene
de un cotejamiento parcial entre el nuevo elemento y la
descripción de la clase.
 Paso 3: Cuando se han cotejado todos los elementos del
conjunto de entrada el conjunto de generalizaciones
obtenido es la descripción de la clase.
Solo podemos asegurar la falsedad no la veracidad.
2 Tipos de aprendizaje
inductivo (IV)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
 A. Se cotejan todas las generalizaciones conjuntivas de todas
las formas posibles hasta obtener un conjunto M formado por
todas las afirmaciones procedentes de la correspondencia
entre parámetros que coincidan en ambos casos. Si tenemos
'b' en El que es sombreado y redondo lo podemos asociar a
'e' y 'f' de E2.
 B. Seleccionamos un subconjunto de las correspondencias
entre los parámetros que se puedan vincular
consistentemente. Una vinculación es consistente cuando no
vincula a un parámetro de una instancia con varios
parámetros de otra instancia. Si a/b entonces no puedo
coger a/c porque entonces no seria consistente.
2 Tipos de aprendizaje inductivo (V)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
2 Tipos de aprendizaje
inductivo (VI)
Por observación (no supervisado):
Es más ambicioso y tiene dos puntos de vista: uno psicológico y
otro computacional.
 Componente psicológica:
A. Enfoque clásico: se basa en que todas las instancias de una
categoría comparten un conjunto de características comunes.
Desventajas si intentamos abordar esto computacionalmente
no siempre es posible encontrar una característica común
que caracteriza la clase. La imposibilidad de definir grados de
pertenencia a un conjunto. Existen asignaciones ambiguas.
B. Enfoque probabilístico se asocia un grado de pertenencia a
cada clase. Para ello se define un prototipo de la clase y
luego mediríamos la distancia de nuestro elemento a la
clase. Desventajas:
- Habla independientemente del contexto.
- Es difícil cuantificar la distancia al prototipo, es
complicado establecer la métrica.
C. Categorización basado en teorías hay información difícil de
inyectar en l a clase y hemos de encajar la en el dominio.
2 Tipos de aprendizaje inductivo
(VII)
Por observación (no supervisado):
 Componente computacional: el objetivo es conseguir agrupar los elementos en
clases, y conseguir las características que definen cada clase.
A. Taxonomía numérica: son los primeros intentos de aprendizaje
automático no supervisado mediante inducción y casi todos están basados
en algún tipo de métrica.
Distancia de Minkowski: d(i,k)=(Σnj=i (|xij –xkj)|п )½, donde si п es 1 se trata de
la distancia euclídea y si vale 2 es la distancia hamming. Cada caso es un
vector de reales de n números (más bien un punto). Es esquema de
representación es un vector de n coordenadas. Para clasificar las clases los
vectores hay dos tipos de algoritmos:
1. Algoritmos aglomerativos en principio suponen que cada elemento
es una clase y luego se van uniendo hasta conseguir el número
deseado.
2. Algoritmos divisores consideran que todos los vectores pertenecen a
la misma clase y luego los van dividiendo en subclases.
Objetivos:
- La similitud entre elementos de la misma clase debe ser próxima.
- La diferencia entre elementos de clases distintas debe ser máxima.
El problema es cuando parar (de juntar o dividir).
2 Tipos de aprendizaje inductivo (VIII)
Por observación (no supervisado):
 Componente computacional:
B. Aprendizaje automático: es una mejora de la taxonomía automática, donde se
intenta:
- Resolver el problema de cuando parar.
- Los parámetros numéricos pueden no expresar bien el dominio.
Intenta encontrar otras alternativas.

A B

1. Agrupación conceptual: A y B van a ser casi siempre en la misma clase, sin


embargo hay un concepto más allá de la distancia, unos puntos forman un circulo y
otros un triángulo. Habría que introducir los conceptos círculo y triángulo.
2. Cluster: a partir de una serie de semillas van creciendo (en forma de estrella)
3. Teoría de Witt: Se basa en teorías de la información.
4. Autoclass: Teorías de Bayes.
5. Formación de conceptos: tiene mecanismos que permiten realizar el
aprendizaje de forma incremental.
APRENDIZAJE DEDUCTIVO (APRENDIZAJE
BASADO EN EXPLICACIONES)
APRENDIZAJE AUTOMÁTICO
1 Deductivo: EBL (explanation
based learning).(I)

 El aprendizaje inductivo era el más utilizado,


pero tiene un problema: el aprendizaje
inductivo no preserva la veracidad pero
preserva la falsedad.
- No preserva la veracidad: por inducción
no se puede afirmar algo que hemos
observado.
- Preserva la falsedad: podemos saber que
algo es falso.
1 Deductivo: EBL (explanation
based learning).(II)

 La deducción permite preservar la


veracidad ya que hay conocimiento del
dominio que respalda las afirmaciones.
Sobre el conocimiento obtenido
inductivamente podemos deducir.
La segunda diferencia es que el
aprendizaje inductivo necesita muchos
ejemplos para obtener información del
dominio. En el deductivo nos vale con
un ejemplo pero necesitamos más
conocimiento del dominio.
1 Deductivo: EBL (explanation
based learning).(III)

 La tercera diferencia es que el método deductivo no incorpora


nuevo conocimiento, tan solo consigue explicar mejor
(concretar) el conocimiento existente.
Definiciones:

 Teoría del dominio (o conocimiento de respaldo)


es la información específica del dominio que
vamos a suponer completa y consistente (en SBR
es la base de afirmaciones).
 Concepto objetivo: es el concepto del que el
método EBL debe determinar una definición
efectiva y operacional. Se dice que es efectiva
porque lleva a la solución rápidamente y es
operacional porque se puede hacer en la
máquina.
 Ejemplo es una instancia concreta de un objetivo
 Nueva teoría del dominio es una teoría del
dominio modificada.
Componentes
Componentes: (I)

 1. Resolución del problema: utilizar el


dominio y el ejemplo para 1Iegar al objetivo.
 2. Análisis de la traza: analizamos la
solución para conseguir obtener una
explicación. Usamos criterios:
 A. Criterio de relevancia. va a ser realmente
aquello que sea importante para abordar
problemas futuros, en una traza va a ser
realmente aquella información que forme
parte en el camino de llegar a la solución.
 B. Criterio de operatividad: son aquellas
reglas que se activan directamente.
Componentes: (II)

 3. Filtrado: filtra la información de la traza


para llegar a la explicación. Coge lo que es
relevante y operativo. Se obtiene una
explicación.
 4. Generalización: consiste en sustituir las
constantes por variables de forma que la
expresión siga siendo válida. El método más
usado es el algoritmo de regresión de
objetivos. Regresionar una fórmula f a través
de una regla r consiste en determinar las
condiciones necesarias y suficientes bajo las
cuales puede usarse la regla r para obtener
f.
Componentes: (III)

 5. Construir nueva información: La información que


construimos puede ser:
Reglas de dominio que expresaran nuevas
definiciones de conceptos en las que la parte
izquierda de la regla serán las combinaciones
necesarias y suficientes del árbol de explicación
generalizado mientras que la raíz del mismo será la
parte derecha de la regla.
Reglas de control que se construyen de forma similar.
 6. Incorporar: esas nuevas reglas hay que
incorporarlas a la base de conocimiento, pero a
veces se obtienen demasiadas reglas para introducir
en nuestro sistema. Hay que llegar a una solución de
compromiso (velocidad de inferencia o base de
afirmaciones mayor).
Problemas del EBL.(I)
 Hemos supuesto que la base de conocimiento es completa y es
consistente pero a veces la base que tenemos no es así. Por ello
se producen dos problemas:
 1 Reformulación de la teoría: es provocado por el aumento de volumen
de la información o bien por el aumento de la complejidad (reglas más
complejas en la base de conocimiento .Y hay que determinar que
dejamos y que eliminamos. Así que tenemos dos soluciones: o almacenar
siempre o bien no almacenar nunca.
Problemas del EBL.(II)

 2 Revisión de la teoría: la información obtenida no es


adecuada porque:
 La teoría es incompleta.

 La teoría es incorrecta.

 La teoría es inconsistente: se puede llegar a


contradicciones.

 La Teoría es intratable: por su volumen son difíciles de


abordar.
APRENDIZAJE POR ANALOGÍA
APRENDIZAJE AUTOMÁTICO
Introducción

Si dos situaciones son iguales en algunos


de sus aspectos, lo normal es que
puedan serlo en otras.

Ejemplo:
 Un circuito y un sistema con una fórmula que define su comportamiento
similar. Analogía entre las dos situaciones.

Se usa cuando se conoce el comportamiento de un sistema, para


conocer como se comporta un sistema análogo.
Definiciones.

 Problema base: situación conocida de ante mano.


 Dominio base: lo que se conoce de él.
 Problema objetivo: aplicamos lo conocido a la nueva
situación.
 Dominio objetivo: conocimiento obtenido de aplicar
el problema objetivo junto con la situación conocida.
Modelo unificado de
analogía (I).
KEDAR-COBELL (1988)
 Fases:
 1. Recuperación: Partiendo del problema objetivo
(dominio objetivo) buscamos un problema base en el
dominio base que tenga similitudes significativas.
 2. Elaboración: Define conocimiento del problema
base para poder aplicarlo en el problema objetivo.
Modelo unificado de
analogía (II).
KEDAR-COBELL (1988)
 Fases:
 3. Mapeo: Trasladamos el conocimiento desde el
problema base hasta el objetivo.
 4. Justificación: Comprobamos si lo que sabemos es
aplicable y funciona en la función objetivo.
 5. Aprendizaje: Consiste en almacenar el
conocimiento obtenido aprendido, en el
conocimiento objetivo
Analogía transformacional.
CARBONELL (1983)

Plantea un espacio llamado ‘Tespacio’ y decide que hay


varios problemas que pueden manejarse con el
Tespacio, de manera que, se puede asignar a
distintos problemas usando Toperadores.
APRENDIZAJE POR REFUERZO DE TABLAS
APOYOS AL APRENDIZAJE
Introducción (I).

 Aprendizaje por refuerzo de tablas consiste en tener


una serie de parámetros y según los resultados de la
funcionalidad del sistema ir modificando los
parámetros.
Introducción (II).

TIPOS DE APRENDIZAJE POR REFUERZO:

Inmediato: lleva una señal de refuerzo tras cada


actuación del sistema y a cado paso tendrá una
señal de refuerzo que indicará si va bien o mal.

Retardado: se pondera exclusivamente la


acción del sistema.

Es más fácil manejar el retardado que el inmediato.


Introducción (III).

 CLASIFICACIÓN:

1. Refuerzo en tablas.
2. Redes neuronales.
3. Aprendizaje estímulo-acción
Aprendizaje por refuerzo de
tablas (I).

 El aprendizaje por refuerzo en tablas consiste en gestionar el


conocimiento mediante tablas de valores que se van
actualizando atendiendo al valor del refuerzo. Son sólo
aceptables por problemas aceptables por problemas de
Markov.
 Problemas modernizable por cadenas de Markov sólo
dependen del estado en el que está el sistema y no
depende de cómo ha llegado a ese estado.
Aprendizaje por refuerzo de tablas (II).

TIPOS DE REFUERZO:

Refuerzo inmediato.
Refuerzo retardado.
Aprendizaje por refuerzo de tablas (III).

 Refuerzo inmediato: el algoritmo


normal (es el que se conoce como
algoritmo lineal de premio castigo,
LRP) constituye una tabla con todos
los posibles estados del sistema y
todas las posibles acciones.
El algoritmo lineal de refuerzo
inacción, solamente se castiga,
cuando lo haces bien no modifica los
pesos y cuando lo hace mal lo
castiga.
Aprendizaje por refuerzo de tablas (IV).

 ALGORITMO LINEAL DE PREMIO Y CASTIGO

E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,...

Si se está en E1 y se pasa a E2, si es bueno se premia y si no se castiga.


Aprendizaje por refuerzo de tablas (V).

 Refuerzo retardado: suele ser más complejo y menos


autónomo. Según se ha llegado al final se valora si se
ha hecho bien o mal.
Es más difícil detectar el fracaso en los parámetros del
sistema.
Páginas de interés

 Aprendizaje en Inteligencia Artificial


 Aprendizaje (definición y tipos)
 Resumen Aprendizaje y Memoria
 Inteligencia en Redes de Comunicaciones (Aprendizaje)
 Aprendizaje definición y tipos en wikipedia
 Aprendizaje Automático:Aprendizaje de Conceptos y
Espacio de Versiones.
 Aprendizaje Deductivo (Basado en la Explicación)
 Introduction to Machine Learning
 Machine Learning and Natural Language Processing
 Aprendizaje automático
Aprendizaje inductivo

 Aprendizaje por observación (ppt)


 Introducción y descripción de los algoritmos de
Aprendizaje Inductivo-Incremental
 Aprendizaje Inductivo
 Aprendizaje Automático: Aprendizaje de Conceptos y
Espacio de Versiones.(pdf)
 Aprendizaje Inductivo
Aprendizaje deductivo

 Aprendizaje Deductivo (Basado en la Explicación)


 Articulo: Sugerencias para la enseñanza tomando en cuenta
métodos de aprendizaje mecánico de la inteligencia artificial
 Aprendizaje automático. Técnicas basadas en EBL
 DeJong y Mooney (1986), definieron el Aprendizaje Basado en la
Explicación, EBL
Aprendizaje por analogía

 Aprendizaje por analogía


 Aprendizaje por analogía
 Introducción al aprendizaje de la maquina: sistemas discentes
Aprendizaje basado en
casos
 Repositorio general sobre AI-CBR
 Herramientas AI-CBR (ver académicas)
 Documentación y código sobre el conocido
sistema SWALE
 Recursos CBR (AAAI)
 INRECA: proyecto europeo del que se
deriva CASUEL y CBR-Works
 Planificación y CBR (Veloso) / Planning and
CBR
 Agentes y CBR (CSIC)
 Gente relacionada con ML y CBR / ML and
CBR people
 Conferencia Internacional de CBR'03
Bibliografía

 Mitchell (1997): “Machine Learning”. McGraw-Hill.


 DA Norman (1988 ) “El aprendizaje y la memoria”. Alianza
Editorial
 LÓPEZ, J.A. (1990). "Inteligencia Artificial en Educación". Apuntes
de Educación y NN.TT., nº 38" Madrid: Anaya
 Gerhard Weib, Sandip Sen (1996) “Adaptation and learning in
multi-agent systems ed”.
 CASACUBIERTA, F. Y VIDAL, E. (1987 a) “Reconocimiento
automático del habla”. Marcombo.
 D. Borrajo, J.G. Boticario y P. Isasi. (“saldrá publicado” en abril
2006).“Aprendizaje Automático.” Editorial Sanz y Torres
 A. Moreno Ribas y otros (1994). “Aprendizaje Automático.”
Ediciones UPC (Universidad Politécnica de Cataluña)
 Carbonell, J.G., Michalski, R.S., and Mitchell, T.M., "Machine
learning: A historical and methodological analysis". AI Magazine,
Fall (1983) 69-79.
 Chandrasekaran, B., Johnson, T.R., and Smith, J.W., "Task-structure
analysis for knowledge modeling". Communications of the ACM,
35 (1992) 124-137.
Artículos destacados

 A Learning Algorithm For Neural Network Ensembles


http://ltcs.uned.es:8080/aepia/Uploads/12/128.pdf

 Presentacion Monografia: Sistemas Inteligentes en el


ambito de la Educacion
http://ltcs.uned.es:8080/aepia/Uploads/12/131.pdf

 Apredizaje de la similitud entre casos con valores discretos


y numéricos(Premio Accésit Jose Cuena)
http://tornado.dia.fi.upm.es/caepia/numeros9/luaces.ps.
gz

 ¿Aprendizaje o Aprendizajes?
http://contexto-educativo.com.ar/2001/2/nota-02.htm
Artículos destacados (II)

 Un método deductivo para la enseñanza


http://www.edscuola.it/archivio/softwar
e/bit/course/RevistaEnsenanza.pdf
 Aprendizaje Deductivo, Inductivo, y Abductivo con
Algoritmos Genéticos
http://www.inf.udec.cl/revista/ediciones/edicion10/a
pr-ag.pdf
 Análisis y síntesis de la señal acústica
http://cvc.cervantes.es/obref/congresos/sevilla/
tecnologias/mesaredon_casacuberta.htm
 Aprendizaje en inteligencia artificial
http://www.sindominio.net/~apm/articulos/IAIC/
aprendizaje/aprendizaje.pdf
Aplicaciones

 Sistema de tutoría inteligente adaptativo


considerando estilos de aprendizaje
http://eia.udg.es/~clarenes/docs/ribie-udg-2002.pdf.
 Sistema de Reconocimiento del habla
http://es.wikipedia.org/wiki/Reconocimiento_del_habla
 Programa que aprende a jugar al Backgammon
entrenándose contra sí mismo mediante
aprendizaje con refuerzo. El programa logró un
nivel de juego comparable al de los expertos
humanos. “Temporal difference learning
and TD-Gammon”
(http://www.research.ibm.com/massive/tdl.html)
Aplicaciones (II)

 Machine Learning for Distributed


Traffic Control
http://www.isle.org/%7Elangley/traffic
.html
 How can computers learn to decode
a person's mental state from their
brain activity?
http://www.cs.cmu.edu/afs/cs/project/the
o-73/www/index.html

También podría gustarte