Está en la página 1de 7

ARTICULO CIENTIFICO

Nombre: Renato Javier Martinez Ordoñez


Curso: Matemáticas para la Inteligencia Artificial
Tema: Programación Lógica inductiva

INTRODUCCION:
El presente trabajo dará respuesta a las preguntas realizadas en las instrucciones de esta actividad
tomando como referencia el articulo y enlaces externos, Al final de las respuestas colocaré las
conclusiones del trabajo.

PREGUNTA 1: Explica cuáles son las diferencias clave entre un proceso deductivo e
inductivo. Indica algunos ejemplos de cada uno de ellos, más allá de los que ya se presentan
en el artículo.

Las principales diferencias entre un procesos inductivo y deductivo son las siguientes:

- Las reglas de la inferencia inductiva son inversas a las deductivas. Esto se debe a que la
inferencia inductiva parte de casos particulares o evidencias para pode encontrar una ley
general que lo pueda explicar con una determinada probabilidad, mientras que la
inferencia deductiva parte de experiencias previas, es decir, de una ley general para poder
explicar casos particulares.

- Tomando en cuenta las experiencias previas, en un proceso deductivo las conclusiones de


los casos particulares siempre son válidas a menos que la ley general sea falsa por lo que
esto es muy importante para no llegar a conclusiones erróneas. En cambio, un proceso
inductivo se tiene conclusiones probabilísticas que solo se puede generalizar para casos
que sean similares.

- Los procesos inductivos siempre aportan nueva información debido a las nuevas
observaciones o experimentos que se realicen para poder encontrar una nueva ley
general. En cambio, los procesos deductivos no aportan nueva información debido a que
toma leyes generales para realizar conclusiones de casos particulares y estas conclusiones
no les dan un valor agregado a las leyes generales.

Ejemplos de procesos inductivos y deductivos:

- Procesos inductivos:

o Los humanos son mortales.


 Observaciones:
Mortal ( X ) ← Hombre ( X )
Humano ( X ) ← Hombre ( X )
 Ley general:

Mortal ( X ) ← Humano ( X )

o Las alarmas críticas detienen el Molino.

 Observaciones:

Lógica detención 1 ( X ) ← Bajo Flujo de Agua( X )


Lógica detención 2 ( Y ) ← Reducción de Presión descanso(Y )
Alarma crítica ( X , Y ) ← Flujo de agua ( X ) , Presión de descanso (Y )

 Ley general:

Detención ( X ) ← Alarma crítica ( X )

- Procesos deductivos

o Una temperatura alta en el acople detiene la Bomba.

 Ley general:

Detención de Bomba ( X ) ← Alarma crítica ( X )

 Caso particular:

Alarma crítica ( X ) ← temperatura alta en acople( X )

 Deducción:

Detención de bomba ( X ) ← temperatura alta en acople(X )

o Los números primos son reales.

 Ley general:

Números reales ( X ) ← Números enteros ( X )

 Caso particular:

Números enteros ( X ) ← Números primos ( X)

 Deducción:

Números reales ( X ) ← Números primos (X )


PREGUNTA 2: Una vez establecidas las diferencias, indica cuál es la motivación para
trabajar con programación lógica inductiva, exponiendo algunas aplicaciones y/o
situaciones en las que nos valemos de un proceso inductivo.

Las principales motivaciones que se tiene para trabajar con ILP son las ventajas que se tiene
sobre el Machine Learning estadístico, esto se puede ver en la siguiente tabla:

Tabla 1: Diferencias entre ML estadístico e ILP


(Inductive Logic Programming At 30: A New Introduction, A. Cropper and S. Dumancic)

- Ejemplos: ILP requiere de pocos datos de entrenamiento para poder inducir a una
hipótesis, por este motivo, se puede aplicar cuando no es fácil obtener una gran cantidad
de ejemplos como en el diseño de fármacos.

- Data: ILP puede realizar relaciones infinitas debido a que no requiere de tablas de datos
como el ML estadístico, esto permite tener un menor coste computacional.

- Hipótesis: ILP puede razonar sobre hipótesis permitiendo desarrollar algoritmos de alta
complejidad, esto se aplica para las “políticas de seguridad y control de acceso”
(FastLAS: Scalable Inductive Logic Programming Incorporating Domain-Specific
Optimisation Criteria, M. Law, A. Russo, E. Bertino, K. Broda y J. Lobo) en el cual se
aplica un nuevo sistema ILP llamado FastLAS que elimina la limitante de que las reglas
no sean las optimas cuando se tienen datos escasos de entrenamiento.

- Explicabilidad: Como indica el artículo, las reglas generadas por ILP son fácilmente
compresibles para las personas ya que tiene similitud con el lenguaje natural. Su lógica es
más compacta y relacional, y no proposicional como otros algoritmos de aprendizaje. Por
tal motivo aplica en la Inteligencia artificial como en el algoritmo de un “Robot
Científico para el diseño de fármacos” (Inductive Queries for a Drug Designing Robot
Scientist, R. King, A. Schierz, A. Clare, J. Rowland, A. Sparkes, S. Nijssen and J.
Ramon).

- Transferencia de conocimiento: ILP permite inducir hipótesis para problemas simples y


el aprendizaje obtenido puede ser transferido para poder resolver problemas más
complejos, algo que generalmente el Machine Learning (ML) no puede realizar ya que el
aprendizaje obtenido es específico para un determinado problema. La transferencia de
conocimiento (transfer learning) se esta usando comúnmente para la visión artificial y el
procesamiento de lenguaje natural, donde las redes neuronales entrenadas para un caso
particular pueden ser utilizadas como conocimiento base para un caso similar o más
complejo. La transferencia de conocimiento también ha sido utilizada para juegos
(Transfer learning by Inductive Logic Programming, Y. Sato, H. Iida and H. Herik)

PREGUNTA 3: Expón la interacción entre esta disciplina y la probabilidad, así como el rol
que juega el teorema de Bayes y, en general, la inferencia bayesiana.

En la ILP las leyes generales (hipótesis) encontradas vienen acompañados de un valor de


incertidumbre de que pueda o no cumplirse para todos los nuevos casos. Este valor de
incertidumbre se mide con la probabilidad. Pero existen muchos tipos de incertidumbre y la
teoría de la probabilidad solo explicaba uno de ellos. Tenemos 3 tipos de incertidumbre:

INCERTIDUMBRE

BORROSIDAD
AMBIGUEDAD (Vaguedad, falta de
Claridad,
indistinguibilidad, etc.)

IMPRESISION DISCORDIA
(No especifididad, (disonancia,
genralidad, diversidad, discrepancia, conflicto,
etc.) etc.)

Figura 1: Tipos de Incertidumbre


Para abarcar todos los tipos de incertidumbre también se utiliza la teoría de la evidencia, de la
posibilidad y de conjuntos borrosos.
Los modelos probabilísticos que se implementan en una ILP se pueden basar en la inferencia
Bayesiana, por tal motivo se ha tenido estudios donde se integrado las redes Bayesianas con la
ILP (Kersting, K. y De Raedt, L. 2001), esta integración a dado lugar a lo que se conoce como
Programación Lógica Bayesiana.
La programación lógica Bayesiana supera la limitación de la naturaleza proposicional de las
redes Bayesianas y de la naturaleza puramente lógica de los programas lógicos. El enfoque de la
programación lógica Bayesiana es llevar las cláusulas proposicionales de una red Bayesiana a
cláusulas de primer orden para que permitan obtener un modelo probabilístico para la ILP y esto
se logra relacionando los átomos fundamentales del modelo Herbrand mínimo con las variables
aleatorias, uno de los problemas que tienen está técnica es su coste computacional elevado
debido a la misma naturaleza de las redes Bayesianas.

PREGUNTA 4: Detalla la conexión que existe entre esta rama de la lógica y la inteligencia
artificial, en particular el aprendizaje automático y las redes neuronales.

La ILP es utilizada para el aprendizaje inductivo de conceptos en la Inteligencia Artificial y


dentro de esta es principalmente usado en el ML, supervisado o no supervisado, para la
representación de hipótesis y datos, así como también para mejorar la interpretabilidad de los
modelos que a menudo son una caja negra, Algunas de sus aplicaciones son:

- Clasificación: Es un método de aprendizaje supervisado que puede utilizar el método del


descenso de la gradiente para poder realizar el entrenamiento y obtener el modelo de la
red neuronal, este modelo es una caja negra la cual no puede interpretarse. El ILP se esta
utilizando para implementar una programación lógica inductiva basado en el descenso de
la gradiente para poder obtener un modelo interpretable (Inductive Logic Programming
with Gradient Descent for Supervised Binary Classification, N. Wu).

- Aprendizaje de lenguaje en lógica (LLL): Utilizado para la extracción de información de


fuentes de texto para la construcción de bases de conocimientos científicos, esta
aplicación es una intersección entre el ML, ILP y NLP (lenguaje de procesamiento
natural).

- Autoenconders: Son redes neuronales feedforward que generan nuevos datos a través de
la compresión del dato de entrada, en estos nuevos datos se tienen la información más
relevante de la entrada, la ILP se utiliza para esta generación de datos.

CONCLUSIONES:
- La ILP es fácilmente compresible debido a su semejanza con el lenguaje natural.
- La ILP permite realizar transferencia de conocimiento, algo que el ML tradicional no
puede realizar.
- La inferencia Bayesiana es muy importante a la hora de calcular la incertidumbre en la
ILP.
- Las redes neuronales, aunque son muy eficientes, entregan un modelo que es una caja
negra con millones de variables que son difíciles de analizar. La ILP soluciona este
problema entregando un modelo interpretable y con una precisión cercana a la de una red
neuronal convencional.

REFERENCIAS:

- Inductive Logic Programming At 30: A New Introduction, A. Cropper and S. Dumancic.


https://arxiv.org/pdf/2008.07912.pdf

- FastLAS: Scalable Inductive Logic Programming Incorporating Domain-Specific


Optimisation Criteria, M. Law, A. Russo, E. Bertino, K. Broda y J. Lobo.
FastLAS: Scalable Inductive Logic Programming Incorporating Domain-Specific Optimisation
Criteria | Proceedings of the AAAI Conference on Artificial Intelligence

- Inductive Queries for a Drug Designing Robot Scientist, R. King, A. Schierz, A. Clare, J.
Rowland, A. Sparkes, S. Nijssen and J. Ramon.
https://link.springer.com/chapter/10.1007/978-1-4419-7738-0_18

- Transfer learning by Inductive Logic Programming, Y. Sato, H. Iida and H. Herik.


https://www.analyticssteps.com/blogs/how-transfer-learning-done-neural-networks-and-
convolutional-neural-networks

- Inductive Logic Programming with Gradient Descent for Supervised Binary


Classification, N. Wu.
https://dspace.mit.edu/bitstream/handle/1721.1/129926/1237567242-MIT.pdf?
sequence=1&isAllowed=y

- Towards Combining Inductive Logic Programming with Bayesian Networks, K.


Kersting, L. Raedt.
(PDF) Towards Combining Inductive Logic Programming with Bayesian Networks
(researchgate.net)

- Bayesian Logic Programming: Theory and Tool.


http://people.csail.mit.edu/kersting/profile/balios/blpSRLchapter06.pdf

- Turning 30: New Ideas in Inductive Logic Programming.


https://www.ijcai.org/proceedings/2020/0673.pdf

- Método inductive y deductive, E. Arrieta.


https://www.ijcai.org/proceedings/2020/0673.pdf
- Introduction to Inductive Logic Programming (ILP), B. Espinasse.
https://pageperso.lis-lab.fr/bernard.espinasse/wp-content/uploads/2021/12/Cours-ILP-BE-
28nov17-4p.pdf

También podría gustarte