Está en la página 1de 5

Ensayo Nro.

1 – Inteligencia Artificial
Lógica Difusa
Antes de hablar sobre la lógica difusa, es bueno, tener en claro que es la lógica clásica para así entender con
más facilidad el tipo de lógica que estudiamos, y de donde proviene la misma, la clásica es la lógica que usualmente
usamos, esta se basa en los principios de Aristóteles, la misma tiene como objetivo determinar si nuestro
comportamiento es correcto o no lo es, en este tipo de lógica solo existen dos valores de veracidad, los cuales serían
verdadero o falso y es así como razonamos mayormente, está claro que, como ser humanos tenemos dificulta a la
hora de tomar decisiones cuando se tiene información imprecisa, es por ello que fue creada la lógica difusa, hablando
en términos generales esta aspira producir resultados exactos a partir de datos imprecisos. La palabra difusa se debe
a que los valores utilizados en esta, generalmente tienen una connotación de incertidumbre. Es por eso que cuando
hablamos de difuso puede entenderse como la posibilidad de asignar diferentes valores de verdad a los enunciados y
no solamente los clásicos falso o verdadero, ahora bien, de forma más particular la lógica difusa se basa en los
conjuntos difusos, en estos conjuntos difusos a cada elemento del universo se le asocia un grado de pertenencia a
dicho conjunto, en el intervalo (0,1), es por eso, que difieren de los conjuntos clásicos, ya que, la función de
pertenencia en estos sólo puede tener dos valores 1 ó 0. Si observamos esto de una manera más sencilla, entendemos
que la diferencia de la lógica clásica es que tiene solo dos valores, mientras que la lógica difusa busca tener una gran
cantidad de valores de veracidad, la cual, es una manera de buscar imitar la lógica humana, aunque esta toma
decisiones más acertadas a pesar de la información que posea. Entonces, se puede entender como lógica difusa a una
técnica de inteligencia que busca copiar la forma en que los humanos toman decisiones, esta misma se denomina
como un conjunto de principios matemáticos que están basados en grados formando así parte de un grupo, la misma
tiene como función modelar información, dicho modelado se realiza en base con reglas lingüísticas que se acercan a
una función mediante la relación de entradas y salidas de cada sistema, estas variables lingüística adopta valores con
palabras que permiten describir el estado de un objeto o fenómeno. Sí bien es cierto, puede haber muchos conceptos
más extenso y complejos, pero algo bastante interesante para llegar a entender bien esta rama de inteligencia artificial,
es conocer un poco más a fondo y no quedarnos solamente con un simple concepto, por lo tanto, me parece
conveniente e importante hablar un poco de su historia, de donde salió y quien la propuso.
En cuanto a su historia, este tipo de lógica fue planteada por Lorfi A. Zadehe en 1965 en un artículo, en el
cual planteó una teoría, la misma, se basaba en utilizar los dos valores de la lógica clásica, estos valores eran
dominados falso y verdadero, pero permitiendo tener valores parciales entres estos dos extremos, es decir, Zadehe
propuso colocar estos dos valores sobre un rango de (0.0, 1.0) en el cual, 0.0 se dominaría como totalmente falso y
1.0 quedaría como totalmente verdadero, debido que este tipo de lógica tiene como fin encontrar incertidumbres
entre dicho rango, existirán más valores entre 0.0 y 0.1, o sea, no se pueden tomar valores únicos para saber si es
cierto que un elemento pertenece o no, cada valor que se tome deber ser explícitamente entre 0-1, es por eso que las
opciones de respuesta son muchas y hasta infinitas en caso que no se limite adecuadamente el sistema o proceso en
estudio, en pocas palabras, entre esos valores existirán muchas posibilidades, por lo tanto se le denominan valores
parciales, esto debido a que, la lógica difusa tiene la posibilidad de medir el grado de dificultad, en otras palabras,
puede medir el grado en que algo ocurrirá o alguna situación existirá, permitiendo así, cuantificar en esa escala las
incertidumbres que se presenten en los casos de estudio. A partir allí, se entienden mejor la definición del concepto
(todo es cuestión de grados), dicho concepto fue determinado por unos Matemáticos que se dedicaban a la lógica en
esos tiempos. Si bien es cierto, que la lógica difusa se planteó en 1965 pero no fue hasta 1970 que fue aplicada, esto
sucedió gracias Ebrahim H. Mamdani, el cual, la empleo en un diseño de controlador difuso para un motor a vapor,
luego en 1971 el mismo Zadehe público otro artículo en el cual estaban los elementos formales de la lógica difusa y
sus aplicaciones, tal cual, como se conocen ahora en la actualidad, a partir de allí hasta hoy en día está presente en
la tecnología como en la robótica y el control.

Nombre y Apellido: Estefani Díaz


Cedula: 28113966
Expediente:20162-C100
Ensayo Nro. 1 – Inteligencia Artificial
Las aplicaciones de la lógica difusa se realizan en áreas multidisciplinarias que van desde la evolución
tecnológica de los electrodomésticos, hasta programas computacionales para tomar decisiones y se han extendido a
diversas áreas específicas, es por ello, que este tipo de lógica posee bastante utilidad, no solo sirve para automatizar
procesos y diseñar controladores difusos, sino que además permite trasladar una experiencia de una persona a unos
computadores, es decir, se crearía un control difuso con los criterios que utiliza la persona a la hora de manejar alguna
maquinaria para así sustituir o reemplazar al operador, por otro lado tiene la capacidad de procesar información con
incertidumbre, es por eso, que se considera una rama de la Inteligencia artificial, este tipo de lógica es bastante
precisa ya que trabaja con información bien definida y al ser una lógica multivaluada, tiene como principal objetivo
el manejo del razonamiento aproximado, es decir, tiene como objetivo crear un sistema basado en el comportamiento
y pensamiento humano, obteniendo como propósito imitar el razonamiento de los humanos en la programación de
computadoras, es importante resaltar que en este tipo de lógica se utilizan modelos matemáticos para representar
nociones o elementos subjetivos, especialmente para valores concretos que sean manipulados por los ordenadores.
Cuando existen casos donde algún sistema que no responde a ciertas entradas porque matemáticos o expertos en la
rama no tenga el algoritmo adecuado, es donde se ve brillar la lógica difusa, debido a que ella posee la habilidad de
poder controlar un sistema usando reglas de sentido común que se refieren a cantidades indefinidas, claro está, que
para lograr lo anteriormente mencionado se debe llevar a cabo, unas series de reglas, las cuales deben y pueden ser
estudiadas con un sistema que posea una capacidad de adaptación, es decir, que dicho sistema que pueda aprender al
observar cómo una persona puede operar un dispositivos en específico, cabe destacar que también existe la
posibilidad de que una persona experta pueda indicarla las mismas.
Cabe destacar que mayormente la lógica difusa suele confundirse con la probabilidad, si bien es cierto, que
tienen similitud en los rangos numéricos, los mismos pueden confundir, pero al hablar de conceptos difieren, ya que,
conocemos a la probabilidad como la encarga de medir el grado de certidumbre que algún evento o suceso puede
ocurrir, mientras que la lógica difusa tiene la habilidad de medir los grados en el cual, ese evento o suceso ocurrirá.
Ahora bien, para que esto último suceda y se obtenga lo valores deseados, en la lógica difusa se presenta tres etapas
que se deben cumplir, la primera etapa está basada en un proceso donde las variables tienen cierto grado de
incertidumbre, es por ello, que las misma se deben clasifican en un conjunto difuso para así, poder pasarlas a un
proceso de fusificación, esto quiere decir, que se le asignan grados de pertenencia a las variables de entrada en
relación a los conjuntos difusos, es por ello que pasan los valores a los rangos entre 0 y 1, ya culminada esa etapa se
continua con la siguiente, en esta segunda etapa están presenten las reglas que hacen que el sistema se comporte
adecuadamente, ya sea según algún modelo que se tenga de referencia u según los objetivos de los usuarios. Ya por
último y no menos importante, encontramos la tercera etapa, esta se basa en un proceso que determina los valores
óptimos de salida, es decir se obtiene los valores finales deseados, los cuales, son: claros, reales y explícitos.
En conclusión, la lógica difusa nos permite obtener un resultado más claro o una conclusión a partir de una
información incompleta o imprecisa, la misma es aconsejable que se utilice en procesos que son muy complejos es
decir sistemas no lineales, ya que, para ello fue creada la misma, y acabara con la gran necesidad que tenia el ser
humano de solucionar problemas complejos con información imprecisa para los cuales la lógica tradicional no era
suficiente, debido a que esta acepta verdades y falsedades parciales, puede resumirse en que tiene múltiples valores
de niveles de respuesta o estados del sistema, que se acercan más al lenguaje natural usado dentro del razonamiento
humano, siendo este basado en experiencias y conocimientos que adquiere con el tiempo, así como la clasificación
dentro de múltiples valores, llevando un mayor acercamiento de las maquinas a la forma una humana en la toma de
decisiones y manejo de conceptos lógicos para el hombre, es por ellos que este término exige una nueva forma de
ver los problemas. Se puede decir que este tipo de lógica ha logrado abrir las puertas al procedimiento de una gran
variedad de fenómenos y sistemas que resultaban, difíciles de definir y que, en la mayoría de los casos, resultaban
casi imposible resolver mediante modelos matemáticos convencionales, que son infalibles y exactos.

Nombre y Apellido: Estefani Díaz


Cedula: 28113966
Expediente:20162-C100
Ensayo Nro. 1 – Inteligencia Artificial
Redes Neuronales Artificiales
Las Redes Neuronales han tenido gran impacto en la actualidad con sus logros, es por ello, que se están muy
presentes últimamente, la misma ha dado un gran recorrido por los años, el estudio de esta comenzó en 1943 cuando
dos investigadores propusieron el primer modelo de una simple neurona, lo cual fue bastante interesante para aquel
entonces, debido a esa propuestas sale o se crea entre en los años cincuenta y sesenta un movimiento de redes
neuronales, a partir de allí y al crearse más interés sobre el tema, empezaron avanzar los estudios, los cuales, llevaron
a la construcción de una maquilla llamada perceptron, la misma fue creada por un psicólogo de la Universidad de
Corell, el perceptron era una maquina neuronal simple, la cual, llego a reconocer todas las letras del alfabeto, de
hecho, se creyó en ese momento que ese algoritmo seria el que ayudaría o resolvería una gran variedad de problemas
pero resulta que a finales de ese mismo año, dos científicos demostraron algunas de las importantes limitaciones de
este algoritmo, con la cual llegaron a demostrar que el perceptron no llegaría a ser lo que muchos tenían pensado, lo
cual era, llegar a resolver problemas complejos. Ahora bien, dichas limitaciones se debían a que este algoritmo solo
resolvía problemas lineales, ya que, era solo una neurona, por lo tanto, para poder abarcar problemas no lineales más
complejo se necesitaba la unión de más neuronas, es decir, que el algoritmo de aprendizaje automático que se
utilizaba para el perceptron no era extensible a otro tipo de redes más complejas, y a eso se debían las limitaciones
encontradas por dichos científicos. Gracias al descubrimiento de ellos, lo cual generaba un gran problema, un
científico siguió con el estudio de redes neuronales, buscando así su mejora, y fue entonces cuando Stephen y junto
a Capenter propusieron un modelo de red neuronal llamado Adaptive REsonance Theory. Después de allí otros
investigadores siguieron trabajaban y aportando a la misma, presentando trabajos aplicados a las redes neuronales y
hasta un libro el cual, fue considerado un clásico para el estudio de este algoritmo, pero debido a que en esas épocas
no existían equipos con potencia y un algoritmo que les permitiera a las redes aprender de forma eficaz perdió
protagonismo, no fue hasta años más adelante que las redes neuronales tomaron popularidad, gracias a un trabajo
firmado por Rumelhart, Hinton y Willimas sobre un algoritmo llamado backpropagacion, él mismo, fue basado en
avances de diferenciación automática, lo cual, ayudo a demostrar que usando un nuevo algoritmo de aprendizaje se
podría conseguir que una red neuronal autoajustara sus parámetros para aprender una representación interna de la
información que estaba procesando, esto fue gracias a que tenían un equipo que lograba realizar grandes
optimizaciones para el tipo de cálculo y al mayor número de datos disponibles para el entrenamiento.
Si bien sabemos que, como modelo computacional las redes neuronales existen desde el siglo pasado, pero
no ha sido hasta hace unos años que con la mejora de la tecnología y sus avances se han empezado a utilizar,
sacándole todo el provecho, entonces, ya al conocer un poco sobre toda la evolución de este algoritmo, se puede
definir a las redes neuronales como una familia de algoritmos que son bastante poderosos, debido a que la idea surgió
al imitar las redes neuronales de los seres vivos, esa familia de algoritmos son un conjuntos de neuronas conectadas
entre sí y que trabajan unidas, las mismas, van creando y reforzando sus conexiones para ir aprendiendo algo que
este aferrado entre sus tejidos, esto ayuda a encontrar combinaciones de cierto parámetros y así aplicarlos
permitiendo modelar o esculpir comportamientos inteligentes. Sabemos que las redes neuronales están compuestas
de neuronas, debido a que, con una sola neurona no se puede modelar información compleja, por lo tanto, es
importante conocer el funcionamiento de cada una de ellas, las neuronas en sí, son las que codifican la información,
las cuales, poseen conexiones de entradas y son por medio de esas mismas conexiones donde recibe estímulos
externos, dichos estímulos al llegar a la neurona permiten que la misma comience realiza algún calculo, todo esto
dentro de ella, al obtener algún valor del cálculo realizado se genera el llamado valor de salida, entonces, al crear
una red neuronal con todas las neuronas necesarias se generan ciertas capas, dichas capas son: capa de entrada, capa
de intermedias y capa de salida, estas capas poseen una función, la cual es obtener información y guardarla, capas
de entrada e intermedia posee o comparten la misma información, mientras la de salida recibe los cálculos que
realizan las anteriores, esto es lo que permite que nuestra red adquiera más conocimiento jerarquizado, es decir, que
al agregar más capas se generara un aprendizaje más profundo, ese aprendizaje lo crean de la información que es
extraída de datos que son determinados por ciertos expertos, dichos datos deben estar en el mejor lenguaje que puede
ser entendido o que mejor se ajuste para que la red sea entrenada, por lo tanto, como queda claro que esta red no es
programadas sino más bien que son entrenadas es necesarios que esos datos sean en cantidades favorables. Una vez
Nombre y Apellido: Estefani Díaz
Cedula: 28113966
Expediente:20162-C100
Ensayo Nro. 1 – Inteligencia Artificial
ya entrenada una red se puede usar, ya bien sea para predecir algo o clasificarlo. Hoy en día esta rama de la
inteligencia artificial la vemos aplicada en varias áreas, ya que, los alcances de sus funciones son muy amplias debido
a su gran funcionamiento. Claro está, que su principal funcionamiento es en la predicción y clasificación de ciertos
trabajos, pero aun así es usada en ramas como la medicina, en este caso se utiliza mayormente para diagnosticar
problemas de salud, pero para presentar un ejemplo más claro y que están presente en nuestro alrededor, a través del
reconocimiento de imágenes, como también de voz y de caracteres, en generación de texto, en conducción autónoma,
análisis genético entre muchas cosas más.
Al igual que todo, las redes neuronales también tienen su ventajas y desventajas, unas de sus desventajas más
relevantes es que este tipo de red debe estar entrenado para cada problema, lo cual conlleva a realizar una seria de
pruebas para llegar a arquitectura adecuada, lo cual puede quitar o necesitar bastante tiempo porque dicho proceso
es bastante largo, pero algo más importante en que enfocarnos son sus ventajas, las cuales, son muchas, entre ellas
es que para poder utilizar este tipo de tecnología, no es necesario conocer datos matemáticos con estar acostumbrado
y adaptarte a los datos es más que suficiente, otro dato interesantes es que debido a su avances el fuerte de este tipo
de tecnología son los problemas no líneas, los cuales usualmente son más complejos y por último y no menos
importante, la mejor ventaja que puede tener, es que así fallen elementos de procesamiento , la red seguirá trabajando.
En conclusión, se puede decir que, para la inteligencia artificial, esta rama es una de las más importante para
su desarrollo, sin duda es una de las piezas clave, para seguir avanzando, debido a que está, evoluciona cada vez
más, buscando siempre soluciones más eficientes a los problemas más complejas.
Perceptron
Al conocer un poco de cómo fue la evolución de las redes neuronales artificiales, sabemos que la primera
máquina que se creó, después de la propuesta del modelo de una neurona simple, fue el llamado perceptron, el mismo
fue inventado en 1967 por un psicólogo, este se puede denominar como una red neuronal artificial que se encuentran
linealmente separadas, esta creación tenía como el fin, ilustrar propiedades fundamentales de los sistemas
inteligentes, sin buscar o ir por algo más específico, es por ello, que se describe como el modelo más simple de una
neurona, la misma, como se mencionó anteriormente cuenta con varias entrada que poseen cierto peso cada una y
cuenta con una salida, su funcionamiento se basa en que las entrada se encargan de enviar una señal a la salida, esto
se logra debido a que, cada entrada cuenta con ciertos valores, donde la suma de esos valores que contienen las
entradas son multiplicados por el peso correspondiente de las misma, arrojando así, como resultado que la neurona
a través de su salida envié algún estímulo, esto se debe a que la neurona cuenta con una función de activación, la
cual depende de cual sea su aplicación, ya que, las neuronas presentan distintas funciones de activación, dicha función
es la que utiliza la suma de estímulos para determinar la actividad de salida de la misma. Ahora bien, debido a que
puede utilizarse para clasificaciones binarias, se presenta lo siguiente, si las sumas de los valores de dichas entradas
son multiplicadas por su valor de peso correspondiente da un mayor resultado que un determinado número en
específico, la salida será uno y en caso de que esa suma y multiplicación den menor, la salida será cero.
Redes de retropropagación (backpropagation)
Por otro lado, se logró conocer cuál fue el escalón a la popularidad de la redes neuronales y lo que le dio
mayor potencial, el mismo, es conocido como Backpropagation, el cual, es un algoritmo que apareció en 1970 pero
no fue hasta 1986 en el trabajo anteriormente mencionado de Rumelhart, Hinton y Williams que tomo importancia,
este trabajo que dio tanta popularidad a la redes neuronales, trataba sobre varias redes neuronales en la que la
retropopagación era mucho más rápida que los aprendizajes que se utilizaban anteriormente, debido a que el
entrenamiento de una red se realiza modificando los pesos de sus neuronas para que puede conseguir los resultados
deseados, con este método lo que se hace es introducir datos de entrenamiento a la red, dependiendo del resultado
que se obtenga, se modifican los pesos de las neuronas dependiendo del error que se adquiera y de cuanto haya
contribuido cada neurona en el resultado. Gracias a ellos la red aprende, para así conseguir resultados bastantes
convenientes. Es importante resaltar que este tipo de red trabaja con un aprendizaje supervisado, además, no
solamente es un algoritmo rápido para el aprendizaje también ofrece información detalla sobre como los cambios de
pesos y sesgo podían cambiar el comportamiento de la red, lo cual, ayudo a resolver problemas que anteriormente
no se podían.
Nombre y Apellido: Estefani Díaz
Cedula: 28113966
Expediente:20162-C100
Ensayo Nro. 1 – Inteligencia Artificial

Algoritmo Genético
El algoritmo genético surgió como idea en 1967 en una tesis llamada El Funcionamiento de los Sistemas
adaptables empleando algoritmos genéticos y correlativos, pero no fue hasta 1970 de la mano de Holland surgió unas
de las líneas más satisfactorias de la inteligencia artificial. Ahora bien, sabemos que la mayoría de los problemas en
la ciencia e ingeniería incluso en la vida diaria pueden entenderse como la búsqueda de un máximo o un mínimo de
una función, los cuales se pueden llamarse problemas de optimización y para resolver dichos problemas existen
muchos métodos, entre esos métodos podemos encontrar los métodos matemáticos pero también hay métodos que
se basan en la naturaleza, debido a que existen mucho fenómeno biológico que pueden adaptar a ciertas situaciones,
lo cual lo podemos ver como una forma de optimización. De allí viene la inspiración del algoritmo genético, el cual,
se basa en los principios de selección natural, por ello es importante conocer varios conceptos biológicos con los que
se relaciona, sabemos que la evolución actúa sobre los personas o individuos de una población y que aquellos que
mejor se adapten son los que tienen más probabilidades de sobrevivir, dar descendencia e igual que su material
genético, el cual, se codifica en forma de genes y mediante la copia o reproducción de los genes se puede producir
algunas mutaciones, es decir, pequeños cambios que dan nuevo material para explorar.
Herencia
Sabemos que los genes que son los encargados de aportar los rasgos hereditarios, esto sucede cuando los
genes se combinan provocando así dichos factores, la cual se trasmite por medio de células sexuales.
Código Genético
Por otro lado, el código genético está formado por los ácidos nucleicos ADN Y ARN, este se basa en una
serie de reglas que define como transformar una secuencia de ácidos nucleicos a una secuencia de aminoácidos.
Selección Natural
En cuanto a la selección natural, esta consiste en que la naturaleza elige como se reproducen los organismos
de acuerdo a sus propiedades y así favorecer a la adaptación e impulsando la evolución de las especies, esta teoría
fue creada para explicar dicha evolución, y está basada en el origen de todas las especies. Ahora bien, el algoritmo
genético se basa en estas ideas para optimizar el valor de las variables de una función, las mismas hacen el papel de
genes virtuales con sus valores codificados en binarios o cadenas de dígitos. Su principal objetivo es tener la
capacidad de simular la adaptación biológica, con la cual se puedan obtener muchas solucioné diferentes y escoger
la mejor, y gracias a ello se pude aplicar a una gran variedad de situaciones que no se pudieron resolver por otro
método. Sabemos que todo organismo vivo contiene células y cada célula contiene cromosoma y cada cromosoma
contiene ADN, a un conjunto de ellos se le llama genoma, que son la colección completa del material genético, y lo
que se conoce como genotipos es el conjunto de genes que contiene dicho genoma. Ya recordando un poco de
biología podemos concentrarnos en el algoritmo genético, el mismo empieza con una población inicial de datos, los
cuales van a representar posibles resultados, los mismos los podemos ver como si fueran los cromosomas, estos datos
contienen bit, esos bit serían los genes, al tener dichos datos pasaran a ser evaluados donde se les aplicara una función
de aptitud para saber si la solución que está siendo codificada es eficaz, ya siendo evaluados cada dato tendrá una
calificación, la misma es bastante importante, porque en base a esa calificación se hará el proceso de selección, es
decir, que aquellos que tenga buena calificación serán seleccionados para ser cruzados en la siguiente concepción,
por lo tanto significara que será una solución eficaz para el problema que se debe resolver, en esta etapa vemos el
ejemplo de selección natural, ya que los que no califican son eliminados, luego que ya están seleccionados los datos
adecuados, comienza el cruce y mutación de datos, el cruce de datos se basa en la recombinación y corte de datos en
una secuencia de bit, mientras que la mutación se basa en cambiar un bit en la cadena de datos, la mutación se puede
dar al final del cruce de datos o antes del cruce, la misma, ayuda a que el algoritmo no se quede ahogado en alguna
solución sin sentido. Luego de este proceso se presenta nuevamente la selección con la función de aptitud para saber
qué tan eficaz es la serie de datos obtenida. Una ventaja del algoritmo genético se puede manipular muchos
parámetros simultáneamente para así explorar muchas soluciones, pero también es muy importante tomar en cuenta
que la fusión de aptitud debe considerarse cuidadosamente para así alcanzar una evaluación real que proporcione
una solución para mejorar el problema dado, evitando soluciones falsas.
Nombre y Apellido: Estefani Díaz
Cedula: 28113966
Expediente:20162-C100

También podría gustarte