Está en la página 1de 31

ÍNDICE

I. INTRODUCCIÓN
II. ANTECEDENTES………………………………………………………………… 4
2.1 Desarrollo Histórico Según [Jackson 86]……………………………….. 6
III. IMPORTANCIA Y JUSTIFICACIÓN DEL ESTUDIO.
III.I JUSTIFICACIÓN………………………………………………………….. 9
IV. OBJETIVOS
4.1 Objetivos Generales………………………………………………………. 10
4.2 Objetivos específicos……………………………………………………... 10
V. METODOLOGÍA.
INTELIGENCIA ARTIFICIAL (IA)…………………………………………………... 11
5.1 Algunas Definiciones de la inteligencia Artificial (IA)………………………. 13
5.2 Características de la inteligencia artificial…………………………………….. 14
5.3 La vida artificial…………………………………………………………………... 15
5.3.1 Cuestión Filosófica de la Vida Artificial……………………………… 17
5.3.2 Perspectivas Futuras de la Vida Artificial…………………………….. 17
5.3.3 Dos posturas dentro de la Vida Artificial: la fuerte y la débil………. 18
5.4. La base de la inteligencia artificial……………………………………………. 19
5.5 Los fines de la IA………………………………………………………………… 20
5.6 La Inteligencia Artificial y el cerebro humano………………………………… 20
5.7 Inteligencia artificial y las emociones………………………………………….. 22
5.8 Tendencias de los sistemas de inteligencia artificial………………………… 23
5.8.1 Redes neuronales………………………………………………………. 24
5.8.2 Sistemas de lógica difusa……………………………………………… 27
5.8.3 Algoritmos genéticos…………………………………………………… 27
5.9 Áreas de aplicación de la Inteligencia Artificial……………………………… 28
5.10 Inteligencia artificial: ¿avance tecnológico o amenaza social?.................. 29
VI. CONCLUSION…………………………………………………………………… 31
BIBLIOGRAFIAS…………………………………………………………………….. 32

I. INTRODUCCIÓN
La Inteligencia artificial es un término que, en su sentido más amplio, indicaría la
capacidad de un artefacto de realizar los mismos tipos de funciones que
caracterizan al pensamiento humano. La posibilidad de desarrollar un artefacto así
ha despertado la curiosidad del hombre desde la antigüedad; sin embargo, el
funcionamiento de la mente humana todavía no ha llegado a conocerse en
profundidad y, en consecuencia, el diseño informático seguirá siendo
esencialmente incapaz de reproducir esos procesos desconocidos y complejos.

1
Desde el origen de las computadoras digitales, constantemente se han
hecho investigaciones científicas y tecnológicas con la finalidad de facilitar algunas
actividades propias de los seres humanos. Se ha logrado automatizar muchos
procesos mecánicos, de cálculo, de almacenamiento de datos, de procesamiento,
etc. desarrollando, cada vez, herramientas de cómputo capaces de auxiliar en
forma directa cada una de estas actividades. En varias de ellas se tiene la
necesidad de examinar el medio ambiente donde se desarrollará tal actividad y
realizar un análisis de las situaciones y tomar una decisión siguiendo un
razonamiento lógico.

Los seres humanos, a diferencia de otras especies, tienen la capacidad de


razonar sobre una serie de percepciones de hechos y proposiciones estableciendo
relaciones entre si. A esta capacidad se le llama inteligencia. Mediante el uso de
los sentidos, puede enterarse de hechos que suceden en el medio ambiente que
lo rodea y es capaz de establecer relaciones entre ellos para obtener
conclusiones, desarrollar conocimiento y actuar en base a ellos. De manera
semejante, se han desarrollado aplicaciones que emulan el comportamiento
humano mediante sistemas computacionales.

La finalidad de la inteligencia artificial consiste en crear teorías y modelos


que muestren la organización y funcionamiento de la inteligencia. Actualmente, el
mayor esfuerzo en la búsqueda de la inteligencia artificial se centra en el
desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a
la inteligencia humana, realizando tareas que requieran aprendizaje, solución de
problemas y decisiones. A veces llamada inteligencia de máquina, la inteligencia
artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.

II. ANTECEDENTES
En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el
asunto de si la máquina de Babbage podía "pensar". Los primeros problemas que
se trató de resolver fueron puzzles, juegos de ajedrez, traducción de textos a otro
idioma. Durante la II Guerra Mundial Norbert Wiener y John Von Neumann
establecieron los principios de la cibernética en relación con la realización de
decisiones complejas y control de funciones en máquinas.

La teoría de la retroalimentación en mecanismos, como por ejemplo: un


termostato que regula la temperatura en una casa, tuvo mucha influencia. Esto

2
aún no era propiamente Inteligencia Artificial. Se hizo mucho en traducciones
(Andrew Booth y Warren Weaver), lo que sembró la semilla hacia el entendimiento
del lenguaje natural.

En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw,


programador de la RAND Corp. y compañero de Newell, desarrolla el primer
lenguaje de programación orientado a la resolución de problemas de la
Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan
el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual
era capaz de demostrar teoremas matemáticos, representando cada problema
como un modelo de árbol, en el que se seguían ramas en busca de la solución
correcta, que resultó crucial.

En 1956, con la ahora famosa conferencia de Dartmouth, organizada por


John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este
nuevo campo, se separó la Inteligencia Artificial de la ciencia del computador,
como tal. Se estableció como conclusión fundamental la posibilidad de simular
inteligencia humana en una máquina.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del General


Problems Solver (GPS). GPS era un sistema orientado a la resolución de
problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de
teoremas matemáticos, GPS no estaba programado para resolver problemas de
un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad
de problemas de sentido común, como una extensión del principio de
retroalimentación de Wiener.
Diversos centros de investigación se establecieron, entre los más
relevantes están, la Universidad Carnegie Mellon, el Massachusetts Institute of
Technologie (MIT), encabezado por Marvin Minsky, la Universidad de Standford e
IBM. Los temas fundamentales eran el desarrollo de heurísticas y el aprendizaje
de máquinas.

En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo


para la investigación en esa área y el gobierno de USA aportó dinero al MIT
también para investigación en 1963.

3
A finales de los años 50 y comienzos de la década del 60 se desarrolla un
programa orientado a la lectura de oraciones en inglés y la extracción de
conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay,
denomina "Sad Sam". Este podía leer oraciones del tipo "Jim es hermano de
John" y "La madre de Jim es Mary", a partir de ella el sistema concluía que Mary
debía ser también la madre de John. Este sistema representó un enorme paso de
avance en la simulación de inteligencia humana por una máquina, pues era capaz
de tomar una pieza de información, interpretarla, relacionarla con información
anteriormente almacenada, analizarla y sacar conclusiones lógicas.

En el mismo período de tiempo hay trabajos importantes de Herbert


Gelernter, de IBM, quien desarrolla un "Demostrador Automático de Teoremas de
la Geometría", Alex Bernstein desarrolla un programa para el juego de ajedrez que
se considera el antecedente para "Deep Blue".

En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James


Slagle el cual se orienta a la demostración simbólica en el área del álgebra.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information


Retrieval) el cual era capaz de comprender oraciones en inglés.

2.1 Desarrollo Histórico Según [Jackson 86]

1950-1965 Periodo ``clásico'':

 Gestación [McColluck y Pitts, Shannon, Turing]


 Inicio - reunión de Darmouth College en 1956 [ Minsky, McCarthy]
 Redes neuronales, robótica (Shakey)
 Búsqueda en un espacio de estados, Heurísticas, LISP
 Resolvedor general de problemas (GPS) [Newell, Simon]
 Juegos, prueba de teoremas
 Limitaciones de pura búsqueda, explosión combinatoria.

4
1965-1975 Periodo ``romántico'':

 Representación ``general'' del conocimiento.


 Redes semánticas [Quillian]
 Prototipos (frames) [Minsky]
 Perceptrón [Minsky y Papert]
 Lógica [Kowalski]
 Mundo de bloques (SHDRLU) [Winograd]
 Compresión de lenguaje, visión, robótica.
 Dificultades de representación ``general'',problemas de ``juguete''.

1975-Hoy Periodo ``moderno'' Inteligencia ``especifica'' vs ``general'':

 Representación explícita del conocimiento específico del dominio.


 Sistemas expertos o basados en conocimiento.
 Regreso de redes neuronales [Hopfield, Rumelhart, Hinton], algoritmos
genéticos [Holland, Goldberg] Reconocimiento de voz (HMM), incertidumbre
(RB, Lógica difusa), planeación, aprendizaje Aplicaciones ``reales''
(medicina, finanzas, ingeniería, exploración, etc.).
 Limitaciones: conocimiento ``superficial''

Según [Russell, Norvig 95]:


Gestación (1943-1956):
McCullock y Pitts (43), Hebb (49), Shannon:

 (50), Turing (53), Minsky y Edmonds (51). Darmouth College (56) McCarthy,
Newell y Simon ``The Logic Theorist''
 Entusiasmo y grandes espectativas (1952-1969):
 Samuel - checkers (52), McCarthy (58):
 Lisp, time sharing, Programs with common sense. Minsky y McCarthy en
MIT moldearon mucho del area. En 63 McCarthy se fue a Stanford SRI,
Shakey, etc. Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
Trabajo en RN: Hebb, Widrow, Rosenblatt

Dosis de realidad(1966-1974):

 Simon predecía que en 10 años se tendría una máquina inteligente.


Predicciones similares en traducción automática y ajedrez. Teoría de NP-
completness. Experimentos en machine evolution (ahora algoritmos
genéticos) (Friedberg, 58) estaban bien fundados pero no produjeron nada.
Minsky y Papert Perceptrons (69) (aunque irónicamente el mismo año se
descubrió backpropagation (Bryson y Ho))

5
Sistemas basados en conocimiento (1969-1979):

 Dendral , Mycin , HPP, Prospector, Winograd SHDRLU,Shank (no hay


sintáxis), frames, Prolog, Planner
 IA como industria (1980-1988): R1/XCON, proyecto de la quinta generación,
shells y máquinas de Lisp...

Regreso de redes neuronales (1986-presente):

 Hopfield, Rumelhart y Hinton y descenso de los SE

Eventos recientes (1987-presente):

 Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado
de madurez y estabilidad) e.g., reconocimiento de voz (HMM),
incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC),
etc...

Sistemas históricos:

GPS - Newell, Shaw y Simon


Perceptron - Minsky y Papert Chekers - A. Samuel
MACSYMA AM - D. Lenat
ELIZA - Weisenbaum
Shakey - SRI
SHDRLU - Winogard
MYCIN - E. Shortliffe
Prospector - Duda, Hart
Hearsay II - Erman, Hayes-Roth, Lesser, Reddy
CYC - D. Lenat, R. Guha

Sistemas actuales:

 PEGASUS - hace reservas de transporte por teléfono [Zue et al. 94]


 MARVEL - sistema experto en tiempo real que maneja la información de
Voyager y ayuda a diagnosticar fallas [Schwuttke 92]
 Sistema de diagnóstico de medicina interna con capacidad de explicar sus
razones a los expertos [Heckerman 91]
 NAVLAB - vehículo autónomo que viaje en forma automática de un extremo
a otro de EUA [Pomerlau 93]
 Sistema de visión que monitorea el tráfico en Paris y reconoce accidentes
con los cuales llama a servicios de emergencia [Koller 94]

6
 DEEP BLUE - máquina paralela que juega ajedrez y primera en derrotar al
campeón mundial [IBM 97]

III. IMPORTANCIA Y JUSTIFICACIÓN DEL ESTUDIO.


La Inteligencia Artificial se crea con la implementación en las computadoras para
realizar mecanismo de computación que utiliza programas fijos y contiene una
seria de reglas que lo hacen funcionar. Esto permite a las computadoras a ser
creadas en maquinas artificiales que desempeñan tareas monótonas, repetitivas y
simples mas eficiente y efectivas que un ser humano. Estudios sobre trabajos o
tareas repetitivas han demostrado que el ser humano no le agrada este tipo de
trabajo y al pasar el tiempo son más susceptibles a cometer errores en el mismo.
Para situaciones complejas el objetivo se hace mas complejo debido a que la

7
inteligente artificial dada a las  computadoras tienen dificultad en entender ciertas
situaciones o problemas específicos   y como reaccionar a estas. También ocurre
que dentro de un problema tienen la variabilidad del mismo y no pueden adaptarse
a un cambio que pueda ocurrir. Estos problemas son de suma importancia para la
Inteligencia Artificial  que busca el mejorar, aprender, entender y el razonamiento
del comportamiento de las computadoras en situaciones complejas.

El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de


crecimiento comparadas con otras ramas de computadoras pero poco a poco el
estudio del comportamiento humano dará paso para aplicar estos conocimientos a
las computadoras y estas lograr de manera primitiva razonas sobre diferentes
situaciones. La complejidad en aplicarle conocimientos del ser humano a las
computadoras es la capacidad de estos de ser impredecible y las maneras
diferentes que se actua ante una posible situación y estas reacciones hacen que
no se pueda implementar un patrón dentro de la memoria de una computadora.
Hasta ahora no existe la posibilidad de predecir o almacenar todo tipo de
comportamiento de un ser humano a todas las situaciones que se enfrenta durante
su existencia.

III.I JUSTIFICACIÓN

El empleo de la IA esta orientado a aquellas profesiones que, ya sea por lo


incomodo, peligroso o complicado de su trabajo necesitan apoyo de un experto en
la materia. Las ventajas que trae el disponer de un asistente artificial no son mas
que las de solucionar los errores y defectos propios del ser humano; es decir, el
desarrollo de sistemas expertos que hoy en día se están utilizando con éxito en los
campos de la medicina, geología y aeronáutica aunque todavía están poco
avanzados en relación con el ideal del producto IA completo.

IV. OBJETIVOS

4.1 Objetivos Generales

 Dar a conocer la importancia de la Inteligencia Artificial para entender como


influye en nuestra vida diaria.

8
 Explicar la relación tecnología, ciencia y sociedad que se encuentra incluida
en el tema de inteligencia Artificial.

 Conocer y dar a conocer por medio de la argumentación escrita, los


aspectos negativos de la inteligencia artificial con el fin de crear reflexión en
el público.

4.2 Objetivos específicos

 Conocer y plasmar argumentativamente todos los aspectos del tema


seleccionado.

 Fortalecer mi capacidad de redacción a nivel argumentativo.

 Crear un ensayo polémico que lleve a la reflexión.

 Enfatizar en la relación tecnología, ciencia y sociedad.

V. METODOLOGÍA.

INTELIGENCIA ARTIFICIAL (IA)

La inteligencia artificial (AI), abarca un número diverso de aplicaciones


informáticas, o los componentes dentro de las aplicaciones, que utilizan conjuntos

9
de reglas y conocimientos para hacer inferencias. A diferencia de sus raíces como
una disciplina esotérica de tratar de hacer que las computadoras emular la mente
humana, moderna adjunto con las tecnologías que ha inspirado-tiene muchas
ramificaciones prácticas y ofrece beneficios reales a los usuarios.

La Inteligencia Artificial (IA), es la tecnología


clave para muchas aplicaciones de la novela de
hoy, que van desde los sistemas bancarios que
detectan intentos de fraude con tarjeta de crédito, a
los sistemas de teléfono que entender el habla, los
sistemas de software que cuenta cuando tienes
problemas y ofrecer un asesoramiento adecuado.

A través de la inteligencia artificial se han desarrollado los sistemas


expertos que pueden limitar la capacidad mental del hombre y relacionan reglas
de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para
luego hacer juicios acerca de un problema, cuya solución se logra con mejores
juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al
acertar el 85 % de los casos de diagnóstico.

El propósito de la inteligencia artificial es hacer computacional el


conocimiento humano no analítico por procedimientos simbólicos, conexionistas o
híbridos. Para conseguir una visión razonablemente amplia del contenido de la
inteligencia artificial usaremos criterios extensionales (proporcionando una relación
lo más completa posible de los temas que estudia la inteligencia artificial), junto a
otros criterios intencionales (que establecen las reglas de clasificación), de forma
que al enfrentarnos con un problema computacional (o con un método de solución)
específico podamos concluir si pertenece o no al campo de la inteligencia artificial
en función.

Así, en la inteligencia artificial existen dos perspectivas básicas:

10
a) la inteligencia artificial como ciencia de lo natural o análisis.

El procedimiento teórico busca una explicación de esa correlación en


términos de un conjunto de leyes generales de un nivel superior que permiten
predecir lo que ocurriría en otros casos no observados. Realmente lo que hace es
buscar un modelo del conocimiento humano, generalmente organizado en varios
niveles (estático, dinámico y estratégico) para poder usarlo en predicción. Esta
técnica se basa en experimentos para conseguir una teoría del conocimiento
computable con capacidad predictiva (como una ley física).

b) inteligencia artificial como ciencia de lo artificial o ingeniería de síntesis.

Aspira a convertirse en una ingeniería en sentido estricto. Ahora se parte de


un conjunto de especificaciones funcionales y se busca la síntesis de un sistema
(programa más máquina) que las satisfaga.

5.1 Algunas Definiciones de la inteligencia Artificial (IA).

 Se denomina inteligencia artificial a la rama de la informática que


desarrolla procesos que imitan a la inteligencia de los seres vivos. La
principal aplicación de la inteligencia artificial es la creación de máquinas

11
para la automatización de tareas que requieran un comportamiento
inteligente.

 Ciencia que tiene como objetivo el diseño y construcción de maquinas


capaces de imitar el comportamiento inteligente de las personas.

 Rama especializada de la informática que investiga y produce


razonamiento por medio de maquinas automática y que pretende fabricar
artefactos dotados de la capacidad de pensar.

 La Inteligencia Artificial es la parte de la informática


relacionada con el diseño de sistemas de ordenadores
inteligentes, es decir, sistemas que exhiben las
características que asociamos con la inteligencia de la
conducta humana.

5.2 Características de la inteligencia artificial.

o Una característica fundamental que distingue a los métodos de


Inteligencia Artificial de los métodos numéricos es el uso de símbolos no
matemáticos, aunque no es suficiente para distinguirlo completamente.
Otros tipos de programas como los compiladores y sistemas de bases de

12
datos, también procesan símbolos y no se considera que usen técnicas
de Inteligencia Artificial.

o El comportamiento de los programas no es descrito explícitamente por el


algoritmo. La secuencia de pasos seguidos por el programa es
influenciado por el problema particular presente. El programa especifica
cómo encontrar la secuencia de pasos necesarios para resolver un
problema dado (programa declarativo).

o El razonamiento basado en el conocimiento, implica que estos


programas incorporan factores y relaciones del mundo real y del ámbito
del conocimiento en que ellos operan. Al contrario de los programas para
propósito específico, como los de contabilidad y cálculos científicos; los
programas de Inteligencia Artificial pueden distinguir entre el programa
de razonamiento o motor de inferencia y base de conocimientos dándole
la capacidad de explicar discrepancias entre ellas. Aplicabilidad a datos y
problemas mal estructurados, sin las técnicas de Inteligencia Artificial los
programas no pueden trabajar con este tipo de problemas.

o La Inteligencia Artificial incluye varios campos de desarrollo tales como:


la robótica, usada principalmente en el campo industrial; comprensión de
lenguajes y traducción; visión en máquinas que distinguen formas y que
se usan en líneas de ensamblaje; reconocimiento de palabras y
aprendizaje de máquinas; sistemas computacionales expertos.

o Los sistemas expertos, que reproducen el comportamiento humano en


un estrecho ámbito del conocimiento, son programas tan variados como
los que diagnostican infecciones en la sangre e indican un tratamiento,
los que interpretan datos sismológicos en exploración geológica y los que
configuran complejos equipos de alta tecnología.

o Tales tareas reducen costos, reducen riesgos en la manipulación


humana en áreas peligrosas, mejoran el desempeño del personal
inexperto, y mejoran el control de calidad sobre todo en el ámbito
comercial.

5.3 La vida artificial.

13
La Vida Artificial se puede considerar como la
parte de la Inteligencia Artificial que pretende
reproducir los procesos y comportamientos típicos
de los seres vivos. También podemos definirla
como el intento de crear vida, o algo parecido a la
vida, mediante la combinación de símbolos
(datos) y procesos de símbolos (programas)
independientemente del soporte físico de estos
símbolos y procesos.

Por una parte están los intentos


"hardware" de emulación de vida. Por ejemplo, es posible construir un pequeño
robot con aspecto de ratón capaz de encontrar la salida de un laberinto.

Por otra parte están las simulaciones "software". Éstas tienen la ventaja de
que permiten construir un gran número de seres vivos y entornos en los que estos
existen, de manera que es más fácil estudiar comportamientos sociales.

Podemos construir los seres artificiales con el objetivo de solucionar los


problemas que a nosotros nos interesen, y que aprendan o colaboren entre ellos
hasta conseguir el resultado deseado.

De esta forma, se puede considerar la Vida Artificial (VA) como un paso


más allá después de la Programación Orientada a Objetos (POO), y sin embargo,
siendo la VA un caso particular de la POO. Es decir, si un objeto es un elemento
que encapsula datos y procedimientos, una entidad artificial es un elemento que
encapsula un objetivo, unos sentidos, unas acciones y unas creencias. A esto le
podemos llamar Programación Orientada a Agentes.

En muchos campos de estudio se plantea la posibilidad de realizar


simulaciones para intentar predecir o ayudar a la toma de decisiones acerca de
ciertos aspectos del mundo real. Hay dos formas de enfocar estas simulaciones.

La primera de ellas se basa en la observación de la realidad, centrando la


atención en los aspectos "a más alto nivel", es decir, precisamente en los que se
pretenden predecir o modificar, y también en aquellos que aparentemente están
más relacionados con éstos. El cerebro humano elabora una teoría acerca de
cómo todos estos aspectos varían. Esta teoría se formaliza en fórmulas, reglas o

14
algo parecido, y se simula en un ordenador ante diversas condiciones iniciales. Se
observa si el modelo, ante datos históricos del pasado, ofrece salidas (resultados)
que se ajustan a lo esperado según los datos históricos, y en ese caso, se utiliza
para la toma de decisiones en el futuro, ajustando continuamente el modelo según
el error obtenido. En caso de obtener resultados muy alejados de la realidad, se
revisa la teoría inicial, reescribiéndola por completo, ajustando ciertos aspectos o
detallando con mayor nivel de profundidad los que parecen ser generalizaciones
excesivas.

La segunda de ellas se basa en la observación de la realidad, centrando la


atención en los aspectos "a más bajo nivel" del problema, buscando los aspectos
más sencillos y a la vez con una alta multiplicidad. Es decir, el cerebro humano
identifica aquellas características sencillas que están presentes en muchas
entidades del problema. Mediante fórmulas, reglas o algo parecido, se define un
tipo genérico de entidad que admita estas características, y en un ordenador se
realiza una simulación basada en la generación de un alto número de estas
entidades capaces de interactuar entre sí, con la esperanza en que de esta
interacción emerja el comportamiento complejo que se pretende estudiar.
Inicialmente los agentes genéricos se definen tan sencillos como sea posible sin
dejar de ajustarse al problema. Se observa si el modelo, ante datos históricos del
pasado, ofrece salidas (resultados) que se ajustan a lo esperado según los datos
históricos, y en ese caso, se utiliza para la toma de decisiones en el futuro,
ajustando continuamente el modelo según el error obtenido. En caso de obtener
resultados muy alejados de la realidad, se deduce que la definición del agente
genérico (más su entorno, etc.) es demasiado sencilla y se va complicando,
añadiendo detalles hasta ajustarse suficientemente a la realidad.

5.3.1 Cuestión Filosófica de la Vida Artificial

La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra

15
realidad. No hace falta que las simulaciones por ordenador sean todavía más
complejas, para poder tener el derecho a preguntarnos acerca de si nuestro propio
mundo no será también una "simulación dentro de un cosmo-ordenador". De
hecho, esta pregunta se ha planteado, desde tiempos remotos, de infinidad de
maneras.

Si los ordenadores son capaces de simular universos artificiales poblados


por organismos que mediante la reproducción, las mutaciones y la selección
natural, evolucionan y se hacen cada vez más inteligentes y conscientes,
podríamos interpretar nuestro propio mundo como un "superordenador" donde
nosotros mismos somos los "seres artificiales" que lo habitan, siguiendo el curso
de evolución que El Programador ha deseado.

5.3.2 Perspectivas Futuras de la Vida Artificial

Con poco más de diez años de antigüedad, la Vida Artificial se ha


convertido en un punto de referencia sólido de la ciencia actual.

En septiembre de 1987, 160 científicos en informática, física, biología y


otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos para la
primera conferencia internacional sobre Vida Artificial. En aquella conferencia se
definieron los principios básicos que han marcado la pauta desde entonces en la
investigación de esta disciplina.

Un concepto básico dentro de este campo es el de comportamiento


emergente. El comportamiento emergente aparece cuando se puede generar un
sistema complejo a partir de reglas sencillas. Para que se dé este comportamiento
se requiere que el sistema en cuestión sea reiterativo, es decir, que el mismo
proceso se repita de forma continua y además que las ecuaciones matemáticas
que definen el comportamiento de cada paso sean no lineales.

Por otra parte, un autómata celular consiste en un espacio n-dimensional


dividido en un conjunto de celdas, de forma que cada celda puede encontrarse en
dos o más estados, dependiendo de un conjunto de reglas que especifican el
estado futuro de cada celda en función del estado de las celdas que le rodean.

16
5.3.3 Dos posturas dentro de la Vida Artificial: la fuerte y la débil.

Para los que apoyan la postura débil, sus modelos son solamente
representaciones simbólicas de los síntomas biológicos naturales, modelos
ciertamente muy útiles para conocer dichos sistemas, pero sin mayores
pretensiones.

Para los que defienden la versión fuerte, dicen que se puede crear vida
auténtica a partir de un programa de ordenador que reproduzca las características
básicas de los seres vivos.

Desde este punto de vista, la vida se divide en vida húmeda, que es lo que
todo el mundo conoce como vida, vida seca, formada por autómatas físicamente
tangibles, y vida virtual, formada por programas de computador. Las dos últimas
categorías son las que integran lo que genéricamente se conoce como Vida
Artificial.

Para defender un punto de vista tan radical, los defensores de la postura


fuerte, aluden a un conjunto de reglas que comparten las tres categorías
anteriores:

* La biología de lo posible: La Vida Artificial no se restringe a la vida


húmeda tal como la conocemos, sino que "se ocupa de la vida tal como podría
ser". La biología ha de convertirse en la ciencia de todas las formas de vida
posibles.

* Método sintético: La actitud de la Vida Artificial es típicamente sintética,


a diferencia de la biología clásica, que ha sido mayoritariamente analítica. Desde
este punto de vista, se entiende la vida como un todo integrado, en lugar de
desmenuzarlo en sus más mínimas partes.

* Vida real (artificial): La Vida Artificial es tal porque son artificiales sus
componentes y son artificiales porque están construidos por el hombre. Sin
embargo, el comportamiento de tales sistemas depende de sus propias reglas y

17
en ese sentido es tan genuino como el comportamiento de cualquier sistema
biológico natural.

* Toda la vida es forma: la vida es un proceso, y es la forma de este


proceso, no la materia, lo que constituye la esencia de la vida. Es absurdo
pretender que sólo es vida genuina aquella que está basada en la química del
carbono, como es el caso de la vida húmeda.

* Construcción de abajo hacia arriba: la síntesis de la Vida Artificial tiene


lugar mejor por medio de un proceso de información por computador llamado
programación de abajo hacia arriba. Consiste en partir de unos pocos elementos
constitutivos y unas reglas básicas, dejar que el sistema evolucione por sí mismo y
que el comportamiento emergente haga el resto. Poco a poco el sistema se
organiza espontáneamente y empieza a surgir orden donde antes sólo había caos.

5.4. La base de la inteligencia artificial.

La inteligencia artificial se basa en dos áreas de estudio: el cuerpo humano y el


ordenador electrónico. Puesto que la meta es copiar la inteligencia humana, es
necesario entenderla. Sin embargo, a pesar de todos los progresos en Neurología
y Psicología, la inteligencia del hombre se conoce poco, exceptuando sus
manifestaciones externas. Muchos estudiosos de la inteligencia artificial se han
vuelto – para obtener su modelo de inteligencia – hacia el estudio de la Psicología
cognoscitiva, que aborda la forma de percibir y pensar de los seres humanos..
Después comprueban sus teorías programando los ordenadores para simular los
procesos cognoscitivos en el modelo. Otros investigadores intentan obtener
teorías generales de la inteligencia que sean aplicables a cualquier sistema de
inteligencia y no solo al del ser humano.

5.5 Los fines de la IA.

18
Las primeras investigaciones acerca de la inteligencia artificial estaban
principalmente dirigidas al hallazgo de una técnica universal para la solución de
problemas. Este intento a gran escala ha sido abandonado y las investigaciones
actuales están dirigidas al diseño de numerosos programas para ordenadores
capaces de imitar los procesos de toma de decisiones de expertos, como médicos,
químicos, basados en los conocimientos de especialistas en cada materia, son
ahora utilizados para diagnosticar enfermedades, identificar moléculas químicas,
localizar yacimientos de minerales e incluso diseñar sistemas de fabricación.
Investigaciones acerca de la percepción han sido aplicadas a los robots y se han
diseñado algunos capaces de "ver". La meta final consiste en crear un sistema
capaz de reproducir todas las facetas de la inteligencia humana.

5.6 La Inteligencia Artificial y el cerebro humano

La inteligencia artificial desde su campo ha


empezado a realizar funciones y actividades que
anteriormente el hombre realizaba, esto es debido
a que el cerebro del ser humano ha empezado a
desarrollarse en aplicar sus conocimientos en el
ámbito de la tecnología, provocando una discusión
en el desarrollo del cerebro humano y la del
ordenador, tratando de conocer cuál de estos han
evolucionado o desarrollado mejor su inteligencia.

Las 6 diferencias más notorias de la inteligencia


artificial y el cerebro humano son:

1. El cerebro usa una memoria de contenido direccionable. Dando como


justificación que el acceso a través de las computadoras se realiza
buscando información en el preciso lugar en la memoria y a esta memoria
se le denomina byte-direccionable, mientras en la del ser humano la
memoria es de contenido direccionable, debido a que se puede acceder a
esta a través de conceptos relacionados.

19
2. La velocidad de procesamiento cerebral no es fija; no hay ningún reloj
de sistema. El cerebro humano no cuenta con un tiempo fijo para dar
información o para procesar y realizar actividades, esta puede variar; sin
embargo, dentro del cerebro sí se cuenta con una noción de tiempo y
espacio. De igual forma existen evidencias que hacen referencia a que la
velocidad está sujeta a una cantidad de variables, por ejemplo en el tiempo
que tarda la señal en llegar al cerebro, mientras que los ordenadores
cuentan con un sistema encargado de generar pulsos y esto marca el ritmo
con que se llevan a cabo, por ejemplo disminuir la velocidad para ahorro de
energía.

3. La memoria a corto plazo no es como la RAM. La diferencia más clara es


que la memoria a corto plazo con la que cuenta un cerebro humano tiende
a no tener límites, mientras que la memoria RAM que utiliza un procesador
tiende a ser finita, es decir tienen un fin o un límite establecido.

4. A diferencia de las computadoras, el procesamiento y la memoria son


llevados a cabo por los mismos componentes en el cerebro. En un
ordenador es el microprocesador el encargado de trabajar con los datos
que obtiene y depositarlos en su memoria, mientras que el cerebro humano
las mismas neuronas que procesan la información pueden ser el asiento de
su memoria.

5. El cerebro es un sistema auto-organizado. Esta característica que


diferencia a un ordenador del cerebro humano, permite que en caso de
lesiones que sufra el cerebro de una persona, una zona de este llegue a
realizar las funciones perdidas y se le conoce como “plasticidad inducida
por un trauma”, mientras el ordenador no cuenta con una función similar.

6. Los cerebros tienen cuerpos. Esta característica aunque es calificada


como trivial, hace que el cerebro del ser humano al contar con un cuerpo,
pueda utilizar el medio ambiente como una extensión de sí mismo, aparte
de que se encuentra a su entera disposición.

5.7 Inteligencia artificial y las emociones

20
El concepto de IA (Inteligencia artificial)
es aún demasiado difuso.
Contextualizando, y teniendo en cuenta
un punto de vista científico, podríamos
englobar la Inteligencia artificial como
ciencia encargada de imitar una
persona, y no su cuerpo, sino imitar al
cerebro, en todas sus funciones,
existentes en el humano o inventadas
sobre el desarrollo de una máquina
inteligente.

A veces, aplicando la definición de


Inteligencia Artificial (I.A), se piensa en
máquinas inteligentes sin emociones,
que "obstaculizan" encontrar la mejor solución a un problema dado. Muchos
pensamos en dispositivos artificiales capaces de concluir miles de premisas a
partir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción de
obstaculizar dicha labor.

En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces
de tomar decisiones "acertadas".

Aunque, por el momento, la mayoría de los investigadores en el ámbito de


la Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos
consideran seriamente la posibilidad de incorporar componentes “emotivos”, a fin
de aumentar la eficacia de los sistemas inteligentes.

Particularmente para los robots móviles, es necesario que cuenten con algo
similar a las emociones con el objeto de saber –en cada instante y como mínimo–
qué hacer a continuación [Pinker, 2001, p. 481].

Al tener “emociones” y, al menos potencialmente, “motivaciones”, podrán


actuar de acuerdo con sus “intenciones” [Mazlish, 1995, p. 318]. Así, se podría
equipar a un robot con dispositivos que controlen su medio interno; por ejemplo,
que “sientan hambre” al detectar que su nivel de energía está descendiendo o que
“sientan miedo” cuando aquel esté demasiado bajo.

21
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a
conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría
introducir el “dolor” o el “sufrimiento físico”, a fin de evitar las torpezas de
funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de
engranajes o saltar desde una cierta altura, lo cual le provocaría daños
irreparables.

5.8 Tendencias de los sistemas de inteligencia artificial

Actualmente según Delgado [1998], Stuart [1996], existen tres paradigmas en


cuánto al desarrollo de la IA:

 Redes Neuronales.
 Algoritmos genéticos.
 Sistemas de Lógica difusa.

Pero se han venido destacando otros paradigmas como lo son los agentes de
decisión inteligente y autómatas programables, con respecto a estos últimos se
suelen emplear en gran medida en procesos industriales de acuerdo a
necesidades a satisfacer como, espacio reducido, procesos de producción
periódicamente cambiantes, procesos secuenciales, maquinaria de procesos
variables, etc.

A juicio de los autores se determina que todos estos desarrollos acortan


bastante el proceso de decisiones y optimizan las mismas, pero ahí que tener
mucho cuidado ya que hay que analizar los diferentes impactos ya sean
ambientales, sociales, políticos y económicos.

22
5.8.1 Redes neuronales

A grandes rasgos, se recordará que el


cerebro humano se compone de decenas de
billones de neuronas interconectadas entre sí
formando circuitos o redes que desarrollan
funciones específicas.

Una neurona típica recoge señales


procedentes de otras neuronas a través de
una pléyada de delicadas estructuras
llamadas dendritas. La neurona emite
impulsos de actividad eléctrica a lo largo de
una fina y delgada capa denominada axón, que se escinde en millares de
ramificaciones.

Las extremidades de estas ramificaciones llegan hasta las dendritas de


otras neuronas y establecen conexión llamada sinapsis, que transforma el impulso
eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias
llamadas neurotransmisores que excitan o inhiben sobre la neurona, de esta
manera la información se transmite de neuronas a otras y va siendo procesada a
través de las conexiones sinápticas y el aprendizaje varía de acuerdo a la
efectividad de la sinapsis.  

Figura 1. Neuronas y conexiones sinápticas.


Fuente: Sandra Patricia  Daza, Universidad Militar Nueva Granada, 2003.
 

23
Un psicólogo D Hebb [1949], introdujo dos ideas fundamentales que han
influido de manera decisiva en el campo de las redes neuronales. La hipótesis de
Hebb, basadas en investigaciones psicofisiológicas, presentan de manera intuitiva
el modo en que las neuronas memorizan información y se plasman sintéticamente
en la famosa regla de aprendizaje de Hebb (también conocida como regla de
producto). Esta regla indica que las conexiones entre dos neuronas se refuerzan si
ambas son activadas. Muchos de los algoritmos actuales proceden de los
conceptos de este psicólogo.

Widrow [1959], publica una teoría sobre la adaptación neuronal y unos


modelos inspirados en esta teoría, el Adaline (Adaptative Linear Neuron) y el
Madaline (Múltiple Adaline). Estos modelos fueron usados en numerosas
aplicaciones y permitieron usar, por primera vez, una red neuronal en un problema
importante del mundo real: filtros adaptativos que eliminan ecos en las línea
telefónicas.

Hopfield [1980], elabora un modelo de red consistente en unidades de


proceso interconectadas que alcanzan mínimos energéticos, aplicando los
principios de estabilidad desarrollados por Grossberg. El modelo resultó muy
ilustrativo sobre los mecanismos de almacenamiento y recuperación de la
memoria. Su entusiasmo y claridad de presentación dieron un nuevo impulso al
campo y provocó el incremento de las investigaciones.

Analogía de redes neuronales biológicas y artificiales

Según Herrera Fernández

Las neuronas se modelan mediante unidades de proceso, caracterizadas


por una función de actividades que convierte la entrada total recibida de otras
unidades en un valor de salida, el cual hace la función de tasa de disparo de la
neurona.

Las conexiones sinápticas se simulan mediante conexiones ponderadas, la


fuerza o peso de la conexión cumple el papel de la efectividad de la sinapsis. Las

24
conexiones determinan si es posible que una unidad influya sobre otra.
Una unidad de proceso recibe varias entradas procedentes de las salidas de otras
unidades de proceso de entrada total de una unidad de proceso y se suele
calcular como la suma de todas las entradas ponderadas, es decir, multiplicadas
por el peso de la conexión. El efecto inhibitorio o excitatorio de la sinapsis se logra
usando pesos negativos o positivos respectivamente.

  Redes neuronales Redes neuronales


biológicas  artificiales
Neuronas Unidades de proceso
Conexiones sinápticas Conexiones ponderadas
Efectividad de la sinapsis Peso de las conexiones
Efecto excitatorio o inhibitorio Signo del peso de una conexión
Estimulación total Entrada total ponderada
Activación (tasa de disparo) Función de activación (salida)

Tabla 1. Comparativo entre neuronas reales y las unidades de proceso empleadas en los modelos
computacionales.

Las redes neuronales deben tener como estructura varias capas las cuales
son: primera capa como buffer de entrada, almacenando la información bruta
suministrada en la red ó realizando un sencillo preproceso de la misma, la
llamamos capa de entrada; otra capa actúa como interfaz o buffer de salida que
almacena la respuesta de la red para que pueda ser leída, la llamamos capa de
salida; y las capas intermedias, principales encargadas de extraer, procesar y
memorizar la información, las denominan capas ocultas.

Figura 2. Modelo de red en cascada de varias capas.


Fuente: Sandra Patricia Daza, Universidad Militar Nueva Granada, 2003.

5.8.2 Sistemas de lógica difusa

25
A concepto de Delgado [1998] es la segunda herramienta que permite emular el
razonamiento humano. Los seres humanos pensamos y razonamos por medio de
palabras y en grados entre dos estados por ejemplo blanco y negro ó frío y
caliente, etc. Estos sistemas de lógica difusa son una mejora a los sistemas
experto tradicionales, en el sentido de que permiten utilizar lenguaje humano como
nosotros razonamos.

Ya hablando de sistemas expertos tradicionales, estos intentan reproducir el


razonamiento humano de forma simbólica. Es un tipo de programa de aplicación
informática que adopta decisiones o resuelve problemas de un determinado
campo, como los sistemas de producción, las finanzas o la medicina, utilizando los
conocimientos y las reglas analíticas definidas por los expertos en dicho campo.
Los expertos solucionan los problemas utilizando una combinación de
conocimientos basados en hechos y en su capacidad de razonamiento. En los
sistemas expertos, estos dos elementos básicos están contenidos en dos
componentes separados, aunque relacionados: una base de conocimientos y una
máquina de deducción, o de inferencia. La base de conocimientos proporciona
hechos objetivos y reglas sobre el tema, mientras que la máquina de deducción
proporciona la capacidad de razonamiento que permite al sistema experto extraer
conclusiones. Los sistemas expertos facilitan también herramientas adicionales en
forma de interfaces de usuario y los mecanismos de explicación.

5.8.3 Algoritmos genéticos

Según Delgado [1998] son una técnica inspirada en aspectos biológicos, el


proceso de la evolución del que Charles Darwin hace referencia se puede aplicar
para optimizar dispositivos de control o robots o cualquier otro tipo de aspectos
que sean susceptibles de ser optimizados como líneas de producción.

En general es aceptado que cualquier algoritmo genético para resolver un


problema, debe tener cinco componentes básicos como se vera a continuación:

 Se necesita una codificación o representación del problema, que resulte


adecuada al mismo.

 Una manera de crear una población inicial de soluciones.

26
 Una función de ajuste ó adaptación al problema, también llamada función
de evaluación, la cual asigna un número real a cada posible solución
codificada.

 Durante la ejecución del algoritmo, los padres – dos individuos


pertenecientes a la población inicial, que son soluciones factibles del
problema- deben ser seleccionados para la reproducción; a continuación
dichos padres seleccionados se cruzarán generando dos hijos, nuevas
soluciones al problema, sobre cada uno de los cuales actuará un operador
de mutación de acuerdo con una cierta probabilidad. El resultado de la
combinación de las anteriores funciones será un conjunto de individuos
(posibles soluciones al problema), los cuales en la evolución del Algoritmo
Genético formarán parte de la siguiente población.

 Valores para los parámetros: tamaño de la población, probabilidad de


aplicación de los operadores genéticos.

5.9 Áreas de aplicación de la Inteligencia Artificial.

Pero también hay áreas de aplicación. En efecto, estos procesos de la AI se


aplican en los sistemas reales en una gran variedad de ramas y problemas:

 Gestión y control: análisis inteligente, fijación de objetivos.

 Fabricación: diseño, planificación, programación, monitorización, control,


gestión de proyectos, robótica simplificada y visión computarizada.

 Educación: adiestramiento práctico, exámenes y diagnóstico.

 Ingeniería: diseño, control y análisis.

 Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento,


configuración, monitorización y ventas.

 Cartografía: interpretación de fotograf ías, diseño, resolución de problemas


cartográficos.

 Profesiones: abogacía, medicina, contabilidad, geología, química.

27
 Software: enseñanza, especificación, diseño, verificación, mantenimiento.

 Sistemas de armamento: guerra electrónica, identificación de objetivos,


control adaptativo, proceso de imágenes, proceso de señales.

 Proceso de datos: educación, interfase en lenguaje natural, acceso


inteligente a datos y gestores de bases de datos, análisis inteligente de
datos.
 Finanzas: planificación, análisis, consultoría.

5.10 Inteligencia artificial: ¿avance tecnológico o amenaza social?

La verdadera inteligencia artificial, se evidenciará cuando no seamos


capaces de distinguir entre un ser humano y un programa de computadora en una
conversación a ciegas. Muchos de los investigadores sobre IA, entre ellos Gary
Reyes, sostienen que "la inteligencia Artificial es un programa capaz de ser
ejecutado independientemente de la máquina que lo ejecute, computador o
cerebro". Se debe pensar que cuando las máquinas alcancen nuestra capacidad
mental, tendrán características humanas tales como el aprendizaje, la adaptación,
el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción
modelar del mundo. Así, se puede hablar ya no sólo de un objetivo, sino de
muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la
denominada inteligencia artificial.

Al llegar a un
perfeccionamiento tal de las
máquinas, donde formen un grupo
de seres capaces de construir y al
tiempo destruir una sociedad, se
corre el riesgo que tomen el lugar
del hombre, que lo reemplacen tan
fácilmente en todos los ámbitos que
desarrolla, que este cambio
progresivo podría verse como un

28
hecho cotidiano, e incluso, necesario. Por ejemplo en el trabajo, si hay una
maquina que puede resolver el más mínimo problema al interior de una empresa o
fabrica, se prescindiría de la labor humana y solo se requeriría a aquel capaz de
construir los robots, claro está, antes que estos se construyan a si mismos.

Lo que se debe pensar entonces, es que si ellos imitan a los humanos,


también pueden ser capaces de romper leyes, o bien, imitar la voluntad propia. Si
una máquina es creada a imagen y semejanza del hombre, cabe la posibilidad que
deje de obedecer, es como un niño que crece y ya no le gusta que lo manden,
puede llegar a ser autosuficiente. Pero lo anterior es únicamente una hipótesis que
lleva consigo otras problemáticas ocultas y varias dudas que no se resolverán sino
hasta el momento en que dicha hipótesis se haga realidad.

Las maquinas ya empezaron a reemplazar la labor del hombre haciendo la


vida mas fácil para unos pocos, pero para la mayoría han sido una verdadera
amenaza. El problema es que no se quiere aceptar que pueden hacer daño y
cuando se tenga conciencias de esto, puede ser demasiado tarde, a lo mejor ya
han reemplazado al humano hasta en lo más mínimo.

Mientras se tome conciencia de la amenaza que puede constituir la


implementación de estas máquinas "pensantes", se van a seguir buscando formas
de perfeccionar la Inteligencia Artificial y ya se abren caminos hacia el mundo
robotizado, con nuevas ideas teóricas y experimentales que en su clímax iluminen
el camino para llegar a la verdadera inteligencia artificial. "Aunque parezca
absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta
centrado sobre todo en los chatterbots"

VI. CONCLUSION.

29
La Inteligencia artificial es la capacidad de una máquina de pensar y actuar como
el hombre, pero para lograr esto primero se debe conocer totalmente el
funcionamiento del pensamiento humano. En el ámbito tecnológico la Inteligencia
Artificial es una de las áreas que causa mayor expectación, incluso dentro de la
sociedad en general, debido a que la búsqueda para comprender los mecanismos
de la inteligencia, ha sido la piedra filosofal del trabajo de muchos científicos por
muchos años y lo sigue siendo.

Pero aun sin haber desarrollado completamente la inteligencia artificial, ya


se ven las graves consecuencias sociales que trae consigo, no se debe olvidar
que hoy en día la creación de artefactos inteligentes, se vuelve cada vez más una
meta que un sueño; implícitamente se vuelve mas una amenaza social que un
avance tecnológico.

BIBLIOGRAFIAS

30
 Elaine Rich. Knight Kevin. Inteligencia Artificial. Segunda Edición. Mc Graw
Hill. México 1994.

 Rauch-Hindin, W.B. (1989). Aplicaciones de la inteligencia artificial en la


actividad empresarial, la ciencia y la industria. Madrid: Díaz de
Santos, S.A.

 Stuart Rusell. Norving Meter. Inteligencia Artificial un Enfoque Moderno.


Printice Hall. México 1996.

 http://www.buenastareas.com/ensayos

 http://www.monografias.com/trabajos16/la-inteligencia-artificial/la-
inteligencia-artificial.shtml

 http://aepia.dsic.upv.es/

 LÓPEZ, Jhony C. "Inteligencia Artificial" en


http://es.wikipedia.org/wiki/Inteligencia_artificial. 2006

 http://www.lajornadadeoriente.com.mx/2008/02/25/puebla/s1arr16.php

31

También podría gustarte