P. 1
Inteligencia Artificial

Inteligencia Artificial

|Views: 259|Likes:
Publicado poralb_hug

More info:

Published by: alb_hug on Nov 03, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

03/25/2015

pdf

text

original

ÍNDICE

I. INTRODUCCIÓN II. ANTECEDENTES««««««««««««««««««««««««« 2.1 Desarrollo Histórico Según [Jackson 86]««««««««««««.. III. IMPORTANCIA Y JUSTIFICACIÓN DEL ESTUDIO. III.I JUSTIFICACIÓN««««««««««««««««««««««.. IV. OBJETIVOS 4.1 Objetivos Generales«««««««««««««««««««««. 4.2 Objetivos específicos««««««««««««««««««««... V. METODOLOGÍA. INTELIGENCIA ARTIFICIAL (IA)«««««««««««««««««««... 5.1 Algunas Definiciones de la inteligencia Artificial (IA)«««««««««. 5.2 Características de la inteligencia artificial««««««««««««««.. 5.3 La vida artificial«««««««««««««««««««««««««... 5.3.1 Cuestión Filosófica de la Vida Artificial«««««««««««« 5.3.2 Perspectivas Futuras de la Vida Artificial«««««««««««.. 5.3.3 Dos posturas dentro de la Vida Artificial: la fuerte y la débil«««. 5.4. La base de la inteligencia artificial«««««««««««««««««. 5.5 Los fines de la IA««««««««««««««««««««««««« 5.6 La Inteligencia Artificial y el cerebro humano««««««««««««« 5.7 Inteligencia artificial y las emociones««««««««««««««««.. 5.8 Tendencias de los sistemas de inteligencia artificial«««««««««« 5.8.1 Redes neuronales«««««««««««««««««««««. 5.8.2 Sistemas de lógica difusa«««««««««««««««««« 5.8.3 Algoritmos genéticos«««««««««««««««««««« 5.9 Áreas de aplicación de la Inteligencia Artificial«««««««««««« 5.10 Inteligencia artificial: ¿avance tecnológico o amenaza social?.................. VI. CONCLUSION«««««««««««««««««««««««««« 11 13 14 15 17 17 18 19 20 20 22 23 24 27 27 28 29 31 10 10 9 4 6

BIBLIOGRAFIAS««««««««««««««««««««««««««.. 32

1

I. INTRODUCCIÓN
La Inteligencia artificial es un término que, en su sentido más amplio, indicaría la capacidad de un artefacto de realizar los mismos tipos de funciones que caracterizan al pensamiento humano. La posibilidad de desarrollar un artefacto así ha despertado la curiosidad del hombre desde la antigüedad; sin embargo, el funcionamiento de la mente humana todavía no ha llegado a conocerse en profundidad y, en consecuencia, el diseño informático seguirá siendo esencialmente incapaz de reproducir esos procesos desconocidos y complejos.

Desde el origen de las computadoras digitales, constantemente se han hecho investigaciones científicas y tecnológicas con la finalidad de facilitar algunas actividades propias de los seres humanos. Se ha logrado automatizar muchos procesos mecánicos, de cálculo, de almacenamiento de datos, de procesamiento, etc. desarrollando, cada vez, herramientas de cómputo capaces de auxiliar en forma directa cada una de estas actividades. En varias de ellas se tiene la necesidad de examinar el medio ambiente donde se desarrollará tal actividad y realizar un análisis de las situaciones y tomar una decisión siguiendo un razonamiento lógico. Los seres humanos, a diferencia de otras especies, tienen la capacidad de razonar sobre una serie de percepciones de hechos y proposiciones estableciendo relaciones entre si. A esta capacidad se le llama inteligencia. Mediante el uso de los sentidos, puede enterarse de hechos que suceden en el medio ambiente que lo rodea y es capaz de establecer relaciones entre ellos para obtener conclusiones, desarrollar conocimiento y actuar en base a ellos. De manera semejante, se han desarrollado aplicaciones que emulan el comportamiento humano mediante sistemas computacionales. La finalidad de la inteligencia artificial consiste en crear teorías y modelos que muestren la organización y funcionamiento de la inteligencia. Actualmente, el mayor esfuerzo en la búsqueda de la inteligencia artificial se centra en el desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran aprendizaje, solución de problemas y decisiones. A veces llamada inteligencia de máquina, la inteligencia artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.

2

II. ANTECEDENTES
En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el asunto de si la máquina de Babbage podía "pensar". Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez, traducción de textos a otro idioma. Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron los principios de la cibernética en relación con la realización de decisiones complejas y control de funciones en máquinas.

La teoría de la retroalimentación en mecanismos, como por ejemplo: un termostato que regula la temperatura en una casa, tuvo mucha influencia. Esto aún no era propiamente Inteligencia Artificial. Se hizo mucho en traducciones (Andrew Booth y Warren Weaver), lo que sembró la semilla hacia el entendimiento del lenguaje natural.

En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrolla el primer lenguaje de programación orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos, representando cada problema como un modelo de árbol, en el que se seguían ramas en busca de la solución correcta, que resultó crucial.

En 1956, con la ahora famosa conferencia de Dartmouth, organizada por John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este nuevo campo, se separó la Inteligencia Artificial de la ciencia del computador, como tal. Se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problems Solver (GPS). GPS era un sistema orientado a la resolución de problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido común, como una extensión del principio de retroalimentación de Wiener.

3

encabezado por Marvin Minsky. relacionarla con información anteriormente almacenada. pues era capaz de tomar una pieza de información. entre los más relevantes están. En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra. 4 . Los temas fundamentales eran el desarrollo de heurísticas y el aprendizaje de máquinas. Alex Bernstein desarrolla un programa para el juego de ajedrez que se considera el antecedente para "Deep Blue". interpretarla. analizarla y sacar conclusiones lógicas. la Universidad Carnegie Mellon. Robert K. la Universidad de Standford e IBM. La IBM contrató un equipo para la investigación en esa área y el gobierno de USA aportó dinero al MIT también para investigación en 1963. Este sistema representó un enorme paso de avance en la simulación de inteligencia humana por una máquina. a partir de ella el sistema concluía que Mary debía ser también la madre de John. En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.Diversos centros de investigación se establecieron. Este podía leer oraciones del tipo "Jim es hermano de John" y "La madre de Jim es Mary". Lindsay. quien desarrolla un "Demostrador Automático de Teoremas de la Geometría". de IBM. denomina "Sad Sam". el Massachusetts Institute of Technologie (MIT). al cual su autor. En 1957 McCarthy desarrolló el lenguaje LISP. A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación. En el mismo período de tiempo hay trabajos importantes de Herbert Gelernter.

 Regreso de redes neuronales [Hopfield. Hinton]. Lógica difusa).problemas de ``juguete''. Goldberg] Reconocimiento de voz (HMM). Norvig 95]: Gestación (1943-1956): McCullock y Pitts (43). robótica. algoritmos genéticos [Holland. Simon] Juegos. time sharing. finanzas. visión. Shannon:  (50). ingeniería. incertidumbre (RB. Redes semánticas [Quillian] Prototipos (frames) [Minsky] Perceptrón [Minsky y Papert] Lógica [Kowalski] Mundo de bloques (SHDRLU) [Winograd] Compresión de lenguaje. LISP Resolvedor general de problemas (GPS) [Newell. McCarthy] Redes neuronales.  Sistemas expertos o basados en conocimiento. Programs with common sense. Dificultades de representación ``general''. Shannon. McCarthy (58):  Lisp.1 Desarrollo Histórico Según [Jackson 86] 1950-1965 Periodo ``clásico'':        Gestación [McColluck y Pitts. Hebb (49). Rumelhart. Heurísticas. Turing (53). En 63 McCarthy se fue a Stanford SRI. explosión combinatoria. 5 .2. robótica (Shakey) Búsqueda en un espacio de estados. exploración.checkers (52).reunión de Darmouth College en 1956 [ Minsky.  Limitaciones: conocimiento ``superficial'' Según [Russell. Minsky y McCarthy en MIT moldearon mucho del area. aprendizaje Aplicaciones ``reales'' (medicina.). prueba de teoremas Limitaciones de pura búsqueda. Turing] Inicio . 1975-Hoy Periodo ``moderno'' Inteligencia ``especifica'' vs ``general'':  Representación explícita del conocimiento específico del dominio. Newell y Simon ``The Logic Theorist''  Entusiasmo y grandes espectativas (1952-1969):  Samuel . Minsky y Edmonds (51). Darmouth College (56) McCarthy. etc. planeación. 1965-1975 Periodo ``romántico'':         Representación ``general'' del conocimiento.

HPP.Weisenbaum Shakey . frames. incertidumbre (Bayes). Minsky. Student. Experimentos en machine evolution (ahora algoritmos genéticos) (Friedberg. Reddy CYC . Rosenblatt Dosis de realidad(1966-1974):  Simon predecía que en 10 años se tendría una máquina inteligente. etc.A. Predicciones similares en traducción automática y ajedrez.g.. Waltz. etc.. aprendizaje (PAC). Winograd. Prolog. Winograd SHDRLU. Minsky y Papert Perceptrons (69) (aunque irónicamente el mismo año se descubrió backpropagation (Bryson y Ho)) Sistemas basados en conocimiento (1969-1979):  Dendral . Lenat..SRI SHDRLU . planeación (Tweak). Widrow. Teoría de NPcompletness. Hart Hearsay II . Shaw y Simon Perceptron .Shakey. R.Newell.E. 58) estaban bien fundados pero no produjeron nada. Mycin .D.  IA como industria (1980-1988): R1/XCON.D.Minsky y Papert Chekers . Samuel MACSYMA AM . Planner shells y máquinas de Lisp. Prospector.Duda. proyecto de la quinta generación. Hayes-Roth. etc. reconocimiento de voz (HMM). Trabajo en RN: Hebb. Rumelhart y Hinton y descenso de los SE Eventos recientes (1987-presente):  Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) e.Winogard MYCIN .Erman.. Winston. Lesser.. Regreso de redes neuronales (1986-presente):  Hopfield. Shortliffe Prospector . Sistemas históricos: GPS . Lenat ELIZA . Guha 6 . Evans.Shank (no hay sintáxis). robótica.

hace reservas de transporte por teléfono [Zue et al.Sistemas actuales:  PEGASUS .sistema experto en tiempo real que maneja la información de Voyager y ayuda a diagnosticar fallas [Schwuttke 92]  Sistema de diagnóstico de medicina interna con capacidad de explicar sus razones a los expertos [Heckerman 91]  NAVLAB .vehículo autónomo que viaje en forma automática de un extremo a otro de EUA [Pomerlau 93]  Sistema de visión que monitorea el tráfico en Paris y reconoce accidentes con los cuales llama a servicios de emergencia [Koller 94]  DEEP BLUE .máquina paralela que juega ajedrez y primera en derrotar al campeón mundial [IBM 97] 7 . 94]  MARVEL .

8 . El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de crecimiento comparadas con otras ramas de computadoras pero poco a poco el estudio del comportamiento humano dará paso para aplicar estos conocimientos a las computadoras y estas lograr de manera primitiva razonas sobre diferentes situaciones. También ocurre que dentro de un problema tienen la variabilidad del mismo y no pueden adaptarse a un cambio que pueda ocurrir. el desarrollo de sistemas expertos que hoy en día se están utilizando con éxito en los campos de la medicina. geología y aeronáutica aunque todavía están poco avanzados en relación con el ideal del producto IA completo. repetitivas y simples mas eficiente y efectivas que un ser humano. La complejidad en aplicarle conocimientos del ser humano a las computadoras es la capacidad de estos de ser impredecible y las maneras diferentes que se actua ante una posible situación y estas reacciones hacen que no se pueda implementar un patrón dentro de la memoria de una computadora. ya sea por lo incomodo.III. Hasta ahora no existe la posibilidad de predecir o almacenar todo tipo de comportamiento de un ser humano a todas las situaciones que se enfrenta durante su existencia. aprender. Las ventajas que trae el disponer de un asistente artificial no son mas que las de solucionar los errores y defectos propios del ser humano. peligroso o complicado de su trabajo necesitan apoyo de un experto en la materia. Esto permite a las computadoras a ser creadas en maquinas artificiales que desempeñan tareas monótonas. Estudios sobre trabajos o tareas repetitivas han demostrado que el ser humano no le agrada este tipo de trabajo y al pasar el tiempo son más susceptibles a cometer errores en el mismo. La Inteligencia Artificial se crea con la implementación en las computadoras para realizar mecanismo de computación que utiliza programas fijos y contiene una seria de reglas que lo hacen funcionar. es decir. entender y el razonamiento del comportamiento de las computadoras en situaciones complejas. Estos problemas son de suma importancia para la Inteligencia Artificial que busca el mejorar. III. Para situaciones complejas el objetivo se hace mas complejo debido a que la inteligente artificial dada a las computadoras tienen dificultad en entender ciertas situaciones o problemas específicos y como reaccionar a estas.I JUSTIFICACIÓN El empleo de la IA esta orientado a aquellas profesiones que. IMPORTANCIA Y JUSTIFICACIÓN DEL ESTUDIO.

i Fortalecer mi capacidad de redacción a nivel argumentativo. i Conocer y dar a conocer por medio de la argumentación escrita. i Crear un ensayo polémico que lleve a la reflexión. 9 . i Enfatizar en la relación tecnología. OBJETIVOS 4. i Explicar la relación tecnología. los aspectos negativos de la inteligencia artificial con el fin de crear reflexión en el público. ciencia y sociedad.IV.2 Objetivos específicos i Conocer y plasmar argumentativamente todos los aspectos del tema seleccionado. ciencia y sociedad que se encuentra incluida en el tema de inteligencia Artificial.1 Objetivos Generales i Dar a conocer la importancia de la Inteligencia Artificial para entender como influye en nuestra vida diaria. 4.

En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico. La Inteligencia Artificial (IA). los sistemas de software que cuenta cuando tienes problemas y ofrecer un asesoramiento adecuado. El propósito de la inteligencia artificial es hacer computacional el conocimiento humano no analítico por procedimientos simbólicos. moderna adjunto con las tecnologías que ha inspirado-tiene muchas ramificaciones prácticas y ofrece beneficios reales a los usuarios. de forma que al enfrentarnos con un problema computacional (o con un método de solución) 10 . que van desde los sistemas bancarios que detectan intentos de fraude con tarjeta de crédito. INTELIGENCIA ARTIFICIAL (IA) La inteligencia artificial (AI). es la tecnología clave para muchas aplicaciones de la novela de hoy. cuya solución se logra con mejores juicios y más rápidamente que el ser humano. METODOLOGÍA. junto a otros criterios intencionales (que establecen las reglas de clasificación). A diferencia de sus raíces como una disciplina esotérica de tratar de hacer que las computadoras emular la mente humana. a los sistemas de teléfono que entender el habla. conexionistas o híbridos. para luego hacer juicios acerca de un problema. o los componentes dentro de las aplicaciones. A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden limitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia. que utilizan conjuntos de reglas y conocimientos para hacer inferencias.V. abarca un número diverso de aplicaciones informáticas. Para conseguir una visión razonablemente amplia del contenido de la inteligencia artificial usaremos criterios extensionales (proporcionando una relación lo más completa posible de los temas que estudia la inteligencia artificial).

Esta técnica se basa en experimentos para conseguir una teoría del conocimiento computable con capacidad predictiva (como una ley física). dinámico y estratégico) para poder usarlo en predicción. generalmente organizado en varios niveles (estático.específico podamos concluir si pertenece o no al campo de la inteligencia artificial en función. 11 . Ahora se parte de un conjunto de especificaciones funcionales y se busca la síntesis de un sistema (programa más máquina) que las satisfaga. El procedimiento teórico busca una explicación de esa correlación en términos de un conjunto de leyes generales de un nivel superior que permiten predecir lo que ocurriría en otros casos no observados. Aspira a convertirse en una ingeniería en sentido estricto. en la inteligencia artificial existen dos perspectivas básicas: a) la inteligencia artificial como ciencia de lo natural o análisis. Realmente lo que hace es buscar un modelo del conocimiento humano. b) inteligencia artificial como ciencia de lo artificial o ingeniería de síntesis. Así.

 La Inteligencia Artificial es la parte de la informática relacionada con el diseño de sistemas de ordenadores inteligentes. 12 . es decir. sistemas que exhiben las características que asociamos con la inteligencia de la conducta humana.  Rama especializada de la informática que investiga y produce razonamiento por medio de maquinas automática y que pretende fabricar artefactos dotados de la capacidad de pensar. La principal aplicación de la inteligencia artificial es la creación de máquinas para la automatización de tareas que requieran un comportamiento inteligente.  Ciencia que tiene como objetivo el diseño y construcción de maquinas capaces de imitar el comportamiento inteligente de las personas.1 Algunas Definiciones de la inteligencia Artificial (IA).5.  Se denomina inteligencia artificial a la rama de la informática que desarrolla procesos que imitan a la inteligencia de los seres vivos.

sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. o Tales tareas reducen costos. también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. que reproducen el comportamiento humano en un estrecho ámbito del conocimiento. reducen riesgos en la manipulación humana en áreas peligrosas. sistemas computacionales expertos. o El razonamiento basado en el conocimiento. y mejoran el control de calidad sobre todo en el ámbito comercial. comprensión de lenguajes y traducción. implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Aplicabilidad a datos y problemas mal estructurados.2 Características de la inteligencia artificial. los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología. Otros tipos de programas como los compiladores y sistemas de bases de datos. son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento. visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje. o La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica. usada principalmente en el campo industrial. mejoran el desempeño del personal inexperto.5. o Los sistemas expertos. los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas. o Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos. aunque no es suficiente para distinguirlo completamente. como los de contabilidad y cálculos científicos. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). Al contrario de los programas para propósito específico. o El comportamiento de los programas no es descrito explícitamente por el algoritmo. 13 . reconocimiento de palabras y aprendizaje de máquinas.

La Vida Artificial se puede considerar como la parte de la Inteligencia Artificial que pretende reproducir los procesos y comportamientos típicos de los seres vivos. La primera de ellas se basa en la observación de la realidad. siendo la VA un caso particular de la POO. mediante la combinación de símbolos (datos) y procesos de símbolos (programas) independientemente del soporte físico de estos símbolos y procesos. unos sentidos. centrando la atención en los aspectos "a más alto nivel". de manera que es más fácil estudiar comportamientos sociales. Es decir. y sin embargo. es posible construir un pequeño robot con aspecto de ratón capaz de encontrar la salida de un laberinto. o algo parecido a la vida. si un objeto es un elemento que encapsula datos y procedimientos. y que aprendan o colaboren entre ellos hasta conseguir el resultado deseado. Por otra parte están las simulaciones "software". se puede considerar la Vida Artificial (VA) como un paso más allá después de la Programación Orientada a Objetos (POO).5. Podemos construir los seres artificiales con el objetivo de solucionar los problemas que a nosotros nos interesen. una entidad artificial es un elemento que encapsula un objetivo.3 La vida artificial. En muchos campos de estudio se plantea la posibilidad de realizar simulaciones para intentar predecir o ayudar a la toma de decisiones acerca de ciertos aspectos del mundo real. unas acciones y unas creencias. De esta forma. es decir. A esto le podemos llamar Programación Orientada a Agentes. Por una parte están los intentos "hardware" de emulación de vida. Éstas tienen la ventaja de que permiten construir un gran número de seres vivos y entornos en los que estos existen. precisamente en los que se 14 . Hay dos formas de enfocar estas simulaciones. Por ejemplo. También podemos definirla como el intento de crear vida.

el cerebro humano identifica aquellas características sencillas que están presentes en muchas entidades del problema. Se observa si el modelo. ante datos históricos del pasado. El cerebro humano elabora una teoría acerca de cómo todos estos aspectos varían. con la esperanza en que de esta interacción emerja el comportamiento complejo que se pretende estudiar. se deduce que la definición del agente genérico (más su entorno. 15 . reescribiéndola por completo.) es demasiado sencilla y se va complicando. y se simula en un ordenador ante diversas condiciones iniciales. y en ese caso. ofrece salidas (resultados) que se ajustan a lo esperado según los datos históricos. En caso de obtener resultados muy alejados de la realidad. centrando la atención en los aspectos "a más bajo nivel" del problema. Se observa si el modelo. se define un tipo genérico de entidad que admita estas características. reglas o algo parecido. reglas o algo parecido. se utiliza para la toma de decisiones en el futuro. La segunda de ellas se basa en la observación de la realidad. ante datos históricos del pasado. Mediante fórmulas. Es decir. buscando los aspectos más sencillos y a la vez con una alta multiplicidad. Inicialmente los agentes genéricos se definen tan sencillos como sea posible sin dejar de ajustarse al problema. ajustando continuamente el modelo según el error obtenido. Esta teoría se formaliza en fórmulas. añadiendo detalles hasta ajustarse suficientemente a la realidad. ajustando ciertos aspectos o detallando con mayor nivel de profundidad los que parecen ser generalizaciones excesivas. se revisa la teoría inicial. etc.pretenden predecir o modificar. y en ese caso. y también en aquellos que aparentemente están más relacionados con éstos. En caso de obtener resultados muy alejados de la realidad. ajustando continuamente el modelo según el error obtenido. ofrece salidas (resultados) que se ajustan a lo esperado según los datos históricos. y en un ordenador se realiza una simulación basada en la generación de un alto número de estas entidades capaces de interactuar entre sí. se utiliza para la toma de decisiones en el futuro.

1 Cuestión Filosófica de la Vida Artificial La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra realidad.2 Perspectivas Futuras de la Vida Artificial Con poco más de diez años de antigüedad.3. 5. que el mismo proceso se repita de forma continua y además que las ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales. biología y otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos para la primera conferencia internacional sobre Vida Artificial. No hace falta que las simulaciones por ordenador sean todavía más complejas. para poder tener el derecho a preguntarnos acerca de si nuestro propio mundo no será también una "simulación dentro de un cosmo-ordenador". la Vida Artificial se ha convertido en un punto de referencia sólido de la ciencia actual. Si los ordenadores son capaces de simular universos artificiales poblados por organismos que mediante la reproducción. física. desde tiempos remotos.3. Un concepto básico dentro de este campo es el de comportamiento emergente. esta pregunta se ha planteado. podríamos interpretar nuestro propio mundo como un "superordenador" donde nosotros mismos somos los "seres artificiales" que lo habitan. las mutaciones y la selección natural. siguiendo el curso de evolución que El Programador ha deseado.5. 16 . de infinidad de maneras. En septiembre de 1987. De hecho. Para que se dé este comportamiento se requiere que el sistema en cuestión sea reiterativo. evolucionan y se hacen cada vez más inteligentes y conscientes. es decir. 160 científicos en informática. En aquella conferencia se definieron los principios básicos que han marcado la pauta desde entonces en la investigación de esta disciplina. El comportamiento emergente aparece cuando se puede generar un sistema complejo a partir de reglas sencillas.

Para los que defienden la versión fuerte. un autómata celular consiste en un espacio n-dimensional dividido en un conjunto de celdas. aluden a un conjunto de reglas que comparten las tres categorías anteriores: * La biología de lo posible: La Vida Artificial no se restringe a la vida húmeda tal como la conocemos. y vida virtual. formada por programas de computador. los defensores de la postura fuerte. vida seca. formada por autómatas físicamente tangibles. sino que "se ocupa de la vida tal como podría ser". Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida Artificial. que es lo que todo el mundo conoce como vida. Para defender un punto de vista tan radical. La biología ha de convertirse en la ciencia de todas las formas de vida posibles. Desde este punto de vista. 17 . sus modelos son solamente representaciones simbólicas de los síntomas biológicos naturales. la vida se divide en vida húmeda.Por otra parte.3.3 Dos posturas dentro de la Vida Artificial: la fuerte y la débil. dependiendo de un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de las celdas que le rodean. se entiende la vida como un todo integrado. de forma que cada celda puede encontrarse en dos o más estados. Desde este punto de vista. * Método sintético: La actitud de la Vida Artificial es típicamente sintética. que ha sido mayoritariamente analítica. modelos ciertamente muy útiles para conocer dichos sistemas. 5. pero sin mayores pretensiones. a diferencia de la biología clásica. en lugar de desmenuzarlo en sus más mínimas partes. Para los que apoyan la postura débil. dicen que se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las características básicas de los seres vivos.

exceptuando sus manifestaciones externas. Puesto que la meta es copiar la inteligencia humana.4. Muchos estudiosos de la inteligencia artificial se han vuelto ± para obtener su modelo de inteligencia ± hacia el estudio de la Psicología cognoscitiva. Es absurdo pretender que sólo es vida genuina aquella que está basada en la química del carbono. Poco a poco el sistema se organiza espontáneamente y empieza a surgir orden donde antes sólo había caos. es necesario entenderla. la inteligencia del hombre se conoce poco. a pesar de todos los progresos en Neurología y Psicología. dejar que el sistema evolucione por sí mismo y que el comportamiento emergente haga el resto.. Consiste en partir de unos pocos elementos constitutivos y unas reglas básicas. Sin embargo. como es el caso de la vida húmeda. 5. La base de la inteligencia artificial.* Vida real (artificial): La Vida Artificial es tal porque son artificiales sus componentes y son artificiales porque están construidos por el hombre. * Construcción de abajo hacia arriba: la síntesis de la Vida Artificial tiene lugar mejor por medio de un proceso de información por computador llamado programación de abajo hacia arriba. y es la forma de este proceso. La inteligencia artificial se basa en dos áreas de estudio: el cuerpo humano y el ordenador electrónico. lo que constituye la esencia de la vida. * Toda la vida es forma: la vida es un proceso. el comportamiento de tales sistemas depende de sus propias reglas y en ese sentido es tan genuino como el comportamiento de cualquier sistema biológico natural. Después comprueban sus teorías programando los ordenadores para simular los procesos cognoscitivos en el modelo. que aborda la forma de percibir y pensar de los seres humanos. no la materia. 18 . Sin embargo. Otros investigadores intentan obtener teorías generales de la inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.

5 Los fines de la IA. Las 6 diferencias más notorias de la inteligencia artificial y el cerebro humano son: 1. químicos. identificar moléculas químicas.6 La Inteligencia Artificial y el cerebro humano La inteligencia artificial desde su campo ha empezado a realizar funciones y actividades que anteriormente el hombre realizaba. El cerebro usa una memoria de contenido direccionable. La meta final consiste en crear un sistema capaz de reproducir todas las facetas de la inteligencia humana. Este intento a gran escala ha sido abandonado y las investigaciones actuales están dirigidas al diseño de numerosos programas para ordenadores capaces de imitar los procesos de toma de decisiones de expertos. como médicos. Dando como justificación que el acceso a través de las computadoras se realiza buscando información en el preciso lugar en la memoria y a esta memoria se le denomina byte-direccionable. 5. provocando una discusión en el desarrollo del cerebro humano y la del ordenador. tratando de conocer cuál de estos han evolucionado o desarrollado mejor su inteligencia. son ahora utilizados para diagnosticar enfermedades. basados en los conocimientos de especialistas en cada materia.5. Investigaciones acerca de la percepción han sido aplicadas a los robots y se han diseñado algunos capaces de "ver". mientras en la del ser humano la 19 . localizar yacimientos de minerales e incluso diseñar sistemas de fabricación. Las primeras investigaciones acerca de la inteligencia artificial estaban principalmente dirigidas al hallazgo de una técnica universal para la solución de problemas. esto es debido a que el cerebro del ser humano ha empezado a desarrollarse en aplicar sus conocimientos en el ámbito de la tecnología.

4. una zona de este llegue a realizar las funciones perdidas y se le conoce como ³plasticidad inducida por un trauma´.memoria es de contenido direccionable. hace que el cerebro del ser humano al contar con un cuerpo. Los cerebros tienen cuerpos. el procesamiento y la memoria son llevados a cabo por los mismos componentes en el cerebro. no hay ningún reloj de sistema. permite que en caso de lesiones que sufra el cerebro de una persona. esta puede variar. 6. El cerebro es un sistema auto-organizado. por ejemplo en el tiempo que tarda la señal en llegar al cerebro. De igual forma existen evidencias que hacen referencia a que la velocidad está sujeta a una cantidad de variables. 5. A diferencia de las computadoras. mientras el ordenador no cuenta con una función similar. 2. 20 . pueda utilizar el medio ambiente como una extensión de sí mismo. El cerebro humano no cuenta con un tiempo fijo para dar información o para procesar y realizar actividades. dentro del cerebro sí se cuenta con una noción de tiempo y espacio. debido a que se puede acceder a esta a través de conceptos relacionados. sin embargo. mientras que la memoria RAM que utiliza un procesador tiende a ser finita. mientras que los ordenadores cuentan con un sistema encargado de generar pulsos y esto marca el ritmo con que se llevan a cabo. es decir tienen un fin o un límite establecido. mientras que el cerebro humano las mismas neuronas que procesan la información pueden ser el asiento de su memoria. Esta característica que diferencia a un ordenador del cerebro humano. Esta característica aunque es calificada como trivial. 3. En un ordenador es el microprocesador el encargado de trabajar con los datos que obtiene y depositarlos en su memoria. aparte de que se encuentra a su entera disposición. La velocidad de procesamiento cerebral no es fija. La memoria a corto plazo no es como la RAM. por ejemplo disminuir la velocidad para ahorro de energía. La diferencia más clara es que la memoria a corto plazo con la que cuenta un cerebro humano tiende a no tener límites.

podrán actuar de acuerdo con sus ³intenciones´ [Mazlish. existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente. podríamos englobar la Inteligencia artificial como ciencia encargada de imitar una persona. por ejemplo. se podría equipar a un robot con dispositivos que controlen su medio interno. Contextualizando. la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional. Particularmente para los robots móviles. hay que saber que ya existen sistemas inteligentes. p. al menos potencialmente. Así. que "obstaculizan" encontrar la mejor solución a un problema dado. 318]. muchos de ellos consideran seriamente la posibilidad de incorporar componentes ³emotivos´. es necesario que cuenten con algo similar a las emociones con el objeto de saber ±en cada instante y como mínimo± qué hacer a continuación [Pinker. sino imitar al cerebro. p. 2001.7 Inteligencia artificial y las emociones El concepto de IA (Inteligencia artificial) es aún demasiado difuso. a fin de aumentar la eficacia de los sistemas inteligentes. En esta línea.A). 1995. A veces. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas a partir de otras premisas dadas. sin que ningún tipo de emoción tenga la opción de obstaculizar dicha labor. y no su cuerpo. ³motivaciones´. Aunque. por el momento. 21 . y teniendo en cuenta un punto de vista científico. en todas sus funciones. se piensa en máquinas inteligentes sin emociones.5. aplicando la definición de Inteligencia Artificial (I. 481]. Al tener ³emociones´ y. que ³sientan hambre´ al detectar que su nivel de energía está descendiendo o que ³sientan miedo´ cuando aquel esté demasiado bajo. Capaces de tomar decisiones "acertadas".

pero ahí que tener mucho cuidado ya que hay que analizar los diferentes impactos ya sean ambientales. lo cual le provocaría daños irreparables. Stuart [1996]. procesos secuenciales. espacio reducido. por ejemplo.  Sistemas de Lógica difusa. 22 . existen tres paradigmas en cuánto al desarrollo de la IA:  Redes Neuronales. p. 5. 1993. etc. procesos de producción periódicamente cambiantes. sociales. 359]. políticos y económicos. Incluso se podría introducir el ³dolor´ o el ³sufrimiento físico´. con respecto a estos últimos se suelen emplear en gran medida en procesos industriales de acuerdo a necesidades a satisfacer como.  Algoritmos genéticos. introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura. a fin de evitar las torpezas de funcionamiento como.Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird.8 Tendencias de los sistemas de inteligencia artificial Actualmente según Delgado [1998]. A juicio de los autores se determina que todos estos desarrollos acortan bastante el proceso de decisiones y optimizan las mismas. maquinaria de procesos variables. Pero se han venido destacando otros paradigmas como lo son los agentes de decisión inteligente y autómatas programables.

5. La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa denominada axón. Fuente: Sandra Patricia Daza. se recordará que el cerebro humano se compone de decenas de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas. que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisores que excitan o inhiben sobre la neurona. Figura 1. Neuronas y conexiones sinápticas.1 Redes neuronales A grandes rasgos. Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexión llamada sinapsis.8. que se escinde en millares de ramificaciones. de esta manera la información se transmite de neuronas a otras y va siendo procesada a través de las conexiones sinápticas y el aprendizaje varía de acuerdo a la efectividad de la sinapsis. Una neurona típica recoge señales procedentes de otras neuronas a través de una pléyada de delicadas estructuras llamadas dendritas. 23 . Universidad Militar Nueva Granada. 2003.

Esta regla indica que las conexiones entre dos neuronas se refuerzan si ambas son activadas. el Adaline (Adaptative Linear Neuron) y el Madaline (Múltiple Adaline). El modelo resultó muy ilustrativo sobre los mecanismos de almacenamiento y recuperación de la memoria. publica una teoría sobre la adaptación neuronal y unos modelos inspirados en esta teoría. Su entusiasmo y claridad de presentación dieron un nuevo impulso al campo y provocó el incremento de las investigaciones. por primera vez. aplicando los principios de estabilidad desarrollados por Grossberg. Muchos de los algoritmos actuales proceden de los conceptos de este psicólogo. Hopfield [1980]. Estos modelos fueron usados en numerosas aplicaciones y permitieron usar. Analogía de redes neuronales biológicas y artificiales Según Herrera Fernández Las neuronas se modelan mediante unidades de proceso. Las 24 .Un psicólogo D Hebb [1949]. La hipótesis de Hebb. basadas en investigaciones psicofisiológicas. elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos. el cual hace la función de tasa de disparo de la neurona. Las conexiones sinápticas se simulan mediante conexiones ponderadas. introdujo dos ideas fundamentales que han influido de manera decisiva en el campo de las redes neuronales. presentan de manera intuitiva el modo en que las neuronas memorizan información y se plasman sintéticamente en la famosa regla de aprendizaje de Hebb (también conocida como regla de producto). caracterizadas por una función de actividades que convierte la entrada total recibida de otras unidades en un valor de salida. la fuerza o peso de la conexión cumple el papel de la efectividad de la sinapsis. Widrow [1959]. una red neuronal en un problema importante del mundo real: filtros adaptativos que eliminan ecos en las línea telefónicas.

almacenando la información bruta suministrada en la red ó realizando un sencillo preproceso de la misma. Figura 2. Una unidad de proceso recibe varias entradas procedentes de las salidas de otras unidades de proceso de entrada total de una unidad de proceso y se suele calcular como la suma de todas las entradas ponderadas. la llamamos capa de entrada.conexiones determinan si es posible que una unidad influya sobre otra. 25 . es decir. procesar y memorizar la información. otra capa actúa como interfaz o buffer de salida que almacena la respuesta de la red para que pueda ser leída. Las redes neuronales deben tener como estructura varias capas las cuales son: primera capa como buffer de entrada. las denominan capas ocultas. Fuente: Sandra Patricia Daza. multiplicadas por el peso de la conexión. Redes neuronales biológicas Neuronas Conexiones sinápticas Efectividad de la sinapsis Efecto excitatorio o inhibitorio Estimulación total Activación (tasa de disparo) Redes neuronales artificiales Unidades de proceso Conexiones ponderadas Peso de las conexiones Signo del peso de una conexión Entrada total ponderada Función de activación (salida) Tabla 1. 2003. Universidad Militar Nueva Granada. la llamamos capa de salida. El efecto inhibitorio o excitatorio de la sinapsis se logra usando pesos negativos o positivos respectivamente. Comparativo entre neuronas reales y las unidades de proceso empleadas en los modelos computacionales. Modelo de red en cascada de varias capas. y las capas intermedias. principales encargadas de extraer.

2 Sistemas de lógica difusa A concepto de Delgado [1998] es la segunda herramienta que permite emular el razonamiento humano. mientras que la máquina de deducción proporciona la capacidad de razonamiento que permite al sistema experto extraer conclusiones. aunque relacionados: una base de conocimientos y una máquina de deducción. o de inferencia. como los sistemas de producción.8. La base de conocimientos proporciona hechos objetivos y reglas sobre el tema.3 Algoritmos genéticos Según Delgado [1998] son una técnica inspirada en aspectos biológicos. debe tener cinco componentes básicos como se vera a continuación:  Se necesita una codificación o representación del problema. Los seres humanos pensamos y razonamos por medio de palabras y en grados entre dos estados por ejemplo blanco y negro ó frío y caliente. Los sistemas expertos facilitan también herramientas adicionales en forma de interfaces de usuario y los mecanismos de explicación. Los expertos solucionan los problemas utilizando una combinación de conocimientos basados en hechos y en su capacidad de razonamiento. el proceso de la evolución del que Charles Darwin hace referencia se puede aplicar para optimizar dispositivos de control o robots o cualquier otro tipo de aspectos que sean susceptibles de ser optimizados como líneas de producción.  Una manera de crear una población inicial de soluciones. En general es aceptado que cualquier algoritmo genético para resolver un problema. En los sistemas expertos. Estos sistemas de lógica difusa son una mejora a los sistemas experto tradicionales.5. estos intentan reproducir el razonamiento humano de forma simbólica. en el sentido de que permiten utilizar lenguaje humano como nosotros razonamos. 5. las finanzas o la medicina. 26 . estos dos elementos básicos están contenidos en dos componentes separados. Ya hablando de sistemas expertos tradicionales. utilizando los conocimientos y las reglas analíticas definidas por los expertos en dicho campo.8. que resulte adecuada al mismo. etc. Es un tipo de programa de aplicación informática que adopta decisiones o resuelve problemas de un determinado campo.

exámenes y diagnóstico. también llamada función de evaluación. 5. robótica simplificada y visión computarizada.  Ingeniería: diseño. probabilidad de aplicación de los operadores genéticos. adiestramiento. a continuación dichos padres seleccionados se cruzarán generando dos hijos. monitorización. gestión de proyectos. Una función de ajuste ó adaptación al problema. diagnóstico. Pero también hay áreas de aplicación. sobre cada uno de los cuales actuará un operador de mutación de acuerdo con una cierta probabilidad. El resultado de la combinación de las anteriores funciones será un conjunto de individuos (posibles soluciones al problema). fijación de objetivos. la cual asigna un número real a cada posible solución codificada.  Valores para los parámetros: tamaño de la población. estos procesos de la AI se aplican en los sistemas reales en una gran variedad de ramas y problemas:  Gestión y control: análisis inteligente. control.deben ser seleccionados para la reproducción. diseño.  Cartografía: interpretación de fotograf ías.  Fabricación: diseño.  Educación: adiestramiento práctico. que son soluciones factibles del problema. planificación.  Equipamiento: diseño. los cuales en la evolución del Algoritmo Genético formarán parte de la siguiente población. mantenimiento. monitorización y ventas.9 Áreas de aplicación de la Inteligencia Artificial.  Durante la ejecución del algoritmo. nuevas soluciones al problema. configuración. 27 . control y análisis. los padres ± dos individuos pertenecientes a la población inicial. En efecto. programación. resolución de problemas cartográficos.

proceso de imágenes. Así. identificación de objetivos. Muchos de los investigadores sobre IA. Al llegar a un perfeccionamiento tal de las máquinas. computador o cerebro". química. mantenimiento. y la percepción modelar del mundo. sino de muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la denominada inteligencia artificial. medicina. la adaptación. proceso de señales. control adaptativo. tendrán características humanas tales como el aprendizaje. análisis. donde formen un grupo de seres capaces de construir y al tiempo destruir una sociedad. contabilidad.  Proceso de datos: educación. geología. 5. se puede hablar ya no sólo de un objetivo. verificación. Profesiones: abogacía. el razonamiento. que lo reemplacen tan fácilmente en todos los ámbitos que 28 .10 Inteligencia artificial: ¿avance tecnológico o amenaza social? La verdadera inteligencia artificial. entre ellos Gary Reyes. se evidenciará cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas. análisis inteligente de datos.  Finanzas: planificación. diseño. Se debe pensar que cuando las máquinas alcancen nuestra capacidad mental. especificación. se corre el riesgo que tomen el lugar del hombre. la autocorrección. sostienen que "la inteligencia Artificial es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute. el mejoramiento implícito. acceso inteligente a datos y gestores de bases de datos.  Sistemas de armamento: guerra electrónica.  Software: enseñanza. consultoría. interfase en lenguaje natural.

puede llegar a ser autosuficiente. "Aunque parezca absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta centrado sobre todo en los chatterbots" 29 . imitar la voluntad propia. pero para la mayoría han sido una verdadera amenaza. claro está. puede ser demasiado tarde. necesario.desarrolla. que este cambio progresivo podría verse como un hecho cotidiano. Pero lo anterior es únicamente una hipótesis que lleva consigo otras problemáticas ocultas y varias dudas que no se resolverán sino hasta el momento en que dicha hipótesis se haga realidad. con nuevas ideas teóricas y experimentales que en su clímax iluminen el camino para llegar a la verdadera inteligencia artificial. o bien. si hay una maquina que puede resolver el más mínimo problema al interior de una empresa o fabrica. cabe la posibilidad que deje de obedecer. se van a seguir buscando formas de perfeccionar la Inteligencia Artificial y ya se abren caminos hacia el mundo robotizado. Por ejemplo en el trabajo. Las maquinas ya empezaron a reemplazar la labor del hombre haciendo la vida mas fácil para unos pocos. es como un niño que crece y ya no le gusta que lo manden. se prescindiría de la labor humana y solo se requeriría a aquel capaz de construir los robots. El problema es que no se quiere aceptar que pueden hacer daño y cuando se tenga conciencias de esto. también pueden ser capaces de romper leyes. Si una máquina es creada a imagen y semejanza del hombre. Mientras se tome conciencia de la amenaza que puede constituir la implementación de estas máquinas "pensantes". a lo mejor ya han reemplazado al humano hasta en lo más mínimo. Lo que se debe pensar entonces. es que si ellos imitan a los humanos. antes que estos se construyan a si mismos. e incluso.

no se debe olvidar que hoy en día la creación de artefactos inteligentes. se vuelve cada vez más una meta que un sueño. CONCLUSION. La Inteligencia artificial es la capacidad de una máquina de pensar y actuar como el hombre. En el ámbito tecnológico la Inteligencia Artificial es una de las áreas que causa mayor expectación. ya se ven las graves consecuencias sociales que trae consigo. 30 . ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo. debido a que la búsqueda para comprender los mecanismos de la inteligencia. pero para lograr esto primero se debe conocer totalmente el funcionamiento del pensamiento humano. incluso dentro de la sociedad en general. implícitamente se vuelve mas una amenaza social que un avance tecnológico.VI. Pero aun sin haber desarrollado completamente la inteligencia artificial.

B.A. Inteligencia Artificial. la ciencia y la industria. i http://www. "Inteligencia Artificial" en http://es.com.php 31 . Knight Kevin. W.lajornadadeoriente.BIBLIOGRAFIAS i Elaine Rich. (1989).com/trabajos16/la-inteligencia-artificial/lainteligencia-artificial.wikipedia. Aplicaciones de la inteligencia artificial en la actividad empresarial. Madrid: Díaz de Santos.org/wiki/Inteligencia_artificial. 2006 i http://www.com/ensayos i http://www. Segunda Edición.mx/2008/02/25/puebla/s1arr16. Norving Meter. S. i Rauch-Hindin. i Stuart Rusell.dsic. México 1994.es/ i LÓPEZ.upv. Mc Graw Hill. México 1996.shtml i http://aepia.buenastareas.monografias. Inteligencia Artificial un Enfoque Moderno. Jhony C. Printice Hall.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->