Está en la página 1de 8

DEFINICIÓN

La Inteligencia Artificial es una rama de la ciencia de la computación que comprende el estudio y


creación de sistemas computarizados que manifiestan cierta forma de inteligencia: sistemas que
aprenden nuevos conceptos y tareas, sistemas que pueden razonar y derivar conclusiones útiles
acerca del mundo que nos rodea, sistemas que pueden comprender un lenguaje natural o percibir y
comprender una escena visual, y sistemas que realizan otro tipo de actividades que requieren de
inteligencia humana.

Como toda disciplina de reciente creación, la IA no se encuentra unificada en términos de objetivos


y métodos de investigación. Recientemente, parte de los esfuerzos de los investigadores en esta área
se han dedicado a la definición de dichos objetivos y al recuento de las herramientas metodológicas
utilizadas hasta ahora. Como resultado de este esfuerzo, que dista mucho de su conclusión, se han
definido algunos acuerdos básicos sobre el área y sus estrategias.

HISTORIA

El nacimiento real de la IA se produce para el año 1950, cuando Norbet Wiener desarrolló el
principio de la retroalimentación. Esta técnica consiste, por ejemplo, en la tecnología del
termostato, comparar la temperatura actual del entorno con la deseada y, según los resultados,
aumentarla o disminuirla. En 1955 Newell y Simon desarrollan la Teoría de la lógica la cual
permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y
nudos, seleccionando únicamente las ramas que más parecían acercarse a la solución correcta de los
problemas siendo éste el primer programa inteligente basado en su modelo de procesamiento de
información

Basándose en los estudios sobre memoria asociativa, el equipo Newell-Shaw-Simon construyó los
primeros lenguajes de procesamiento de información (IPL-I, IPL-II) utilizados en el diseño de su
"Logic Theorist Machine" que se convirtió en la primera máquina "inteligente". Esta máquina fue
capaz no sólo de memorizar y aprender, sitio que consiguió demostrar de una manera original y
"creativa", es decir no prevista por sus creadores, algunos de los teoremas propuestos por Bertrand
Russell en los Principios (Russell and Whitehead, 1925).

En el año 1957 aparece la primera versión de “The General Problem Solver” (GPS), un programa
capaz de solucionar problemas de sentido común. El GPS utilizaba la teoría de la retroalimentación
de Wiener.

Desde sus orígenes la IA se relacionó con juegos como el ajedrez y las damas, probablemente
debido a que los juegos de mesa constituyen modelos de situaciones reales en las que hay que
calcular, solucionar problemas, tomar decisiones, corregir errores, recordar, etc. A pesar de que esta
línea de investigación ha sido casi totalmente abandonada en la actualidad, muchos de los avances
teóricos y metodológicos de la IA se deben a ella. Por ejemplo, Samuel diseñó en 1961 un programa
que jugaba damas y que era capaz de aprender de sus errores, es decir, era capaz de adaptar su
comportamiento en relación con eventos pasados. Lo más controversial de este programa fue que,
aunado a su capacidad de aprendizaje la de memoria, con el tiempo consiguió derrotar
invariablemente a su creador.

Hacia mediados de los sesenta la IA se convierte en un área en la que se interesan e interactúan


especialistas de diversas disciplinas: lógicos, psicólogos, matemáticos, lingüistas, filósofos, etc.
Uno de los grandes temas de IA en esta década fue el estudio del lenguaje. En la mayoría de los
estudios iniciales sobre el lenguaje, se atacó el problema de diseñar una máquina que fuera capaz de
traducir de un idioma a otro. El énfasis se hizo en el análisis de la sintaxis, en lugar del significado,
estrategia que se abandonó relativamente pronto. Los investigadores interesados en esta área de la
IA pronto descubrieron que traducción no es lo mismo que transformación, y que, como
consecuencia de ello, de alguna manera la máquina tendría que "entender" un texto antes de poder
traducirlo. Los esfuerzos se orientaron hacia una definición de la comprensión que pudiera
simularse en una computadora.

Ya en el año 1970 se produce el advenimiento de los Sistemas Expertos. Los Sistemas Expertos se
han utilizado para ayudar a los médicos a diagnosticar enfermedades e informar a los mineros a
encontrar vetas de mineral. Al mismo tiempo, en 1970. David Marr propone nuevas teorías sobre la
capacidad de reconocimiento visual de las diferentes máquinas

Para el 1986 las ventas de hardware y software relacionados con la IA se contabilizan por
425,000.00 millones de dólares. Compañías como DuPont, General Motors, y Boeing utilizan
sistemas expertos a principios de la década de los 80 y éstos sistemas expertos se convertirán en un
standard a finales de la misma.

En los 90 la IA fue utiliza de forma efectiva en la Guerra del Golfo sobre sistemas de misiles
visores, los soldados y otros.

EVOLUCION

La inteligencia artificial a evolucionado de tal forma que ha afectado nuestras vidas radicalmente
desde nuestro antepasado dando nos ventajas notables y cambios a favor en cuanto a la medicina, la
ciencia etc..

A continuación se mostrara un breve resumen acerca de cómo ha evolucionado la inteligencia


artificial.

En Julio de 1945 Vannevar Bush publicó “As We May Think” una visión del futuro en donde los
ordenadores asistían a los humanos en muchas actividades.
En 1950 Alan Turing presentó un artículo sobre el tema de la IA, titulado “Inteligencia y
Funcionamiento de Máquinas”. En este trabajo propone un "Test de Turing" para determinar el
carácter inteligente o no de una máquina. El test parte del juego donde un interrogador tiene que
descubrir el sexo de dos participantes A y B situados en otra habitación, cuando, aunque los dos
dicen ser mujeres, en verdad son un hombre y una mujer. En la propuesta original de Turing, se
trataba de sustituir a la mujer por un ordenador, y que el interrogador descubriera quien era la
máquina de los dos participantes, aunque los dos decían ser personas. Este objetivo había que
cumplirlo incluso sabiendo que los participantes no estaban obligados a decir la verdad y que, por
ejemplo, la máquina podía decidir dar un resultado erróneo en una multiplicación o decir el
resultado lo suficientemente más tarde después de haberlo obtenido, para engañar al interlocutor
sobre su propia habilidad calculista. En la hipótesis optimista del mismo Turing, más o menos
alrededor del año 2000 se podría disponer de ordenadores suficientemente potentes para conseguir
que un interrogador normal no tuviera más del 70% de posibilidades de realizar la identificación
correcta a los cinco minutos del comienzo de las preguntas.

En 1955 fue creado un lenguaje de procesamiento (búsqueda heurística) por Allen Newell, J. C.
Shaw y Herbert Simon que fue considerado como el primer lenguaje especializado de la
Inteligencia Artificial, era el IPL-II (Information Proccessing Language-II).

En el verano del 1956 tuvo lugar la “Conferencia del Dalmouth” a Hanover (New Hampshire) sobre
IA, organizada por John McCarthy (Stanford), Marvin Minsky (MIT), Allen Newel y Herbert
Simon, con el patrocinio de la fundación Rockefeller, reunió a todos los que trabajaban en el recién
estrenado campo de la Inteligencia Artificial.

1956 - 1969

En este periodo la Inteligencia Artificial es una actividad académica poco conocida fuera de los
círculos especializados. Durante estos años la Inteligencia Artificial se caracteriza por una ambición
exagerada en los objetivos que se pretenden lograr, agravándose este hecho por las limitaciones
reales del hardware y del software de la época. Esto abocaría en una gran decepción al final de este
periodo, debido a la dificultad de obtener resultados y a la constatación teórica de la imposibilidad
de obtenerlos en ciertos casos. Aun así en esta época se realizaron con éxito varios proyectos menos
ambiciosos que supusieron un avance en el campo de la Inteligencia Artificial(LISP, SAINT, juego
de damas, ELIZA, Student, etc.).

Logic Theorist. 1956.

El Logic Teorist fue programado por Alan Newell, Herbert Simon y J.C. Shaw y buscaba las
demostraciones de Teoremas Lógicos.

General Problem Solver(GPS).

El Solucionador General de Problemas fue llevado a cabo por Alan Newell, Herbert Simon y J.C.
Shaw.

Perceptrón.
Proyecto iniciado en el 1958 por Frank Rosenblatt. Su intención era ilustrar algunas propiedades
fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a
condiciones específicas y desconocidas para organismos biológicos concretos.

En 1969 Marvin Minsky y Seymour Papert publicaron su libro: "Perceptrons: An introduction to


Computational Geometry"[], el cual para muchos significó el final de las redes neuronales. En el se
presentaba un análisis detallado del Perceptrón, en términos de sus capacidades y limitaciones, en
especial en cuanto a las restricciones que existen para los problemas que una red tipo Perceptrón
puede resolver; la mayor desventaja de este tipo de redes es su incapacidad para solucionar
problemas que no sean linealmente separables.

LISP(LISt Procesing).

En 1958 John McCarthy anunció el desarrollo del lenguaje de programación LISP (LISt Procesing),
este fue considerado desde aquel momento como lenguaje de programación de los investigadores de
I.A. El LISP es un lenguaje declarativo funcional.

Programa para jugar a las damas.

Programa creado por Arthur Samuel en 1962 y al igual que el proyecto GTP fue auspiciado por
IBM. El programa era capaz de aprender por si solo. Aprendía de la experiencia teniendo en cuenta
sus errores y éxitos pasados para determinar su juego en partidas posteriores.

ELIZA (o DOCTOR).

Hacia 1965, Weizenbaum trabajaba en el MIT, intentando que los ordenadores hablaran en inglés
con la gente. Pensó que los programas existentes como STUDENT se basaban en dominios
limitados, y los dominios que describían esos programas estaban ligados a la propia estructura del
programa. Y dado que Weizenbaum se dio cuenta de que no podría conseguir ese fin en tan poco
tiempo, pensó en crear un programa con unas cuantas ideas que se le habían ocurrido.

DENDRAL.

El primer sistema experto. También en 1965 se inicia la investigación en la universidad de Stanford


de sistemas expertos en el programa Heuristic Programming Project.

1970 - 1979

Los problemas debidos al exceso de optimismo y ambición sufridos en el periodo anterior, llevaron
a un replanteamiento de los objetivos a perseguir y se paso a tratar problemas mas concretos. Como
hecho mas destacado es el nacimiento de los sistemas expertos y la recuperación que trajo dentro
del campo de la Inteligencia Artificial, ya que supuso el regreso de las inversiones. Los sistemas
expertos o sistemas de producción con reglas tratan problemas restringidos o un entorno limitado.
Dos de los sistemas expertos mas populares son el MYCIN y el PROSPECTOR, de los cuales se
hablara a continuación.
MYCIN.

Desarrollado por Eduard Feigenbaum, Bruce Buchanan en la universidad de Stanford y


documentado por Edward Shortliffe. MYCIN se trataba de un sistema experto para el diagnóstico
de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y
demás datos, el programa era capaz de determinar, o en lo menos, sugerir el microorganismo que
estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una
medicación que se adaptaba perfectamente a las características del sujeto, tales como el peso
corporal de este. Después del reconocido éxito que tuvo MYCIN entre la comunidad científica de
I.A. e investigadores de medicina, los autores del programa pusieron a disposición de otros
investigadores una versión de MYCIN que contenía el motor "inferencial" de este para que fueran
los propios usuarios los que insertasen al programa información respecto al tema a tratar; se podría
decir que esta versión "adaptada" del original MYCIN, era el primer entorno de desarrollo de
sistemas expertos.

PROSPECTOR.

Documentado por P. E. Hart(1978) y R.Duda(1979). Era un sistema experto para evaluar los
yacimientos de minerales, en particular cobre y Uranio.

PROLOG

(PROgramimg LOGic). Desarrollado en 1972 por la Universidad de Marseille bajo la dirección de


Alan Colmerauer. Prolog se basa en la definición y después en la resolución de formulas lógicas.

XCON

(eXpert CONfigurer) [Configurador Experto]. 1979. John McDermott. XCON es el primer sistema
experto con aplicaciones en el mundo real fuera de los ámbitos académicos y de los laboratorios de
investigación.

80’S Y PRINCIPIOS DE LOS 90

Este periodo viene marcado por el éxito de los sistemas expertos y durante los años ochenta
aparecen empresas y proyectos especializados en ofrecer soluciones comercializables basados en las
técnicas de la IA. La IA se consolidó en cada vez más empresas que desarrollaron las "máquinas
lisp" ( ordenadores que ejecutaban programas en LISP con la misma rapidez de un ordenador
central ) y los SHELLS ( herramientas de desarrollo de sistemas expertos).

En 1980 se crea el sistema experto matemático MAPLE. Mas tarde en 1988 se crea otro sistema
experto matemático importante el Mathematica. Ambos sistemas permiten trabajar directamente, es
decir sin tediosas programaciones, con expresiones simbólicas como polinomios, derivadas,
integrales indefinidas, matrices, tensores, grupos, funciones especiales, y métodos altamente
sofisticados.

En 1982 se fundo el ECCAI(European Coordinating Committee for Artificial Intelligence).

En 1985 la Nasa desarrolla CLIPS, es un generador de sistemas expertos que está codificado en
lenguaje C, y que implementa un lenguaje propio para desarrollar sistemas expertos.

A partir de 1986 se recuperan los viejos esquemas del Perceptron en la Redes Neuronales.

1987 supuso el fin de las “maquinas LISP”, debido a la aparición de los microordenadores de Apple
e IBM con potencia parecida a las maquinas LISP, y la programación en C del software utilizado en
IA para los nuevos microordenadores.

En 1989 se constituye el Centro de Inteligencia Artificial (CIA), en España, más tarde, se formaría
la Asociación Española Para la Inteligencia Artificial (AEPIA).

LA IA ACTUALMENTE

Uno de los hechos más populares que cualquiera conoce sobre la Inteligencia Artificial es la
victoria de Deep Blue sobre Kasparov en 1997. Pero recientemente en la industria japonesa han
aparecido diversos Robots que han servido para ejemplificar el estado actual de la IA. Primero fue
Honda con ASIMO, un robot con forma humanoide capaz de andar y subir escaleras. SONY ha
comercializado con éxito una serie de robots-perro, el AIBO Artificial Intelligence RoBOt (Robot
de Inteligencia Artificial).

otras aplicaciones y logros hay de la Inteligencia Artificial que directa o indirectamente nos afectan:

1. Programas de reconocimiento de voz para reservar billetes de avión para un vuelo.

2. Sistemas expertos que controlan el correcto funcionamiento de un transbordador espacial.

3. Sistemas expertos de diagnostico de enfermedades.

4. Protección de fraudes en tarjetas de crédito y cuentas a través de sistemas de redes


neuronales o sistemas expertos.

5. Detección de pequeñas anomalías invisibles al ojo humano en radiografias.


6. Sistemas de mensajería de voz.

7. En el mundo de los videojuegos. Rivales con comportamiento logico.

8. Traducción automática de documentos. (GOOGLE)

APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL

La Inteligencia Artificial ha sido usada en un amplio número de campos, incluyendo diagnóstico


médico, comercio de acciones, control robótico, leyes, percepción remota, descubrimientos
científicos y juguetes. Sin embargo muchas aplicaciones de la IA no son percibidas como tal:
"Mucha IA se han filtrado en aplicaciones generales, comúnmente sin ser llamadas IA porque una
vez que algo se vuelve suficientemente útil y común deja de ser considerado IA," Nick Bostrom
reports."Miles de aplicaciones de la IA están profundamente embebidas en la infraestructura de
cada industria. Al final de los 90s y principios del siglo 21, las tecnologías de IA empezaron a
usarse ampliamente como elementos de sistemas mayores, pero el campo es raramente acreditado
por estos logros.

También podría gustarte