Está en la página 1de 3

INTELIGENCIA ARTIFICIAL

TAREA 2: RESÚMEN HISTÓRICO DE LA INTELIGENCIA ARTIFICIAL
Efrén de Jesús Carmona Orta 207572832
ALAN TURING
Después de ser contratado por el Laboratorio Nacional de Física (NLP) para
competir con un proyecto americano, Turing se convirtió en el Oficial Científico
Principal en la Automatic Computing Engine. Su estancia en la ACE dio sus
frutos con conceptos como las redes de cómputo, la subrutina y la biblioteca de
software además de constituir las bases de la red neuronal. Al abandonar en
1948 la NLP, el trabajo de Turing se dirigió hacia el campo de investigación de
la Inteligencia Artificial, de hecho, el concepto en sí de esta disciplina nació por
él. Anteriormente, habían surgido algunas teorías sobre la Inteligencia Artificial,
pero no fue hasta la aportación de Turing que esta rama de la ciencia alcanzó
la repercusión que puede tener hoy en día. En un artículo publicado por él en el
año 1950, "Computing Machinery and Inteligence", Turing apuntaba el hecho
de si las máquinas pueden pensar o no. Para sacar conclusiones sobre ello, el
matemático desarrolló el Test de Turing con el que trataba de reafirmar la
existencia de la inteligencia en las máquinas. Su argumentación para
encauzarse en este estudio se basaba en el hecho de que si una máquina se
comporta como inteligente, en consecuencia, debe ser inteligente. Por lo tanto,
existe Inteligencia Artificial en el momento en el que no logramos distinguir
entre un ser humano y una máquina. El desafío de la prueba de Turing se
efectuaba con dos personas y una computadora: en una habitación se ubicaba
a una persona, el juez, y en la otra la persona restante y la máquina. El juez,
que emitía preguntas tanto al ordenador como a la persona, debía descubrir
cuál era el ser humano y cuál era el ordenador a partir de sus respuestas. La
prueba consistía en ver cuál de ambos sabía mentir mejor a las respuestas del
juez para que éste no pudiera distinguir quién era la máquina y quién el
hombre. Con este método se observaba si la máquina podía engañar al
interrogador y por lo tanto pasar el Test de Turing. Aunque a nivel práctico, no
obtuvo el éxito esperado, el diseño de la prueba desencadenó múltiples
respuestas teóricas.
ALLEN NEWELL
En Septiembre de 1954 Allen asistió a un seminario en RAND en el que Oliver
Selfridge de los Laboratorios Lincoln describió el funcionamiento de un
programa que aprendía a reconocer letras y otros diseños. Le dejó claro a Allen
"que los sistemas inteligentes adaptativos podrían construirse y que serían
bastante más complejos que cualquier cosa que ya existía". Al conocimiento
que Allen ya tenía sobre ordenadores (incluidas sus capacidades simbólicas),
heurística, procesamiento de información en organizaciones, cibernética y
propuestas de programas de ajedrez, ahora se añadía una demostración
concreta de la viabilidad de la simulación por ordenador de los procesos
complejos. Entonces se comprometió consigo mismo a comprender el
aprendizaje y pensamiento humano simulándolo.

donde se dedicó a instalar el Laboratorio de IA de Stanford. JOHN MC’CARTHY Inventó el Lenguaje de programación LISP y publicó su diseño en Comunicaciones del ACM en 1960. el Departamento de Ciencias de la computación en el Carnegie Institute of Technology. que durante muchos años fue un rival amistoso del Proyecto MAC.En los meses siguientes a la visita de Selfridge. Por otro lado. HERBERT ALEXANDER SIMON En 1965 fundó. puesto desde el que ejerció un indiscutible liderazgo. y propusieron una máquina pensante que cuatro décadas después incrementaría incesantemente su capacidad de cálculo y permitiría hitos como la victoria de Deep Blue de IBM sobre el campeón mundial de ajedrez Gari Kasparov (mayo de 1997). etc. la fundamentación matemática de la mecánica. generación de subobjetivos para conseguir objetivos. También aplicó muchas de sus teorías y preceptos en los juegos de casino de Las Vegas. niveles de aspiración para buscar el final. Diseñó un programa computacional para jugar ajedrez. Ayudó a motivar la creación del Proyecto MAC en el MIT. etc. incorporando nociones de objetivos. Ambos defendían ya entonces que el ser humano manipula los símbolos en su mente de una forma muy similar a como lo hacen los ordenadores. CLAUDE ELWOOD SHANNON Publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez. que perfilaba el diseño imaginativo de un programa de ordenador para jugar al ajedrez de forma humana. podrían merecer la calificación de aplicaciones. álgebras de operadores. pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford. en el campo de la llamada Inteligencia artificial. la creación de la . satisfacción con movimientos "suficientemente buenos". además de un mouse. JOHN VON NEUMMAN Entre sus trabajos teóricos están los relativos a lógica matemática. axiomática de teoría de conjuntos. teoría de la medida. fue el primero en sugerir públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad). pero las ideas fueron tomadas en préstamo más tarde para usarlas en el programa de ajedrez NSS en 1958. espacios de Hilbert. El diseño nunca se implementó. convirtiéndose en la base de posteriores desarrollos. Allen escribió "The Chess Machine: AN Example of Dealing with a Complex Task by Adaptation" (1955). teoría ergódica. La información del tablero se expresaba en un lenguaje parecido al cálculo de predicados. en estrecha colaboración con Newell. junto a Newell y Alan Perlis. En 1961. por lo que a partir de 1966 su plaza como profesor de la Universidad Carnegie-Mellon pasó a ser de profesor de ciencias de la computación y psicología.

BIBLIOGRAFÍA www. en donde se explica la teoría de la cibernética. actividad que elevó definitivamente a la categoría de ciencia moderna. disciplina que situó la sintaxis en el centro de la investigación lingüística y con la que cambió por completo la perspectiva. asesorando a John Eckert y John Mauchly. Durante esa década trabajó como consultor para la IBM colaborando con Howard Aiken para la construcción de la computadora Mark I de Harvard. meteorología. Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo.ecured. Chomsky se doctoró en la Universidad de Pensilvania en 1955 y en su tesis de graduación ya estaban presentes algunos conceptos que luego revolucionarían el mundo de la lingüística. También colaboró en el libro "Cibernética: control y comunicación en el animal y en la máquina" escrito junto con Norbert Wiener. conociéndose como "arquitectura de von Neumann". cuyo diseño ha sido una de las bases de la computadora actual. lo hereda genéticamente) a propósito de la adquisición del lenguaje y la autonomía de la gramática (sobre los otros sistemas cognitivos). los programas y métodos de investigación en el estudio del lenguaje. o sus notables aportaciones a las teorías de sistemas y autómatas. creadores de la ENIAC y que construyeron además la UNIVAC en 1950. balística. Su lingüística es una teoría de la adquisición individual del lenguaje y una explicación de las estructuras y principios más profundos del lenguaje. Durante la segunda guerra mundial fueron aprovechados sus conocimientos en hidrodinámica. En los años 50 construyó la computadora IAS. NOAM CHOMSKY Propuso la gramática generativa. Postuló un aspecto bien definido de innatismo (el hombre nace con el lenguaje.teoría de juegos. así como la existencia de un «órgano del lenguaje» y de una gramática universal. teoría de juegos y estadísticas.cu . En 1944 contribuyó en forma directa en los diseños de fabricación de computadoras.