Está en la página 1de 19

Contenido elaborado el 25-07-2019

Por Manuel Gómez

Inteligencia Artificial.
Código de la materia: ESI-31153 Unidad de créditos: 3 Vigencia: 2009

Objetivo general de la Materia Inteligencia Artificial.

Analizar los fundamentos teóricos y prácticos asociados a la Inteligencia Artificial y el


desarrollo de sistemas basado en conocimiento.

En 1956, John McCarthy acuñó la expresión «Inteligencia


Artificial», y la definió como «la ciencia e ingenio de
hacer máquinas inteligentes, especialmente programas
de cómputo inteligentes».

Fuente: https://bit.ly/2KC7esv

Unidad 1. Nociones fundamentales de Inteligencia Artificial.

1.1. Definición.
1.2. Antecedentes.
1.3. Áreas de estudio y técnicas. Heurísticas.
1.4. Inteligencia Artificial vs. Inteligencia humana.

Introducción.

El país que logre el monopolio de las tecnologías


de Inteligencia Artificial será dueño del mundo,
declaró el presidente ruso, Vladímir Putin.

(30/05/2019) "Ya lo he dicho y quiero reiterarlo: si alguien consigue el monopolio en el


ámbito de la inteligencia artificial, es evidente que será dueño del mundo", dijo en una
reunión sobre el desarrollo de las tecnologías de Inteligencia Artificial.
Fuente: https://sptnkne.ws/m7NH
¿Pueden las máquinas pensar? Interrogante para reflexionar.

El matemático inglés Alan Turing publicó en 1950 un


provocador artículo que tiene por título “Computer
Machinery and Intelligence”, que comienza con la no
menos provocadora pregunta que se dispone para su
reflexión.

La Inteligencia Artificial (I.A.) se puede definir como aquella


“inteligencia” exhibida por “cientefactos” o artefactos científicos construidos
por humanos, o sea que dice que un sistema artificial posee inteligencia
cuando es capaz de llevar a cabo tareas que, si fuesen realizadas por un
humano, se diría de este que es inteligente. Dentro de las ciencias de la
computación, la rama de la I.A. se basa en intentar dotar al funcionamiento
de las aplicaciones informáticas de un comportamiento inteligente similar al
humano para la toma de decisiones.
«1»
Fuente: https://bit.ly/2YSa3i4

1.1. Definición.

El concepto de IA es aún demasiado difuso. Contextualizando, y


teniendo en cuenta un punto de vista científico, se pudiera definir esta
ciencia como la encargada de imitar el cerebro.

La Inteligencia Artificial (IA), es la inteligencia llevada a cabo por


máquinas.

Existen dos Escuelas de pensamiento en la que se puede dividir la


IA: La inteligencia artificial convencional y la inteligencia computacional.

La Inteligencia Computacional (también conocida como IA


subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por
ejemplo, modificaciones interactivas de los parámetros en sistemas de
conexiones). El aprendizaje se realiza basándose en datos empíricos.

En ciencias de la computación, una máquina «inteligente» ideal es un


agente flexible que percibe su entorno y lleva a cabo acciones que
maximicen sus posibilidades de éxito en algún objetivo o tarea.
Coloquialmente, el término inteligencia artificial se aplica cuando una
máquina imita las funciones «cognitivas» que los humanos asocian con
otras mentes humanas, como por ejemplo: «percibir», «razonar»,
«aprender» y «resolver problemas». Andreas Kaplan y Michael Haenlein
definen la inteligencia artificial como "la capacidad de un sistema para
interpretar correctamente datos externos, para aprender de dichos datos y
emplear esos conocimientos para lograr tareas y metas concretas a través
de la adaptación flexible".

Según Takeyas (2007) la IA es una rama de las ciencias


computacionales encargada de estudiar modelos de cómputo capaces de
realizar actividades propias de los seres humanos en base a dos de sus
características primordiales: el razonamiento y la conducta.

Fuente: https://bit.ly/2KC7esv

1.2. Antecedentes.

 El término «Inteligencia Artificial» fue acuñado formalmente en


1956 durante la conferencia de Dartmouth, pero para entonces ya se
había estado trabajando en ello durante cinco años en los cuales se
había propuesto muchas definiciones distintas que en ningún caso
habían logrado ser aceptadas totalmente por la comunidad
investigadora. La IA es una de las disciplinas más nuevas junto con
la genética moderna.

 Las ideas más básicas se remontan a los griegos, antes de Cristo.


Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de
reglas que describen una parte del funcionamiento de la mente para
obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.)
construyó la primera máquina autocontrolada, un regulador del flujo
de agua (racional pero sin razonamiento).

 En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el


razonamiento podía ser efectuado de manera artificial.

 En 1936 Alan Turing diseña formalmente una Máquina universal que


demuestra la viabilidad de un dispositivo físico para implementar
cualquier cómputo formalmente definido.

 En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de


neuronas artificiales, el cual se considera el primer trabajo del
campo, aun cuando todavía no existía el término. Los primeros
avances importantes comenzaron a principios del año 1950 con el
trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por
diversas situaciones.

 En 1955 Herbert Simon, Allen Newell y J. C. Shaw, desarrollan el


primer lenguaje de programación orientado a la resolución de
problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist,
el cual era capaz de demostrar teoremas matemáticos.

 En 1956 fue inventado el término inteligencia artificial por John


McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de
Dartmouth, un congreso en el que se hicieron previsiones
triunfalistas a diez años que jamás se cumplieron, lo que provocó el
abandono casi total de las investigaciones durante quince años.

 En 1957 Newell y Simon continúan su trabajo con el desarrollo del


General Problem Solver (GPS). GPS era un sistema orientado a la
resolución de problemas.

 En 1958 John McCarthy desarrolla en el Instituto de Tecnología de


Massachusetts (MIT) el LISP. Su nombre se deriva de LISt
Processor. LISP fue el primer lenguaje para procesamiento
simbólico.

 En 1959 Rosenblatt introduce el Perceptrón«2»

 A finales de la década de 1950 y comienzos de la de 1960 Robert K.


Lindsay desarrolla «Sad Sam», un programa para la lectura de
oraciones en inglés y la inferencia de conclusiones a partir de su
interpretación.

 En 1963 Quillian desarrolla las redes semánticas como modelo de


representación del conocimiento.
 En 1964 Bertrand Raphael construye el sistema SIR (Semantic
Information Retrieval) el cual era capaz de inferir conocimiento
basado en información que se le suministra. Bobrow desarrolla
STUDENT.

 A mediados de los años 60, aparecen los sistemas expertos, que


predicen la probabilidad de una solución bajo un set de condiciones.
Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum
y Lederberg, el primer Sistema Experto, que asistía a químicos en
estructuras químicas complejas, MACSYMA, que asistía a ingenieros
y científicos en la solución de ecuaciones matemáticas complejas.

 Posteriormente entre los años 1968-1970 Terry Winograd desarrolló


el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot
que se movía dentro de un mundo de bloques.

 En 1968 Marvin Minsky publica Semantic Information Processing.

 En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig


desarrollan el lenguaje de programación LOGO.

 En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y


se publica en 1980.

 En 1973 Alain Colmenauer y su equipo de investigación en la


Universidad de Aix-Marseille crean PROLOG (del francés
PROgrammation en LOGique) un lenguaje de programación
ampliamente utilizado en IA.

 En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares


de muchas técnicas actuales en Inteligencia Artificial y la informática
en general.

 En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los


Sistemas Expertos más conocidos, que asistió a médicos en el
diagnóstico y tratamiento de infecciones en la sangre.

 En las décadas de 1970 y 1980, creció el uso de sistemas expertos,


como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET,
INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy
(Shells) como EMYCIN, EXPERT, OPSS.

 En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta


generación de computadoras.

 En 1986 McClelland y Rumelhart publican Parallel Distributed


Processing (Redes Neuronales).
 En 1988 se establecen los lenguajes Orientados a Objetos.

 En 1997 Gari Kaspárov, campeón mundial de ajedrez, pierde ante la


computadora autónoma Deep Blue.

 En 2006 se celebró el aniversario con el Congreso en español 50


años de Inteligencia Artificial - Campus Multidisciplinar en Percepción
e Inteligencia 2006.

 En el año 2009 ya hay en desarrollo sistemas inteligentes


terapéuticos que permiten detectar emociones para poder interactuar
con niños autistas.

 En el año 2011 IBM desarrolló una supercomputadora llamada


Watson, la cual ganó una ronda de tres juegos seguidos de
Jeopardy!, venciendo a sus dos máximos campeones, y ganando un
premio de 1 millón de dólares que IBM luego donó a obras de
caridad.

 En 2016, un programa informático ganó cinco a cero al triple


campeón de Europa de Go.

 Existen personas que al dialogar sin saberlo con un chatbot no se


percatan de hablar con un programa, de modo tal que se cumple la
prueba de Turing como cuando se formuló: «Existirá Inteligencia
Artificial cuando no seamos capaces de distinguir entre un ser
humano y un programa de computadora en una conversación a
ciegas».

 Como anécdota, muchos de los investigadores sobre IA sostienen


que «la inteligencia es un programa capaz de ser ejecutado
independientemente de la máquina que lo ejecute, computador o
cerebro».

 En 2018, se lanza el primer televisor con Inteligencia Artificial por


parte de LG Electronics con una plataforma denominada ThinQ.

 En 2019, Google presentó su Doodle en que, con ayuda de la


Inteligencia Artificial, hace un homenaje a Johann Sebastian Bach,
en el que, añadiendo una simple melodía de dos compases la IA
crea el resto.
Fuente: https://bit.ly/2KC7esv
1.3. Áreas de estudio y técnicas. Heurísticas.

Aplicaciones de la inteligencia artificial.

Un asistente automático en línea dando servicio de atención al


cliente en un sitio web – una de las muchas aplicaciones primitivas de la
inteligencia artificial.

Las técnicas desarrolladas en el campo de la inteligencia artificial son


numerosas y ubicuas. Comúnmente cuando un problema es resuelto
mediante inteligencia artificial la solución es incorporada en ámbitos de la
industria y de la vida diaria de los usuarios de programas de computadora,
pero la percepción popular se olvida de los orígenes de estas tecnologías
que dejan de ser percibidas como inteligencia artificial. A este fenómeno se
le conoce como el efecto IA.

 Lingüística computacional.
 Minería de datos (Data Mining).
 Industria.
 Medicina.
 Mundos virtuales.
 Procesamiento de lenguaje natural (Natural Language
Processing).
 Robótica.
 Mecatrónica.
 Sistemas de apoyo a la decisión.
 Videojuegos.
 Prototipos informáticos.
 Análisis de sistemas dinámicos.
 Simulación de multitudes.
 Sistemas Operativos.
 Automoción.

Lenguajes, entornos y herramientas de Inteligencia Artificial.

En la Inteligencia Artificial, se han desarrollado diferentes lenguajes


específicos para los diferentes campos de aplicación. Estos lenguajes en su
mayoría cuentan con una serie de características comunes que podemos
resumir de la siguiente forma: Este tipo de software ofrece una gran
modularidad. Poseen gran capacidad de tomar decisiones de programación
hasta el último momento, es decir cuando el programa ya está
ejecutándose. Ofrecen grandes facilidades en el manejo de listas, y esto es
importante, ya que las listas son la estructura más habitual usada para la
representación del conocimiento en la Inteligencia Artificial. Facilitan la
realización de ciertos tipos de deducción automática permitiendo también la
creación de una base de hechos (lugar donde se recogen los datos iniciales
del problema a resolver y los resultados intermedios una vez obtenidos).
Permite el uso simultáneo de estructuras que incorporan conocimiento
declarativo y conocimiento procedimental. Tienen una marcada orientación
gráfica. Además, las herramientas de Inteligencia Artificial permiten hacer
un seguimiento de todos los cambios realizados a lo largo de toda la sesión.
Disponen herramientas capaces de desarrollar programas que son capaces
de comprender otros programas y también de realizar modificaciones sobre
ellos.

Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia


artificial:

 Sistemas que piensan como humanos: Estos sistemas tratan


de emular el pensamiento humano; por ejemplo las redes
neuronales artificiales. La automatización de actividades que
vinculamos con procesos de pensamiento humano, actividades
como la toma de decisiones, resolución de problemas y
aprendizaje.

 Sistemas que actúan como humanos: Estos sistemas tratan de


actuar como humanos; es decir, imitan el comportamiento
humano; por ejemplo la robótica. El estudio de cómo lograr que
los computadores realicen tareas que, por el momento, los
humanos hacen mejor.

 Sistemas que piensan racionalmente: Es decir, con lógica


(idealmente), tratan de imitar o emular el pensamiento lógico
racional del ser humano; por ejemplo los sistemas expertos. El
estudio de los cálculos que hacen posible percibir, razonar y
actuar.
 Sistemas que actúan racionalmente (idealmente): Tratan de
emular de forma racional el comportamiento humano; por ejemplo
los agentes inteligentes. Está relacionado con conductas
inteligentes en artefactos.
Fuente: https://bit.ly/2KC7esv

Heurísticas.

Heurística significa hallar, inventar.

Técnicas Heurísticas.

Se puede definir Heurística como un arte, técnica o


procedimiento práctico o informal, para resolver problemas.
Alternativamente, se puede definir como un conjunto de reglas
metodológicas no necesariamente formalizadas, positivas y
negativas, que sugieren o establecen cómo proceder y problemas a
evitar a la hora de generar soluciones y elaborar hipótesis.

Es generalmente considerado que la capacidad heurística es


un rasgo característico de los humanos desde cuyo punto de vista
puede describirse como el arte y la ciencia del descubrimiento y de la
invención o de resolver problemas mediante la creatividad y el
pensamiento lateral o pensamiento divergente. Según el matemático
George Pólya la base de la heurística está en la experiencia de
resolver problemas y en ver cómo otros lo hacen. Consecuentemente
se dice que hay búsquedas ciegas, búsquedas heurísticas (basadas
en la experiencia) y búsquedas racionales.
En robótica las diversas técnicas han tratado de cubrir todos
los temas necesarios para programar un robot con inteligencia
artificial en aplicaciones de censado y planificación de rutas para dar
solución a un problema. A través del tiempo, el campo de la robótica
se ha transformado, al pasar de máquinas rústicas hasta la
construcción de humanoides, que permiten resolver tareas sencillas
o complicadas.

Algunos de estos robots, se han construido basándose en el


comportamiento de seres vivos dándole un toque sutil del raciocinio.
No sólo la parte física y de comportamiento se ha basado en la vida,
sino también los algoritmos que controlan dichos robots, los cuales
nos dan una mayor posibilidad de encontrar soluciones a problemas
difíciles de resolver para el ser humano.
Fuente: https://bit.ly/30lx35q

1.4. Inteligencia Artificial vs. Inteligencia humana.

Stephen Hawking advirtió sobre los peligros de la


Inteligencia Artificial y lo consideró una amenaza
para la supervivencia de la humanidad.
Fuente: https://bit.ly/2KC7esv

Isaac Asimov inventó Las Tres Leyes de la Robótica:

Primera Ley de la Robótica: Un robot no


puede hacer daño a un ser humano o, por
inacción, permitir que un ser humano sufra
daño.

Segunda Ley de la Robótica: Un robot debe obedecer las órdenes


dadas por los seres humanos, excepto si estas órdenes entrasen en
conflicto con la primera Ley.

Tercera Ley de la Robótica: Un robot debe proteger su propia


existencia en la medida en que esta protección no entre en conflicto
con la primera o la segunda Ley.

Isaac Asimov fue un escritor y profesor de bioquímica en la


facultad de medicina de la Universidad de Boston (EE.UU), de origen
ruso, nacionalizado estadounidense, conocido por ser un prolífico
autor de obras de ciencia ficción, historia y divulgación científica.

Fuente: https://bit.ly/1SkEeBe

La idea de crear máquinas inteligentes capaces de llegar a los


niveles de la inteligencia humana es bastante reciente, aunque ya han
aparecido las primeras técnicas aplicadas no sólo a las ciencias de la
computación sino de la biología y la ingeniería, entre otras. Pero modelar la
inteligencia humana a partir de sistemas computacionales se convierte en
una meta difícil de alcanzar debido a la dificultad de crear máquinas
sensibles y evolucionables.

A la hora de establecer relaciones entre la inteligencia de los


primates y la inteligencia artificial se debe partir de la hipótesis de que
existe un modelo computacional que dispone una mayor información
relacionada con su funcionamiento y con su capacidad de memoria. Esto
induce a plantear la posibilidad, a modo general, de si la inteligencia
artificial superará, en un futuro, la inteligencia humana.

Modelo computacional del cerebro.

Al ejemplificar de una manera automática el proceso evolutivo se


puede hacer a través de la aplicación del sistema de complejidad
emergente, denominado Game of life (Juego de la Vida) y creado por el
matemático británico John Horton Comway en 1970. Con este
procedimiento se pudiera representar un sistema biológico que permita
simular situaciones de la evolución. Consiste en utilizar una cuadrícula en la
que cada cuadro representaría una generación, y ésta sólo podría
presentarse en dos estados: viva o muerta. Comway se basó en simples
reglas matemáticas para el juego: si alrededor de una casilla viva, de las
ocho que tiene como vecinas, hay menos de dos casillas vivas, la primera
morirá. Si tiene más de tres también morirá al haber superpoblación de
generaciones. Sin embargo, en el caso en el que alrededor de una casilla
muerta haya dos o tres de vivas, ésta pasará a ser viva. Este proceso es lo
que se llama reproducción trisómica. Es decir, la vida de las casillas en la
siguiente generación depende de sus vecinas en el estado actual: si una de
estas casillas tiene dos vecinos vivos, no va a cambiar su estado. En
cambio, si tiene tres vecinos vivos, se activará en la siguiente generación.

El sistema de simulación biológica de Comway permite conocer


fenómenos evolutivos complejos, a través de un sistema de reglas
matemáticas muy sencillas. Estas operaciones y sus resultados deben
relacionarse con los niveles de descripción y complejidad de
comportamiento. En este sentido se pueden establecer osciladores
separados entre ellos con un cierto período de tiempo (generaciones) y de
ciertas propiedades: translación, período, simetría, velocidad e
interacciones entre objetos. A partir de reglas sencillas se hace una
descripción de alto nivel. ¿Cómo puede el cerebro generar percepción,
memoria, emociones o conciencia? El sistema de complejidad emergente
empieza a responder de forma científica a algunas de estas cuestiones.

Sin embargo, algunas de las preguntas planteadas quedan resueltas


a partir del concepto de modularización aplicado al cerebro. La
especialización del cerebro por módulos implicaría estudiar cuestiones de
comportamiento relacionadas con sus capacidades, aunque este es un
aspecto muy discutido entre los expertos.

Capacidad de los ordenadores.

Ray Kurzweil, experto en inteligencia artificial y autor de The age of


intelligent machines, asegura que en el año 2030 la inteligencia artificial
superará a la inteligencia humana. Según Kurzweil, los robots igualarán las
capacidades intelectuales del hombre dentro de 30 años en el ámbito de
laboratorio y dentro de 50 formarán parte de la vida cotidiana. El experto
trabaja en los avances de los procesos computacionales y sus predicciones
se refieren a la asimilación de nuevas máquinas superinteligentes para los
próximos 100 años. Además, ha puesto en marcha un estudio sobre los
avances de los procesos computacionales similares a la raza humana para
crear así nuevas máquinas «superinteligentes».

A pesar de la reciente aparición de estudios dedicados a la


capacidad de las máquinas, la idea de crear inteligencia artificial similar a la
inteligencia humana es antigua. En 1815, Ernst Theodor Amadeus Hoffman,
uno de los máximos representantes del romanticismo alemán y autor de
obras con un fuerte eclecticismo y personajes fantásticos, avanzó la idea de
que el comportamiento de un robot puede ser similar al del ser humano. En
su obra The tales of Hoffman (Los cuentos de Hoffman), ópera compuesta
entre 1819 y 1880, se relata la historia de tres amores, uno de los cuales
está protagonizado por Olimpia, una muñeca mecánica que se enamora del
autor.

En la actualidad se desarrollan numerosas aplicaciones de los


ordenadores sobre cuyos usos muchas veces no se tiene conciencia debido
a su cotidianidad en la vida diaria: Internet, móviles, información por
teléfono. Un motivo que permite afirmar que muchos de los usos de los
ordenadores son poco visibles.

De acuerdo con las capacidades de los ordenadores, como


computación, almacenamiento de datos o transmisión entre dos
ordenadores, se puede crear inteligencia artificial a partir del
establecimiento de los siguientes módulos: lenguaje natural (reconocimiento
de voz, comprensión y traducción automática) y visión (locomoción,
razonamiento, deducción y aprendizaje). Un ejemplo de la creación de
lenguaje natural en máquinas pasaría, en primer lugar, por conseguir la
comprensión de lenguaje natural. Para tal fin se debe identificar la señal
acústica de entrada y crear así el análisis digital, que se compararía con
determinadas pautas, de las cuales saldrían las palabras. Para conseguir la
interpretación semántica se crea una respuesta que sale en forma de señal
acústica. Otras aplicaciones podrían referirse a la creación de prótesis
robóticas a través de la creación de sensores. En este último aspecto aún
existen ciertos inconvenientes relacionados con la resolución de la interfaz
directa con el sistema nervioso, ya que en ocasiones la respuesta que se
obtiene no es la deseada.

Convergencia entre la máquina y el hombre.

Cada vez más existe una especie de convergencia entre máquina y


hombre, «en la que la máquina es cada vez más humana y el hombre es
cada vez más computacional». A partir de estas premisas y, a modo de
conclusión, se puede deducir que la confluencia entre el conocimiento
biológico y la capacidad de la maquinaria traerá la fusión entre el hombre y
la máquina. Los ordenadores son ya una forma de extensión del hombre.
Una extensión que puede ser ilustrada con una representación «no exenta
de polémica»: la representación de la Creación de Adán donde Dios tiende
la mano a Adán, a la que Miguel Ángel Buonarroti envuelve en un trazo que
recuerda al cerebro humano. Diferentes estudios afirman que no se trata de
una coincidencia, ya que aseguran que Miguel Ángel había realizado
estudios en humanos para ver cómo era el cerebro por dentro. Según esto,
se podrían considerar dos posibilidades sobre el mensaje de fondo de la
representación: que el cerebro es la creación más extraordinaria de Dios o
que Dios es la creación más extraordinaria del cerebro humano.
Los sentimientos, límites a las máquinas.

Uno de los principales problemas que surgen con relación a la


inteligencia artificial se refiere al hecho que, a la hora de establecer
similitudes entre inteligencia artificial e inteligencia humana, se tiene en
cuenta una percepción absoluta en su representación. «En psicología esto
no es así porque no existe la percepción absoluta». A la hora de estudiar el
comportamiento de los humanos se deben tener en cuenta determinadas
combinaciones neuronales que no dependen de conceptos absolutos. En
este punto aparecería un componente cuya simulación no puede
considerarse equivalente entre los dos tipos de inteligencia: los
sentimientos. Se trata de un componente cuya simulación no puede
considerarse equivalente a la capacidad de crear inteligencia artificial
mediante la combinación de símbolos (datos) y procesos de símbolos
(programas).

Sin embargo, la inteligencia artificial sí ha conseguido máquinas con


algunos comportamientos que, «al menos antes de que los realizaran las
máquinas, se consideraban inteligentes». Según esto, los programas de
inteligencia artificial pueden ser explicados sin recurrir a argumentos
sobrenaturales. Una de las posturas más acertadas en este sentido es
reconocer el acercamiento entre máquinas y hombres en el aspecto de la
inteligencia, «en lugar de redefinir la inteligencia».

Las facultades del cerebro.

En los últimos años se ha producido una atracción por los modelos


informáticos. Para no caer en errores debe tenerse en cuenta la
relativización. Y es que a la hora de estudiar el cerebro se tiende a incluir
las tecnologías más avanzadas. Esto «es peligroso porque deben tenerse
en cuenta las diferencias que existen entre las máquinas y el cerebro». En
este sentido, los ordenadores son capaces de desarrollar la parte
automática de la cognición, «que quizá no es la parte más interesante
porque, entre otros motivos, no se captan los conceptos simbólicos de la
cognición». Por lo tanto, uno de los retos más importantes que surgen es
entender, de una forma automática, las facultades del cerebro humano. Los
ordenadores no deben simular lo que hace el cerebro humano.

El lenguaje humano, sin embargo, se parece mucho a la


computación. Pero dentro del lenguaje humano debemos tener en cuenta la
parte de la sintaxis. ¿Por qué el lenguaje se estructura como una máquina?
Desde un punto de vista neurológico se trata de un proceso inconsciente,
quizás la respuesta se encuentra en el cerebro. Las palabras innatas no
evolucionan, no son evolucionables y los lenguajes son intraducibles porque
se producen cambios en la sintaxis, no en las palabras. La sintaxis es capaz
de establecer una relación simbólica de la información.

A partir de los procesos del lenguaje y las normas que se aplican en


el lenguaje pueden construirse estructuras sintácticas regidas por
determinados parámetros. Otra de las preguntas que se plantean es
explicar por qué la sintaxis es similar al modelo computacional. En ambos
casos (sintaxis y lenguaje computacional) se desarrollan las mismas
propiedades, aunque de una manera diferente. Un ejemplo sería la risa, que
por sí sola tiene un sentido pero no tiene un significado específico, de forma
natural es evolucionable pero no tiene semántica.

Para establecer las diferencias entre el cerebro biológico y la


máquina computacional se deben comparar las similitudes y las diferencias
que existen en el lenguaje, no en el cerebro. En este sentido cobran
especial importancia las emociones y la experiencia. Estos dos aspectos
son claramente identificativos de la diferencia existente entre el cerebro
biológico y la máquina computacional, lo que permitiría afirmar que no
existen similitudes entre lenguas y máquinas. Una de las consideraciones
que deben tenerse en cuenta se refiere a las diferencias de lenguaje entre
generaciones, es decir, la evolución del lenguaje. La teoría más influyente
sobre la evolución del idioma la ha ofrecido el lingüista Noam Chomsky.
Según este especialista, la habilidad para adquirir el lenguaje sólo puede
explicarse a partir del innatismo básico del mismo. Pero a lo largo de las
generaciones, las lenguas se han ido adaptando cada vez más a las
personas, de manera que la gente sólo necesita desarrollar pequeños
ajustes para adaptarse a ellas. Así pues, se pude encontrar con un caso de
evolución del lenguaje por selección natural. Esto pone de relieve la
inmensa laguna que separa lo que las personas pueden lograr de lo que
«especies» de aprendizaje sofisticados de inteligencia artificial son
incapaces de lograr. Se resalta la forzosa coevolución del lenguaje y el
cerebro, lo que anularía la teoría innatista de Chomsky.

En conclusión, se puede afirmar que el proceso evolutivo de las


máquinas y del lenguaje continúa. Pero es importante tener en cuenta que
las emociones y las reglas que legislan la evolución del lenguaje son muy
complejas, por lo que las dificultades para conseguir una inteligencia
artificial similar a la humana son considerables.
Fuente: https://bit.ly/2TJRiHO

Raymond Kurzweil.
Pensamiento sobre futurismo y transhumanismo.

En virtud de que el desarrollo en muchos campos de la ciencia y la


tecnología depende de la potencia de los ordenadores, las mejoras en este
ámbito se trasladan automáticamente en mejoras del conocimiento humano
y otras ciencias sin relación directa con la computación, como la
nanotecnología, la biotecnología y la ciencia de los materiales. Este
crecimiento exponencial de las capacidades de los ordenadores daría lugar
a nuevas tecnologías fantásticas, que estarían disponibles mucho antes de
lo que la inmensa mayoría de la gente intuiría con sus expectativas
habituales de crecimiento tecnológico lineal. "En el momento en el que un
ámbito de la ciencia o la tecnología se convierte en información, se acelera
y crece exponencialmente".

Kurzweil predice que entre ahora y el 2050 la tecnología llegará a ser


tan avanzada que los progresos en medicina permitirán a la gente
ampliar radicalmente su esperanza de vida y la calidad de la misma.
Los procesos de envejecimiento podrían en principio ralentizarse,
más tarde detenerse y finalmente revertirse en cuanto esas nuevas
tecnologías médicas estuvieran disponibles. Kurzweil sostiene que
gran parte de esto será fruto de los avances en la nanomedicina, que
permitirá que máquinas microscópicas viajen a lo largo de nuestro
cuerpo reparando todo tipo de daños a nivel celular. Del mismo modo
los avances tecnológicos en el mundo de los ordenadores darán lugar
a máquinas cada vez más potentes, numerosas y baratas. Kurzweil
predice que un ordenador pasará el test de Turing hacia el 2029,
demostrando tener una mente (inteligencia, consciencia de sí mismo,
riqueza emocional...) indistinguible de un ser humano.

Fuente: https://bit.ly/2CQTFCR
Referencias.

«1» Juan Jesús Romero, Carlos Dafonte, Ángel Gómez y Fernando Jorge
Penousal (eds.). Inteligencia Artificial y Computación Avanzada. Fundación Alfredo
Brañas. Colección Informática. Número 13/2007

«2» En el campo de las Redes Neuronales, el Perceptrón, creado por Frank


Rosenblatt, se refiere a: la neurona artificial o unidad básica de inferencia en
forma de discriminador lineal, a partir de lo cual se desarrolla un algoritmo capaz
de generar un criterio para seleccionar un sub-grupo a partir de un grupo de
componentes más grande.

Neurona Artificial: La neurona de McCulloch-Pitts es una unidad de


cálculo que intenta modelar el comportamiento de una neurona "natural",
similares a las que constituyen del cerebro humano. Ella es la unidad
esencial con la cual se construye una red neuronal artificial.

Discriminador lineal: Tecnica de clasificación del campo del aprendizaje


automático o aprendizaje automatizado o aprendizaje de máquinas.

También podría gustarte