Está en la página 1de 11

UNIVERSIDAD DE GUADALAJARA

CENTRO UNIVERSITARIO DE LA CIÉNEGA

“Ensayo - Introducción a la Inteligencia Artificial”


PRESENTA(N):
Edson Geovanni Gama Flores (216631736)

Profesora

Kleophe Alfaro Castellanos

6to semestre.

Ocotlán, Jalisco a 24 de enero de 2022


INDICE
RESUMEN........................................................................................3
INTRODUCCION..............................................................................3
Aspectos conceptuales de la IA y IC ............................................4
IA como Ciencia ...........................................................................4
IA como Ingeniería.......................................................................4
¿Qué es IA?.....................................................................................5
Fundamentos de la Inteligencia Artificial ....................................5
Filosofía ........................................................................................5
Matemáticas .................................................................................5
Economía ......................................................................................6
Neurociencia ................................................................................6
Psicología .....................................................................................7
Ingeniería computacional ...........................................................7
Teoría de control y cibernética ..................................................8
Lingüística ....................................................................................8
Paradigmas actuales de la Inteligencia Artificial ........................9
CONCLUSIÓN ...............................................................................10
BIBLIOGRAFÍA..............................................................................11
RESUMEN
En el presente documento se profundiza sobre diferentes aspectos de la inteligencia artificial,
incluyendo diversos temas, como su definición, y concepto, echando un vistazo hacia sus raíces y
aplicaciones de hoy en día, así como también hacía los filósofos y personajes que han hecho grandes
a portaciones a las ramas que existen en esta ciencia. También se profundiza en los paradigmas de
la inteligencia artificial.

INTRODUCCION
La inteligencia artificial ha ido en un avance constante a lo largo de la historia, hoy en día ya es parte
de nuestras vidas así no lo veamos o no nos demos cuenta, va desde aplicaciones en la medicina
hasta en cosas más rutinarias como las redes sociales, son parte indispensable en muchos de los
aspectos de nuestras vidas, pero antes no todo era así, la constante búsqueda de la creación de
máquinas y que estas razonaran ha sido algo que mucha gente ha buscado y sigue buscando en la
actualidad, grandes filósofos y pensadores avanzados a su época realizaron descubrimientos y teorías
que han sido los pilares de muchos de los avances en la inteligencia artificial.
Es por ello que en este documento, se encuentran diversos temas, abarcando desde el concepto de
la inteligencia computacional e inteligencia artificial, hasta los principios, donde se habla de cómo cada
idea en diferentes tiempos fue forjando lo que hoy conocemos como inteligencia artificial, aspectos
que no solo tienen que ver con la computación, sino que también se incluyen enfoques más orientados
a el cerebro humano y lo que lo rodea, como la psicología, el lenguaje e incluso hasta la economía.
Cada una de estas partes fue fundamental para comprender la toma de decisiones, el pensamiento y
lo que permite llevar a una persona tener razonamiento para posteriormente aplicarlo en el área de la
computación,
Aspectos conceptuales de la IA y IC
Aunque lo usual en IA e IC es mezclar conceptos cognitivos y del lenguaje natural con otros
computacionales suponiendo que estos conceptos tienen el mismo significado y las mismas
funcionalidades en computación que en humanos, lo cierto es que no es así.
Prácticamente, todo el lenguaje de la IA y la IC ha sido tomado de la biología en general y de la
neurofisiología, la psicología cognitiva y la filosofía en particular, y esto no está mal siempre que no se
olvide la diferencia de significados porque estimula el proceso de búsqueda de soluciones.

IA como Ciencia
La perspectiva científica de la IA busca una teoría computable del conocimiento humano. Es decir,
una teoría en la que sus modelos formales puedan ejecutarse en un sistema de cálculo y tener el
mismo carácter predictivo que tienen, por ejemplo, las ecuaciones de Maxwell en el
electromagnetismo. Dotar a la biología y a la psicología del carácter de ciencia experimental que tiene
la física es un objetivo deseable, pero de difícil consecución. Entre otras razones porque todavía no
disponemos de los datos necesarios ni, posiblemente, de las matemáticas adecuadas.

IA como Ingeniería
La rama aplicada de la IA, conocida como Ingeniería del Conocimiento, tiene unos objetivos más claros
y alcanzables a corto y medio plazo. Sin embargo, tiene también grandes dificultades comparada con
las otras ingenierías de la materia y la energía por dos razones fundamentales. La primera es que,
como alternativa a la materia y a la energía, el nuevo objeto formal de la IC es el conocimiento y éste,
como la información, es pura forma.
La segunda razón de las dificultades de la IC en comparación con las dificultades usuales en otras
ingenierías es que la IC no puede apoyarse en una sólida teoría del conocimiento porque todavía no
disponemos de esa teoría. Así, estamos queriendo hacer aviones sin un sólido conocimiento de la
física de fluidos. Por consiguiente, parece razonable dejar el tiempo necesario para que la parte teórica
de la IA contribuya a obtener una teoría computable del conocer humano y, mientras tanto, redefinir
los objetivos de la IC de forma más modesta, teniendo en cuenta el carácter limitado, incompleto y
poco preciso del conocimiento del que disponemos sobre los dos tipos de tareas que aborda la IC: (1)
Tareas básicas e inespecíficas usuales en humanos, independientemente de su actividad profesional,
tales como ver, oír, interpretar el medio, planificar, aprender, controlar las acciones encaminadas a
moverse y manipular un medio, etc. y (2) Tareas científico-técnicas en dominios estrechos
(diagnosticar en medicina, configurar y diseñar sistemas, etc...).
¿Qué es IA?
La inteligencia artificial a lo largo de su historia ha seguido distintos enfoques, entre los que se podría
considerar a la inteligencia artificial como sistemas que piensan como humanos, cuya definición de
este enfoque es «El nuevo y excitante esfuerzo de hacer que los computadores piensen… máquinas
con mentes, en el más amplio sentido literal», sistemas que piensan racionalmente que lo define como
«El estudio de las facultades mentales mediante el uso de modelos computacionales», sistemas que
actúan como humanos que su definición es «El arte de desarrollar máquinas con capacidad para
realizar funciones que cuando son realizadas por personas requieren de inteligencia» y sistemas que
actúan racionalmente, que su propia definición es «La Inteligencia Computacional es el estudio del
diseño de agentes inteligentes»; por lo que según el enfoque se le tenga, las definiciones pueden tener
variaciones. Cada enfoque al mismo tiempo ha ignorado y ha ayudado al otro
La IA abarca en la actualidad una gran variedad de subcampos, que van desde áreas de propósito
general, como el aprendizaje y la percepción, a otras más específicas como el ajedrez, la demostración
de teoremas matemáticos, la escritura de poesía y el diagnóstico de enfermedades. La IA sintetiza y
automatiza tareas intelectuales y es, por lo tanto, potencialmente relevante para cualquier ámbito de
la actividad intelectual humana. En este sentido, es un campo genuinamente universal.

Fundamentos de la Inteligencia Artificial


Filosofía
Aristóteles fue el primero en formular un conjunto preciso de leyes que gobernaban la parte racional
de la inteligencia. Él desarrolló un sistema informal para razonar adecuadamente con silogismos, que
en principio permitía extraer conclusiones mecánicamente, a partir de premisas iniciales.
Leonardo da Vinci diseñó, aunque no construyó, una calculadora mecánica; construcciones recientes
han mostrado que su diseño era funcional. La primera máquina calculadora conocida se construyó
alrededor de 1623 por el científico alemán Wilhelm Schickard, aunque la Pascalina, construida en
1642 por Blaise Pascal, sea más famosa. Pascal escribió que «la máquina aritmética produce efectos
que parecen más similares a los pensamientos que a las acciones animales».

Matemáticas
Los filósofos delimitaron las ideas más importantes de la IA, pero para pasar de ahí a una ciencia
formal es necesario contar con una formulación matemática en tres áreas fundamentales: lógica,
computación y probabilidad.
El paso siguiente consistió en definir los límites de lo que se podía hacer con la lógica y la informática.
Se piensa que el primer algoritmo no trivial es el algoritmo Euclídeo para el cálculo del máximo común
divisor. El considerar los algoritmos como objetos en sí mismos se remonta a la época de al-
Khowarazmi, un matemático persa del siglo IX, con cuyos escritos también se introdujeron los números
arábigos y el álgebra en Europa.
En 1900, David Hilbert presentó una lista de 23 problemas que acertadamente predijo ocuparían a los
matemáticos durante todo ese siglo. En el último de ellos se preguntaba si existe un algoritmo que
permita determinar la validez de cualquier proposición lógica en la que aparezcan números naturales.
Básicamente, lo que Hilbert se preguntaba es si hay límites fundamentales en la capacidad de los
procedimientos efectivos de demostración.
Lo anterior llevó a Alan Turing a realizar la máquina de Turing, capaz de calcular cualquier función
computable. Turing también demostró que existen algunas funciones que no se pueden calcular
mediante la máquina de Turing. Por ejemplo, ninguna máquina puede decidir en general si un
programa dado producirá una respuesta a partir de unas entradas, o si seguirá calculando
indefinidamente.
Además de la lógica y el cálculo, la tercera gran contribución de las matemáticas a la IA es la teoría
de la probabilidad. El italiano Gerolamo Cardano fue el primero en proponer la idea de probabilidad,
presentándola en términos de los resultados de juegos de apuesta. La probabilidad se convirtió pronto
en parte imprescindible de las ciencias cuantitativas, ayudando en el tratamiento de mediciones con
incertidumbre y de teorías incompletas. Thomas Bayes propuso la regla de Bayes y el área resultante
llamado análisis Bayesiano conforman la base de las propuestas más modernas que abordan el
razonamiento incierto en sistemas de IA.

Economía
La mayor parte de la gente cree que la economía sólo se trata de dinero, pero los economistas dicen
que ellos realmente estudian cómo la gente toma decisiones que los llevan a obtener los beneficios
esperados.
La teoría de la decisión, que combina la teoría de la probabilidad con la teoría de la utilidad,
proporciona un marco completo y formal para la toma de decisiones (económicas o de otra índole)
realizadas bajo incertidumbre, esto es, en casos en los que las descripciones probabilísticas capturan
adecuadamente la forma en la que se toman las decisiones en el entorno; lo cual es adecuado para
«grandes» economías en las que cada agente no necesita prestar atención a las acciones que lleven
a cabo el resto de los agentes individualmente

Neurociencia
La Neurociencia es el estudio del sistema neurológico, y en especial del cerebro. La forma exacta en
la que en un cerebro se genera el pensamiento es uno de los grandes misterios de la ciencia. Se ha
observado durante miles de años que el cerebro está de alguna manera involucrado en los procesos
de pensamiento, ya que fuertes golpes en la cabeza pueden ocasionar minusvalía mental.
En la actualidad se dispone de información sobre la relación existente entre las áreas del cerebro y
las partes del cuerpo humano que controlan o de las que reciben impulsos sensoriales. Tales
relaciones pueden cambiar de forma radical incluso en pocas semanas, y algunos animales parecen
disponer de múltiples posibilidades. Más aún, no se tiene totalmente claro cómo algunas áreas se
pueden encargar de ciertas funciones que eran responsabilidad de áreas dañadas. No hay
prácticamente ninguna teoría que explique cómo se almacenan recuerdos individuales.
Este campo está evolucionando gracias a los avances en los estudios en celdas individuales y su
actividad neuronal. A pesar de estos avances, nos queda un largo camino para llegar a comprender
cómo funcionan todos estos procesos cognitivos.
Cerebros y computadores digitales realizan tareas bastante diferentes y tienen propiedades distintas.
Las neuronas y las sinapsis del cerebro están activas simultáneamente, mientras que los
computadores actuales tienen una o como mucho varias UCP. Por tanto, incluso sabiendo que un
computador es un millón de veces más rápido en cuanto a su velocidad de intercambio, el cerebro
acaba siendo 100.000 veces más rápido en lo que hace.

Psicología
La conceptualización del cerebro como un dispositivo de procesamiento de información, característica
principal de la psicología cognitiva, se remonta por lo menos a las obras de William James10.
Helmholtz también pone énfasis en que la percepción entraña cierto tipo de inferencia lógica
inconsciente.
Craik establece tres elementos clave que hay que tener en cuenta para diseñar un agente basado en
conocimiento: (1) el estímulo deberá ser traducido a una representación interna, (2) esta
representación se debe manipular mediante procesos cognitivos para así generar nuevas
representaciones internas, y (3) éstas, a su vez, se traducirán de nuevo en acciones.
Estados Unidos desarrollo el modelo computacional que llevo a la creación del campo de la ciencia
cognitiva. Se puede decir que este campo comenzó en un simposio celebrado en el MIT, mostraron
cómo se podían utilizar los modelos informáticos para modelar la psicología de la memoria, el lenguaje
y el pensamiento lógico, respectivamente. Los psicólogos comparten en la actualidad el punto de vista
común de que «la teoría cognitiva debe ser como un programa de computador».

Ingeniería computacional
Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y
un artefacto. El computador ha sido el artefacto elegido. Los circuitos de los computadores pueden
ejecutar una instrucción en un nanosegundo, mientras que las neuronas son millones de veces más
lentas. El computador electrónico digital moderno se inventó de manera independiente y casi
simultánea por científicos en tres países involucrados en la Segunda Guerra Mundial. El equipo de
Alan Turing construyó, en 1940, el primer computador operacional de carácter electromecánico,
llamado Heath Robinson, con un único propósito: descifrar mensajes alemanes.
El primer computador operacional programable fue el Z-3, inventado por Konrad Zuse en Alemania,
en 1941. Zuse también inventó los números de coma flotante y el primer lenguaje de programación de
alto nivel, Plankalkül.
Desde mediados del siglo pasado, cada generación de dispositivos hardware ha conllevado un
aumento en la velocidad de proceso y en la capacidad de almacenamiento, así como una reducción
de precios. La potencia de los computadores se dobla cada 18 meses aproximadamente y seguirá a
este ritmo durante una o dos décadas más. Después, se necesitará ingeniería molecular y otras
tecnologías novedosas.
La IA también tiene una deuda con la parte software de la informática que ha proporcionado los
sistemas operativos, los lenguajes de programación, y las herramientas necesarias para escribir
programas modernos (y artículos sobre ellos). Sin embargo, en esta área la deuda se ha saldado: la
investigación en IA ha generado numerosas ideas novedosas de las que se ha beneficiado la
informática en general, como por ejemplo el tiempo compartido, los intérpretes imperativos, los
computadores personales con interfaces gráficas y ratones, entornos de desarrollo rápido, listas
enlazadas, administración automática de memoria, y conceptos claves de la programación simbólica,
funcional, dinámica y orientada a objetos.

Teoría de control y cibernética


Ktesibios de Alejandría construyó la primera máquina auto controlada: un reloj de agua con un
regulador que mantenía el flujo de agua circulando por él, con un ritmo constante y predecible. Esta
invención cambió la definición de lo que un artefacto podía hacer. Antes, solamente seres vivos podían
modificar su comportamiento como respuesta a cambios en su entorno.
La teoría de control moderna, especialmente la rama conocida como control óptimo estocástico, tiene
como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo. El cálculo y el
álgebra matricial, herramientas de la teoría de control, se utilizaron en la definición de sistemas que
se podían describir mediante conjuntos fijos de variables continuas; más aún, el análisis exacto es
sólo posible en sistemas lineales. La IA se fundó en parte para escapar de las limitaciones
matemáticas de la teoría de control en los años 50. Las herramientas de inferencia lógica y
computación permitieron a los investigadores de IA afrontar problemas relacionados con el lenguaje,
visión y planificación, que estaban completamente fuera del punto de mira de la teoría de control.

Lingüística
La lingüística moderna y la IA «nacieron», al mismo tiempo y maduraron juntas, solapándose en un
campo híbrido llamado lingüística computacional o procesamiento del lenguaje natural. El problema
del entendimiento del lenguaje se mostró pronto mucho más complejo de lo que se había pensado en
1957. El entendimiento del lenguaje requiere la comprensión de la materia bajo estudio y de su
contexto, y no solamente el entendimiento de la estructura de las sentencias. Lo cual puede parecer
obvio, pero no lo fue para la mayoría de la comunidad investigadora hasta los años 60. Gran parte de
los primeros trabajos de investigación en el área de la representación del conocimiento (el estudio de
cómo representar el conocimiento de forma que el computador pueda razonar a partir de dicha
representación) estaban vinculados al lenguaje y a la búsqueda de información en el campo del
lenguaje, y su base eran las investigaciones realizadas durante décadas en el análisis filosófico del
lenguaje.
Paradigmas actuales de la Inteligencia Artificial
Entendemos el concepto de paradigma en el sentido de Kunh [Kuhn, 1971], como una aproximación
metodológica a la IA y a la IC que ha sido consensuada entre un amplio grupo de profesionales del
campo que la consideran como la forma normal de hacer ciencia o ingeniería. Este consenso en un
paradigma concreto supone que se está de acuerdo sobre cuáles son los objetivos y la forma de
alcanzarlos. Es decir, sobre cómo plantear las cuestiones y los experimentos, sobre los métodos para
resolver los problemas y sobre los mecanismos de explicación y las hipótesis que nos van a dejar
satisfechos. Paradigma es sinónimo de forma de abordar la solución de un problema.
Existen cuatro paradigmas básicos:
1. Simbólico o representacional.
2. Situado o reactivo.
3. Conexionista.
4. Híbrido.
El paradigma simbólico: Llamado también representacional, se considera que todo el conocimiento
necesario para resolver una tarea de diagnóstico, planificación, control o aprendizaje, por ejemplo,
puede representarse usando descripciones declarativas y explícitas en lenguaje natural formadas por
un conjunto de “conceptos”, los hechos, y otro conjunto de reglas de inferencia que describen las
relaciones estáticas y dinámicas conocidas entre esos hechos. Así, razonar en el paradigma simbólico
es equivalente a especificar un conjunto de reglas de manipulación de los conceptos de entrada al
SBC que genera el resultado del razonamiento, la inferencia.
La meta es aproximar la IC a las otras ingenierías, en particular a la ingeniería electrónica, donde
nadie discute la utilidad de disponer de buenos almacenes de componentes reutilizables (contadores,
ALUs, memorias,) y de procedimientos sistemáticos de síntesis a partir de estos componentes, de un
“modelo estructural de la tarea” (esquemas de conectividad en circuitos patrón) y de un conjunto de
reglas que especifican el diseño a partir de un conjunto de especificaciones funcionales.
El paradigma situado: Llamado también reactivo o “basado en conductas”, enfatiza el hecho de que
toda percepción y toda acción están estructuralmente acopladas, a través de sensores y efectores
concretos, a un medio externo e interno también concretos. Así, las componentes de modelado del
conocimiento no son ahora conceptos cognitivos de alto nivel semántico (“hipótesis”, “observables”,
“diagnósticos”, . . .), sino elementos más sencillos claramente distinguibles por un observador externo
que ve cómo un agente físico (un robot, por ejemplo) interactúa con su medio, tal como ocurre en la
etología.
El paradigma conexionista: En el paradigma conexionista (las llamadas redes de neuronas
artificiales, RNAs), el problema de la representación del conocimiento se realiza mediante el uso de
líneas numéricas etiquetadas para la entrada y salida de la red y el problema de la inferencia se
resuelve mediante un clasificador numérico de naturaleza paramétrica en el que el valor de esos
parámetros se ajusta mediante un algoritmo de aprendizaje supervisado o no supervisado.
La arquitectura de un agente conexionista es modular, organizada en capas, con gran número de
procesadores elementales (“neuronas”) fuertemente interconectados, que evalúan una sencilla función
de cálculo local, en general la suma ponderada seguida de una sigmoide o cualquier otra función de
decisión no lineal que acota el rango dinámico de la respuesta de cada unidad.
El paradigma híbrido: La realidad es que la mayor parte de los problemas son de naturaleza híbrida,
por lo que su solución también deberá ser híbrida, usando los datos y el conocimiento disponibles
junto con los métodos y técnicas más adecuados para rentabilizar esos recursos. Es decir, en el control
de un robot podremos necesitar aproximaciones reactivas y declarativas, y técnicas simbólicas,
borrosas y neuronales. Esta es la idea de sincretismo que caracteriza a las aproximaciones híbridas
en IC. El cuerpo de conocimientos en IC ofrece una suite de métodos y técnicas de modelado,
formalización, programación e implementación física. La naturaleza del problema y el balance entre
datos y conocimientos son los criterios que guían en cada caso la combinación específica de medios
más adecuada para su solución.
Una parte importante de los problemas con los que se ha encontrado la IC al intentar integrar distintos
paradigmas tienen que ver con la proximidad de la decisión a la fase de implementación. De hecho,
en muchos proyectos se termina integrando sobre una plataforma que encapsula los distintos tipos de
módulos (independientemente de la naturaleza simbólica, neuronal, situada o borrosa de los mismos)
y garantiza el interfaz en los módulos encapsulados, por ejemplo, usando arquitectura multiagente.

CONCLUSIÓN
Gracias a los avances de personas hace muchos años, se ha permitido lograr dar grandes pasos en la
tecnología, la inteligencia artificial es un aspecto que poco a poco se está adentrando en nuestras vidas y que
inevitablemente formará parte por completo de ellas. Es importante que conozcamos cada aspecto de ella pues,
así nos permitirá saber a qué nos enfrentamos o más bien, cómo funciona y por qué no es algo malo como
muchas personas podrían decirlo, porque si bien, se ha logrado que existan maquinas capaces de realizar
actividades incluso mejor que una persona, que es lo que a muchos les causa conflicto, es algo necesario, en
el área de la medicina contar con maquinas que puedan llegar a realizar cosas que a un ser humano le tomaría
años y años de preparación, cambiaría la vida de muchas personas.
La búsqueda de estos avances no es con la intención de reemplazarnos, si no de mejorar muchos de los
aspectos de nuestras vidas y es algo que comprendí gracias a esta investigación, hoy sé que tiene mucho más
que ver con diversos aspectos además de la robótica o la tecnología, que tiene un enfoque también a muchas
partes de nuestra vida diaria y que es necesario que seamos consciente de esto que en el futuro será una de
las partes más importante para el funcionamiento del mundo en general.
BIBLIOGRAFÍA

Marin, R., & Jose, P. (2008). Inteligencia artificial. Técnicas, métodos y aplicaciones.

McGraw-Hill Education.

Russell, S. J., Norvig, P., & Rodríguez, J. M. C. (2004). Inteligencia artificial (Segunda

edición. ed.). Pearson Educación.

También podría gustarte