Está en la página 1de 14

UNIVERSIDAD AUTÓNOMA DEL CARMEN

FACULTAD DE CIENCIAS DE LA INFORMACIÓN


INGENIERÍA EN DISEÑO MULTIMEDIA

Inteligencia Artificial
Investigación
1.1. Introducción a la Teoría de Sistemas
La Teoría General de Sistemas (TGS) tiene origen en la filosofía y la ciencia. Se le atribuye a George
wilhem Friedrich Hegel(1700-1831) el planteamiento de las ideas:
El todo es mas que la suma de las partes
El todo determina la naturaleza de las partes
Las partes no pueden comprenderse si se consideran en forma aislada
Las partes están dinámicamente interrelacionadas o son independientes

La TGS es un esfuerzo de estudio interdisciplinario que trata de encontrar propiedades comunes a


entidades, sistemas.

La principal aplicación de la teoría esta orientada a la ciencia.

La tgs se fundamenta en tres premisas básicas:


1.los sistemas existen dentro de sistemas
2.los sistemas son abiertos: son caracterizados por un proceso infinito con su ambiente, que
son otros sistemas. Cuando el sistema termina el intercambio, se desintegra o pierde sus
fuentes de energía.
3.las funciones de un sistema depende de un sistema dependen de su estructura.

Teoría de sistemas o teoría general de sistemas es el estudio de sistemas en general, desde una
perspectiva interdisciplinaria.

Su aspiración es identificar los diversos elementos y tendencias identificables y reconocibles de


los sistemas. Para tener un sistema debemos poder identificar las partes que lo componen y
entre ellas debe haber una relación que al modificar una, se modifiquen las demás; generando
un patrón de comportamiento predecible.

Todo el sistema tiene relación con su entorno, el cual se ajusta en mayor o menor medida.
Puede aplicarse a muchos campos. Por esto es considerado una metateoría aspira a conservar
su perspectiva general de los sistemas sin poner nada demasiado especifico.

La teoría surgió en la biología, en la que se expusieron fundamentos, desarrollo y aplicaciones


que fueron claves para estudios futuros. Fue el sustento de teorías complejas.

Principios de la teoría:

Entradas, insumos o inputs: son los procesos que incorporan información, energía o materia al
sistema

Salidas, productos o ouputs: son obtenidos mediante el funcionamiento del sistema y por lo
general salen del sistema al medio externo.

Transformadores, procesadores o throughpust: mecanismos del sistema que producen cambios


o convierten entradas en salidas
Retroalimentación: casos en el que el sistema convierte sus salidas en entradas

Medio ambiente: todo lo que rodea al sistema y existe fuera de el

Tipos de sistemas:

Sis. Abierto: son los que comparten información libremente con su medio ambiente

Sis. Cerrados: son los que no comparten información de ningún tipo con su medio ambiente.
Son sistemas ideales

Sis. Semiabiertos o semicerrados: aquellos que comparten la menor información posible con su
medio ambiente, aunque sin llegar a ser cerrados.

Ingrid Gutierrez
La Teoría General de Sistemas (TGS) es una forma sistemática y científica de aproximación y
representación de la realidad y, al mismo tiempo, como una orientación hacia una práctica
estimulante para formas de trabajo transdisciplinarias.

La Teoría General de Sistemas (TGS) se presenta como una forma sistemática y científica de
aproximación y representación de la realidad y, al mismo tiempo, como una orientación hacia
una práctica estimulante para formas de trabajo transdisciplinarias.

Se caracteriza por su perspectiva holística e integradora, en donde lo importante son las


relaciones y los conjuntos que a partir de ellas emergen. La tgs ofrece un ambiente adecuado
para la interrelación y comunicación fecunda entre especialistas y especialidades.

Clasificaciones básicas de sistemas generales:

1.por su entitividad los sistemas pueden ser agrupados en reales (existencia independiente del
observador), ideales (construcciones simbólicas) y modelos(abstracciones de la realidad,
combina lo conceptual con las características de los objetos).

2.con relación a su origen los sistemas pueden ser naturales o artificiales, apunta a la
dependencia o no en la estructuración por parte de otros sistemas
3.con relación al ambiente o grado de aislamiento los sistemas pueden ser cerrados o abiertos.

Referencias:
http://www.sisal.unam.mx/labeco/LAB_ECOLOGIA/Ecologia_y_evolucion_files/XI.%20TEORIA
%20GENERAL%20DE%20SISTEMAS.pdf
https://concepto.de/teoria-de-sistemas/
https://www.redalyc.org/pdf/101/10100306.pdf
https://www.sesge.org/tgs/2-uncategorised/150-que-es-la-teoria-general-de-sistemas.html
https://fad.unsa.edu.pe/bancayseguros/wp-content/uploads/sites/4/2019/03/Teoria-General-
de-los-Sistemas.pdf
https://repository.usta.edu.co/bitstream/handle/11634/23242/Teor%C3%ADa%20general
%20de%20sistemas.pdf?sequence=1&isAllowed=y

1.2. Modelamiento y Simulación

El modelamiento y la simulación consisten en el trabajo con el computador y,


específicamente, en el trabajo con o el desarrollo de software para modelar y simular.

Las aplicaciones de software en los siguientes términos:

Existe el software propietario, el software libre y el software de dominio público (sin


licencia).

En el caso particular de la computación científica, empresarial y de negocios, los productos


de software propietario son todos aquellos que trabajan bajo licencias de código cerrado,
tales como Mathematica, MatLab, EcoSim, Arena, IThink, Stella, ProModel, Visim y muchos
más. No podemos hacer uso de estos productos sin pagar las licencias, además, por lo
general, no es permitido (= legal) modificar, desensamblar, copiar o distribuir dicho
software

En general modelamos o simulamos con tres finalidades:

a) Cuando buscamos comprender (y explicar) procesos fundamentales

b) Cuando queremos que un fenómeno o sistema se comporte como

deseamos/desearíamos

c) Cuando queremos lograr ver emergencias, dinámicas, procesos, elementos y demás que
no logramos ver (comprender) habitualmente

justamente, por fuera de la simulación y el modelamiento.

En términos generales, dada la novedad de las ciencias de la complejidad y el estudio de


los sistemas de complejidad creciente, en el tema o el problema de comprender dinámicas
fundamentales

El uso de Modelado y Simulación Computacional permite estudiar la naturaleza o los


sistemas de las ingenierías apoyados en tecnologías de la información y las
comunicaciones.

Frecuentemente el sistema estudiado no está disponible para su experimentación directa,


por motivos económicos, bioéticos, de salud o riesgo de vida, complejidad, etc. A través de
modelos formales lógico-matemáticos, o modelos ciber-físicos, se expresan reglas de
comportamiento y de estructura para un sistema permitiendo describir su evolución en el
tiempo.

Esto hace posible razonar sobre el modelo mediante «experimentos» del tipo «qué pasaría
si…» explorando las consecuencias de realizar cambios sobre el sistema original y su
entorno. En este sentido, un simulador es un algoritmo capaz de comprender la
descripción de un modelo y producir comportamientos observables en el tiempo. El
objetivo de las técnicas de simulación es aplicar en forma eficiente el poder de cómputo
disponible para responder más preguntas en menos tiempo y con mayor precisión.

Simulación Analógica

Los primeros simuladores fueron analógicos. La idea es modelar un sistema en términos de


ecuaciones diferenciales ordinarias y después hacer un dispositivo físico que obedezca a
las ecuaciones. El sistema físico se inicializa con valores iniciales apropiados y su desarrollo
en un cierto plazo que simula la ecuación diferencial.

Inicialmente se desarrollaron analizadores diferenciales mecánicos como herramienta de


propósitos generales para simular sistemas dinámicos los cuales fueron reemplazados por
sistemas electrónicos.

La simulación analógica no puede tratar con ecuaciones diferenciales algebraicas (EDAs),


sólo con ecuaciones diferenciales ordinarias (EDOs), lo cual no es muy grave, según
Broenink J. F (1999), las EDAs se dan cuando se simplifica demasiado el modelo.

4.1.3. Simulación Numérica

La solución numérica de una ecuación diferencial es un esencial ingrediente de la


simulación numérica.

Hay varias maneras de encontrar soluciones de aproximación numérica para las ecuaciones
diferenciales. Los métodos son basados en la idea de reemplazar las ecuaciones
diferenciales por una ecuación de diferencia. El método de Euler es basado en
aproximación de la derivativa por una diferencia de primer orden. Hay técnicas más
eficientes tales como Runge-Kutta y métodos de múltiples pasos. Estos métodos fueron
muy conocidos cuando emergieron los simuladores digitales en el año de 1960. El campo
de las matemáticas numéricas experimentó un renacimiento debido al impacto de las
computadoras digitales.

La integración numérica de ODEs y DAEs son campos muy activos de la investigación que
continúan teniendo impacto fuerte en el modelado y simulación, considera Hairer y
Wanner (1991). Entre el desarrollo interesante está el algoritmo mejorado, una
estructuración mejor del código en donde se separan los algoritmos y el error de control.
Los algoritmos para ecuaciones algebraicas todavía no están muy desarrollados como los
algoritmos para ecuaciones diferenciales ordinarias.

4.1.4. Simulación Analógica Digital

Cuando las computadoras digitales aparecieron, era natural explorar si pudiesen ser
usadas para la simulación. El desarrollo fue iniciado por Selfridge (1955) que demostró
como una computadora digital puede emular un analizador diferencial. Este enfoque dio
lugar a la aparición de numerosos lenguajes de programación. En este medio se desarrolló
CSSL estándar [Strauss (ed) (1967)], fue un mayor hito, puesto que unificó los conceptos y
estructuras de lenguaje de los programas disponibles de simulación. ACSL de Mitchell y
Gauthier (1967), se basa en CSSL pero con ciertas modificaciones y mejoras. SIMNON fue
desarrollado en la universidad de Lund iniciando en 1972 y distanciándose de CSSL
estándar [Elmqvist (1975)].

El desarrollo en esta dirección sólo fue posible con la aparición de computadoras con
buenas prestaciones en donde el PC con gráficos de tramas llegó a estar generalmente
disponible.

Entre las aplicaciones de este tipo están VisSim [Darnell y Kolk (1990)]. Mitchell y Gauthier
introdujeron el modelador gráfico ACSL en 1993 o SIMULINK.

BDSP (Block Diagram Simulation Program) es un programa de simulación usado en el


entorno Windows desarrollado por la universidad de Gifu. Ofrece una librería que cubre un
amplio rango de áreas físicas y aplicaciones que facilitan la construcción de los modelos.
Este programa posee una rutina para identificar modelos a partir de la estimación
experimental de su función de transferencia [Yamada y Muto (2001)].

SIMULINK (originalmente llamado SIMULAB) que se integra con MATLAB, apareció en 1991
[Grace (1991)]. Es especialmente diseñado para trabajar con diagramas de bloques usando
MATLAB para el análisis dinámico del sistema. Los diagramas de bloques de SIMULINK
pueden ser definidos como ecuación de estado.

A continuación se puede utilizar las funciones MATLAB para resolver

numéricamente o procesarlas de diferentes maneras. De esta forma, es posible

obtener la función de transferencia, el diagrama de Bode, margen de ganancia, etc.

Este programa es muy útil en el campo de control automático.

4.1.5. Simuladores Específicos

Es posible diseñar el entorno del modelo, que son muy fáciles de usar,
limitando el dominio del modelo. Inicialmente, estos programas solo abarcaban una

rama de la ingeniería. Algunas herramientas de este tipo son: el sistema SPICE, el

cual fue desarrollado para el modelo analógico de un circuito eléctrico, y DADS,

desarrollado en la universidad de Iowa (1984), para la simulación de sistemas

mecánicos. Un gran número de herramientas de este tipo ha sido desarrollado en

varias ramas de la ingeniería.

El programa Hysis, desarrollado por Mannesmann Rexroth, orientado al

cálculo dinámico en el campo de la oleohidráulica, comprende cuatro subprogramas

bien definidos para la simulación no lineal de circuitos electro-hidráulicos de

regulación. Cada subprograma, disponibles para aplicaciones prácticas, permite

simular un tipo diferente de sistema:

1) HYVOS: accionamientos que conciernen al actuador lineal controlado por una

válvula

2) HYDRA: accionamientos que conciernen al actuador rotativo controlado por

una válvula

3) HYSTA: accionamientos hidrostáticos

4) HYSEK: accionamientos con regulación secundaria

La ventaja del programa Hysis, según Murrenhoff (1998) es su notable

facilidad de empleo siempre que el modelo desarrollado se pueda clasificar dentro

de uno de los cuatros subprogramas.

4.1.6. Simuladores Multi-Disciplinares

El software para dominios específicos es muy útil de usar si el problema es

adecuado a la herramienta directamente, siendo muy útiles en su campo de

aplicación, pero hay muchos diseños que necesitan de programas de simulación que

permitan la colaboración con otros programas.

https://www.urosario.edu.co/Administracion/ur/Investigacion/Centro-de-Estudios-Empresariales-
para-la-Perdurabi/LMyS/Documentos/Modelamiento-y-Simulacion-de-Sistemas-Complejos.pdf
inria.cl/es/modelamiento-y-simulacion

https://icc.fcen.uba.ar/modelado-y-simulacion/

https://www.tdx.cat/bitstream/handle/10803/6733/09Jrr09de27.pdf?sequence=9&isAllowed=y

La Prueba de Turing
Prueba Global de Turing
Para superar la Prueba Global de Turing el computador debe estar dotado de
• Visión computacional para percibir objetos.
• Robótica para manipular y mover objetos.
Allen Newell y Herbert Simon, que desarrollaron el «Sistema
de Resolución General de Problemas» (SRGP) (Newell y Simon, 1961),

investigación de los siguientes,

2.- Inteligencia Artificial (IA)


2.1. Algunas Definiciones
2.2. Breve Historia de
la Inteligencia Artificial
Inteligencia Artificial (IA):  Es el campo de estudio dedicado a explorar
maneras de dotar a las máquinas de capacidades
cognitivas similares a la de los humanos.
IA limitada:  Está diseñada para realizar una tarea específica,
como predecir el clima o recomendar videos. 
IA general:  Puede usar sus capacidades cognitivas para
cualquier situación, aunque sigue siendo un caso
teórico.
El Internet de las Cosas o se refiere al conjunto de objetos físicos dotados de
Internet of Things (IoT) sensores, software, capacidad de procesamiento y
otras tecnologías, los cuales se conectan e
intercambian datos con otros objetos o sistemas a
través de una conexión a internet. Estos objetos
pueden pertenecer a una amplia variedad de
categorías, desde algo tan simple como un
electrodoméstico hasta herramientas industriales
sofisticadas.
Aprendizaje automático este concepto hace referencia al momento en que
la IA “aprende por sí misma a través de datos y
experiencia”.
Esto permite, a través de patrones, darles sentido a
los grandes volúmenes de información, con el
objetivo de que los sistemas generen sus propias
soluciones a determinados problemas en poco
tiempo.

Aprendizaje supervisado:  los datos están conformados por casos ejemplo con
observaciones y respuestas correctas. cuando se
entrena a las máquinas con datos etiquetados. hay
un humano que le dice lo que hace bien o mal. En
los entrenamientos supervisados de Machine
Learning los sistemas de AI aprenden a tomar
decisiones a través de ejemplos. Se introduce
información de entrada, se analizan ciertas
características definidas por el programador y se
obtiene un resultado. Por cada resultado se indica
si la respuesta es la correcta o no, dando la
oportunidad a los algoritmos a ser perfeccionados.

Aprendizaje no supervisado:  Los datos se presentan sin clasificar. El trabajo del


algoritmo de aprendizaje es buscar patrones en los
datos, y aunque no sepa exactamente qué
significan, estos patrones identificados serán útiles
para predecir características de nuevas
observaciones. es la propia AI la que tiene que
aprender a descubrir lo que hace bien y lo que hace
mal, en función de ciertas reglas.

aprendizaje no supervisado: las máquinas no identifican patrones en bases de


datos etiquetadas, sino buscando similitudes
Aprendizaje por refuerzo:  una máquina aprende por medio de prueba y error,
hasta decidir cuál es la mejor manera de completar
una tarea dada. Parte de un modelo con algunas
reglas simples, suficientes para realizar una tarea y
evaluar qué tan bien lo hizo, aprender de sus
errores e intentar diferentes formas de hacerlo,
hasta que eventualmente lo puede lograr.

Machine learning o aprendizaje Un modelo de IA debe ser entrenado para que


automático:  aprenda a realizar una tarea. El aprendizaje
automático o machine learning comprende
diferentes algoritmos para procesar datos con el
objetivo de entrenar un modelo de IA. permite a los
ordenadores aprender sin necesidad de haber sido
explícitamente programados para ello. funciona
entrenando a los sistemas informáticos a utilizar
algoritmos para detectar patrones en los datos y
posteriormente actuar de forma predictiva. El
reconocimiento de voz y lenguaje natural, la visión
computarizada, las recomendaciones en búsquedas
y los filtros en los emails son algunos ejemplos de
IA que hace uso de machine learning. Para que un
sistema tenga la capacidad de aprender, en primer
lugar, debe pasar por una etapa de entrenamiento
en la cual la AI gana experiencia y aprende a tomar
decisiones de manera exitosa.

deep learning  es un subconjunto dentro del campo del Machine


Learning, inspirado en cómo las redes neuronales
del cerebro humano procesan la información. En
estos sistemas, cada capa de la red neuronal
transforma los datos que recibe en una
representación más compleja. De esta manera, el
sistema alcanza una comprensión muy detallada de
los datos que equivale a una forma de
razonamiento inteligente. Son estas redes
neuronales artificiales las que han impulsado los
recientes avances en machine learning y la
habilidad que tienen los ordenadores de llevar a
cabo tareas como el reconocimiento del habla, el
procesamiento de lenguaje natural o el
reconocimiento de imagen.

el sistema de AI en lugar de utilizar una lista de


características a analizar para llegar a un resultado,
toma los modelos de ejemplo, los evalúa y
determina cuáles son las características y patrones
realmente importantes para examinar.

Para el análisis se vale de una red neuronal


artificial que procesa los datos de manera similar al
cerebro humano. La red neuronal más simple
podría estar compuesta por sólo 1 neurona. Pero a
mayor cantidad de neuronas, cada una resolviendo
una función relativamente simple, el sistema puede
analizar información compleja y obtener resultados
muy precisos.

procesamiento del lenguaje El PLN, o Procesamiento del Lenguaje Natural se


natural: centra en la manera que tiene una inteligencia
artificial para poder entender e imitar el lenguaje
natural de los seres humanos.
El Procesamiento del Lenguaje Natural (NLP por sus
siglas en inglés) es el campo de estudio que se
enfoca en la comprensión mediante ordenador del
lenguaje humano. Abarca parte de la Ciencia de
Datos, Inteligencia Artificial (Aprendizaje
Automático) y la lingüística. En NLP las
computadoras analizan el leguaje humano, lo
interpretan y dan significado para que pueda ser
utilizado de manera práctica. Usando NLP podemos
hacer tareas como resumen automático de textos,
traducción de idiomas, extracción de relaciones,
Análisis de sentimiento, reconocimiento del habla y
clasificación de artículos por temáticas.
Redes neuronales Hace referencia a sistemas de inteligencia artificial
que están inspirados en el funcionamiento del
cerebro humano para lograr capacidades de mayor
complejidad a las de la programación tradicional. 

Las redes neuronales están hechas de colecciones


de unidades de procesamiento de información que
funcionan como un equipo, ya que transmiten
información entre ellas de forma similar a como lo
hacen las neuronas dentro del cerebro

ciencia cognitiva convergen modelos computacionales de IA


razonamiento automático: para utilizar la información almacenada para
responder
a preguntas y extraer nuevas conclusiones.
aprendizaje automático: para adaptarse a nuevas circunstancias y para
detectar
y extrapolar patrones
Predicciones El resultado de un sistema de IA es una predicción
de qué tan probable es que ocurra un evento

Este componente está presente en internet cuando


a los internautas se les sugiere ver algunas películas
o videos en plataformas digitales o redes sociales.

las predicciones también pueden ser útiles para


anticipar desastres naturales o tomar mejores
decisiones en materia de inversiones financieras.

agente es algo que razona (agente viene del latín agere,


hacer). Pero de los agentes
informáticos

se espera que tengan otros atributos que los


distingan de los «programas»
convencionales, como que estén dotados de
controles autónomos, que perciban su entorno,
que persistan durante un período de tiempo
prolongado, que se adapten a los cambios,
y que sean capaces de alcanzar objetivos
diferentes.
agente racional es aquel que actúa con la intención de alcanzar el
mejor resultado o, cuando hay incertidumbre,
el mejor resultado esperado.
La regla de Bayes y el área resultante llamado
análisis Bayesiano conforman la base de las
propuestas

más modernas que abordan el razonamiento


incierto en sistemas de IA.
La lingüística moderna y la IA «nacieron», al mismo
tiempo y maduraron juntas, solapándose
en un campo híbrido llamado lingüística
computacional o procesamiento del lenguaje
natural.

Procesamiento de lenguaje Son técnicas usadas para que una máquina


natural:  entienda nuestras fuentes no estructuradas, en
forma de texto, audio, imágenes o video.

cloud computing

https://news.microsoft.com/es-es/2018/06/26/principios-basicos-de-la-inteligencia-artificial-por-
que-esta-aqui-para-ayudar-y-no-para-perjudicarnos/
Lo de arriba es INFORMACIÓN DEL PRIMER LIBRO DE IA EN DOC.
https://infochannel.info/8-conceptos-basicos-entender-inteligencia-artificial/
https://www.semana.com/tecnologia/articulo/que-es-la-inteligencia-artificial-y-para-que-sirve-
segun-google/305485/

Tipos de Inteligencia Artificial

Se puede dividir a la AI en dos ramas independientes: ANI y AGI.

ANI (artificial narrow intelligence o inteligencia artificial estrecha): Son sistemas


diseñados y entrenados para realizar una única tarea. Este tipo de AI se utiliza para un sólo
objetivo, logrando sistemas de muy alto rendimiento.
AGI (artificial general intelligence o inteligencia artificial general): Consiste en la creación
de AI que pueda hacer todo lo que los humanos hacemos, es decir, una máquina que puede
realizar con éxito cualquier tarea intelectual e incluso tener emociones.
“La primera aplicación conocida de ANI fue Deep Blue, el ordenador de IBM que venció
en una partida de ajedrez al ruso Gary Kaspárov en 1997.”

http://msinet.com.ar/noticias/conceptos-claves-para-entender-la-inteligencia-artificial/

https://baufest.com/inteligencia-artificial-conceptos-basicos/

También podría gustarte