Está en la página 1de 10

ERNESTO HERNANDEZ TORRES

93774
KO49
 Actividad de aprendizaje 3. Sistemas expertos
Mtro. Eduardo Pazos Gutiérrez

22/05/2020
¿Qué es  la inteligencia artificial,  y cuáles son sus principales componentes

La Inteligencia artificial es el campo científico de la informática que se centra en la


creación de programas y mecanismos que pueden mostrar comportamientos considerados
inteligentes. En otras palabras, la IA es el concepto según el cual “las máquinas piensan
como seres humanos”.

Normalmente, un sistema de IA es capaz de analizar datos en grandes cantidades


(big data), identificar patrones y tendencias y, por lo tanto, formular predicciones de forma
automática, con rapidez y precisión. Para nosotros, lo importante es que la IA permite que
nuestras experiencias cotidianas sean más inteligentes. ¿Cómo? Al integrar análisis
predictivos (hablaremos sobre esto más adelante) y otras técnicas de IA en aplicaciones
que utilizamos diariamente.

 Siri funciona como un asistente personal, ya que utiliza procesamiento de


lenguaje natural
 Facebook y Google Fotos sugieren el etiquetado y agrupamiento de fotos con
base en el reconocimiento de imagen
 Amazon ofrece recomendaciones de productos basadas en modelos de
canasta de compra
 Waze brinda información optimizada de tráfico y navegación en tiempo real

Elementos de la IA

Descubrir
El descubrimiento es la habilidad de un sistema inteligente para aprender de datos sin
intervención humana por adelantado. A menudo, esto necesita hacerse sin la presentación de
un objetivo explícito. Para ello, depende del uso de técnicas de aprendizaje automático sin
supervisar o parcialmente supervisadas (tales como la segmentación, reducción de la
dimensionalidad, detección de anomalías y otras más), así como técnicas más supervisadas
donde hay uno o varios resultados de interés.
Generalmente, en software empresarial, el término descubrimiento se refiere a la
habilidad de soluciones ETL/MDM para descubrir los diversos esquemas de tablas en bases de
datos de gran tamaño y automáticamente encontrar, unir claves, etc. Esto no es a lo que nos
referimos con descubrimiento. Usamos el término de forma muy diferente y esto tiene
implicaciones importantes.
En conjuntos de datos complejos, es prácticamente imposible hacer las preguntas
“correctas”. Para descubrir qué valor se encuentra entre la información, uno debe comprender
todas las relaciones que son inherentes e importantes en ella. Esto requiere una metodología
rigurosa en cuanto a la generación de hipótesis.
La técnica de análisis topológico de datos (TDA) es excepcional en hacer surgir
relaciones ocultas que existen en los datos e identificar aquellas relaciones que son
significativas sin tener que preguntar cuestiones específicas respecto a la información. El
resultado es un producto que puede representar fenómenos complejos, y por tanto puede hacer
surgir señales más débiles así como señales más fuertes.
Esto permite la detección de fenómenos emergentes. Como resultado, las empresas
ahora pueden descubrir respuestas a preguntas que ni siquiera habían pensado preguntar y
hacerlo con datos que se encuentran sin etiquetar.
Predecir
Una vez que el conjunto de datos se ha comprendido mediante descubrimiento
inteligente, se aplican estrategias supervisadas para predecir qué pasará en el futuro. Estos
tipos de problemas incluyen clasificación, regresión y ranking.
Para este pilar, muchas compañías usan un conjunto estándar de algoritmos de
aprendizaje automático supervisado, incluyendo bosques aleatorios, potenciación del gradiente,
aprendizaje lineal/disperso. De todos modos, hay que tener en cuenta que el trabajo sin
supervisar del paso anterior es altamente útil en muchas formas. Por ejemplo, puede generar
características relevantes que usar en futuras tareas de predicción, o encontrar porciones
locales de información donde los algoritmos supervisados pueden encontrar dificultades (errores
sistemáticos).
Esta fase de predicción es una parte importante del valor empresarial que se asocia con
la ciencia de datos; de todos modos, generalmente en análisis predictivos existe la noción de
que esto es la suma total del aprendizaje automático. Este no es el caso en absoluto.
La predicción, aunque importante, está muy bien comprendida y no se califica por sí
misma como “inteligencia”. Además, la predicción puede fallar en varias dimensiones,
particularmente si los grupos en los cuales se está prediciendo están sujetos a algún tipo de
sesgo. De por sí, la predicción no es AI, y debemos dejar de referirnos a ella como tal.
Justificar
Las aplicaciones necesitan permitir la interacción con humanos de una manera en que los
resultados sean reconocibles y creíbles. Por ejemplo, cuando uno crea un modelo predictivo, es
importante tener una explicación de cómo el modelo hace lo que está haciendo, qué están
haciendo las características en el modelo, en términos que sean familiares para sus usuarios.
Este nivel de familiaridad es importante para generar confianza e intuición.
Similarmente en la misma manera que los automóviles tienen mecanismos no sólo para
detectar la presencia de un mal funcionamiento, sino también para especificar la naturaleza del
fallo y sugerir un método para corregirlo, uno tiene que poseer una comprensión de los
principios básicos acerca de cómo funciona una aplicación para poder “repararla” cuando
funciona incorrectamente.
Hay una diferencia entre transparencia y justificación. La transparencia te dice qué
algoritmos y parámetros se han usado, mientras que la justificación te dice por qué. Para que la
inteligencia sea significativa, debe ser capaz de justificar y explicar sus afirmaciones, así como
ser capaz de diagnosticar fallos. Ningún líder debería implementar aplicaciones inteligentes y
autónomas para problemas empresariales críticos sin una comprensión exhaustiva de qué
variables impulsan el modelo. Las empresas no pueden moverse hacia un modelo de
aplicaciones inteligentes sin confianza y transparencia.
Actuar
La AI sin UX (Experiencia de Usuario) es de utilidad limitada. La UX es lo que distribuye
dicha inteligencia a través de la organización y la lleva al límite — donde puede ser consumida
por los profesionales y expertos en la materia.
Básicamente, el proceso de operacionalizar una aplicación inteligente en una empresa
requiere algunos cambios en la organización, una aceptación de que la aplicación evolucionará
con el tiempo, y que requerirá cambios — automatizados o no.
Para que ello ocurra, las aplicaciones inteligentes tienen que estar “en vivo” en el proceso
empresarial, viendo nuevos datos y automáticamente ejecutando el bucle de descubrir, predecir,
justificar en una frecuencia que tenga sentido para dicho proceso empresarial. Para algunos
procesos, esto puede ser trimestral, para otros, a diario. Dicho bucle puede incluso ser medido
en segundos.

Aprender
Los sistemas inteligentes están diseñados para detectar y reaccionar a medida que la
información evoluciona. Un sistema inteligente es uno que siempre está aprendiendo, vive en el
proceso de trabajo y está mejorando de forma constante. En el mundo de la información
moderna, una aplicación que no está volviéndose más inteligente se está volviendo más tonta.
Las aplicaciones inteligentes están diseñadas para detectar y reaccionar cuando las
distribuciones de datos evolucionan. Como resultado, necesitan estar “en línea” para detectar
estos fenómenos antes de que se conviertan en un problema.
Demasiadas soluciones proveen una respuesta en un punto en el tiempo; un sistema
inteligente es uno que siempre está aprendiendo a través de la infraestructura descrita aquí.
Esto es lo que define la inteligencia — no un algoritmo de aprendizaje automático soltando
PDFs que contienen predicciones o resultados del trabajo de un científico de datos. Para que la
industria continúe creciendo y evolucionando, necesitamos empezar a hacer un mejor trabajo al
reconocer lo que es verdaderamente AI y lo que no lo es.

¿Qué  son los sistemas expertos y cuáles son sus capacidades fundamentale
s? 

Sistema de información basado en el conocimiento que usa su conocimiento de un área


de aplicación compleja y específica a fin de actuar como un consultor experto para los usuarios
finales. Los sistemas expertos proporcionan respuestas sobre un área problemática muy
específica al hacer inferencias semejantes a las humanas sobre los conocimientos obtenidos en
una base de conocimientos especializados.

Características
Para que un sistema actúe como un verdadero experto, es deseable que reúna, en lo
posible, lo más importante de las características de un experto humano, esto es:

Habilidad para adquirir conocimiento.


Fiabilidad, para poder confiar en sus resultados o apreciaciones.
Solidez en el dominio de su conocimiento.
Capacidad para resolver problemas.
Componentes de un sistema experto
Separan conocimientos (reglas y hechos) y el procesamiento; se le añade una interface
de usuario y un componente explicativo; los siguientes componentes pueden estar estructurados
de formas muy variadas.
Base de conocimientos: Contiene el conocimiento de los hechos y las experiencias de los
expertos en un dominio determinado
Mecanismo de inferencia: Puede simular la estrategia de solución de un experto
Componente explicativo: Explica al usuario la estrategia de solución encontrada y el
porqué de las decisiones tomadas
Interfase de usuario: Sirve para que este pueda realizar una consulta en un lenguaje lo
más natural posible
Componente de adquisición: Ofrece ayuda a la estructuración e implementación del
conocimiento en la base de conocimientos.

Aprendizaje: Se pretende que sea el propio ordenador el que adquiera el conocimiento.


Existen muchas técnicas aplicables o no dependiendo del problema: aprendizaje inductivo,
deductivo, redes neuronales, algoritmos genéticos.

Redes neuronales.
Conexiones que forman las neuronas en el cerebro. Se investiga su utilización en muchas
áreas; Visión Artificial, Razonamiento, Aprendizaje, Comprensión Lenguaje Natural.
Redes Bayesianas: Técnica para tratar el razonamiento con incertidumbre. Su base es el
teorema de Bayes que es el método matemático exacto para tratar las probabilidades. Consiste
en una red donde los nodos son hechos ciertos o no y los enlaces entre los nodos son las
probabilidades condicionadas de unos hechos con respecto a otros. Propagando las
probabilidades a través de la red, se pueden obtener los resultados más probables a partir de
los hechos que se conocen (razonamiento). El ejemplo típico son los sistemas de diagnóstico
médico.
Algoritmos genéticos: Son métodos de aprendizaje inspirados en la evolución natural, y
que utilizan las nociones de individuos, apareamiento, recombinación de cromosomas, mutación
genética, adaptación y selección natural. Son la base de las investigaciones en Vida Artificial.
Otras técnicas que se pueden mencionar son la utilización de Ontologías para
representar el conocimiento, Data Mining para obtención de conocimiento en bases de datos y
los Agentes Inteligentes para la recuperación de información en Internet.

¿Qué es la realidad virtual? Resalta sus características y coloca un ejemplo. 

Es preciso que la realidad virtual se encuentre expresada en un tipo de lenguaje


informático gráfico con características tridimensionales, y que además posea un
comportamiento dinámico y ejecutado en tiempo real.

Su característica principal se basa en que el usuario se encuentra incorporado en el


interior del entorno gráfico tridimensional computarizado, para lo cual se requiere la suspensión
de la incredulidad, es decir convencer a la persona de que se halla dentro de ese mundo, con el
fin de lograr la integración e interacción del usuario en dicho medio.

Para ello, la realidad virtual ha sido desarrollada con la capacidad de emitir infinidad de
reacciones ante las acciones ejecutadas por los usuarios, brindando un marco que ofrezca una
experiencia inmersa, interactiva y multisensorial.

Para lograr ser parte de la realidad virtual inmersa, no sólo es necesario contar con las
herramientas de software necesarias para ello, sino que además es imprescindible el uso de
una serie de dispositivos que permiten al usuario introducirse en este mundo paralelo, tales
como cascos, guantes y otros elementos.

No obstante, más allá de los componentes necesarios para establecer una realidad
virtual, dicha plataforma necesita de un mecanismo de funcionamiento que la haga posible.

La máquina de realidad virtual


La denominada máquina de realidad es el núcleo principal del sistema de realidad virtual,
ya que es el encargado de procesar, administrar y generar los mundos virtuales y todas las
respuestas a las distintas operaciones que ejecute el usuario.

Si bien es el software quien será el encargado de generar y enviar las instrucciones


necesarias hacia la computadora, cabe destacar que el equipo informático que se utilice limitará
la potencia y eficacia del sistema de realidad virtual.
Fundamentalmente, la computadora se encarga de controlar y manejar tres importantes
tareas para la creación del mundo virtual: el ingreso de los datos, la salida de los mismos, y la
generación, operación y administración de los mundos virtuales.

Gafas de Realidad Virtual


En general se utilizan gafas, guantes y cascos especialmente diseñados para la realidad
virtual, que poseen sensores de movimiento, microchips, pantallas de cristal líquido, y demás,
con el fin de que la realidad virtual creada por la máquina virtual rodee a la persona que se
encuentra inmersa en dicho mundo irreal y perceptivo.

No obstante, en la actualidad, y pese al gran desarrollo que en los últimos años ha


mejorado la puesta en práctica de los sistemas de realidad virtual, aún existen una serie de
inconvenientes en el uso de esta plataforma, que deberán ser mejorados para brindar una
experiencia satisfactoria en este campo.

RED NEURONAL.

Una red neuronal puede aproximar una amplia gama de modelos predictivos con


demandas mínimas sobre la estructura y asunción de modelos. La forma de las relaciones
está determinada durante el proceso de aprendizaje. Si una relación lineal entre el objetivo
y los predictores es apropiada, los resultados de la red neuronal deben aproximarse mucho
a los del modelo lineal tradicional. Si una relación no lineal es más apropiada, la red
neuronal aproximará automáticamente la estructura de modelo "correcta".
El equilibrio de esta flexibilidad es que la red neuronal no es fácilmente interpretable.
Si intenta explicar un proceso subyacente que genera las relaciones entre el objetivo y los
predictores, se debería utilizar mejor un modelo estadístico más tradicional. Sin embargo,
si la interpretabilidad del modelo no es importante, puede obtener buenas predicciones
utilizando una red neuronal.
Requisitos del campo. Debe haber al menos un objetivo y una entrada. Se ignorarán
los campos establecidos en Ambos o Ninguno. No hay restricciones de nivel de medición
en los objetivos o en los predictores (entradas).
Las ponderaciones iniciales asignadas a redes neuronales durante la creación del
modelo y, por lo tanto, los modelos finales generados dependen del orden de los campos
en los datos. SPSS Modeler ordena automáticamente los datos por el nombre del campo
antes de presentarlos a la red neuronal para el entrenamiento. Esto significa que cambiar
el orden explícitamente de los campos en los datos en sentido ascendente no afectará a
los modelos de red neuronal generados cuando se establece una semilla aleatoria en el
generador de modelos. Sin embargo, cambiar los nombres de campo de entrada de una
forma que cambia el orden de clasificación generará distintos modelos de red neuronal,
incluso con una semilla aleatoria establecida en el generador de modelos. La calidad del
modelo no se verá afectada de forma significativa dada una orden de clasificación de
nombres de campo.
Nombre del modelo. Puede generar el nombre del modelo automáticamente
tomando como base los campos objetivo o especificar un nombre personalizado. El
nombre generado automáticamente es el nombre del campo objetivo. Si existen objetivos
múltiples, el nombre del modelo se forma con los nombres de campos en orden,
conectados por símbolos &. Por ejemplo, si campo1 campo2 campo3 son objetivos, el
nombre de modelo es: campo1 & campo2 & campo3.
Dejar disponible para puntuar. Cuando se puntúa el modelo, se crearán los
elementos seleccionados en este grupo. El valor predicho (para todos los objetivos) y la
confianza (para objetivos categóricos) se calculan siempre cuando se puntúa el modelo. La
confianza calculada puede basarse en la probabilidad del valor predicho (la probabilidad
predicha más alta) o la diferencia entre la probabilidad predicha más alta y la segunda
probabilidad predicha más alta.
 Probabilidad predicha para objetivos categóricos. Genera las probabilidades
predichas para objetivos categóricos. Se crea un campo para cada categoría.
 Puntuaciones de propensión para objetivos de marca. En el caso de modelos
con un objetivo de marca (que devuelve una predicción de sí o no), puede solicitar
puntuaciones de propensión que indican la probabilidad del resultado true especificado
para el campo objetivo. El modelo produce puntuaciones de propensión en bruto; si hay
particiones activas, el modelo también producirá puntuaciones de propensión ajustadas en
función de la partición de prueba.

También podría gustarte