Está en la página 1de 3

Universidad Autónoma de Baja California Sur

Departamento Académico de Sistemas Computacionales


Inteligencia Artificial I
Ingeniería Exploratoria en la Inteligencia Artificial
Olivia Janini López Martínez
oliviajanl_17@alu.uabcs.mx

Ingeniería exploratoria en IA
Tenemos la Inteligencia Artificial más presente en nuestra cotidiana de lo que a veces
podemos imaginar. A medida que la sociedad avanza, también sus avances tecnológicos,
como sus innovaciones, haciendo que los la IA se vaya volviendo independiente de los
humanos. Es evidente que el software desarrollado podrá realizar actividades de grandes
operaciones pero se cuestiona su capacidad para realizarlas. Ya que ya se han tenido casos
donde las empresas tienen algunas situaciones, sin embargo se plantea la idea de que no
deja de ser herramientas de maestros humanos. En la actualidad, la ingeniería de
seguridad de la IA se lleva a cabo en una combinación de métodos y pruebas formales.
Estos métodos carecen de previsión: sólo pueden aplicarse a sistemas particulares
existentes. Estos proyectos esperan descubrir métodos “para determinar si el
comportamiento de los agentes de aprendizaje [permanecerá] dentro de los límites de las
limitaciones preestablecidas. . . después de aprender” (Spears 2006). A este enfoque lo
llamamos "ingeniería exploratoria en IA".

1.- Ingeniería exploratoria en física, astronáutica, informática e inteligencia artificial.


La ingeniería exploratoria estudia los límites últimos de los dispositivos aún por diseñar,
de igual manera que la física teórica estudia los límites últimos de los sistemas naturales.
La IE en física generó grandes inversiones en tecnologías a nanoescala y también la
aparición de la Iniciativa Nacional de Nanotecnología de EE. UU. En cuanto el área de la
astronáutica, antes de Sputnik, estudiaron las implicaciones de la ley física para los vuelos
espaciales, y dado el análisis, permitió la construcción y el lanzamiento posterior de la
primera nave espacial. Estos modelos teóricos de IA sí aportan para iluminar
consideraciones importantes para la seguridad de la IA.
2. Agentes similares a AIXI e ingeniería exploratoria
AIXI actúa como una computadora de ajedrez idealizada con suficiente poder de cómputo
para perfeccionar el juego de ajedrez pensando todas las combinaciones posibles de
movimientos. El teorema de Bayes se utiliza para actualizar la probabilidad de hipótesis
basadas en observaciones. Para la toma de decisiones, AIXI elige las acciones que
maximicen su expectativa de recompensa esperada. Las posibilidades de AIXI maximizan
una función de utilidad definida en sus observaciones y acciones. Basado en la suposición
de un entorno estocástico que contiene una cantidad infinita de información, el modelo
original de AIXI es incuestionable, por lo tanto, no es un tema de ingeniería exploratoria.
En cambio, las variantes finitamente computables de AIXI, basadas en el supuesto de un
entorno estocástico que contiene una cantidad finita de información, se pueden utilizar
para la ingeniería exploratoria en IA.
AIXI es el primer modelo de comportamiento inteligente entre dominios que se especifica
de manera completa y formal, tiene uso para hacer argumentos formales sobre las
propiedades que se obtendrían en ciertas clases de agentes hipotéticos si pudiéramos
construirlos hoy. Los agentes similares a AIXI modelan una propiedad crítica de los futuros
sistemas de IA: que necesitarán explorar y aprender modelos del mundo. Esto distingue a
los agentes similares a AIXI de los sistemas actuales que utilizan modelos mundiales
predefinidos o aprenden parámetros de modelos mundiales predefinidos.
Daniel Dewey mostró que, los agentes con similitudes a AIXI, podrán localizar y modificar
las partes de su entorno que crean sus recompensas. Un agente que depende de las
recompensas de los usuarios humanos buscará reemplazar a esos humanos con un
mecanismo que otorgue recompensas de manera más confiable. Como posible solución a
este problema, Dewey propuso una nueva clase de agentes denominados valorar a los
alumnos, que puede diseñarse para aprender y satisfacer cualquier preferencia
inicialmente desconocida, siempre que los diseñadores del agente le proporcionen una
idea de lo que constituye evidencia sobre esas preferencias. Los sistemas prácticos de IA
están integrados en entornos físicos y algunos sistemas experimentales emplean sus
entornos para almacenar información. Ahora, el trabajo inspirado en AIXI está creando
modelos teóricos para disolver el límite agente-entorno utilizado como un supuesto
simplificador en el aprendizaje por refuerzo y otros modelos, incluida la formulación
original de AIXI.

También podría gustarte