Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una computadora podría encontrar una solución a un problema sin que el programador le
indique el paso a paso de cómo se resuelve. El programador puede que no sepa los pasos
para resolver un problema y solo sabe, cuando ve un resultado, que uno se aproxima mas a
la solución que el otro. El programador tal vez solo sepa que una aproximación es mejor
que otra, o que un camino en la búsqueda de solución es mejor que otro camino, o tenga
una heurística que le diga que si da un paso para un lado va a estar más cerca de la
solución que si das un paso para el otro lado.
La evolución por selección natural es un algoritmo muy simple y ciego que puede producir
estructuras muy complejas como un ojo. Un animal que tiene células sensibles al calor, que
le permite distinguir si está al sol o a la sombra, tiene ventaja evolutiva frente a un animal
que carezca de esta simple capacidad. Un animal que diferencie entre sombra y oscuridad
tiene una ventaja frente a un animal que solo pueda distinguir si está al sol o a la sombra,
un animal que ve luces borrosas y sombras tiene ventaja por que está lejos de un ojo
humano. Un ojo humano puede distinguir entre distintas longitudes de onda, tiene músculos
para enfocar y ver de lejos o de cerca, adaptaciones que permiten ver tanto a la luz de la
luna como en pleno día y no hubo ningún diseñador inteligente.
Sin saber paso a paso como llegar a una solución y solo con maximizar una función de
utilidad se puede resolver un problema. Es esto lo que hace la evolución por selección
natural, estrategias heurísticas para encontrar soluciones en un problema planteado como
una búsqueda, las redes neuronales con sus funciones de costo, redes de adversarios
generativos. No sabemos cual es la solución, ni como solucionar un problema, solo
sabemos que que dar un paso para un lado es mejor que dar un paso para el otro lado, que
una solución es mejor que otra, o una de las redes neuronales trata de generar una mejor
imagen y la otra trata de diferenciar mejor la imagen falsa de la real.
Los genes no le pueden decir a un animal que hacer en una situación determinada. La
velocidad de respuesta de un gen es más lenta, en varias órdenes de magnitud, que la
velocidad que necesita tener un animal en su ambiente para sobrevivir. Los genes
construyen cerebros que les dan a los animales la velocidad de respuesta adecuada. De la
misma forma que un robot para ir a Marte tiene que tener autonomía para operar en un
ambiente desconocido y cambiante porque las instrucciones que se le envían desde la tierra
demoran más de 10 minutos y llegan tarde, los genes tienen que confiar en las decisiones
que tomen los cerebros.
La respuesta de un animal no puede estar codificada en los genes, ni ser fija, ni innata, si el
animal vive en un ambiente cambiante, dinámico, y se tiene que enfrentar con situaciones
nuevas que sus antepasados nunca vivieron.
Los animales tienen motivaciones, tienen hambre, frío, sed, tienen que buscar algo para
comer, protegerse de los depredadores. Tienen que planificar cómo obtener comida y
conseguir las demás metas con los recursos disponibles. Sabe que con algunas acciones
tiene más probabilidad de alcanzar la meta, tiene sistemas de retroalimentación que les
informa si las acciones que realiza lo aproxima o lo aleja de la meta. Los genes que
pudieron construir máquinas con tales características tuvieron más probabilidades de
supervivencia.
Un agente es una entidad autónoma, situada en un entorno y que lleva a cabo alguna tarea
en nombre de un usuario. Las principales características que hacen inteligentes a un
sistema de agentes son reactividad y proactividad. La reactividad es la capacidad de
adaptar su comportamiento a los cambios de su entorno y la proactividad es la capacidad
de trabajar para lograr las tareas asignadas en nombre de un usuario.
Nosotros, los humanos, somos racionales y nos tendría que afectar la indecibilidad al igual
que a la IA. Pero no nos afecta porque nosotros podemos tener contradicciones, ser
inconsistentes de a ratos, dar respuestas aproximadas y el teorema de Godel solo se aplica
a sistemas formales consistentes, ningún sistema formal con suficiente poder expresivo es
completo y consistente a la vez.
Los problemas computacionalmente intratables afectan a la IA. Una solución que funcione
bien con pocos casos puede no funcionar cuando el número de casos aumenta. El “SAT
problem”, saber si dada una expresión booleana hay alguna asignación de valores para
sus variables que hace que la expresión sea verdadera, es NP-completo y la
especificaciones lógicas son muy usadas en IA.
5. Escriba, con sus propias palabras en no más de 1500 caracteres, qué entiende de
la respuesta de Turing a “The Argument from Informality of Behaviour” en el artículo
“Can machines think?”.
Se suele oponer el determinismo al libre albedrío, pero como dice Dennett, nuestra
autonomía no depende de nada parecido a una suspensión milagrosa de los procesos
causales.
“La confusión surge cuando uno trata de mantener dos perspectivas simultáneas sobre el
universo: la perspectiva del «ojo de Dios», ante la que se despliegan al mismo tiempo
pasado y futuro, y la perspectiva situada de un agente inteligente integrado en el universo.
Desde la perspectiva intemporal de Dios nada cambia jamás —la historia entera del
universo se despliega «de una vez»—. Desde la perspectiva del agente situado, las cosas
cambian con el tiempo, y los agentes toman libremente decisiones para hacer frente a
dichos cambios. Hay cosas que podemos cambiar y cosas que no podemos cambiar.”
Para muchos neurocientíficos de la toma de decisiones la libertad es una ilusión o a lo sumo
una sensación como el hambre y la sed. Estudios del cerebro muestran que las personas
toman decisiones antes de que sean conscientes. En otros estudios se estimula
determinadas áreas del cerebro que se sabe que producen determinadas respuestas y el
sujeto cree que tomó la decisión de producir la respuesta libremente..