Está en la página 1de 6

Tesis de Church-Turing e implicaciones

1. Enunciar la tesis de CHURCH-TURING (CH-T).


La tesis de Church-Turing formula hipotéticamente la equivalencia entre los
conceptos de función computable y máquina de Turing, que expresado en
lenguaje corriente vendría a ser "todo algoritmo es equivalente a una máquina de
Turing". No es un teorema matemático, es una afirmación formalmente
indemostrable que, no obstante, tiene una aceptación prácticamente universal.
2. Explicar por qué es una tesis y no un teorema.
Aunque se asume como cierta, la tesis de Church-Turing no puede ser
probada ya que no se poseen de los medios necesarios, por eso es una tesis. Ello
debido a que “procedimiento efectivo” y “algoritmo” no son conceptos dentro de
ninguna teoría matemática y no son definibles fácilmente. La evidencia de su
verdad es abundante pero no definitiva. Precisamente la tesis de Church establece
que la definición de algoritmo o procedimiento efectivo es una máquina de Turing.
3. Definición actual de lo que es un algoritmo, a partir de la tesis CH-T.
Se ha acordado que un procedimiento efectivo o algoritmo consiste en un
número finito y preciso de pasos descrito en un número finito de símbolos que
podría ser también ejecutado por un ser humano
4. Consecuencias de la tesis de Church-Turing para las computadoras
del futuro.

Se han desarrollado muchas teorías formales distintas para reflejar el


concepto de computable de modo efectivo. Entre ellas, están la teoría de Turing y
el lambda-calculo de Church, así como otras teorías propuestas por Kleene y por
Post. A primera vista, estas teorías parecen diferentes. Lo sorprendente es que
puede demostrar que son equivalentes, mostrado que todas ellas definen
exactamente la misma clase de funciones. Con esta evidencia, parece que las
ideas originales de Turing, formuladas con anterioridad a la invención de los
ordenadores modernos, describen de manera concluyente las capacidades ultimas
de estas máquinas.
Teoría de la computabilidad y de la complejidad (P vs NP e implicaciones)

1. Definir complejidad logarítmica, polinómica, exponencial y factorial.


Complejidad logarítmica:
Complejidad polinomica:
Complejidad exponencial:
Complejidad factorial:
2. Definir problema decidible, no decidible y parcialmente decidible
(Wikipedia)

Problema decidible: es el que tiene un procedimiento, algoritmo, de que si


lo que intentas hacer determina un resultado al intentar saber algo, ya sea
un resultado que indique verdad o no.
Problema no decidible:  Es un problema de decisión para el cual es
imposible construir un algoritmo que siempre conduzca a una respuesta de
sí o no correcta.
Problema parcialmente decidible: Cuando existe un algoritmo que puede
responder positivamente cuando la frase está en el lenguaje, pero que corre
indefinidamente cuando la frase no pertenece al lenguaje se dice que
el problema es parcialmente decidible.

3. Problemas tratables e intratables.

Problemas tratables: Son aquellos problemas en los que existe al


menos un algoritmo capaz de resolverlo en un tiempo razonable.
Problemas intratables: Son los problemas que solamente admiten
como solución algoritmos cuya complejidad es super-polinómica

4. Problemas resolubles e irresolubles.


Problemas resolubles:  Es aquel cuya solución puede ser
verificada.
Problemas irresolubles: Es aquel que plantea una pregunta cuya
respuesta no es posible, por estar mal estructurada y planteada de manera
vaga, y por no poder obtenerse datos pertinentes para la solución
propuesta.
5. Clase P y NP.
Clase P: Es el conjunto de los problemas de decisión que son
resueltos en una máquina determinística en un tiempo polinómico, lo que
corresponde intuitivamente a problemas que pueden ser resueltos aún en el
peor de sus casos.
Clase NP: Es el conjunto de los problemas de decisión que pueden
ser resueltos por una máquina no determinística en un tiempo polinómico.

6. ¿Qué implicaciones hay si P = NP?

7. Si P ≠ NP?
Si se encuentra que P no es igual a NP, ello significa que algunos
problemas NP serían significativamente más difíciles de hallar su solución
que verificar la misma.

Inteligencia Artificial: Aplicaciones

1. Aplicaciones de la IA (resumen y ejemplos de sistemas)


Las Aplicaciones de la IA podrían resumirse de la siguiente manera:

 Ingeniería del Conocimiento para problemas de configuración espacial


 Técnicas híbridas para resolución de problemas de diseño
 Validación inteligente de datos

Búsqueda y resolución de problemas

 Estrategias de búsqueda en grafos.


 Decisión multicriterio.

Inteligencia Artificial Distribuida

 Sistemas multiagente
 Negociación automatizada. Formación de coaliciones
 Agentes para diseño ingenieril

Minería de Datos

 Nuevos modelos para series temporales


 Modelos de aprendizaje de patrones que cambian con el tiempo

Razonamiento difuso
 Lenguajes de programación difusos
 Computabilidad difusa

Representación del conocimiento

 Representación del conocimiento de diseño


 Representación del conocimiento de diagnóstico/validación
 Representación del conocimiento jurídico

2. Ramas de la IA
Machine Learning (ML): Es una rama de computación de la IA que se
basa en el entrenamiento de algoritmos de aprendizaje automático a través de
datos anteriores. Luego de determinado tiempo de aprendizaje, dichos
algoritmos mejoran su performance y logran alcanzar su objetivo de
optimización de procesos. La mayoría de las tecnologías de IA se basan en
Machine Learning.
Deep Learning: Es una rama compleja de ML. Busca construir y
entrenar redes neuronales con múltiples capas. El objetivo de dichas redes es
ordenar, clasificar datos y encontrar anomalías en sus patrones.
Neural Networks: Las redes neuronales son algoritmos de Machine
Learning y modelos computacionales diseñados para funcionar como las
neuronas en el cerebro humano. Están entrenadas con un conjunto específico
de datos que utilizan para adivinar respuestas a una consulta. Si se producen
errores, las redes neuronales ajustan su proceso y lo repiten hasta que los
niveles de error disminuyan. Es similar a la regresión estadística.
Computer vision: La visión computacional es la rama de la IA que se
encarga de interpretar y extraer el significado de elementos visuales en el
mundo real, por ejemplo caracteres impresos, caras y objetos. Es la base de
muchas prometedoras innovaciones como los automóviles sin conductor y las
tiendas sin cajero.
Natural Language Processing (NLP): El procesamiento del lenguaje
natural es una rama de la IA que hace referencia a la capacidad de máquinas
para entender palabras habladas e impresas en lenguaje humano, a diferencia
de una computadora la cual entiende lenguajes de programación. Esta
tecnología es utilizada en Chatbots, asistentes virtuales digitales y en motores
de búsqueda para filtrar Spam.
Natural Language Generation (NLG): La generación de lenguaje
natural hace alusión a la capacidad de toma de decisión de una computadora
sobre cómo comprender un concepto específico y plasmarlo en palabras.
Dicha tecnología es muy utilizada en la automatización de procesos manuales
para el análisis de datos.
Chatbot: Es un programa de computadora que utiliza un conjunto de
reglas para conducir una conversación con un humano a través de una interfaz
en línea. Los Chatbots están cada vez más impulsados por la IA y usan NLP y
NLG para imitar una conversación humana.
Virtual Digital Assistants: Los asistentes digitales virtuales son una
versión más sofisticada de Chatbots. Pueden organizar, almacenar y generar
información según la ubicación del usuario y pueden responder consultas
basadas en voz o texto. Algunos ejemplos son Siri de Apple, el Asistente de
Google, Alexa de Amazon y Cortana de Microsoft.
Recommender Systems: Los sistemas de recomendación están
impulsados por tecnologías de IA. Son sistemas de filtrado de información que
pueden predecir automáticamente las preferencias del usuario y generar
respuestas a consultas basadas en el comportamiento pasado. Algunos
ejemplos son el algoritmo de Amazon “Frequently Bought Together”, el
algoritmo de CineMatch de Netflix y algoritmos utilizados por redes sociales
para encontrar conexiones entre personas y datos.
Predictive Analysis: El análisis predictivo es un programa que utiliza
una combinación de técnicas de ciencia de datos, estadística e IA para analizar
conjuntos de datos no estructurados, descubrir patrones y relaciones, y usarlos
para hacer predicciones sobre probables resultados futuros.

3. ¿Qué se espera de la IA en el futuro (por lo menos cercano)?

El análisis de la Inteligencia Artificial puede hacernos una idea de


hacia dónde se dirige la ciencia. No obstante, en los últimos tiempos se ha
abierto un intenso debate que está dividiendo a los investigadores, expertos
y excéntricos de la informática.
La inteligencia artificial ya se utiliza para automatizar y sustituir
algunas funciones humanas con máquinas movidas por ordenador. Estas
máquinas pueden ver y oír, responder a preguntas, aprender, extraer
conclusiones, y resolver problemas. E incluso podrán ser capaces de
diseñar ordenadores mejores y robots más rápidos que los que diseñan los
humanos hoy. Según dicen los expertos, un cambio así llevaría a una gran
aceleración en los avances tecnológicos de todos los tipos.
El sector de la inteligencia artificial ha avanzado con muchos
tropiezos a lo largo del pasado medio siglo, desde que en 1965 el científico
informático de la Stanford University, John McCarthy, acuñó el término
inteligencia artificial. En 1964, estableció el Stanford Artificial Intelligence
Laboratory, los investigadores aseguraron a sus patrocinadores del
Pentágono que la construcción de una máquina de inteligencia artificial
llevaría en torno a una década. Dos décadas después, en 1984, este
optimismo original atravesó una mala racha.
Por ello, mientras una parte de expertos establecen que nos
encaminamos hacia un desarrollo de la tecnología sin precedentes en el
que los robots llegarán a superar en muchos aspectos a los humanos,
existe otra opinión que, aunque no es contrapuesta, establece que todavía
falta mucho para llegar a esos límites.
También es interesante hacer mención a las teorías pesimistas sobre
el futuro.
Algunos autores que han observado el poder cada vez mayor de la
tecnología informática están aún menos tranquilos sobre el resultado del
futuro. William Joy dice que es más probable que los humanos se destruyan
a sí mismos con su tecnología a que creen una utopía ayudados por
máquinas superinteligentes.
Por su parte Joy, el cofundador de Sun Microsystems, dice que no
seremos suplantados por algo, y que es más probable que se produzca una
catástrofe.
Otros autores, como Hugo de Garis piensan que el debate sobre si
deberíamos construir estos intelectos artificiales se convertirá en la cuestión
política dominante del siglo.

También podría gustarte