Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ELECTIVA EN ESTADÍSTICA
A pesar de que pasa el tiempo todavía se ignora demasiado sobre la forma en que el
cerebro aprende a procesar toda la información recaudada en el trayecto de la vida, se
han desarrollado modelos que tratan de imitar ciertas habilidades; denominados redes
neuronales (artificiales) o modelos de computación conexionista. La elaboración de
estos modelos supone en primer lugar la deducción de los rasgos o ciertas características
esenciales de las neuronas y sus conexiones, y, por otra parte, la implementación del
modelo en una computadora de forma que se pueda simular.
REDES NEURONALES
Sabemos que la inteligencia artificial es el área científica de mucha información que se
enfoca en crear ciertos programas o mecanismos que puedan mostrar unos
comportamientos considerados inteligentes.
APRENDIZAJE AUTOMÁTICO
El aprendizaje automático es la ciencia de construcción de sistemas computacionales
que ayudan a mejorar automáticamente con la experiencia y esto ayuda a estudiar cuales
son las leyes fundamentales que gobiernan todos los procesos de aprendizaje.
Luego podemos decir que una máquina aprende con respecto a una tarea específica T,
una métrica de rendimiento P y un tipo de experiencia E si mejora sustancialmente su
rendimiento P para realizar la tarea T a partir de los ejemplos E.
El aprendizaje automático surgió en la frontera entre las Ciencias de la Computación y
la Estadística:
• La ciencia de la computación se pregunta cómo construir máquinas capaces aprender
automáticamente a resolver problemas y cuales problemas son tratables.
• La estadística se ocupa de estudiar qué se puede inferir de un conjunto de datos a los
cuales agregamos un conjunto de suposiciones que modelan el sistema.
La matemática, la física, la ingeniería y la psicología han ayudado notablemente al
desarrollo del aprendizaje automático.
TAREAS USUALES
Clasificación:
REGRESION:
Clustering
ALGORITMO COMPUTACIONAL
Este se define como una secuencia de pasos que representan cierto modelo de solución
de hallar un tipo de problema o también como un conjunto de pasos que repetidas en
forma ordenada nos llevan a soluciones de dicho problema.
AUTÓMATA
Es una maquina que se programa para que tenga la capacidad de realizar repetidamente
ciertas operaciones de manera autómata, sin ser supervisada.
EL CEREBRO
1. Es el órgano más complejo del mundo animal.
2. En los humanos pesa cerca de 1,3 kg.
3. Contiene aproximadamente 1 000 000 000 000 (1012) neuronas
4. Cada neurona se conecta aproximadamente, en promedio, con otras
10.000neuronas (104). Por lo tanto, tiene aproximadamente 1016 conexiones
sinápticas.
5. Consume muy poca energía.
6. Almacena a través de asociaciones (memoria se direcciona por contenido).
7. Trabaja en forma masivamente paralelo. Posee millones de redes neuronales.
8. Es flexible y plástico, lo cual le permite adaptarse y adaptar a los organismos
que lo poseen.
9. El cerebro es un sistema auto-organizado y no programado.
10. Se ocupa de controlar todo el organismo, en sus múltiples funciones.
11. Es robusto y tolerante a fallas.
EL PARADIGMA CONEXIONISTA
Este paradigma asume que el procesamiento y el almacenamiento de la información
recae en la compleja arquitectura de conexiones que forma las neuronas entre ellas
mismas y con otras células, y también decimos que las neuronas son simples unidadaes
de procesamiento y transmisión de señales.
NEURONAS
LA SINAPSIS
TREN DE ESPIGAS
APRENDIZAJE SUPERVISADO
Conexiones sinápticas:
Esto consiste en encontrar la matriz de conexiones que permitan que dicha red asigne
correctamente patrones de entrada con los de salida de la actividad que queremos que
realice. Si lo aprendido es supervisado, conoceremos de antemano un conjunto de
relaciones entrada-salida correctas etiquetadas con la letra µ. De ellas un subconjunto
será utilizado primero para entrenar a la red, o sea, buscar el conjunto de sinapsis {w0,
w1, …., wN} , y luego el resto se utilizará para evaluar su desempeño.
Si esta red funciona bien, entonces dará solución casi siempre las relaciones entrada-
salida el cual nunca ha sido presentada previamente.
Corregiremos todos las sinapsis de tal forma que que minimice el error, descendiendo
por el gradiente
EJEMPLOS
APRENDIZAJE PROFUNDO:
Se sabe que no se pueden entrenar bien las redes neuronales con mas de unas pocas
capas, por diferentes problemas técnicos (matemáticos).
Hoy en día podemos generar y entrenar ciertas estructuras de bastantes capas, muy
heterogéneas que pueden mezclarse técnicas de aprendizaje supervisado con técnicas de
aprendizaje no supervisado y esto nos lleva a resolver de forma muy eficiente casi todos
los problemas.