Está en la página 1de 12

Aprendisaje supervisado :

El intput(x) representa alos descriptores del objeto

Output(y) representa la clase

Ajuste de una distribución de probabilidad, luego queremos encontrar la clase de mayor


probabilidad para un input dado.

*dentro del aprendizaje supervisado podemos aprender 2 tipos de función una función que
aprende un aoutput discreto, como es el meto de caso de clasificación, o también podemos ver un
output continuo como es el caso de las regresiones .

Ejemplos:
Con estos modelos podemos estudiar conceptos de sobreajuste y penalisacion.

Modelos incluidos en el curso

NAIVE BAYES: basado elne el teorema de bayes, ademostrado ser muy potente para algunas
tareas de clasificación .

ARBOLES DE DECISIÓN.

Son estructuras que nos permite separar una base de datos de acuerdos a reglas aprendidas ,
dejando objetos similares en las hojas .

Redes neunorales,: estos modelos que simplifica el funcionamiento de una red neunoral humana
a ocupado un rol protagonico en el aprendizaje de maquinas.

REGRESION LINEAL

Son una cklase de modelos altamente utilizados tanto en la practica como en disciplina
científicas,los models lineales utilizan una predicion utilizando una función lineal de los
descriptores.

*para partir presentamos una regresión lineal simple donde se tien un descriptor que es X1, una
variable dependiente Y. este modelo tien un error aleatoria anotado po E,el aprendizaje se realiza
en tre los paramentros que son O0, O1.lo que buscamoes es encontrar una estimación de O, O1.
*tres ejempolos de las rectas infinita que se puede generar
distinto valores para el intersecto para la pendien te.

¡que criterio aplicamos para selecionarla?

Para entender el ajuste de los parámetros (teta),


devemos definir unmedida de calidad del modelo para
cada punto de nuestra bas e de datos.// en este casa
definimoms la distancia de la predicion de un punto y
su valor real la línea (amarilla) representa el modelo o
las prediciones y los (puntos azules) representa el valor
real. Cada representación de parámetros generara una distancia diferente entre el momdelo y el
valor real.

ahora si consideramos solo la diferencia entre la


predicion y el valor real podríamos obtener
diferencias negativas y positivas, para evitar que esta
se contraresten consideramos el ERRO_CUADRATICO,
en particular nos interesa el valor cuadratico medio.

Lo que queremos hacer es encontrar el mínimo valor


de este. Atraves de la correcta selección de tetas de
losparametros, luego el probele se traduce e,
minimizar el error_cuadratico medio. Para obtener
el paramo de tetas enm un aregresioin lineal existe
una solución cerrada , significa que no necesitamos
un método de optimisasiojn iterativo.

Utilizando numpy optendremos la solución


cerrada de la regresión lineal,operaciones
matriciales para optener losparametros tetas,
esto considera operaciones de tipo transpuesta ,
inversión de matris, y producto punto

Prediciones con regresión lineal

Una vez que tenemos los parámetros del


modelo estimado la predicion es trivial.
*en las primeras 3 lineas de código mostramos la predicion de 2 datos (0/3) variables
independientes.
*luego en la línea de código 2 concatenamos la columna de 1 ala matriz.
*finalmente hacemos el producto punto dela matriz con los parámetros teta.

Al aplicar un modelo de regresión lineal se


debe tener en cuaenta algunos supuestos
importantes
*relación lineal: entre las variables
dependiente e independientes(las variables
independiente no puede exp´licar lo mismo ),es
decir no debe esxixtir multilinealidad.
Respeto a los errores se asume además que los errores distribuyen normal y que no
existe variabilidad en los errores para os diferentes valores de las variables
independiente.

REGRESION POLINOMINAL

Estraemos mas información desde el descriptor modificándolo polinominalmente,


*el desafio es encontrar todos los parámetros desde teta 0, hasta teta_sus_p, notar que el
modelo matemático no varia respecto de una regresión con multiples descriptores por lo
tanto la solución de este problema se puede obtener de la forma cerrada que ustedes ya
conocen.

Aquí podemos observar un ej. Donde se


ve diferentes regresiones polinolinales
se obtines diferentes modelo de ajustes
del modelo de los datos, podemos
observar que a medida que aumentas
los graficos del polinmomio el modelo
naturalmente se ajustara los datos de
una forma mas complejas

Regresion con penalización

Se compone de una variable independiente y variable dependiente, luego sobre estos


conjuntos de datos yo podría aplicar multiples regresiones por ejemplo poliminal.
Atraves de esta imagen
podemos estudiar 2 conceptos
fundamentales respecto a la
selección de modelos de
aprendisajes de maquinas
(sesgo / varianza). Observamos 4
variables de extrremos /
asumimos que los puntos rojos y
azules representan el error de
predicion, podemos afirmar lo
siguiente . el caso ideal no s
encontramos en el bajo sesgo y
baja varianza es decir los puntos
azules están alejado en la
circunferencia roja y además están todos cercanos entre ellos.

Luego de entender el concepto de


sesgo y varianza en los modelos . atraves
de esta grafica podemos entender que
ocurre con el sesgo y la varianza amedida
que aumenta la complejidad de nuestros modelos como podemos ver hay modelos que
tien baja complejidad tienden a tener un alto sesgo pero una baja varianza y a medida
que no sotros vamos aumentando la complejidad de los modelos tendemos a reducir el
sesgo y aumentar la varianza . el desafio consiste encontrar el punto donde obtendremos
la complejidad optima

Si dos modelos tiene el


mosmo error de predicion
entre ambos , debiese
seleccionar el que tenga
menor complejidad.
Limitan los valores posibles que deben tomar los parámetros de las regresiones , bajo el
supuesto de acotar esos valores se reduce la flexibilidad y la complejidad de los modelos.
Regresiones /L1-L2) se diferensian en la estrategia que se utiliza para acotar los valores
posibles de los parámetros. La regresión LASSO acota los valores posibles atraves de la
sumatoria de los valores absolutos y regresión RIDGE atraves de la suma de peso al
cuadrado.

Visualmente la forma que cada unas de esta regresiones a cota o intenta acotar los
valore posibles de los pesos s epuede visulizar en essa 2 img.

-visualmente la regresión lasso intenta acotar el espacio para los valores posibles
paralos tetta atraves de ese rombo.
En cambio la regresión ridge lo intenta acotar con la circunferencia del lado derecho.
La forma de acotamiento de los teta tiene importante implicancia en la solución de ambas
refresiones.

Regresiones con penalización agregan una componente vinculada con los espacios
factibles,es decir la regresión lasso analizara la suma de los valores absolutos de los
parámetros, regresión ridge penalizara la suma de los valores al cuadrado de
losparametros de la regresión,/ es importante destacar que la penalización se acompaña
de un parámetro definido aca definido por landa que regula la importancia que se da ala
penalización a relación al error cuadratico medio.evidentemente con un landa = a 0
volvemos ala regresión original sin penalizaiocn y a medida que vamos aumentando el
valor de landa el modelo se ira juntando con parámetros mas pequeños cada vez quitando
protagonismo al erro rcuadratico medio.

REGRESION LOGISTICA
Separación deobjetos se llama multiples clases
Estos 3 ejemplos presenta clasificación binarias.
ESQUEMA TIPICO DE CLASIFICACION BINARIAS
Se utiliza una función que nos permite acotar el aup a valores entre 0-1,en particular
utilizamos seinbailer para dicha tarea.

Formula: depende solo de los descriptores X y de los parámetros teta, estos últimos
nosotros intentamos aprender.
para encontrar los peso en una regresión
logística un primer paso considera
representar la probabilida de cada dato
de pertenecer ala clase de interés, esto lo
podemos hacer atraves de la la
distribucio de beliggi , dicha distribución
nos permite modelar la probalidad e
éxito o fracaso de un evento.

Corresponde al producto de la
sprobanilidades de todos los datos
de nuestra muestra.

También podría gustarte