Está en la página 1de 9

TAREA EN CLASES

GRUPO: MARCELO VELASQUEZ ENRIQUEZ

EVER IMANOL ALAVI GALLARDO

ABIGAIL BELEN LOPEZ TARQUI

WEIMAR ADALID CONDORI

La primera línea de código nos indica los parámetros de penalización para la regulación, donde
el valor de C si es mayor, el modelo se ajusta al traning donde será una penalización y llegará a
un overfit

Para después se procede a importar los datos de las librerías de pandas, numpy y la extracción
para el aprendizaje del modelo de selección, como la escala para la importación del SVC

Luego se produce la creación para el modelo de aprendizaje, donde se importará la sección


Kfold, la sección, Cross_Val_Score, y GridSearchCV, los modelos de selección

Luego se procede a realizar la lectura del datashet, donde se hace un reconocimiento de 5 filas
y 785 columnas, en el datasheep se tiene 42000,785 datos, luego se hace un análisis de los
datos teniendo en el la información de columnas, pixeles, memoria en uso, tipo de datos
nombre entre otros.
Luego se procede a realizar la representación de los datos del DataSet, mediante la aplicación
de un subplot, en donde el eje x será el número de valores, y sera el numero de datos

Luego se procede a realizar un sintaxis para encontrar el dato específico del data frame
utilizando la indexación, en donde se realizará la lectura de la columna 11 y todos los datos
desde 1 hasta el final, luego se realiza un ploteo del digito mostrado.
Luego se procede a realizar un sintaxis para encontrar el dato específico del data frame
utilizando la indexación, en donde se realizará la lectura de la columna 11 y todos los datos
desde 1 hasta el final, luego se realiza un ploteo del digito mostrado.
de igual manera se realiza de distintas filas, donde los valores a tomar seran desde 1 hasta el
final de los datos.
En estas líneas de código se realiza lo que es el entrenamiento para el eje x y el target y,

donde se propicia un valor de 1 o de 0 dependiendo a qué eje se hará uso o llamado después.

se realizará un test randomico, entre los valores de : X_train, X_test, y_train,


y_test = train_test_split(X_scaled, y, train_size=0.2,test_size =
0.8, random_state = 101)

Luego se imprimirán el tamaño de estos, para luego realizar el análisis de tipo lineal, e
imprimiendo una matriz entre los valores predeterminados y los valores verdaderos.

Haciendo uso de este método de aprendizaje, se obtuvo un accuracy de 0.9131 que si bien
parece óptimo, visualmente el reconocimiento del mismo, el método no parece ser el más
adecuado.
Aquí se procedió a realizar el análisis por el método polinomial, mostrando los resultados a
través de este método de aprendizaje.

Como se observa en la gráfica, el accuracy es de 0,8823 que resulta en un desempeño menor al


esperado, descartando por el momento el método por polinomios.

Luego se procede a realizar el mismo procedimiento pero para un análisis de tipo radial.
Donde se observa un accuracy de 0.9477, que comparando resulta ser mejor al lineal y al
polinomial, debido a contar con un mayor accuracy no presenta mucha variación en el
proceso de aprendizaje.
Donde finalmente se realiza la iteración entre todos los datos, realizando un reshape,
etiquetando las predicciones, observando los resultados de predicción que visualmente es
notable un buen resultado.

Adicionalmente, se iba a utilizar una librería para hacer la descarga y el cargar los archivos
desde un dataset llamado digits, pero se obito por usar un dataset tipo csv

Por conclusión, para este tipo de dataseet comparando los métodos de unión de datos, la más
conveniente es usando el método radial, que cuenta con un accuracy de 94.77%.

También podría gustarte