Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fase 4 Covid
Fase 4 Covid
Fase 4 Covid
INTEGRANTES
Presentado a:
Ing. Javier Leonardo
dentro de este contexto, se destaca como una disciplina que permite a los sistemas
directa.
Este enfoque transformador aprovecha algoritmos avanzados que pueden analizar grandes
diversas industrias.
Objetivos
contextos.
Objetivos Específicos
proactiva.
Una vez vemos que el color manager esta corriendo de una manera correcta nos disponemos a
poner un partitioning para realizar la partición de la información del data set
Una vez ingresamos a la configuración podemos evidenciar que se ha cargado la información de
una manera correcta en la cual procesedemos a darle en un ok
Acá podemos evidenciar la partición numero 1 que nos nuestra los datos que nos han solicitado en
el cual podemos observar que los datos son los recomendados por el dataset
Acá podemos evidenciar el 30% faltante de la información que esta en la partición numero 2 y
podemos evidenciar que hace falta algunos valores los cuales nos salen sin identificación que nos
aparece de una forma como si estos valores estuvieran vacíos
Una vez ejecutada el partitioning procedemos a colocar un decisión tree learner con el cual vamos
a poder predecir los valores y las variables que nos han solicitado lo conectamos con los datos de
entrenamiento que están en la primera partición del partitioning
Acá dejamos los valores que nos da por defecto lo único que modificamos es el class colum por la
Acá evidenciamos el resto de la información que tiene el árbol de decisión ya que por al cantidad
de la información no lo permite desplegar completo toca uno por uno
Ahora colocamos un decisión tree predictor con el cual podemos predecir pero ahora realizamos la
conexión con el la información del decisión tree learner y con el 30% de la partición que es la
segunda parte de nuestra partición inicial
Entramos a la configuración y nos encontramos con los valores que por defecto nos ha dejado el
decisión tree predictor que es el máximo de información que el trabaja de es de 10.000 datos los
cuales nosotros modificamos y lo formazamos a que trabaje con mas del limite poniendo 95.040
registros los cuales no pone problema damos en el ok y cerramos ejecutamos y evidenciamos que
se ejecuta de la mejor manera posible
Acá evidenciamos el árbol de predisición como en el anterior nos nuestra la información y
podemos evidenciar que se ha ejecutado de la manera correcta indicándonos cuales son los
géneros contagiados el grado de cerevidad y si tuvo contacto o no tuvo contacto con una persona
contagiada de covid 19.
Acá podemos evidenciar la ejecución que nos muestra la columna de condense colum 3 y la
columna que ha predijo nuestro árbol de decisión
Finalmente colocamos un score para poder visualizar los datos y el acuracy de la predicción del
árbol de decisión lo conectamos con los datos del árbol el cual podemos evidenciar la información
de una manera mas rápida y efectiva para poder mirar si nuestro árbol de decisión es predecible o
no es predecible a lo cual tenemos que conectar y realizar la configuración adecuada.
Acá dejamos los valores de la condensed colum (#3) y vamos a realizar la predicision del modelo
con la condensed colum ( #3) con el cual podemos realizar la predicción y con ello poder ver
Diagrama k-nearest Neighbor
Dejamos los valores que trae por defecto obviamente podemos modificarlos pero dejamos estos
valores para evidenciar que tal trabaja y como nos representa cada uno de los valores damos en el
ok y salimos después realizamos la ejecución y evidenciamos que se ha ejecutado de la forma
correcta
Ahora colocamos colocamos un K Nearest Neighbor con el cual procedemos a conectar y nos dice
que el trabaja con los datos de entrenamiento los cuales son los datos de la primera partición
después conectamos los datos de la otra partición para poder realizar el K Nearest Neighbor una
vez ha sido conectado procedemos a entrar a la configuración configuramos el knn
Una vex colocamos la información procedemos a realizar la ejecución la cual dejamos por defecto y
procedemos a ejecutar el KNN damos ok y ejecutamos el nodo de knn
Ahora colocamos el Score para poder realizar y poder visualizar la información de una forma
correcta utilizamos el score en el cual podemos evidenciar la información solicitada en el score una
vez conectamos nuestro score nos dirigimos a la parte de configuración y con figuramos nuestro
score
Ahora damos en el ok y cerramos la pagina del score y abrimos en el open view para visualizar la
información solicitada de forma mas rápida para ver el acurracy y los márgenes de errores
Acá podemos evidenciar que los datos nos muestran un margen de error ya que es por el dataset
que se evidencia en este scorer podemos evidenciar que hay un error de 76,86% y un Accuracy
23,14% y una correcta clasificación del 21.992 esto se debe a quel data set presenta no esta de la
forma correcta para los datos ya que presenta varios datos nulos o vacíos
Acá podemos visualizar la ejecución y podemos visualizar la primera partición que se ha realizado
con los datos que tenemos del data set vemos que tiene 16 columnas y un total de 221760
registros los cuales son de los datos de entrenamiento de la primera partición
Acá podemos visualizar la segunda partición que hace referencia al 30% de los datos y me dice que
se tiene 16 colunmas y un total de 95040 registros de los datos y visualizamos que se ha creado la
columna de condesed colum 3
Ahora colocamos un Naive Bayes learner que nos va ayudar a predecir el modelo del Naive Bayer
conectamos el modo de Naive Bayes learner con los datos de entrameinto que nos representa la
primera partición
Una vez nos encontramos en el área de configuración dejamos los valores ya que se nos muestra la
columna clasificadora que es la condensed columna (#3) que es la columna con la cual vamos a
trabajar con el modelo de Naive Bayes Learner
Ahora colocamos el nodo de Naive Bayes Predictor que es el que nos va ayudar a predecir el
modelo del Naives Bayes realizamos la conexión con el naive bayes learner y con la segunda
partición que es el 30% de los datos que habíamos realizado de la partición y nos dirigimos a la
parte de la configuración
Una vez en el área de la configuración del Naive Bayes predictor seleccionamos la primera casilla y
dejamos la columna con la cual va realizar la predicción que es la (condensed Colum (#3)) es
nuestra columna con la cual podemos realizar la predicción damos en el ok y salimos de ese
recuadro
Acá podemos ver que se ha ejecutado de una manera efectiva con la cual podemos evidenciar que
se ha creado la columna de la predicción con esto nos damos cuenta que se ha realizado la
configuración correcta de una manera rápida y efectiva y que podemos evidenciar que se ha
manejado 95040 registros en 17 columnas
Ahora colocamos un Scorer con el cual podemos visualizar el acurracy y el margen de error que
puede tener nuestro modelo de Naive Bayes esto nos ayuda a poder verificar a cada una de las
área que se quiere proceder a demostrar en cada uno de los ejercicios pero primero nos toca
realizar la configuración del scorer para que nos tome los datos para poder visualizarlos de una
manera mas correcta y efectiva
Ahora damos en el botón de ok el cual nos ayuda salir del área de configuración y damos en la
parte de la ejecución y podemos visualizar la ejecución del programa el cual se va a facilitar la
visulizacion de los datos
Acá podemos evidenciar la confunsion de la Matrix la cual nos indica que la variable que habíamos
tomado desde el inicio que la de severidad y el numero de las columnas que son 4 columnas que
nos arroja el modelo de la confunsion de la matriz
Acá podemos eveidenciar los datos del Acurracy y las estadísticas las cuales nos representa un
porcentaje de error ya que como se evidencia falta de algunos valores que no están presentes en el
modelo.
Acá podemos evidenciar la calificación correcta que es de 23,147 y un accuracy de 24,355% con un
margen de error de 75,645 % que nos puede indicar el margen de error que puede tener nuestro
modelos al momento de ser predecible al momento de hacer una predicción de una persona
normal nos indica que no seria un modelo muy fiable con el cual podríamos tener algún
inconveniente de manera remota y consecutiva al momento detener que ponerlo en
funcionamiento
Conclusión de la actividad
Podemos concluir que nuestro modelo se trabajo con un dataset que no estaba adapatado para
este ejercicio ya que su información contenía algunos valores nulos los cuales eran de por si más
valores vacíos los cuales nos presentaron algún inconveniente con el árbol de decisión y con el
modelo de naive bayes y el modelo del KNN con los cuales nos arrojo unos márgenes de errores
muy altos y sobre todo muy poco confiables estos datos que nos fueron suministrados
Conclusiones
informadas.
real permite respuestas más rápidas a cambios en el entorno, lo que resulta fundamental en
transparencia, lo que dificulta comprender cómo y por qué se toman ciertas decisiones. La
interpretación de los resultados sigue siendo un área crítica que requiere atención para
precisión y confiabilidad de los modelos. La atención a la calidad de los datos sigue siendo
Referencias Bibliográficas
Taylor Smith. (2019). Supervised Machine Learning with Python : Develop Rich
Publishing.
https://bibliotecavirtual.unad.edu.co/login?url=https://search.ebscohost.com/
login.aspx?direct=true&db=nlebk&AN=2145644&lang=es&site=eds-
live&scope=site&ebv=EB&ppid=pp_5 Capítulo 1
net.bibliotecavirtual.unad.edu.co/es/ereader/unad/127592?page=407
net.bibliotecavirtual.unad.edu.co/es/ereader/unad/127436?page=128