Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Buen día a todos los presentes, como mencionó el ingeniero “JURADO”, el día de hoy vamos a
sustentar nuestro trabajo de grado titulado DISEÑO DE UN ALGORITMO DE
POSICIONAMIENTO PARA INTERIORES BASADO EN MACHINE LEARNING, a cargo de
Cristhian Pacichana y mi persona Darwin Mejía, bajo la dirección de la magister Claudia Milena
Hernández.
2. La Agenda que seguiremos para nuestra sustentación, consta de 5 puntos, como primer punto
se presenta una introducción donde se expone el problema y se plantea la pregunta de
investigación, en segundo lugar, se da a conocer el objetivo general del trabajo de grado. En el
tercer punto se presenta un marco teórico sobre los conceptos utilizados en este trabajo, como
cuarto punto se muestra la metodología de desarrollo implementada, y su posterior desarrollo,
por último se presentan las conclusiones y trabajos futuros.
3. Conocer la posición de una persona o dispositivo, ha sido una necesidad fundamental desde la
antigüedad; llevando a la humanidad a desarrollar diferentes sistemas que permitan obtener
una aproximación en tiempo real de su posición geográfica. actualmente existen varios
sistemas en operación, el más conocido se encuentra a cargo de los Estados Unidos
denominado Sistema de Posicionamiento Global GPS, además existe el Sistema Global de
Navegación por Satélite GLONASS a cargo de la federación rusa y un tercer sistema
denominado GALILEO, desarrollado por la Unión Europea. Los sistemas de posicionamiento
global usan satélites artificiales distribuidos de forma estratégica alrededor de la tierra para
determinar una posición, estos sistemas necesitan de Línea de Vista entre el dispositivo en
tierra y el satélite. Cuando el dispositivo está dentro de una estructura se dificulta obtener su
posición, por lo cual, surge la necesidad de implementar Sistemas de Posicionamiento en
Interiores IPS.
5. Es por esto que surge nuestra pregunta de investigación, ¿El uso de algoritmos de Machine
Learning para posicionamiento en interiores puede mejorar el desempeño de estos sistemas?,
para responder esta pregunta hemos planteado el siguiente objetivo general.
8. Dentro del posicionamiento en interiores existen diferentes parámetros, los más relevantes
debido a su adaptación a diferentes tecnologías son: El Indicador de potencia de señal recibida
RSSI, este parámetro se mide en el nivel de potencia de señal, para obtener una aproximación
de la distancia entre los puntos de acceso y el dispositivo móvil. El valor de RSSI depende de la
atenuación sufrida por la señal al propagarse en el medio, además, puede sufrir múltiples
interferencias al interactuar con objetos o personas.
El ángulo de llegada AOA permite estimar la ubicación de un dispositivo, por medio del ángulo
de llegada de la señal propagada por los puntos de acceso, La estimación de los ángulos se
obtiene con antenas directivas, además, AOA es muy susceptible a obstáculos generando una
mala angulación, lo que disminuye considerablemente su desempeño.
En los parámetros tiempo de llegada TOA y diferencia de tiempo de llegada TDOA, la distancia
entre los terminales fijos y el dispositivo móvil se calcula a partir del tiempo que tardan en llegar
las señales, en TOA se requiere sincronización entre los dispositivos fijos y móviles, en cambio
en TDOA no es necesario, si se cuenta con un solo dispositivo móvil.
por último el parámetro de información del estado del estado del canal CSI, este usa OFDM,
para proporcionar información de amplitud y fase de un número determinado de subportadoras
de la señal emitida, este parámetro ofrece información detallada de la señal de RF en un
entorno, lo cual aumenta las características para realizar el cálculo de la posición.
Para estimar la posición de un dispositivo móvil, cada parámetro se asocia con una técnica de
posicionamiento.
9. Las técnicas más relevantes dentro del posicionamiento en interiores son triangulación,
Trilateracion y fingerprinting.
La primera, calcula la posición de un dispositivo móvil a partir del ángulo de llegada de las
señales inalámbricas, Para determinar el ángulo del nodo objetivo se requiere de antenas
emisoras direccionales en los diferentes puntos de acceso, de los cuales se conocen sus
respectivas coordenadas, esta técnica es sencilla y eficiente ya que no requiere de
sincronización para su implementación, sin embargo, necesita de hardware adicional como
antenas direccionales.
En Trilateración se miden las distancias entre varios puntos de acceso fijos y el dispositivo
móvil, estas distancias proporcionan información que con la ayuda de cálculos geométricos dan
como resultado una poción , esta técnica asocia los parámetros RSSI, TOA y TDOA
Por último la técnica Fingerprinting, esta se basa en dividir el entorno en diferentes segmentos
o puntos de referencia, en cada uno se realiza un número determinado de mediciones con un
dispositivo móvil y diferentes puntos de acceso, lo cual se conoce como Mapa Radio.
Posteriormente se construye una Base de datos con la información recopilada de cada Mapa
radio. El posicionamiento de un dispositivo móvil se realiza usando un algoritmo de
posicionamiento el cual se encarga de comparar las medidas de la señal en tiempo real con las
medidas del Mapa radio previamente guardadas en la Base de datos.
10. El Machine Learning o aprendizaje automático se define como la “rama del campo de la
Inteligencia Artificial, que busca dotar a las máquinas de capacidad de aprendizaje”, Machine
learning se considera una subdisciplina dentro del campo de la inteligencia artificial,
destacándose por ser un componente central en relación con el resto de categorías. Sistemas
que implementan Machine Learning necesitan de una gran cantidad de información por ello es
necesario realizar una adquisición de datos, estos serán tratados y parametrizados para que un
algoritmo sea capaz de detectar automáticamente patrones, con el fin, de generar un modelo
capaz de predecir un resultado a partir de nuevos registros de entrada. El objetivo de machine
Learning en el posicionamiento es entrenar un algoritmo determinado a partir de un conjunto de
datos previamente establecido, para construir un modelo, capaz de predecir la posición de un
nuevo registro de entrada, estos se caracterizan por ser algoritmos de aprendizaje supervisado
11. Para el desarrollo del Trabajo de Grado se optó por utilizar la metodología ágil de
Programación Extrema (XP), esta es utilizada para el desarrollo y gestión de proyectos
basados en software, se basa en principios básicos como la capacidad de adaptación a
cambios, y la retroalimentación, consta de un conjunto de reglas y prácticas basadas en 4 fases
o actividades: planeación, diseño, desarrollo y pruebas. En cada fase se planearon diferentes
tareas con el fin de cumplir con el objetivo del trabajo de grado. En la fase de planeación se
proponen los requerimientos funcionales y no funcionales del sistema. En diseño se realiza el
análisis y selección de parámetro, técnica y base de datos, además se plantean los diagramas
de diseño para los algoritmos de Machine Learning. Las fases de desarrollo y pruebas se
realizan en conjunto para poder tener una retroalimentación constante, en estas fases se
implementan y entrenan los algoritmos propuestos además se realiza la validación de los
modelos de predicción evaluando sus resultados.
13. …Donde inicialmente se propone el diseño general de un IPS, este se compone de:
Puntos de acceso inalámbrico WAP, los cuales son terminales fijos encargados de emitir señal
RF, dentro del entorno, con el uso de tecnologías inalámbricas como WIFI, Bluetooth o Zigbee.
El dispositivo móvil que se encarga de extraer mediciones de la señal RF proveniente de los
WAP, mediante un parámetro de posicionamiento. Por último un servidor encargado de recibir
la información del parámetro proveniente del dispositivo móvil, dentro del servidor un estimador
de posición se encarga del procesamiento de la información, y usando una técnica de
posicionamiento es capaz de estimar la posición del dispositivo móvil. La información
suministrada por la señal inalámbrica debe ser clasificada por algún tipo de medida dentro del
dispositivo móvil, por lo tanto, es necesario seleccionar el parámetro y técnica que más se
adapte a las condiciones del entorno.
14. Para seleccionar el parámetro y técnica, se evalúa de acuerdo a las características planteadas
en la tabla, la primera característica es línea de vista donde se tiene en cuenta si es necesario
que los puntos de acceso tengan linea de vista directa con los dispositivos móviles, para los
parámetros RSSI y CSI no es necesario Línea de vista ya que la señal apresar de sufrir
distorsión por obstáculos e interferencia llega al dispositivo móvil, la segunda característica es
sincronización, ésta se aplica en TOA y TDOA, donde es necesario dispositivos que midan el
tiempo de llegada de las señales, El costo de implementación de cada parámetro se mide en
cuanto a hardware necesario, en AOA se usan antenas direccionales en cada punto de acceso
para una correcta angulación, en TOA y TDOA se necesita de dispositivos especializados para
la sincronización, RSSI tiene un costo medio puesto que necesita nada más de los puntos de
acceso y los dispositivos móviles, CSI tiene un costo alto debido a que necesita de un
dispositivo que permita obtener la información de amplitud y fase de cada soportadora de la
señal. Estos parámetros por lo general se obtienen mediante señales de Radio frecuencia, y la
tecnología más usada es WIFI ya que está presente en la mayoría de entornos además se
adapta fácilmente a sistemas de posicionamiento en interiores.
Por último tenemos la técnica asociada a cada parámetro, triangulación se asocia únicamente
con AOA, Trilateración usa los parámetros TOA, TDOA y RSSI, por último está la técnica
Fingerprinting la cual se asocia con los parámetros RSSI y CSI, esta técnica no necesita de
cálculos matemáticos complejos además es la más usada en sistemas de posicionamiento
basados en ML. Tomando en cuenta las características de cada parámetro, se eligió trabajar
con el parámetro RSSI y la técnica Fingerprinting.
18. Una vez planteadas las bases de datos…… Se realiza el análisis y selección del algoritmo de
ML.
22. Las Redes Neuronales Artificiales son modelos computacionales, que buscan imitar la
estructura y funcionamiento del cerebro humano en particular del sistema nervioso, estas se
basan en la interacción y trabajo en conjunto de múltiples neuronas. En cada neurona, la
información o variables de entrada están definidas por x y a cada variable de entrada se asigna
un peso w, además, se cuenta con un término independiente denominado sesgo. La ecuación
representa el comportamiento interno de una neurona, esto se interpreta como un modelo de
regresión lineal, donde unas variables de entrada definen un hiperplano, al cual se le puede
cambiar la inclinación y elevación variando los parámetros w y b, además se le agregan
deformaciones no lineales mediante una función de activación.
23. Después de conocer el funcionamiento de una neurona, es posible comprender cómo se forma
una red neuronal, en la imagen se representa la estructura de una Red Neuronal Secuencial
Densa DSNN utilizada ampliamente como base en la construcción de algoritmos de redes
neuronales. Las neuronas se agrupan en columnas llamadas capas, las cuales se ordenan de
forma secuencial, donde las neuronas que se encuentran en la capa N reciben la misma
información de la capa N-1 y sus resultados pasan a las neuronas de la capa N+1; la primera
capa es la capa de entrada y su función es recibir los registros, la última capa se conoce como
capa de salida encargada de entregar el resultado de predicción, a las capas intermedias se les
denomina capas ocultas. La función de activación se considera como un hiperparámetro y se
aplica a la estructura de cada neurona, esto permite encadenar de forma efectiva la
computación de varias neuronas para modelar información más compleja; sin el uso de las
funciones de activación toda la estructura de una red colapsa hasta ser equivalente a una sola
neurona. Se puede elegir diferentes funciones según el tipo de entorno. La función lineal RELU
activa la neurona si el valor de entrada está por encima de 0 y aumenta de forma lineal con el
valor de entrada.La función sigmoide se utiliza para obtener una probabilidad como resultado
en la salida de la red neuronal; transforma valores en el rango de menos infinito a infinito en
valores en el rango de 0 a 1 . La función Softmax convierte un vector de números en un vector
de probabilidades,donde las probabilidades de cada valor son proporcionales a lsu escala
relativa en el vector, el uso más común de esta función es en redes de clasificación,
principalmente en la capa de salida donde se obtiene un vector con las probabilidades de cada
clase.
En la etapa de entrenamiento de las redes neuronales es necesario definir una función de
coste, encargada de mostrar el error del modelo, esta función también se considera como un
hiperparámetro. En el trabajo de grado se optó por utilizar, en casos de clasificación la entropía
cruzada, la cual compara el vector de probabilidades predicho con el vector de probabilidades
esperado, aplicando la fórmula de entropía cruzada, y para problemas de regresión el error
cuadrático medio el cual mide la diferencia cuadrática promedio entre los valores estimados y el
valor real.
24. Con la función de coste es posible conocer cómo varía el error ante un cambio de los
parámetros w y b después del Forward Propagation, mediante el cálculo de las derivadas
parciales del error con respecto a cada uno de los parámetros, el resultado del cálculo de las
derivadas parciales sé conoce como vector gradiente, el cual indica hacia qué dirección se
debe modificar el valor de los parámetros internos para minimizar el error, además de esto se
define en cuanto modificar estos valores, esté Hiperparámetro es conocido como Tasa de
Aprendizaje o Learning Rate. El cálculo del vector gradiente es una tarea de gran dificultad,
debido a esto se utiliza el algoritmo de backpropagation, con el cual se calcula el vector
gradiente desde la capa de salida hasta la capa de entrada, realizando una retropropagación
de errores, al obtener el vector gradiente, es posible modificar los parámetros de cada una de
las neuronas, para realizar este cambio se define un nuevo Hiperparámetro conocido como
optimizador, este método usa la información del vector gradiente y el Learning Rate para definir
cómo modificar los parámetros, para datos de gran dimensión se recomienda utilizar el
optimizador Adam o RMSProp, con valores de Learning Rate menores a 0.1.
25. Otros Hiperparámetros de redes neuronales que se tiene en cuenta en el desarrollo del trabajo
de grado son la arquitectura de red y el número de épocas de entrenamiento.
En la arquitectura de red se define el número de capas ocultas y su número de neuronas, para
encontrar estos valores no se ha planteado un procedimiento estándar. En el caso de
implementar más de una capa oculta, existen algunas reglas empíricas para establecer un
punto de partida en la construcción de la topología, entre ellas la más utilizada es la regla de la
pirámide geométrica. Esta regla calcula el número de neuronas basada en la suposición de que
la cantidad de neuronas en la capa anterior es superior a la cantidad de neuronas de la capa
siguiente. En esta regla se tiene dos formulas una se aplica a redes de una sola capa oculta, y
la otra a redes de dos capas ocultas. El número de épocas, son iteraciones sucesivas de
entrenamiento, de los datos que pasan la red como estrada, se define desde 100 hasta 1 000.
Un concepto dentro de las Redes neuronales de bastante interés en la actualidad, es el uso de
capas convoluciones para mejorar el desempeño de los IPS,
26. Este enfoque se define como Redes Neuronales Convolucionales, se usa en el análisis de
imágenes, consiste en múltiples capas de filtros convolucionales de tamaño m x m, con una
función de mapeo no lineal n x n al final de cada capa y unas capas de neuronas simples en la
salida de la red, Las capas de convolución se encargan de extraer características de las
imágenes y las capas de neuronas analizan estas características para obtener una predicción.
En el trabajo de grado se trabajan este tipo de redes con la ayuda del método Deepinsigth el
cual convierte un vector de características en una imagen.Una vez se eligen los algoritmos que
serán adaptados para el posicionamiento en interiores se propone….
28. El primer algoritmo propuesto es un algoritmo con KNN, se presenta el diagrama de flujo de su
funcionamiento, en el cual de la base de datos se usan los datos de entrenamiento y validación
para calcular la distancia euclidiana entre estos, y determinar los K vecinos más cercanos,
luego por el criterio de decisión se determina la posición de los registros de validación y se
comparan con los valores reales, si el error es elevado se ajusta el parámetro K y el criterio de
decisión, y se calcula nuevamente la distancia euclidiana, este proceso se realiza múltiples
veces hasta que el error sea mínimo según la métrica de desempeño escogida, luego se
obtiene el modelo de predicción que puede ser usado con datos desconocidos.
29. Se propone un segundo algoritmo con redes neuronales en este algoritmo es esencial el uso de
una base de datos con suficientes registros de entrenamiento y validación, para obtener un
modelo con un buen desempeño, posteriormente se definen los hiperparámetros iniciales para
ejecutar el modelo, e inicia el periodo de entrenamiento donde se realiza el ajuste de
parámetros, con ayuda de la función de coste , este proceso se realiza durante un periodo de
tiempo definido por el número de épocas de entrenamiento. Cuando finaliza el entrenamiento
se realiza la etapa de validación, donde se ejecuta el modelo con los registros de validación y
se comparan los valores de las etiquetas reales con los valores predichos, si el error del
modelo no es el esperado se reajustan los hiperparámetros y se entrena nuevamente el
modelo, si el error se considera aceptable se obtiene un modelo de predicción capaz de
predecir datos desconocidos. Dentro del campo de las redes neuronales se proponen 2
enfoques para la predicción de posición del dispositivo móvil, el primer enfoque utiliza un
modelo secuencial denso y el segundo un modelo convolucional, en ambos casos se utiliza el
diagrama de flujo propuesto.
30. Una vez finalizada la etapa de diseño se pueden dar por cumplidos los dos primeros objetivos
específicos que son:Identificar los principales algoritmos de Machine learning que pueden ser
aplicados al posicionamiento en interiores, y proponer un algoritmo de posicionamiento basado
en Machine learning.
34. La segunda métrica es la precisión, esta representa la dispersión del error de distancia y se
calcula mediante la desviación estándar, de la distribución que más se ajuste a los valores de
error de distancia de los registros de validación, El ajuste de una distribución a un conjunto de
datos consiste en encontrar los valores de los parámetros, con los que dicha distribución puede
generar los datos bajo análisis. Existen varios métodos para determinar estos parámetros, en el
trabajo de grado se aplica el método de Estimación de Máxima Verosimilitud MLE; el proceso
de comparar diferentes distribuciones se realiza mediante el Criterio de Información de Akaike
AIC, este utiliza el valor de verosimilitud y el número de parámetros de cada distribución,
obtenidos mediante MLE. Se selecciona la distribución con el menor valor de AIC, de la cual se
calcula la desviación estándar usando los valores de sus propios parámetros, cabe mencionar
que el error de distancia no toma valores negativos, por lo cual se tienen en cuenta sólo
distribuciones de dominio positivo. La exactitud y precisión se evalúan sólo en la predicción de
coordenadas.
35. La tasa de aciertos se aplica en la predicción de edificio y piso, y define la relación entre el
número de registros clasificados correctamente y el número total de registros de validación. Por
último se evalúa el tiempo de procesamiento de los modelos de predicción de cada algoritmo,
midiendo el tiempo que tardó entrenar, y el tiempo que tarda en predecir todos los registros de
validación. Teniendo en cuenta las métricas de evaluación se presentan las configuración de
hiperrametros y los resultados con mejor desempeño de los modelos de predicción de cada
algoritmo de posicionamiento.
36. Para el Algoritmo basado en KNN, en la predicción de edificio o piso en la base de datos UJI,
se inicia con un valor de K impar mayor al número de clases, y se incrementa 3 veces de forma
secuencial. En el caso de la predicción de coordenadas se establece un valor inicial de K igual
a 1 y se incrementa paulatinamente, ya que al ser un problema de regresión no existe un
número de clases definidas, El criterio de decisión del algoritmo KNN depende del problema
bajo análisis, en casos de clasificación como predicción de edificio o piso, se escoge el criterio
por votación, y en casos de regresión para predecir las coordenadas se elige el criterio de
distancia media.
37. Las tablas muestran los resultados de exactitud y precisión para diferentes valores de K del
algoritmo de posicionamiento basado en KNN en la predicción de coordenadas, además se
presenta el nombre de la distribución que más se ajustó a los datos de error de distancia. Para
elegir el K con mejor desempeño se analiza la exactitud y precisión en conjunto, en caso de la
base de datos UJI se establece a K=1 como el modelo adecuado en la predicción de
Coordenadas, puesto que la precisión es inferior a 10 m y en cuanto a exactitud aumenta en
0.73 m con respecto al mejor valor que es K = 5. Para la segunda base de datos la exactitud y
precisión mejoran hasta K=15 con un valor de 1.47 y 0.75 m respectivamente, la
exactitud está por debajo a 1 m, esto indica que tiene una baja dispersión en el error de
distancia y un modelo mucho más confiable.
38. Para el algoritmo DSNN Se definen 6 hiperparámetros, de los cuales 2 tienen un valor fijo. La
función de activación se definen para cada capa, las capas ocultas usan la función Relu, por su
capacidad de procesamiento y adaptación a diferentes tipos de registros y problemas, la capa
de salida usa una función de activación que depende del tipo de problema a solucionar, en
casos de clasificación como la predicción de edificio o piso se usa la función Softmax, y para
los problemas de regresión como predecir coordenadas la función Sigmoid. La función de
coste, se ajusta al número de clases y problema de predicción, la entropía cruzada es una
función utilizada para reflejar la precisión de pronósticos probabilísticos y es ampliamente
usada en problemas de clasificación con un número de clases pequeño, por lo cual se usa en
la predicción de edificio y piso, el error cuadrático medio es una función de coste bastante
usada en problemas de regresión, por su versatilidad y gran desempeño con datos poco
ruidosos, debido a estas características es elegida como función de coste para la predicción de
coordenadas de ubicación.
39. Para elegir un modelo de predicción, primero se deben evaluar diferentes valores de sus
hiperparámetros, en el algoritmo de DSNN se eligen 4. Se definen valores iniciales para cada
hiperparámetro, en el caso de la arquitectura de red se usa la regla de la pirámide geométrica
para definir el número de neuronas en la capa oculta; el optimizador y LR se definen en
conjunto iniciando con el método Adam y el valor de LR de 0.01, estos valores son
configurados inicialmente por las librerías de Python, el número de épocas se define en 300
debido al alto número de registros de la base de datos y a la capacidad de procesamiento del
sistema.Las pruebas y resultados se obtienen ajustando el valor de cada hiperparámetro. La
arquitectura de red se ajusta añadiendo capas ocultas y aumentando el número de neuronas,
luego se cambia el tipo de optimizador y se cambia el valor de LR, los optimizadores utilizados
son Adam y RMSprop, debido a su buen desempeño para IPS, el valor del LR se disminuye
paulatinamente para cada optimizador, por último, se aumenta el número de épocas en la
predicción de coordenadas. En el caso de la predicción de edificio, no se realizan ajustes ya
que los resultados con la configuración inicial fueron los esperados.
40. Estas tablas presentan los resultados de exactitud y precisión junto con el nombre de la
distribucion que mas se ajustó a los datos de error de distancia, de las diferentes
configuraciones de optimizador y learning rate usadas en el entrenamiento del algoritmo de
posicionamiento basado en Redes neuronales secuenciales densas. con la base de datos UJI
Los mejores resultados de exactitud y precisión se obtienen en la primera configuración y en
RMSprop con LR de 0.0005; la exactitud de Adam es de 10.70 m mejorando en 0.35 m con
respecto a RMSprop, no obstante, la precisión en RMSprop es la mejor con un valor de 8.57 m,
disminuyendo en 0.23 m en comparación al resultado de Adam con LR de 0.01. Por lo tanto, se
define a RMSprop como optimizador con un LR de 0.0005, esto se debe a que presenta una
mejor relación entre los resultados de exactitud y precisión . En cuanto a RSSI Dataset se
considera la mejor configuración RMSprop con LR de 0.01, dado que tiene los mejores
resultados de precisión y exactitud .
43. En la predicción de piso los algoritmos A-KNN y A-DSNN, presentan un desempeño favorable
con los valores de hiperparámetros de la primera tabla.
De los 1100 registros de validación, A-KNN predijo correctamente el 89% y A-DSNN predijo
correctamente el 98.63%, superando al modelo A-KNN en más de un 9%, lo cual implica que A-
DSNN brinda un mejor desempeño en la tasa de aciertos. Se evidencia de forma notoria el
desempeño superior de A-DSNN en comparación de A-KNN, ya que la tasa de aciertos es
mayor, esto se debe a la capacidad de aprendizaje de A-DSSN, obteniendo un mejor
desempeño al momento de predecir el piso en el cual se encuentra un dispositivo móvil.
El tiempo de validación de A-DSNN es menor a un 1 s, es decir, el modelo es capaz de
predecir el piso en el que se encuentra un dispositivo móvil en tiempo real. El algoritmo de A-
DSNN es bastante eficiente en métodos de clasificación, debido a la cantidad elevada de
registros de la base de datos UJI para cada etiqueta; DSNN puede ser implementado en
entornos cerrados con condiciones reales y múltiples interferencias, obteniendo buenos
resultados en la tasa de aciertos.
45. Para analizar de forma detallada la precisión y exactitud, se presentan las gráficas del
histograma del error de distancia con la distribución que más se ajustó a los datos de los
algoritmos de posicionamiento A-DSNN y A-CNN ya que presentan los valores de exactitud
más bajos. De Acuerdo con los valores de AIC la distribución lognormal, es la que más se
adapta los datos de error de distancia, para los dos algoritmos, En A-CNN se observa que el
error de distancia presenta una mayor densidad de probabilidad en los rangos cercanos a 0 a
diferencia de A-DSNN lo cual implica una mayor exactitud, sin embargo la precisión de A-CNN
es mayor a la de A-DSNN, esto se debe a que, los valores de error de distancia se encuentran
más dispersos; las gráficas muestran que el error de distancia toma valores desde 0 hasta 40
metros con los dos algoritmos, esto implica que si la densidad de probabilidad se concentra en
el extremo 0 la precisión aumenta, esto evidencia que la exactitud y la precisión no siempre
tiene una relación directamente proporcional. Para seleccionar el modelo de predicción
adecuado se analiza las métricas de desempeño, enfocándose principalmente en obtener
modelos con una alta precisión, por lo tanto, se elige a modelo del algoritmo de
posicionamiento basado en DSNN como modelo de predicción para la base de datos UJI,
puesto que presenta la mejor precisión, con un valor de exactitud aceptable. A Continuación se
presentan los resultados de los algoritmos con la base de datos RSSI Dataset.
46. En la primera Tabla se presentan las configuraciones de parámetros con las se obtuvieron los
mejores resultados en las métricas de desempeño.
El modelo A-DSNN alcanza un valor de exactitud de 1.25 m, mostrando resultados superiores
en comparación a A-KNN y a-CNN, cabe destacar que el margen de error de exactitud no
supera los 3 m, puesto que los registros de entrenamiento y validación son tomados en un
escenario controlado y diseñado específicamente para IPS. Los valores de exactitud de los
algoritmos para RSSI Dataset toman valores menores a 3 m, siendo mejores a comparación de
UJI, estos resultados aún no se consideran buenos en IPS actuales, sin embargo, los trabajos
relacionados con esta base de datos presentan una exactitud entre 1,5 y 3.8 m, teniendo en
cuenta lo anterior se consideran los resultados de los algoritmos como aceptables.
El tiempo de validación no supera 1 s en ninguno de los modelos de predicción, es decir, son
capaces de realizar predicciones en tiempo real, cumpliendo el requerimiento del trabajo de
grado
Los resultados de precisión de los algoritmos muestran mejores valores con A-DSNN,
superando a A-KNN en 0.22 m y a A-CNN en 0.86 m. para realizar un análisis más detallado se
presentan…
47. Los histogramas del error de distancia y la distribución que más se ajusta a estos datos, para
los Algoritmos de posicionamiento basados en KNN y DSNN, ya que son lo que presentan
menor exactitud.
El algoritmo de posicionamiento basado en DSNN obtuvo los mejores resultados tanto en
exactitud como en precisión si se observa el histograma de este algoritmo, se evidencia que
error de distancia presenta una menor dispersión a comparación del algoritmo De
posicionamiento basado en KNN, además la densidad de probabilidad se concentra más cerca
a 0. Se elige el modelo del algoritmo de posicionamiento basado en DSNN como modelo de
predicción para la base de datos RSSI Dataset, considerando su buen desempeño en las
métricas de exactitud y precisión.
De acuerdo al análisis de resultados en las métricas de desempeño, los modelos de predicción
de los algoritmos de posicionamiento propuestos se comportan diferente para cada Base de
datos, puesto que los algoritmos de ML crean sus modelos de predicción según el tipo de
información. Los entornos de las bases de datos seleccionadas difieren en muchos aspectos,
otorgando a RSSI Dataset características que ayudan a reducir el error de predicción. Si se
analizan los resultados para las 2 bases de datos la exactitud y precisión en RSSI dataset es
mejor a comparación de UJI, en todos los algoritmos. En consecuencia, es válido proponer un
modelo de predicción para cada base de datos, que se ajuste a sus características y cumpla
con los requerimientos planteados en el trabajo de grado.
48. Para La base de datos UJI se Propone un modelo final que incorpora tres modelos de
predicción de algoritmos de posicionamiento basados en DSNN, los dos primeros se encargan
de predecir el edificio y piso en el que se encuentra un dispositivo móvil y el tercer modelo
estima las coordenadas de este dispositivo. La posición estimada que se entrega nuevamente
al dispositivo móvil otorgara información de estas tres etiquetas, el procesamiento se realiza en
paralelo por que cada modelo de predicción necesita la información de todos los puntos de
acceso.
49. En La Base de datos RSSI dataset, se propone el modelo de predicción del algoritmo de
posicionamiento basado en DSNN, la posición estimada cuenta con la información de las
coordenadas predichas ya que no se cuenta con etiquetas adicionales.
50. En diversas investigaciones sobre IPS, donde se usan algoritmos de ML, se plantea
únicamente la exactitud como métrica de desempeño, sin evaluar la precisión, la cual es
considerada un indicador clave para medir la calidad y confiabilidad en modelos de predicción,
dejando muchas dudas sobre el funcionamiento de los IPS. El trabajo de grado propone la
precisión como métrica principal de desempeño, evaluando su comportamiento mediante la
implementación de algoritmos de ML, además, se usa KNN como punto de comparación para
evaluar si el uso de algoritmos de ML más complejos como DSNN y CNN mejoran el
desempeño del IPS. Los resultados muestran una mejor precisión cuando se usan algoritmos
de ML de mayor complejidad, no obstante, el desempeño de los modelos de predicción
depende de las características de la base de datos, ya que si estas no son suficientemente
robustas el algoritmo no es capaz de predecir de forma adecuada la posición de un dispositivo
móvil.