Está en la página 1de 13

1.

Buen día a todos los presentes, como mencionó el ingeniero “JURADO”, el día de hoy vamos a
sustentar nuestro trabajo de grado titulado DISEÑO DE UN ALGORITMO DE
POSICIONAMIENTO PARA INTERIORES BASADO EN MACHINE LEARNING, a cargo de
Cristhian Pacichana y mi persona Darwin Mejía, bajo la dirección de la magister Claudia Milena
Hernández.

2. La Agenda que seguiremos para nuestra sustentación, consta de 5 puntos, como primer punto
se presenta una introducción donde se expone el problema y se plantea la pregunta de
investigación, en segundo lugar, se da a conocer el objetivo general del trabajo de grado. En el
tercer punto se presenta un marco teórico sobre los conceptos utilizados en este trabajo, como
cuarto punto se muestra la metodología de desarrollo implementada, y su posterior desarrollo,
por último se presentan las conclusiones y trabajos futuros.

3. Conocer la posición de una persona o dispositivo, ha sido una necesidad fundamental desde la
antigüedad; llevando a la humanidad a desarrollar diferentes sistemas que permitan obtener
una aproximación en tiempo real de su posición geográfica. actualmente existen varios
sistemas en operación, el más conocido se encuentra a cargo de los Estados Unidos
denominado Sistema de Posicionamiento Global GPS, además existe el Sistema Global de
Navegación por Satélite GLONASS a cargo de la federación rusa y un tercer sistema
denominado GALILEO, desarrollado por la Unión Europea. Los sistemas de posicionamiento
global usan satélites artificiales distribuidos de forma estratégica alrededor de la tierra para
determinar una posición, estos sistemas necesitan de Línea de Vista entre el dispositivo en
tierra y el satélite. Cuando el dispositivo está dentro de una estructura se dificulta obtener su
posición, por lo cual, surge la necesidad de implementar Sistemas de Posicionamiento en
Interiores IPS.

4. El uso de sistemas IPS se ha vuelto indispensable en diferentes entornos como hospitales,


fábricas, museos o aeropuertos, donde es de vital importancia conocer la posición de una
persona o dispositivo en tiempo real, para facilitar la interacción con el entorno y en casos de
emergencias disminuir el tiempo de reacción. La complejidad en la implementación de estos
sistemas surge con las perturbaciones que sufre la señal debido a los obstáculos en un entorno
interior, esto obliga a los IPS a estar en constante actualización, buscando implementar nuevas
herramientas, tecnologías y conceptos que le permitan adaptarse a diferentes escenarios.
Actualmente los algoritmos de Aprendizaje Automático o Machine Learning, se plantean como
solución al problema de localización en interiores, ya que permiten analizar el comportamiento
de un dispositivo para encontrar su ubicación en un ambiente cerrado. Con el uso de algoritmos
de Machine Learning se busca reducir el margen de error existente en la ubicación real, y el
tiempo de procesamiento para determinar la posición de un dispositivo.

5. Es por esto que surge nuestra pregunta de investigación, ¿El uso de algoritmos de Machine
Learning para posicionamiento en interiores puede mejorar el desempeño de estos sistemas?,
para responder esta pregunta hemos planteado el siguiente objetivo general.

6. Diseñar un algoritmo de posicionamiento para interiores basado en Machine Learning.


Teniendo en cuenta este objetivo se implementó una serie de algoritmos, para evaluar su
desempeño mediante unas métricas de rendimiento. Planteando diferentes objetivos
específicos los cuales se dan a conocer a medida que se cumplan.
7. Un sistema de posicionamiento en interiores es una red de dispositivos Utilizados para localizar
de forma inalámbrica objetos o personas dentro de un edificio, usando tecnologías como WIFI
Bluetooth o zigbee, en general una serie de puntos de acceso se distribuyen en posiciones
conocida y el intercambio de información entre ellos permite que se detecte la posición de los
dispositivos móviles, en IPS se utilizan diferentes técnicas para calcular la posición de un
dispositivo móvil y cada técnica asocia un parámetro.

8. Dentro del posicionamiento en interiores existen diferentes parámetros, los más relevantes
debido a su adaptación a diferentes tecnologías son: El Indicador de potencia de señal recibida
RSSI, este parámetro se mide en el nivel de potencia de señal, para obtener una aproximación
de la distancia entre los puntos de acceso y el dispositivo móvil. El valor de RSSI depende de la
atenuación sufrida por la señal al propagarse en el medio, además, puede sufrir múltiples
interferencias al interactuar con objetos o personas.
El ángulo de llegada AOA permite estimar la ubicación de un dispositivo, por medio del ángulo
de llegada de la señal propagada por los puntos de acceso, La estimación de los ángulos se
obtiene con antenas directivas, además, AOA es muy susceptible a obstáculos generando una
mala angulación, lo que disminuye considerablemente su desempeño.
En los parámetros tiempo de llegada TOA y diferencia de tiempo de llegada TDOA, la distancia
entre los terminales fijos y el dispositivo móvil se calcula a partir del tiempo que tardan en llegar
las señales, en TOA se requiere sincronización entre los dispositivos fijos y móviles, en cambio
en TDOA no es necesario, si se cuenta con un solo dispositivo móvil.
por último el parámetro de información del estado del estado del canal CSI, este usa OFDM,
para proporcionar información de amplitud y fase de un número determinado de subportadoras
de la señal emitida, este parámetro ofrece información detallada de la señal de RF en un
entorno, lo cual aumenta las características para realizar el cálculo de la posición.
Para estimar la posición de un dispositivo móvil, cada parámetro se asocia con una técnica de
posicionamiento.
9. Las técnicas más relevantes dentro del posicionamiento en interiores son triangulación,
Trilateracion y fingerprinting.
La primera, calcula la posición de un dispositivo móvil a partir del ángulo de llegada de las
señales inalámbricas, Para determinar el ángulo del nodo objetivo se requiere de antenas
emisoras direccionales en los diferentes puntos de acceso, de los cuales se conocen sus
respectivas coordenadas, esta técnica es sencilla y eficiente ya que no requiere de
sincronización para su implementación, sin embargo, necesita de hardware adicional como
antenas direccionales.
En Trilateración se miden las distancias entre varios puntos de acceso fijos y el dispositivo
móvil, estas distancias proporcionan información que con la ayuda de cálculos geométricos dan
como resultado una poción , esta técnica asocia los parámetros RSSI, TOA y TDOA
Por último la técnica Fingerprinting, esta se basa en dividir el entorno en diferentes segmentos
o puntos de referencia, en cada uno se realiza un número determinado de mediciones con un
dispositivo móvil y diferentes puntos de acceso, lo cual se conoce como Mapa Radio.
Posteriormente se construye una Base de datos con la información recopilada de cada Mapa
radio. El posicionamiento de un dispositivo móvil se realiza usando un algoritmo de
posicionamiento el cual se encarga de comparar las medidas de la señal en tiempo real con las
medidas del Mapa radio previamente guardadas en la Base de datos.
10. El Machine Learning o aprendizaje automático se define como la “rama del campo de la
Inteligencia Artificial, que busca dotar a las máquinas de capacidad de aprendizaje”, Machine
learning se considera una subdisciplina dentro del campo de la inteligencia artificial,
destacándose por ser un componente central en relación con el resto de categorías. Sistemas
que implementan Machine Learning necesitan de una gran cantidad de información por ello es
necesario realizar una adquisición de datos, estos serán tratados y parametrizados para que un
algoritmo sea capaz de detectar automáticamente patrones, con el fin, de generar un modelo
capaz de predecir un resultado a partir de nuevos registros de entrada. El objetivo de machine
Learning en el posicionamiento es entrenar un algoritmo determinado a partir de un conjunto de
datos previamente establecido, para construir un modelo, capaz de predecir la posición de un
nuevo registro de entrada, estos se caracterizan por ser algoritmos de aprendizaje supervisado

11. Para el desarrollo del Trabajo de Grado se optó por utilizar la metodología ágil de
Programación Extrema (XP), esta es utilizada para el desarrollo y gestión de proyectos
basados en software, se basa en principios básicos como la capacidad de adaptación a
cambios, y la retroalimentación, consta de un conjunto de reglas y prácticas basadas en 4 fases
o actividades: planeación, diseño, desarrollo y pruebas. En cada fase se planearon diferentes
tareas con el fin de cumplir con el objetivo del trabajo de grado. En la fase de planeación se
proponen los requerimientos funcionales y no funcionales del sistema. En diseño se realiza el
análisis y selección de parámetro, técnica y base de datos, además se plantean los diagramas
de diseño para los algoritmos de Machine Learning. Las fases de desarrollo y pruebas se
realizan en conjunto para poder tener una retroalimentación constante, en estas fases se
implementan y entrenan los algoritmos propuestos además se realiza la validación de los
modelos de predicción evaluando sus resultados.

12. En el desarrollo metodológico del trabajo de grado, se plantean 2 requerimientos funcionales y


dos no funcionales. El primer requerimiento funcional se relaciona con el objetivo general que
es Diseñar un algoritmo de posicionamiento en interiores basado en ML, el segundo
requerimiento es obtener con este algoritmo un valor de precisión que sea menor a 1 m.
El primer requerimiento no funcional se enfoca en la elección del parámetro y técnica
adecuados para la implementación de un algoritmo de ML, el segundo es obtener un tiempo de
predicción en el algoritmo de posicionamiento menor a 1 s. Una vez planteados los
requerimientos, se pasa a la fase de diseño …

13. …Donde inicialmente se propone el diseño general de un IPS, este se compone de:
Puntos de acceso inalámbrico WAP, los cuales son terminales fijos encargados de emitir señal
RF, dentro del entorno, con el uso de tecnologías inalámbricas como WIFI, Bluetooth o Zigbee.
El dispositivo móvil que se encarga de extraer mediciones de la señal RF proveniente de los
WAP, mediante un parámetro de posicionamiento. Por último un servidor encargado de recibir
la información del parámetro proveniente del dispositivo móvil, dentro del servidor un estimador
de posición se encarga del procesamiento de la información, y usando una técnica de
posicionamiento es capaz de estimar la posición del dispositivo móvil. La información
suministrada por la señal inalámbrica debe ser clasificada por algún tipo de medida dentro del
dispositivo móvil, por lo tanto, es necesario seleccionar el parámetro y técnica que más se
adapte a las condiciones del entorno.
14. Para seleccionar el parámetro y técnica, se evalúa de acuerdo a las características planteadas
en la tabla, la primera característica es línea de vista donde se tiene en cuenta si es necesario
que los puntos de acceso tengan linea de vista directa con los dispositivos móviles, para los
parámetros RSSI y CSI no es necesario Línea de vista ya que la señal apresar de sufrir
distorsión por obstáculos e interferencia llega al dispositivo móvil, la segunda característica es
sincronización, ésta se aplica en TOA y TDOA, donde es necesario dispositivos que midan el
tiempo de llegada de las señales, El costo de implementación de cada parámetro se mide en
cuanto a hardware necesario, en AOA se usan antenas direccionales en cada punto de acceso
para una correcta angulación, en TOA y TDOA se necesita de dispositivos especializados para
la sincronización, RSSI tiene un costo medio puesto que necesita nada más de los puntos de
acceso y los dispositivos móviles, CSI tiene un costo alto debido a que necesita de un
dispositivo que permita obtener la información de amplitud y fase de cada soportadora de la
señal. Estos parámetros por lo general se obtienen mediante señales de Radio frecuencia, y la
tecnología más usada es WIFI ya que está presente en la mayoría de entornos además se
adapta fácilmente a sistemas de posicionamiento en interiores.
Por último tenemos la técnica asociada a cada parámetro, triangulación se asocia únicamente
con AOA, Trilateración usa los parámetros TOA, TDOA y RSSI, por último está la técnica
Fingerprinting la cual se asocia con los parámetros RSSI y CSI, esta técnica no necesita de
cálculos matemáticos complejos además es la más usada en sistemas de posicionamiento
basados en ML. Tomando en cuenta las características de cada parámetro, se eligió trabajar
con el parámetro RSSI y la técnica Fingerprinting.

15. En la imagen se presenta el funcionamiento general de un Sistema de posicionamiento basado


en fingerprinting con RSSI. Donde el dispositivo móvil después de recibir la señal de radio
frecuencia envía a un servidor el valor de RSSI, este pasa a un bloque de procesamiento de
información, el cual está presente en las dos fases de Fingerprinting, y se encargá convertir el
RSSI en un valor que pueda ser usado por el algoritmo de posicionamiento. En la fase fuera de
línea se crean los mapa radio de los diferentes puntos de referencia y se almacenan en una
base de datos además se le asignan las etiquetas correspondientes, cuando la base de datos
contiene registros suficientes pasa a un bloque de Tratamiento en el cual se parametrizan sus
registros según el algoritmo lo requiera, en la fase en línea el valor del bloque de
procesamiento de información se envía directamente al algoritmo el cual se encarga de estimar
la posición del dispositivo móvil con ayuda de los registros de la base de datos. Finalmente, la
posición estimada se envía nuevamente al dispositivo móvil………El trabajo de grado se enfoca
principalmente en el desarrollo del algoritmo de posicionamiento usando machine learning, por
lo tanto, se decide emplear una base de datos disponible públicamente. A Continuación, se
presentan las bases de datos seleccionadas.

16. La primera base de datos se llama UJIIndoorLoc, disponible en el repositorio de Machine


Learning de la universidad de California, esta base de datos fue creada en la universidad de
Jume I de España y cubre tres edificios con 4 o 5 pisos, con un área aproximada de 110 000
metros cuadrados, contiene registros de RSSI de 520 puntos de acceso cada registro con
etiqueta de Edificio, piso y coordenadas, contiene 21 019 registros en total de los cuales 19 919
son para entrenamiento y 1100 para validación, estos registros fueron tomados en 933 puntos
de referencia tomando aproximadamente 20 registros por cada punto. En cuanto a trabajos
relacionados con esta base de datos se obtienen resultados de exactitud, entre 10 y 12 metros,
sin embargo, no se evalúa la precisión.
17. Se elige una segunda base de datos, esta se denomina RSSI Dataset, y se encuentra
disponible en el repositorio de la IEEE, fue construida en 3 escenarios de los cuales se trabaja
con el tercer escenario correspondiente a un laboratorio de computación con un área de 78.84
metros cuadrados, esta base de datos cuenta con registros de RSSI de 3 puntos acceso
ubicados de forma estratégica, cada registro tiene etiqueta de coordenadas. Contiene 5 825
registros en total con 4 160 para entrenamiento y 1 665 para validación, en el área se
distribuyen 40 puntos de referencia y en cada punto se toman más de 100 registros de RSSI.
Los trabajos que implementan esta base de datos han dado como resultado una exactitud entre
1.3 metros y 2.6 metros y una precisión de 0.76 m.

18. Una vez planteadas las bases de datos…… Se realiza el análisis y selección del algoritmo de
ML.

19. Se realiza la selección de algoritmo, teniendo en cuenta 5 de los algoritmos de Machine


Learning más relevantes dentro del campo del posicionamiento en interiores. El primero es K-
vecinos más cercanos KNN, este algoritmo se caracteriza por tener una baja complejidad
matemática lo que hace que sea fácil de implementar, una desventaja es su alto tiempo de
procesamiento y que cuenta con una precisión media a la hora de predecir nuevos datos. Otro
algoritmo de uso común dentro de machine learning son los árboles de decisión, estos se
caracterizan por su fácil implementación e interpretación ya que cuentan con una estructura
jerárquica similar a un diagrama de flujo, cuenta con una complejidad matemática y tiempo de
procesamiento medio. El siguiente algoritmo es Naive Bayes, el cual se basa en el teorema de
probabilidad condicionada, este presenta precisión y velocidad media cuando se aplica a
grandes bases de datos, construye modelos de clasificación más complicados, por lo tanto, es
ampliamente utilizado en tareas de clasificación, su complejidad matemática es media al igual
que su facilidad de implementación. El algoritmo de Máquinas de vectores de soporte SVM, es
un algoritmo de aprendizaje supervisado utilizado para clasificación y regresión, ofrece una alta
exactitud y precisión en comparación con otros algoritmos, su complejidad matemática es alta
lo que hace que su facilidad de implementación y tiempo de procesamiento sean medios. Por
último tenemos el algoritmo de redes neuronales NN, el cual presenta una alta exactitud y
precisión en diferentes ámbitos, este algoritmo ha ganado gran popularidad debido a su buen
desempeño en diversas tareas, a pesar de su alta complejidad matemática, existen varias
herramientas que facilitan su implementación. Teniendo en cuenta el análisis de los algoritmos
se decide trabajar con el algoritmo de KNN y redes neuronales.
20. KNN es conocido por ser un clasificador basado en instancia, además de ser un algoritmo de
aprendizaje supervisado lo cual hace necesario contar con un conjunto de datos de
entrenamiento con unas clases definidas o etiquetadas. KNN, determina la cercanía por medio
de la distancia. Para determinar la distancia entre un nuevo registro X0 y un registro del
conjunto de entrenamiento se usa la distancia euclidiana esta ecuación es una generalización
del teorema de Pitágoras, y sirve para determinar la distancia entre 2 puntos en un plano n-
dimensional. El cálculo de la distancia, debe realizarse con todos los registros del conjunto de
entrenamiento, posteriormente se ordenan los valores y se escoge a los K registros donde la
distancia fue menor. Después de encontrar los vecinos más cercanos se realiza la predicción,
para esto se lleva a cabo un método conocido como criterio de decisión.
21. Para escoger el parámetro K no existen reglas estandarizadas, en muchos casos se define
como el número impar mayor a la cantidad de clases de predicción o se escoge un número
bajo y se aumenta hasta alcanzar un valor de K con resultados aceptables. El criterio de
decisión del algoritmo KNN depende del problema bajo análisis, en casos de clasificación se
escoge comúnmente el criterio por votación el cual se basa en clasificar un nuevo caso de
entrada en la clase más frecuente a la que pertenecen sus K vecinos más cercanos. y para
casos de regresión se elige el criterio de distancia media, en el cual al nuevo caso de entrada
se le asigna el valor medio de los k vecinos más cercanos.

22. Las Redes Neuronales Artificiales son modelos computacionales, que buscan imitar la
estructura y funcionamiento del cerebro humano en particular del sistema nervioso, estas se
basan en la interacción y trabajo en conjunto de múltiples neuronas. En cada neurona, la
información o variables de entrada están definidas por x y a cada variable de entrada se asigna
un peso w, además, se cuenta con un término independiente denominado sesgo. La ecuación
representa el comportamiento interno de una neurona, esto se interpreta como un modelo de
regresión lineal, donde unas variables de entrada definen un hiperplano, al cual se le puede
cambiar la inclinación y elevación variando los parámetros w y b, además se le agregan
deformaciones no lineales mediante una función de activación.

23. Después de conocer el funcionamiento de una neurona, es posible comprender cómo se forma
una red neuronal, en la imagen se representa la estructura de una Red Neuronal Secuencial
Densa DSNN utilizada ampliamente como base en la construcción de algoritmos de redes
neuronales. Las neuronas se agrupan en columnas llamadas capas, las cuales se ordenan de
forma secuencial, donde las neuronas que se encuentran en la capa N reciben la misma
información de la capa N-1 y sus resultados pasan a las neuronas de la capa N+1; la primera
capa es la capa de entrada y su función es recibir los registros, la última capa se conoce como
capa de salida encargada de entregar el resultado de predicción, a las capas intermedias se les
denomina capas ocultas. La función de activación se considera como un hiperparámetro y se
aplica a la estructura de cada neurona, esto permite encadenar de forma efectiva la
computación de varias neuronas para modelar información más compleja; sin el uso de las
funciones de activación toda la estructura de una red colapsa hasta ser equivalente a una sola
neurona. Se puede elegir diferentes funciones según el tipo de entorno. La función lineal RELU
activa la neurona si el valor de entrada está por encima de 0 y aumenta de forma lineal con el
valor de entrada.La función sigmoide se utiliza para obtener una probabilidad como resultado
en la salida de la red neuronal; transforma valores en el rango de menos infinito a infinito en
valores en el rango de 0 a 1 . La función Softmax convierte un vector de números en un vector
de probabilidades,donde las probabilidades de cada valor son proporcionales a lsu escala
relativa en el vector, el uso más común de esta función es en redes de clasificación,
principalmente en la capa de salida donde se obtiene un vector con las probabilidades de cada
clase.
En la etapa de entrenamiento de las redes neuronales es necesario definir una función de
coste, encargada de mostrar el error del modelo, esta función también se considera como un
hiperparámetro. En el trabajo de grado se optó por utilizar, en casos de clasificación la entropía
cruzada, la cual compara el vector de probabilidades predicho con el vector de probabilidades
esperado, aplicando la fórmula de entropía cruzada, y para problemas de regresión el error
cuadrático medio el cual mide la diferencia cuadrática promedio entre los valores estimados y el
valor real.
24. Con la función de coste es posible conocer cómo varía el error ante un cambio de los
parámetros w y b después del Forward Propagation, mediante el cálculo de las derivadas
parciales del error con respecto a cada uno de los parámetros, el resultado del cálculo de las
derivadas parciales sé conoce como vector gradiente, el cual indica hacia qué dirección se
debe modificar el valor de los parámetros internos para minimizar el error, además de esto se
define en cuanto modificar estos valores, esté Hiperparámetro es conocido como Tasa de
Aprendizaje o Learning Rate. El cálculo del vector gradiente es una tarea de gran dificultad,
debido a esto se utiliza el algoritmo de backpropagation, con el cual se calcula el vector
gradiente desde la capa de salida hasta la capa de entrada, realizando una retropropagación
de errores, al obtener el vector gradiente, es posible modificar los parámetros de cada una de
las neuronas, para realizar este cambio se define un nuevo Hiperparámetro conocido como
optimizador, este método usa la información del vector gradiente y el Learning Rate para definir
cómo modificar los parámetros, para datos de gran dimensión se recomienda utilizar el
optimizador Adam o RMSProp, con valores de Learning Rate menores a 0.1.

25. Otros Hiperparámetros de redes neuronales que se tiene en cuenta en el desarrollo del trabajo
de grado son la arquitectura de red y el número de épocas de entrenamiento.
En la arquitectura de red se define el número de capas ocultas y su número de neuronas, para
encontrar estos valores no se ha planteado un procedimiento estándar. En el caso de
implementar más de una capa oculta, existen algunas reglas empíricas para establecer un
punto de partida en la construcción de la topología, entre ellas la más utilizada es la regla de la
pirámide geométrica. Esta regla calcula el número de neuronas basada en la suposición de que
la cantidad de neuronas en la capa anterior es superior a la cantidad de neuronas de la capa
siguiente. En esta regla se tiene dos formulas una se aplica a redes de una sola capa oculta, y
la otra a redes de dos capas ocultas. El número de épocas, son iteraciones sucesivas de
entrenamiento, de los datos que pasan la red como estrada, se define desde 100 hasta 1 000.
Un concepto dentro de las Redes neuronales de bastante interés en la actualidad, es el uso de
capas convoluciones para mejorar el desempeño de los IPS,
26. Este enfoque se define como Redes Neuronales Convolucionales, se usa en el análisis de
imágenes, consiste en múltiples capas de filtros convolucionales de tamaño m x m, con una
función de mapeo no lineal n x n al final de cada capa y unas capas de neuronas simples en la
salida de la red, Las capas de convolución se encargan de extraer características de las
imágenes y las capas de neuronas analizan estas características para obtener una predicción.
En el trabajo de grado se trabajan este tipo de redes con la ayuda del método Deepinsigth el
cual convierte un vector de características en una imagen.Una vez se eligen los algoritmos que
serán adaptados para el posicionamiento en interiores se propone….

27. El diseño de un sistema de posicionamiento en interiores con fingerprinting y un algoritmo de


ML. En el diagrama de flujo se observa el desarrollo paso a paso del sistema IPS con
fingerprinting hasta obtener el valor de la posición en términos de edificio, piso y coordenadas,
según el tipo de base de datos. El proceso inicia extrayendo el parámetro RSSI de la señal,
luego se determina si el sistema es capaz de estimar la posición, si no lo es, se procede a
realizar la fase offline de la técnica de fingerprinting, donde las características del parámetro se
usan como registros de entrenamiento para construir una base de datos. Luego de analizar la
base de datos se extraen las características necesarias para la construcción del modelo de ML
seleccionando los registros de entrenamiento y validación. Posteriormente se realiza el
entrenamiento y validacion del algoritmo, si el error en la métrica de desempeño no es el
deseado, se ajustan los hiperparámetros, y se realiza una vez más el proceso de
entrenamiento y validación, este proceso se repite múltiples veces hasta obtener un error
aceptable en la métrica de desempeño este error se obtiene después de entrenar múltiples
veces el algoritmo con diferentes hiperparámetros, comparando los resultados de cada
entrenamiento. Finalmente se obtiene un modelo de predicción el cual se utiliza en la fase
online, donde junto con nuevos registros RSSI se predice una posición … El trabajo de grado
se enfoca en el desarrollo de un algoritmo de Machine learning, orientándose principalmente en
los bloques de entrenamiento, validación y ajuste de parámetros, obteniendo como salida el
modelo de predicción, a continuación, se muestran los diagramas de flujo de los algoritmos de
ML seleccionados con el fin de proporcionar una visión más clara de su funcionamiento para su
posterior implementación.

28. El primer algoritmo propuesto es un algoritmo con KNN, se presenta el diagrama de flujo de su
funcionamiento, en el cual de la base de datos se usan los datos de entrenamiento y validación
para calcular la distancia euclidiana entre estos, y determinar los K vecinos más cercanos,
luego por el criterio de decisión se determina la posición de los registros de validación y se
comparan con los valores reales, si el error es elevado se ajusta el parámetro K y el criterio de
decisión, y se calcula nuevamente la distancia euclidiana, este proceso se realiza múltiples
veces hasta que el error sea mínimo según la métrica de desempeño escogida, luego se
obtiene el modelo de predicción que puede ser usado con datos desconocidos.

29. Se propone un segundo algoritmo con redes neuronales en este algoritmo es esencial el uso de
una base de datos con suficientes registros de entrenamiento y validación, para obtener un
modelo con un buen desempeño, posteriormente se definen los hiperparámetros iniciales para
ejecutar el modelo, e inicia el periodo de entrenamiento donde se realiza el ajuste de
parámetros, con ayuda de la función de coste , este proceso se realiza durante un periodo de
tiempo definido por el número de épocas de entrenamiento. Cuando finaliza el entrenamiento
se realiza la etapa de validación, donde se ejecuta el modelo con los registros de validación y
se comparan los valores de las etiquetas reales con los valores predichos, si el error del
modelo no es el esperado se reajustan los hiperparámetros y se entrena nuevamente el
modelo, si el error se considera aceptable se obtiene un modelo de predicción capaz de
predecir datos desconocidos. Dentro del campo de las redes neuronales se proponen 2
enfoques para la predicción de posición del dispositivo móvil, el primer enfoque utiliza un
modelo secuencial denso y el segundo un modelo convolucional, en ambos casos se utiliza el
diagrama de flujo propuesto.

30. Una vez finalizada la etapa de diseño se pueden dar por cumplidos los dos primeros objetivos
específicos que son:Identificar los principales algoritmos de Machine learning que pueden ser
aplicados al posicionamiento en interiores, y proponer un algoritmo de posicionamiento basado
en Machine learning.

31. La Fase de desarrollo y pruebas, inicia con la implementación de los algoritmos de


posicionamiento propuestos, estos se implementan en el lenguaje de programacion Python,
siendo la mejor opción ya que ofrece gran variedad de soluciones para el equipo de desarrollo,
además, es el lenguaje de referencia para desarrollo de proyectos de IA teniendo a disposición
librerías como Tensorflow y Keras. Una vez se implementan los algoritmos…

32. Se procede a realizar su entrenamiento, validación y ajuste de Hiperparámetros, Estos


procesos se realizan con los registros de cada base de datos y con las etiquetas que estas
poseen, en el caso de UJIIndoorLoc se realiza para la predicción de edificio, piso y
coordenadas. En RSSI Dataset solo para la predicción de coordenadas. Los procesos de
Entrenamiento, validación y ajuste de hiperparametros se realizan en conjunto para cada
algoritmo.

33. Para evaluar el desempeño de lo Modelos de Predicción de cada algoritmo se proponen 4


métricas, la primera es la exactitud la cual representa el error de distancia media, y se mide con
la distancia euclidiana entre la coordenada predicha y la coordenada real, esto se hace con
todos los n registros de validación, sumando sus resultados y dividiéndolo entre el número de
registros de validación. El valor de exactitud que se obtiene está dado en términos de distancia,
entre menor sea este valor mejor se considera el rendimiento del sistema.

34. La segunda métrica es la precisión, esta representa la dispersión del error de distancia y se
calcula mediante la desviación estándar, de la distribución que más se ajuste a los valores de
error de distancia de los registros de validación, El ajuste de una distribución a un conjunto de
datos consiste en encontrar los valores de los parámetros, con los que dicha distribución puede
generar los datos bajo análisis. Existen varios métodos para determinar estos parámetros, en el
trabajo de grado se aplica el método de Estimación de Máxima Verosimilitud MLE; el proceso
de comparar diferentes distribuciones se realiza mediante el Criterio de Información de Akaike
AIC, este utiliza el valor de verosimilitud y el número de parámetros de cada distribución,
obtenidos mediante MLE. Se selecciona la distribución con el menor valor de AIC, de la cual se
calcula la desviación estándar usando los valores de sus propios parámetros, cabe mencionar
que el error de distancia no toma valores negativos, por lo cual se tienen en cuenta sólo
distribuciones de dominio positivo. La exactitud y precisión se evalúan sólo en la predicción de
coordenadas.

35. La tasa de aciertos se aplica en la predicción de edificio y piso, y define la relación entre el
número de registros clasificados correctamente y el número total de registros de validación. Por
último se evalúa el tiempo de procesamiento de los modelos de predicción de cada algoritmo,
midiendo el tiempo que tardó entrenar, y el tiempo que tarda en predecir todos los registros de
validación. Teniendo en cuenta las métricas de evaluación se presentan las configuración de
hiperrametros y los resultados con mejor desempeño de los modelos de predicción de cada
algoritmo de posicionamiento.

36. Para el Algoritmo basado en KNN, en la predicción de edificio o piso en la base de datos UJI,
se inicia con un valor de K impar mayor al número de clases, y se incrementa 3 veces de forma
secuencial. En el caso de la predicción de coordenadas se establece un valor inicial de K igual
a 1 y se incrementa paulatinamente, ya que al ser un problema de regresión no existe un
número de clases definidas, El criterio de decisión del algoritmo KNN depende del problema
bajo análisis, en casos de clasificación como predicción de edificio o piso, se escoge el criterio
por votación, y en casos de regresión para predecir las coordenadas se elige el criterio de
distancia media.

37. Las tablas muestran los resultados de exactitud y precisión para diferentes valores de K del
algoritmo de posicionamiento basado en KNN en la predicción de coordenadas, además se
presenta el nombre de la distribución que más se ajustó a los datos de error de distancia. Para
elegir el K con mejor desempeño se analiza la exactitud y precisión en conjunto, en caso de la
base de datos UJI se establece a K=1 como el modelo adecuado en la predicción de
Coordenadas, puesto que la precisión es inferior a 10 m y en cuanto a exactitud aumenta en
0.73 m con respecto al mejor valor que es K = 5. Para la segunda base de datos la exactitud y
precisión mejoran hasta K=15 con un valor de 1.47 y 0.75 m respectivamente, la
exactitud está por debajo a 1 m, esto indica que tiene una baja dispersión en el error de
distancia y un modelo mucho más confiable.
38. Para el algoritmo DSNN Se definen 6 hiperparámetros, de los cuales 2 tienen un valor fijo. La
función de activación se definen para cada capa, las capas ocultas usan la función Relu, por su
capacidad de procesamiento y adaptación a diferentes tipos de registros y problemas, la capa
de salida usa una función de activación que depende del tipo de problema a solucionar, en
casos de clasificación como la predicción de edificio o piso se usa la función Softmax, y para
los problemas de regresión como predecir coordenadas la función Sigmoid. La función de
coste, se ajusta al número de clases y problema de predicción, la entropía cruzada es una
función utilizada para reflejar la precisión de pronósticos probabilísticos y es ampliamente
usada en problemas de clasificación con un número de clases pequeño, por lo cual se usa en
la predicción de edificio y piso, el error cuadrático medio es una función de coste bastante
usada en problemas de regresión, por su versatilidad y gran desempeño con datos poco
ruidosos, debido a estas características es elegida como función de coste para la predicción de
coordenadas de ubicación.

39. Para elegir un modelo de predicción, primero se deben evaluar diferentes valores de sus
hiperparámetros, en el algoritmo de DSNN se eligen 4. Se definen valores iniciales para cada
hiperparámetro, en el caso de la arquitectura de red se usa la regla de la pirámide geométrica
para definir el número de neuronas en la capa oculta; el optimizador y LR se definen en
conjunto iniciando con el método Adam y el valor de LR de 0.01, estos valores son
configurados inicialmente por las librerías de Python, el número de épocas se define en 300
debido al alto número de registros de la base de datos y a la capacidad de procesamiento del
sistema.Las pruebas y resultados se obtienen ajustando el valor de cada hiperparámetro. La
arquitectura de red se ajusta añadiendo capas ocultas y aumentando el número de neuronas,
luego se cambia el tipo de optimizador y se cambia el valor de LR, los optimizadores utilizados
son Adam y RMSprop, debido a su buen desempeño para IPS, el valor del LR se disminuye
paulatinamente para cada optimizador, por último, se aumenta el número de épocas en la
predicción de coordenadas. En el caso de la predicción de edificio, no se realizan ajustes ya
que los resultados con la configuración inicial fueron los esperados.

40. Estas tablas presentan los resultados de exactitud y precisión junto con el nombre de la
distribucion que mas se ajustó a los datos de error de distancia, de las diferentes
configuraciones de optimizador y learning rate usadas en el entrenamiento del algoritmo de
posicionamiento basado en Redes neuronales secuenciales densas. con la base de datos UJI
Los mejores resultados de exactitud y precisión se obtienen en la primera configuración y en
RMSprop con LR de 0.0005; la exactitud de Adam es de 10.70 m mejorando en 0.35 m con
respecto a RMSprop, no obstante, la precisión en RMSprop es la mejor con un valor de 8.57 m,
disminuyendo en 0.23 m en comparación al resultado de Adam con LR de 0.01. Por lo tanto, se
define a RMSprop como optimizador con un LR de 0.0005, esto se debe a que presenta una
mejor relación entre los resultados de exactitud y precisión . En cuanto a RSSI Dataset se
considera la mejor configuración RMSprop con LR de 0.01, dado que tiene los mejores
resultados de precisión y exactitud .

41. El algoritmo basado en redes neuronales convolucionales utiliza la configuración de


hiperparámetros de mejor desempeño en A-DSNN, además es necesario definir una serie de
hiperparámetros propios. La transformación de los registros a imágenes se ajusta de acuerdo al
número de píxeles, se establece un tamaño de 50 x 50 para no saturar el sistema debido a su
alta complejidad, el tamaño del filtro y muestreo se configuran para cada capa de convolución y
el valor de estos depende del tamaño de la imagen de entrada. Los valores propuestos son la
opción más viable para imágenes de un tamaño menor a 100 x 100 píxeles. Una vez terminado
el proceso de entrenamiento y ajuste de hiperparametros se presentan los resultados de
validación de los modelos de predicción con mejor desempeño.

42. La combinación de hiperparámetros de cada algoritmo para la predicción de edificios se


presenta en la primera tabla, donde A-KNN usa un valor de K igual a 5 y A-DSNN utiliza los
valores de configuración inicial, con los cuales se obtuvieron resultados aceptables en las
métricas de desempeño. Los resultados del modelo A-DSNN muestran que los registros de
validación se predicen de forma correcta sin errores de predicción con una tasa de aciertos del
100%, por el contrario, A-KNN presenta 0.28% de error en la tasa de aciertos. El modelo de A-
DSNN es capaz de predecir de forma acertada el edificio en el cual se encuentra un dispositivo
móvil. El desempeño de este modelo de predicción se debe a la gran cantidad de registros de
entrenamiento de cada clase.
El tiempo entrenamiento es una métrica usada para medir la complejidad del algoritmo, los
resultados, muestran que A-DSNN tiene mayor grado de complejidad en la fase de
entrenamiento, este factor depende de recursos software y hardware, es decir, el tiempo de
entrenamiento disminuye si se tienen programas o equipos computacionales de mayor
capacidad de procesamiento. El tiempo de validación tiene una gran importancia en la elección
del algoritmo de posicionamiento, este representa el tiempo de predicción del modelo con datos
desconocidos, si el tiempo es superior a 1 s el IPS no funciona en tiempo real, los resultados de
los modelos de predicción evidencian que, a pesar de su complejidad, A-DSNN tiene un tiempo
de validación menor a 1 s por lo cual es más idóneo para IPS de tiempo real.

43. En la predicción de piso los algoritmos A-KNN y A-DSNN, presentan un desempeño favorable
con los valores de hiperparámetros de la primera tabla.
De los 1100 registros de validación, A-KNN predijo correctamente el 89% y A-DSNN predijo
correctamente el 98.63%, superando al modelo A-KNN en más de un 9%, lo cual implica que A-
DSNN brinda un mejor desempeño en la tasa de aciertos. Se evidencia de forma notoria el
desempeño superior de A-DSNN en comparación de A-KNN, ya que la tasa de aciertos es
mayor, esto se debe a la capacidad de aprendizaje de A-DSSN, obteniendo un mejor
desempeño al momento de predecir el piso en el cual se encuentra un dispositivo móvil.
El tiempo de validación de A-DSNN es menor a un 1 s, es decir, el modelo es capaz de
predecir el piso en el que se encuentra un dispositivo móvil en tiempo real. El algoritmo de A-
DSNN es bastante eficiente en métodos de clasificación, debido a la cantidad elevada de
registros de la base de datos UJI para cada etiqueta; DSNN puede ser implementado en
entornos cerrados con condiciones reales y múltiples interferencias, obteniendo buenos
resultados en la tasa de aciertos.

44. La configuración de hiperparametros más adecuada de los algoritmos de posicionamiento


propuestos, empleando la base de datos uji se presentan en la primera tabla.
En la segunda tabla se presentan los resultados de los algoritmos de posicionamiento para la
base de datos UJI con valores de exactitud, precisión y tiempo de procesamiento. La exactitud
de A-KNN y A-DSNN tiene un valor de 11.75 m y 11.05 m respectivamente, estos resultados se
deben a las características de la base de datos, ya que fue creada en un escenario de gran
área y con baja densidad de registros por mapa radio, además, se utiliza la estructura
inalámbrica existente basada en WIFI de un campus universitario. Para obtener mejores
resultados en exactitud se emplea el algoritmo CNN, obteniendo un resultado de 8.39 m, este
valor se considera alto en comparación a IPS actuales en los cuales el valor de exactitud está
alrededor de 0.7 m, sin embargo, si se toman en cuenta los trabajos relacionados con la base
de datos UJI los valores de exactitud se encuentran dentro de un rango de 8 a 12 m. El modelo
de predicción del algoritmo de posicionamiento basado CNN supera al basado KNN y DSNN
en más de 2.5 m, por lo tanto, el uso de algoritmos ML más robustos y con características de
implementación más complejas mejoran el rendimiento de la exactitud. El tiempo de validación
no debe superar 1 s para realizar predicciones en tiempo real, esta condición se cumple en
DSNN y CNN, siendo estos los modelos más adecuados para implementar un IPS.
Teniendo en cuenta los resultados de precisión de los 3 algoritmos, A-DSNN mejora en relación
a A-KNN y A-CNN en 0.86 y 3.8 m respectivamente.

45. Para analizar de forma detallada la precisión y exactitud, se presentan las gráficas del
histograma del error de distancia con la distribución que más se ajustó a los datos de los
algoritmos de posicionamiento A-DSNN y A-CNN ya que presentan los valores de exactitud
más bajos. De Acuerdo con los valores de AIC la distribución lognormal, es la que más se
adapta los datos de error de distancia, para los dos algoritmos, En A-CNN se observa que el
error de distancia presenta una mayor densidad de probabilidad en los rangos cercanos a 0 a
diferencia de A-DSNN lo cual implica una mayor exactitud, sin embargo la precisión de A-CNN
es mayor a la de A-DSNN, esto se debe a que, los valores de error de distancia se encuentran
más dispersos; las gráficas muestran que el error de distancia toma valores desde 0 hasta 40
metros con los dos algoritmos, esto implica que si la densidad de probabilidad se concentra en
el extremo 0 la precisión aumenta, esto evidencia que la exactitud y la precisión no siempre
tiene una relación directamente proporcional. Para seleccionar el modelo de predicción
adecuado se analiza las métricas de desempeño, enfocándose principalmente en obtener
modelos con una alta precisión, por lo tanto, se elige a modelo del algoritmo de
posicionamiento basado en DSNN como modelo de predicción para la base de datos UJI,
puesto que presenta la mejor precisión, con un valor de exactitud aceptable. A Continuación se
presentan los resultados de los algoritmos con la base de datos RSSI Dataset.

46. En la primera Tabla se presentan las configuraciones de parámetros con las se obtuvieron los
mejores resultados en las métricas de desempeño.
El modelo A-DSNN alcanza un valor de exactitud de 1.25 m, mostrando resultados superiores
en comparación a A-KNN y a-CNN, cabe destacar que el margen de error de exactitud no
supera los 3 m, puesto que los registros de entrenamiento y validación son tomados en un
escenario controlado y diseñado específicamente para IPS. Los valores de exactitud de los
algoritmos para RSSI Dataset toman valores menores a 3 m, siendo mejores a comparación de
UJI, estos resultados aún no se consideran buenos en IPS actuales, sin embargo, los trabajos
relacionados con esta base de datos presentan una exactitud entre 1,5 y 3.8 m, teniendo en
cuenta lo anterior se consideran los resultados de los algoritmos como aceptables.
El tiempo de validación no supera 1 s en ninguno de los modelos de predicción, es decir, son
capaces de realizar predicciones en tiempo real, cumpliendo el requerimiento del trabajo de
grado
Los resultados de precisión de los algoritmos muestran mejores valores con A-DSNN,
superando a A-KNN en 0.22 m y a A-CNN en 0.86 m. para realizar un análisis más detallado se
presentan…

47. Los histogramas del error de distancia y la distribución que más se ajusta a estos datos, para
los Algoritmos de posicionamiento basados en KNN y DSNN, ya que son lo que presentan
menor exactitud.
El algoritmo de posicionamiento basado en DSNN obtuvo los mejores resultados tanto en
exactitud como en precisión si se observa el histograma de este algoritmo, se evidencia que
error de distancia presenta una menor dispersión a comparación del algoritmo De
posicionamiento basado en KNN, además la densidad de probabilidad se concentra más cerca
a 0. Se elige el modelo del algoritmo de posicionamiento basado en DSNN como modelo de
predicción para la base de datos RSSI Dataset, considerando su buen desempeño en las
métricas de exactitud y precisión.
De acuerdo al análisis de resultados en las métricas de desempeño, los modelos de predicción
de los algoritmos de posicionamiento propuestos se comportan diferente para cada Base de
datos, puesto que los algoritmos de ML crean sus modelos de predicción según el tipo de
información. Los entornos de las bases de datos seleccionadas difieren en muchos aspectos,
otorgando a RSSI Dataset características que ayudan a reducir el error de predicción. Si se
analizan los resultados para las 2 bases de datos la exactitud y precisión en RSSI dataset es
mejor a comparación de UJI, en todos los algoritmos. En consecuencia, es válido proponer un
modelo de predicción para cada base de datos, que se ajuste a sus características y cumpla
con los requerimientos planteados en el trabajo de grado.

48. Para La base de datos UJI se Propone un modelo final que incorpora tres modelos de
predicción de algoritmos de posicionamiento basados en DSNN, los dos primeros se encargan
de predecir el edificio y piso en el que se encuentra un dispositivo móvil y el tercer modelo
estima las coordenadas de este dispositivo. La posición estimada que se entrega nuevamente
al dispositivo móvil otorgara información de estas tres etiquetas, el procesamiento se realiza en
paralelo por que cada modelo de predicción necesita la información de todos los puntos de
acceso.

49. En La Base de datos RSSI dataset, se propone el modelo de predicción del algoritmo de
posicionamiento basado en DSNN, la posición estimada cuenta con la información de las
coordenadas predichas ya que no se cuenta con etiquetas adicionales.

50. En diversas investigaciones sobre IPS, donde se usan algoritmos de ML, se plantea
únicamente la exactitud como métrica de desempeño, sin evaluar la precisión, la cual es
considerada un indicador clave para medir la calidad y confiabilidad en modelos de predicción,
dejando muchas dudas sobre el funcionamiento de los IPS. El trabajo de grado propone la
precisión como métrica principal de desempeño, evaluando su comportamiento mediante la
implementación de algoritmos de ML, además, se usa KNN como punto de comparación para
evaluar si el uso de algoritmos de ML más complejos como DSNN y CNN mejoran el
desempeño del IPS. Los resultados muestran una mejor precisión cuando se usan algoritmos
de ML de mayor complejidad, no obstante, el desempeño de los modelos de predicción
depende de las características de la base de datos, ya que si estas no son suficientemente
robustas el algoritmo no es capaz de predecir de forma adecuada la posición de un dispositivo
móvil.

También podría gustarte