Está en la página 1de 7
PROTOTIPO DE ROBOT DE SERVICIO PARA GUIADO DE PERSONAS POR VISION Abel Martinez, Houcine Hassat abmarmarCetsid.up DISCA - Resumen Bn el presente artéculo se presenta un prototipo de robot de servicio para trabajar en entornos hospi- talarios. Bn concreto, el robot es capaz de reco- rnocer a los pacientes mediante reconociméento fa- cial, para posteriormente acompaiiarlos a la con- sulta donde van a recibir el tratamiento, El reco- nocimiento facial se consigue con la téenien POA 0 Bigenfaces. Bl sistema dispone de un gencrador de mapas que registra los obsticulos presentes en el entorno para realizar el guiado. Palabras clave: Robots de servicio, visién, reco- nocimiento facial, guiado. 1. INTRODUCCION Un robot de servicio ¢s todo aquel robot enya fun- cidn es la de realizar servicios para ayudar a perso- nas u otros robots [2]. Quedan excinidos por tanto los robots disefiados para trabajar en produecién, Dentro del amplio eampo de los robots de servicio, than aparecidoen los times afios diferentes robots con la misién de realizar servicios para las perso~ Uno de los primeros robots: méviles «i consiguié entrar en el mercado doméstieo como clectrodoméstico fue el robot aspiraclor Roomba, que emperé a comercializar la compaiiia Robot 2002 [4)[6]. Otro ejemplo de robot de servicio es el Bie-Dog [LI], desarrollado por Boston Dinamies y DARPA en 2008, que es capa de transportar una carga de 150kg 0 avanzar por pendientes de hasta 385° de inclinacién. Por otro lado, en el sector de Ja medicina estn surgiendo avances en los iltimos os{t), como por ejemplo cl robot de intervencio- nes quinirgicas Da Vinci. Otros robots se utilizan ¢n los hospitales para transportar materiales tales como medicamentos. ‘También existen exoesquele- tos destinados a la recuperacién de personas con lesiones, o para ayudar a caminar a personas ma- yyores o con lesiones permanentes, El euidado de Tas personas mayores es uno de los campos mas investigados en robstica en los viti- mos aiios, mas todavia. cuando el envejecimiento, de Ia poblacién espafiola es un hecho notable [9 Por otra parte, las previsiones de inversién de la Actas do las 20EXV Jomadas de Aut Carlos Domingues, Pedro Lépex os, {hinsein, earlosd, plope Universitat Politéenica de Valencia Unién Europea en este tipo de robots nes confir- man que el empleo de robots de servicio es una ten- dencia al alza que resulta interesante investigar. Es por estos motivos que en este articulo se presen- ta una prucha de concepto de un robot de servi- cio para aplicaciones hospitalarias. Los potenciales usuarios de la aplicacién son personas mayores que visitan las consultas externas de un centro hospi- talario. La aplicacién que se desea evaluar cs la do acompaniamionto de personas mayores que nor- ‘malmente se desorientan. Estas personas ya tienen cita, y ol sistema sabe a qué consulta deben acu- dir yen qué momento, Mediante la deteceién del paciente y su posterior reconocimiento por visién artificial, el robot consulta la base de datos donde se hallan los datos de loealizaciéa de la consulta de destino, B] presente articulo se organiza como sigue. En la socciGn 2 se describe la aplicacién y en la seccién 3 se presenta la plataforma del robot. En la seccién 4 se introducen las modificaciones realizadas a la plataforma original. Las secciones 5 y 6 presentan Jas pruebas y algunas conclasiones respectivamen- te, 2. APLICACION La Figura 1 muestra una image robot {el prototipo del Figura 1: Robot. X-80 Pro ve de usuario e se encuentra el ro La aplicaciéin enenta con una con la. que se pode ver dén« bot o qué funcién esta desempefiando. También es posible enviar nuevas érdenes al robot, as{ como detenerlo y manejarlo manualmente. Una de las tareas que se puede ordenar al robot es la de esperar a los pacientes citados en la entrada, reconocerlos visualmente a su llegada, acercarse a ellos e identificar eval es su funcién en el hospital, invitarles a que le sigan y guiarles hasta su con- sulta comprobando que no pierde a sus asistidos. Para realizar la funcién anterior en un entorno se- miestructurado, con personas y obstviculos mévi- les, debe mantener tun mapa del espacio de navegs cién ¢ implementar comportamiontos de evitacién do colisiones y biisqueda de caminos. La Figura 2 mestra al robot acompaiando a un usuario. Figura 2: Robot acompafiando a usuario, Aunque el enfoque de la aplicacién consiste en que el robot acompafie @ pacientes en entornas hos- pitalarios, se podria adaptar el robot para, por cjemplo, atencién al piiblico en ferias o recepcién de clientes en oficinas. PLATAFORMA DEL ROBOT EE robot elegido para montar el prototipo es la plataforma robética XS0Pro del fabricante Dr. Ro- hot. Dicho robot cuenta con miiltiples sensores de rango que le permiten conocer los obstaculos mas corcanos a él. Tiene dos tipos de sonsores de rango, 6 sensores do ultrasonidos que pueden medi hasta $ motros de distancia y 7 sensores de infrarrojos con um aleance de SO centimetros. También cuenta e la pre sencia de personas, Bl robot dispone, ademas, de dos vodifcadores rotatorios dgitales de 1.200 pu sos por revolucién acoplados a Ins ruedas. Cuenta también con diferentes sensores de voltajee inten 2 sensores piroeléctricas que detectan Actas do las XV Jomadas de. sidad, inclinémetros, etc. Esta plataforma podria no ser Ia més indicada para su uso en ambientes hospitalarios, debido a sus dimensiones ¥ aspecto, ppero ha permitido validar la aplicacién en si, a la par que comprobar los componentes software que so requiere combinar en la aplicacién, El movimiento del robot se consigue gracias a 2 motores de corriente continua de 12V que actiian dircetamente sobre 2 rucdas de 17.8 em. La pla- taforma robética dispone de uma eémara colocada en el extremo de un brazo robstico, lo que le per- tite inclinarse vertical y horizantalmente. Bl robot dispone de diferentes médulos para in- teractuar con el usuario: tiene micréfono y alta- voz para grabar y reproducir audio continuamen- te, También tiene una pantalla LCD monoeromo de 128 x 64 pixeles. Por iltimo, el usuario pu enviar sefiales al robot utilizando un mando a dis tancia, EI robot utiliza In Arquitectura de Computacién Distribuida Dr. Robot. En esta configuracién, In ‘computacién se realiza fuera del robot. Esto sig- nifica que tanto los actuadores (motores y sorvo- motores) como los sensores (de rango, de inclina- cidn, codificadores rotatorios, ete.) estén contro- Iados por un procesador digital de seiial (DSP) {que se encarga de sus acciones de contol y lectu- rade sus valores, respectivamente. Por otra parte Ta computacidn de alto nivel se Teva a cabo en el PC o servidor que controla el robot. La comunica- cidn entre el PC y el robot se realiza mediante una ‘conexiGn inakmbrica WLPL El robot y el PC pue- len intercambiar acciones de control y obtener las medidas de los sensores hasta 10 veces por segun- do, La camara inalimbrica Trendnet TV-IP672WI Figura 3: Arquitectura se monta sobre la plataforma del robot para ofre- cer una mayor calidad de las image explicaré mis adelante, en la seecidn 4. Para qu cl ordenador pueda tener acceso a las imagenes que envia la camara, ambos deben estar conecta- dos a la misma red. En la Figura 3 se pueden ¥ las conexiones de los tres equipos. 4. MODIFICACIONES SOBRE LA PLATAFORMA ORIGINAL 4.1. Incorps de camara So ha afiadido una cimara inalimbrica al sistema para realizar el reconocimiento facial, Dicha céima ra cuenta con transmisién de datos WEFT capa de transmitir hasta 30 imégenes por segundo, con una calidad de 1.280 x 800 pixeles. EL fabricante de la cémata oftece diferentes solu ciones para acoder a las imégenes tomadas por el ispositivo. En nuestro caso, se accede a las hinge res utilizando la dizeceién IP de la camara. Se utiliza la libresfa openCV tanto para la toma de Iimsgenes como para el reconoeimiento faeial. Para poder utilizar la libreria openCV en el programa do control, quo ests escrito en C7, se ha utiliza do Ia libreria. emguCV. La libreria emguCV es un “wrapper” o un envoltorio que permite utilizar las fanciones de la libreria openCV en lenguajes tipo NET 4.2. Desarrollo del software robot de EI motivo principal por el cual se ha programado el robot en lenguaje CY es porque la libreria de funciones que ofrece el fabricante esta exerita en lenguaje. El uso de la librerfa del fabrican permite un rapido arranque en la programaci de aplicaciones. El problema es que impide ol ac. cso a herramient.as de cédigo abicrto disponibles cn otros lenguajes, como por ejemplo utilizando el middleware ROS. Por ello en el futuro se plan: tea la migracién del cédigo a este middleware para nadir funcionalidades al robot. En la interfaz do usuario que se aparece on la Fi gura 4 se encuentran las herramientas necesarias para el control del robot. En primer lugar, en la pestalia Reconocimiento se pueden alladir pacien tes a la base de datos para que el robot pueda reconoverlos, § desde diferentes dngulos, el nombre del paciente y la consulta en la que debe recibir tratamiento. En la pestafia de Control del robot podemos llevar a afiaden 4 imagenes del paciente + Control manual del robot. Utilizando los botones disponibles en el interfaz, s° puede desplazar al robot manualmente, Esto resulta itil para realizar labores de mantenimiento Explorando Figura 4: Interfax de usuario como, por ejemplo, ajustar la posicién del ro- bot Explorar. Cuando se pulsa cl botén explo- rar, el robot inicia un reconocimiento del en- tomo: el robot gencra un mapa de ocupacién que utiliza para posicionarse en el entorno. Adomds este mapa se guarda en un are! al apagar el robot, por lo que se podra reuti- lizar cuando sea reiniciado, Vigilar. La accién de vigilancia os la que el robot realiza en la mayor parte de su tiempo. Cuando se pulsa el botén Controlar, el robot empieza a recibir pacientes y acompaiarlos a su destino, Para poder realizar Ia aceién de vigilancia, se utiliza ol algoritmo de deteccién. El algoritmo de deteccién se ha implementado combina do diferentes dispositivos. La primera parte de la detecciin se realiza con los sensores pi. roeléctricas del robot. Cuando se ha detecta- do que el robot tiene una persona delante, se activa la cdmara. El algoritmo de reconoci miento [10][12] utiliza el método de reconoe iento Bigenfaces o PCA (15) [17] para deter inar si el paciente que ha detoctado el robot ests o no en In base do datos. ara el recono- cimiento de las caras se utiliza un eddigo libre Mamado FaceRoePro [5] que utiliza el frame- work NET y ha sido adaptado para funcionar cn la presente aplicacién, 4.3. Comportamientos implementados en el robot Se han implementado una serie de comportamies tos del robot. que se utilizan en los distintos modes de funcionamiento deseritos anteriormente. Figura 5: Sensores de rango = Vigilar. Se pretence que el robot espere al paciente en el punto de vigilancia. Cuando el robot esti en este punto activa los sensores de deteccién de personas Py Q de la ign ra 5, En el momento en que los sensores de- tectan que hay una persona delante se activa 1 software de reconoeimiento para ver si: no- ceesita ser acompanada a algyin tratamiento, Entonces, sila persona se encuentra en Ia ba se de datos, cl robot la acompanaré hasta la consulta donde debe recibir ol tratamiento, y por iiltimo volveré a su punto de vigilancia. El robot evita los obstculas calculando rutas ‘amino del punto de Vigilancia a Ta consulta como en el de regee- so. Cuando el robot acompagia a un paciente aa la consulta, el camino se g¢ dinémica. El camino esté formade por put tos por los que el robot puede pasar segiin six mapa de ocupacién, Pero el robot. ve ia punto si puede llegar al punto siguiente, En el caso de que no pueda aceeder al punto siguiente, el robot generar un camino difo- rente, Se afiadiri un nuevo obstiiculo al mapa, do ocupacién tanto si se trata de una persona, ode una puerta, por ejemplo, Pero este pun- to tendri baja confianza hasta que cl robot pase por la zona en repetidas ocasiones ¥ cl obstculo permanezea en el mismo lugar. alternativas tanto en el ¢ wera de forma = Scguimiento de pared. El comportamiento de seguimiento se ha programado para que el ro- Dot siga las paredes por la izquierda, Para se gir la pared se utilizan los tres sensores de la derecha del robot, sensores Jy K ultrasoni- dos y sensor O infrarrojos en ia Figura 5. El control utiliza dos de los tres sensores para mantener Ia distancia de seguridad a la pa- rod. También so utilizan los sensores I ¢ I de ultrasonidos y los A, B, C y D do infrarro- jos para detcctar los obsticulos de enfrente Elrobot gira a la izquicrda cuando encuentra obstaculos enfrente [8} = Acompaiiar pacientes. En el comportam to de acompatiar al paciente, el robot utiliza, In informacién guardada en cl mapa de ocu- pacién y Ia de los sensores para acompaiiar f los pacientes a las consultas, Por un lado, utiliza In informacién guardada en el mapa para calcnlar el camino a seguir, Por otro In- do, al iniciar el camino, el robot controle por tuna parte que el paciente le sign y, por otra parte, que no se detecten personas 1 objetos méviles en el camino. Si el robot se aleja del paciente, disminuye la velocidad o se detie- no. En cambio, si detecta obstculos en el ca- tino, el robot utiliza el médulo de evitacién, de obstieulos. Evitacion de obsticulos. Bl méxulo de evita de obsticulas se utiliza cuando el robot Jguienclo un camino. Si el robot detecta un obstéiculo, En este easo calcula un camino altornativo rodeando el obsticulo, 4.4. Fusién de datos y mapas + Proceso de construecién de mapas. El mapa se construe tanto para ser utilizade por el usuario a la hora de introducir los puntos de Vigilancia y entrada de la consulta, como para ue el robot pueda posicionarse [14]. BI mapa dde ocupacién se obtiene a partir de las lee- tuuras de los sensores y la posicién del robot. £1 célenlo de una zona ocupada en el mapa se obtiene de la ecuncisn (1). La posicién del objeto Ory se ealeula com la posicién del ro- hot con respecto al punto de origen de! mapa elobal Rey més la posicién del obstéculo de- tectado con respocto a la posicién del robot. La posicién del robot se caleula por odometria cn funcién do las vueltas previas que han rea- lizado las ruedas que imprimen el movimiento al robot. La posicién del objeto con respecto alzobot depend do la posicién del sensor con respecta al centro del robot Say y la medida del sensor depende de la posicién del obje- especto a la posicién del sensor May a (2). La posicién del sensor depende ntacién del robot Jy de la posicién Inicial del sensor s2y, como ilustra la ecuacién Actas do las 20CXV Jomadas de Automata, 2 0 seplantie 6 204, alana (3). Ory = Hay + Dey (1) Dey =Sey + May (2) Sey — | Coslte) Sentr) @ Sen(0-) Cos(0,) | °* Fusién de datos. Bn este caso el rabot dispone de dos tipos de sensores con caracteristicas di forentes. Hs necesario un criterio de seleccién de las medidas tomadas par los sensores, con cl fin de maximizar la calidad del mapa to- mado por el robot. En conereto, para afiadir ‘un nuevo obsticulo, se aceptaran las medidas que se encuentran en la zona més precisa del En el ambiente en el que se mueve el robot, sus sensores del robot podrfan afiadir nuevos obstculos en précticamente infinites puntos del espacio del plano XY. Con el motivo de tener un nrimero limitado de obstaculos, se ha implementado una funcién que consiste en que, antes de afladir un nuevo obsticulo al mapa de ocupacién, el robot comprueba que no existe ningiin obstéculo a una distancia inferior un umbral. En el caso de que se dotecte un obsticulo previo a una distancia inferior al umbral, so aumentaré la confianza en cl obstculo anterior en lugar de aitadir un auevo abstaculo. Posicionamiento en el entorno, Bl robot utili za los datos del mapa de ocupaciéin para eo- rregir errores acumulados. De este modo, si wlica al robot que se encuentra a tuna distancia de una pared, pero en la base de datos la pared est a una distancia supe- ror, ol control determinaré que es la posieién dol robot Ia que se debe corrogir, en Ingar de aiadir los obstiiculos correspondientes a una, nueva pared a la mapa de oeupacisn, el sensor Posicionamiento por visién. El control del ro- bot utiliza la visin artificial para rectificar la posicién y orientacién del robot. Después de tomar imégenes del entorno, el robot extrae Jas marcas que le pueden servir para posicio- narse en el futuro: aristas de pilares, marcos, de puertas, zécalos, etc. Cuando en. sucesi vas iteraciones el robot pase por las mismas coordenadas, extraeré nuevamente las marcas dol entorno, compensando si es necesario st. posietén en funcién de la difereneia entre las marcas de ambas fotografias. Interaccién con el paciente, La convensac entre el paciente y el robot esta dividida en tres fases, En la primera fase, el robot se pre senta al paciente enviando el siguiente mensa- je de audio: “Buenos dias seiior usuaria, soy clrobot de servicio del hospital, ;desea que le acompate a la consulta X?". En la sogunda fas de la comunicacién, el robot reconoce las, palabras “sf” y “no” dol paciente, ¢ inicia 0 cancela ¢] acompaiiamiento a la consulta. Fi- nalmento, en la tercora faso, el robot controla cl proceso durante el acompanamiento ¥ fina- liza el servicio si el paciente decide no soguir al robot o Ilega a la consulta. 5, EVALUACION PRELIMINAR Bn las pruchas que se han realizado sobre cl proto- tipo se han evaluado dos médulos. Por una parte, s0 ha probado Ia fiahilidad dol médulo de recono~ cimiento facial y por otra parte se ha probado el robot en una aplicacién piloto de atencién a cientes en ambientes hespitalarios, 5.1. Experimento 1, Reconoeimiento faci Para evaluar el fi ‘conocimiento facial, se ha obt no-detecciones que cometia el siste usuario que sf estaba registeado en la base de datos. Bn las imnégenes guardadas datos, se han tomado imégenes desde diferentes ingulos y posiciones. Por ello cl sistema resulta ‘iis robusto frente a cambios de orientacién en Ta loteccién de los pacientes. La aplicacién redimen- siona las imiigenes, las convierte a escala de grises ¥ just sus niveles. Este procedimiento se realiza para evitar problen iento relacio- nados con cambios en la iumi to, s¢ ha disefiado el siguiente procedimiento para realizar In evalnacién. onamiento del médulo de 1 ido el niimero de ‘a ante un la base de * Sc aiiaden las fotografias del usuario a la base de dates. + El usuario se posiciona frente al detector en. diferentes posiciones y orientaciones. + Sc abtienen las deteceiones y no-deteeciones. La Figura 6 muestra los resultados obtenidos. El porcentaje de aciertos en la deteecién de los usua- ios aumenta a medida que aumenta la cantidad de imagenes del usuario en Ta base de datos. El site 65% cuando se ha cargado una nica ima la base de datos. Cuando se eargan dos imagenes cl reconocedor acierta mas del 85% de las veoes. Por iiltimo, cuando se guardan 4 imagenes en la tiene una tasa de acierto del inferior al “Actas do las 20CXV Jomadas de Automata, 2 0 seplante 6 204, ane hase de datas, Jos resultados de acierto superan el 93% de los casos, lo que significa que el porcen- taje de crrores es inferior al 7%. A partir de los ‘all ALL Figura 6: Resultados reconocimiento. resultados presentadas se desearta por el mon to el uso de una tinica imagen para detectar a los pacientes. Los resultarlos con dos imfigenes en In hase de datas son bastante mejores, pero para ol desarrollo del segundo experimento se tomarin 4 imagenes de ead paciente. 5.2, Experimento 2. Acompaiiamiento de pacientes En este experimento se ha probado la fiabilidad del robot en la tarea de acompatiar pacientes a las consultas donde deben recibir ol tratamiento, Para ello so plantea un escenario en al que hay 4 consultas donde acompatar a los pacientes. Ca- da paciente tiene asignada una consulta; y el robot ‘cuenta con tina base de datos de 4 imagenes de ea- dda paciente. El total de pacientes es de 50. Elexpe- rimento se ha levado a eabo en el segundo piso del cificio del DISCA. En este edificto se encuentran los despachos de algunos profesores y laboratorios de pricticas. El robot podia por tanto encontrar personas por los pasillos. Se tena en cuenta que no se cerraran las puertas para aeceder a las con tas, En la Figura 7 se muestra un esquema del es- cenario de la aplicacién. Bn primer lugar, el robot hha de detectar al paciente mediante los sensores y, posteriormente, reconocerlo a través de la cémara para acompafiarlo asi a la consulta correspondien- te. En la Figura 8 se mucstran los resultados de la prueba con los pacientes acompaiiados correc- tamente, marcados en azul. Los pacientes acom- paiados a una consulta incorrecta estan marca- dos en verde, Se ha comprobado que este error se debe a quo, en la fase de deteccién, el robot ha confundido el rostro de un paciente con al de otro, En rojo se observa Ia tasa de fall en el reoonaci- tnto de un paciente (pacientes no detectades). En la grafica se puede ver e6ino el robot es eapaz de reconover y acompaiiar con éxito al 84% de los pacientes, tiene problemas para reconocer al 10% de los pacientes y tiene errores de confusién de Consultas de atencién Robot Cola de pacientes PLA P2,1. P3, 2 P4, 3. Figura 7: Escenario experimento 2. pacientes on el 6% de Ins oeasiones. 10% Figura 8: Resultado acompaiiamiento. Analizando los resultados de este experimento se observa que ha aumentade ligeramente el niimero do pacientes no detectados debido al mayor niime- ro de personas que entran en juego en la escena. ‘A. pesar de ello, el robot sigue acompanando de forma correcta al 84% de Jos usuarios. En un fu- turo, so prové mejorar estos resultados aumentan- do el miimero de muestras en la base de datos de imagenes y dol nrimero de perfiles de cada pacion- to, asi como aumentar el ntimero de fotogramas ppor segundo y las prestaciones del procesador pa- ra sopartar dicho cémputo. Oteo de los aspectas que se desea analizar son los problemas sociales que puedan surgir como, por ejemplo, personas {que no desean acompaiiar al robot. o que lo aban onan cuando se ha iniciado el servicio. Actas do las 20€XV Jomadas de Automata, 2. seplantie 6 204, ana 6. CONCLUSIONES En este articulo hemos presentado una aplicaci de un robot de servicio para su uso em instalacio- nes hospitalarias, Se han descrito los componentes que forman l prototipo, la plataforma robética, la cémara de vigilancia con conexién inaldmbrica y el software de control de la aplicacién. ‘Yambién se han expli cado las modificaciones realizadas sobre la plata: forma robética original, asi como sobre el software de control El desarrollo de este prototipo nos ha permitide comprobar la viabilidad de la aplicaeidn, intogray do las diferentes herramientas software y hardware que se han planteado en este artieulo, ‘También hemos realizado pruebas sobre el funcio- rnamiento del robot de servicio, tras las cuales po- demos avanzar en el desarrollo de la aplicacién, por ejemplo en la realizacién de una prueba piloto en un entorno hospitalario, Agradecimientos Este articulo ha sido financiado en parte por ol proyecto PALD/2012/325 del Vicerrectorado de Investigacién, Innovacién y ‘Transferencia de la Universitat Polittenica de Valencia, Referencias [1] Arroyo, C. (2005). Cirugia robdtien. Blemen tos: Ciencia y Cultura, 12(68), 1317. [2] Barrientos, A. (2002). Nuevas aplicaciones de Ia robstica, Robots de servicio, Avanees en robética y visién por computador. Cuenca, Ediciones Castilla-La Mancha, 288, [3] Blanco, D., Ansari, $. A., Castején, C., Boa- da, B. L., y Moreno, L. E. (2005). MAN- FRED: Robot Antropomérlico De Fiable Y Seguro para operar En Entornos Hu- manos. Revista ericana de Ingenieria Mocanieca, 9(3), i Forliza, J., & DiSalvo, C. (2006, March). Service robots in the domestic a study of the roomba vacua mo. In. Procoodings of the Ist ACM. SIG CHI/SIGART conference on Human-robot interaction (pp. 258-265). ACM. [5] G A (2011). srcaleprojectcony/Artieles/299849/Mlipke face-detection-and-recognition-in-real-ti. [6] clones, J. L. (2006). Robots atthe tipping point: the road to iRobot Roomba, Robotics & Automation Magazine, IEE, 13(1), 76-78 [7] Kam, M., Zhu, X., & Kalata, P. (1997). s sor fusion for mobile robot. navigation. Pro- ‘coodings of the IEEE, 85(1), 108-119. Kim, B. (2010). CAN-2: Behaviour-based eo Ilision avoidance and formation control of multiple unmanned vehicles. RTO-TR-HFM- 170, NATO Science and Technology Organi- zation, December 2012, is {0] Otero, {., Zunamnogu, M. V., Rodriguez- Laso, A, Aguilar, M.D., y Litearo, P. (2004). Volumen y tendeneins dla dependencin aso- nda. al envejecimiento en la poblncién es panola. Rev Esp Salud Pabiea, 78(2), 201- 213, [10] Perez, C., Vicente, M. A., Rernandez, C: Reinoso, 0, Gil, A. (2008). Aplicncién de Jos diferentes espacios de color para detecciin yy seguimiento de carns. Proccedings of XXIV ‘Jornadas de Automatica. [11] Raibert, M., Blankespoor, K., Nelson, G., & Playter, R. (2008, July). Bigdog, the rough- terrain quadruped robot. In Proceedings of the 17th World Congress (pp. 10823-10825), [12] Rama, A. y ‘Tarrés, F. (2007). Un nuevo método para Ia deteccién de earas basado en integrales: difusas, XIL Simposium Nacional ‘de la Union Cientiiea Internacional de. Ra- lio, [13] Rao, B.S. Y., Durrant-Whyte, TL F., & Sheen, J. A. (1993). A fully decentralized multi-sensor system for tracking and survei- ance. ‘The International Journal of Roboties Research, 12(1), 20-44 [14] ‘Phrun, S. (2003). Learning occupancy grid maps with forward sensor models. Autono- mous robots, 15(2), 111-127 [15] ‘Turk, M., & Pentland, A. (1991). Eigenfaces for recognition. Journal of cognitive neuros- cience, (1), TES6. [16] Vera, PS. (1996). Tercera y enarta odad en Expaia desde la perspectiva de los hoga- res. Revista Expafola de Investigaciones So- ciolégicas CIS, 73, 60. [17] Yang, J., Zhang, D., Frangi, A. F., & Yang, JY. (2004). ‘Two-dimensional PCA: a new ‘approach to appearance-based face represen tation and recognition. Pattern Analysis and Machine Intelligence, TEBE Transactions on, 26(1), 131-187. ‘Actas a a OX Jornada de Ao, 354s 216, Ya

También podría gustarte