Para cada una de las tecnologías presentes en este tema hacer la descripción siguiente: indicar su importancia en el ámbito
de la inteligencia ambiental, que servicios o apoyos le ofrece, y hacia qué servicios está encaminada, tipos de aplicaciones
dónde están involucradas, elementos necesarios para su implementación, algoritmos involucrados y/o componentes
necesarios para que esté presente en cualquier aplicación o sistema inteligente bajo este contexto.
Comunicaciones: Transmisión de voz y datos, incluyendo textos, imágenes, sonidos (multimedia) con redes locales
(LAN) compartiendo acceso a Internet, recursos e intercambio entre todos los dispositivos, acceso a nuevos servicios de
telefonía sobre IP, televisión digital, televisión por cable, diagnóstico remoto, videoconferencias, etc.
Elementos de interconexión: Son elementos que centralizan y gestionan las conexiones de todos los ordenadores que
forman la red. Todos los ordenadores de la red estarán físicamente conectados a un elemento de interconexión a través de
un medio físico (por ej. cable). Dependiendo de la complejidad, eficiencia y funciones podemos distinguir básicamente los
siguientes elementos de interconexión:
• HUB. Son los elementos más simples y los menos eficientes. Básicamente los datos enviados por un ordenador,
son repetidos en todas las salidas del hub para que sean recibidos por todos los equipos de la red,
independientemente de su destino. Los ordenadores son los encargados de procesar las informaciones recibidas y
determinar si estas son para ellos, o por el contrario deben descartarlas. Son poco eficientes cuando el numero de
ordenadores de la red es grande.
• SWITCH. Los SWITCH son dispositivos con un diseño más optimizado. Su función es la misma que la del
HUB pero la ventaja es que envían la información únicamente al ordenador destinatario y no a todos como hacia
el HUB. Esta diferencia permite una mayor eficiencia para los equipos receptores y para la red en general, debido
a que los equipos receptores saben que los datos que reciben siempre son para ellos, por lo que no pierden tiempo
en averiguar si son los destinatarios. También se genera menos trafico innecesario en la red. El SWITCH puede de
esta forma tambien gestionar mejor los envios. La lógica interna de estos dispositivos es mas complicada aunque
externamente los HUB y los SWITCH suelen parecerse bastante. Lo que los diferencia es la implementacion
interna del dispositivo.
• PUENTES. Los puentes son dispositivos que permiten interconectar dos redes de similares caracteristicas para
poder establecer comunicacion entre equipos de ambas redes.
• ENCAMINADORES / ROUTERS. Son dispositivos que permiten la interconexion de redes de diferentes
caracteristicas como puedan ser una red LAN Ethernet, con la red de un proveedor de servicios de Internet (ISP).
Unir estas dos redes supone que los equipos de la LAN tengan acceso a la red de nuestro proveedor, adaptando
las distintas características de ambas para que se pueda producir la comunicación. Actualmente los proveedores de
Internet suministran a sus clientes un equipo que integra las dos funciones (SWITCH / ROUTER) de forma que
con el switch se permite la conexión de varios ordenadores en red, mientras que el router tendrá como cometido
dar salida a la red ordenadores hacia Internet.
Protocolo: El protocolo es la parte software de la red. Se encarga básicamente de establecer las reglas de comunicación
entre equipos de la red, definir el formato de las informaciones que circulan por la red y también debe habilitar
mecanismos para permitir la identificación de los equipos en la red. Existen infinidad de protocolos en funcion de la red
con la que se esta trabajando. El mas utilizado actualmente es el conocido como TCP / IP. Este protocolo realmente es un
conjunto de protocolos, de los cuales los mas importantes son:
• TCP: Se encarga de garantizar la entrega de datos de forma fiable y a las aplicaciones correctas, dentro de una
red.
• IP: Se encarga de identificar a cada equipo de la red para permitir una entrega a los diferentes destinatarios. Este
cometido lo consigue identificando a cada equipo con lo que se denomina direccion IP, que sera unica para cada
equipo conectado a la red en un momento determinado.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
SENSORES: De distintos tipos y tecnologías los cuales toman del medio la infamación y la convierten en señales
eléctricas.
NODOS DE SENSOR: Toman los datos delsensor a través de sus puertas de datos, y envían la información a la
estación base.
GATEWAY: Elementos para la interconexión entre la red de sensores y una red TCP/IP.
ESTACIÓN BASE: Recolector de datos.
RED INALÁMBRICA: Típicamente basada en el estándar 802.15.4 ZigBee.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
Existen tres componentes clave que habitualmente se mencionan en la arquitectura IoT.
Dispositivos IoT - Dispositivos que se pueden conectar por cable o de forma inalámbrica a una red más amplia.
Redes – De forma parecida a los routers domésticos, las redes o las puertas de enlace conectan varios dispositivos
IoT a la nube.
Nube – Servidores remotos en centros de datos que consolidan y almacenan los datos con seguridad.
Datos
Los dipositivos IoT generan datos – pequeños bytes de datos simples que representan los registros de la información
enviada como temperatura, humedad o posición. Habitualmente esto se llama ‘little data’ por tener un tamaño pequeño.
Cuando varios dispositivos envían estos pequeños datos, a través de una red a la nube, se pueden monitorizar y así con el
tiempo la cantidad de datos será más grande. Con frecuencia esto se describe como ‘big data’ y es aquí cuando el Internet
de las Cosas se hace inteligente. El ‘big data’ permite analizar miles o millones de puntos de datos con el fin de aprender,
entender o controlar algo mucho mejor.
Esta podría ser la analítica de los sensores que se conectan cuando se producen determinados eventos, resultados o
acciones. Por ejemplo, utilizar sensores de luz ambiental en el alumbrado de la calle, sabiendo que oscurece más tarde en
primavera, para que más adelante esta analítica se convierta en ahorro de electricidad.
También para darse cuenta de que una máquina está vibrando más de lo normal y que quizás pueda ser una señal de que
podría estar a punto de fallar, permitiendo que solo sea necesario comprar algunas piezas y programar un mantenimiento
predictivo.
Protocolos IoT
Están apareciendo muchos lenguajes y protocolos adecuados para IoT, desde el ya conocido WiFi o el Bluetooth hasta
nuevos sistemas definidos como LoraWAN y Sigfox.
Cada uno es adecuado para usos diferentes y depende de varios factores.
6.3 Wearables
importancia en el ámbito de la inteligencia ambiental
Estos pequeños artefactos que trabajan junto a nuestro smarphone para ayudarnos y brindarnos información de una
manera mas eficiente conectado a más dispositivos de nuestro entorno
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
Control Los microcontroladores específicos para wearables son pequeños, de manera que sean cómodos y
discretos. Por otro lado, las formas y los colores distintivos pueden funcionar como un elemento decorativo.
Varias de las tarjetas disponibles son lavables a mano (excepto la fuente de alimentación). Lee la documentación
cuidadosamente.
Entrada/salida En lugar de pines, estas tarjetas tienen ojales de metal en los cuales puedes enrollar hilo conductor
para coser conexiones de circuito suaves. Algunas tarjetas también tienen broches — u ojales lo suficientemente
grandes como para soldar broches de presión — para facilitar su extracción.
Textiles conductivos Un material que contiene metales, como la plata o el acero inoxidable, a través del cual una
corriente eléctrica puede fluir se dice que es conductivo. Los wearables pueden hacer uso de estos materiales en
muchas formas, tales como:
Hilo para la fabricación de circuitos.
Tela para sensores táctiles capacitivos.
Sensores Los sensores recopilan información sobre el medio ambiente, el usuario, o ambos. Ejemplos de lo
anterior incluyen la luz, temperatura, movimiento, y ubicación (GPS). Ejemplos de estos últimos incluyen la
frecuencia cardíaca (ECG), ondas cerebrales (EEG), y la tensión muscular (EMG). Unos cuantos
microcontroladores portátiles disponen de sensores básicos a bordo. Otros fabricantes ofrecen una gama de
módulos de sensores externos que se conectan a la placa principal.
Alimentación Cuando se evalúa el alcance de un diseño wearable, una de las primeras cosas a considerar es la
demanda de energía. ¿Sólo deseas iluminar unos LEDs, o quieres ejecutar un servomotor? Las placas con un
soporte integrado para una pila de botón de litio son agradables para proyectos de baja potencia que necesitan ser
autónomos. Sin embargo las tarjetas con un conector JST estándar (con o sin un circuito para cargar baterías
LiPo) son más versátiles.
Actuadores Una forma genérica para describir un sistema wearable es: En respuesta a X, donde X es la entrada de
un sensor, Y sucede. Actuadores como LEDs, zumbadores o altavoces, y servomotores son los que hacen que las
cosas sucedan.
Comunicación Para comunicarse con dispositivos inteligentes, internet u otros sistemas wearables, necesitas
conectividad inalámbrica. Además del Wi-Fi y Bluetooth, opciones amigables con los wearables son:
BLE, que tiene un menor consumo de energía que los clásicos Bluetooth, un rango de 50 metros y una velocidad
de transmisión de datos de hasta 1 Mbps.
NFC, un campo de frecuencia de radio con un rango de aproximadamente 20 cm y velocidad de transmisión de
datos de hasta aproximadamente 400 Kbps.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
El Lenguaje de Etiquetado de Realidad Aumentada (ARML) es un estándar de datos para describir e interactuar con
escenas de realidad aumentada (AR). Ha sido desarrollado dentro del Open Geospatial Consortium (OGC) por un Grupo
de Trabajo de Estándares ARML 2.0 determinado para esta tarea.2 ARML consiste tanto en una gramática XML para
describir la localización y apariencia de objetos virtuales en la escena, así como en interfaces ECMAScript para permitir
acceso dinámico a las propiedades de objetos virtuales, así como manejo de eventos, y está actualmente publicado en la
versión 2.0. ARML se enfoca en la realidad aumentada visual (por ejemplo, la cámara de un dispositivo capacitado para
AR sirve como la salida principal para los escenarios de realidad aumentada).
Los dispositivos de realidad aumentada normalmente constan de unos cascos o gafas y un sistema de visualización para
mostrar al usuario la información virtual que se añade a la real. El "headset" lleva incorporado sistemas de GPS,
necesarios para poder localizar con precisión la situación del usuario.
Los dos principales sistemas de visualización empleados son la pantalla óptica transparente y la pantalla de mezcla de
imágenes. Tanto uno como el otro usan imágenes virtuales que se muestran al usuario mezcladas con la realidad o bien
proyectadas directamente en la pantalla.
Los Sistemas de realidad aumentada modernos utilizan una o más de las siguientes tecnologías: cámaras digitales,
sensores ópticos, acelerómetros, GPS, giroscopios, brújulas de estado sólido, RFID, etc. El hardware de procesamiento de
sonido podría ser incluido en los sistemas de realidad aumentada. Los Sistemas de cámaras basadas en realidad aumentada
requieren de una unidad CPU potente y gran cantidad de memoria RAM para procesar imágenes de dichas cámaras. La
combinación de todos estos elementos se da a menudo en los smartphones modernos, que los convierten en una posible
plataforma de realidad aumentada.
Para fusiones coherentes de imágenes del mundo real, obtenidas con cámara, e imágenes virtuales en 3D, las imágenes
virtuales deben atribuirse a lugares del mundo real. Ese mundo real debe ser situado, a partir de imágenes de la cámara, en
un sistema de coordenadas. Dicho proceso se denomina registro de imágenes. Este proceso usa diferentes métodos de
visión por ordenador, en su mayoría relacionados con el seguimiento de vídeo. Muchos métodos de visión por ordenador
de realidad aumentada se heredan de forma similar de los métodos de odometría visual.
Por lo general, los métodos constan de dos partes. En la primera etapa se puede utilizar la detección de esquinas, la
detección de Blob, la detección de bordes, de umbral y los métodos de procesado de imágenes. En la segunda etapa el
sistema de coordenadas del mundo real es restaurado a partir de los datos obtenidos en la primera etapa. Algunos métodos
asumen los objetos conocidos con la geometría 3D (o marcadores fiduciarios) presentes en la escena y hacen uso de esos
datos. En algunos de esos casos, toda la estructura de la escena 3D debe ser calculada de antemano. Si no hay ningún
supuesto acerca de la geometría 3D se estructura a partir de los métodos de movimiento. Los métodos utilizados en la
segunda etapa incluyen geometría proyectiva (epipolar), paquete de ajuste, la representación de la rotación con el mapa
exponencial, filtro de Kalman y filtros de partículas.
Robot Empático
La base para la creación del robot empático, funciona a través de una cámara Kinect que cuenta con un sensor,
instrumentos utilizados de manera frecuente para los videojuegos. Se incorporaron diversos dispositivos, como
infrarrojos, cámara web, captura de audio, etcétera. Al obtener la imagen de una persona, sus expresiones, tanto faciales
como corporales, se detectan los movimientos de los músculos que sirven para leer el estado afectivo y determinar los
niveles de estrés y ansiedad.
El propósito principal es que el procesador reconozca etapas emotivas provenientes del estrés y pueda trabajarlas con el
ser humano; simular que tiene un estado emocional contrario al del usuario y mejorarlo a través de la imitación y en lo
posterior crear el proceso empático(habilidad de inferir los pensamientos y sentimientos de otros para generar simpatía,
comprensión y afinidad).
“Así funciona la terapia de la risa, su intención es cambiar el estado emocional de la persona a través de reír, la cual
primero comienza por imitación y se convierte en un proceso de empatía.
Robótica Social y toma de decisiones
El campo de la robótica inició en 1940 por William Grey Walter, pero fue hasta 1990 que se desarrolló como parte del
área de inteligencia artificial, de aquí nace la robótica social, principalmente en países como Japón, Rusia y Alemania. Un
robot social es autónomo, interactúa y se comunica con los seres humanos, sigue comportamientos sociales y normas
vinculadas a su función.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
Algoritmos Geneticos
Los Algoritmos Genéticos (AGs) son métodos adaptativos que pueden usarse para resolver problemas de búsqueda y
optimización. Están basados en el proceso genético de los organismos vivos. A lo largo de las generaciones, las
poblaciones evolucionan en la naturaleza de acorde con los principios de la selección natural y la supervivencia de los más
fuertes, postulados por Darwin. Por imitación de este proceso, los Algoritmos Genéticos son capaces de ir creando
soluciones para problemas del mundo real. La evolución de dichas soluciones hacia valores óptimos del problema
depende en buena medida de una adecuada codificación de las mismas.
Un algoritmo genético consiste en una función matemática o una rutina de software que toma como entradas a los
ejemplares y retorna como salidas cuales de ellos deben generar descendencia para la nueva generación.
Versiones más complejas de algoritmos genéticos generan un ciclo iterativo que directamente toma a la especie (el total
de los ejemplares) y crea una nueva generación que reemplaza a la antigua una cantidad de veces determinada por su
propio diseño. Una de sus características principales es la de ir perfeccionando su propia heurística en el proceso de
ejecución, por lo que no requiere largos períodos de entrenamiento especializado por parte del ser humano, principal
defecto de otros métodos para solucionar problemas, como los Sistemas Expertos.
6.6 Biométrica
importancia en el ámbito de la inteligencia ambiental
La identificación biométrica se refiere a procesos automáticos para establecer la identidad de una perrona basándose en su
fisiología (huellas dactilares, iris, retina) o en su comportamiento (firma, manera de hablar o caminar). Los sistemas
biométricos de identificación presentan varias ventajas sobre otros métodos de identificación que implican el uso de
contraseñas o de tarjetas de identificación. Una de estas ventajas es el hecho de que la persona a ser identificada debe estar
presente en al punto de verificación, otra ventaja es que no es necesario memorizar contraseñas o llevar consigo
escarapelas de identificación.
Con el aumento del uso de computadoras y de la Internet se hace necesario proteger información personal. Al remplazar
las identificaciones en tarjetas y las contraseñas, las técnicas de biometría evitan el acceso no autorizado a información
confidencial. Otro problema con las claves y las identificaciones es que pueden ser olvidadas, robadas o extraviadas, es así
que la biometría se está convirtiendo en un método seguro que reduce la posibilidad de fraudes.
Los sistemas biométricos son esencialmente patrones de identificación que reconocen un usuario determinando la
autenticidad de alguna característica específica del mismo. En el diseño de un sistema biométrico se deben tener en cuenta
varias consideraciones. Primero que todo el usuario debe ser registrado en el sistema para que su indicador biométrico sea
capturado. Una vez se realiza esta operación la información es almacenada en una base de datos central o en una tarjeta
inteligente que se le entrega al usuario. La información es usada para establecer conexiones cuando un individuo necesite
ser identificado.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
En los últimos años se ha notado una preocupación creciente por las organizaciones regulatorias respecto a elaborar
estándares relativos al uso de técnicas biométricas en el ambiente informático. Esta preocupación es reflejo del creciente
interés industrial por este ámbito tecnológico, y a los múltiples beneficios que su uso aporta. No obstante, la
estandarización continua aún sigue siendo deficiente y como resultado de ello, los proveedores de soluciones biométricas
continúan suministrando interfaces de software propietario para sus productos, lo que dificulta a las empresas el cambio
de producto o vendedor.
A nivel mundial el principal organismo que coordina las actividades de estandarización biométrica es el Sub-Comité 17
(SC17) del Joint Technical Committee on Information Technology (ISO/IEC JTC1), del International Organization for
Standardization (ISO) y el International Electrotechnical Commission (IEC).
En Estados Unidos desempeñan un papel similar el Comité Técnico M1 del INCITS (InterNational Committee for
Information Technology Standards), el National Institute of Standards and Technology (NIST) y el American National
Standards Institute (ANSI).
Existen además otros organismos no gubernamentales impulsando iniciativas en materias biométricas tales como:
Biometrics Consortium, International Biometrics Groups y BioAPI. Este último se estableció en Estados Unidos en 1998
compuesto por las empresas Bioscrypt, Compaq, Iridiam, Infineon, NIST, Saflink y Unisis. El Consorcio BioAPI
desarrolló conjuntamente con otros consorcios y asociaciones, un estándar que promoviera la conexión entre los
dispositivos biométricos y los diferentes tipos de programas de aplicación, además de promover el crecimiento de los
mercados biométricos.
Algunos de los estándares más importantes son:
Estándar ANSI X.9.84: creado en 2001, por la ANSI (American National Standards Institute) y actualizado
en 2003, define las condiciones de los sistemas biométricos para la industria de servicios financieros haciendo
referencia a la transmisión y almacenamiento seguro de información biométrica, y a la seguridad del hardware
asociado.
Estándar ANSI / INCITS 358: creado en 2002 por ANSI y BioApi Consortium, presenta una interfaz de
programación de aplicación que garantiza que los productos y sistemas que cumplen este estándar son
interoperables entre sí.
Estándar NISTIR 6529: también conocido como CBEFF (Common Biometric Exchange File Format) es un
estándar creado en 1999 por NIST y Biometrics Consortium que propone un formato estandarizado (estructura
lógica de archivos de datos) para el intercambio de información biométrica.
Estándar ANSI 378: creado en 2004 por la ANSI, establece criterios para representar e intercambiar la
información de las huellas dactilares a través del uso de minucias. El propósito de esta norma es que un sistema
biométrico dactilar pueda realizar procesos de verificación de identidad e identificación, empleando información
biométrica proveniente de otros sistemas.
Estándar ISO 19794-2: creado en 2005 por la ISO/IEC con propósitos similares a la norma ANSI 378, respecto a
la que guarda mucha similitud.
Estándar PIV-071006: creado en 2006 por el NIST y el FBI en el contexto de la norma FIPS 201 del gobierno de
EE. UU, establece los criterios de calidad de imagen que deben cumplir los lectores de huellas dactilares para
poder ser usados en procesos de verificación de identidad en agencias federales.
Big data
importancia en el ámbito de la inteligencia ambiental
Dado a que el análisis de los datos para obtener de ellos un conocimiento valioso no es una tarea sencilla y, sobre todo,
requiere una combinación de capacidades que no es tan frecuente.
El análisis de grandes volúmenes de datos constituye una herramienta esencial para la gestión del conocimiento, la
transformación digital y la innovación de las organizaciones, y tenemos fundadas esperanzas de que esta nueva
licenciatura sea un aporte fundamental para la adopción de estas tecnologías en el ámbito de inteligencia ambiental
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
En el caso de BigData se tiene ya establecido las etapas para que pueda estar presente en cualquier aplicación las cuales
son:
1. Etapa de preparación
Fase inicial: es imprescindible valorar que la implementación de una solución de Big Data en nuestro negocio es
una alternativa factible y realista. En caso de que así sea, tendremos que preparar todo lo necesario y conseguir las
autorizaciones pertinentes para poder llevarlo a cabo.
o Detectar necesidades: tienen que ver con el volumen de datos a almacenar, su variedad, velocidad de
recogida, procesamiento y escalabilidad horizontal. En este proceso también se revelan carencias cuando
se confronta la nueva tecnología con la existente en la compañía.
o Justificar la inversión: con el Big Data se pretenden mejorar las cuestiones técnicas, al igual que crear
un entorno de alto rendimiento que posibilite el ahorro de costes.
o Evaluar las limitaciones: se deberá tener en cuenta la infraestructura de la empresa, su madurez
tecnológica, sus recursos, pero, sobre todo, los aspectos legales en relación a la privacidad de datos.
Fase de planificación: en esta fase se determinará el presupuesto con el vamos a contar durante el proceso y los
recursos que van a intervenir en el mismo, a saber:
o Gestores: sponsors, directores de proyecto, coordinadores y gestores de calidad.
o Diseñadores y arquitectos de datos: perfiles técnicos con los objetivos muy claros en cuanto a la
implementación del proyecto.
o Implementadores: personal cualificado, analistas y desarrolladores, con conocimientos del sector y de
tecnología.
o Operadores de datos: de entrada, intermedios y de resultado.
Fase de diseño: se parte de un diseño acorde a las necesidades de la organización y se va optimizando teniendo
en cuenta el coste, la escalabilidad y las distintas opciones del mercado. Consta de 2 etapas:
o Infraestructura: son las redes, los equipos o los servidores, es decir, el soporte físico de la solución.
o Arquitectura: es el apoyo lógico de la solución, formado por los protocolos, las comunicaciones o los
procedimientos, entre otros.
Fase de implementación: en este punto ya se han tenido que dejar cubiertos aspectos como el de la
administración, el mantenimiento o la seguridad para poder poner en marcha la solución de Big Data. Los pasos,
para ello, son los siguientes:
o Instalación de servidores y componentes y puesta en marcha de la infraestructura.
o Configuración de dicha infraestructura para su correcto funcionamiento.
o Ingesta, transformación y explotación de datos.
2. Etapa de recopilación, análisis de datos y generación de valor
Fase de recopilación: los datos son los componentes básicos del Big Data. Durante el proceso se trasformarán en
información y, con las técnicas adecuadas, aportarán conocimiento. Aquí ya podremos hablar de datos
inteligentes. Dicho proceso comienza con estos pasos:
o Evaluar los datos: se realiza un estudio de la utilidad de los datos, una evaluación de su volumen y
frecuencia de explotación, y una definición de accesos y restricciones para proteger información
confidencial.
o Absorber los datos para su explotación: se preparan y estandarizan los datos.
o Gestión de datos: en relación a su seguridad, visibilidad, mantenimiento y disponibilidad.
Fase de agregación de valor: la investigación de los datos por parte de los analistas permite la elaboración de
conclusiones y la identificación de nuevas vías de desarrollo del negocio.
Computo de las nubes.
importancia en el ámbito de la inteligencia ambiental
1) Todo lo que necesita el usuario está siempre disponible dondequiera que esté.
Cualquier punto de acceso es igual. Sea la computadora personal, la del cyber o la del trabajo, todo está siempre a un
click. Las cosas viajan con el usuario para que éste se pueda conectar "con su mundo" (correo electrónico, documentos,
tablas, presentaciones, fotos y mucho más) desde cualquier dispositivo conectado a Internet y desde cualquier lugar. Con
esto, la pérdida o el robo de un smartphone, tablet o notebook se transforma además en un problema menor. Todas las
aplicaciones mencionadas anteriormente dan cuenta de esta ventaja.
2) Ubicarse, llegar a destino y conocer el mundo.
Los mapas y todas las aplicaciones de uso geográfico son una de las estrellas en la nube. Han evolucionado a tal punto que
hoy permiten saber cómo llegar de una dirección a otra, ver el estado del tránsito, fotos de lugares de interés subidas por
los usuarios, fotos a 45 grados que dan una visión realista , vista satelital, el clima y mucho más. Aplicaciones como
Google Maps funcionan como verdaderas plataformas para un servicio de conocimiento global avanzado.
3) La vida social se mueve con el usuario
En la nube también viaja la vida social. Gracias a los perfiles almacenados en las redes sociales (que también utilizan la
nube) y sus contactos asociados y ordenados, nada se pierde ante el eventual cambio de teléfono o computadora. La
subida instantánea de fotos es también un buen recurso para asegurar que todas las fotos que se sacan nunca se pierden
porque se almacenan en la nube ni bien se toman instalando Google+ y habilitando la opción de subida instantánea.
4) No se cae, es segura y brinda control
Que una computadora personal o un dispositivo se rompa es mucho más probable que de un centro de datos tenga
problemas o interrumpa su servicio. La disponibilidad de todos los servicios basados en la nube es del 99% y las
interrupciones son mínimas. Permite compartir y trabajar en forma colaborativa pero siempre manteniendo el control y la
privacidad en manos del usuario. Estos servicios te permiten saber qué información estás compartiendo, con quién y
llevarla si quieres dejar de usarlos. Google permite revisar qué datos tiene del usuario en google.com/dashboard e incluso
llevárselos a otras plataformas a través de dataliberation.org.
Amazon AWS Elastic Beanstalk: PaaS construida sobre la infraestructura de Amazons IaaS. Es compatible con Java
(en Tomcat), PHP, Python, .Net y Node.js
Google App Engine: soporta un subconjunto de entornos Java comunes, así como Python and Go
Busca la asesoría de un experto para que te ayude a elegir las aplicaciones para PyMEs y los servicios en la nube que
mejor se adapten a las actividades y funciones de tu negocio.
No te quedes fuera de la revolución tecnológica que está impulsando el crecimiento de las pequeñas y medianas empresas
y toma ya la decisión de migrar a la nube.
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
En este caso se necesitan diferentes tipos de nubes comp principales componentes.
Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar
mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios
finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como
los suyos propios.
Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a
nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que
controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué
usuarios están autorizados a utilizar la infraestructura.
Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y
comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado
aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las
aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de
una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples
sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.
Realidad virtual.
importancia en el ámbito de la inteligencia ambiental (NOTA: duda deacuerdo al entorno)
La Inteligencia Ambiental (AmI) es un concepto contrapuesto a la Realidad Virtual ya que la primera coloca al ser
humano como centro y destinatario del desarrollo de las futuras TIC ya que estas serán incorporadas en los objetos
cotidianos para mejorar la calidad de vida. La Realidad virtual, por el contrario toma al individuo y lo coloca en un
entorno no real y virtual
Algoritmos involucrados y/o componentes necesarios para que esté presente en cualquier aplicación o sistema
inteligente bajo este contexto.
Seguimiento de cabeza
El seguimiento de cabeza permite a una aplicación reconocer los movimientos de cabeza del usuario, y realizar un
desplazamiento de la imagen cuando éste mueve la cabeza en cualquier dirección. Para realizar este seguimiento se
utilizan unos acelerómetros, giroscopios y magnetómetros incorporados en los HMDs. Además, cada compañía utiliza una
técnica propia para determinar la posición de la cabeza.
El Oculus Rift utiliza su propio sistema de posicionamiento llamado Constellation. Consiste en un conjunto de
veinte ledes infrarrojos colocadas alrededor del casco formando un patrón reconocible y un sensor. El sensor va captando
fotogramas y analizando la posición de todos los ledes, permitiendo así el seguimiento. 4
Algo parecido es lo que usa PlayStation VR, excepto que son solo nueve ledes. La desventaja del PSVR es que ha de
ajustarse con la cámara cada vez que una persona de diferente estatura (por ejemplo) lo utiliza. Además, la PlayStation
Camera, necesaria para poderlo utilizar, ha de estar bastante cerca del usuario para funcionar bien. De hecho, Sony
recomienda que se utilice el PSVR sentado, a aproximadamente 1.5 metros de la cámara y con espacio suficiente para
realizar algunos movimientos ligeros. De hecho, a partir de esta distancia el rendimiento disminuye, y Sony no garantiza
que la cámara detecte correctamente el movimiento a partir de los 9.8 pies (unos 3 metros). 1213
El método que utiliza las Vive es bastante más novedoso. Se trata de un sistema de seguimiento llamado Lighthouse,
desarrollado por HTC y Valve. No requiere de ninguna cámara, y el HMD no emite luz. El sistema consiste en dos cajas
que se colocan en la pared con un ángulo de 90º, éstas cajas contienen unos ledes y dos emisores de láseres, uno
horizontal y uno vertical. Por otro lado, el HMD y los dos mandos (son necesarios dos para poder determinar la posición
de ambas manos y brazos) disponen de sensores que captan la luz y los láseres emitidos por las cajas que se sitúan en las
paredes de la habitación. Los ledes se iluminan y los dispositivos receptores empiezan a contar. Uno de los dos láseres
emite un barrido por toda la sala. Los dispositivos detectan que sensores han sido alcanzados por el barrido y cuánto
tiempo ha pasado desde el flash de los ledes y utilizan esta información para calcular su posición respecto a las cajas. Al
acercarte demasiado a un muro, una cuadrícula translúcida aparece avisando de que estás cerca de una pared real. Todo
esto con un jitter (la imprecisión de las mediciones cuando el objeto está inmóvil) de tan solo 0.3 mm. 1415
Rastreo de movimiento
El seguimiento o rastreo de movimiento es una extensión del seguimiento de cabeza, pero permitiendo reconocer otro tipo
de movimientos, como el de las extremidades. Este terreno no está tan avanzado como el anterior aunque las grandes
compañías están enfocando su interés en él. 4
Aparte del prometedor y ya mencionado Lighthouse de Valve existen otras opciones, por ejemplo el Leap Motion Orion.
Éste es un sistema extremadamente preciso de seguimiento de las manos. Detecta todos los movimientos de los dedos y
las articulaciones incluso sobre entornos difusos y con niveles variables de luz, aunque tiene algunas desventajas, como el
hecho de que has de estar mirando tus manos para que el sistema las detecte. Otro problema, no exclusivo de Orion, es la
falta de algo tangible en las manos. En la vida real, cuando se entra en contacto con algo, el sentido del tacto se activa y se
siente ese algo. En la realidad virtual en cambio, las manos están vacías y por tanto no se tiene forma de saber si se está
sujetando el objeto de la manera que se quiere, o la fuerza que se está aplicando sobre él. Los desarrolladores están
intentando suplir esta falta de respuesta táctil mediante señales auditivas que indiquen cuándo y cómo se entra en contacto
con un objeto, pero la sensación no es la misma.1617
La alternativa de Oculus es Touch, un sistema de control que consiste en dos mandos empuñados y con una correa de
sujeción para la muñeca, con los que se hace sentir al usuario que está usando sus propias manos. Cada uno de estos dos
controles tiene forma de medialuna y dispone de dos botones, un mando analógico y un gatillo analógico, además de un
mecanismo denominado disparador de mano, que replica la sensación de disparar un arma. Touch también hace uso del
sistema de posicionamiento Constellation y a diferencia del Orion de Leap Motion, sí que dispone de respuesta táctil. Los
mandos además disponen de unos sensores que permiten detectar una serie de gestos con las manos, como cerrar el puño,
señalar con el índice o alzar el pulgar. La desventaja de Touch respecto a Orion es que, a pesar de ser muy avanzado, no
deja de ser un mando y por tanto queda lejos de la libertad de movimiento que ofrece este último. 1819
También cabe destacar la contribución de la empresa española NeuroDigital Technologies con su GloveOne. Es un guante
que pretende dar al usuario ese feedback táctil tan deseado. Actualmente no dispone de sistema de seguimiento, así que se
vale de un Leap Motion para ello, pero permite al usuario percibir el peso, la forma, el volumen y la textura de los objetos
con los que interactúa. Para ello se vale de unos sensores situados cerca del pulgar, índice y los dedos centrales, además
de la palma de la mano. Además, contiene 10 actuadores distribuidos entre la palma y las puntas de los dedos. Cada uno
de ellos vibra de manera individual, con distintas frecuencias e intensidades, reproduciendo de manera precisa las
sensaciones del tacto.
Existen otros sistemas de rastreo de movimiento, como trajes, controles por voz o incluso cintas de correr como Virtuix
Omni, que permiten al usuario explorar grandes distancias caminando (o corriendo). 4
Seguimiento ocular
Se trata de una tecnología que las principales compañías no han incorporado aún, pero que está presente en el HMD
FOVE VR. Este HMD incorpora unos sensores infrarrojos interiores que captan los movimientos del ojo. Esto permite un
abanico de opciones que van desde replicar los movimientos de tus ojos en tu avatar virtual, hasta provocar reacciones de
otros personajes según la manera en la que los miras. Lo que es más impresionante es el realismo que ofrece el
seguimiento ocular.
En la vida real, los ojos tienen un punto de enfoque central, mientras que el resto está desenfocado. Esto es muy difícil de
replicar, lo que provoca un exceso de enfoque en los sistemas de otras compañías, que reduce la sensación de inmersión.
El seguimiento ocular soluciona este problema, permitiendo enfocar solo aquello que el usuario está observando. Además,
podría dar lugar a hipotéticas optimizaciones: la aplicación podría utilizar sus recursos en un renderizado de alta calidad
de los objetos que están en el campo de visión del usuario, aplicando pocos recursos para todo aquello que está
desenfocado en ese momento. Esta tecnología requiere no obstante de pantallas de alta resolución, ya que el punto
enfocado por el usuario debería ser lo más realista posible. El exceso de enfoque de los otros sistemas puede producir
mareo por movimiento, algo que el seguimiento ocular también podría evitar.
Fuentes:
https://es.wikipedia.org/wiki/Internet_de_las_cosas
https://hipertextual.com/archivo/2014/10/internet-cosas/
http://searchdatacenter.techtarget.com/es/definicion/Internet-de-las-cosas-IoT
https://www.merca20.com/cual-es-la-importancia-de-los-wearables-a-la-hora-de-hacer-deporte/
http://www.espididoctor.com/que-son-wearables-futuro/
http://www.poderpda.com/editorial/los-wearables-incrementan-su-importancia/
http://www.codigonexo.com/blog/actualidad-blog/que-son-los-wearables/
http://www.lanacion.com.ar/1894352-consejos-para-usar-la-tecnologia-wearables-una-tendencia-que-avanza
http://tecnobitt.com/los-tipos-de-wearables-tecnologia-para-llevarla-puesta/
https://www.xatakandroid.com/aplicaciones-android/las-23-mejores-aplicaciones-para-android-wear
http://www.dispositivoswearables.net/
http://tecnobitt.com/los-tipos-de-wearables-tecnologia-para-llevarla-puesta/
http://realidad-aumentadainfo.blogspot.mx/2015/07/importancia-de-la-realidad-aumentada.html
http://blogs.icemd.com/blog-la-ensenanza-virtual/realidad-aumentada-y-aprendizaje/
https://prezi.com/mjlmklxroy0q/importancia-de-la-realidad-aumentada-en-la-educacion-de-la-a/
http://www.elmundo.es/papel/futuro/2016/09/12/57d69ae1e5fdeaf34e8b4576.html
http://comunidad.iebschool.com/disenodigitalyrealidadaumentada/2016/09/28/la-importancia-del-diseno-digital-en-la-realidad-
aumentada/
https://www.vt-lab.com/productos-servicios-de-realidad-virtual-y-aumentada/
http://www.pangeareality.com/servicios/
http://www.innoarea.com/servicios-de-realidad-virtual-y-realidad-aumentada/
http://www.bizcom.com.mx/realidad.html
https://www.bbvaopenmind.com/que-es-la-computacion-afectiva/
https://www.pabloyglesias.com/computacion-afectiva/
https://blogthinkbig.com/puede-la-tecnologia-medir-nuestras-emociones
http://www.dosdoce.com/2013/12/06/busqueda-y-anticipacion-en-las-nuevas-tecnologias-afectivas/
https://solucionbiometrica.wordpress.com/tag/biometrica/
http://www.articulo.tv/La-importancia-acudir-a-sistemas-biometricos_3616
http://www.kimaldi.com/blog/biometria/encriptacion_biometrica
http://www.elnotariado.com/importancia-identificacion-biometrica-notariado-5906.html
https://www.aware.com/es/que-es-la-biometria/aplicaciones-biometricas/
https://upcommons.upc.edu/bitstream/handle/2099.1/8082/proyecto%20final%20de%20carrera.pdf?sequence=1
https://es.wikipedia.org/wiki/Biometr%C3%ADa
http://www.hertasecurity.com/node/209
http://sisca.co/algoritmo-huella-dactilar-biometricos-zkt-eco/
https://www.powerdata.es/big-data
http://vintagecomunicacion.com/la-importancia-del-big-data-en-el-marketing-actual/
http://www.foromarketing.com/la-importancia-del-big-data/
http://mundoejecutivo.com.mx/pymes/2016/12/05/cual-importancia-big-data
https://www.infobae.com/opinion/2017/08/27/la-importancia-de-big-data-para-las-organizaciones/
https://smarterworkspaces.kyocera.es/blog/5-tipos-bases-datos-ideales-big-data/
https://politikon.es/2017/09/22/algoritmos-big-data-y-colusion/
http://www.elfinanciero.com.mx/opinion/big-data-y-algoritmos-tramposos.html
https://www.bbva.com/es/algoritmos-big-data-tambien-sirven-regular-economia-colaborativa/
http://herramientasennube.blogspot.mx/
http://www.nube.villanett.com/2015/11/15/tipos-software-en-la-nube/
https://es.slideshare.net/alfredovela/nube-conceptos-usos-y-aplicaciones
http://www.ictea.com/cs/knowledgebase.php?action=displayarticle&id=215
http://cibernat.com/articulos/computacion-en-la-nube
http://searchdatacenter.techtarget.com/es/opinion/Siete-beneficios-de-implementacion-del-computo-en-la-nube
http://185.5.126.23/innowiki/index.php/Inteligencia_ambiental#Inteligencia_Ambiental_versus_Realidad_Virtual
https://www.beeva.com/beeva-view/innovacion/inteligencia-ambiental-el-entorno-se-adapta-al-ser-humano/
https://es.wikipedia.org/wiki/Realidad_virtual#T.C3.A9cnicas_de_realidad_virtual
http://realidadvirtualrobertosanti.blogspot.mx/2009/09/importancia-de-la-realidad-virtual.html
https://sites.google.com/site/quintoeduardo/elementos-basicos-de-la-realidad-virtual