Está en la página 1de 55

ACTIVIDAD 1: Tendencias en tecnología de información.

Moreno Granados Urania Serena

Industria

1.Predictive Maintenance: El mantenimiento predictivo (PdM) es una técnica que utiliza


herramientas y técnicas de análisis de datos para detectar anomalías en su operación y
posibles defectos en equipos y procesos para que pueda repararlos antes de que
provoquen fallas.
Idealmente, el mantenimiento predictivo permite que la frecuencia de mantenimiento sea
lo más baja posible para evitar el mantenimiento reactivo no planificado, sin incurrir en
costos asociados con realizar demasiado mantenimiento preventivo.

Liga: https://www.fiixsoftware.com/maintenance-strategies/predictive-maintenance/

Iseo Martínez

2. Additive Manufacturing
Fabricación aditiva, también conocida como impresión 3D, es un proceso utilizado para
crear un objeto físico (o 3D) mediante la superposición de materiales uno por uno basado
en un modelo digital. A diferencia de la fabricación sustractiva que crea su producto final
cortando un bloque de material, la fabricación aditiva agrega piezas para formar su
producto final.

La fabricación aditiva es utilizada principalmente por ingenieros, arquitectos y gerentes


de construcción, y ha reemplazado la redacción manual. Ayuda a los usuarios a crear
diseños en tres dimensiones para visualizar la construcción y permite el desarrollo,
modificación y optimización del proceso de diseño. Este proceso ayuda a los ingenieros
a hacer representaciones más precisas y modificarlas más fácilmente para mejorar la
calidad del diseño.

https://www.autodesk.com/solutions/additive-manufacturing

Urania Serena Moreno


3. Digital Twins
Digital Twin es una réplica digital de un producto, servicio o proceso. La idea es someter
dicho producto o servicio a estrés de manera que se vean testadas sus principales
debilidades sin la necesidad de construir costosos prototipos, cuya mejora subsecuente
supone un coste de miles de dólares para las empresas.
Estos gemelos digitales, sirven para conectar el mundo online y offline, y la clave de su
éxito actual es el desarrollo del Internet of Things. En la actualidad, esta tecnología ha
permitido instalar sensores capaces de captar datos en todo tipo de objetos y lugares
que, a su vez, son transmitidos y almacenados en la nube, para posteriormente aplicar
esa información a los modelos virtuales de los productos, servicios o procesos deseados.

https://www.aecoc.es/innovation-hub-noticias/que-son-los-digital-twins-y-por-que-son-
tan-importantes/
Rojas Romero Miguel

4. Hyper-automation

La hiperautomatización es el concepto de automatizar todo lo que se puede automatizar


en una organización. Las organizaciones que adoptan la hiperautomatización tienen
como objetivo optimizar los procesos en su negocio utilizando inteligencia artificial (IA),
automatización de procesos robóticos (RPA) y otras tecnologías para ejecutar sin
intervención humana.

La hiperautomatización es un enfoque emergente de la automatización, pero Gartner (el


enlace reside fuera de IBM) ya la identificó como una de las 10 principales tendencias
tecnológicas estratégicas. Realizaron una encuesta reciente que mostró que el 85 % de
los participantes “aumentarán o mantendrán las inversiones en hiperautomatización de
su organización durante los próximos 12 meses, y más del 56 % ya tiene cuatro o más
iniciativas de hiperautomatización simultáneas. Según Gartner (el enlace reside fuera de
IBM), "la hiperautomatización está pasando rápidamente de una opción a una condición
de supervivencia", clasificando a los "procesos de trabajo obsoletos como el problema
número uno de la fuerza laboral".

What is Hyperautomation | IBM


Avendaño Sierra
5. Cloud robotics

La robótica en la nube ha surgido recientemente como una tecnología colaborativa entre


la nube robótica informática y de servicios habilitada a través del progreso en redes
inalámbricas, almacenamiento a gran escala y tecnologías de la comunicación, y la
presencia omnipresente de los recursos de Internet en los últimos años. La computación
en la nube empodera a los robots ofreciéndoles capacidades computacionales más
rápidas y potentes capacidades a través de computación paralela masiva y mayores
instalaciones de almacenamiento de datos. también ofrece acceso a grandes conjuntos
de datos y software de código abierto, capacidades de aprendizaje cooperativo a través
del conocimiento el intercambio y el conocimiento humano a través del crowdsourcing. El
progreso reciente en la robótica en la nube ha conducido a una investigación activa en
esta área que abarca desde el desarrollo de arquitecturas de robótica en la nube hasta
sus variadas aplicaciones en diferentes dominios.

MOHANARAJAH, Gajamohan, et al. Rapyuta: A cloud robotics platform. IEEE Transactions on


Automation Science and Engineering, 2014, vol. 12, no 2, p. 481-493.

https://ieeexplore.ieee.org/abstract/document/6853392

GUERRERO AGUILAR

6. MLOPS

Los modelos de machine learning proporcionan insights valiosos al negocio, pero solo si
esos modelos pueden acceder a los datos de la organización de forma continua y
analizarlos. Las operaciones de machine learning (MLOps por sus siglas en inglés) son
el proceso fundamental que lo hace posible.
Las MLOps son un proceso multifuncional, colaborativo e iterativo que pone en marcha
las capacidades de data science. Para ello, las MLOps tratan el machine learning (ML) y
otros tipos de modelos como artefactos de software reutilizables. Luego, los modelos se
pueden implementar y monitorear continuamente mediante un proceso repetible.
Las MLOps ofrecen una integración continua y una implementación rápida y repetible de
modelos. Como tal, ayudan a las empresas a descubrir información e insights valiosos a
partir de sus datos con mayor rapidez. Las MLOps también incluyen el monitoreo y la
repetición del entrenamiento continuo de modelos en producción para garantizar que
funcionen de manera óptima a medida que los datos cambian (evolucionan) con el tiempo.

Uno de los principales beneficios de las MLOps es que es compatible con tipos de
modelos estadísticos, de data science y de aprendizaje automático, entre otros, para
ofrecer un valor de negocios rápidamente. Para ello, las MLOps garantizan que los
modelos se puedan implementar reiteradamente y monitorear de forma continua.

https://www.alteryx.com/es-419/glossary/mlops.

Iseo Martínez
7. Machine Data Revolution
Busca sistemas heredados y bases de datos para evaluación no estructurada y no
tradicional. Agrega y guarda en la nube ofertas optimizadas para el aprendizaje
automático.
Utiliza la tecnología de administrador de datos cognitivos para iluminar ideas y conexiones
entre datos dispares. Explora oportunidades para usar computación edge y 5G para
impulsar en tiempo real capacidades de datos y disminuir la latencia.
Raymundo Galicia

8.DEI Tools
Los líderes y los profesionales de recursos humanos saben lo importantes que son las
iniciativas de DEI para las organizaciones exitosas, pero ¿cuáles son las herramientas y
capacitaciones que realmente mueven el listón? Un seminario web reciente respondió a
esa pregunta en profundidad, y los aspectos más destacados están a continuación para
usted.

El seminario web de WorkWider contó con Giannina Seaman, una profesional de


diversidad, equidad e inclusión / recursos humanos; Glenn E. Singleton, fundador y CEO,
socio de Courageous Conversation™ and Work Wider; y Sherrie Haynie, de The Myers-
Briggs Company, Directora de Servicios Profesionales de Estados Unidos y cocreadora
del taller Liderazgo Inclusivo: Aprovechando la Diversidad de Pensamiento. El seminario
web fue moderado por Michele Lanza, fundadora y CEO de Work Wider.

¿Cuáles son las mejores herramientas y materiales de capacitación para las


iniciativas de DEI? | La compañía Myers-Briggs (themyersbriggs.com)
Urania Serena Moreno

9.Robotic Process Automation (RPA)

Es la tecnología que permite configurar un software o "robot" para controlar e interpretar


las aplicaciones existentes y poder así procesar una transacción, manipular datos,
desencadenar respuestas y comunicarse con otros sistemas digitales.

RPA es en realidad un software que permite automatizar una serie de tareas predecibles,
medibles y configurables. Es importante enfatizar que el proceso debe contar con las
características antes mencionadas, ya que nos permitirán cuantificar en el tiempo para
calcular su retorno y re-configurarlo si una variable cambia en el proceso, debido a que,
hasta ahora, la mayoría de los robots no son capaces de tomar decisiones autónomas.
https://blog.softtek.com/es/qué-es-rpa
Iseo Martínez

10. Infrastructure asCode

Infrastructure as code (abreviado como IaC) es un paradigma de TI que describe en lenguaje


informático no solo el software, sino también la infraestructura necesaria para ejecutarlo, como
el espacio de almacenamiento, la potencia computacional o los recursos de red. Básicamente,
se trata de programar estructuras de hardware como un código ejecutable que puede
adaptarse, duplicarse, eliminarse y versionarse fácilmente en cualquier momento. El concepto
de la infraestructura como código se basa en tecnologías de nube modernas como la
virtualización y el manejo de recursos definidos por software, lo que hace posible gestionar el
hardware sin acceder manualmente a los dispositivos subyacentes.

Infrastructure as code (IaC) | Definición, función y ejemplos - IONOS


Avendaño Sierra

Factor humano

1. COBOTS

La definición de cobot es un brazo robótico creado para trabajar junto a los humanos en una
cadena de producción. En otras palabras, es aquel que opera en conjunto con los humanos de
forma segura, asistiendo en diferentes tareas y procesos. Los cobots se construyen
intencionalmente para interactuar con los humanos en un espacio compartido y de forma eficiente.
Están diseñados para realizar cualquier tipo de trabajo manual o repetitivo, así como tareas que
supongan un riesgo para los trabajadores, asimismo, se comunican con los humanos gracias a la
implementación de la visión artificial.

https://www.iebschool.com/blog/que-es-cobot-robot-colaborativo-
tecnologia/#:~:text=Un%20cobot%20o%20robot%20colaborativo%2C%20es%20aquel%20que%
20opera%20en,compartido%20y%20de%20forma%20eficiente.
https://www.universal-robots.com/es/cobots-robots-colaborativos/
Rojas Romero Miguel
2. Real Time Performance Management (RPM)
La gestión del rendimiento en tiempo real (RPM) es una práctica de gestión que mide el
rendimiento en tiempo real. Estas medidas se utilizan para ajustar los objetivos para
explotar las condiciones actuales del mercado y mejorar la agilidad del negocio.

RPM proporciona una estrategia para el éxito con las condiciones comerciales muy
dinámicas que enfrentan los fabricantes de hoy. La atención se centra en los costos
operativos y las medidas de rentabilidad para la asignación de recursos y la toma de
decisiones. Los objetivos de rendimiento dinámico se adaptan a las definiciones
cambiantes de lo que es importante y lo que es un rendimiento aceptable. El monitoreo
en tiempo real de las medidas de desempeño y los factores externos mantienen a la
corporación enfocada en las "cosas correctas".

https://www.arcweb.com/industry-concepts/real-time-performance-management-rpm

Urania Serena Moreno

3. Human augmentation

El aumento humano es un área de investigación que busca extender y expandir la


capacidad humana. Esto puede venir en forma de muchas cosas, ya sea a través de
avances médicos o tecnológicos. Por ejemplo, las personas ingieren sustancias químicas
para mejorar habilidades específicas como la concentración o la fuerza. A veces, también
se colocan implantes o se someten a operaciones para mejorar diferentes funciones o
características corporales.

Si bien los dos ejemplos anteriores ilustran el aumento humano invasivo, esta tecnología
no siempre es así. Algunas mejoras de aumento humano toman la forma de objetos
externos.

Por ejemplo, las gafas son una simple herramienta de aumento humano externo para
mejorar la vista. Otros artículos como binoculares, micrófonos y microscopios también
sirven como herramientas externas de aumento humano para diferentes propósitos.
Incluso puede encontrar herramientas de aumento humano en sus dispositivos
inteligentes que pueden aumentar la realidad a través de AR.
Human Augmentation: What It Is And How It Is Used | Robots.net
AVENDAÑO SIERRA
4. Human Activity Recognition (HAR)
El reconocimiento de actividad humana (HAR) tiene como objetivo clasificar las acciones
de una persona a partir de una serie de medidas capturadas por sensores.
Hoy en día, recopilar este tipo de datos no es una tarea ardua. Con el crecimiento del
Internet de las Cosas, casi todo el mundo tiene algún dispositivo que monitorea sus
movimientos. Puede ser un reloj inteligente, un pulsómetro o incluso un teléfono
inteligente.
Por lo general, esto se realiza siguiendo un enfoque de ventana deslizante de longitud fija
para la extracción de características. Aquí se deben corregir dos parámetros: el tamaño
de la ventana y el cambio.
Estos son algunos de los datos que podrías utilizar:
● Aceleración del cuerpo.
● Aceleración de la gravedad
● Velocidad angular del cuerpo.
● Aceleración angular del cuerpo.
● Etc.
El modelo de aprendizaje automático utilizado para el reconocimiento de actividades se
basa en los sensores disponibles de los dispositivos.
Sin embargo, analizar estos datos puede ser un gran desafío debido a la complejidad de
las actividades humanas y las diferencias existentes entre dos individuos.

Human activity recognition (HAR) using machine learning (neuraldesigner.com)


AVENDAÑO SIERRA

Servers

1. Serverless computing
El serverless computing o la arquitectura serverless es un modelo en la nube que permite a los
usuarios crear y ejecutar aplicaciones y procesos sin entrar en contacto con el servidor subyacente.
Por lo tanto, a pesar de su denominación, estos entornos en la nube también cuentan con
servidores, con la diferencia de que es el proveedor el que se encarga de suministrarlo, gestionarlo
y escalarlo.
El acceso a estas funciones se puede realizar de dos maneras:
● de forma asíncrona, a través de eventos,
● o de forma sincronizada, según el modelo Client-Server clásico.
https://www.ionos.mx/digitalguide/servidores/know-how/serverless-computing/

Rojas Romero Miguel

2. Edge computing

El edge computing es un tipo de informática que ocurre en la ubicación física del usuario,
de la fuente de datos, o cerca de ellas. Esto permite que los usuarios obtengan servicios
más rápidos y confiables, y que las empresas puedan aprovechar la flexibilidad del cloud
computing híbrido. Con el edge computing, las empresas pueden usar y distribuir un
conjunto común de recursos en una gran cantidad de ubicaciones

¿Qué es el edge computing? Su uso con centros de datos y nube (redhat.com)


AVENDAÑO SIERRA

3. Fog Computing

También conocido como “computación en la niebla”, es una arquitectura de la nube en la


cual los datos que envían los dispositivos de un borde, se almacenan y comunican de
forma local. Por consiguiente, el mismo se encarga de hacer el proceso de enrutamiento
para así enviar los datos a ser procesados en una red próxima.

Su nombre fue otorgado por la multinacional Cisco, quien fue el fabricante que le dió su
nombre debido a que la acumulación de los datos es similar a la niebla, de allí el término
de "fog".

El propósito de esta tecnología es aminorar el canal por el cual se comunican los


dispositivos y la nube. Por lo tanto, procesa de forma rápida cuál será el destino de estos
datos según sus características, de manera que el proceso sea más corto y funcional.

Fog Computing: ¿Qué es? funciones, arquitectura y beneficios (aicad.es)

AVENDAÑO SIERRA
4. CDN Edge
Un servidor de borde CDN es una computadora que existe en el extremo lógico o "borde"
de una red. Un servidor perimetral a menudo sirve como conexión entre redes separadas.
Un propósito principal de un servidor perimetral de CDN es almacenar contenido lo más
cerca posible de una máquina cliente solicitante, lo que reduce la latencia y mejora los
tiempos de carga de la página.
Un servidor perimetral es un tipo de dispositivo perimetral que proporciona un punto de
entrada a una red. Otros dispositivos perimetrales incluyen enrutadores y conmutadores
de enrutamiento. Los dispositivos perimetrales a menudo se colocan dentro de puntos de
intercambio de Internet (IxP) para permitir que diferentes redes se conecten y compartan
el tránsito.
What is a CDN edge server? | Cloudflare
AVENDAÑO SIERRA

5. Multi-access edge computing (MEC)


La computación de borde de acceso múltiple (MEC) es un tipo de arquitectura de red que
proporciona capacidades de computación en la nube y un entorno de servicio de TI en el
borde de la red . El objetivo de MEC es reducir la latencia, garantizar una operación de
red y una prestación de servicios altamente eficientes, y mejorar la experiencia del cliente.
La computación perimetral de acceso múltiple (también conocida como computación
perimetral móvil) ahora se define de manera más amplia como una evolución en la
computación en la nube que utiliza la movilidad, los servicios en la nube y la computación
perimetral para trasladar los hosts de aplicaciones de un centro de datos centralizado al
borde de la red. lo que da como resultado aplicaciones que están más cerca de los
usuarios finales y servicios informáticos que están más cerca de los datos de las
aplicaciones. Los estándares técnicos y arquitectónicos para la computación perimetral
de acceso múltiple han sido desarrollados principalmente por el Instituto Europeo de
Estándares de Telecomunicaciones (ETSI).
Raymundo Galicia
https://www.redhat.com/en/topics/edge-computing/what-is-multi-access-edge-computing

6. White-box servers Original-Design Manufacture (ODMs)


Un servidor de caja blanca es una computadora de centro de datos que no es
fabricada por un proveedor de marca conocida. Los servidores de caja blanca se
pueden encontrar en grandes centros de datos administrados por compañías gigantes
de Internet como Google o Facebook.
Los servidores de caja blanca generalmente se compran en grandes cantidades a
proveedores llamados fabricantes de diseño original (ODM) . Por lo general, un ODM
construye sus servidores con componentes comerciales estándar (COTS) que se pueden
ensamblar de formas ligeramente diferentes o actualizarse para brindarle al cliente un
grado de personalización del sistema. Raymundo Galicia
https://www.techtarget.com/searchdatacenter/definition/white-box-server
7. Open Compute Proiect
El Open Compute Project surgió de los esfuerzos de Facebook para diseñar y construir
software, servidores y otros componentes del centro de datos personalizados para hacer
frente a las crecientes demandas de su infraestructura. La mayoría de los centros de
datos compran y utilizan una gran cantidad de servidores económicos de uso general.
Este enfoque puede causar una expansión significativa del hardware, así como requisitos
sustanciales de energía y enfriamiento.

El Open Compute Project se ha expandido más allá de sus raíces como un proyecto de
Facebook durante los últimos dos años y ahora incluye miembros como Rackspace,
Goldman Sachs y Arista Networks. La comunidad OCP ha colaborado con otros proyectos
de software de código abierto para ayudar con éxito a desarrollar servidores
energéticamente eficientes, un economizador del lado del aire al 100% y un sistema de
enfriamiento por evaporación para respaldar los servidores, un chasis de servidor simple
sin tornillos, diseños para racks de servidores y batería. gabinetes y un esquema de
distribución de energía CC / CA integrado. En mayo de 2013, el proyecto amplió su
alcance para incluir conmutadores independientes del sistema operativo (independientes
del SO).

▷▷▷ ¿Qué es Open Compute Project? (Actualizado 2022) - Krypton Solid


AVENDAÑO SIERRA

8. Containers
Los contenedores son unidades ejecutables de software en los que el código de
aplicación se empaqueta, junto con sus bibliotecas y dependencias, de forma común para
que pueda ejecutarse en cualquier lugar, ya sea en el desktop, en la TI tradicional o en la
nube.
Para ello, los contenedores utilizan una forma de virtualización del sistem operativo (SO)
en la que las características del SO (especificamente los espacios de nombres y las
primitivas de cgroups en el caso del kernel de Linux) se aprovechan al máximo para aislar
procesos y controlar la cantidad de CPU, memoria y disco a los que dichos procesos
tienen acceso.
Los contenedores son pequeños, rápidos y portátiles porque, a diferencia de una máquina
virtual, los contenedores no necesitan incluir un SO invitado en todos los casos y, en su
lugar, pueden simplemente hacer uso de las características y recursos del sistema
operativo host.

Los contenedores aparecieron por primera vez hace décadas con versiones como
FreeBSD Jails y AIX Workload Partitions, pero la mayoría de los desarrolladores
modernos recuerdan el año 2013 como el inicio de la era moderna del contenedor con la
introducción de Docker.

https://www.ibm.com/mx-es/cloud/learn/containers.
Iseo Martínez
9. Microservices
Los microservicios, también conocidos como arquitectura de microservicios, son un estilo
arquitectónico que estructura una aplicación como una colección de servicios que son:
● Altamente mantenible y comprobable
● Débilmente acoplado
● Desplegable de forma independiente
● Organizado en torno a las capacidades empresariales.
● Propiedad de un pequeño equipo.
La arquitectura de microservicios permite la entrega rápida, frecuente y confiable de
aplicaciones grandes y complejas. También permite que una organización evolucione su
pila de tecnología.
What are microservices?
AVENDAÑO SIERRA

10. Microservers
Un microservidor, también conocido como "micro servidor" o "dispositivo de servidor", es
un pequeño servidor diseñado para aplicaciones más pequeñas. No tiene tanta potencia
de procesamiento como un servidor estándar y tiene menos capacidad de
almacenamiento. Los microservidores suelen tener hasta dos procesadores y hasta
cuatro ranuras de memoria. Por lo general, tienen varias unidades de disco y capacidad
de conectividad USB. Los primeros usos de estos servidores más pequeños fueron para
tareas informáticas más ligeras, pero se han expandido para incluir funciones más
potentes como servir elementos web más complejos, escritorios alojados y procesamiento
de señal digital para empresas de telecomunicaciones.
https://www.unisolinternational.com/wat-is-a-microserver/
Urania Serena Moreno

11. Software Defined Servers (Iván Pérez Ramírez)


Un Software Defined Servers le brinda la capacidad de combinar los recursos (memoria,
procesadores y E/S) de múltiples servidores existentes en un solo servidor virtual, bajo
una única imagen de sistema operativo sin modificar.
https://www.tidalscale.com/what-is-a-software-defined-
server/#:~:text=A%20Software%2DDefined%20Server%20gives,single%20unmodified%
20operating%20system%20image.

12. Micro data centers (Iván Pérez Ramírez)


Un Micro data centers ( MDC ) es una arquitectura de centro de datos más pequeña o en
contenedores (modular) que está diseñada para cargas de trabajo informáticas que no
requieren instalaciones tradicionales. Mientras que el tamaño puede variar de un rack a otro,
un microcentro de datos puede incluir menos de cuatro servidores en un solo rack de 19
pulgadas. Puede venir con sistemas de seguridad incorporados, sistemas de refrigeración y
protección contra incendios. Por lo general, existen sistemas independientes a nivel de rack
que contienen todos los componentes de un centro de datos 'tradicional', que incluyen
refrigeración en rack, fuente de alimentación, respaldo de energía, seguridad, incendios y
supresión. Existen diseños donde la energía se conserva por medio de encadenamiento de
temperatura, en combinación con refrigeración líquida.
https://en.wikipedia.org/wiki/Micro_data_center
13. Non-Stop Computing (Iván Pérez Ramírez)
NonStop OS es un sistema operativo basado en mensajes diseñado para la tolerancia a
fallas. Funciona con pares de procesos y garantiza que los procesos de copia de
seguridad en CPU redundantes se hagan cargo en caso de que falle un proceso o una
CPU. La integridad de los datos se mantiene durante esas adquisiciones; no se pierden
ni corrompen transacciones ni datos.

Los sistemas NonStop son, hasta cierto punto, autorregenerables. Para eludir los puntos
únicos de falla, están equipados con casi todos los componentes redundantes. Cuando
falla un componente de la línea principal, el sistema recurre automáticamente a la copia
de seguridad.
https://en.wikipedia.org/wiki/NonStop_(server_computers)

14. Scale-out model of computing (Iván Pérez Ramírez)


El término "scallin-up" significa utilizar un único servidor más potente para procesar la
carga de trabajo que se ajusta a los límites del servidor.
Scale-out es un modelo diferente que utiliza múltiples procesadores como una sola
entidad para que una empresa pueda escalar más allá de la capacidad informática de un
solo servidor. La forma en que logramos esto en Dell es mediante el uso de tecnología
habilitada para computación de alto rendimiento. Es muy importante que no solo nos
fijemos en las cargas de trabajo, sino en las características de la cantidad de datos que
pueda necesitar HANA o cualquier otra plataforma. Hacemos esto agregando clústeres
de forma incremental a medida que aumenta la carga de trabajo. Este es el concepto de
usar clústeres relativamente pequeños en lugar de tratar de ajustar la carga de trabajo en
un solo sistema de escalamiento vertical. Esto es mucho más económico y permite una
mayor escala que un solo sistema de escalado en las circunstancias adecuadas.
https://www.dell.com/en-us/blog/the-difference-between-scale-up-and-scale-
out/#:~:text=Scale%2Dout%20is%20a%20different,capacity%20of%20a%20single%20s
erver.

15. Hyperconvergence/Hyperspace (Iván Pérez Ramírez)


La Hyperconvergence es un marco de TI que combina almacenamiento, computación y
redes en un solo sistema que puede reducir la complejidad del centro de datos y aumentar
la escalabilidad. Una plataforma Hyperconvergence incluye un hipervisor para
computación virtualizada, almacenamiento definido por software y virtualización de red.
https://www.vmware.com/topics/glossary/content/hyperconvergence.html
16. Fully integrated servers (Iván Pérez Ramírez)
Un integrated servers es un tipo de servidor informático que facilita la interacción entre
diferentes sistemas operativos (SO), servicios y aplicaciones en un entorno de TI
empresarial. Con la ayuda de un servidor de integración, estos componentes pueden
comunicarse entre sí, independientemente de su plataforma o arquitectura subyacente.

El integrated servers empresarial sirve como un servidor intermedio, o de middleware,


para eliminar los problemas de compatibilidad e interoperabilidad, si los hubiera, entre
diferentes plataformas y arquitecturas. Un integrated servers empresarial puede incluir
aplicaciones pre empaquetadas, personalizadas y heredadas.
https://www.techtarget.com/searchcio/definition/integration-server

17. Cloud disaggregation (Iván Pérez Ramírez)


El uso de una arquitectura de cloud disaggregation permitiría a las empresas e
instituciones implementar su propia infraestructura y servicios informáticos de borde al
combinar su infraestructura de nube local con múltiples nodos de borde altamente
dispersos alquilados a proveedores externos.
https://www.computer.org/csdl/magazine/ic/2019/03/08766955/1bNdl0xpmeY

18. Live migration (Iván Pérez Ramírez)


La live migration se refiere al proceso de mover una máquina virtual o una aplicación en
ejecución entre diferentes máquinas físicas sin desconectar el cliente o la aplicación. La
memoria, el almacenamiento y la conectividad de red de la máquina virtual se transfieren
de la máquina invitada original al destino.
https://en.wikipedia.org/wiki/Live_migration

19. Bare Metal as a Service (BmaaS/ MaaS)


Metal as a Service (MAAS) proporciona una automatización completa de los servidores
físicos para la eficiencia de la operación del centro de datos en las instalaciones. Es un
software de código abierto y es compatible con Canonical. MAAS trata los servidores
físicos como máquinas virtuales o instancias en la nube. En lugar de tener que administrar
cada servidor individualmente, MAAS convierte el hardware básico en un recurso similar
a una nube elástica. MAAS proporciona la gestión de una gran cantidad de máquinas
físicas mediante la creación de un solo grupo de recursos a partir de ellas. Las máquinas
participantes se pueden aprovisionar automáticamente y utilizar normalmente. Cuando
esas máquinas ya no son necesarias, se "liberan" nuevamente al grupo. MAAS integra
todas las herramientas necesarias para una experiencia fluida. Incluye:

● interfaz de usuario web


● Compatibilidad con las instalaciones de Ubuntu, CentOS, Windows, Red
Hat Enterprise Linux, SUSE y VMware ESXi
● Gestión de direcciones IP (IPAM)
● Soporte completo de API y CLI
● Alta disponibilidad
● Control de acceso basado en roles (RBAC)
● Compatibilidad con IPv4 e IPv6
● Inventario de componentes
● DHCP y DNS para otros dispositivos en la red
● Integración de retransmisión DHCP
● VLAN y soporte de estructura
● NTP para toda la infraestructura
● Pruebas de hardware (usando scripts listos para usar y adicionales que se
ejecutan en el servidor)
● Compatibilidad con hardware componible

MAAS funciona con cualquier configuración de sistema y Canonical lo recomienda como


un sistema de aprovisionamiento físico. Raymundo Galicia

https://infohub.delltechnologies.com/l/reference-architecture-canonical-charmed-
openstack-ussuri-on-dell-emc-hardware/maas-metal-as-a-service-bare-metal-cloud

20. Capability Oriented Architecture


Arquitectura Orientada a la Capacidad (COA). COA permite a los desarrolladores diseñar
e implementar su código con intenciones como "detectar rostros", "contar objetos" y
"reconocer expresiones matemáticas". El vocabulario utilizado para describir la intención
proviene de un lenguaje natural común como el inglés, por lo que hay una pequeña curva
de aprendizaje para comenzar a expresar la intención en su código. Cada intento se
puede asociar con múltiples restricciones funcionales o no funcionales, como "la
velocidad de fotogramas debe ser superior a 10 fotogramas por segundo", "el coste por
transacción no puede superar los 0,01 USD" y "las respuestas deben firmarse con un
certificado de confianza".

Una vez que se recibe una intención, el tiempo de ejecución de COA busca en su registro
de capacidad, con el que los proveedores de capacidad se registran para ofrecer las
capacidades requeridas para cumplir con las intenciones del usuario. Un proveedor hace
promesas en sus propiedades, como SLA y costo. Y el tiempo de ejecución de COA elige
los proveedores apropiados para usar en función de las restricciones, las telemetrías del
servicio y los factores ambientales, como la conectividad de la red. Luego, el tiempo de
ejecución de COA envuelve la capacidad descubierta como una llamada de función local
a través de una biblioteca o un sidecar. Esto brinda a los desarrolladores un paradigma
de programación simple: esencialmente, tendrá un lenguaje de programación con infinitas
palabras clave como "detectar rostro", "impresión 3D", "girar a la izquierda" y "hornear
pizza". Y sí, si COA encuentra un proveedor verificado que promete hornear una pizza,
se hornea una pizza real.
Raymundo Galicia
https://www.linkedin.com/pulse/brief-introduction-capability-oriented-architecture-
coa-haishi-bai?trk=articles_directory
21. Cloud Continuum
Cloud Continuum abarca una gama de capacidades y servicios desde el público hasta el
borde y todo lo demás, todo perfectamente integrado por redes de nube y respaldado por
sofisticados estándares de Cloud Continuum. Además, la variedad de tecnologías de
Cloud Continuum varía según la propiedad y la ubicación, desde cerca de la organización
hasta fuera de las instalaciones. Las redes 5G, primero en la nube y definidas por software
integran Continuum, lo que permite el acceso a la nube desde prácticamente cualquier
lugar y elimina los silos entre nubes privadas, públicas, híbridas, perimetrales y múltiples.
Raymundo Galicia
https://dzone.com/articles/the-cloud-continuum

Storage

1. Unstaffed data center


Hoy en día, un centro de datos con luces apagadas (también llamado "centro de datos no
tripulado") es justo lo que su nombre implica: una instalación totalmente automatizada que puede
operar en la oscuridad sin personal en el lugar. Las luces se pueden apagar literalmente para
ahorrar dinero al operador. En lugar de que los ingenieros y los gerentes de operaciones estén en
el sitio, los servicios y equipos del centro de datos se monitorean y administran de forma remota.
Es decir que la automatización también se puede utilizar en las operaciones del centro de datos.
Todo dentro de un centro de datos se puede programar, monitorear y mantener mediante la
automatización. Esto no solo ahorrará mano de obra, sino que también hará que el sistema sea
más eficiente mediante el aprendizaje automático.

https://datacenterfrontier.com/are-we-headed-toward-lights-out-data-centers/
https://www.colocationamerica.com/blog/lights-out-data-center

Rojas Romero Miguel


2. Scale-out storage
¿Qué es el almacenamiento escalable?
El almacenamiento escalable es una arquitectura de almacenamiento conectado a la red
(NAS) en la que la cantidad total de espacio en disco se puede expandir mediante la
adición de dispositivos en arreglos conectados con sus propios recursos.
En un sistema escalable, se puede agregar y configurar nuevo hardware según surja la
necesidad. Cuando un sistema de escalabilidad horizontal alcanza su límite de
almacenamiento, se puede agregar otro arreglo para expandir la capacidad del sistema.
El almacenamiento de escalamiento horizontal puede aprovechar el almacenamiento
adicional agregado en los arreglos y usar dispositivos adicionales para aumentar la
capacidad de almacenamiento de la red, agregar rendimiento y abordar la necesidad de
almacenamiento adicional.
Antes de que el almacenamiento de escalamiento horizontal se hiciera popular, las
empresas a menudo compraban arreglos de almacenamiento mucho más grandes de lo
necesario para garantizar que hubiera suficiente espacio en disco disponible para futuras
expansiones. Si esa expansión nunca se produjo o las necesidades de almacenamiento
resultaron ser menores de lo previsto, gran parte del espacio en disco comprado
originalmente se desperdició.
Con una arquitectura de escalamiento horizontal, una organización puede hacer una
inversión inicial más pequeña porque no tiene que considerar las necesidades potenciales
a largo plazo. Si los requisitos de almacenamiento aumentan más allá de las expectativas
originales, se pueden agregar nuevos arreglos según sea necesario, esencialmente sin
límite.
Raymundo Galicia
https://www.techtarget.com/whatis/definition/scale-out-
storage#:~:text=Scale%2Dout%20storage%20is%20a,configured%20as%20the%20
need%20arises.

3. Phase Change Memory (PCM) (Iván Pérez Ramírez)


La phase Change Memory (también conocida como PCM, PCME, PRAM, PCRAM, OUM
(memoria unificada ovónica) y C-RAM o CRAM (RAM de calcogenuro)) es un tipo de
memoria de acceso aleatorio no volátil. Los PRAM aprovechan el comportamiento único
del vidrio de calcogenuro. En PCM, el calor producido por el paso de una corriente
eléctrica a través de un elemento calefactor, generalmente hecho de nitruro de titanio, se
usa para calentar y apagar rápidamente el vidrio, haciéndolo amorfo, o para mantenerlo
en su rango de temperatura de cristalización durante algún tiempo, de ese modo.
cambiándolo a un estado cristalino. PCM también tiene la capacidad de lograr una serie
de estados intermedios distintos, por lo que tiene la capacidad de contener múltiples bits
en una sola celda, pero las dificultades para programar celdas de esta manera han
impedido que estas capacidades se implementen en otras tecnologías (más
notablemente la memoria flash) con la misma capacidad.
https://en.wikipedia.org/wiki/Phase-change_memory
4. Flash storage and All-Flash Arrays (Iván Pérez Ramírez)
Una matriz all-flash (AFA) es una infraestructura de almacenamiento que contiene solo
unidades de memoria flash en lugar de unidades de disco giratorio. El almacenamiento
all-flash también se conoce como matriz de estado sólido (SSA). Los AFA y SSA ofrecen
velocidad, rendimiento y agilidad para sus aplicaciones comerciales.
https://www.purestorage.com/knowledge/what-is-an-all-flash-
array.html#:~:text=An%20all%2Dflash%20array%20(AFA,agility%20for%20your%20busi
ness%20applications.

5. Persistent Memory (Iván Pérez Ramírez)


En informática, la memoria persistente es cualquier método o aparato para almacenar de
manera eficiente estructuras de datos de modo que se pueda seguir accediendo a ellas
mediante instrucciones de memoria o API de memoria incluso después del final del
proceso que las creó o modificó por última vez.
A menudo confundida con la memoria de acceso aleatorio no volátil (NVRAM), la memoria
persistente está más estrechamente relacionada con el concepto de persistencia en su
énfasis en el estado del programa que existe fuera de la zona de falla del proceso que lo
creó.
https://en.wikipedia.org/wiki/Persistent_memory

6.Hybrid multi-cloud storage


Un enfoque de nube híbrida para administrar el almacenamiento de datos utiliza recursos
locales y de la nube, combinando las capacidades de las nubes públicas y privadas para
formar una arquitectura de almacenamiento integrada. El almacenamiento de archivos en
la nube híbrida ofrece capacidades importantes que pueden beneficiar a las empresas
de todos los tamaños, incluida la agilidad, la escalabilidad y el ahorro de costos.
Raymundo Galicia
https://www.vmware.com/latam/topics/glossary/content/hybrid-cloud-storage.html

7. Cyber-resilient storage
A medida que el universo de amenazas cibernéticas sofisticadas, como el ransomware,
continúa creciendo en volumen y eficacia, las organizaciones de todas las industrias están
pasando de una estrategia de prevención de amenazas a un modelo de resiliencia
cibernética para una seguridad cibernética holística . Las organizaciones reconocen que,
si bien el bloqueo de amenazas sigue siendo una prioridad crítica, la prevención no
siempre será 100 % exitosa. La resiliencia cibernética requiere que las organizaciones
también se centren en la capacidad de responder a un ataque, mitigar el daño mientras
protegen los datos críticos y permiten la recuperación con integridad de datos asegurada
para restaurar la continuidad del negocio. Las soluciones y los servicios de recuperación
cibernética son un componente esencial de una estrategia general de resiliencia
cibernética: las soluciones y los servicios de recuperación cibernética reducen el riesgo y
el daño causado a los datos críticos y a la propia organización por los ataques
cibernéticos. Al proporcionar aislamiento, inmutabilidad y análisis inteligente para
proteger los datos críticos dentro de una bóveda dedicada, las soluciones y los servicios
de recuperación cibernética pueden mejorar significativamente la resiliencia de una
organización ante un ataque. Raymundo Galicia

https://www.dell.com/en-us/dt/learn/data-protection/cyber-resilience.htm
8. End-to-end NVMe

NVMe es un protocolo de almacenamiento diseñado específicamente para el


almacenamiento basado en flash. Está basado en PCIe y proporciona más comandos por
cola de E/S y más colas de E/S. La extensión NVMe over Fabrics (NVMe-F) brinda a las
redes IP y Fibre Channel (FC) la capacidad de aprovechar el mayor número de comandos
y la profundidad de cola de NVMe para explotar completamente el almacenamiento
basado en memoria.NVMe-F se utilizará primero para crear una arquitectura de
almacenamiento más escalable, pero eventualmente, se abrirá camino en servidores y
conmutadores, construyendo una arquitectura NVMe de extremo a extremo.
https://storageswiss.com/2018/03/08/what-is-end-to-end-nvme/#:~:text=An%20end-to-
end%20NVMe%20architecture%20will%20enable%20data%
Urania Serena Moreno

9. Storage Class Memory (SCM)


La memoria de clase de almacenamiento (SCM) es un tipo de memoria física de
computadora que combina memoria de acceso aleatorio dinámico (DRAM), memoria flash
NAND y una fuente de alimentación para la persistencia de datos. SCM trata la memoria
no volátil como DRAM y la incluye en el espacio de memoria del servidor.

El acceso a los datos es más rápido que el acceso a los datos en unidades de estado
sólido (SSD) locales conectadas a PCIe, unidades de disco duro conectadas
directamente (HDD) y matrices de almacenamiento externo. SCM es más duradero que
DRAM, y puede leer y escribir datos hasta 10 veces más rápido que las unidades NAND.

El hardware SCM utiliza diferentes tipos de medios para resolver problemas de


capacidad, costo, resistencia y rendimiento.

¿Qué es la memoria de clase de almacenamiento? (techtarget.com) Urania Serena


Moreno
10. Software Defined Storage
Administrar una red requiere soporte para múltiples tareas simultáneas, desde enrutamiento
y monitoreo de tráfico hasta control de acceso y equilibrio de carga del servidor. Las redes
definidas por software (SDN) permiten que las aplicaciones realicen estas tareas directamente
mediante la instalación de reglas de procesamiento de paquetes en los conmutadores. Sin
embargo, las plataformas SDN actuales brindan soporte limitado para crear aplicaciones
modulares. Este documento presenta nuevas abstracciones para crear aplicaciones a partir
de múltiples módulos independientes que administran conjuntamente el tráfico de red.
Primero, definimos operadores de composición y una biblioteca de políticas para reenviar y
consultar el tráfico. Nuestro operador de composición paralela permite que varias políticas
operen en el mismo conjunto de paquetes, mientras que un nuevo operador de composición
secuencial permite que una política procese paquetes tras otro. Segundo, permitimos que
cada política opere en una topología abstracta que restringe implícitamente lo que el módulo
puede ver y hacer. Finalmente, definimos un nuevo modelo de paquete abstracto que permite
a los programadores extender paquetes con campos virtuales que pueden usarse para
asociar paquetes con metadatos de alto nivel. Realizamos estas abstracciones en Pyretic, un
lenguaje imperativo de dominio específico integrado en Python.
FOSTER, Nate, et al. Languages for software-defined networks. IEEE Communications Magazine,
2013, vol. 51, no 2, p. 128-134
https://www.usenix.org/conference/nsdi13/technical-sessions/presentation/monsanto

GUERRERO AGUILAR

11. Predictive Storage


Son infraestructuras de almacenamiento de recuperación automática que identifican y
resuelven problemas de manera autónoma, lo que brinda una mejor administración de
la capacidad, reduce el tiempo de inactividad y aumenta la disponibilidad, el rendimiento
y la productividad de las aplicaciones.
https://www-techtarget-com.translate.goog/searchstorage/essentialguide/Predictive-
storage-analytics-takes-management-to-the-next-
level?_x_tr_sl=auto&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=wapp
Piscil Santander Cynthia Estela

12. Fully Automated Storage Tiering (AST)

(AST) es una función de administración de software de almacenamiento que mueve de


forma dinámica la información entre diferentes tipos de discos y niveles de RAID para
cumplir con los requisitos de espacio, rendimiento y costo.
Utilizan políticas que configuran los administradores de almacenamiento.
https://kryptonsolid.com/que-es-el-almacenamiento-en-niveles-automatizado-ast/
Piscil Santander Cynthia Estela
13. Data lake

Originalmente acuñado por el ex CTO de Pentaho, un data lake es un entorno de


almacenamiento de bajo costo, que normalmente alberga petabytes de datos sin
procesar. A diferencia de un almacén de datos, un data lake puede almacenar
datos estructurados y no estructurados, y no requiere un esquema definido para
almacenar datos, una característica conocida como "esquema en lectura". Esta
flexibilidad en los requisitos de almacenamiento es especialmente útil para los
científicos de datos, los ingenieros de datos y los desarrolladores, ya que les
permite acceder a los datos para ejercicios de descubrimiento de datos y
proyectos de machine learning. Sus beneficios son: Más flexibles, escalabilidad, silos
de datos reducidos y experiencia del cliente mejorada. Sus desventajas son: Rendimiento
y gestión.
A continuación, se pueden encontrar dos casos de uso principales para los data lakes:
- Proof of concepts (POC): El almacenamiento de data lake es ideal para proyectos de
prueba de concepto. Su capacidad para almacenar diferentes tipos de datos es
especialmente beneficiosa para los modelos de machine learning, ya que brinda la
oportunidad de incorporar datos estructurados y no estructurados en modelos predictivos.

- Backup y recuperación de datos: La alta capacidad de almacenamiento y los bajos


costos de almacenamiento permiten que los data lakes actúen como una alternativa de
almacenamiento para incidentes de recuperación de desastres.

https://www.ibm.com/mx-es/topics/data-
lake?utm_content=SRCWW&p1=Search&p4=43700052831757591&p5=e&gclid=CjwKC
AjwqJSaBhBUEiwAg5W9p3yeDEXSV-
jThkEWgU701TEhvg7Uf53qvv0bzC6KnlmuRoIJo75cVBoC0JUQAvD_BwE&gclsrc=aw.d
s

Flores Domínguez Xavier


14. Hyper-converged storage

El almacenamiento hiper convergente es una faceta de la infraestructura hiper


convergente (HCI), en la que el almacenamiento se combina con computación y redes en
un único sistema virtualizado. Con este enfoque definido por software, los grupos de
almacenamiento flexibles reemplazan el hardware dedicado. Cada nodo incluye
una capa de software que virtualiza los recursos del nodo y los comparte entre
todos los nodos de un clúster, creando un gran grupo de almacenamiento. Las
redes definidas por software (SDN) y el equilibrio de carga determinan de qué
hardware atender las solicitudes. El almacenamiento hiper convergente facilita la
administración de recursos y reduce el costo total del almacenamiento, lo que
garantiza mejores precios de almacenamiento que los proveedores de servicios
de nube pública en muchas situaciones.

VMware. 2022. What is Hyperconverged Storage? | VMware Glossary. [online] Disponible en:
https://www.vmware.com/topics/glossary/content/hyperconverged-storage.html [Acceso 10
Octubre 2022].

Diana Karen Reyes López


15. In memory computing

La computación en memoria (IMC) almacena datos en RAM en lugar de bases de datos


alojadas en discos. Esto elimina los requisitos de transacción de E/S y ACID de las
aplicaciones OLTP y acelera exponencialmente el acceso a los datos porque los datos
almacenados en la RAM están disponibles instantáneamente, mientras que los datos
almacenados en los discos están limitados por la red y las velocidades del disco. IMC
puede almacenar en caché cantidades masivas de datos, lo que permite tiempos de
respuesta extremadamente rápidos y almacenar datos de sesión, lo que puede ayudar a
lograr un rendimiento óptimo.Permite un procesamiento extremadamente rápido, lo que
ayuda a las empresas a aumentar el rendimiento, analizar rápidamente volúmenes
masivos de datos en tiempo real a velocidades muy altas y detectar patrones. IMC mejora
el procesamiento de eventos complejos y ofrece informes y lanzamientos de productos
más rápidos, una toma de decisiones más rápida y precisa, una mejor experiencia de
usuario y una mayor satisfacción del cliente.

Hpe.com. 2022. What is In-Memory Computing? | Glossary. [online] Disponible en:


https://www.hpe.com/mx/es/what-is/in-memory-computing.html [Acceso 09 Octubre 2022].

Diana Karen Reyes López


16. Automated Data Classification

La clasificación de datos automatizada implica la aplicación de una clasificación para un


archivo o mensaje en particular mediante un conjunto de reglas predefinidas. El conjunto
de reglas puede basarse en hacer coincidir palabras clave o expresiones encontradas en
el contenido con una lista dada o identificar alguna otra característica del archivo, por
ejemplo, proviene del almacén de datos de información del cliente, por lo que debe
protegerse.

La clasificación automatizada también puede extender la cobertura de clasificación a


través de una variedad de fuentes de datos de origen, incluidas aquellas que se originan
fuera del control del usuario. Este enfoque es útil cuando las organizaciones tienen datos
generados por procesos o sistemas automatizados que deben clasificarse en el punto de
creación sin la intervención del usuario, por ejemplo, informes producidos por un sistema
ERP.

Algunas organizaciones buscan combinar la automatización con un enfoque impulsado


por el usuario para proporcionar un elemento de apoyo al usuario. Por ejemplo, aplicar
etiquetas predeterminadas basadas en grupos de usuarios o departamentos. Este
enfoque reduce la cantidad de clics que el usuario tiene que realizar, pero al involucrar al
usuario mejora en gran medida la precisión del proceso de clasificación.

La clasificación automática no puede comprender el contexto de un archivo o documento


y, como resultado, enfrenta desafíos con precisión. Las coincidencias incorrectas o los
'falsos positivos' reducen la confianza del usuario en el sistema y la falta de identificación
de datos confidenciales o los 'falsos negativos' exponen a la organización a riesgos
innecesarios. El desafío es ajustar estos algoritmos para proporcionar una tasa de error
aceptable que evite frustrar a los usuarios y garantice que las políticas se apliquen
adecuadamente. Cuando esto no es posible, a menudo las organizaciones desintonizan
sus reglas de automatización para reducir los niveles de error, lo que claramente diluye
la efectividad de las herramientas.

La combinación del uso de técnicas automatizadas con la clasificación de datos


impulsada por el usuario puede brindar beneficios significativos. La captura de
información del usuario en el proceso de clasificación de datos es fundamental para
garantizar que las decisiones se tomen en el contexto correcto. Para obtener esta
combinación de técnicas adecuada para su negocio, su solución de clasificación debe
ofrecer una gama integrada de enfoques que pueda adaptar para satisfacer sus
necesidades precisas y que pueda adaptarse fácilmente a medida que sus necesidades
evolucionan.

https://www.boldonjames.com/data-classification/automated-
classification/#:~:text=Automated%20data%20classification%20involves%20the,a%20pr
e%2Ddefined%20rule%20set.
Flores Domínguez Xavier
17. Storage consumption model

Los modelos comunes de implementación y consumo de TI para el almacenamiento


incluyen:
Modelo de compra tradicional: La infraestructura local, como el almacenamiento, ha sido
tradicionalmente un gasto de capital inicial o arrendado en el que compra infraestructura
que se implementa en su centro de datos y cumplirá con sus requisitos de capacidad
máxima. Pero presupuestar la infraestructura local puede ser complicado: las
necesidades pueden ser difíciles de predecir y, dado que los ciclos de adquisición de
nuevos sistemas de almacenamiento pueden ser prolongados.

Modelo basado en el consumo ("pago por uso") para el almacenamiento local. En estos
modelos, el proveedor le proporciona sistemas de almacenamiento definidos por sus
requisitos con un 25 % a un 200 % más de capacidad de "crecimiento" que sus
necesidades inmediatas. Estos modelos le permiten escalar el uso de la capacidad hacia
arriba o hacia abajo según lo dicten las necesidades de su negocio. Suelen tener plazos
de 3 a 5 años.

Basado en suscripción o almacenamiento como servicio. Estos modelos tienen


compromisos básicos y pago por uso por encima del nivel de compromiso básico. El
almacenamiento como servicio (STaaS) es un servicio que se ofrece de forma muy similar
a los servicios basados en la nube. STaaS proporciona capacidad rápida y bajo demanda
en su centro de datos. Solo paga por lo que usa, y el proveedor se encarga de la gestión
del ciclo de vida.

Enfoque solo en la nube. Los servicios en la nube son fácilmente escalables y se pueden
ajustar fácilmente para satisfacer las cambiantes demandas de carga de trabajo. La
implementación en la nube pública puede reducir el gasto en hardware e infraestructura
local porque también es un modelo de pago por uso. En el modelo perfecto basado en
servicios públicos, pagaría solo por lo que usa, con niveles de servicio garantizados,
precios fijos y cargos trimestrales predecibles alineados directamente con las
necesidades de su negocio.

Enfoque híbrido. Un enfoque híbrido para el almacenamiento integra una combinación de


servicios de nube pública, nube privada e infraestructura local, con orquestación,
administración y portabilidad de aplicaciones en los tres mediante administración definida
por software. También puede incluir precios basados en el consumo y servicios basados
en suscripción para el almacenamiento local.

Barnett, J., 2022. How to choose the right IT consumption model for your storage - Servers &
Storage. [online] Servers & Storage. Disponible en: https://www.ibm.com/blogs/systems/how-to-
choose-the-right-it-consumption-model-for-your-storage/ [Acceso 10 Octubre 2022].
Diana Karen Reyes López
18. DNA data storage

El almacenamiento de datos de ADN, código genético para transportar la información


digital del mundo, es el proceso de utilizar moléculas de ADN como medio de
almacenamiento. A diferencia de las formas ópticas y magnéticas de las tecnologías de
almacenamiento presentes en la actualidad, los datos de ADN no se almacenarán en
dígitos binarios (es decir, 1 y 0). En cambio, se codificarían en bases de nucleótidos de
ADN (A, C, G, T) y se almacenarán.
Estos hilos luego se convierten en dígitos binarios cuando es necesario.En este momento,
existen más de 11 billones de gigabytes de datos, y cada día se agregan al menos 2,5
millones de gigabytes más. Los medios de almacenamiento de datos disponibles en el
mundo no pueden seguir el ritmo de este aumento masivo. El almacenamiento de ADN
es una solución a este problema de almacenamiento.
Las aplicaciones para el almacenamiento de datos de ADN pueden incluir:
● Ayudar a las futuras instalaciones de datos de exabytes a reducir su gasto de
energía y tierra al convertir la información a un formato de ADN.
● Crear nuevos tipos de trabajos para científicos en empresas de tecnología de la
información (TI) para ayudar con la gestión de soluciones de almacenamiento y TI
basadas en ADN.
● Desarrollar indirectamente una mayor comprensión de las moléculas de ADN y
ayudar a los científicos a tratar los trastornos genéticos en los campos médicos
(para aplicaciones como curar la fibrosis quística).

https://www.makeuseof.com/what-is-dna-data-storage/
https://www.quantumrun.com/es/Insight/dna-data-storage-genetic-code-carry-worlds-
digital-information

Flores Domínguez Xavier


Networking

1. Hybrid WAN
Una WAN híbrida es una red de área amplia que envía tráfico a través de dos o más tipos de
conexión. Las WAN híbridas utilizan una variedad de opciones de conectividad para aprovechar al
máximo los recursos de la red. En su forma más común, una WAN híbrida utiliza circuitos
dedicados de conmutación de etiquetas multiprotocolo (MPLS), además de túneles IP VPN
basados en Internet.
A medida que crece el uso de la nube, las WAN híbridas están evolucionando para incluir enlaces
de acceso directo a Internet (DIA) para disminuir la latencia del acceso a las aplicaciones SaaS (El
Software as a Service (SaaS) o software como servicio es un componente del cloud computing
que permite que los usuarios disfruten de recursos y servicios informáticos a través de internet.).
La WAN híbrida está estrechamente alineada con la WAN definida por software (SD-WAN), pero
no es idéntica a ella. Las WAN híbridas pueden tener un componente SDN, aunque no es
obligatorio.

https://www.thousandeyes.com/learning/glossary/hybrid-wan
https://www.ovhcloud.com/es/public-cloud/cloud-computing/iaas-paas-
saas/saas/?at_medium=sl&at_platform=google&at_campaign=AdWords&at_creation=lab_ovh_w
s_se_cloud_Public_Cloud_offensive_Colombia_DSA(DSA-
Public_Cloud)&at_variant=625122267973&at_network=search&at_term=&sitelink=&gclid=CjwKC
Ajwv4SaBhBPEiwA9YzZvPTbUYLpxwBmG6UthyGgA6OAG2CpR299Y2Sb5bN3b_FmV2TL_nds
rBoCvl8QAvD_BwE

Rojas Romero Miguel

2. Wireless Docking
Se trata de una estación de acoplamiento, un dispositivo que tiene como principal objetivo
convertir el ordenador portátil en un equipo de sobremesa, ampliando y facilitando la
conectividad del laptop.

Los ordenadores portátiles, al estar limitados en cuanto a ampliación de hardware, tienen


una vida útil determinada. Las dock stations sirven para que podamos conectar un
ordenador portátil a un monitor, ampliar el número de puertos e incluso conectarlo a una
entrada Ethernet.

Docking station: qué es y qué puede hacer en tu hogar (vozpopuli.com)

AVENDAÑO SIERRA
3. Software Defined Networks

Las redes definidas por software (SDN) son el desacoplamiento de la lógica de control
de la red de los dispositivos que realizan la función, como los enrutadores, que
controlan el movimiento de información en la red subyacente. Este enfoque simplifica la
gestión de la infraestructura, que puede ser específica de una organización o dividida
para ser compartida entre varias.
SDN cuenta con controladores que se superponen sobre el hardware de la red en la
nube o en las instalaciones, lo que ofrece una gestión basada en políticas.
Técnicamente hablando, el plano de control de la red y el plano de reenvío están
separados del plano de datos (o infraestructura subyacente), lo que permite a la
organización programar el control de la red directamente. Esto difiere significativamente
de los entornos de centros de datos tradicionales. En un entorno tradicional, un
enrutador o conmutador, ya sea en la nube o físicamente en el centro de datos, solo
conocerá el estado de los dispositivos de red adyacentes. Con SDN, la inteligencia es
centralizada y prolífica; puede ver y controlar todo.
What is Software-Defined Networking (SDN)? | IBM
AVENDAÑO SIERRA

4. SD-WAN
SD-WAN es un enfoque definido por software para administrar la WAN.

Las ventajas clave incluyen:

● Reducción de costos con independencia de transporte en MPLS, 4G/5G LTE


y otros tipos de conexión.
● Mejorar el rendimiento de las aplicaciones y aumentar la agilidad.
● Optimización de la experiencia del usuario y la eficiencia de las aplicaciones
de software como servicio (SaaS) y de nube pública.
● Simplificación de las operaciones con automatización y gestión basada en la
nube.
https://www.cisco.com/c/en/us/solutions/entrprise-networks/sd-wan/what-is-sd-wan.html
Urania Serena Moreno
5. Cloud networking
Uno de los objetivos principales de CLoud networking es minimizar los gastos operativos
y de capital que incluyen tarjetas adaptadoras de red,conmutadores,enrutadores y
cableado.Estos requisitos se ven reflejados en su diseño de red brindando un alto ancho
de banda.
Es vital para el rendimiento, la seguridad y la gestión eficiente de entornos de nube híbrida
y multi nube.

Tipos de redes en la nube

Redes en la nube es un término genérico para la conectividad hacia y entre todas las
variaciones de servicios locales, de borde y basados en la nube, como IaaS, PaaS y SaaS

Los principales beneficios de una estrategia de red en la nube bien ejecutada incluyen:

Simplificación para la gestión del ciclo de vida

Aseguramiento de la experiencia del usuario

Reducción del tiempo de comercialización para la implementación del servicio

Menores costos operativos

Riesgo reducido para las aplicaciones y los datos

https://www.cisco.com/c/en/us/solutions/cloud/what-is-cloud-
networking.html#~multicloud-and-hybrid-cloud

Piscil Santander Cynthia Estela


6. Network visibility and analytics

La visibilidad de la red es la recopilación y el análisis de los flujos de tráfico dentro y a


través de una red. En el nivel más granular, las empresas pueden esforzarse por lograr
visibilidad hasta el nivel de paquete, usuario y aplicación. Dicho de otra manera, la
visibilidad de la red es lo que las empresas generalmente buscan obtener de las
herramientas de monitoreo de red y seguridad. Es una solución basada en la nube que
proporciona visibilidad del tráfico de usuarios y aplicaciones en sus redes en la nube.
Analiza los registros de flujo de NSG y lo equipa con información útil para optimizar el
rendimiento de la carga de trabajo, proteger las aplicaciones y los datos, auditar la
actividad de la red de su organización y cumplir con las normas.

microsoft.com. 2022. Visibility into network activity with Traffic Analytics - now in public preview |
Blog y actualizaciones de Azure | Microsoft Azure. [online] Disponible en:
https://azure.microsoft.com/es-mx/blog/traffic-analytics-in-preview/ [Acceso 12 October 2022].

Greenfield, D., 2022. What is Network Visibility?. [online] Cato Networks. Disponible en:
https://www.catonetworks.com/blog/what-is-network-visibility/ [Acceso 12 October 2022].

Diana Karen Reyes López

7. Cloud Native Network Functions

La evolución de las VNF dio como resultado las funciones de red creadas en la nube
(CNF), las cuales se diseñan e implementan para ejecutarse dentro de los contenedores.
El uso de estos últimos para organizar los elementos de la arquitectura de red permite
ejecutar distintos servicios en el mismo clúster, incorporar fácilmente las aplicaciones
divididas y dirigir el tráfico de la red a los pods adecuados de forma dinámica.

Las características de las funciones nativas de la nube son:

● En contenedores micro-servicios que se comunican entre sí a través


estandarizados- API REST.
● Huella de rendimiento pequeña, con la capacidad de escalar horizontalmente.
● Independencia del sistema operativo invitado, ya que los CNF funcionan como
contenedores.
● Administrable por Kubernetes, Docker o cualquier tiempo de ejecución de
contenedor.
https://www.redhat.com/es/topics/cloud-native-apps/vnf-and-cnf-whats-the-difference

https://les.wiki/detial/Cloud-Native_Network_Function

Flores Domínguez Xavier

8. Intent-based networking (IBN)

IBN transforma una red manual centrada en el hardware en una red dirigida por
controladores que captura la intención comercial y la traduce en políticas que se pueden
automatizar y aplicar de manera uniforme en toda la red.

objetivo: que la red monitoree y ajuste continuamente el rendimiento de la red para


ayudar a asegurar los resultados comerciales deseados.

El sistema de ciclo cerrado de IBN opera con los siguientes bloques de construcción
funcionales para brindar la intención o el soporte para los resultados comerciales o de
TI que su organización necesita.

● Traducción: la captura y traducción de la intención en políticas sobre las que


la red puede actuar.
● Activación: instalación de estas políticas en la infraestructura de red física y
virtual, mediante la automatización de toda la red.
● Garantía: uso de análisis y aprendizaje automático para monitorear
continuamente la red para verificar que se haya aplicado la intención
deseada y que se estén logrando los resultados comerciales.

https://www.cisco.com/c/en/us/solutions/intent-based-networking.html

Piscil Santander Cynthia Estela


9. Intrinsic Security

Intrinsic Security no es un producto o una herramienta destinada a abordar las amenazas


más recientes, sino una estrategia para proteger toda la infraestructura y los puntos de
control existentes en tiempo real, en cualquier aplicación, nube o dispositivo. Permite a
las empresas alejarse de la reactividad y adelantarse a las amenazas a la seguridad de
sus datos, frustrando a los ciberdelincuentes y a los actores estatales deshonestos que
han sido tan efectivos en los últimos años.

En lugar de estar integrado, Intrinsic Security está completamente integrado en todos los
aspectos de la red, el hardware y el software de una empresa. En lugar de estar aislados,
los datos y los comportamientos de las organizaciones se ven en su contexto total. Como
resultado, cualquier aplicación, en cualquier dispositivo, que se ejecute en cualquier
sistema empresarial, está mucho mejor protegida.

En última instancia, Intrinsic Security permite alejarse de las posturas de seguridad


tradicionalmente reactivas, que se han basado en intentos cada vez más inútiles de
identificar continuamente nuevas amenazas. Los reemplaza con protección predictiva
basada en inteligencia artificial y mitigación de amenazas.

https://be-ready.cio.com/collection/cloud-security/article/intrinsic-security-the-new-model-
for-operational-excellence
Flores Domínguez Xavier
10. Al Security

La seguridad de la inteligencia artificial (IA) describe las herramientas y estrategias que


aprovechan la IA para identificar, prevenir y responder a las ciberamenazas emergentes.
Las soluciones de seguridad de inteligencia artificial (IA) están programadas para
identificar comportamientos "seguros" frente a "maliciosos" mediante la comparación
cruzada de los comportamientos de los usuarios en un entorno con los de un entorno
similar. Este proceso a menudo se denomina "aprendizaje no supervisado", donde el
sistema crea patrones sin supervisión humana. Para algunas plataformas de IA, como
Vectra, el "aprendizaje profundo" es otra aplicación clave para identificar
comportamientos maliciosos. Inspirado en la estructura biológica y la función de las
neuronas en el cerebro, el aprendizaje profundo se basa en grandes redes
interconectadas de neuronas artificiales. Estas neuronas están organizadas en capas,
con neuronas individuales conectadas entre sí por un conjunto de pesos que se adaptan
en respuesta a las entradas recién llegadas.
Las sofisticadas herramientas de ciberseguridad de IA tienen la capacidad de calcular y
analizar grandes conjuntos de datos, lo que les permite desarrollar patrones de actividad
que indican un posible comportamiento malicioso. En este sentido, la IA emula la
capacidad de detección de amenazas de sus contrapartes humanas. En ciberseguridad,
la IA también se puede utilizar para la automatización, la clasificación, la agregación de
alertas, la clasificación de alertas, la automatización de respuestas y más. La IA se usa a
menudo para aumentar el primer nivel de trabajo del analista.

https://www.vectra.ai/learning/ai-security

https://www.servicenow.com/products/security-operations/what-is-ai-
security.html#:~:text=Artificial%20intelligence%20(AI)%20security%20describes,respond
%20to%20emerging%20cyber%20threats.

Flores Domínguez Xavier


11. Internet of Autonomous things (loAT)

IoAT significa Internet de las Cosas Autónomas, también llamado Cosas Autónomas
(AuT). Es una frase utilizada para identificar la tecnología que utiliza dispositivos
autónomos sin ninguna interferencia humana.

Estos dispositivos son capaces de funcionar de forma independiente. Pueden interactuar


con humanos y otras máquinas a su alrededor. Se espera que IoAT lleve los sistemas
informáticos al mundo físico.

Los dispositivos autónomos necesitan interactuar con su entorno para evitar accidentes.
Algunos ejemplos serían:

- Robo-Taxis. Los coches autónomos son un concepto muy conocido en la actualidad.


Las empresas trabajan continuamente para perfeccionarlos para que se adapten a todas
las condiciones de la carretera y el tráfico.

- Pelotón de vehículos. El pelotón de vehículos es otra aplicación de IoAT que utiliza


vehículos sin conductor (autónomos). En el pelotón de vehículos, varios vehículos
recorren la misma ruta muy juntos.

- Tiendas Autónomas. ¿Imagínese no esperar en la fila en el mostrador de salida después


de comprar? Sí, eso pronto sería posible con las tiendas autónomas. El primer pionero
en incursionar en el mercado es Amazon Go. Los clientes tienen que descargar la
aplicación de la tienda en su teléfono. Necesitan escanear el código QR al entrar en la
tienda. Los clientes pueden tomar los productos que necesitan de los estantes. Al salir de
la tienda, deben escanear el código QR nuevamente.

- Predicción del tiempo. Los vehículos autónomos basados en el agua se utilizan para
obtener información de la superficie del océano. Un ejemplo de ello es Saildrone.
https://www.hitechnectar.com/blogs/internet-of-autonomous-things/
Flores Domínguez Xavier
12. WiFi 6 y Wifi 7
wifi 6:
Wi-Fi 6 permite que los puntos de acceso admitan más clientes en entornos densos y ofrece una
mejor experiencia para usuarios de redes LAN inalámbricas típicas. Además, brinda un
rendimiento más predecible de las aplicaciones avanzadas, como video 4K o 8K, aplicaciones de
colaboración de alta definición y alta densidad, oficinas completamente inalámbricas e Internet
de las cosas (IoT)
wifi 7:
.Wi-Fi 7 (802.11be) promete ser mucho más rápido y una latencia extremadamente baja. Una
promesa que también hemos visto en anteriores generaciones, pero que en esta ocasión los
números parecen acompañar. Según un 'paper' publicado en ArXiv y las previsiones de Intel, Wi-
Fi 7 ofrecerá al menos 30 Gbps por punto de acceso y hasta 48 Gbps teóricos. Un ancho de banda
unas cuatro veces superior a los casi 10 Gbps que se puede alcanzar hoy en día a través del Wi-Fi.
https://www.xataka.com/servicios/wi-fi-7-802-11be-futuro-estandar-que-promete-ser-unas-
cuatro-veces-rapido-que-wi-fi-6-rivalizar-ancho-banda-cables

GUERRERO AGUILAR

13. Redes LORA

La red LoRa es una red de comunicaciones inalámbrica (al igual que WiFi, Bluetooth,
LTE, SigFox o Zigbee) especialmente diseñada para el IoT pero con un consumo
energético mucho más bajo por la banda en la que oscila. Tiene como objeto enviar
pocas cantidades de datos en la banda de los 868 MHz aproximadamente (no se
requieren licencias para operar a esta frecuencia) mediante pequeños dispositivos IoT o
M2M (machine to machine) de manera bidireccional mediante la instalación de un chip
LoRA en estos, dando muy alta cobertura o alcance (2-5km en entorno urbano). Estas
pequeñas cantidades de datos se transmiten a muy bajas velocidades (por debajo de 5
Kbps) aunque puede trabajar entre 0.3 kbps y 50 kbps. A su vez, da lugar a un menor
consumo de energía y por tanto, da un mayor tiempo de vida a las baterías (autonomía
de 10 años con dos pilas AAA aprox.). La idea principal es la de utilizar el protocolo
LoRaWan es busca de eficiencia, no velocidad.

¿Qué es la tecnología LoRa y por qué es importante para el IoT? – Actemium Urania
Serena Moreno
14. Intelligent Reconfigurable Surfaces

Las Superficies Inteligentes Reconfigurables (RIS) se conciben como una nueva


tecnología inalámbrica candidata para el control de las señales de radio entre un
transmisor y un receptor de forma dinámica y orientada a objetivos, convirtiendo el
entorno inalámbrico en un servicio. Esto ha motivado una gran cantidad de posibles
nuevos casos de uso dirigidos a i) la mejora de varios indicadores clave de rendimiento
(KPI) del sistema y ii) el soporte de nuevas aplicaciones y capacidades de tecnología
inalámbrica. Estos incluyen mejoras en la capacidad, la cobertura, el posicionamiento, la
seguridad y la sostenibilidad, así como el soporte de capacidades adicionales de
detección, transferencia de energía inalámbrica y retrodispersión ambiental.

Barnett, J., 2022. How to choose the right IT consumption model for your storage - Servers &
Storage. [online] Servers & Storage. Available at: https://www.ibm.com/blogs/systems/how-to-
choose-the-right-it-consumption-model-for-your-storage/ [Acceso 12 Octubre 2022].

Diana Karen Reyes López

15. Coded Distributed Computing

La computación distribuida se ha convertido en un enfoque común para el cómputo de


tareas a gran escala debido a beneficios tales como alta confiabilidad, escalabilidad,
velocidad de cómputo y rentabilidad. Sin embargo, la computación distribuida enfrenta
problemas críticos relacionados con la carga de comunicación y los efectos rezagados.
En particular, los nodos informáticos necesitan intercambiar resultados intermedios entre
sí para calcular el resultado final, y esto aumenta significativamente los gastos generales
de comunicación. Para abordar estos problemas, la computación distribuida codificada
(CDC), es decir, una combinación de técnicas teóricas de codificación y computación
distribuida, se ha propuesto recientemente como una solución prometedora. Las técnicas
teóricas de codificación han demostrado ser efectivas en WiFi y sistemas celulares para
lidiar con el ruido del canal. Por lo tanto, CDC puede reducir significativamente la carga
de comunicación, aliviar los efectos de los rezagados, proporcionar tolerancia a fallas,
privacidad y seguridad.

Ng, J., Lim, W., Luong, N., Xiong, Z., Asheralieva, A., Niyato, D., Leung, C. and Miao, C., 2022. A
Survey of Coded Distributed Computing. [online] arXiv.org. Disponible en:
https://arxiv.org/abs/2008.09048 [Acceso 12 Octubre 2022].

Diana Karen Reyes López


16. Internet de las cosas submarine (Internet of Underwater Things)

Internet of Underwater Things (IoUT) es un ecosistema de comunicación emergente


desarrollado para conectar objetos submarinos en entornos marítimos y submarinos. La
tecnología IoUT está íntimamente relacionada con embarcaciones y barcos inteligentes,
costas y océanos inteligentes, transporte marítimo automático, posicionamiento y
navegación, exploración submarina, predicción y prevención de desastres, así como con
monitoreo y seguridad inteligentes.
El IoUT tiene una influencia en varias escalas que van desde un pequeño observatorio
científico hasta un puerto de tamaño mediano y cubre el comercio oceánico global.
La arquitectura de red de IoUT es intrínsecamente heterogénea y debe ser lo
suficientemente resistente para operar en entornos hostiles. Esto crea grandes desafíos
en términos de comunicaciones submarinas, al mismo tiempo que depende de recursos
energéticos limitados. Además, el volumen, la velocidad y la variedad de datos producidos
por sensores, hidrófonos y cámaras en IoUT es enorme, lo que da lugar al concepto de
Big Marine Data (BMD), que tiene sus propios desafíos de procesamiento.
Por lo tanto, las técnicas de procesamiento de datos convencionales fallan y se deben
emplear soluciones de aprendizaje automático (ML) a medida para aprender
automáticamente el comportamiento y las características específicas de la DMO que
facilitan la extracción de conocimiento y el apoyo a la toma de decisiones.

https://ieeexplore.ieee.org/document/9328873
Flores Domínguez Xavier

17. Comunicación con luz visible (Visible Light Communication)


¿Qué es la comunicación mediante luz visible?
La comunicación con luz visible (conocida como VLC, acrónimo en inglés de «visible
light communication») es un medio transmisor de datos que utiliza la luz entre 400 y 800
THz (780-375 nm). VLC es un subconjunto de tecnologías de comunicaciones ópticas
inalámbricas.

¿Cómo es posible la transmisión de datos a través de la luz?

LiFi es el acrónimo de Light Fidelity, y ofrece conectividad inalámbrica a través de la luz.


Con este sistema, la señal de Internet llega a un codificador colocado en la luminaria
que se enciende y apaga rápidamente transmitiendo los datos.

Que es la comunicación mediante luz visible? – Respuesta Corta Urania Serena


Moreno
18. V2X Communications
La solución integra tecnologías para acceso a redes 4G y 5G, comunicación dedicada de
corto alcance (DSRC) y comunicación Cellular-V2X (C-V2X). Esto ayuda a los fabricantes
de vehículos a superar un gran desafío al implementar V2X a escala global: algunas
regiones prefieren el DSRC establecido y otras se inclinan por el próximo estándar
Cellular-V2X. Con nuestra solución híbrida V2X, la misma plataforma de hardware y
software se puede utilizar para admitir cualquier estándar de comunicación, lo que reduce
el costo y la complejidad de una aplicación global de comunicación V2X. La comunicación
celular V2X (Vehicle to Everything) tiene un gran potencial para convertirse en un
habilitador clave para la conducción automatizada y la movilidad inteligente. C-V2X
permite comunicarse a través de la red LTE utilizando 3GPP Release 14 y, en el futuro,
la red móvil 5G. Cellular V2X también está diseñado para conectar directamente los
vehículos entre sí, así como con la infraestructura y otros usuarios de la carretera. Incluso
en áreas sin cobertura de red móvil, la comunicación C-V2X permite un intercambio de
información sensible al tiempo y crítica para la seguridad, por ejemplo, sobre advertencias
de situaciones potencialmente peligrosas.

Continental Automotive. 2022. Continental Automotive. [online] Disponible en:


https://www.continental-automotive.com/en-gl/Passenger-Cars/Technology-Trends/V2X-
Communication [Acceso 12 October 2022].
Diana Karen Reyes López

19. Internet Táctil (Tactile Internet)

La Unión Internacional de Telecomunicaciones (UIT) define la Internet Táctil como una


red de Internet que combina una latencia ultrabaja con una disponibilidad, fiabilidad y
seguridad extremadamente altas. La Internet Táctil representa un "nivel revolucionario
de desarrollo para la sociedad, la economía y la cultura".

La Internet táctil es la próxima evolución que permitirá el control del IoT en tiempo real.
Añadirá una nueva dimensión a la interacción de persona a máquina al permitir
sensaciones táctiles y hápticas (consulte la sección siguiente para la definición), y al
mismo tiempo revolucionará la interacción de las máquinas.

La Internet Táctil permitirá a los humanos y a las máquinas interactuar con su entorno,
en tiempo real, mientras están en movimiento y dentro de un cierto rango de
comunicación espacial. Liberará todo el potencial de la cuarta revolución industrial,
apodada Industria 4.0, y revolucionará la forma en que aprendemos y trabajamos a
través del Internet de Habilidades, también conocido como Human 4.0.
¿Cómo funcionará el Internet táctil?

En principio, todos los sentidos humanos pueden interactuar con las máquinas, y las
tecnologías para habilitar y mejorar esa interacción proporcionarán la Internet táctil.

La Internet táctil permitirá la interacción háptica con la retroalimentación visual. El


término háptico se refiere al sentido del tacto, en particular a la percepción y
manipulación de los objetos utilizando el tacto y la propiocepción. La propiocepción es la
sensación del posicionamiento relativo de las partes del cuerpo y la fuerza de esfuerzo
utilizada en el movimiento.

La retroalimentación visual abarcará no solo la interacción audiovisual, sino también los


sistemas robóticos que se pueden controlar en tiempo real, así como los robots de
accionamiento, es decir, aquellos que pueden activar un movimiento.

Para que los sistemas técnicos coincidan con la interacción humana con su entorno,
deben cumplir con la velocidad de nuestros tiempos de reacción naturales. Como tal, la
latencia de extremo a extremo de 1 ms es necesaria para las aplicaciones táctiles de
Internet. La red subyacente también debe ser ultra confiable, ya que muchas tareas
críticas se ejecutarán de forma remota y debe depender de una infraestructura de borde
barata para permitir la escala. Por lo tanto, necesitará 5G como infraestructura de red
subyacente.
La Internet táctil combinará múltiples tecnologías, tanto a nivel de red como de
aplicación. En los bordes, el IoT y los robots habilitarán la Internet táctil. El contenido y
los datos se transmitirán a través de una red 5G, mientras que la inteligencia se
habilitará cerca de la experiencia del usuario a través de la computación de borde móvil.
A nivel de aplicación, la automatización, la robótica, la telepresencia, la realidad
aumentada (AR), la realidad virtual (VR) y la inteligencia artificial (IA) jugarán un papel
importante.

https://5g.co.uk/guides/what-is-the-tactile-internet/. Iseo Martínez


20. Comunicaciones D2D (D2D Communications)
Las comunicaciones entre dispositivos (D2D) que permiten a distintos teléfonos móviles
cercanos comunicarse entre sí de manera directa es una característica nueva de los
sistemas de comunicación móvil del futuro.
El modo de comunicación D2D se puede aprovechar para emplear una reutilización
espectral más densa, logrando así eficiencias espectrales de área muy altas (bits/s/Hz
por unidad de área). Habilitar D2D implica una remodelación de la topología de la red que
comprende las fuentes de señal útil y la interferencia dañina desde la perspectiva de cada
receptor, que es un factor que delimita fundamentalmente el rendimiento de la red. Por lo
tanto, para medir las ganancias de rendimiento de D2D e identificar sus desafíos, es
esencial modelar la comunicación D2D en un entorno multicelular grande, sin perder las
características clave del entorno de interferencia resultante.

Cordis.europa.eu. 2022. CORDIS | European Commission. [online] Disponible ent:


https://cordis.europa.eu/article/id/203280-wireless-communications-with-greater-bandwidth-
efficiency-and-improved-network-throughput/es [Acceso 12 Octubrer 2022].
Diana Karen Reyes López

21. Information Centric Networking (ICN)


Es una nueva arquitectura para Internet que se enfoca en cambiar el enfoque actual de
Internet orientado al host a uno orientado al contenido. Es un enfoque para evolucionar
la infraestructura de Internet para apoyar directamente la distribución de información
mediante la introducción única datos nombrados como un principio básico de Internet.
Los datos se vuelven independientes desde la ubicación, aplicación, almacenamiento y
medios de transporte, permitir o mejorar una serie de características deseables, tales
como seguridad, movilidad del usuario, multidifusión y almacenamiento en caché en la
red.El ICN tiene como objetivo transformar una arquitectura de Internet centrada en el
host a una arquitectura de Internet centrada en el contenido para satisfacer las demandas
de los usuarios de Internet actuales y los patrones de uso de Internet, que están más
centrados en acceder a un enorme volumen de datos en lugar de tener el conocimiento
del entorno físico. ubicación de los datos bajo consideración.

Cisco.com. 2022. [online] Disponible en:


https://www.cisco.com/c/dam/en_us/solutions/industries/docs/education/information-centric-
networking-education.pdf [Acceso 12 Octubre 2022].
Diana Karen Reyes López
22. Intra-Body communications (IBC)
La comunicación intracorporal es un método novedoso de transmisión de datos que utiliza
el cuerpo humano como canal eléctrico. La idea está impulsada por la visión de un
sistema de monitoreo biomédico sin cables. Los sensores implantados en el cuerpo
monitorean las funciones vitales y transfieren datos a través del cuerpo humano a una
unidad central de monitoreo. Especialmente para pacientes de riesgo y aplicaciones a
largo plazo, esta tecnología ofrece más libertad, comodidad y oportunidades en la
monitorización clínica.

ieeexplore.ieee.org2022. [online] Disponible en: https://www.semanticscholar.org/paper/Intra-


body-communication-for-biomedical-sensor-
Wegm%C3%BCller/febee08d77134ba2f1f1446a89373ce54e4ec450 [Acceso 12 Octubre 2022].
Diana Karen Reyes López

23. SmartNIC

Un SmartNIC es un tipo de tarjeta de NIC y acelerador programable que hace que la red
del centro de datos, la seguridad y el almacenamiento sean eficientes y flexibles. Los
SmartNIC descargan una creciente variedad de tareas de las CPU de servidor
necesarias para gestionar aplicaciones distribuidas modernas.
Consisten en una variedad de unidades conectadas, a menudo configurables. Estos
bloques de silicio actúan como un comité que decide cómo procesar y enrutar paquetes
de datos a medida que fluyen a través del centro de datos.

¿Cómo funciona un SmartNIC?

La mayoría de estos bloques son unidades de hardware altamente especializadas


llamadas aceleradores que ejecutan trabajos de comunicación de manera más eficiente
que las CPU.
Esta combinación de aceleradores y núcleos programables ayuda a los SmartNIC a
ofrecer rendimiento y flexibilidad con un rendimiento de precio excepcional. Se pueden
integrar fácilmente en los servidores del centro de datos a través de la ranura PCIe.

¿Por qué son importantes los SmartNIC?

Los ordenadores de hoy en día son más pequeños y más grandes que los que usaban
NIC normales. Con el aumento del uso de teléfonos inteligentes y proveedores de
servicios en la nube, los centros de datos se han convertido en la nueva unidad de
informática.
¿Cuáles son algunas de las diferencias entre una tarjeta NIC normal y una SmartNIC?

Las SmartNIC son diferentes de las tarjetas NIC normales de dos maneras principales:
capacidades y componentes. A un alto nivel, los SmartNIC ofrecen capacidades de red,
almacenamiento y seguridad aceleradas y basadas en hardware para la nube, la IA y
las cargas de trabajo empresariales tradicionales.
https://www.trentonsystems.com/blog/what-is-a-smartnic?hs_amp=true.
Iseo Martinez

24. Self-Driving Server

¿Qué es el coche autónomo?

Un automóvil autónomo, también conocido como automóvil sin conductor o automóvil


autónomo, es un vehículo que se conduce solo entre destinos. Es factible con el uso de
sensores, cámaras, radares e inteligencia artificial (IA).

Hay seis niveles de coches autónomos. Para ser totalmente autónomos, los vehículos
autónomos deben poder llegar a un lugar predeterminado sin la participación humana.
Las carreteras no se pueden modificar. Un automóvil autónomo puede viajar a todas
partes donde un conductor humano pueda ir y realizar todo lo que un conductor humano
puede hacer.

¿Qué es la tecnología de los coches autónomos y cómo funcionan? (ubbergo.com)


Urania Serena Moreno
25. baseboard management controller (BMC)

Un dispositivo que se utiliza para administrar las funciones ambientales, de configuración


y de servicio del chasis, y para recibir datos de eventos de otras partes del sistema.
Recibe datos a través de interfaces de sensores e interpreta estos datos utilizando el
registro de datos de sensores (SDR) al que proporciona una interfaz. El BMC proporciona
otra interfaz para el registro de eventos del sistema (SEL). Las funciones típicas del BMC
son medir la temperatura del procesador, los valores de la fuente de alimentación y el
estado del ventilador de enfriamiento. El BMC puede tomar medidas autónomas para
preservar la integridad del sistema.

Oracle Help Center. 2022. Oracle ILOM User's Guide for System Monitoring and Diagnostics
Firmware Release 5.1.x. [online] Disponible en:
<https://docs.oracle.com/en/servers/management/ilom/5.1/user-guide/baseboard-management-
controller-bmc.html [Acceso 12 Octubre 2022].
Diana Karen Reyes López
Computación de usuario final (EUC)

1. Desktop as a Service

Desktop as a service, O DaaS, es una oferta de computación en la nube que entrega de


forma segura aplicaciones virtuales y escritorios desde la nube a cualquier dispositivo.
Esta solución de virtualización de escritorio administrada, también conocida como
DaaS, se utiliza para aprovisionar SaaS seguras y aplicaciones heredadas, así como
escritorios virtuales completos basados en Windows y los entrega a su fuerza laboral.
Con un modelo de suscripción predecible de pago a la marcha, DaaS hace que sea fácil
subir o reducir la escala bajo demanda. Es fácil de gestionar y simplifica muchas de las
tareas de administración de TI de las soluciones de escritorio.

DaaS ofrece aplicaciones virtuales y servicios de escritorio a través de un servicio de


nube pública o privada. Su fuerza de trabajo puede acceder a este servicio a través de
una conexión a Internet a través de un navegador web basado en html o una aplicación
segura descargada en un dispositivo como un ordenador portátil, un ordenador de
sobremesa, un cliente ligero, un teléfono inteligente o una tableta.

DaaS se ofrece como un servicio de suscripción y es de naturaleza multiinquilino. La


infraestructura de escritorio virtual (VDI) de backend, incluidas las máquinas virtuales
que ejecutan sistemas operativos de escritorio, está alojada por un proveedor de
servicios en la nube de terceros. A continuación, el proveedor de DaaS transmite los
escritorios virtuales a los dispositivos del usuario final del cliente.

Los proveedores de DaaS gestionan la implementación de VDI, así como el


mantenimiento, la seguridad, las actualizaciones, la copia de seguridad de datos y el
almacenamiento. Y el cliente gestiona las aplicaciones y las imágenes de escritorio.
DaaS es una buena opción para las organizaciones que no quieren invertir y gestionar
su propia solución VDI local.

https://www.citrix.com/es-mx/solutions/vdi-and-daas/what-is-desktop-as-a-service-
daas.html

Iseo Martínez
2. Remote Application Server (RAS)
Un servidor de acceso remoto (RAS) es un tipo de servidor que proporciona un conjunto
de servicios a usuarios conectados de forma remota a través de una red o Internet.
Funciona como una puerta de enlace remota o un servidor central que conecta a los
usuarios remotos con la red de área local (LAN) interna de una organización.

Un RAS incluye software de servidor especializado utilizado para la conectividad


remota. Este software está diseñado para proporcionar servicios de autenticación,
conectividad y acceso a recursos a los usuarios que se conectan.

Un RAS se implementa dentro de una organización y se conecta directamente con la


red y los sistemas internos de la organización. Una vez conectado con un RAS, un
usuario puede acceder a sus datos, escritorio, aplicación, impresión y / u otros servicios
compatibles.

Servidor de acceso remoto es también el nombre de un componente de Windows 2000


Server que proporciona acceso a la infraestructura de TI empresarial a los usuarios
remotos.

www.techopedia.com/definition/3192/remote-access-server-ras
Urania Serena Moreno

3. Multi-experience
Los MXDP sirven para centralizar las actividades del ciclo de vida (diseño, desarrollo,
prueba, distribución, administración y análisis) para una cartera de aplicaciones
multiexperiencia. La multiexperiencia se refiere a las diversas permutaciones de
modalidades (p. ej., toque, voz y gestos), dispositivos y aplicaciones con los que los
usuarios interactúan en su viaje digital a través de los diversos puntos de contacto. El
desarrollo de experiencias múltiples implica la creación de aplicaciones adecuadas para
el propósito basadas en modalidades específicas de puntos de contacto, al mismo tiempo
que se garantiza una experiencia de usuario uniforme en los puntos de contacto web,
móviles, portátiles, conversacionales e inmersivos.
https://www.gartner.com/en/information-technology/glossary/multiexperience-
development-platforms-mxdp
GUERRERO AGUILAR
4. Full screen displays

El modo de pantalla completa significa la ventana en la que se ejecuta la aplicación


abarca todo el escritorio, ocultando todas las aplicaciones en ejecución (incluido el
entorno de desarrollo). Los juegos suelen estar en modo de pantalla completa para
sumergir completamente al usuario en el juego ocultando todas las aplicaciones en
ejecución. Una aplicación que se ejecuta en modo de ventana comparte el escritorio con
todas las aplicaciones en ejecución. Las diferencias de código entre el modo de pantalla
completa y el modo de ventana son muy pequeñas.

https://learn.microsoft.com/es-es/windows/win32/direct3d9/windowed-vs-full-screen-
mode

Flores Domínguez Xavier

5. Asymmetrical layouts

El diseño asimétrico es una disposición intencionalmente desigual de los elementos


visuales. Para identificar un diseño asimétrico, puede verificar si hay un tamaño
irregular, cambios en el peso de la línea, diferentes formas y colores contrastantes. Los
esquemas de diseño asimétrico a menudo aparecen en:

● Diseños gráficos
● Decoración de interiores
● Diseños de páginas web
● Planos de construcción
● Arte
● Composiciones con un elemento visual, como un folleto

Los aspirantes a diseñadores también pueden referirse a formas naturales para


profundizar su comprensión del diseño asimétrico. Por ejemplo, las nubes a menudo
aparecen como formas desiguales que son visualmente agradables.

Diseño asimétrico: definición, principios y cómo usarlo | Indeed.com Urania Serena


Moreno
6. Skeuomorphic design
El diseño skeuomorphic es un estilo de diseño que emula la forma en que los usuarios
interactúan y experimentan diseños y productos del mundo real. Es utilizado por los
diseñadores para dar a sus usuarios una sensación de familiaridad con el diseño, con el
objetivo de hacer que los usuarios se sientan más cómodos y propensos a interactuar
con un producto o característica.
www.invisionapp.com/inside-design/skeumorphic-design/
Urania Serena Moreno

7. Responsive colors
El color es una de las primeras cosas que aprendemos a hacer en CSS, y sin embargo,
muchos de nosotros nunca vamos más allá de escribir números hexadecimales que nos
entrega un diseñador. Pero conseguir que los colores aparezcan en una pantalla es solo
el comienzo. Averigüe por qué los colores se ven diferentes en diferentes dispositivos y
qué puede hacer al respecto. Aprenda a ajustar los colores con consultas multimedia
para asegurarse de que sus colores se vean lo mejor posible en cualquier tamaño de
pantalla. Descubra cómo el contexto del usuario puede afectar a los colores apropiados
para un sitio web. Y finalmente, aprenda cómo puede hacer que todo este asunto del
color sea mucho menos complicado mediante el uso de un preprocesador CSS como
Sass para administrar sus opciones de color y crear variaciones de color
automáticamente.

Color sensible - Deck de altavoces (speakerdeck.com) Urania Serena Moreno

8. Storytelling

DUDA, BUSCAR OTRAS REFERENCIAS

ISEO

El storytelling es una estrategia mediante la cual contamos una historia para conseguir
un determinado fin: informar, motivar, conocer opiniones, vender, entre otras. Las redes
sociales son un canal de comunicación más directo e inmediato. En él, los usuarios
además de informarse sobre los productos de la compañía exponen sus dudas, quejas,
comentarios etc. favoreciendo el feedback entre ambos.

El storytelling hace posible que el usuario se cree en su mente la historia que le están
contando. Si, por ejemplo, le cuentas a alguien cómo ha sido tu último viaje, dándole
detalles de tu experiencia y de cómo te sentiste (no solo de a dónde fuiste y qué pudiste
ver), el receptor acabará percibiendo esa sensación e incluso acabará recordándola a
largo plazo.
9. Voice User Interfaces (VUIs)

VUI: La conocida como VUI (Voice User Interface o interfaz de usuario de voz) es una
tecnología de reconocimiento de voz. Con ella, los usuarios pueden interactuar con un
dispositivo utilizando la voz como medio. Una VUI acepta la entrada del usuario a través
de la voz, la procesa y luego proporciona una salida basada en la voz, que puede ir
acompañada de texto, gráficos o video en la pantalla.
pueden estar contenidas en dispositivos o dentro de aplicaciones. La infraestructura
de back-end, incluidas las tecnologías de inteligencia artificial utilizadas para crear los
componentes de voz del VUI, a menudo se almacenan en una nube pública o privada
donde se procesa la voz del usuario. En la nube, los componentes de IA determinan la
intención del usuario y devuelven una respuesta determinada al dispositivo o aplicación
donde el usuario está interactuando con la VUI.

https://www.nts-solutions.com/blog/voice-user-interface-que-es.html

Piscil Santander Cynthia Estela

10. Personal User Interfaces (PUIs)


PUI Perceptual User Interfaces), y su objetivo es hacer la interacción persona
computadora lo más parecida a como la gente interactúa entre si y con el resto del
mundo,las PUI deben aprovechar los avances en la visión artificial, reconocimiento de
voz y sonido, sistemas de aprendizaje y comprensión del lenguaje natural .
Tipos de interfaces y conformación de las PUI:
● Perceptive UI
● Multimodal UI
● Multimedia UI
● Percepual UI

http://pui-ceibalxo.blogspot.com/2009/04/perceptual-user-interface-pui.html

Piscil Santader Cynthia Estela

11. Micro-communities
Las microcomunidades desarrollan la convivencia sana y el liderazgo,«El liderazgo
consistiría en la capacidad de plantear principios de modo que sean tomados por otros
como objetivos propios, creándose así un sentido compartido que moviliza a la
organización.
Las microcomunidades fortalecen el liderazgo y, por ende, contribuyen a la formación
de seres políticos comprometidos con la sociedad. En ella se forma una «pequeña»
comunidad, donde cada individuo aporta sus potenciales, teniendo como objetivo el
crecimiento de este pequeño grupo.

file:///C:/Users/admin/Downloads/Dialnet-Las Microcomunidades-7083547.pdf
Piscil Santader Cynthia Estela
12. Rendering Intentionality
El artículo comienza con el proceso de cómo comienzan los productos. Comienzan
pequeños y enfocados y tienen éxito en lo que hacen. Sin embargo, a medida que pasa
el tiempo, los desarrolladores comenzaron a hacer que la aplicación fuera más
sofisticada al agregar más funciones. Esto sucede por una serie de razones, una de
ellas es que los usuarios piden actualizaciones y características y los desarrolladores y
diseñadores cumplen. Sin embargo, muchas veces es porque las empresas se
apoderan de los diseñadores y comenzaron a presionar por más características porque
evalúan su rendimiento en función de la cantidad de características y no de su función o
relevancia. Lo que las empresas no se dan cuenta es que con las características
adicionales viene una disminución en la experiencia del usuario en la aplicación. Las
aplicaciones más nuevas, como Tonic, han creado una aplicación de noticias que ni
siquiera requiere un inicio de sesión, lo que la hace extremadamente simple y fácil de
usar. Ser intencional sobre el diseño de uno es saber que el trabajo es resolver las
necesidades y deseos del usuario y no mantener contentos a los desarrolladores. Esto
significa que los diseñadores deben preocuparse por los deseos y necesidades del
usuario, por lo tanto,preocuparse por el impacto del trabajo sobre el trabajo en sí.
Rendering Intentionality – Introducción a la Publicación Digital (stevensonenglish.org)
Urania Serena Moreno
13. Invisible Design Systems.- Se trata de crear grandes proyectos orientados al
usuario que funcionen funcional y visualmente.El tema del diseño invisible tiende a
agrupar a las personas en dos campos: aquellos que creen que el diseño debe
apartarse del camino del usuario y ser efectivamente invisible, y aquellos que piensan
que tiene algo que aportar al ser visto, al dar placer a través de bien. visuales
elaborados.El objetivo del diseño invisible es guiar al usuario, ayudarlo a realizar una
determinada acción, cuyo objetivo es ahorrar tiempo. https://designmodo.com/invisible-
design/ ,https://fadeyev.net/invisible-design/ Piscil Santander Cynthia Estela

14. Micro interactions.- Las microinteracciones son pares de activación-


retroalimentación en los que: 1. El activador puede ser una acción del usuario o una
alteración en el estado del sistema. 2. La retroalimentación es una respuesta específica
al disparador y se comunica a través de pequeños cambios altamente contextuales
(generalmente visuales) en la interfaz de usuario. Las microinteracciones abarcan una
cantidad sustancial de elementos digitales, pero no todos los elementos forman parte de
una micro interacción. Los elementos estáticos que siempre están presentes en la
pantalla no son microinteracciones porque no tienen un disparador distinto.

Las microinteracciones pueden mejorar la experiencia del usuario de un producto al:

● Fomentar el compromiso
● Visualización del estado del sistema
● Proporcionar prevención de errores
● Comunicando marca
https://www.nngroup.com/articles/microinteractions/#:~:text=Definition%3A%20M
icrointeractions%20are%20trigger%2Dfeedback,changes%20in%20the%20user
%20interface. Piscil Santader Cynthia Estela
15. Neumorphism

El neumorfismo (también conocido como neomorfismo) es una tendencia de diseño relativamente


nueva y un término que últimamente ha despertado mucho interés. Su estética está marcada por
una interfaz de usuario mínima y de aspecto real.
Neumorfismo es una mezcla de minimalismo y esquomorfismo. Es decir, el diseño neumórfico es
una tendencia visual que ganó fuerza entre los diseñadores de UI/UX y se convirtió en una opción
estética popular para el software, los sitios web y las aplicaciones móviles contemporáneas.
El diseño neumórfico es una tendencia visual que ganó fuerza entre los diseñadores de UI y se
convirtió en una opción estética popular para el software, los sitios web y las aplicaciones móviles
contemporáneas. Basándose en aspectos del fotorrealismo y el diseño 3D, el neumorfismo aporta
atributos físicos simulados, como sombras y texturas, a las interfaces digitales.
● Ventajas:
Debido a que el neumorfismo es visualmente simple, es ideal para productos digitales, que
a menudo consisten en docenas, sino cientos, de pantallas y componentes de diseño. En
el diseño de productos digitales, la simplicidad tiene varias ventajas: Hace que sea más
fácil para los diseñadores crear experiencias estéticamente cohesivas,
independientemente de cuántas pantallas tenga un producto. Acelera el proceso de
conceptualización, construcción, prueba e iteración de nuevas pantallas. Y ayuda a los
diseñadores a mantener la coherencia visual de los productos a medida que evolucionan.
Además de su simplicidad, las cualidades realistas del neumorfismo pueden hacer que los
componentes de la interfaz de usuario parezcan más táctiles y pueden ayudar a los usuarios a
identificar la interactividad.
● Desventajas:
Si bien el neumorfismo es una tendencia popular y ampliamente utilizada, conlleva
problemas de accesibilidad. Si los diseñadores eligen usar elementos neumórficos que
son estrictamente monocromáticos, podrían crear problemas para las personas con
discapacidades visuales, como el daltonismo. Además, la dependencia del neumorfismo
en el bajo contraste para lograr su aspecto suave puede dificultar la legibilidad y dificultar
que los usuarios identifiquen botones, íconos, formularios y otras características
importantes de la interfaz.

https://css-tricks.com/neumorphism-and-css/
https://www.toptal.com/designers/ui/neumorphic-ui-design

Rojas Romero Miguel Ángel


16. White Space Design
El espacio en blanco, también conocido como "espacio negativo", es un espacio vacío
alrededor del contenido y los elementos funcionales de una página. El papel básico del
espacio en blanco es dejar que su diseño respire reduciendo la cantidad de texto y
elementos funcionales que los usuarios ven a la vez.

A pesar de ser llamado "blanco", este espacio no necesita ser literalmente blanco.
Cualquier tipo de espacio que sirva de fondo para el contenido o elementos
funcionales puede considerarse espacio en blanco.

¿Qué es el diseño de espacios en blanco? 5 ejemplos reales | Adobe XD Ideas Urania


Serena Moreno

17. Microcopy
Microcopy es un término que se refiere a todos los textos breves de una página web, una aplicación
o cualquier otro producto o servicio digital.
Por ejemplo:
● Nombres de menús.
● Etiquetas de botones.
● Frases cortas que indican al usuario qué debe hacer.
● Aclaraciones.
● Frases que ayudan a entender el contexto.
● Textos de formularios.
● Mensajes de error.
Es decir, microcopy es prácticamente cualquier texto de una interfaz. El texto de un post o de una
página.
El microcopy es importante por dos razones. La primera es que ayuda al usuario a entender para
qué sirven los diferentes elementos de una interfaz y a encontrar su camino. La segunda es que
puede implicar grandes diferencias en el número de visitas y conversiones.

https://www.lauxcritora.com/ux-writing/microcopy/

Rojas Romero Miguel Ángel


18. Seamless conversation
Un traspaso fluido entre los bots y los agentes en vivo crea interacciones de mensajería
que los clientes adoran. Los compradores no sólo son guiados a través del viaje, sino
que también reciben ofertas personalizadas y apoyo instantáneo cuando lo necesitan.
Así es como puede construir relaciones más fuertes con su base de clientes y, como
resultado, aumentar las ventas.
Marco Soto
https://www.zendesk.com.mx/blog/creating-seamless-conversational-experiences/

19. Mobile Augmented Reality

La realidad aumentada es una versión mejorada e interactiva de un entorno del mundo


real que se logra a través de elementos visuales digitales, sonidos y otros estímulos
sensoriales mediante tecnología holográfica. AR incorpora tres características: una
combinación de mundos digitales y físicos, interacciones realizadas en tiempo real e
identificación 3D precisa de objetos virtuales y reales.
La realidad aumentada ofrece una mejor manera de diseñar, mantener y entregar
instrucciones consumibles al superponer contenido digital en entornos de trabajo del
mundo real. Cuando una empresa entiende qué es AR y cómo utilizarla con éxito, todos
pueden trabajar de forma remota mientras colaboran eficientemente.
Al decidir qué tipo de tecnología de realidad aumentada necesitará su negocio,
primero deberá determinar qué tipo de AR usar:
- La realidad aumentada basada en marcadores se crea utilizando el reconocimiento de
imágenes para identificar objetos ya programados en su dispositivo o aplicación AR.
- La realidad aumentada sin marcadores es más compleja, ya que no hay ningún punto
de enfoque para el dispositivo.
Hay cinco componentes significativos de AR:
1. Inteligencia artificial. La mayoría de las soluciones de realidad aumentada
necesitan inteligencia artificial (IA) para funcionar, lo que permite a los usuarios
completar acciones mediante indicaciones de voz. AI también puede ayudar a
procesar información para la aplicación AR.
2. Software de realidad aumentada. Estas son las herramientas y aplicaciones
utilizadas para acceder a AR. Algunas empresas pueden crear su propia forma
de software AR.
3. Procesamiento. Necesitará capacidad de procesamiento para que la tecnología
AR funcione, generalmente aprovechando el sistema operativo interno del
dispositivo.
4. Lentes. Necesitará una lente o una plataforma de imagen para ver el contenido o
las imágenes. Cuanto mejor sea la calidad de la pantalla, más realista parecerá
la imagen.
5. Sensores. Los sistemas AR necesitan digerir datos sobre su entorno para alinear
los mundos real y digital. Cuando la cámara captura información, la envía a
través de software para el procesamiento.

https://dynamics.microsoft.com/es-es/mixed-reality/guides/what-is-augmented-reality-ar/
Flores Domínguez Xavier
Ciberseguridad

1.Endpoint Detection And Response (EDR)

La detección y respuesta de puntos finales (EDR), también conocida como detección y


respuesta de amenazas de punto final (ETDR), es una solución integrada de seguridad
de punto final que combina la supervisión continua en tiempo real y la recopilación de
datos de punto final con capacidades de respuesta y análisis automatizados basadas en
reglas. Anton Chuvakin de Gartner sugirió el término para describir los sistemas de
seguridad emergentes que detectan e investigan actividades sospechosas en hosts y
puntos finales, empleando un alto grado de automatización para permitir a los equipos
de seguridad identificar y responder rápidamente a las amenazas.

Las funciones principales de un sistema de seguridad EDR son:

● Supervisar y recopilar datos de actividad de los puntos finales que podrían


indicar una amenaza

● Analizar estos datos para identificar patrones de amenaza

● Responder automáticamente a las amenazas identificadas para eliminarlas o
contenerse, y notificar al personal de seguridad.
● Herramientas forenses y de análisis para investigar amenazas identificadas y
buscar actividades sospechosas.

https://www.trellix.com/en-us/security-awareness/endpoint/what-is-endpoint-detection-
and-response.html. Iseo Martínez

2. Extended Detection and Response (XDR)


XDR recolecta y correlaciona datos de detecciones y actividad profunda
a lo largo de múltiples capas de seguridad: correo electrónico,
endpoints, servidores, workloads en la nube y redes. El análisis
automatizado de este superconjunto de datos enriquecidos detecta más
rápido las amenazas. Como resultado, los analistas de seguridad están
equipados para hacer más y pueden tomar acción rápidamente por
medio de las investigaciones.
%20https://www.trendmicro.com/es_mx/what-
is/xdr.html#:~:text=XDR(extended%20detection%20and%20response,e
n%20la%20nube%20y%20redes.Marco Soto
3. Secure Access Service Edge (SASE)
Es una arquitectura basada en la nube que ofrece servicios de red y
seguridad destinados a proteger a los usuarios, las aplicaciones y los
datos.
SASE promete ofrecer las funcionalidades de red y seguridad
necesarias como servicios basados en la nube.
https://www.netskope.com/es/security-defined/que-es-sase
Marco Soto

4. Zero Trust Architecture


Con la transformación digital acelerándose en forma de una fuerza de trabajo híbrida en
crecimiento, la migración continua a la nube y la transformación de las operaciones de
seguridad, adoptar un enfoque Zero Trust nunca ha sido más crítico. Si se hace
correctamente, una arquitectura Zero Trust da como resultado niveles generales más
altos de seguridad, pero también reduce la complejidad de la seguridad y la sobrecarga
operativa.
https://www.paloaltonetworks.com/cyberpedia/what-is-a-zero-trust-architecture
GUERRERO AGUILAR

5. Fileless Malaware / Fileless Frameworks


¿Qué es el malware sin archivos? El malware sin archivos es un código malicioso que
funciona directamente dentro de la memoria de una computadora en lugar del disco
duro. Utiliza programas legítimos, de lo contrario benévolos, para comprometer su
computadora en lugar de archivos maliciosos. Es "sin archivos" en el sentido de que
cuando su máquina se infecta, no se descargan archivos en su disco duro.

Esto hace que el análisis de malware sin archivos sea algo más difícil que detectar y
destruir virus y otras formas de malware que se instalan directamente en su disco duro.
Debido a que los ataques de malware sin archivos no requieren archivos maliciosos, las
herramientas antivirus tradicionales que realizan análisis de hardware para localizar
amenazas pueden perderlas por completo.

Sin embargo, esto no significa que la detección de malware sin archivos sea imposible.
El malware sin archivos incluye código que hace varias cosas que los virus normales
pueden hacer, incluida la exfiltración de datos. Este tipo de actividades maliciosas
pueden desencadenar un análisis. Luego, el personal de seguridad puede iniciar pasos
de mitigación de malware sin archivos, que a menudo implican escanear las líneas de
comandos de aplicaciones de confianza, como Microsoft Windows PowerShell, que se
usa para automatizar tareas. En cierto sentido, a pesar de que el malware sin archivos
puede ejecutarse, no puede ocultarse.
Framework:es la plataforma sobre la cual está construido Powershell. Facilita
interactuar con objetos WMI, CIM, COM, DCOM y otros a través de sus librerías.

Powershell: es un poderoso lenguaje de scripting, además de un shell de línea de


comando. Permite ejecutar comandos y realizar un sin fin de actividades, como
descargar archivos de Internet, enviar correos, modificar prácticamente cualquier
configuración del equipo, ya sea local o remoto, manipular aplicaciones de Windows o
utilizar cualquiera de las herramientas que se detallan más abajo en esta lista. Además,
nos permite desarrollar nuestros propios módulos o instalar módulos de terceros. Es por
esta enorme versatilidad que se trata de una herramienta muy atractiva tanto para
administradores de red como para actores maliciosos.
https://www.fortinet.com/resources/cyberglossary/fileless-malware,
https://www.fortinet.com/resources/cyberglossary/fileless-
malwarehttps://www.welivesecurity.com/la-es/2019/12/05/fileless-malware-que-es-
como-funciona-malware-sin-archivo Urania Serena Moreno
6. Behavioral biometric
La biometría del comportamiento examina los patrones de movimiento únicos de una
persona para permitir la comparación constante con el comportamiento anterior y la
autenticación constante durante toda la sesión bancaria, reforzando la protección contra
el fraude.En otras palabras, la biometría del comportamiento proporciona una capa
adicional de defensa para la evaluación de riesgos. Al combinar la biometría del
comportamiento con la inteligencia de identidad digital, obtiene señales de riesgo
adicionales en eventos de alto riesgo, como aperturas de cuentas y pagos.Asimismo, la
biometría del comportamiento puede ser utilizada por instituciones financieras,
empresas, instalaciones gubernamentales, comerciantes de comercio electrónico y
empresas en línea para informar las decisiones de acceso y transacción.La biometría del
comportamiento permite a las organizaciones detectar escenarios de alto riesgo y tomar
mejores decisiones de fraude. Agrega una capa extra de inteligencia a la autenticación
de identidad y representa una poderosa herramienta en la lucha contra el cibercrimen.
https://risk.lexisnexis.com/global/en/products/behavioral-
biometrics?trmid=BSLAFIEV.evergreen.SearchNB.PHGO-
641070&s_kwcid=AL!11260!3!460763074720!e!!g!!behavioral%20biometrics&utm_mediu
m=ppc&utm_campaign=1356049843&utm_content=Behavioral_Biometrics%7CExact&ut
m_term=Behavioral%20biometrics&utm_network=g&utm_device=c&gclsrc=aw.ds&&gclid
=CjwKCAjwqJSaBhBUEiwAg5W9p_ftKPqKRf0FONB-
lpfJ8riSmG0kyyvsf1Fv4IhOHwI8x8J7YaJ60xoCW14QAvD_BwE&gclsrc=aw.ds ,
https://www.onespan.com/es/topics/biometria-
conductual#:~:text=La%20biometr%C3%ADa%20del%20comportamiento%20examina,la
%20protecci%C3%B3n%20contra%20el%20fraude. Rojas Romero Miguel Ángel

También podría gustarte