Está en la página 1de 9

Redes 5G

La red inalámbrica de la próxima (5ta) generación abordará la evolución más allá


del internet móvil, y alcanzará al Internet de las Cosas masivo hacia 2020. La
evolución más notable en comparación con las redes 4G y 4.5G (LTE avanzado)
actuales es que, aparte del aumento en la velocidad de los datos, los nuevos
casos de uso del Internet de las Cosas y de la comunicación requerirán nuevos
tipos de desempeño mejorado; como la “latencia baja”, que brinda una interacción
en tiempo real a los servicios que utilizan la nube, lo que resulta clave, por
ejemplo, para los vehículos autónomos. Además, el bajo consumo de energía
permitirá que los objetos conectados funcionen durante meses o años sin la
necesidad de la intervención humana.

A diferencia de los servicios actuales del Internet de las Cosas que sacrifican
rendimiento para sacar el máximo provecho a las tecnologías inalámbricas
existentes (3G, 4G, WiFi, Bluetooth, Zigbee, etc.), las redes 5G estarán diseñadas
para alcanzar el nivel de rendimiento que necesita el Internet de las Cosas masivo.
Esto hará posible que se perciba un mundo completamente ubicuo y conectado.

La tecnología 5G está caracterizada por 8 especificaciones:

 Una tasa de datos de hasta 10Gbps - > de 10 a 100 veces mejor que las redes 4G
y 4.5G
 Latencia de 1 milisegundo
 Una banda ancha 1000 veces más rápida por unidad de área
 Hasta 100 dispositivos más conectados por unidad de área (en comparación con
las redes 4G LTE)
 Disponibilidad del 99.999%
 Cobertura del 100%
 Reducción del 90% en el consumo de energía de la red
 Hasta 10 diez años de duración de la batería en los dispositivos IoT (Internet de
las Cosas) de baja potencia

Inteligencia Artificial (AI)

La inteligencia artificial (IA), es la inteligencia llevado a cabo por máquinas.


En ciencias de la computación, una máquina «inteligente» ideal es un agente
flexible que percibe su entorno y lleva a cabo acciones que maximicen sus
posibilidades de éxito en algún objetivo o tarea. 1 Coloquialmente, el término
inteligencia artificial se aplica cuando una máquina imita las funciones
«cognitivas» que los humanos asocian con otras mentes humanas, como por
ejemplo: «aprender» y «resolver problemas».2 Andreas Kaplan y Michael Haenlein
definen la inteligencia artificial como "la capacidad de un sistema para interpretar
correctamente datos externos, para aprender de dichos datos y emplear esos
conocimientos para lograr tareas y metas concretas a través de la adaptación
flexible".3 A medida que las máquinas se vuelven cada vez más capaces,
tecnología que alguna vez se pensó que requería de inprender» y «resolver
Andreas Kaplan y Michael Haenlein definen la inteligencia artificial como "la
capacidad de un sistema para interpretar correctamente datos externos, para
aprender de dichos datos y emplear esos conocimieprender» y «resolver
problemas».2 Andreas Kaplan y Michael Haenlein definen la inteligencia artificial
como "la capacidad de un sistema para interpretar correctamente datos externos,
para aprender de dichos datos y emplear esos conocimieteligencia se elimina de
la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe
como un ejemplo de la «inteligencia artificial» habiéndose convertido en una
tecnología común.4 Avances tecnológicos todavía clasificados como inteligencia
artificial son los sistemas de conducción autónomos o los capaces de jugar al
ajedrez o al Go.5

Según Takeyas (2007) la IA es una rama de las ciencias computacionales


encargada de estudiar modelos de cómputo capaces de realizar actividades
propias de los seres humanos en base a dos de sus características primordiales:
el razonamiento y la conducta.6

En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió


como «la ciencia e ingenio de hacer máquinas inteligentes,
especialmente programas de cómputo inteligentes».7

También existen distintos tipos de percepciones y acciones, que pueden ser


obtenidas y producidas, respectivamente, por sensores físicos y sensores
mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como
por entradas y salidas de bits de un software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemas, planificación


automática, la habilidad de responder a diagnósticos y a consultas de los
consumidores, reconocimiento de escritura, reconocimiento del
habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de
la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha
usado en gran variedad de aplicaciones de software, juegos de estrategia,
como ajedrez de computador, y otros videojuegos.

Computación Cuántica

La computación cuántica es un paradigma de computación distinto al de la


computación clásica. Se basa en el uso de cúbits en lugar de bits, y da lugar a
nuevas puertas lógicas que hacen posibles nuevos algoritmos.
Una misma tarea puede tener diferente complejidad en computación clásica y en
computación cuántica, lo que ha dado lugar a una gran expectación, ya que
algunos problemas intratables pasan a ser tratables. Mientras que un computador
clásico equivale a una máquina de Turing,1 un computador cuántico equivale a
una máquina de Turing cuántica.

Empowered Edge

Dispositivos de punto final, utilizados por personas o incrustados en el mundo que


nos rodea: esto es a lo que se refiere el borde. El procesamiento de la información
y la recopilación y entrega de contenido en el futuro deben ubicarse más cerca de
los puntos finales. Esta topología informática está descrita por el borde habilitado.
El objetivo es reducir el tráfico y la latencia. Por lo tanto, trata de mantener el
procesamiento y el tráfico local.

En lugar de eso, en un servidor de nube centralizado, en el corto plazo, el borde


está siendo controlado por IoT y necesita el procesamiento cerca del final. La
computación perimetral y la computación en la nube también serán administradas
por servidores distribuidos y en los dispositivos perimetrales. En este sentido, no
es realmente una nueva arquitectura, mucho más un nuevo desarrollo en el uso de
los medios existentes.

En el corto plazo de algunos años, habrá más dispositivos de vanguardia con


mucha más capacidad de procesamiento, almacenamiento y capacidades
avanzadas. Especialmente habrá tecnología KI especializada en estos
dispositivos. Junto con la mayor latencia, mayor ancho de banda y un aumento
dramático en el número de nodos (puntos finales de borde) por km cuadrado, la
tecnología 5G y la tecnología de borde habilitada tendrán un gran potencial en el
futuro.
Big Data

Los macrodatos,1 también llamados datos masivos, inteligencia de datos, datos a


gran escala o big data(terminología en idioma inglés utilizada comúnmente) es un
término que hace referencia al concepto relativo a conjuntos de datos tan grandes
y complejos como para que hagan falta aplicaciones informáticas no tradicionales
de procesamiento de datos para tratarlos adecuadamente. Por ende, los
procedimientos usados para encontrar patrones repetitivos dentro de esos datos
son más sofisticados y requieren software especializado. En textos científicos en
español con frecuencia se usa directamente el término en inglés big data, tal como
aparece en el ensayo de Viktor Schönberger La revolución de los datos masivos.23

El uso moderno del término "big data" tiende a referirse al análisis del
comportamiento del usuario, extrayendo valor de los datos almacenados, y
formulando predicciones a través de los patrones observados. La disciplina
dedicada a los datos masivos se enmarca en el sector de las tecnologías de la
información y la comunicación. Esta disciplina se ocupa de todas las actividades
relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las
dificultades más habituales vinculadas a la gestión de estas cantidades de datos
se centran en la recolección y el almacenamiento, 4 búsqueda, compartición,
análisis,5 y visualización. La tendencia a manipular enormes cantidades de datos
se debe a la necesidad, en muchos casos, de incluir dicha información para la
creación de informes estadísticos y modelos predictivos utilizados en diversas
materias, como los análisis de negocio, publicitarios, los datos de enfermedades
infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen
organizado.6

Robótica
La robótica es la rama de la ingeniería mecatrónica, de la ingeniería eléctrica, de
la ingeniería mecánica, de la ingeniería biomédica, y de las ciencias de la
computación, que se ocupa del diseño, construcción,
operación, estructura, manufactura, y aplicación de los robots.12

La robótica combina diversas disciplinas como son: la mecánica, la electrónica,


la informática, la inteligencia artificial, la ingeniería de control y la física.3 Otras
áreas importantes en robótica son el álgebra, los autómatas programables,
la animatrónica y las máquinas de estados.

El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales


Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha
obra la palabra checa robota, que significa trabajos forzados o trabajador, fue
traducida al inglés como robot.4

Biotecnología

La biotecnología (del griego βίος [bíos], «vida», τέχνη [-tecne-], «destreza» y -


λογία [-logía], «tratado, estudio, ciencia») se refiere a toda aplicación tecnológica
que utilice sistemas biológicos y organismos vivos o sus derivados para la
creación o modificación de productos o procesos para usos específicos. Dichos
organismos pueden estar o no modificados genéticamente por lo que no hay que
confundir Biotecnología con Ingeniería Genética. La Organización para la
Cooperación y el Desarrollo Económico define la biotecnología como la
«aplicación de principios de la ciencia y la ingeniería para tratamientos de
materiales orgánicos e inorgánicos por sistemas biológicos para producir bienes y
servicios». Sus bases son
la ingeniería, física, química, biología, medicina y veterinaria; y el campo de esta
ciencia tiene gran repercusión en la farmacia, la medicina, la ciencia de los
alimentos, el tratamiento de residuos sólidos, líquidos, gaseosos y la agricultura.
Probablemente el término fue acuñado por el ingeniero húngaro Károly Ereki,
en 1919, cuando lo introdujo en su libro Biotecnología en la producción cárnica y
láctea de una gran explotación agropecuaria.12

Realidad aumentada

La realidad aumentada (RA) es el término que se usa para describir al conjunto de


tecnologías que permiten que un usuario visualice parte de mundo real a través de
un dispositivo tecnológico con información gráfica añadida por éste dispositivo.
Este dispositivo o conjunto de dispositivos, añaden información virtual a la
información física ya existente; es decir, una parte sintética virtual a la real. De
esta manera los elementos físicos tangibles se combinan con elementos virtuales
creando así una realidad aumentada en tiempo real. 1

Temas Extras

Ciber bullyng
El ciberacoso (derivado del término en inglés cyberbullying) también
denominado acoso virtual o acoso cibernético, es el uso de medios de
comunicación digitales para acosar a una persona o grupo de personas, mediante
ataques personales, divulgación de información confidencial o falsa entre otros
medios. Es decir, se considera ciberacoso, o ciberagresión a todo aquello que se
realice a través de los dispositivos electrónicos de comunicación con el fin
intencionado de dañar o agredir a una persona o a un grupo. Además, estos actos
de ciberagresión poseen unas características concretas que son el anonimato del
agresor, su inmediatez y su alcance.1 Puede constituir un delito penal. El
ciberacoso implica un daño recurrente y repetitivo infligido a través de los medios
electrónicos. Según R. B. Standler,23 el acoso pretende causar angustia
emocional, preocupación, y no tiene propósito legítimo para la elección de
comunicaciones.
El término ciberacoso fue usado por primera vez por el educador canadiense Bill
Belsey.4 Otros términos para ciberacoso son acoso electrónico, e-acoso, acoso
sms, acoso móvil, acoso en línea, acoso digital, acoso por internet, acoso en
internet o acoso imaginario.
Software
Se conoce como software1 al soporte lógico de un sistema informático, que
comprende el conjunto de los componentes lógicos necesarios que hacen posible
la realización de tareas específicas, en contraposición a los componentes físicos
que son llamados hardware. La interacción entre el software y el hardware hace
operativo un ordenador (u otro dispositivo), es decir, el Software envía
instrucciones que el Hardware ejecuta, haciendo posible su funcionamiento.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones


informáticas, tales como el procesador de texto, que permite al usuario realizar
todas las tareas concernientes a la edición de textos; el llamado software de
sistema, tal como el sistema operativo, que básicamente permite al resto de los
programas funcionar adecuadamente, facilitando también la interacción entre los
componentes físicos y el resto de las aplicaciones, y proporcionando
una interfaz con el usuario.2

El software en su gran mayoría, está escrito en lenguajes de programación de alto


nivel, ya que son más fáciles y eficientes para que los programadoreslos usen,
porque son más cercanos al lenguaje natural respecto del lenguaje de máquina.3
Los lenguajes de alto nivel se traducen a lenguaje de máquina utilizando
un compilador o un intérprete, o bien una combinación de ambos. El software
también puede estar escrito en lenguaje ensamblador , que es de bajo nivel y tiene
una alta correspondencia con las instrucciones de lenguaje máquina; se traduce al
lenguaje de la máquina utilizando un ensamblador.

El anglicismo software es el más ampliamente difundido al referirse a este


concepto, especialmente en la jerga técnica; en tanto que el término sinónimo
«logicial», derivado del término francés logiciel, es utilizado mayormente en países
y zonas de influencia francesa. Su abreviatura es Sw.