Está en la página 1de 20

Examen

final
Informatica.

Alumno: Perugorria Terra Eduardo Agustin


Materia: Taller de informática
Carrera: Licenciatura en producción de bioimágenes
Año: 2023

1
TABLA DE CONTENIDOS

Contenido
INTRODUCCION............................................................................................................................3
DESARROLLO..........................................................................................................................4
Inteligencia Artificial.................................................................................................................4
EL INTERNET DE LAS COSAS..........................................................................................7
BLOCK CHAIN.....................................................................................................................10
REALIDAD AUMENTADA Y REALIDAD VIRTUAL......................................................................13
CIBERSEGURIDAD...................................................................................................................15
Automatización y Robótica.....................................................................................................17
Computación en la nube........................................................................................................18
CIERRE....................................................................................................................................20
BIBLIOGRAFIA........................................................................................................................21

2
INTRODUCCION

En la presentación de este trabajo abordaremos ciertos temas actuales para poder


adentrarnos un poco en el conocimiento de informático en el cual hoy vivimos.
El avance informático va creciendo a pasos agigantados a medida que se van creando
nuevas aplicaciones y métodos debemos ir aprendiendo cómo funcionan diferentes tipos
de programas.
Desde la Inteligencia Artificial (IA) hasta los sistemas block chain (sistema de cadenas
de bloques) en internet nos permiten hacen diversas cosas tanto así que nos tenemos
aprender conocimientos tanto como para aprender a usarlos como para poder tener una
seguridad de lo que hacemos e evitar algún tipo de “ataque cibernético”

3
DESARROLLO

INTELIGENCIA ARTIFICIAL

La inteligencia artificial o IA (Artificial Intelligence, o AI en inglés) es la simulación de


procesos de inteligencia humana por parte de máquinas, especialmente sistemas
informáticos. Estos procesos incluyen el aprendizaje (la adquisición de información y
reglas para el uso de la información), el razonamiento (usando las reglas para llegar a
conclusiones aproximadas o definitivas) y la autocorrección. Las aplicaciones
particulares de la AI incluyen sistemas expertos, reconocimiento de voz y visión
artificial.
El concepto de IA fue introducido por primera vez en 1956 en una conferencia en
Dartmouth College, donde un grupo de investigadores del MIT y de otras instituciones
se reunieron para explorar la posibilidad de producir máquinas capaces de realizar
tareas que, hasta ese momento, solo eran posibles para los seres humanos.

A lo largo de los años, la investigación en IA ha sido impulsada por una serie de logros
y fracasos, y ha sido financiada por una combinación de empresas y gobiernos.

En 1950, bajo la idea de que las máquinas pueden actuar como los seres humanos. El
test de Turing fue creado por el científico y matemático inglés Alan Turing. Este decía
que para poder asegurar que una computadora poseía inteligencia debía responder tal
como lo haría un humano.

El Test de Turing sirve para determinar, en primer lugar, si una máquina posee


realmente inteligencia artificial y, en ese caso, hasta qué punto. De esta forma se puede
saber el grado de inteligencia que posee una computadora y evaluar cómo debería o
podría mejorarse. El Test de Turing también sirve para hallar la diferencia entre un
robot y un humano en términos conversacionales y de manejo de la información.

¿Cómo funciona?

4
Este test es muy sencillo, ya que se coloca a una persona que servirá de juez, y
mantendrá una conversación escrita con una computadora y una con una persona.
Mediante determinadas preguntas el juez tendrá que determinar cuál de las
conversaciones es con una máquina y cuál es con una persona.
El juez tiene la tarea de hacer preguntas que sean contestadas por el otro humano y por
el ordenador. Dichas preguntas deben tener un formato en específico y el mismo en
ambos casos. Al final de la conversación el interlocutor deberá decidir qué respuestas
fueron del humano y cuáles fueron del ordenador.
Si el juez se equivoca más de la mitad de veces en decidir qué respuesta fue del
ordenador y cuál del ser humano, entonces se considera que la computadora tiene
inteligencia artificial. De esta forma se puede determinar el grado de inteligencia de una
máquina en comparación con la de un ser humano.
La Inteligencia Artificial Fue avanzando con el paso de los años y las etapas de estas
fueron evolucionando.

Evolución IA (Etapas)
Etapa Primaria (1956-1970)
El año 1956 marca un hito trascendental para el surgimiento y evolución de la
inteligencia artificial. En este año se produce en el Dartmouth College una reunión entre
destacados investigadores de esta incipiente área.
En dicha reunión participó, entre otros, John McCarthy, profesor y famoso matemático.
McCarthy, creador del conocido lenguaje LISP, fue también quien designó a la nueva
ciencia que surgía con el nombre de Inteligencia Artificial.
A partir de esta reunión, comienzan a distinguirse dos tendencias en el estudio de la
inteligencia artificial: la tendencia conocida como conexionismo y la denominada
como ingeniería del conocimiento.
En la Etapa Primaria los investigadores que trabajaban en la línea de investigación
cognitiva produjeron trabajos dirigidos al desarrollo de algoritmos y de estrategias de
búsqueda para la solución de problemas.
Allen Newell y Herbert Simon se destacan dentro de esta tendencia. En su afán de
alcanzar un modelo de representación del conocimiento humano, crearon la técnica más
importante de representación: las reglas de producción.
Por otro lado, los investigadores que formaban parte de la tendencia conexionista
también produjeron trabajos relevantes en esta primera etapa. Un ejemplo es
el Perceptrón, desarrollado por Frank Rosenblatt en 1959.
El Perceptrón es una unidad neuronal artificial que se puede entrenar mediante reglas de
aprendizaje supervisado, no supervisado y por reforzamiento.

5
En esta primera etapa, a pesar de crearse las bases para el desarrollo posterior, las
investigaciones de ambas tendencias tuvieron una limitación en común: promovieron
expectativas exageradas.
La idea de construir un sistema capaz de resolver cualquier tipo de problema, o la de
crear una base de datos que permitiera traducir automáticamente y sin errores, son
expectativas incumplidas que se esbozaron en la primera etapa de IA.
A lo anterior se le sumó el hecho de disponer de insuficientes recursos humanos,
financieros y tecnológicos para sus investigaciones. Siendo así, el reconocimiento
internacional hacia los pioneros de la IA fue prácticamente nulo en esta etapa.
Etapa de Prototipos (1971-1981)
En la etapa de prototipos se realiza un reconocimiento justo a los logros alcanzados en
la primera etapa. Además, se desarrolla un análisis crítico dirigido a comprender las
causas de los fracasos obtenidos en el período anterior.
Al profundizar en el análisis descubren que en muchas de las técnicas propuestas por los
iniciadores de la IA faltaba la consideración de un elemento muy importante:
el conocimiento heurístico.
Este descubrimiento condujo a la inclusión de la experiencia como variable en los
sistemas de inteligencia artificial. Es entonces cuando en las universidades comienzan a
desarrollarse los primeros prototipos exitosos de sistemas.
Aunque no es hasta 1977 que surge el término Sistema Experto, el primero de ellos se
da a conocer en 1974. Se trata de Mycin, un sistema de diagnóstico de enfermedades
infecciosas, producido por la Universidad de Stanford.
Etapa de Difusión Industrial (1981-Actualidad)
La etapa que transcurre entre 1981 y la actualidad ha sido denominada como la etapa de
difusión industrial. Esto se debe al hecho de que los prototipos salen de los laboratorios
y universidades para entrar en el mundo de la producción y el mercado.
Entre los dominios de aplicación de la inteligencia artificial que más se han beneficiado
con inversiones e investigación en esta tercera etapa se encuentran los sistemas
expertos y las bases de datos inteligentes.
Un ejemplo de sistema experto desarrollado en esta etapa es el R1 / XCON. Este
sistema posee la funcionalidad de elegir un software específico para generar un sistema
informático acorde a las preferencias del usuario.

6
EL INTERNET DE LAS COSAS.

¿Qué es la Internet de las cosas?

La Internet de las cosas, o IoT, es un sistema de dispositivos electrónicos


interconectados que puede recopilar y transferir datos a través de una red inalámbrica
sin intervención de personas.
Engloba mucho más que las computadoras portátiles y los teléfonos inteligentes: casi
cualquier cosa con un interruptor de encendido y apagado puede potencialmente
conectarse a Internet, lo que la convierte en parte de la IoT. Por ejemplo, una "cosa" en
la Internet de las cosas podría ser una persona con un implante de monitorización
cardíaca, una cámara que transmita en directo las imágenes de animales salvajes en
aguas costeras o un auto con sensores incorporados para alertar al conductor de posibles
riesgos. Básicamente, cualquier objeto al que se le pueda asignar una dirección de
Protocolo de Internet (IP) y pueda transferir datos a través de una red, puede ser parte
de la Internet de las cosas.
¿Cómo funciona la Internet de las cosas?
Un sistema IoT consiste en sensores o dispositivos que se comunican con la nube
mediante una forma de conectividad. Una vez que los datos llegan a la nube, el software
los procesa y define si es necesario realizar alguna acción, como ajustar los sensores o
dispositivos, sin que el usuario deba intervenir o enviar una alerta.
Existen cuatro elementos diferentes en un sistema IoT completo: Sensores o
dispositivos, conectividad, procesamiento de datos y una interfaz de usuario.
Analicemos cada uno:
Sensores o dispositivos

7
Recopilan datos de su entorno. Un dispositivo puede tener varios sensores; por ejemplo,
un teléfono inteligente contiene un GPS, una cámara, un acelerómetro, y demás.
Básicamente, el sensor o los sensores recopilan datos del entorno para un propósito
particular.
Conectividad
Una vez que el dispositivo recopiló los datos, debe enviarlos a la nube. Esto se produce
de diferentes formas: puede ser por conexión Wi-Fi, Bluetooth, satélite, redes de baja
potencia y área amplia (LPWAN) o mediante conexión directa a Internet vía Ethernet.
La opción particular de conectividad dependerá de la aplicación IoT.
Procesamiento de datos
Una vez que los datos llegan a la nube, el software los procesa y define si realizar o no
una acción. Puede ser enviar una alerta o ajustar automáticamente los sensores o
dispositivos sin intervención del usuario. Sin embargo, hay momentos en que el usuario
debe intervenir, y allí es donde entra en juego la interfaz de usuario.
Interfaz de usuario
Si la intervención del usuario es necesaria o si quiere controlar el sistema, la interfaz de
usuario lo hace posible. Cualquier acción realizada por el usuario se envía en la
dirección opuesta a través del sistema. Desde la interfaz de usuario a la nube, y de
vuelta a los sensores o dispositivos para llevar a cabo el cambio solicitado.
¿Para qué se puede usar el internet de las cosas?
Los usos que tiene el internet de las cosas son muy amplios. A grandes rasgos, lo que
permite es la automatización de procesos ejecutados por diversos objetos, tanto en
sectores empresariales como en espacios domésticos. Por ejemplo, el internet de las
cosas tiene importantes aplicaciones de cara a la domotización de las viviendas, ya que
permite la automatización de elementos como la iluminación, la climatización, la
seguridad, etc.
Ventajas y desventajas del internet de las cosas
Más allá de la propia tecnología, hay que tener en cuenta las ventajas y desventajas del
internet de las cosas. Es decir, se trata de una tecnología con grandes posibilidades, pero
que también plantea algunas dudas que conviene tener en consideración al respecto. 
Ventajas del internet de las cosas
 Capacidad de conectarse a la red: La principal ventaja que ofrece el IoT es la
capacidad de conectarse a Internet y, en consecuencia, tener acceso a todo lo que
esto supone. Por ejemplo, cuando una televisión se conecta a la red para obtener los
contenidos que vamos a ver. 
 Intercambio de información de forma rápida y en tiempo real: Otra de las ventajas
del IoT es que el intercambio de información se realiza de forma rápida y en tiempo
real, lo que tiene muchas aplicaciones diferentes. Por ejemplo, en el sector de la
seguridad. Gracias al IoT, se avisa a la policía o a los bomberos de forma

8
automática cuando se detecta un problema de intrusión o un incendio en un espacio
controlado. 
 Ahorro energético: Otra ventaja muy importante que ofrece el IoT es el ahorro
energético. Al monitorizar y automatizar los procesos, estos se llevan a cabo de
forma mucho más controlada, lo que repercute en un menor consumo y, en
consecuencia, en un mayor ahorro. El mejor ejemplo lo encontramos en la
automatización de la climatización de los hogares y otros inmuebles. Cuando la
climatización es controlada por dispositivos con IoT, se sincronizan con la
temperatura y condiciones climatológicas exteriores, lo que conlleva un uso más
adecuado de los recursos disponibles. 
 Procesos más sostenibles: De la misma forma que el IoT permite un mayor ahorro al
favorecer un mejor uso de los recursos, esto también conlleva una mayor
sostenibilidad, ya que se utilizan solo los recursos que son realmente necesarios. El
mejor ejemplo, de nuevo, lo encontramos en la climatización.
 Comunicación con el entorno directo: Otra de las ventajas es que el IoT permite la
comunicación directa con el entorno más cercano. Por ejemplo, podemos abrir y
cerrar puertas desde nuestro teléfono celular, o podemos recibir información útil
dependiendo de cuál sea nuestra posición geolocalizada en cada momento. 
Desventajas del internet de las cosas
 La información no se encuentra cifrada: Una de las principales desventajas que
ofrece el IoT es que la información no está cifrada y, en consecuencia, resulta muy
sencillo acceder a ella. Esto puede implicar problemas relacionados con la seguridad
digital, ya que el sistema podría ser hackeado. Por ejemplo, para el robo de datos. 
 Requiere de una inversión previa en tecnología: Otra de las desventajas del IoT es
que requiere una inversión previa para que pueda funcionar. Es decir, necesitamos
adquirir los dispositivos con la tecnología necesaria para que se puedan conectar a
Internet. 
 Reducción de la intimidad: Otro de los problemas que puede llegar a plantear el uso
de objetos con tecnología IoT es la reducción de la intimidad. Estos dispositivos
abren espacios privados al espacio público, por lo que pueden llegar a plantearse
problemas serios en este sentido. Por ejemplo, mediante la instalación de sistemas
de seguridad como cámaras de vigilancia que no sean usadas de forma correcta. 
 Brecha tecnológica: Así mismo, otra de las desventajas que plantea el uso de la
tecnología IoT es que profundiza en la brecha digital. Es decir, el problema de qué
personas que pueden acceder a esta tecnología y cuáles no. Esto es especialmente
notable cuando se compara el acceso a Internet entre distintos países, así como entre
entornos urbanos y el medio rural.
 Falta de compatibilidad: Finalmente, otra de las principales desventajas de la
tecnología IoT es la falta de compatibilidad entre algunos dispositivos. Los sistemas
IoT no están estandarizados y, en consecuencia, se podría dar el caso en el que
determinados dispositivos no puedan trabajar de forma conjunta entre sí a pesar de
estar diseñados para la misma función.

9
BLOCK CHAIN.
Blockchain es un sistema descentralizado. Las operaciones se registran en los
ordenadores de todos los que participan en la cadena, incluyendo datos como cantidad,
fecha, operación y participantes. Una vez compartidas y registradas en línea, no se
pueden borrar. Conteniendo así, un registro fiel y verificable de todas las transacciones
que se han hecho en la historia, sobre esa materia, que además están registradas con
claves criptográficas.
Funcionamiento de la cadena de bloques – blockchain

Normalmente los registros de datos han estado siempre centralizados o


descentralizados. Una base de datos centralizada está en un solo sitio fijo, como por
ejemplo un registro de la propiedad. Si quieres conocer a quién pertenece una vivienda,
vas al registro de tu ciudad y lo encuentras. La base de datos descentralizada sería como
por ejemplo las bibliotecas municipales, en las que en todas ellas puedes encontrar una
copia de Don Quijote y leerla. La base de datos distribuida va más allá en el concepto
de bases de datos:

 Cada operación que se realiza en este sistema genera un nuevo bloque de datos. La
información de la cadena de bloques se encuentra almacenada de manera
descentralizada. Es decir, ninguna entidad pública tiene la propiedad de la
información. Ya que esa información se deriva a diferentes servidores de múltiples
ordenadores. Además, cualquier persona puede mantener esta información en el
servidor y puede ser recompensado económicamente, según su contribución a la red.
Este proceso recibe el nombre de minería, mediante este proceso se verifica toda la
información. 
 Utiliza una seguridad fuerte, disminuyendo las posibilidades de ser hackeado.
Además, las transacciones que se realizan son irreversibles. Debido a que una vez
que se registra la información, también se copia en otros servidores. De esta forma,
siendo imposible eliminar un bloque de datos. Además, todo queda registrado en un
histórico.
 Toda la información que se almacena en el sistema es pública. Sin embargo, sólo la
persona que realiza la transacción podrá descubrir toda la información inherente a la
transacción.

10
1991-2008: Primeros años de la tecnología Blockchain

¿Cómo surgió blockchain? Stuart Haber y W. Scott Stornetta tuvieron la visión de lo


que muchas personas han llegado a conocer como blockchain en 1991. Su primer
trabajo consistió en trabajar en una cadena de bloques protegida criptográficamente en
la que nadie podía manipular las marcas de tiempo de los documentos.

En 1992, actualizaron su sistema para incorporar árboles de Merkle que mejoraban la


eficiencia, lo que permitía la recopilación de más documentos en un solo bloque. Sin embargo,
es en 2008 que la Historia de Blockchain comienza a ganar relevancia, gracias al trabajo de una
persona o grupo con el nombre de Satoshi Nakamoto.

Evolución de Blockchain: Fase 1- Transacciones

2008-2013: Blockchain 1.0: Emerge el Bitcoin

La mayoría de la gente cree que Bitcoin y Blockchain son lo mismo. Sin embargo, ese no es el
caso, ya que una es la tecnología base que impulsa la mayoría de las aplicaciones, de las cuales
una de ellas es la criptomoneda.

Bitcoin nació en 2008 como la primera aplicación de la tecnología Blockchain. Satoshi


Nakamoto en su artículo técnico lo describió como un sistema electrónico peer-to-peer (punto
a punto). Nakamoto formó el bloque génesis, desde el cual se extrajeron otros bloques, que se
interconectaron, dando como resultado una de las cadenas de bloques más grandes que
transportan diferentes piezas de información y transacciones

Evolución de la cadena de bloques: Fase 2- Contratos

2013-2015: Blockchain 2.0: Desarrollo de Ethereum

Preocupado por las limitaciones de Bitcoin, Buterin comenzó a trabajar en lo que él pensaba
que sería una blockchain maleable que puede realizar varias funciones además de ser una red
punto a punto. Ethereum nació como una nueva blockchain pública en 2013 con
funcionalidades adicionales en comparación con Bitcoin, un desarrollo que ha resultado ser un
momento crucial en la historia de Blockchain.

Lanzado oficialmente en 2015, Ethereum blockchain ha evolucionado hasta convertirse en una


de las aplicaciones más grandes de la tecnología de blockchain, dada su capacidad para
respaldar los contratos inteligentes utilizados para realizar diversas funciones.

11
Ethereum blockchain procesa la mayor cantidad de transacciones diarias gracias a su
capacidad para soportar contratos inteligentes y aplicaciones descentralizadas. Su
capitalización de mercado también se ha incrementado significativamente en el espacio de las
criptomoneda.

Evolución de Blockchain: Fase 3 – Aplicaciones

2018: Blockchain 3.0: El Futuro

La historia y evolución de blockchain no se detienen con Ethereum y Bitcoin. En los últimos


años, una serie de proyectos han surgido aprovechando todas las capacidades de la tecnología
de blockchain. Los nuevos proyectos han tratado de abordar algunas de las deficiencias de
Bitcoin y Ethereum, además de ofrecer nuevas características que aprovechan las capacidades
de blockchain 

Las grandes empresas están invirtiendo mucho en la contratación de profesionales mientras


buscan obtener una ventaja en el uso de esta tecnología. Compañías como Microsoft y
Microsoft parecen haber tomado la iniciativa cuando se trata de explorar aplicaciones de
tecnología de blockchain que se traducen en lo que se conoce como blockchains privadas,
híbridas y federadas.

El futuro de la tecnología Blockchain se ve brillante, en parte, debido a la forma en que los


gobiernos y las empresas están invirtiendo a lo grande, ya que buscan estimular las
innovaciones y aplicaciones. Cada vez es más claro que un día habrá una cadena de bloques
pública que cualquiera puede usar.

12
REALIDAD AUMENTADA Y REALIDAD VIRTUAL
Definición de realidad virtual.
La realidad virtual es una ilusión artificial que simula un escenario creado a partir de tecnología
informática. En otras palabras, la realidad virtual pretende, vía recursos digitales imitar
nuestra realidad para así, conseguir el mayor realismo posible en la experiencia de
inmersión virtual
La realidad aumentada (RA) es el término que se usa para describir al conjunto de
tecnologías que permiten que un usuario visualice parte del mundo real a través de un
dispositivo tecnológico con información gráfica añadida por este. El dispositivo, o
conjunto de dispositivos, añaden información virtual a la información física ya
existente, es decir, una parte virtual aparece en la realidad. De esta manera los
elementos físicos tangibles se combinan con elementos virtuales, creando así una
realidad aumentada en tiempo real
¿Cuáles son las diferencias entre Realidad Aumentada y Realidad Virtual?
Aunque tienen un nombre muy similar, sus características y objetivos son bastante
diferentes.
Mientras la Realidad Virtual crea un ambiente totalmente nuevo y desprendido del
mundo real, la Realidad Aumentada incluye componentes digitales en el mundo físico
que nos rodea.
Ambas requieren de un intermediario tecnológico para accederlas, sin embargo, ofrecen
experiencias totalmente distintas para los usuarios.
La Realidad Virtual reemplaza lo "real" por un contenido 100% virtual. Este tipo de
tecnología permite, por ejemplo, ingresar a juegos, escenarios y ambientes, donde el
usuario realiza acciones, se mueve e interactúa con el contenido totalmente digital, a
través de una inmersión completa.

13
Por otro lado, la Realidad Aumentada proyecta una información (como imágenes,
gráficos, personajes, textos) en el mundo real, proporcionando una nueva visión del
espacio físico.
¿Qué se necesita para obtener realidad aumentada?
Basta con un dispositivo de captura de la imagen real (como, por ejemplo, un móvil), un
software que esté simultáneamente transcribiendo esta información y los elementos
virtuales que van a transformar esa realidad. Más allá de estos componentes, existen
diferentes tipologías de realidad aumentada: la que se transcribe a través de una
geolocalización, y la que se basa en marcadores.

La realidad virtual es una simulación computarizada de espacios donde las personas


pueden interactuar como si realmente estuviesen allí. La característica principal es que
todos los objetos o el espacio en general tienen apariencia real.
Realidad virtual no inmersiva
Son aquellos que permiten que un usuario se sumerja en un ambiente virtual, pero sin
utilizar ningún equipo para ello. Son empleados como una alternativa porque se ajustan
a cualquier pantalla. De igual forma, tienen una imagen bastante realista y su desarrollo
puede demorar bastante tiempo.
Al presentar otro mundo desde una ventana de escritorio, la realidad virtual no
inmersiva encuentra varias ventajas. La más popular es que tiene bajo costo y son
fácilmente aceptadas por los usuarios.
Realidad virtual semi-inmersiva
Es un balance entre el mundo físico y el mundo virtual. Son una gran herramienta ideal
para el ámbito empresarial o de la construcción porque permiten conocer cómo se verán
las cosas en un futuro. Son usados principalmente cuando se necesita que el usuario esté
en contacto con elementos del mundo físico.
Inmersión total
La principal característica es que utiliza un sistema de gafas de realidad virtual o
HMD. De igual forma, permite que los usuarios se sumerjan físicamente en entorno 3D.
Algunos puristas de la RV consideran que este es el único tipo realmente aceptado.
A menudo se cree que la realidad virtual y la realidad aumentada pueden ser tomadas
como sinónimos, pero la verdad es que no. Ambos conceptos tienen una definición
diferente y algunas marcadas diferencias. La principal diferencia es que la realidad
virtual te da la posibilidad de que te sumerjas en mundos virtuales; mientras que la
realidad aumentada te deja sobreponer objetos virtuales en el mundo real.
En ese sentido, la realidad aumentada ofrece información de manera virtual sobre el
mundo real. Puede ser útil para presentar proyectos de arquitectura o para bienes raíces.

14
La realidad virtual, por su parte, lleva al usuario hasta un mundo paralelo, donde todo es
100 % ficticio, pero es capaz de estimular los sentidos.

Realidad
aumentada y
Realidad Virtual

CIBERSEGURIDAD

¿Qué es la ciberseguridad?
La ciberseguridad es la práctica de proteger los sistemas más importantes y la
información confidencial ante ataques digitales. También conocida como seguridad de
la tecnología de la información (TI), las medidas de ciberseguridad están diseñadas para
combatir las amenazas a sistemas en red y aplicaciones, que se originan tanto desde
dentro como desde fuera de una organización.
¿Qué medidas podemos tomar para poder estar protegidos ante algún “ciber ataque”?
Una fuerte estrategia de ciberseguridad presenta capas de protección para defenderse
contra la ciberdelincuencia, incluidos los ciberataques  que intentan acceder, cambiar o
destruir datos; extorsionar dinero de los usuarios o de la organización o bien tratan de
interrumpir las operaciones normales de negocio. Las contramedidas deben abordar:
Seguridad de la infraestructura esencial: prácticas para proteger los sistemas
informáticos, las redes y otros activos que afectan a toda la sociedad, como los
relacionados con la seguridad nacional, la salud económica o la seguridad pública. El
Instituto Nacional de Estándares y Tecnología (NIST) ha creado un marco de trabajo de
ciberseguridad para ayudar a las organizaciones en esta área. Por su parte, el
Departamento de Seguridad Nacional (DHS) de EE. UU. Proporciona directrices
adicionales.

Seguridad de la red: medidas de seguridad para proteger una red de sistemas ante
intrusos, incluyendo conexiones por cable e inalámbricas (Wi-Fi).
Seguridad de las aplicaciones: procesos que ayudan a proteger las aplicaciones que se
ejecutan en local y en cloud. La seguridad debe integrarse en las aplicaciones en la
etapa de diseño, teniendo en cuenta cómo se manejan los datos y la autenticación de
usuario, entre otros factores.

15
¿Por qué es importante la ciberseguridad?
En el actual mundo conectado, todos se benefician de los programas de ciberdefensa
avanzados. A nivel individual, un ataque a la ciberseguridad puede dar como resultado
desde un robo de identidad hasta intentos de extorsión y la pérdida de datos
importantes, como fotos familiares. Todos confían en las infraestructuras críticas, como
las centrales eléctricas, los hospitales y las empresas de servicios financieros. Proteger
estas y otras organizaciones es esencial para el funcionamiento de la sociedad.
Todos se benefician del trabajo de los investigadores de ciberamenazas, como el equipo
de 250 investigadores de amenazas de Talos, que investiga las amenazas nuevas y
emergentes y las estrategias de los ciberataques. Revelan nuevas vulnerabilidades,
educan al público sobre la importancia de la ciberseguridad y refuerzan las herramientas
de código abierto. Su trabajo hace que Internet sea más segura para todos.
Las amenazas contra la ciberseguridad siempre están presente en todo momento.
Debemos conocerlas para poder hacerle frente a estas.

Las más comunes son:


Programas maliciosos: El término "programa malicioso" se refiere a variantes de
software malicioso, como gusanos, virus, troyanos y spyware, que proporcionan acceso
no autorizado o causan daños a un sistema. Los ataques de programas maliciosos son
cada vez más "sin archivos" y están diseñados para eludir los métodos de detección más
comunes, como las herramientas antivirus, que exploran los archivos adjuntos para
detectar archivos maliciosos.
Ransomware es un tipo de programa malicioso que bloquea archivos, datos o sistemas y
amenaza con borrar o destruir los datos, o con publicar los datos privados o
confidenciales, a menos que se pague un rescate a los ciberdelincuentes responsables
del ataque. Los últimos ataques de ransomware se han dirigido a gobiernos estatales y
locales, que son más fáciles de quebrantar que las organizaciones y están bajo mayor
presión a la hora de pagar rescates para restaurar las aplicaciones y sitios web en los que
confían los ciudadanos.

Phishing/ingeniería social
Phishing es una forma de ingeniería social que engaña a los usuarios para que
proporcionen su propia PII o información confidencial. En las estafas de phishing, los
correos electrónicos o mensajes de texto parecen ser de una empresa legítima que
solicita información confidencial, como datos de tarjeta de crédito o información de
inicio de sesión.

Amenazas persistentes avanzadas (APT)


En una APT, un intruso o un grupo de intrusos se infiltran en un sistema y permanecen
sin ser detectados durante un largo período de tiempo. El intruso deja intactas las redes
y sistemas para poder espiar la actividad empresarial y robar datos confidenciales
evitando así que se activen contramedidas defensivas.
16
Ataques de intermediario (man-in-the-middle)
Man-in-the-middle es un ataque de escuchas no autorizadas, donde un ciberdelincuente
intercepta y retransmite mensajes entre dos partes para robar datos. Por ejemplo, en una
red Wi-Fi no segura, un atacante puede interceptar datos que se transmiten entre el
dispositivo del huésped y la red.

AUTOMATIZACION Y ROBOTICA
Descripción general
La automatización robótica de los procesos (RPA) consiste en el uso de robots de
software para realizar las tareas repetitivas de las que solían encargarse las personas.
La mayoría de sus herramientas se ejecutan en estaciones de trabajo individuales y
pueden realizar tareas rutinarias, como mover filas de datos de una base de datos a una
hoja de cálculo. Si bien los bots individuales trabajan en tareas simples, se pueden
obtener muchos resultados. La RPA puede ser muy importante para que una empresa
funcione de manera más eficiente como parte de una estrategia general de gestión de
procesos empresariales (BPM).
Usos y ventajas del software de RPA

Es posible que las palabras "automatización robótica de los procesos" le transmitan la


idea de los robots físicos en las fábricas, pero en realidad se trata de los bots de
software. La RPA los utiliza para automatizar las tareas de software repetitivas de las
que solían encargarse las personas, ya sean trabajos simples (p. ej., completar
formularios y preparar facturas) o complejos (p. ej., atender a los clientes y resolver
problemas). 
Un caso práctico típico es la automatización de las interacciones que trasladan los datos
entre las aplicaciones que, de no ser por la RPA, estarían aisladas. Un bot puede trabajar
dentro de la misma interfaz de usuario que una persona, imitando las acciones como
copiar, pegar y hacer clic.
Una de las principales ventajas de la RPA es la sencillez. Por lo general, los usuarios
finales pueden preparar e implementar un bot de RPA sin tener habilidades de
desarrollo, y el bot puede comenzar a realizar tareas útiles de inmediato, las 24 horas del
día, y a un bajo costo. Estas soluciones implican un nivel de riesgo bajo y un posible
retorno sobre la inversión elevado.
Existen dos tipos de soluciones de RPA: con y sin supervisión. 
17
Bots de RPA con supervisión
Se ejecutan de manera local en una estación de trabajo y se encargan de las tareas de
interacción con los clientes. Trabajan a la par de las personas, aunque también se
pueden activar a partir de eventos del sistema.
Bots de RPA sin supervisión
Trabajan con los datos de la empresa de manera interna en los servidores de backend.
Como no hay intervención humana, se activan ante determinados eventos o se
programan para ejecutarse a un horario específico.

COMPUTACION EN NUBE
La transformación digital ayuda a las empresas a aumentar rápidamente la eficiencia, la
agilidad y la conectividad a medida que usan la tecnología para transformar los
procesos empresariales en algo más simple, rápido, seguro, flexible y rentable. La
tecnología de computación en nube es un pilar de la transformación digital.
¿Cuáles son las ventajas de la computación en nube?
La computación en nube ofrece a las empresas modelos prácticos para acceder a las
ofertas de infraestructura, plataforma y software de pago por uso. Con la computación
en nube, las empresas pueden liberar capital, optimizar el mantenimiento de TI,
modernizar y escalar los enfoques empresariales, convertir la seguridad y la flexibilidad
en servicios y soluciones, ayudar a los clientes de nuevas maneras, y hacer crecer su
empresa en las condiciones de mercado siempre cambiantes.

Tipos de modelos de implementación de


computación en nube
Nube privada El modelo de nube privada hace
referencia a los recursos de
computación en nube que se usan
exclusivamente en una misma empresa
u organización. La nube privada puede
almacenarse en el centro de datos
interno o un proveedor de servicios
puede alojarla en la nube.
Nube pública Cuando una organización implementa
un modelo de nube pública, toda la
infraestructura de hardware, software y
soporte es propiedad del proveedor de
servicios que la administra y la
proporciona exclusivamente por
Internet. Puede acceder a estos

18
servicios y administrar la cuenta
mediante un navegador web.
Nube híbrida
Un modelo de computación en nube
híbrido combina las nubes públicas y
privadas para compartir datos y
aplicaciones. Las nubes híbridas
conectan la infraestructura y las
aplicaciones entre recursos en nube con
los recursos existentes que no se
encuentran en la nube. Este enfoque le
aporta a su empresa más flexibilidad y
más opciones de implementación.

CIERRE

Las herramientas que poseemos hoy en día en base a la informática son muy amplias y
nos permiten a todo aquel que tenga acceso a internet poder integrarse más y más cada
día con la información necesaria para poder ayudar desde el lugar que estemos en
nuestros trabajos, nuestras casa o donde podamos.
Es importante poder saber para poder desempeñarnos acordemente, ya sea haciendo una
base de datos en nuestro trabajo (sabiendo cómo debemos protegerla, interna y externa a
algún ataque) así como los diferentes modos de trabajar, ya sea con los archivos en
nuestras computadoras o en la nube pudiendo así trabajar en lo que hoy en día
conocemos como home office, desde casa o cualquier lugar que posea conexión a
internet.

19
BIBLIOGRAFIA

¿Qué es Inteligencia artificial o IA? - Definición en WhatIs.com (computerweekly.com)

Historia de la Inteligencia Artificial: El increíble origen de la IA - Mejores herramientas IA


(miinteligenciaartificial.com)

Qué es el Test de Turing, qué mide, cómo funciona y ejemplos (economia3.com)

¿Qué es la inteligencia artificial? ¿Cuál es su historia? (zendesk.com.mx)

¿Qué es la Internet de las cosas (IoT) y qué son los dispositivos IoT? (kaspersky.es)

Ventajas y desventajas del “internet de las cosas” (IoT) (beetrack.com)

Blockchain - Qué es, definición y concepto | 2023 | Economipedia

Historia de la tecnología Blockchain: Guía definitiva (101blockchains.com)

Realidad aumentada: ¿qué es, cómo funciona y para qué sirve? (rockcontent.com)

Realidad virtual | Qué es, tipos, ventajas, desventajas, aplicaciones (futuroelectrico.com)

¿Qué es la ciberseguridad? – Cisco

¿Qué es la ciberseguridad? | IBM

¿Qué es la automatización robótica de los procesos (RPA)? (redhat.com)

20

También podría gustarte