Está en la página 1de 34

Nuevas tecnologías de la información,

comunicación y conectividad

Cuadernillo 2024

4to Año - Nivel secundario

Profesora: Graciana D’Agostino

1
UNIDAD N 1
Introducción:

Las 4 revoluciones industriales

La cuarta revolución tecnológica se está desarrollando desde hace un tiempo, donde más allá del
internet y el uso generalizado de las tecnologías de información, se avanza en nuevas tecnologías
que modifican actividades y procesos, como la inteligencia artificial, la impresión en tres
dimensiones, la robótica, la biotecnología y la automatización de vehículos. Las nuevas tecnologías
están modificando los paradigmas de producción y consumo, lo que inevitablemente tendrá
efectos en el mercado del trabajo. Mas allá de estos cambios específicos en el sector productivo,
existen otros efectos, hasta el momento invisibilizados, en la salud, la educación, la vivienda, el
transporte, entre otros, que abren un espacio de desafíos y oportunidades para la política pública.
Este proceso es particularmente relevante para una sociedad como la Latinoamericana con altos
niveles de desigualdad. Los nuevos cambios tecnológicos en curso pueden ser una gran
oportunidad para disminuir las brechas existentes y dar cuenta de la huella social del modelo de
desarrollo actual y así avanzar de manera activa en los objetivos de la Agenda 2030 de Desarrollo
Sostenible. De lo contrario, se corre el riesgo de acrecentar las brechas, concentrando privilegios y
aumentando desigualdades de ingresos, de derechos y de oportunidades. Uno de los aspectos
clave es entender como lo digital está cambiando la industria y las agendas de desarrollo en la
región, y de qué manera se están incluyendo en la discusión las brechas sociales y de género. Por
un lado, en el mercado del trabajo se están generando cambios y existe incertidumbre sobre el
impacto de la digitalización de ciertas actividades. Por otro lado, las agendas digitales en la región
han tenido un fuerte foco en la infraestructura y los cambios en la industria, cabe preguntarse
cómo se ha abordado la inclusión social y laboral desde estas herramientas de la política pública.

2
Presente y futuro de las revoluciones industriales
El progreso de la humanidad se ha acelerado enormemente en los últimos siglos. El cambio del
modelo de cazador-recolector al basado en la agricultura y la ganadería supuso un impulso en el
desarrollo de núcleos poblacionales más o menos grandes. Pero fue con el desarrollo de la
industria cuando se cimentó el surgimiento de las ciudades tal y como hoy las conocemos, y del
modelo económico de mercado, en el que la producción y el consumo pueden situarse en lugares
muy alejados. ¿Cómo han cambiado el mundo las revoluciones industriales y cómo lo cambiarán?

Definición de revolución industrial

Las revoluciones industriales se definen como un proceso de transformación profunda en el


ámbito industrial, social y tecnológico. Conlleva cambios sustanciales en la manera de producir y
de comercializar bienes o servicios, e incluso en la propia organización de la sociedad.

¿En qué consiste la revolución industrial?

Aunque se suele hablar de diversas revoluciones industriales, tal y como veremos a continuación,
la Revolución Industrial propiamente dicha tuvo lugar en el siglo XVIII, con la creación de la
máquina de vapor y los enormes cambios que se generaron a partir de ella, tanto a la hora de
producir (especialmente, en la industria textil) como en el transporte a través del ferrocarril y los
grandes barcos a vapor.

Estos cambios supusieron el detonante para transformar una sociedad eminentemente rural y
local, en otra más urbana, mecanizada e interconectada, lo que permitía incrementar la
producción y desligarse del lugar de consumo.

¿Cuántas revoluciones industriales hay y cuáles son?

A lo largo de la historia ha habido diversos «cambios revolucionarios» que han transformado la


organización de la producción y de la sociedad. Se suelen identificar cuatro revoluciones
industriales:

Primera Revolución Industrial (siglos XVIII-XIX)

A la iniciada en el siglo XVIII se le suele llamar hoy en día Primera Revolución Industrial,
combinando la mecanización de los procesos productivos con el desarrollo del transporte
ferroviario y marítimo.

3
Segunda Revolución Industrial (segunda mitad del siglo XIX-1914)

El desarrollo de innovaciones como la electricidad y el motor de combustión representó un nuevo


empuje a la fabricación de productos en grandes factorías y al transporte tanto de mercancías
como de personas, desarrollándose además potentes industrias como la del petróleo y la del
acero.

Tercera Revolución Industrial (mediados del siglo XX)

Se suele conocer también como Revolución Científico-Tecnológica (RCT) o Revolución de la


Sociedad de la Información, y está basada en la difusión de la informática, que ha permitido
potencialidades de cálculo y de manejo de equipos muy por encima de las del ser humano.

Cuarta Revolución Industrial (siglo XXI)

El concepto propuesto por Klaus Schwab, fundador y director del Foro Económico Mundial, incluye
aspectos que ya están en marcha o lo estarán en breve, como el Internet de las Cosas (IoT, por sus
siglas en inglés), el desarrollo del 5G (o incluso el 6G) o la robótica, con máquinas capaces de
sustituir en muchos aspectos al ser humano.

Impacto de las revoluciones industriales en el mundo

Como se puede observar, el impacto de estas revoluciones industriales en el mundo no sólo afecta
al ámbito productivo, sino que ocasiona transformaciones en la organización de la sociedad (en
núcleos poblacionales más grandes), del transporte y del sistema económico, favoreciendo la
especialización productiva y el comercio entre zonas y países.

Próxima revolución industrial

Algunos expertos señalan que la siguiente revolución tendrá su foco puesto en cuestiones como la
colaboración entre humanos y máquinas, la computación cuántica, la inteligencia artificial, la
nanotecnología, la biotecnología o la exploración espacial.

Actividad N1:

1) Teniendo en cuenta el texto anterior mencionar según tu punto de vista los aspectos
positivos y negativos que tienen los nuevos cambios tecnológicos.
2) ¿Cuál de los temas mencionados en el párrafo “Próxima revolución industrial” te parece
más interesante? Justificar la elección realizando una breve investigación sobre el tema
elegido. Escribir los puntos más destacados para realizar una puesta en común en clase.

4
Evolución del HARDWARE
La clasificación evolutiva del hardware del computador electrónico está dividida en generaciones,
donde cada una supone un cambio tecnológico muy notable. El origen de las primeras es sencillo
de establecer, ya que en ellas el hardware fue sufriendo cambios radicales. Los componentes
esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las
primeras tres generaciones, originando cambios que resultaron trascendentales.

En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han
sido graduales y existe cierta continuidad en las tecnologías usadas.

Evolución del SOFTWARE


Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido que los
vendedores de las grandes computadoras de la época aportaban a sus clientes para que éstos
pudieran usarlos. En esta época era común que los programadores y desarrolladores de software
compartieran libremente sus programas unos con otros. Este comportamiento era
particularmente habitual en algunos de los mayores grupos de usuarios de la época.

Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras más modernas
comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar
condiciones restrictivas que impedían realizar modificaciones a dicho software.

En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que
podía hacer era darlo a conocer a la empresa desarrolladora para que ésta lo solucionara. Aunque
el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir
nada a cambio, el contrato le impedía que modificase el software.

Generaciones de computadoras
Existen cinco generaciones de computadoras, clasificadas según sus componentes o tecnología
utilizada: tubos de vacío, transistores, circuitos integrados, microprocesadores e inteligencia
artificial.

Una generación de computadoras es un período en el que son lanzadas al mercado un grupo de


dispositivos con tecnología, características y capacidades semejantes, aunque sean de diferentes
fabricantes. Cuando se crea un dispositivo que supera al resto debido a sus componentes o
tecnología, entonces comienza una nueva generación.

Por ejemplo, cuando surgieron las primeras computadoras con microprocesadores, que son las
que utilizamos hoy en día, desplazaron a aquellas que estaban compuestas por circuitos
integrados y que eran mucho más grandes, pesadas y lentas. Este cambio significó la llegada de
una nueva generación de computadoras.

5
Período Componente/ Lenguaje de Características Ejemplos
programación
tecnología principal

Primera 1940- Tubos de vacío Lenguaje máquina • Gran tamaño Univac


generación 1956
• Alto consumo
energético

• Ingreso de datos
con tarjetas
perforadas.

Segunda 1956- Transistores Lenguaje • Ingreso de datos PDP-1


generación 1963 ensamblador con tarjetas
perforadas.

Tercera 1964- Circuitos integrados • COBOL • Incorporación de UNIVAC 1108


generación 1971 sistemas
• FORTAN
operativos.
• Pascal
• Ingreso de datos
• C por dispositivos
periféricos.
• Basic

Cuarta 1971- Microprocesadores • JavaScript • Portátiles. • Apple Machintosh


generación presente
• Python • Memoria RAM y • PC
ROM.
• Java
• Ingreso de datos
• C#
por dispositivos
• Kotlin periféricos.

Quinta Presente- • Inteligencia • Lenguaje de • Portátiles. • Laptops


generación futuro artificial. alto nivel
• Livianas. • Smartphones
• Computación • Lenguaje
• Mayor velocidad. • Computadoras
cuántica. natural
cuánticas
• Mayor memoria.
• Nanotecnología.
• Reconocimiento de
lenguaje natural.

6
• Reconocimiento
facial y de voz.

Primera generación: tubos de vacío

Computadora del Glenn Research Center, perteneciente a la NASA,1949

Entre 1940 y 1956 aparecieron las primeras computadoras que dieron origen a los dispositivos que
conocemos hoy. En ese momento, se trataba de aparatos conformados por grandes tubos de vacío
que ocupaban habitaciones enteras.

Un tubo de vacío es un componente electrónico con forma de bulbo, que se encarga de amplificar
o modificar una señal eléctrica. Este dispositivo fue clave para el desarrollo de las
telecomunicaciones y la computación y de hecho, se sigue utilizando hoy en día en aparatos como
el horno microondas o los transmisores de radiofrecuencia.

Las computadoras de primera generación solo podían realizar una operación a la vez y consumían
mucha energía eléctrica. Estaban programadas con lenguaje máquina, que es un lenguaje de
programación de bajo nivel, y la entrada y salida de los datos se hacía con tarjetas perforadas.

7
Un ejemplo de computadoras de primera generación es la Univac, desarrollada para la Oficina de
Censo de Estados Unidos en 1951.

Segunda generación: transistores

Computadora del centro de control del túnel de viento de la NASA, 1956

Desde 1956 hasta 1963 se mantuvo vigente la segunda generación de computadoras que llegó con
la invención de los transistores. Esto supuso el reemplazo de los tubos de vacío y un avance
importante en el mundo de la computación. Un transistor es un dispositivo que sirve como
regulador de la corriente eléctrica, lo que permitió la creación de computadoras más eficientes en
términos energéticos.

Las computadoras de segunda generación no solo se diferenciaban por su tecnología y menor


tamaño, sino por el cambio en el lenguaje de programación, que pasó a lenguaje ensamblador.
Este lenguaje es básico y no portable, es decir, no podía ser usado en otra computadora, pero
consume menos recursos que su antecesor.

Estas computadoras seguían utilizando tarjetas perforadas para ingresar los datos.

Un ejemplo de computadora de segunda generación es la PDP-1, un dispositivo desarrollado en


1960 para fines de investigación científica y en donde se jugó el primer videojuego de la historia, el
Spacewar.

Tercera generación: circuitos integrados

8
Computadora de circuitos integrados

A partir de 1964 y hasta 1971 el mercado estuvo dominado por la tercera generación de
computadoras, caracterizadas por la incorporación de los circuitos integrados que sustituyeron a
los transistores. Un circuito integrado es un chip hecho de silicio que cuenta con diferentes
componentes que forman una especie de circuito en miniatura.

En este tipo de computadora los datos de entrada y salida eran gestionados a través de
dispositivos periféricos como el monitor, el teclado o la impresora. Además, se masificó el uso de
sistemas operativos, que son un tipo de software que permite la ejecución de múltiples
instrucciones de forma simultánea.

A partir de esta generación comenzaron a utilizarse lenguajes de programación de alto nivel de


forma masiva, como COBOL, FORTAN, Pascal, etc. Este tipo de lenguajes se distingue de los
lenguajes de bajo nivel en que son mucho más cercanos al lenguaje natural (utilizado por los seres
humanos) que al lenguaje máquina (código binario). Además, son portables, por lo que se pueden
utilizar en otros dispositivos.

Un ejemplo de computadoras de tercera generación fue la UNIVAC 1108, una actualización de la


UNIVAC de primera generación creada en los años 50.

Cuarta generación: microprocesadores

9
Apple
Machintosh, 1984

A partir de 1971 las computadoras dejaron de funcionar con circuitos integrados y comenzaron a
incorporar microprocesadores. Un microprocesador es un circuito integrado pero mucho más
complejo, capaz de gestionar todas las funciones de una computadora. Por eso es también
conocido como Unidad Central de Procesos o CPU.

La cuarta generación de computadoras se caracterizó por incluir dos tipos de memoria:

• Memoria RAM: almacena datos de programas de manera temporal, mientras el equipo


está encendido.

• Memoria ROM: almacena datos de programas de forma permanente.

Este tipo de computadoras usan lenguajes de programación de alto nivel, como JavaScript, Phyton
o Java. La entrada y salida de los datos se hace a través de dispositivos periféricos como el teclado,
escáner, monitor, cd’s, etc. Además, su tamaño y la disminución de los costos de producción
hicieron que este tipo de computadoras se vendieran masivamente.

Un ejemplo de computadoras de cuarta generación sería la Apple Macintosh y las PC.

Quinta generación: inteligencia artificial, computación cuántica y nanotecnología

10
La quinta generación de computadoras está conformada por todos los dispositivos ya creados o en
proceso de creación que incorporan tecnologías como la inteligencia artificial, la computación
cuántica o la nanotecnología.

La inteligencia artificial permitiría que las computadoras reconocieran y aprendieran el lenguaje


humano de forma autónoma, sin la intervención del usuario. La incorporación de tecnología
cuántica permitiría que las computadoras pudieran trabajar con enormes cantidades de datos que
aún no son posibles de procesar. Mientras que la nanotecnología favorece la creación de
componentes cada vez más pequeños y con mayor capacidad de almacenamiento.

La quinta generación de computadoras es portátil y se caracteriza porque la entrada y salida de los


datos no solo se puede hacer desde el hardware, sino también desde la voz o el reconocimiento
facial.

Entre 1980 y 1990, el gobierno japonés intentó desarrollar su propia “quinta generación de
computadoras”, basadas en inteligencia artificial. Sin embargo, el proyecto fracasó.

Un ejemplo de computadoras de quinta generación son los smartphones, que tienen mayor
capacidad de almacenamiento y velocidad que una computadora de cuarta generación. Además,
son de tamaño reducido, tienen conexión a internet y reconocen el lenguaje natural y las
expresiones faciales.

Actividad N 2

1)Realizar un cuadro comparativo en el que puedan diferenciar el hardware y software que se


utilizó en cada una de las generaciones de computadoras.

2) ¿Por qué fue tan importante la creación del microprocesador?

11
3)Dibujar el microprocesador de la 4ta generación y compararlo con el procesador de la tercera.
Describir que diferencias físicas encuentran.

4)Investigar sobre la computación cuántica y el impacto que puede tener en el futuro de la


tecnología.

Sistema binario
Actualmente la mayoría de las personas utilizamos el sistema decimal (de 10 dígitos) para realizar
operaciones matemáticas.

Este sistema se basa en la combinación de 10 dígitos (del 0 al 9).

Construimos números con 10 dígitos y por eso decimos que su base es 10.

Por ejemplo el 23, el 234, 1093 etc. Todos son dígitos del 0 al 9.

Pero hay otro sistema o lenguaje muy utilizado que es el sistema binario de numeración, que en
algunos casos, como por ejemplo en informática, se puede llamar Lenguaje Binario, debido a que
es el lenguaje que usamos para entendernos con el ordenador.

Luego también hablaremos del Lenguaje Binario.

¿Qué es el Sistema Binario?

El sistema binario es un sistema de numeración en el que los números se representan utilizando


las cifras 0 y 1, es decir solo 2 dígitos (bi = dos).

Esto en informática y en electrónica tiene mucha importancia ya que las computadoras trabajan
internamente con 2 niveles: hay o no hay de Tensión, hay o no hay corriente, pulsado o sin pulsar,
etc.

Esto provoca que su sistema de numeración natural sea el binario, por ejemplo 1 para encendido y
0 para apagado.

También se utiliza en electrónica y en electricidad (encendido o apagado, activado o desactivado,


etc.).

El lenguaje binario es muy utilizado en el mundo de la tecnología.

Números Binarios

12
Como ya dijimos, el sistema binario se basa en la representación de cantidades utilizando los
números 1 y 0. Por tanto su base es 2 (número de dígitos del sistema).

Cada dígito o número en este sistema se denomina bit (contracción de binary digit).

Por ejemplo el número en binario 1001 es un número binario de 4 bits.

Recuerda "cualquier número binario solo puede tener ceros y unos".

Los Números Binarios empezarían por el 0 (número binario más pequeño) después el 1 y ahora
tendríamos que pasar al siguiente número, que ya sería de dos cifras porque no hay más números
binarios de una sola cifra.

El siguiente número binario, por lo tanto, sería combinar el 1 con el 0, es decir el 10 (ya que el 0
con el 1, sería el 01 y no valdría porque sería igual que el 1), el siguiente sería el número el 11.

Ahora ya hemos hecho todas las combinaciones posibles de números binarios de 2 cifras, ya no
hay más, entonces pasamos a construir los de 3 cifras.

El siguiente sería el 100, luego el 101, el 110 y el 111. Ahora de 4 cifras...

Según el orden ascendente de los números en decimal tendríamos los números binarios
equivalentes a sus números en decimal :

El 0 en decimal sería el 0 en binario

El 1 en decimal sería el 1 en binario

El 2 en decimal sería el 10 en binario (recuerda solo combinaciones de 1 y 0)

El 3 en decimal sería el 11 en binario

El 4 en decimal sería el 100 en binario... Mejor mira la siguiente tabla:

numeros binarios Y así sucesivamente obtendríamos todos los números en orden ascendente de
su valor, es decir obtendríamos el Sistema de Numeración Binario y su número equivalente en
decimal.

Pero que pasaría si quisiera saber el número equivalente en binario al 23.456 en decimal.

Ejemplo queremos convertir el número 28 a binario:

13
28 dividimos entre 2 : Resto 0

14 dividimos entre 2 : Resto 0

7 dividimos entre 2 : Resto 1

3 dividimos entre 2 : Resto 1 y cociente final 1

decimal a binario

Entonces el primer número del número equivalente en binario sería el cociente último que es 1 y
su resto que es también 1, la tercera cifra del equivalente sería el resto de la división anterior que
es 1, el de la anterior que es 0 y el último número que cogeríamos sería el resto de la primera
división que es 0.

Con todos estos número quedaría el número binario: 11100.

Conclusión el número 28 es equivalente en binario al 11.100.

Vemos como para sacar el equivalente se tiene en cuenta el último cociente de las operaciones y
los restos que han salido en orden ascendente (de abajo arriba) 11100

Lenguaje Binario
La misma lógica que se utiliza para representar los números se puede utilizar para representar
texto.

Lo que necesitamos es un esquema de codificación, es decir, un código que nos haga equivalencias
entre un número binario y una letra del abecedario.

Necesitamos un número binario por cada letra del alfabeto.

Por ejemplo, en informática, cada tecla del teclado (números, letras, signos, etc.) hay un número
en binario que es su equivalente. Luego veremos muchos más.

Un ejemplo real: 0100 0001 es el número binario que representa la letra A.

En binario ese número es equivalente a la letra A.

14
Varios códigos estándar para convertir texto en binario se han desarrollado a lo largo de los años,
incluyendo ASCII y Unicode, los más famosos y utilizados.

El Código Estándar Americano para el Intercambio de Información (ASCII) fue desarrollado a partir
de los códigos telegráficos, pero luego fue adaptado para representar texto en código binario en
los años 1960 y 1970.

La versión original de ASCII utiliza 8 bits (recuerda cada número binario es un bit) para representar
cada letra o carácter, con un total de 128 caracteres diferentes.

Cuando hablamos de caracteres nos referimos tanto a letras, como a números, como a signos ($, /,
etc.).

Este es uno de los códigos o lenguaje binario para representar texto mediante números binarios
que más se utilizó durante mucho tiempo.

Mientras ASCII se encuentra todavía en uso hoy en día, el estándar actual para la codificación de
texto es Unicode.

El principio fundamental de Unicode es muy parecido a ASCII, pero Unicode contiene más de
110.000 caracteres, cubriendo la mayor parte de las lenguas impresas del mundo.

A continuación, puedes ver una tabla con el código para representar letras y caracteres en ASCII

15
Actividad N 3

1) Pasar los siguientes números decimales a binarios:


a- 48
b- 65
c- 87
d- 94
2) Redactar una frase “enigmática” para un compañero/a de mínimo 5
palabras en código binario (Tener en cuenta la tabla ASCII)

Lenguajes de programación de alto nivel


En los últimos años los lenguajes de programación han ido evolucionado en el
desarrollo de sistemas o software, con el objetivo principal de facilitar al usuario las
actividades que realiza día con día; por tal motivo, como programador, es importante
conocer los conceptos básicos de programación, los tipos de lenguajes que se utilizan
para el desarrollo y su funcionamiento para la interpretación de algoritmos, así como
para dar solución a los problemas que pudieran presentarse.

En términos generales, un lenguaje de programación es una herramienta que permite


desarrollar software o programas para computadora. Los lenguajes de progra mación
son empleados para diseñar e implementar programas encargados de definir y
administrar el comportamiento de los dispositivos físicos y lógicos de una computadora.
Lo anterior se logra mediante la creación e implementación de algoritmos de precisión
que se utilizan como una forma de comunicación humana con la computadora.

A grandes rasgos, un lenguaje de programación se conforma de una serie de símbolos y


reglas de sintaxis y semántica que definen la estructura principal del lenguaje y le dan
un significado a sus elementos y expresiones.

Programación es el proceso de análisis, diseño, implementación, prueba y depuración


de un algoritmo, a partir de un lenguaje que compila y genera un código fuente
ejecutado en la computadora.

La función principal de los lenguajes de programación es escribir programas que


permiten la comunicación usuario-máquina. Unos programas especiales (compiladores o
intérpretes) convierten las instrucciones escritas en código fuente, en instrucciones
escritas en lenguaje máquina (0 y 1).

16
Los intérpretes leen la instrucción línea por línea y obtienen el código máquina
correspondiente.

En cuanto a los compiladores, traducen los símbolos de un lenguaje de programación a


su equivalencia escrito en lenguaje máquina (proceso conocido com o compilar). Por
último, se obtiene un programa ejecutable.

Cualquier página web de Internet está construída, como mínimo, por HTML (un lenguaje de
marcas) y CSS (un lenguaje de estilos). El primero de ellos permite construir todo el marcado de la
página (contenido e información) mediante etiquetas HTML y dotándo de semántica a la
información mediante la naturaleza de dichas etiquetas. Posteriormente, el segundo de ellos
permite darle estilo a la página y construir una interfaz visual más agradable para el usuario.

La separación bien marcada de estos dos pilares permite que si en algún momento necesitamos
modificar la información (o el diseño) de la página, no tengamos también que lidiar con
modificaciones en el otro.

Sin embargo, utilizar sólo y exclusivamente HTML y CSS en una página nos limita
considerablemente. Si bien es cierto que con estos dos lenguajes podemos hacer un gran abanico
de cosas, hay otras que serían totalmente imposibles, o al menos, mucho más fáciles de realizar si
tuvieramos un lenguaje de programación a nuestra disposición. Y en este punto es donde aparece
Javascript.

¿Qué es Javascript?

Javascript es un lenguaje de programación, o lo que es lo mismo, un mecanismo con el que


podemos decirle a nuestro navegador que tareas debe realizar, en que orden y cuantas veces.

Muchas de las tareas que realizamos con HTML y CSS se podrían realizar con Javascript. De hecho,
es muy probable que al principio nos parezca que es mucho más complicado hacerlo con
Javascript, y que por lo tanto no merece la pena. Sin embargo, con el tiempo veremos que
Javascript nos ofrece una mayor flexibilidad y un abanico de posibilidades más grande, y que bien
usadas, pueden ahorrarnos bastante tiempo.

Para comprenderlo, un ejemplo muy sencillo sería el siguiente:

17
HTML

<div class="item">

<p>Número: <span class="numero">1</span></p>

<p>Número: <span class="numero">2</span></p>

<p>Número: <span class="numero">3</span></p>

<p>Número: <span class="numero">4</span></p>

<p>Número: <span class="numero">5</span></p>

</div>

Imaginemos que tenemos que crear una lista de números desde el 1 hasta el 500. Hacerlo
solamente con HTML sería muy tedioso, ya que tendríamos que copiar y pegar esas filas varias
veces hasta llegar a 500. Sin embargo, mediante Javascript, podemos decirle al navegador que
escriba el primer párrafo <p>, que luego escriba el mismo pero sumándole uno al número. Y que
esto lo repita hasta llegar a 500. De esta forma y con este sencillo ejemplo, con HTML habría que
escribir 500 líneas mientras que con Javascript no serían más de 10 líneas.

Aunque Javascript es ideal en muchos casos, es mucho más complicado aprender Javascript (o un
lenguaje de programación de propósito general) que aprender HTML o CSS, los cuales son mucho
más sencillos de comprender (o al menos, su base y fundamentos).

Para aprender Javascript debemos conocer el lenguaje Javascript, pero no podremos hacerlo si no
sabemos programar. Se puede aprender a programar con Javascript, pero es recomendable tener
una serie de fundamentos básicos de programación antes para que no nos resulte muy duro.

Para aprender a programar antes debemos saber como «trabaja una máquina». Programar no es
más que decirle a una máquina que cosas debe hacer y como debe hacerlas. Eso significa que no
podemos pasar por alto nada, o la máquina lo hará mal.

Estructura y evolución de la WEB


La World Wide Web ha sufrido múltiples transiciones a lo largo de su historia y continúa
evolucionando hasta el día de hoy. Con el interés en la Web 3.0 cobrando fuerza a medida que la
cadena de bloques y la tecnología de seguridad se vuelven cada vez más populares, es importante
mirar hacia atrás a las generaciones anteriores y compararlas con las siguientes.

La primera generación de la web fue definida originalmente por Tim Berners-Lee en 1989. A veces
denominada Web 1.0, se trataba de conectividad básica e hipervínculos. El concepto creció con la

18
creación del navegador web, que permite a los usuarios habituales ver fácilmente las páginas web.
El primer navegador web moderno fue NCSA Mosaic en 1993. Fue cocreado por Marc Andreessen,
más tarde cofundador de Netscape, una de las empresas de la primera generación de la web.

Web 1.0 fue una era pionera con muchas primicias, ya que el mundo aprendió lo que podía
proporcionar la "supercarretera de la información". Mucho ha cambiado en las décadas desde que
se inventó la web, con varias generaciones de evolución tecnológica.

La primera generación de la web era relativamente estática, con contenido de video limitado o
nulo y un formato de página que no se alejaba mucho del formato utilizado para una página
impresa. Todo eso cambió alrededor de 2004 con la llegada de la Web 2.0, la segunda generación
de la web.

Web 2.0 marcó el comienzo de una era en la que la web se definió como un nuevo medio. Estaba
separado y distinto de todos los demás que lo precedieron, incluidos los medios impresos y los
videos tradicionales. En lugar de solo sitios web estáticos que enviaban información a los usuarios,
la Web 2.0 introdujo nuevas formas de interactividad. Conceptos como los blogs se hicieron
populares y las redes sociales comenzaron a surgir con Friendster, MySpace y, finalmente,
Facebook.

Una gran cantidad de tecnologías redefinieron la web desde sus orígenes nacientes hasta la era de
la Web 2.0. Entre ellos se encuentra un enfoque tecnológico conocido como Ajax (JavaScript
asíncrono y XML). Ajax fue popularizado por primera vez por Google Maps, que cambió por
completo la forma en que funcionaba la web. En lugar de solo un mapa plano y estático, Ajax
permitió a Google Maps hacer zoom, desplazarse y manipular la imagen del mapa.

El uso de CSS (Hojas de Estilo en Cascada) es otra característica definitoria de la Web 2.0. En la
primera era de la web, los desarrolladores tenían que dar formato a las páginas con tablas, lo que
no permitía mucho control. A principios de la década de 2000, CSS se volvió más común y
máspoderoso, lo que permitió diseños de diseño complejos que cambiaron la apariencia de la
web.

¿Qué es web 3.0?

Hay una falta de claridad en torno al término Web 3.0, también llamado a veces Web3, ya que
todavía es un espacio emergente que está muy vagamente definido. Incluso hay debates sobre
cuándo se acuñó el término. Berners-Lee usó el término Web 3.0 para describir lo que él
denominó Web Semántica en 2006, mientras que el cofundador de Ethereum, Gavin Wood, usó
por primera vez el término Web3 en 2014 en el contexto de las criptomonedas.

19
A lo largo de los años, el Consorcio World Wide Web (W3C) ha intentado crear estándares en
torno al concepto de Web Semántica, cuyo objetivo es proporcionar nuevos enfoques para
vincular datos y contenido. En lugar de simplemente vincular el contenido en función de las
palabras clave, la IA puede informar una capa semántica para ayudar a conectar datos y sitios web.

El término Web 3.0 va mucho más allá de los conceptos de Web Semántica propugnados por el
W3C y se usa más a menudo en referencia a conceptos de nivel superior como la
descentralización. En lugar de los mismos enfoques centralizados de conectividad y datos, que son
la base tanto de la Web 1.0 como de la Web 2.0, la Web 3.0 se basa en algoritmos de consenso y
entre pares como base. Una parte clave del consenso distribuido para la Web 3.0 viene en forma
de tecnología blockchain.

Parte del impulso de la descentralización con la Web 3.0 también integra la criptomoneda, que
brinda otra opción para pagos y transferencias de riqueza. Además, el concepto de tokens no
fungibles (NFT) proporciona otra forma de crear, administrar y poseer activos utilizando la
tecnología blockchain.

El uso de la IA para habilitar los flujos de trabajo, la automatización y la experiencia general del
usuario es otro sello distintivo clave del mundo emergente de la Web 3.0. La IA ayuda a habilitar la
escalabilidad y el rendimiento de la propia web, además de impulsar nuevas formas de búsqueda e
interacciones inteligentes.

Web 2.0 contra web 3.0

El mundo de la Web 1.0 era en gran medida estático y se trataba de proporcionar información.
Con la Web 2.0, la web se volvió dinámica y social. Con la Web 3.0, la web será más inteligente y
estará más distribuida que nunca. La siguiente tabla ayuda a desglosar las diferencias clave entre
Web 2.0 y Web 3.0.

Actividad N 4

1) Leer las siguientes definiciones y escribir si pertenece a la WEB 1.0 /2.0/3.0


Tienen que investigar para poder JUSTIFICARLO

a- Centralizado. La entrega de aplicaciones, los servicios en la nube


y la plataforma están regidos y operados por autoridades
centralizadas.

20
b- Descentralizado. Computación perimetral, peer-to-peer y
consenso distribuido se convierten cada vez más en la norma en
la Web 3.0.

c- Moneda fiduciaria. Los pagos y las transacciones se realizan con


moneda emitida por el gobierno, como $USD.

d- Criptomoneda. Las transacciones se pueden financiar con


monedas digitales encriptadas, como bitcoin y ethereum.

e- Cookies. El uso de cookies ayuda a rastrear a los usuarios y


proporcionar personalización.

f- NFT. Los usuarios pueden obtener tokens únicos a los que se les
asigna un valor o proporcionar algún tipo de ventaja.

g- IA. La tecnología más inteligente y autónoma, incluido el


aprendizaje automático y la IA

h- Tecnología de registro inmutable de blockchain.

i- El comienzo de la era de las redes sociales, incluido Facebook.

j- Surgirán mundos de metaverso para fusionar la realidad física,


virtual y aumentada.

Inteligencia artificial y robótica


El futuro parece dividirse entre la inteligencia artificial y la robótica. Mientras muchos creen que
la IA está en plena desarrollo, lo cierto es que la robótica nos acompaña desde hace tiempo y
parece, que aún, no reparamos en eso.

La evolución tecnológica está en un constante desarrollo y pisa cada vez más fuerte en el
ambiente empresarial. Tal es así que una reconocida compañía de bebidas de Polonia contrató

21
como CEO de la organización a un robot humanoide impulsada por la Inteligencia Artificial, la cual
es capaz de no descansar, no pedir aumentos y tomar decisiones ejecutivas.

La explosión del interés por la IA generativa y sus aplicaciones en chatbots como ChatGPT
generaron temores respecto al empleo, similares a los que surgieron cuando se introdujo la
cadena de montaje móvil a principios del siglo XX y con las computadoras centrales en la década
de 1950. Muchos creen que llegaron para ganarle la pulseada a los seres humanos, tendencia que
empieza a tomar fuerza con algunos ejemplos puntuales.

Actividad N 5

Pensar y redactar un argumento a favor o en contra de la siguiente afirmación: “La robótica no


quita trabajo, sino que está aumentando la seguridad y la eficiencia”. Para la argumentación
realizar una breve investigación.

¿Cómo se crea una inteligencia artificial?


Crear una inteligencia artificial (IA) efectiva requiere 5 pasos cruciales:

• Identificar el problema
• Recopilar datos para la IA
• Seleccionar los algoritmos que usará la IA
• Entrenar la red neuronal
• Probar e iterar

Veamos en qué consiste cada uno de esos pasos y cómo implementarlos con los diferentes
lenguajes de programación con los que puedes crear una IA desde cero.

Paso 1: Identifica el problema que quieres resolver con la IA

Ejemplo práctico:

Si, por ejemplo, trabajas en una empresa de servicios de atención al cliente y tu problema es
reducir el tiempo de respuesta en atención al cliente, podrías recopilar datos sobre los tiempos de
respuesta actuales y evaluar dónde se producen retrasos

Paso 2: Recopila los datos con los que alimentarás a la IA

Una vez que hayas definido claramente el problema, es hora de recopilar datos relevantes y de
calidad. Los datos son la materia prima de las inteligencias artificiales, y la calidad de estos
afectará directamente a la precisión de tu modelo. Cuantos más precisos y representativos sean
los datos que puedas obtener, mejor será la base para tu IA.

22
Continuando con el ejemplo de atención al cliente, para recopilar datos, podrías utilizar
grabaciones o transcripts de conversaciones con usuarios, tiempos de respuesta registrados en
sistemas de gestión de tickets y encuestas de satisfacción del cliente.

Supongamos que descubres que las consultas relacionadas con facturación a menudo requieren
más tiempo para responder y tienen una baja satisfacción del cliente. Esta información te ayudará
a enfocar tus esfuerzos en mejorar específicamente el manejo de consultas de facturación.

Paso 3: Selecciona el algoritmo que debe usar tu IA

Una vez que tengas datos sólidos en tus manos, el siguiente paso es seleccionar el algoritmo
adecuado para tu proyecto de IA. En el mundo del aprendizaje automático, existen diversos
algoritmos y su elección dependerá de la naturaleza de tu problema.

Siguiendo con el ejemplo, podrías optar por un algoritmo de procesamiento de lenguaje natural si
tu objetivo es mejorar la comprensión y respuesta a las consultas de las personas.

Algunos algoritmos populares incluyen el modelo de lenguaje GPT-4 de OpenAI.

Paso 4: Entrena la red neuronal

El entrenamiento de la red neuronal es un paso crucial en la creación de tu IA. Utiliza los datos que
recopilaste y el algoritmo seleccionado para entrenar a tu IA.

Paso 5: Prueba, itera y mejora tu inteligencia artificial

Una vez que tu IA esté entrenada, es esencial someterla a pruebas exhaustivas. La IA no es


perfecta desde el principio, y la iteración constante es clave para hacerla más precisa y efectiva.

Los bloques de construcción de algoritmos


Un algoritmo es un proceso que describe paso a paso cómo resolver un problema, para que
siempre dé una respuesta correcta. Cuando hay varios algoritmos para un problema particular, el
mejor algoritmo es usualmente el que lo resuelve más rápido.

Los programadores de computadoras utilizan algoritmos constantemente; ya sea un algoritmo


existente para un problema común, como ordenar un arreglo, o un algoritmo completamente
nuevo que sea único.

Un algoritmo se hace con tres bloques básicos de construcción: secuenciación, selección e


iteración.

• Secuenciación: un algoritmo es un proceso paso a paso, y el orden de esos pasos es crucial


para asegurar que el algoritmo sea correcto.
• Selección: los algoritmos pueden utilizar selección para determinar un conjunto diferente
de pasos a ejecutar según una expresión booleana.

23
• Iteración: los algoritmos suelen utilizar repetición para ejecutar los pasos un cierto
número de veces, o hasta que se cumpla una condición determinada.

DIAGRAMA DE BLOQUES

Actividad N 6

1) Luego de leer con atención la teoría sobre la creación de la IA y la construcción de


bloques para algoritmos pensar en una secuencia lógica:
a- para ordenar el uso del funcionamiento de los microondas en el
momento de comedor de la escuela.
b- Realizar un DIAGRAMA DE BLQUE con IA que contenga los nombres e
información de alumnos/as según las preferencias de materias en la
escuela.
2) Buscar y describir un ejemplo de IA diferentes a todos los ejemplos anteriores.

UNIDAD N 2
Cibersguridad
La ciberseguridad es la práctica de defender las computadoras, los servidores, los dispositivos
móviles, los sistemas electrónicos, las redes y los datos de ataques maliciosos. También se conoce
como seguridad de tecnología de la información o seguridad de la información electrónica. El

24
término se aplica en diferentes contextos, desde los negocios hasta la informática móvil, y puede
dividirse en algunas categorías comunes.

Tipos de ciberamenazas
Las amenazas a las que se enfrenta la ciberseguridad son tres:

1. El delito cibernético incluye agentes individuales o grupos que atacan a


los sistemas para obtener beneficios financieros o causar interrupciones.
2. Los ciberataques a menudo involucran la recopilación de información con
fines políticos.
3. El ciberterrorismo tiene como objetivo debilitar los sistemas electrónicos
para causar pánico o temor.

Estos son algunos de los métodos comunes utilizados para amenazar la


ciberseguridad:

Malware
“Malware” se refiere al software malicioso. Ya que es una de las ciberamenazas
más comunes, el malware es software que un cibercriminal o un hacker ha creado
para interrumpir o dañar el equipo de un usuario legítimo. Con frecuencia
propagado a través de un archivo adjunto de correo electrónico no solicitado o de
una descarga de apariencia legítima, el malware puede ser utilizado por los
ciberdelincuentes para ganar dinero o para realizar ciberataques con fines
políticos.

Hay diferentes tipos de malware, entre los que se incluyen los siguientes:

• Virus: un programa capaz de reproducirse, que se incrusta un archivo


limpio y se extiende por todo el sistema informático e infecta a los archivos
con código malicioso.
• Troyanos: un tipo de malware que se disfraza como software legítimo. Los
cibercriminales engañan a los usuarios para que carguen troyanos a sus
computadoras, donde causan daños o recopilan datos.
• Spyware: un programa que registra en secreto lo que hace un usuario para
que los cibercriminales puedan hacer uso de esta información. Por ejemplo,
el spyware podría capturar los detalles de las tarjetas de crédito.
• Ransomware: malware que bloquea los archivos y datos de un usuario,
con la amenaza de borrarlos, a menos que se pague un rescate.
• Adware: software de publicidad que puede utilizarse para difundir malware.
• Botnets: redes de computadoras con infección de malware que los
cibercriminales utilizan para realizar tareas en línea sin el permiso del
usuario.

25
Inyección de código SQL
Una inyección de código SQL (por sus siglas en inglés Structured Query
Language) es un tipo de ciberataque utilizado para tomar el control y robar datos
de una base de datos. Los cibercriminales aprovechan las vulnerabilidades de las
aplicaciones basadas en datos para insertar código malicioso en una base de
datos mediante una instrucción SQL maliciosa. Esto les brinda acceso a la
información confidencial contenida en la base de datos.

Phishing
El phishing es cuando los cibercriminales atacan a sus víctimas con correos
electrónicos que parecen ser de una empresa legítima que solicita información
confidencial. Los ataques de phishing se utilizan a menudo para inducir a que las
personas entreguen sus datos de tarjetas de crédito y otra información personal.

Ataque de tipo “Man-in-the-middle”


Un ataque de tipo “Man-in-the-middle” es un tipo de ciberamenaza en la que un
cibercriminal intercepta la comunicación entre dos individuos para robar datos. Por
ejemplo, en una red Wi-Fi no segura, un atacante podría interceptar los datos que
se transmiten desde el dispositivo de la víctima y la red.

Ataque de denegación de servicio


Un ataque de denegación de servicio es cuando los cibercriminales impiden que
un sistema informático satisfaga solicitudes legítimas sobrecargando las redes y
los servidores con tráfico. Esto hace que el sistema sea inutilizable e impide que
una organización realice funciones vitales.

Ciberamenazas más recientes


¿Cuáles son las ciberamenazas más recientes contra las que deben protegerse
las personas y las organizaciones? A continuación, se presentan algunas de las
ciberamenazas más recientes comunicadas por los gobiernos de Estados Unidos,
Australia y el Reino Unido.

Malware Dridex
En diciembre del 2019, el Departamento de Justicia de los Estados Unidos (DoJ)
imputó al líder de un grupo de cibercriminales organizados por su participación en
un ataque global del malware Dridex. Esta campaña malintencionada afectó al
público, al gobierno, a la infraestructura y a las empresas de todo el mundo.

26
Dridex es un troyano financiero que posee diferentes funcionalidades. Desde el
2014, afecta a las víctimas e infecta a las computadoras a través de correos
electrónicos de phishing o malware existente. Es capaz de robar contraseñas,
datos bancarios y datos personales que pueden utilizarse en transacciones
fraudulentas, y ha causado pérdidas financieras masivas que suman cientos de
millones de dólares.

En respuesta a los ataques de Dridex, el Centro Nacional de Seguridad


Cibernética del Reino Unido aconseja a las personas que “se aseguren de que los
dispositivos estén actualizados y los antivirus estén activados y actualizados, y de
que se realicen copias de seguridad de los archivos”.

Estafas románticas
En febrero del 2020, el FBI advirtió a los ciudadanos de EE. UU. que tuvieran
cuidado con el fraude a la confianza que los cibercriminales cometen a través de
sitios de citas, salas de chat y aplicaciones. Los perpetradores se aprovechan de
las personas que buscan nuevas parejas y engañan a las víctimas para que
proporcionen sus datos personales.

Malware Emotet
A finales del 2019, el Centro Australiano de Seguridad Cibernética advirtió a las
organizaciones nacionales sobre la ciberamenaza mundial generalizada del
malware Emotet.

Emotet es un sofisticado troyano que puede robar datos y también cargar otros
malware. Emotet se aprovecha de las contraseñas poco sofisticadas y es un
recordatorio de la importancia de crear una contraseña segura para protegerse de
las ciberamenazas.

Protección del usuario final


La protección del usuario final o la seguridad de endpoints es un aspecto
fundamental de la ciberseguridad. Después de todo, a menudo es un individuo (el
usuario final) el que accidentalmente carga malware u otra forma de ciberamenaza
en su equipo de escritorio, laptop o dispositivo móvil.

Por tanto, ¿de qué manera protegen las medidas de ciberseguridad a los usuarios
finales y los sistemas? En primer lugar, la ciberseguridad depende de los
protocolos criptográficos para cifrar los correos electrónicos, archivos y otros datos
críticos. La ciberseguridad no solo protege la información en tránsito, también
ofrece protección contra las pérdidas o el robo.

Además, el software de seguridad del usuario final analiza las computadoras para
detectar código malicioso, pone en cuarentena este código y lo elimina del equipo.

27
Los programas de seguridad pueden incluso detectar y eliminar el código
malicioso oculto en el registro de arranque maestro (MBR) y están diseñados para
cifrar o borrar datos del disco duro de la computadora.
Los protocolos de seguridad electrónica también se enfocan en la detección de
malware en tiempo real. Muchos utilizan el análisis heurístico y de comportamiento
para monitorear el comportamiento de un programa y su código para defenderse
de virus o troyanos que pueden cambiar de forma con cada ejecución (malware
polimórfico y metamórfico). Los programas de seguridad pueden restringir los
programas que puedan ser maliciosos en una burbuja virtual separada de la red
del usuario para analizar su comportamiento y aprender a detectar mejor las
nuevas infecciones.

Los programas de seguridad continúan desarrollando nuevas defensas mientras


los profesionales de la ciberseguridad identifican nuevas amenazas y formas de
combatirlas. Para aprovechar al máximo el software de seguridad del usuario final,
los empleados deben aprender a utilizarlo. Lo fundamental es mantenerlo en
funcionamiento y actualizarlo con frecuencia para que pueda proteger a los
usuarios de las ciberamenazas más recientes.

¿Cómo pueden las empresas y las personas protegerse contra las


ciberamenazas?

1. Actualizar el software y el sistema operativo: esto significa que


aprovechará las últimas revisiones de seguridad.
2. Utilizar software antivirus: las soluciones de seguridad, como Kaspersky
Total Security, detectarán y eliminarán las amenazas. Mantenga su
software actualizado para obtener el mejor nivel de protección.
3. Utilizar contraseñas seguras: asegúrese de que sus contraseñas no sean
fáciles de adivinar.
4. No abrir archivos adjuntos de correos electrónicos de remitentes
desconocidos: podrían estar infectados con malware.
5. No hacer clic en los vínculos de los correos electrónicos de remitentes
o sitios web desconocidos: es una forma común de propagación de
malware.
6. Evitar el uso de redes Wi-Fi no seguras en lugares públicos: las redes
no seguras lo dejan vulnerable a ataques del tipo “Man-in-the-middle”.

Actividad N 5

1) Describir teniendo en cuenta la teoría y vocabulario específico un caso de ciberdelito


que hayas conocido. Detectar cual fue el error cometido por la víctima y si tuvo solución.

28
UNIDAD N 3

El Diseño web
El diseño gráfico se enfoca en la tipografía, colores y demás elementos visuales que en conjunto
logran producir y comunicar un mensaje.

En el diseño web, los elementos gráficos se mantienen, pero no necesariamente tienen que ser un
formato estático.

Una de sus ventajas es precisamente la capacidad de poder combinar elementos fijos o estáticos
con elementos interactivos.

Motion Graphics, ilustraciones, slides, audio y video, son algunos elementos que los diseñadores
pueden integrar, lo que les da una mayor libertad para poder comunicar el mensaje y las
intenciones del sitio con respecto al usuario.

Por ejemplo, si el sitio web tiene el objetivo de dar a conocer o presentar tus productos, incluir
testimonios en forma de video puede ser más factible que presentarlos como texto.

¿Qué es un diseñador web y cuáles son sus funciones?

El diseño web implica muchas habilidades y conocimientos, las cuales dependen del diseñador.

Los web developer y los web designers tienden a confundirse y pasar como uno solo, pero ambos
perfiles cumplen diferentes funciones y son importantes para poder hacer que la web funcione lo
mejor posible destacándose del resto.

Web developer

Un web developer —o desarrollador web— es el encargado de programar funciones y generar


aplicaciones en línea para el sitio web.

Se centra en las características, los sistemas de gestión de contenidos y está más familiarizado con
el lenguaje de programación que se pueda necesitar.

Web designer

El web designer —o diseñador web— se encarga de la apariencia del sitio y entre sus funciones
está determinar el diseño, la gama de colores y estilo del sitio.

Tanto el diseño web como el desarrollo web son importantes y necesarios para que un sitio sea
efectivo y destaque del resto de las páginas en internet.

29
Como ya explicamos, la creación y diseño de sitios web es un proceso al que se le debe dedicar
tiempo y planeación, por lo que puede participar más de una persona.

Lo anterior va a depender de si el proyecto tiene ciertos requerimientos que hacen necesaria la


presencia de varias personas para desarrollar una parte del proyecto.

El principal papel de un diseñador web es encontrar el equilibrio perfecto entre la estética y la


funcionalidad del sitio que está creando.

Algunas de las habilidades y tareas que realizan los diseñadores web son:

• Crear el diseño en función del branding de la empresa, y tenerlo muy presente al


momento de llevarlo a cabo.
• Resolver problemas relacionados con la experiencia del usuario como los botones.
• Generar los elementos gráficos que la web requiera, como el favicon y en algunos casos
las ilustraciones o los motion graphics (aunque estos los pueden crear otros diseñadores o
ilustradores. En este caso el web designer tiene que coordinar que el tamaño o peso de las
imágenes sean las adecuadas).
• Utiliza y está familiarizado con el lenguaje HTML, CSS y JavaScript.
• Elementos del diseño web
• Suena casi utópico, pero sí, con un sitio web optimizado y bien diseñado es posible
generar más ventas. Recuerda que es la carta de presentación de una empresa.
• Tendencias de diseño web: lo in y lo out.

- El tiempo de carga
• El peso de las imágenes y las integraciones que realizas para que tu sitio vaya
disminuyendo su tasa de rebote.
• Usabilidad el usuario pueda entender cómo está organizado y cómo funciona. Esto evitará
que se frustre y lo abandone porque no encuentra lo que está buscando.

• Legibilidad uno de los puntos más importantes del diseño web es que ante todo debe ser
legible.

Con esto nos referimos a que los elementos que la conforman, por ejemplo los colores de las
diferentes secciones deben ser amigables y no cansar la vista del lector. De lo contrario podría
aumentar la tasa de abandono.

En los últimos años el minimalismo se ha apropiado de las tendencias de diseño web, en especial
aquellas que lo utilizan como fondo para maximizar la legibilidad para el usuario y de las arañas de
los motores de búsqueda.

30
En este aspecto la tipografía también es muy importante. Quizás el color de un sitio y la estructura
estén muy bien y sean fáciles de entender, pero si la tipografía es ilegible tampoco va a funcionar.

Además cuando se trata de una sección muy larga o de un contenido de blog, debes evitar
párrafos muy largos porque puede parecer pesado y desanimar al usuario a terminar la lectura.

También hay que tener en cuenta los distintos tipos de dispositivos —celular, tablet, pc o laptop—
desde los cuales pueden leerte y asegúrate que tu sitio sea funcional en todos.

Actividad N 6

1) Elegir 2 sitios web que sean de tu interés y analizarlo desde la perspectiva


de los elementos que corresponden a las funciones de un diseñador web
y, por otro lado, a un diseñador gráfico.
2) Mencionar que aspectos estéticos y funcionales cambiarías o agragarías
de los sitios web elegidos.

Diseño web vs UX design


UX design, o el diseño de la experiencia del usuario no es lo mismo que el diseño web y ha
cobrado relevancia gracias a la evolución de los smartphones.

Hemos mencionado la importancia de considerar al usuario en el diseño de páginas web, pero es


en la actualidad que se le da la importancia que merece.

Podríamos decir que el diseño web se concentra en el diseño sin considerar esta parte esencial de
la interacción entre la tecnología y el usuario.

Está más enfocado a la parte estética que ya hemos comentado: colores, que se siga el brandbook,
la generación de botones, etc.

En cambio el diseño UX, se centra en mejorar la relación que tiene el usuario tanto con el sitio web
como con los productos y los servicios de la empresa. Y este es un proceso que involucra A/B tests,
apps móviles, sitemaps y esquemas de navegación.

No es que haya un tipo mejor o peor de diseño. Pero con la evolución del Internet y la tecnología
(así como de las estrategias del inbound marketing), la experiencia del usuario se ha vuelto un
elemento fundamental en la creación de páginas web.

Cada vez más diseñadores deciden estudiar y adentrarse al diseño UX para generar diseños más
completos y poder trabajar aún más de cerca con el equipo de desarrollo.

Actividad N 7

1) Leer la teoría del PDF enviado por classroom sobre Experiencia de usuario
2) Luego, realizar la actividad del último slide sobre las tazas.

31
3) Por último, elegir analizar la UX de Mercado Pago. No se olviden de mencionar
todas las características que están en la teoría.

Análisis de Big Data


Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona
respuestas a muchas preguntas que las empresas ni siquiera sabían que tenían. En otras palabras,
proporciona un punto de referencia. Con una cantidad tan grande de información, los datos
pueden ser moldeados o probados de cualquier manera que la empresa considere adecuada. Al
hacerlo, las organizaciones son capaces de identificar los problemas de una forma más
comprensible.

La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de los datos


permiten que las empresas se muevan mucho más rápidamente, sin problemas y de manera
eficiente. También les permite eliminar las áreas problemáticas antes de que los problemas
acaben con sus beneficios o su reputación.

El análisis de Big Data ayuda a las organizaciones a aprovechar sus datos y utilizarlos para
identificar nuevas oportunidades. Eso, a su vez, conduce a movimientos de negocios más
inteligentes, operaciones más eficientes, mayores ganancias y clientes más felices. Las empresas
con más éxito con Big Data consiguen valor de las siguientes formas:

• Reducción de costo. Las grandes tecnologías de datos, como Hadoop y el análisis basado
en la nube, aportan importantes ventajas en términos de costes cuando se trata de
almacenar grandes cantidades de datos, además de identificar maneras más eficientes de
hacer negocios.

• Más rápido, mejor toma de decisiones. Con la velocidad de Hadoop y la analítica en


memoria, combinada con la capacidad de analizar nuevas fuentes de datos, las empresas
pueden analizar la información inmediatamente y tomar decisiones basadas en lo que han
aprendido.

• Nuevos productos y servicios. Con la capacidad de medir las necesidades de los clientes y
la satisfacción a través de análisis viene el poder de dar a los clientes lo que quieren. Con
la analítica de Big Data, más empresas están creando nuevos productos para satisfacer las
necesidades de los clientes.

32
A continuación hay diferentes ejemplos:

✓ Turismo: Mantener felices a los clientes es clave para la industria del turismo, pero la
satisfacción del cliente puede ser difícil de medir, especialmente en el momento oportuno.
Resorts y casinos, por ejemplo, sólo tienen una pequeña oportunidad de dar la vuelta a
una mala experiencia de cliente. El análisis de Big data ofrece a estas empresas la
capacidad de recopilar datos de los clientes, aplicar análisis e identificar inmediatamente
posibles problemas antes de que sea demasiado tarde.

✓ Cuidado de la salud: El Big Data aparece en grandes cantidades en la industria sanitaria.


Los registros de pacientes, planes de salud, información de seguros y otros tipos de
información pueden ser difíciles de manejar, pero están llenos de información clave una
vez que se aplican las analíticas. Es por eso que la tecnología de análisis de datos es tan
importante para el cuidado de la salud. Al analizar grandes cantidades de información -
tanto estructurada como no estructurada - rápidamente, se pueden proporcionar
diagnósticos u opciones de tratamiento casi de inmediato.

✓ Retail: El servicio al cliente ha evolucionado en los últimos años, ya que los compradores
más inteligentes esperan que los minoristas comprendan exactamente lo que necesitan,
cuando lo necesitan. El Big Data ayuda a los minoristas a satisfacer esas demandas.
Armados con cantidades interminables de datos de programas de fidelización de clientes,
hábitos de compra y otras fuentes, los minoristas no sólo tienen una comprensión
profunda de sus clientes, sino que también pueden predecir tendencias, recomendar
nuevos productos y aumentar la rentabilidad.

✓ Publicidad: La proliferación de teléfonos inteligentes y otros dispositivos GPS ofrece a los


anunciantes la oportunidad de dirigirse a los consumidores cuando están cerca de una
tienda, una cafetería o un restaurante. Esto abre nuevos ingresos para los proveedores de
servicios y ofrece a muchas empresas la oportunidad de conseguir nuevos prospectos.

Otros ejemplos del uso efectivo de Big Data en las siguientes áreas:

✓ Uso de registros de logs de TI para mejorar la resolución de problemas de TI, así como la
detección de infracciones de seguridad, velocidad, eficacia y prevención de sucesos
futuros.
✓ Uso de la voluminosa información histórica de un Call Center de forma rápida, con el fin de
mejorar la interacción con el cliente y aumentar su satisfacción.
✓ Uso de contenido de medios sociales para mejorar y comprender más rápidamente el
sentimiento del cliente y mejorar los productos, los servicios y la interacción con el cliente.

33
✓ Detección y prevención de fraudes en cualquier industria que procese transacciones
financieras online, tales como compras, actividades bancarias, inversiones, seguros y
atención médica.
✓ Uso de información de transacciones de mercados financieros para evaluar más
rápidamente el riesgo y tomar medidas correctivas.

34

También podría gustarte