Está en la página 1de 42

INSTITUTO: José Simón Azcona Hoyo

MAESTRO: Danis Enrique Power Martínez


MATERIA: Informática
ALUMNA: Greyvi Elibeth Milla Pineda
SECCION: A
CURSO: Undecimo
PARCIAL: ll Semestre l parcial
TRABAJO: Investigacion
FECHA: 22/08/22
JORNADA: Matutina

INTRODUCCION
En la siguiente investigación a continuación vamos a
investigar la importancia que tiene los temas que se
presentaran a continuación más adelante que son y
agregaremos algunas imágenes y con eso pasamos a lo
siguiente.

Objetivos
El principal objetivo es comprender mas de los
temas que están a continuación a presentarse.

Saber en que puede ayudar todo esto poder


entender que es lo que significan.

Esta investigación tiene como objetivo también


mostrar imágenes para comprender más.

 Saber cómo utilizar todos estos temas en que son


o en que se basan para poder saber más.

En los temas que se plantaran se agregaran


ejemplos.

Contenido
Sockets que se utilizan para los procesadores actuales INTEL y
AMD

Tanto los procesadores de Intel como los de AMD tienen pines de contacto para


poder conectarse al socket de la placa base. Cierto es que los procesadores AMD
tienen pines físicos y el socket agujeros, mientras que los de Intel sí son planos -
pero siguen teniendo pines-, estando esos pines físicos en el propio socket. En
todo caso, Todo tiene su explicación.

Los procesadores de AMD tienen lo que se conoce como socket PGA, llamado


así por el inglés Pin Grid Array, mientras que los de Intel utilizan socket LGA,
que viene del término Land Grid Array. La diferencia entre ellos radica,
hablando en términos básicos, en que los pines de contacto de los primeros están
en el procesador, mientras que en los segundos están en el socket de la placa
base, pero ambos
utilizan
precisamente
eso, pines.

AMD ha dado un paso hacia adelante con una arquitectura completamente


nueva con sus procesadores Ryzen e Intel hace lo mismo a partir de la llegada
de los procesadores Skylake de sexta generación. Todo esta ha
significado nuevos sockets y nuevas placas base que pueden llegar generar
alguna confusión entre los futuros compradores que quieren armar un
ordenador o que quieren actualizar sus equipos.

En el caso de AMD, el ultimo socket que han utilizado es el AM3+ para los


conocidos procesadores de la línea FX y recientemente han dado el salto
a AM4 con Ryzen. AMD también posee el socket FM2+ que solo se pueden
utilizar con los procesadores APU.
A partir de la implementación de las nuevas placas base AM4, ahora los
procesadores de bajo consumo APU basados en Ryzen no necesitarán de
ningún socket exclusivo y también se podrán instalar en AM4.
Todas las placas base que sean AM3+ ya no sirven para los nuevos
procesadores Ryzen ni tampoco pueden usar las nuevas memorias DDR4, así
que, si piensas armar un ordenador AMD en este momento, tocara hacer una
renovación completa, no solo de la placa base y CPU, también de las
memorias.

Capacidad y velocidad de los procesadores y memorias RAM


actuales
Con la tecnología, el aumento en los objetivos de productividad, Internet más
veloz y más dispositivos disponibles, hemos creado una necesidad de
velocidad donde sea que vayamos. Estamos acostumbrados a obtener
resultados de manera instantánea y esperamos que nuestros dispositivos se
mantengan al día con nuestras demandas a medida que realizamos más y más
tareas de manera simultánea en nuestra vida diaria. Los procesadores de
computadora y su velocidad del reloj de procesador son dos características que
comúnmente asociamos con tecnología rápida y de alto rendimiento.

La velocidad del procesador de la computadora (velocidad de la CPU) es uno


de los elementos más importantes a considerar al comparar computadoras. La
CPU a menudo se conoce como "el cerebro" de tu computadora, por lo que
asegurarse de que funcione correctamente es muy importante para la
longevidad y la funcionalidad de tu equipo. Comprender qué hace que una
velocidad de procesador sea buena comienza con entender qué hace
exactamente un procesador y qué hacen sus componentes para mejorar la
funcionalidad de tu computadora.

Analicemos los detalles de lo que hace que una CPU sea rápida, los núcleos
frente a las velocidades del reloj del procesador, lo que los hace importantes y
qué buscar al comprar una computadora nueva.

Un ejemplo de Cómo funciona la velocidad de reloj de una memoria


RAM
Nombre estándar Velocidad de reloj Velocidad de reloj de E/S
DDR3-1333 667 MHz 667 MHz
DDR3-1375 688 MHz 688 MHz
DDR3-1466 733 MHz 733 MHz
DDR3-1600 800 MHz 800 MHz

Toda la memoria RAM estándar se clasifica a una velocidad de reloj


específica en MHz, en la que su interfaz se comunica con el procesador a una
frecuencia determinada en millones de Hertz por segundo.
La cantidad de módulos RAM es como la cantidad de carriles en la carretera,
cuantos más carriles de RAM tenga, más carriles tendrá abiertas y más
automóviles podrá contener la carretera en un momento determinado.
El tamaño de la RAM en esta analogía, sería cuántos automóviles puede
contener cada carril, y la velocidad de la RAM es como la señal de límite de
velocidad colocada en la carretera.
Por lo tanto, un módulo de 8 GB de RAM con una velocidad de reloj de 2666
MHz puede procesar 8 GB de datos en un momento dado, y 2666 MHz es la
velocidad a la que se procesará la información.

Cómo aumentar la frecuencia de la memoria RAM


La frecuencia de una memoria RAM, medida en Megahercios (MHz),
representa la velocidad con la que la información se mueve entre ella y otras
piezas del sistema.
Esta frecuencia se relaciona con la frecuencia máxima admitida por la placa
base, aunque a veces se puede cambiar esta configuración de fábrica
configurando el firmware del BIOS.

Las velocidades de las memorias RAM para PC

Por este motivo, a continuación, vamos a repasar las velocidades de los


estándares de las memorias RAM para PC desde las SDRAM (Synchronous
Dynamic RAM) hasta las actuales DDR4, que no son sino una variante de las
SDRAM (Doublé Data Rate Synchronous Dynamic RAM).

Memorias RAM SDRAM y SDR SDRAM


Este fue el primer tipo de memoria que funcionaba en sincronía con el
procesador, y ese es el motivo por el que hemos decidido empezar por éstas y no
por los modelos anteriores. El estándar de este tipo de memorias se estableció en
dos escalones:

 100 MHz de velocidad, con 8 ns de ciclo de reloj y una latencia CL3.


 133 MHz de velocidad, con 7.5 ns de ciclo de reloj y latencia CL3.

Lógicamente nada tiene que ver con las velocidades que se manejan a día de
hoy, así que vamos a ir avanzando según avanzó la tecnología.

Velocidad de las memorias DDR, DDR2 y DDR3

Las memorias RAM DDR comenzaron a utilizarse a partir del año 2000, y
aunque son similares a las SDR ya eran capaces de realizar dos instrucciones de
lectura y dos de escritura por ciclo de reloj, motivo por el que se llaman DDR
doublé Data Rate, debido a que transmiten los datos al doble de velocidad que la
velocidad de reloj de la memoria.

Todas las memorias RAM DDR, DDR2, DDR3 y DDR4 tienen un número en
cada modelo, el cual es la cantidad de información que se transmite por segundo
en su bus de datos. El cual se calcula multiplicando la velocidad de reloj de la
memoria * 2. Así pues, una RAM DDR-400, tiene una velocidad de reloj de 200
Mhz, pero alcanza los 400 Mbps por pin en cada segundo al ser DDR.

Memorias RAM DDR4


Finalmente llegamos a la memoria RAM DDR4, la que utilizamos en las
generaciones actuales de PC. Este tipo de memoria es el más rápido hasta la
fecha, y también el que más estándares diferentes ha tenido puesto que
comenzó con un estándar básico de 1600 Mhz y, actualmente, éste se ha visto
elevado hasta los 2666 MHz
Como se puede ver, la velocidad ha ido subiendo a pasos agigantados, al igual
que se ha reducido el tiempo que tarda cada ciclo del reloj. No obstante, la
latencia ha ido subiendo también paulatinamente. Esto significa que aunque las
memorias RAM que tenemos actualmente son capaces de procesar los datos a
una gran velocidad, si luego tardan mucho en aceptar nuevas operaciones de
lectura y escritura, en realidad no estaremos ganando gran cosa en términos de
rendimiento. Y es que la latencia es tan importante en la memoria RAM como
la velocidad.

Tipos de Procesadores que utilizan los teléfonos móviles


Exynos
Los procesadores Exynos son fabricados por una división de Samsung
denominada System LSI Business. Fue en 2010 cuando la compañía coreana
lanzó el S5PC110 para el primer Galaxy S. Solo un año después, en 2011,
Samsung lanzo el Galaxy SII, donde ya
se especificaba oficialmente que contaba
con un SoC Exynos 4210. El procesador más
potente hasta la fecha es el Exynos 990, cerebro
de los Galaxy Note 20. Samsung mantiene diversas factorías en países como
China o India, pero aún mantiene fábricas en Corea del Sur, su país natal, como
es la presente en la ciudad de Hwaseong.

MediaTek
Mediatek es una empresa con sede en Taiwán con una veterana historia en el
mundo de los semiconductores. Se fundó en 1997 y tiene su sede central en
Hsinchu Science and Industrial Park, en la ciudad de Hsinchu, Taiwán. Aunque
la firma se llegó a encasillar en la gama media y, de entrada, en estos
momentos cuenta con procesadores de gama alta como el Dimensity 1000 de
alto rendimiento en compatible con 5G.

Kirin
El famoso cerebro de los terminales de Huawei, es fabricado en la empresa
china de semiconductores Hisilicon, filial de la compañía. Se basan también en
diseños de ARM y tienen con el Kirin 9000 de 5nm el procesador más potente
hasta la fecha. Su futuro es incierto debido a las restricciones del Gobierno de
los Estados Unidos, que ha limitado su producción debido a la imposibilidad de
Huawei de adquirir componentes de otras empresas.
Snapdragon
Los famosos Snapdragon son propiedad de la empresa estadounidense
Qualcomm, fundada en 1985. Estos procesadores son fabricados por TSMC
(Taiwán Semiconductor Manufacturing Company) famosa empresa China con
sede en Taiwán. No obstante, la firma ha anunciado la construcción de una
fábrica en Estados Unidos, en la que producirá procesadores de 5nm. Lo más
potente de Qualcomm en 2020 ha sido el Snapdragon 865+, aunque se ya ha
sido presentado el nuevo Snapdragon 888 5G, como cerebro de los móviles
más potentes de 2021.

Apple A15 Bionic

El Apple A15 Bionic es, a día de hoy, el procesador móvil más potente. La
californiana Apple sigue apostando por procesadores diseñados por ella
misma, y desarrollados bajo la marca "A". Este año, es el turno del Apple A15,
un chip que, según Apple, mejoraba en un 50% el rendimiento con respecto a
la generación pasada... aunque en realidad tales afirmaciones se quedaron
cortas.

Se trata de una plataforma cuya CPU es hasta un 62% más rápida que la


presente en la generación anterior, y cuya GPU también mejora
considerablemente el rendimiento
con respecto a la pasada entrega al igual que el
Snapdragon 8 Gen 1, el A15 Bionic de Apple incorpora un módem 5G
integrado.

Versiones de Windows desde el año 1990 hasta la fecha


Windows 1
Aunque ya se hablaba de la existencia de la primera versión de Windows antes
de la presentación de Windows 1.0, lo cierto es que hasta el 20 de noviembre
del año 1985 no se anunció de manera oficial esta primera versión del sistema.
Una versión que ofrecía poca funcionalidad y que no se trataba de un sistema
operativo completo, ya que más bien era una extensión gráfica de MS-DOS que
hacía pensar en dejar atrás el uso de comandos.

Desarrollado 16 bits requería de 320 KB de memoria RAM, una tarjeta gráfica y


una unidad de disquete para funcionar, el precio de venta era de 99$. Windows
1.0 tuvo soporte hasta el 31 de diciembre de 2001, por lo que, a pesar de ser
una versión sin apenas funcionalidad, los de Redmond estuvieron ofrecieron
soporte durante poco más de 16 años hasta que quedó obsoleto no es de los
más populares, pero con él inicia la historia
de un sistema operativo que ha conseguido
hacerse todo un éxito con el paso de los
años. Aquí empieza el recorrido de un
sistema operativo con éxito que no ha sabido
enamorar desde sus principios.

Windows 2

Mientras tanto, justo dos años más tarde, en noviembre de 1987, llegaba
Windows 2.0. Una versión que fue actualizada rápidamente con la v2.03 y que
ya incluía por primera vez ventanas que podían solaparse entre ellas. Eso por
no hablar de que ya incluía ciertas utilidades que, podríamos decir, iban a ser el
origen de las actuales herramientas de ofimática esta versión de Windows fue
la primera en contener el procesador de textos Microsoft Word y la hoja de
cálculo Microsoft Excel por primera vez, ello provocó que esta versión de
Windows tuviera mucho mejor acogida en el mercado. Sin embargo, pronto
vieron que tenían que mejorarlo por su baja comercialización.

Fue mucho más popular que la anterior y ahí ya empezaba a nombrarse mucho
más este sistema operativo. Con él encontramos el primer panel de control.
Tuvo soporte hasta la misma fecha que la versión
anterior. Es decir, hasta el 31 de diciembre de 2001,
momento en el que Microsoft decidió descontinuar
Windows 1y 2. Además, aquí debemos mencionar
también Windows 2.1, creada en mayo de 1988 y que
se encuentra actualmente descontinuada. Es una
versión ligeramente modificada con algunas mejoras en
sus aplicaciones, en donde está MS Paint.

Windows 3
El 22 de mayo de 1990, se libera y se lanza el sistema operativo Windows 3.0
que llega con una interfaz gráfica en la que ya se comenzaban a apreciar
nuevos elementos visuales además de las exitosas ventanas. Fue la primera
versión que tuvo éxito a nivel comercial pudiendo competir con Apple
Macintosh y Commodore Amiga en el mercado. Se llegaron a vender hasta dos
millones de copias en tan solo unos meses desde su lanzamiento. Aunque en
este momento todavía se utilizaba mayormente MS-DOS para ejecutar
programas y juegos en los ordenadores personales.

Con la actualización a Windows 3 en abril de 1992, el sistema recibió el famoso


juego del Buscaminas que tanto entretenimiento ha ofrecido a lo largo de los
años, entre otros juegos que tendremos en nuestra memoria. Además, hay que
destacar también la existencia del administrador de archivos y de la
compatibilidad con las
tipografías TrueType
desarrolladas
anteriormente por Apple.
Windows 95
El 24 de agosto de 1995 es una fecha importante en la vida del sistema
operativo de Microsoft, ya que es el día en el que fue lanzada la famosa versión
Windows 95. La primera versión que ofrece una interfaz muy mejorada y
donde ya aparecen la barra de tareas y el menú Inicio, dos elementos muy
importantes y característicos de Microsoft que siguen siendo parte hoy en día
del sistema operativo. Eso sin olvidar que Windows 95 incluía Internet Explorer,
el navegador web que tantos años ha estado acompañando al sistema y, por lo
tanto, el soporte para navegar por Internet.
Una versión destinada al mercado de consumo y con la que se pasaba de una
arquitectura multitarea cooperativa de 16 bits a una arquitectura apropiativa
de 32 bits. Fue también la primera edición de Windows que soportaba el
modo multitarea. Vendieron más de 7 millones de copias en su primera
semana y el éxito fue impresionante. Es verdad que invirtieron mucho en
publicidad y en darse a conocer. Hay que tener en cuenta que, el fin del
soporte estándar para Windows 95, fue el 31 de diciembre del año 2000, pero
tuvo un soporte extendido que duró un año más, es decir, hasta el 31 de
diciembre de 2001.

Windows NT Server
Este es un sistema operativo para servidores cuya primera versión fue
publicada en julio de 1993, que destaca por ser ampliable e independiente de
la plataforma y hardware. Se podía ejecutar en sistemas basados en
procesadores Intel x86, RISC y DEC Alpha para que sus usuarios pudieran elegir
sus sistemas informáticos. Destacada por estar enfocado a estaciones de
trabajo y servidor de red necesitaba un 386 con unos recursos mínimos de 75
MB de disco duro libre y 12 MB de RAM. Su primera versión fue Windows NT
3.1, después hubo una versión mucho más mejorada Windows NT 3.5 y otra
llamada Windows NT 4.

Con respecto a Windows NT 4.0, Windows NT o Windows New Technology


nació como una nueva línea del sistema operativo de Microsoft orientado a
estaciones de trabajo y servidores de red. Un sistema con interfaz gráfica
propia de Windows 95, estable y características similares a los sistemas de red
UNIX. Su fecha de lanzamiento oficial fue el mes de agosto del año 1996, el
soporte estándar finalizó el 31 de diciembre
de 2000 mientras que el soporte extendido
llegó hasta finales de 2004.

Windows 98
Aunque antes de la llegada de Windows 98 se sucedieron las distintas versiones
de Windows 95 mencionadas anteriormente con el nombre comercial
Windows NT, enfocadas especialmente al entorno empresarial e industrial, tres
años después se lanzó una nueva edición. El 25 de junio de 1998, Microsoft
lanzaba la nueva versión de su sistema operativo: Windows 98. Al igual que la
anterior, adquirió como nombre las dos últimas cifras del año de su
lanzamiento y era una versión que llegaba con el sistema de
archivos FAT32 que trató de potenciar el acceso a la red. Además, incluyó la
compatibilidad con lectores de DVD y la incorporación de los primeros
puertos USB.

Sin embargo, una mayor complejidad en el sistema hizo que se penalizara de


gran manera el rendimiento del sistema, por lo que se convirtió en una de las
versiones de Windows más criticadas por su lentitud y falta de fiabilidad en
comparación con su antecesor Windows 95, que en este sentido había dejado
el listón muy alto en mayo de 1999 se lanzó la versión 2.0 de este sistema
operativo bajo el nombre de Windows 98 Segunda Edición (SE) que traía
novedades como Internet Explorer 5, conexión compartida y Microsoft
Netmeeting 3.0. Aun así, Windows 98 fue una versión que tuvo soporte
estándar hasta el 30 de junio de 2002 y un soporte extendido que finalizó el 11
de julio de 2006.

Windows 2000
El 29 de marzo de 1999 se lanza el sistema operativo Windows NT 5.0 EUR
Edition, que no era otra cosa que la versión alemana de Windows NET 5.0 y que
pasaría a llamarse Windows 2000 posteriormente. Una versión del sistema que
Microsoft desarrolló como parte de su línea profesional. El objetivo era ofrecer
todo el rendimiento a aquellos usuarios avanzados y profesionales que
ejecutaban programas de alto rendimiento. De esta versión se filtró parte de su
código fuente en Internet. Esto hizo que la compañía decidiese utilizar su
núcleo para desarrollar la nueva versión del sistema.

Además de continuar el camino de NET, enfocándose a los negocios, Windows


2000 incluyó nuevas opciones para una mayor protección de archivos. Se
desarrollaron diferentes versiones más específicas encaminadas a usos muy
concretos: Windows 2000 Professional, Server, Advanced Server, Datacenter
Server y Advanced Server Limited Edition. El soporte estándar de esta versión
finalizó el 30 de junio de 2005,
mientras que el soporte
extendido acabó el 13 de julio de 2010.

Windows Me
Windows Me o Windows
Millenium es una versión del
sistema operativo de Microsoft
lanzando el 14 de septiembre
del año 2000 en formato gráfico
híbrido de 16/32 bits. Fue diseñado por Microsoft para los usuarios de PC.
Después de la madurez alcanzada por otras versiones anteriores como
Windows 95 y Windows 98 no tuvo la aceptación por los usuarios que esperaba
la compañía debido a los continuos errores que arrojaba (los famosos
pantallazos azules) y las desventajas de su uso cabe destacar que Windows Me
no está construido bajo el núcleo de Windows NT ya que solo se usó en los
sistemas operativos profesionales hasta ese momento, aunque sí lo haría
después su sustituto Windows XP. Tanto es así, que muchos usuarios que
probaron Windows Me en sus equipos volvieron a versiones anteriores de
Windows 98 al poco tiempo y esperando que desde Redmond se tomaran
cartas en el asunto. El soporte estándar finalizó a finales de 2003, poco más de
tres años, mientras que el soporte extensión llegó hasta mediados del año
2006, concretamente hasta el mes de julio de ese año.

Windows XP
Otro gran salto en el desarrollo y evolución del sistema operativo de Microsoft
se produjo el 25 de octubre del año 2001, momento en el que se lanzaba
Windows XP. La primera versión del siglo XXI y que supuso un gran éxito al ser
un producto de gran calidad. Una versión que fue construida a partir del Kernel
de Windows NT y que llegó en dos ediciones distintas, Home y Professional en
el aspecto visual, hay que destacar grandes mejoras en la interfaz de usuario,
con nuevos iconos, menús y opciones que permitían a los usuarios profundizar
y controlar mucho más todo tipo de tareas sobre el sistema. Pero no sólo se
quedó en ofrecer mejoras gráficas, sino que también llegó con un gran
incremento de velocidad y agilidad.

Windows XP incorporó funciones como el cifrado de archivos del sistema,


soporte para redes Wifi, la asistencia remota y su versión de 64 bits, lo cual
provocó una explosión en el mercado de los sistemas operativos. Esta versión
tuvo una gran aceptación siendo la edición de Windows mayoritaria en los
hogares hasta 2012. Tuvo soporte estándar por parte de Microsoft hasta el 14
de abril de 2009, mientras que el soporte
extendido duró hasta el 8 de abril de 2014.
Windows Vista
Hubo que esperar hasta 6 años para la llegada de la nueva versión del sistema,
Windows Vista. Una versión que Microsoft lanzó mundialmente el 30 de enero
de 2007, llegaba con infinidad de nuevas características y funciones.
Un Shell rediseñado y una interfaz con grandes cambios y enfocada en mejorar
la seguridad de los usuarios que, por el contrario, no fue del agrado de la gran
mayoría de ellos.

Con Windows Vista pudimos ver la interfaz Aero UI que, sin duda, ofrecía un
gran atractivo a nivel visual, pero que resultó ser demasiado problemático en
equipos menos potentes. Un cúmulo de circunstancias que hizo que se
convirtiera en uno de los fiascos de la historia del sistema operativo a pesar de
que se tenían grandes expectativas en la empresa.

Era la primera versión de Microsoft que se dirigía a equipos personales y de


oficina, portátiles y tablets. Pero los continuos problemas, la lentitud y
sobrecargas, hicieron sombra a todas las novedades gráficas. Esta versión
recibió soporte estándar por parte de la compañía hasta el 10 de abril de 2012,
mientras que el soporte
extendido se alargó hasta el 11
de abril de 2017.
Windows 7
El 22 de octubre de 2009, Microsoft anunció el lanzamiento de Windows 7
como solución al fiasco de Windows Vista y que resultó una de las versiones
más importantes del sistema operativo de Microsoft desde el anterior
Windows XP. Algo que ha quedado retratado en la historia del sistema
operativo, ya que ha sido etiquetada como una de las versiones más sólidas.
Fue creado para utilizar en los diferentes ordenadores, incluyendo portátiles,
tablets, netbooks y más.
Añadía soporte multi touch, un Windows Shell rediseñado, nueva barra de
tareas, sistema de red, mejoras en el rendimiento y su velocidad y una
reducción del consumo de recursos. Además, introdujo el nuevo diseño de la
barra de tareas, dejándola más ancha, y un sistema con iconos de mayor
tamaño. El soporte estándar de Windows 7 duró hasta el 13 de enero de 2015,
mientras que el soporte extendido llegó hasta el 14 de enero de 2020, por lo
que, aunque puede haber usuarios que aún lo tengan no es lo más probable.

Windows 8
Prácticamente tres años después, el 26 de octubre de 2012, se lanzó Windows
8. Una versión que añadía soporte para microprocesadores ARM y cuya interfaz
llegaba modificada para hacerla más adecuada para su uso con pantallas
táctiles, mostrando nuevos efectos planos para ventanas y botones con un
color simple. Esto supuso también la eliminación del clásico menú de Inicio de
Windows por Tiles, algo que no fue del agrado de la gran mayoría de usuarios.
Por primera vez desde Windows 95 el sistema operativo prescindía de uno de
los elementos más importantes como es el botón de Inicio de Windows.
La escasa aceptación de la interfaz Metro por parte de los usuarios hizo que
Microsoft lanzase Windows 8.1 para intentar dar respuesta a los usuarios que
echaban de menos algunos elementos tradicionales del sistema y que
recuperaba algunas de las características. El soporte estándar y extendido de
Windows 8 finalizó el 12 de enero de 2016, mientras que en el caso de
Windows 8.1, el soporte estándar duró hasta el 9 de enero de 2018 y el
extendido aún está vigente hasta el 10 de enero de 2023. Todavía puede
quedar algún usuario que esté utilizando este sistema operativo, aunque varios
se han lanzado al cambio de Windows 10.

Windows 10
Fue el 29 de julio de 2015 cuando Microsoft lanzó la última y esperada versión
de su sistema
operativo, Windows 10, hasta la llegada de Windows 11 en el 2021. Una
versión que cuenta con un gran conjunto de aplicaciones, una interfaz moderna
con un gran rendimiento y que, además, es multiplataforma. Es decir, permite
su utilización en ordenadores y dispositivos móviles.

Pero no son las únicas novedades, ya que también cabe destacar el uso de
aplicaciones universales, el nuevo navegador de Internet Edge, el gran
protagonismo de su asistente Cortana, la nueva página de Configuración del
sistema, el Timeline o la vuelta del menú de Inicio que tanto añoraban la gran
mayoría de usuarios, entre otras muchas cosas. En definitiva, para muchos la
mejor versión del sistema hasta la historia y un producto a la altura de las
necesidades actuales de los usuarios.
Windows 11
La última versión del famoso sistema operativo es Windows 11. El sucesor de
Windows 10, lanzado finalmente el 5 de octubre de 2021, cambia su aspecto
visual, mejora el rendimiento y facilidad de uso del anterior. Algunos equipos
Windows 10 con ciertas especificaciones técnicas tendrán la actualización
gratuita a este nuevo sistema operativo.

Tiene un nuevo menú rediseñado, los iconos dinámicos se reemplazan con un


panel separado denominado Widgets, puede crear conjunto de ventanas en
mosaico que se pueden restaurar y minimizar de la barra de tareas, tecnologías
de juego heredadas, su tienda de aplicaciones se ha renovado, cambia su
herramienta de capturas de pantalla y mucho más. Como podemos ver, el
aspecto visual no es lo único en que se ha renovado porque ha traído
importantes novedades.
Modelos de celulares desde sus orígenes hasta la fecha
Invención del celular (1983-1992)

La historia de la evolución del celular inicia en la década de 1980, con el


nacimiento de la empresa estadounidense Ameritech Mobile
Communications. Esta fue la encargada de fabricar los primeros teléfonos
celulares. Para su elaboración, la empresa utilizó canales de radio analógicos,
los cuales tenían una frecuencia de 450 MHz con frecuencia FM (al igual que
las radios). 

En cuanto a la apariencia de los primeros celulares, en realidad, eran muy


poco prácticos y portátiles. Pesaban aproximadamente 800 gramos y su
batería únicamente duraba 1 hora en uso. Realmente, es sorprendente cómo
inició la evolución del celular. 
Por ejemplo, según el portal de noticias del Diario Gestión, uno de los
primeros equipos celulares fue el Motorola Dynatac 8000x, lanzado al
mercado en 1983 con un costo de 3.995 dólares. Asimismo, otra de las
empresas de telefonía que más fama tuvieron en esta primera generación
fue Ericsson, con los modelos NMT 450 y 900.

Segunda generación de celulares (1992-1998)

Dejando atrás la década de 1980, la evolución del celular no se detuvo y


empezó a tener grandes cambios para la última década del siglo XX durante
este tiempo, las empresas de telefonía empezaron a emplear sistemas
GSM (Global System for Mobile Communications), los cuales fueron
brindados por los países europeos. Por otro lado, se cambió la frecuencia a
900-1800 MHz, que significó un paso hacia la digitalización de los celulares,
además de mejorar la calidad de audio.

Asimismo, se empezaron a emplear modelos diferentes de gestión de línea,


como el acceso múltiple por división de tiempo y el acceso múltiple por
división de código. En cuanto a la apariencia de la nueva generación de
celulares, redujeron su tamaño considerablemente; sin embargo,
conservaron características de la década anterior, como las pequeñas
antenas, aunque para fin de la década, empezaron a diseñarse celulares sin
ese implemento.

Generación de transición: 2.5 G

durante la primera década del nuevo siglo, la evolución del celular siguió su
rumbo. Se empezó a incorporar la nueva tecnología EMS y MMS, la
cual permitió que la mensajería de texto y los archivos multimedia
empezaran a implementarse en todos los celulares de la época. Si bien estos
sistemas únicamente permitían recibirlos, se empezaron a generar webs para
mandar mensajes gratuitos.

Dado que esta nueva tecnología de mensajería requería mayores velocidades


de transmisión, se actualizaron las redes a GPRS (General Packet Radios
Service), los cuales permitían a los celulares de la época alcanzar velocidades
de hasta 120 kb/s, y EDGE (Enhanced Data rates for GSM Evolution), la cual
permitía llegar a velocidades de hasta 384 kb/s. 
En cuanto a la apariencia de estos celulares, se empezaron a fabricar diseños
más pequeños y livianos e incluso, en algunos casos, se añadieron nuevos
gadgets implementados. Por ejemplo, algunos de los celulares más modernos
colocaron pequeñas cámaras en la parte posterior algunos de los modelos de
celulares de segunda generación más importantes fueron el Nokia 2146, el
Sharp J. sh04 y los primeros ejemplares de Blackberry.
Celulares de tercera generación (1998-2008)

La famosa generación 3G trajo consigo diversos cambios al proceso de la


evolución del celular. Los celulares de esta generación empezaron a mejorar
los gadgets de versiones anteriores e implementar nuevos. Además, se
empezó a utilizar el internet dentro de los celulares, principalmente con la
mensajería de las redes sociales. En resumen, estos fueron los primeros
smartphones y lo más cercano a pequeñas computadoras en la época. 
Algunos de los celulares más famosos de esta generación fueron el
Blackberry y el iPhone 4. Hablando de eso Conoce la evolución del iPhone y
descubre cómo ha cambiado en 15 años.

La evolución del celular actual

Llegamos al final de la evolución del celular (al menos, por ahora). Todos


estos cambios en el pasado ayudaron a que, hoy en día, tengamos los
celulares que conocemos. En décadas pasadas, hubiera sido imposible
imaginar que un teléfono móvil pudiera contener calidad de audio de alta
gama y, a la vez, contar con cámaras de 64 megapíxeles que se asemejan a
cámaras semi profesionales. ¡Es el momento perfecto para
tomar autorretratos con tu teléfono en cuanto a la apariencia, los
smartphones de esta época, perdieron el concepto de mientras más
pequeño, mejor. Ya sean las últimas versiones del iPhone, o los nuevos
celulares de Samsung y Huawei, todos se han visto en la necesidad de
incrementar el tamaño de los smartphones para aumentar la calidad en las
pantallas. Incluso, se han creado celulares con pantallas incluidas tanto en la
parte frontal como trasera del dispositivo.
Modelos de monitores desde sus orígenes hasta la actualidad
DÉCADA DE LOS 70
MDA y CRT

Empezaron a aparecer los primeros monitores


de CRT (tubo de rayos catódicos). Seguían el
estándar MDA (Monochrome Display
Adapter), y eran monitores monocromáticos
(de un solo color) de IBM.
El tubo de rayos catódicos (CRT, del inglés
Cathode Ray Tube) es una tecnología que
permite visualizar imágenes mediante un haz
de rayos catódicos constante dirigido contra una pantalla de vidrio recubierta
de fósforo y plomo. El fósforo permite reproducir la imagen proveniente del
haz de rayos catódicos, mientras que el plomo bloquea los rayos X para
proteger al usuario de sus radiaciones. Fue desarrollado por William Crookes
en 1875. Se emplea principalmente en monitores, televisores y osciloscopios,
aunque en la actualidad se está sustituyendo paulatinamente por tecnologías
como plasma, LCD, LED.
El Monochrome Display Adapter (MDA) no tenía modos gráficos, ofrecía
solamente un solo modo de texto monocromático (el modo de vídeo 7), que
podía exhibir 80 columnas por 25 líneas de caracteres de texto de alta
resolución en un monitor TTL que mostraba la imagen en verde y negro.
DÉCADA DE LOS 80
CGA
Poco después y en el mismo año salieron
los monitores CGA (Color Graphics Adapter
–gráficos adaptados a color–) fueron
comercializados en 1981 al desarrollarse la
primera tarjeta gráfica a partir del estándar
CGA de IBM. Al comercializarse a la vez que
los MDA los usuarios de PC optaban por
comprar el monitor monocromático por su
costo.
Características:
 Resoluciones 160_200, 320×200, 640×200 píxeles
 Soporte de gráfico a color
 Diseñado principalmente para juegos de computadoras
 La tarjeta gráfica contenía 16 KB de memoria de vídeo
EGA
Tres años más tarde, en el 1984, surgió el
monitor EGA (Enhanced Graphics Adapter
adaptador de gráficos mejorados) estándar
desarrollado por IBM para la visualización de
gráficos, este monitor aportaba más colores
(16) y una mayor resolución.
EGA es el acrónimo inglés de Enhanced
Graphics Adapter, la especificación estándar de
IBM PC para visualización de gráficos, situada
entre CGA y VGA en términos de rendimiento gráfico (es decir, amplitud de
colores y resolución). Introducida en 1984 por IBM para sus nuevos IBM
Personal Computer/AT, EGA tenía una profundidad de color de 16 colores y
una resolución de hasta 640×350 píxels.
VGA

En 1987 surgió el estándar VGA (Video Graphics


Array - Matriz gráfica de video) fue un estándar
muy acogido. A partir del lanzamiento de los
monitores VGA, los monitores anteriores
empezaban a quedar obsoletos. El VGA
incorporaba modo 256 con altas resoluciones por
el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los
monitores anteriores no son compatibles a los VGA, estos incorporan señales
analógicas.
Características:
 Soporte de 720×400 píxeles en modo texto
 Soporte de 640×480 píxeles en modo gráfico con 16 colores
 Soporte de 320×200 píxeles en modo gráfico con 256 colores
 Las tarjetas gráficas VGA estándares incorporaban 256 KB de
memoria de vídeo

SVGA
En 1989 se mejoró y rediseñó el estándar VGA para
solucionar ciertos problemas que surgieron,
desarrollando así SVGA (Super VGA), que también
aumentaba colores y resoluciones, para este nuevo
estándar se desarrollaron tarjetas gráficas de
fabricantes hasta el día de hoy conocidos como S3
Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT
que hasta no hace mucho seguían estando en la mayoría de hogares donde
había un ordenador.

CRT
Los monitores CRT, según un rumor podían
empezar un cáncer por tanto uso, aunque
salieron al mercado filtros especiales, estos
monitores usaban un tipo de radiación, no la del
plutonio y uranio si no de rayos catódicos, como
sus siglas "Cathode Ray Tube". la ventaja de estos
era la perfecta definición, y luminosidad, además
de barato, el problema es que como todas las
lámparas tenían un pequeño parpadeo pues
como eran muchos pixeles el refresco de pantalla era de aproximadamente
47 fps, sí, es de 60, pero no en vertical.
LCD
Una pantalla de cristal líquido o LCD (siglas del
inglés Liquid Crystal Display) es una pantalla
delgada y plana formada por un número de
pixeles en color o monocromos colocados
delante de una fuente de luz o reflectora. A
menudo se utiliza en dispositivos electrónicos
de pilas, ya que utiliza cantidades muy pequeñas
de energía eléctrica.

El funcionamiento de estas pantallas se


fundamenta en sustancias que comparten las propiedades de sólidos y
líquidos a la vez. Cuando un rayo de luz atraviesa una partícula de estas
sustancias tiene necesariamente que seguir el espacio vacío que hay entre
sus moléculas como lo haría atravesar un cristal sólido, pero a cada una de
estas partículas se le puede aplicar una corriente eléctrica que cambie su
polarización dejando pasar la luz o no una pantalla LCD está formada por 2
filtros polarizados colocados perpendicularmente de manera que al aplicar
una corriente eléctrica deja pasar o no la luz. Para conseguir el color es
necesario aplicar tres filtros más para cada uno de los colores básicos rojo,
verde y azul para la reproducción de varias tonalidades de color se deben
aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los filtros.
PLASMA
La pantalla de plasma fue desarrollada en la
Universidad de Illinois por Donald L. Bitzer y H.
Gene Slottow. Originalmente los paneles eran
monocromáticos. En 1995 Larry Weber logró crear
la pantalla de plasma de color. Este tipo de
pantalla entre sus principales ventajas se
encuentran una la mayor resolución y ángulo de
visibilidad el principio de funcionamiento de una
pantalla de plasma consiste en iluminar pequeñas
luces fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes,
en que cada píxel es semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una
pequeña celda estanca que contiene un gas inerte (generalmente neón o
xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda,
dicho gas pasa al estado de plasma. El gas así cargado emite radiación
ultravioleta (UV) que golpea y excita el material fosforescente que recubre el
interior de la celda. Cuando el material fosforescente regresa a su estado
energético natural, emite luz visible.
Pantalla Táctil
La tecnología de la pantalla táctil responde al más sutil
toque de un dedo y soporta movimientos multi-touch
(acercar, desplazar y rotar), incluyendo movimientos
intermedios y utilizar más de un dedo de manera
simultánea. Con la pluma digital, es posible tomar
notas apareciendo la escritura en la pantalla como
tinta digital. Existen varios tipos de pantallas táctiles, y
funcionan de manera totalmente diferente según la
tecnología usada y las características técnicas, así
podemos decir que existen cuatro tipos de pantallas
táctiles bien diferenciados entre sí. Pantallas táctiles por Infrarrojos: Este es el primer
sistema que se utilizó para fabricar una pantalla de características táctiles, así que
podemos decir que es el sistema más antiguo de los cuatro. Su funcionamiento consta en
la instalación, en los bordes de la pantalla en cuestión, de unos emisores y receptores de
infrarrojos incrustados en la carcasa, en un lado se colocan los emisores, y en el lado
opuesto se colocan los receptores, para crear de esta manera una matriz de rayos
cruzados. Este sistema de pantalla táctil tiene el gran beneficio de que no oscurece la
pantalla, pero, por el contrario, son muy caras y voluminosas, cuesta mucho mantenerlas
limpias y son poco fiables, ya que una simple mota de polvo puede ser suficiente para
interrumpir la emisión y recepción de uno de estos rayos. Pantallas táctiles Resistivas: Este
tipo de pantallas, en principio muy usadas en dispositivos móviles, aunque cada vez
menos, consta de dos capas de material conductor transparente ligeramente separadas
entre sí, que lo que hace es que cuando pulsamos sobre la propia pantalla, estas dos
partes se unen, y un sistema electrónico detecta el contacto y es capaz de, midiendo la
resistencia, saber el punto exacto del contacto. Estas capas conductoras son muy ligeras y,
por norma general, están tratadas con un material conductor creado a base de óxido de
indio y estaño. El sistema en sí consta de tres partes: Los conductores transparentes, las
barras conductoras y el material aislante de cristal, que es la pantalla que nosotros
presionamos en el dispositivo. Estas pantallas, tienen la gran ventaja que pueden ser
usadas casi con cualquier cosa, con los dedos, con un simple lápiz o incluso con los dedos
usando guantes.
La historia de la invención de la memoria USB

PRIMERA GENERACIÓN USB

En el año 2000, la empresa de Singapur TREK 2000


TECHNOLOGY lanzó el primer pendrive portátil a la
venta en el mundo. A esta memoria portátil la
denominaron ThumbDrive debido a su tamaño
comparable a un dedo pulgar. Este primer lápiz USB
tenía la sorprendente capacidad de 8 MB, algo inaudito en esa época.
Además, su precio era muy competitivo. Y, por si fuera poco, se trataba de un
dispositivo Plug n Play, que podía actuar como sustituto de un disco duro
inmediatamente

Dentro de esta primera generación de memorias USB, se fueron aumentando


progresivamente las capacidades de estos dispositivos, 16 MB, 32 MB y
64 MB. Su diseño llegó a albergar una capacidad de 256 MB.

SEGUNDA GENERACIÓN USB

Esta segunda generación de memorias flash debe cumplir con la norma de


conectividad USB 2.0. La especificación USB 2.0 Hi Speed soporta una tasa de
transferencia de hasta 480 Mbit por segundo. Se trata de una velocidad
de transferencia de datos inimaginable en la anterior generación.

TERCERA GENERACIÓN USB

La norma USB 3.0 ofrece entre otras mejoras, compatibilidad con los puertos


USB 2.0. Este tipo de dispositivos estuvieron disponibles a partir del 2010.
La interfaz USB 3.0 dispone de unas tasas de transferencia de datos de
hasta 4,8 Gbit/s, la cual está muy por encima de su generación anterior.
En esta reciente generación de memorias USB podemos encontrar distintas
capacidades de almacenamiento. Estas capacidades pueden variar
desde 1GB hasta 1TB actualmente.

Puertos USB, micro USB, tipo c

El puerto USB o Universal Serial Bus (Bus


Universal en Serie) es un puerto diseñado
para conectar varios periféricos a una
computadora. El puerto USB se encuentra
en todas las computadoras modernas. Hay
algunos conectores diferentes que se usan
para conectar los dispositivos primero es el
puerto USB que se nombra USB A. Este puerto es el que se encuentra en la
computadora. El conector de USB A macho conecta a la computadora y sirve
para conectar los periféricos. Todos los dispositivos USB que conectan a una
computadora tienen este conector.

Segundo es el puerto USB B. Este puerto USB se encuentra en muchos


dispositivos distintos, incluyendo en las impresoras. Para conectar un
dispositivo que tiene un puerto USB B, se usa un cable de USB A a USB B otro
conector ordinario es el puerto USB mini B. Este puerto USB se encuentra en
dispositivos cuando se necesita un conector más pequeño. El USB mini B
funciona mucho como el puerto USB B. Tal como el cable de USB B, para
conectar un dispositivo que tiene un puerto USB mini B, se usa un cable de
USB A a USB mini B.
El USB versión 2.0 tiene una tasa de transferencia de hasta 480Mbps
(60MB/s). Es suficiente para operar un disco duro externo, una cámara
digital, teclas, ratones y una variedad de otros dispositivos si es necesario, se
puede añadir más puertos de USB a una computadora. Si tiene una
computadora de sobremesa se necesita una tarjeta USB de PCI.

Micro USB es la palabra utilizada para referirse


a un tipo de conector USB (Universal Serial Bus),
que se caracteriza por tener un tamaño bastante
inferior a este, y semejante a los más
recientes USB-C. Sin embargo, el conector Micro
USB se lleva utilizando muchos años y, hoy en
día, se sigue utilizando en smartphones de todo el
mundo, aunque están siendo reemplazados rápidamente por los novedosos
USB-C. A modo de comparación, los Micro USB no son conectores reversibles
como los USB-C, así como admiten una velocidad máxima más baja, por lo
que están tendiendo a desaparecer.
El Micro USB es el predecesor al USB-C, es un conector de pequeñas
dimensiones que, generalmente, ofrece velocidades de USB 2.0. Las
velocidades de un conector no dependen de la forma del mismo, sino más
bien del bus al que vayan conectados y de la tecnología incorporada en el
conector en sí. Así pues, un USB-C puede utilizarse como Thunderbolt
3 o DisplayPort 1.4, y son ambas tecnologías bien diferentes entre sí.
El conector Micro USB suele verse en cables con un extremo USB-A (el
habitual) y el otro el Micro USB, que es mucho más pequeño y de diseño
asimétrico. Este conector fue el sucesor del mini USB, un conector parecido y de
velocidades semejantes, pero más grande (casi el doble), por lo que terminó
sucediéndolo, al igual que pasará con el USB-C y el Micro USB.
Los conectores Micro USB se utilizan para interconectar distintos dispositivos entre sí,
sean del tipo que sean siempre y cuando tengan este conector. Lo más habitual es utilizar
un cable USB-A a Micro USB (cada extremo de un tipo) y así se conecta un smartphone o
Tablet a un ordenador. Esta conexión se realiza normalmente sin necesidad de drivers y es
prácticamente instantánea, aunque luego la transferencia de archivos dependerá del bus
que esté utilizando ese conector.
Las utilidades de conectar dispositivos por Micro USB suelen ser cargar dispositivos y
transferir archivos, aunque hay también usos en los que se instalan programas en el móvil
desde el PC haciendo uso de unos de estos cables. Lo normal es encontrar puertos Micro
USB en dispositivos de gama media-baja, ya que los smartphones y tablets de gama más
alta utilizan los novedosos conectores USB-C. La tendencia es que los Micro USB
desaparezcan, cosa que seguramente suceda en pocos años.
El USB Tipo C o USB-C es un tipo de conector más
pequeño, ovalado y reversible por lo que puede
conectarse sin una orientación específica a diferencia de
las versiones anteriores las cuales requieren de un lado
específico al conectarse.   

Este tipo de USB se ha ido convirtiendo en un estándar de la industria gracias


a que ofrece una mayor velocidad en transferencia de datos e intensidad en
la corriente eléctrica. El USB-C también es compatible con una amplia
variedad de funcionalidades como: Sustituir la toma de auriculares de
3.5mm, Display Port, HDMI y super MHL.

Su debut fue en 1998, incluido inicialmente para dispositivos de Windows 98,


y con Apple principalmente para eliminar los clásicos puertos de teclado y
mouse en la iMac. Estamos a casi 20 años y las cosas han cambiado desde
entonces.

El USB 1.1 era capaz de transferir datos a 12mb/s. En aquellos tiempos era
considerado algo rápido el hecho de que un disquete pudiera transferir a esa
velocidad.
Posteriormente en el 2000 fue lanzado el USB 2.0, luciendo un rendimiento
de 35mb por segundo.  Después de 8 años en el mercado, fue durante el
2008 cuando se lanzó el USB 3.0 que es el más común hoy en día - con una
velocidad promedio de transferencia de 400 megabytes por segundo.
Voltaje de carga de batería para una laptop
Los expertos el voltaje de carga óptimo es de 3,92V/celda ahora las baterías
de laptops suelen tener un tiempo de vida de entre tres a cinco años, en los
que pueden completar entre 500 y 1.000 ciclos de carga.

Lo puedes encontrar principalmente al reverso de este en la sección llamada


“OUTPUT”. El voltaje se reconoce con un número seguido de una “V” y el
amperaje se distingue por un número seguido de una A cuando te compres
tu laptop nueva, es importante que la cargues por 24 horas para asegurarte
que la primera carga fue completa. Cargar por completo tu batería por
primera vez hace que esta eventualmente dure más.

El número de ciclos que puede aguantar una batería depende de cómo de


descargada esté la batería cuando empezamos a cargarla. Es decir, si la
descargamos completamente, el número de ciclos de la batería será de entre
300 y 500, pero si sólo la descargamos un 25%, los ciclos pueden llegar a
entre 2.000 y 2.500.

Portátiles o monitores que necesiten 12V y hasta 5 Amperios. Portátiles o


monitores que necesiten 15V y hasta 5 Amperios. Portátiles o monitores que
necesiten 16V y hasta 5 Amperios. Portátiles o monitores que necesiten 18V
y hasta 5 Amperios.

Después nos situamos en “acción de nivel crítico de batería” donde nos


aseguramos de que la opción “Con batería” esté configurada para hibernar.
Para terminar guardamos todos los cambios. Tras realizar estos pasos,
conectamos el portátil a la red eléctrica y cargamos la batería al 100% para
que se llene al máximo al tiempo que lo usamos.

En nuestros portátiles solemos encontrar dos tipos de batería: de ión de litio


y de polímero de litio. Ambas se caracterizan por su ya consolidada
producción masiva -lo que ha permitido abaratar el precio de estos
componentes- y su buen comportamiento excepto a altas temperaturas, algo
de lo que hablaremos más adelante.
Si se carga solo a 4,1V/celda la vida se puede ampliar a 600-1.000 ciclos.
4,0V/celda deberían ofrecer 1.200-2.000 ciclos y 3,9V/celda deberían ofrecer
de 2.400 a 4.000 ciclos de carga. No todo son buenas noticias, porque hay
una consecuencia: cada reducción de 70mV en el voltaje de carga reduce la
capacidad usable de la batería en un 10%.

Cuando las baterías se duermen los cargadores ofrecen una pequeña carga
impulsora -pulsos de muy corta duración, pero de voltaje muy alto- para
activar ese circuito de protección, y si se detecta que una de las células
empieza a cargarse, se inicia el proceso normal. Lamentablemente ese
mecanismo no siempre funciona, 4.

Historia del Internet-HTML

Los inicios del HTML


Los inicios de HTML se deben a Tim Berners-Lee cuando trabajaba en el CERN
(Centro Europeo de Investigación Nuclear). Y es que estando como
trabajador del CERN se encontró con la problemática de poder facilitar el
acceso a la información con la que trabajaban desde cualquier ordenador del
centro o de otras instituciones que trabajaban con ellos.
Buscaban una forma sencilla y estándar de acceder a toda la información. Es
en ese momento cuando nace el protocolo HTTP (hypertext transfer
protocolo) y las páginas HTML.
Además, ideó que las páginas estarían unidas entre sí, estarían enlazadas. Era
el concepto de hipertexto.
Para la definición del estándar HTML, Tim Berners-Lee se basó en el lenguaje
de marcado SGML (Standard General Markup Language). Este lenguaje define
reglas de etiquetado y estructura generales. A partir de SGML se han definido
lenguajes como HTML, Postscript, RTF.
Tras tener el desarrollo del sistema de Hipertexto interno, Tim Berners-Lee lo
presentó a una convocatoria para desarrollar el sistema Hipertexto en
Internet junto con el ingeniero de sistemas Robert Cailliau. La propuesta que
presentaron la llamaron World Wide Web (W3).

HTML Tags y Mosaic


La primera versión del HTML nace hacía 1989 como un subconjunto de
SGML y es especificada mediante un documento que se denomina HTML
Tags.
En el documento HTML Tags ya podemos ver los conceptos básicos del
lenguaje HTML ya que en él se define como insertar texto, títulos, enlaces y
listas. Y algún elemento que acabó perdiéndose con el paso del tiempo como
la identificación de índice del documento.
Podemos observar que intentan aglutinar en un lenguaje conceptos como
estructura, formato y semántica, los cuales han ido derivando a la creación
de otros lenguajes como CSS y XML.
Junto con HTML Tags aparece el primer navegador para poder visualizar las
páginas que se llamó World Wide Web.
Posteriormente se crearían otros navegadores web (Samba, Erwise, y Viola)
además del que puede ser considerado como el primer navegador web global
que fue Mosaic, desarrollado por NCSA. El grupo de gente que
creo Mosaic (Mark Andreessen entre ellos) abandonó NCSA para crear
posteriormente Netscape.

HTML 2.0 El proyecto World Wide Web se empieza a extender por el mundo,
siendo varios proveedores de servicios (entre ellos AOL) los que empiezan a
dar acceso a la red.
En paralelo a esta creciente entrada colaboradores aparece, en noviembre de
1995, HTML 2.0. La versión HTML 2.0 es desarrollada por el IETF (Internet
Engineering Task Force). HTML 2.0 es la primera versión que podríamos
considerar como estándar, o al menos definida por un organismo oficial.
En HTML 2.0 con respecto al inicial HTML Tags podíamos encontrar cosas
como imágenes, mapas de imágenes, formularios, barras separadoras… así
como una definición inicial del DTD HTML.

Creación de la W3C y HTML 3.0


Tras diferentes conversaciones entre Tim Berners-Lee y el MIT, el 1 de
octubre de 1994 es creado el consorcio W3. Más conocido como W3C (World
Wide Web Consortium) con la idea de definir estándares para Internet.
Dentro de la W3C se empieza a trabajar en noviembre 1995 sobre el
borrador de HTML 3.0, el cual nunca llegará a ser recomendación y se
quedará en borrador.
Es HTML 3.2 la versión que pasa a ser la recomendación. El borrador de HTML
3.0 es interesante ya que se empieza a hablar de elementos como tablas,
textos alrededor de las imágenes, y un elemento llamado MATH que permite
crear fórmulas dentro del documento HTML.
El elemento MATH acabó cayéndose de posteriores revisiones del
lenguaje HTML y conformando un nuevo lenguaje en sí llamado MathML.
Una de las cosas que más buscaba HTML 3.0 es que fuese compatible hacia
atrás con todo lo que se había creado hasta entonces. Quizás un trabajo
demasiado teórico.

HTML 3.2 Podríamos decir que HTML 3.2 es la primera versión


de HTML ampliamente extendida y utilizada en la red.
HTML 3.2 dejaba de ser una especificación teórica, buscaba ser más
práctica. HTML 3.2 veía la luz en enero de 1997. En HTML 3.2 se pasaban a
utilizar elementos que habían nacido fuera de la especificación y que habían
sido definidos por los fabricantes como Netscape e Internet Explorer.
Así podemos encontrar en HTML 3.2 la capacidad de crear código script,
capas, formularios, posibilidad de meter Applets de Java, modificar el tamaño
metiendo fuentes. Quizás la especificación HTML 3.2 quedó demasiado
abierta y empezó una “guerra entre navegadores” en la que cada fabricante
quería presionar porque se aceptasen sus elementos. Así Internet Explorer
presionaba para tener el elemento MARQUEE y Netscape para tener el
elemento BLINK.
Tecnología Táctil
Las pantallas táctiles tienen más historia de la que nos podamos imaginar, la
primera interfaz de tecnología táctil fue inventada en 1971 por el Dr. Samuel
C. Hurst, y se hicieron muy populares en TPV, (Terminales Punto de
Venta), Cajeros automáticos y en PDAs, estas últimas tenían la necesidad de
usar un Stylus o lápiz de plástico para su correcto funcionamiento.

Después se han ido incorporando a esta tecnología de pantallas táctiles


productos como consolas de video-juegos, ordenadores personales y
los teléfonos inteligentes o también conocidos como Smartphones.

En la actualidad, se han hecho tan populares y reclamadas por los usuarios,


que nos las podemos encontrar en casi cualquier producto tecnológico que
se precie, televisores, reproductores de música, navegadores GPS portátiles e
incrustados de serie por el fabricante del auto, incluso cafeteras
automáticas y refrigeradores de alimentos, ya incluyen esta tecnología en
tremendo auge y demanda.
Diferencias entre Analógico y Digital- Ejemplos
Sistema digital y sistema analógico hacen referencia a las dos categorías en la
que se clasifican los circuitos electrónicos. Sistema digital es cualquier
sistema que pueda generar, procesar, transmitir o almacenar señales
mediante dígitos y que solo admite valores discretos, es decir, que solo
admite un conjunto limitado de números o valores.

Sistema analógico es cualquier sistema cuyas señales se representan con


valores continuos, es decir, que admite números o valores infinitos. La
principal diferencia entre sistema digital y sistema analógico radica en que el
primero es mucho más preciso y la información se puede almacenar de
manera más eficiente y en mayor cantidad que en un sistema analógico.

Un sistema digital es cualquier sistema que permita crear, decodificar,


transmitir o guardar información que se encuentra representada en
cantidades tan restringidas que sus señales de entrada y salida solo admiten
valores discretos. Los valores discretos son variables que no aceptan
cualquier valor, sino solo aquellos que pertenezcan a su conjunto, por tanto,
son finitos.

En este sentido, un sistema digital es todo dispositivo que manipule datos


mediante dígitos que casi siempre están representados con el código binario.
El sistema binario solo admite ceros (0) y unos (1) como valores, por lo tanto,
se trata de valores discretos. Actualmente, los sistemas digitales se
encuentran incorporados en dispositivos magnéticos, electrónicos y
mecánicos.

Ejemplos de sistemas digitales

 Las grabaciones de audio y video, cuya información se guarda en


millones de bits que luego se pueden almacenar en diferentes tipos de
dispositivos.
 Computadoras.
 Teléfonos móviles.
 Las calculadoras, balanzas electrónicas y otros instrumentos digitales
de precisión.

Sistema analógico un sistema analógico es aquel cuyas señales pueden


admitir valores infinitos que pueden variar de forma continua. Los datos que
forman parte de la naturaleza son de origen analógico: la temperatura, la
distancia, el sonido, voltaje, imágenes, etc. Si bien todas estas variables se
pueden convertir a datos digitales son, originalmente, analógicas. Ejemplos
de sistemas analógicos

La temperatura ambiental es un ejemplo de un sistema analógico, ya que no


tiene valores exactos, sino que puede fluctuar continuamente. Es decir,
cuando hay frío es porque la temperatura descendió de manera lenta y
continua, ya que no pasamos directamente de 30 grados a 10 grados, por
ejemplo, sino que se admiten una serie de valores que van desde los 30
grados a los 10. Otro ejemplo de sistema analógico es la música digital que se
convierte a formato analógico mediante un proceso llamado conversión, en
el que se usan dispositivos que convierten los datos binarios de la
información digital en señales análogas.

Historia del Blackberry


BlackBerry nació el 19 de enero de 1999, con el lanzamiento del BlackBerry
850. En los años inmediatos que siguieron, la marca explotó, ofreciendo algo
que todos sus competidores no podían tocar: correos electrónicos en
movimiento.
Incluso si no tuvieras un BlackBerry, puedes apostar tu último dólar a que
conocías a alguien que lo tenía, o que al menos verías uno en manos de otra
persona con regularidad. Ese teclado QWERTY físico con su tap se podía
escuchar en cada vagón de tren y en cada avión. Sin embargo, no se trataba
solo de enviar correos electrónicos sobre la marcha. También tenías BBM, el
servicio de mensajería instantánea de BlackBerry.
Puede que ahora se trate de WhatsApp, pero BBM había leído los recibos de
Donkey's hace años. Fue otra razón única para comprar un BlackBerry, que
atrajo a una variedad de personas, no solo a las que llevaban traje.
Lamentablemente, esos días se acabaron y, si bien BlackBerry aún puede
tener usuarios, ha perdido su mojo.

En 2016, BlackBerry anunció que ya no fabricaría dispositivos propios, y TCL


recogió la licencia. En 2020, la licencia de TCL terminó solo para ser recogida
inmediatamente después por una entidad desconocida, Onward Mobility. En
2021, Onward Mobility se asoció con el fabricante, FIH Mobile, y hay rumores
de que lanzará el primer BlackBerry 5G con Android en algún momento.
Hasta entonces, disfrute mirando hacia atrás en algunos de los modelos de
días pasados. Y si tiene alguno de los modelos que ejecutan el software
BlackBerry en lugar de Android, mirar hacia atrás es todo lo que hará a partir
del 4 de enero de 2022, los dispositivos BlackBerry heredados ya no
funcionarán.
Desarrollo de la mensajería web en Yahoo y Hotmail
Yahoo hizo a sus usuarios varios meses atrás de integrar su nuevo servicio de
correo web con su aplicación de mensajería instantánea. A partir de hoy,
Yahoo activará esta característica para los usuarios de la nueva versión de
Yahoo Mail, que está en fase beta, o test, aunque disponible para todos los
usuarios del servicio.

La nueva función alerta a los usuarios de la beta de Yahoo Mail si sus


contactos están registrados en yahoo Messenger y les da la opción de
comenzar una nueva sesión de chat de texto desde la misma interfaz de
correo. Si el usuario está escribiendo un mensaje de correo, pero prefiere
chatear, Yahoo Mail puede guardar el texto y pegarlo en la ventana de Chat
de texto. Además, ésta puede ser importada automáticamente a la forma de
un mensaje de correo

Esta integración con Yahoo Messenger es la primera de las varias que la


compañía planea para implementar en el servicio, ya que quiere que ofrezca
múltiples opciones de comunicaciones a sus usuarios, según John Kremer,
vicepresidente de Yahoo Mail si bien ha declinado confirmar planes futuros,
Kremer reconoce que tendría sentido que los usuarios del servicio iniciaran
conversaciones de voz y crearan links al servicio de red social de la compañía,
Yahoo 360. Otro desarrollo probable extendería la interoperabilidad de
Yahoo Messenger con Windows Live Messenger en Yahoo Mail Beta.

La versión beta, un servicio gratuito, ofrece varias mejoras con respecto a la


actual versión, incluyendo una interfaz más ágil basada en Ajax que funciona
como una aplicación de escritorio. La beta fue introducida en septiembre de
2005. A diferencia de servicios de correo web, permite a los usuarios
arrastrar y pegar mensajes en carpetas, proporciona un panel para
previsualizar el contenido de los mensajes y ofrece la capacidad de tener
múltiples ventanas de mensaje abiertas.
Aunque Microsoft ya ofrecía MSN Web Messenger, una versión de su cliente
de mensajería instantánea, el cual es posible usar desde el propio navegador,
hasta ahora no teníamos la posibilidad de integrar este con el cliente de
correo web, como ya hacen otros servicios como Gmail o Yahoo!.

Ahora Microsoft está empezando a activar esta opción, de forma que desde


Hotmail podamos conectarnos a MSN Messenger y hablar con nuestros
contactos. Para algunos usuarios en varios países, entre los que se encuentra
España, esto ya estaba disponible desde hacía poco y ahora acabarán de
implantarlo para el resto.

los usuarios de Hotmail estén interesados en usar mucho esta opción, pues la
mayoría de ellos optarán por el cliente de escritorio. De hecho, muchos de
los usuarios de Hotmail que conozco abren primero MSN Messenger y desde
allí acceden a la cuenta de correo. De todos modos, puede ser una opción útil
para aquellos que estén accediendo a su cuenta desde algún ordenador
donde el cliente de escritorio no esté instalado o no queramos usarlo.

También podría gustarte