Está en la página 1de 13

LUZ AMPARO GOMEZ PRADA

Taller 1er Corte Control Informática

1. Menciones las eras de los computadores y el gran avance de cada una?

Primera generación (1940-1956)


Estaban construidas con electrónica de válvulas. Se programaban en lenguaje de
la máquina. Un programa es un conjunto de instrucciones para que la máquina
efectué alguna tarea, y el lenguaje más simple en el que puede especificarse un
programa se llama lenguaje de máquina (porque el programa debe escribirse
mediante algún conjunto de códigos binarios). La primera generación de
computadoras y sus antecesores, se describen en la siguiente lista de los
principales modelos de que constó:
1946 ENIAC. Considerada a menudo como la primera computadora digital
electrónica en la historia. No fue un modelo de producción, sino una máquina
experimental. Tampoco era programable en el sentido actual. Se trataba de un
enorme aparato que ocupaba todo un sótano en la universidad. Construida con
18 000 tubos de vacío, consumía varios kW de potencia eléctrica y pesaba
algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue
hecha por un equipo de ingenieros y científicos encabezados por los
doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en
los Estados Unidos.
1949 EDVAC. Segunda computadora programable. También fue un prototipo de
laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las
computadoras actuales.
1951UNIVACI. Primera computadora comercial.
Los doctores Mauchly y Eckert fundaron la compañía Universal Computer
(Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del
Censo de Estados Unidos.
1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas
perforadas, que habían sido inventadas en los años de la revolución industrial
(finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por
el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una
larga serie de computadoras de esta compañía, que luego se convertiría en la
número uno, por su volumen de ventas.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de
almacenamiento masivo llamado tambor magnético, que con los años
evolucionaría y se convertiría en el disco magnético.
1955 - Zuse Z22. La primera computadora de Konrad Zuse aprovechando los
tubos del vacío. El procesador de la UNIVAC pesaba 30 toneladas y requería el
espacio completo de un salón de 20 por 40 pies.

Segunda generación (1956-1964)


La segunda generación de las computadoras reemplazó las válvulas de vacío por
los transistores. Por eso, las computadoras de la segunda generación son más
pequeñas y consumen menos electricidad que las de la anterior. La forma de
comunicación con estas nuevas computadoras es mediante lenguajes más
avanzados que el lenguaje de máquina, los cuales reciben el nombre de
“lenguajes de alto nivel" o "lenguajes de programación".
Las características más relevantes de las computadoras de la segunda generación
son:
Estaban hechas con la electrónica de transistores. Se programaban con lenguajes
de alto nivel.
1951: Maurice Wilkes inventa la microprogramación, que simplifica mucho el
desarrollo de las CPU pero esta microprogramación también fue cambiada más
tarde por el computador alemán Bastian Shuantiger.
1956: IBM vendió por un valor de 1 230 000 dólares su primer sistema de disco
magnético, el RAMAC (Random Access Method of Accounting and Control).
Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5
megabytes de datos, con un coste de 10 000 USD por megabyte. El primer
lenguaje de programación de propósito general de alto-nivel, FORTRAN, también
estaba desarrollándose en la empresa IBM alrededor de este tiempo. (El diseño de
lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en
ese momento).
1959: IBM envió el mainframe IBM 1401 basado en transistores, que utilizaba
tarjetas perforadas. Demostró ser una computadora de propósito general y se
vendieron 12 000 unidades, haciéndola la máquina más exitosa en la historia de la
computación. Tenía una memoria de núcleo magnético de 4000 caracteres
(después se extendió a 16 000 caracteres). Muchos aspectos de sus diseños
estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que
eran muy usadas desde los años 1920 hasta principios de la década de 1970.
1960: la empresa IBM lanzó el mainframe IBM 1620 basada en transistores,
originalmente con solo una cinta de papel perforado, pero pronto se actualizó a
tarjetas perforadas. Probó ser una computadora científica popular y se vendieron
aproximadamente 2000 unidades. Utilizaba una memoria de núcleo magnético de
más de 60 000 dígitos decimales.
1962: Se desarrolla el primer juego de ordenador, llamado Spacewar!. DEC lanzó
el PDP-1, su primera máquina orientada al uso por personal técnico en
laboratorios y para la investigación.
1964: la empresa IBM anunció la serie 360, que fue la primera familia de
computadoras que podía correr el mismo software en diferentes combinaciones de
velocidad, capacidad y precio. También abrió el uso comercial de microprogramas,
y un juego de instrucciones extendidas para procesar muchos tipos de datos, no
solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a
este tiempo tenía dos líneas separadas, una línea de productos “comerciales” y
una línea “científica”. El software proporcionado con el System/350 también
incluyó mayores avances, incluyendo multiprogramación disponible
comercialmente, nuevos lenguajes de programación, e independencia de
programas de dispositivos de entrada/salida. Más de 14 000 unidades del
System/360 habían sido entregadas en 1968.

Tercera generación (1965-1971)


Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al
mismo tiempo que se aumentaba la capacidad de procesamiento y se reducía el
tamaño de las máquinas. La tercera generación de computadoras emergió con el
desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles
de componentes electrónicos en una integración en miniatura. El -8 de la Digital
fue el primer y fue propagado en los comercios. A finales de los años 1950 se
produjo la invención del circuito integrado o chip, por parte de Jack S.
Kilby y Robert Noyce. Después llevó a la invención del microprocesador, en la
formación de 1960, investigadores como en el formaban un código, otra forma de
codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y
otros componentes electrónicos en un solo chip o encapsulado, que contenía en
su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica.
Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar
aparatos complicados: receptores de radio o televisión y computadoras.
En 1964, anunció el primer grupo de máquinas construidas con circuitos
integrados, que recibió el nombre de "serie".
Estas computadoras de tercera generación sustituyeron totalmente a los de
segunda, introduciendo una nueva forma de programar que aún se mantiene en
las grandes computadoras actuales.
Las características de la tercera generación son:

 Menor consumo de energía eléctrica.


 Aumento de fiabilidad y flexibilidad.
 Teleproceso.
 Multiprogramación.
 Renovación de periféricos.
 Minicomputadoras, no tan costosas y con gran capacidad de
procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11.
 Se pudo calcular π (número Pi) con 500 mil decimales.
Cuarta generación
Fase caracterizada por la integración sobre los componentes electrónicos, lo que
propició la aparición del microprocesador un único circuito integrado en el que se
reúnen los elementos básicos de la máquina. Se desarrolló el "chip".
Se colocan más circuitos dentro de un "chip”. Cada "chip" puede hacer diferentes
tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de
aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros
"chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips"
de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales
o PC. Se desarrollan las supercomputadoras. La denominada Cuarta Generación
(1971 a 1983) es el producto del micro miniaturización de los circuitos
electrónicos. El tamaño reducido del microprocesador de chips hizo posible la
creación de las computadoras personales (PC). Hoy en día las tecnologías LSI
(Integración a gran escala) y VLSI (Integración a muy gran escala) permiten que
cientos de miles de componentes electrónicos se almacenen en un chip. Usando
VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una
computadora de la primera generación que ocupaba un cuarto completo. Hicieron
su gran debut las microcomputadoras.
Hizo que sea una computadora ideal para uso “personal”, de ahí que el término
“PC” se estandarizara y los clones que sacaron posteriormente otras empresas
fueron llamados “PC y compatibles”, usando procesadores del mismo tipo que las
IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.
Existen otros tipos de microcomputadoras, como la Macintosh, que no son
compatibles con la IBM, pero que en muchos de los casos se les llaman también
“PC”, por ser de uso personal. El primer microprocesador fue el Intel 4004,
producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba
revolucionario para su época. Contenía 2300 transistores en un microprocesador
de 4 bits que sólo podía realizar 60 000 operaciones por segundo.

Quinta generación (1983-1999)


Surge a partir de los avances tecnológicos que se encontraron. Se crea entonces
la computadora portátil o laptop tal cual la conocemos en la actualidad. IBM
presenta su primera laptop o computadora portátil y revoluciona el sector
informativo. En vista de la acelerada marcha de la microelectrónica, la sociedad
industrial se ha dado a la tarea de poner también a esa altura el desarrollo
del software y los sistemas con los que se manejaban las computadoras. Estas
son la base de las computadoras modernas de hoy en día. La quinta generación
de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth
Generation Computer Systems) fue un ambicioso proyecto hecho por Japón a
finales de la década de los 80. Su objetivo era el desarrollo de una nueva clase de
computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto
en el plano del hardware como del software, 1 usando el lenguaje PROLOG2 3 4
al nivel del lenguaje de máquina y serían capaces de resolver problemas
complejos, como la traducción automática de una lengua natural a otra (del
japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y
prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical
Inferences Per Second) capaz de realizar durante la ejecución de las distintas
tareas programadas. Para su desarrollo se emplearon diferentes tipos de
arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las
computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien
es imposible llevar a cabo una paralización del mismo, o una vez llevado a cabo
ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una
pérdida de rendimiento. Hay que tener claro que para realizar un programa
paralelo debemos, para empezar, identificar dentro del mismo partes que puedan
ser ejecutadas por separado en distintos procesadores. Además las demás
generaciones casi ya no se usan, es importante señalar que un programa que se
ejecuta de manera secuencial, debe recibir numerosas modificaciones para que
pueda ser ejecutado de manera paralela, es decir, primero sería interesante
estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora
del rendimiento de la tarea después de paralelizarla.

2. A quien se le considera como el padre de la informática y por qué?


Alan Mathison Turing, (Paddington, Londres, 23 de junio de 1912-
Wilmslow, Cheshire, 7 de junio de 1954),es considerado uno de los padres de
la ciencia de la computación y precursor de la informática moderna, por que
proporcionó una influyente formalización de los conceptos de algoritmo y
computación: la máquina de Turing. Formuló su propia versión que hoy es
ampliamente aceptada como la tesis de Church-Turing (1936).
Durante la segunda guerra mundial, trabajó en descifrar los códigos nazis,
particularmente los de la máquina Enigma, y durante un tiempo fue el director de
la sección Naval Enigma de Bletchley Park. Se ha estimado que su trabajo acortó
la duración de esa guerra entre dos y cuatro años. 6 Tras la guerra, diseñó uno de
los primeros computadores electrónicos programables digitales en el Laboratorio
Nacional de Física del Reino Unido y poco tiempo después construyó otra de las
primeras máquinas en la Universidad de Mánchester.
3. Como se creó la internet y cuál fue la red que la origino?
La historia de internet se remonta al temprano desarrollo de las redes de
comunicación. La idea de una red de ordenadores creada para permitir la
comunicación general entre usuarios de varias computadoras sea tanto
desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente
y los sistemas de telecomunicaciones. La primera descripción documentada
acerca de las interacciones sociales que podrían ser propiciadas a través
del networking (trabajo en red) está contenida en una serie
de memorandos escritos por J. C. R. Licklider, del Massachusetts Institute of
Technology, en agosto de 1962, en los cuales Licklider discute sobre su concepto
de Galactic Network (Red Galáctica)
Las más antiguas versiones de estas ideas aparecieron a finales de los años
cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de
los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que
reconoceríamos como las bases de la moderna Internet, empezaron a expandirse
por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que
se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red
mundial de computadoras que hoy conocemos como internet. Atravesó los países
occidentales e intentó una penetración en los países en desarrollo, creando un
acceso mundial a información y comunicación sin precedentes, pero también
una brecha digital en el acceso a esta nueva infraestructura. Internet también
alteró la economía del mundo entero, incluyendo las implicaciones económicas de
la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en
el método de la computadora central o unidad principal, que simplemente consistía
en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este
método se usaba en los años cincuenta por el Proyecto RAND para apoyar a
investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando
colaboraba a través de todo el continente con otros investigadores de Santa
Mónica (California) trabajando en demostración automática de
teoremas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J. C. R. Licklider,
comprendió la necesidad de una red mundial, según consta en su documento de
enero, 1960, «Man-Computer Symbiosis» («Simbiosis Hombre-Computadora»).
Una red de muchos [ordenadores], conectados mediante líneas de comunicación
de banda ancha" las cuales proporcionan "las funciones que existen hoy en día de
las bibliotecas junto con anticipados avances en el guardado y adquisición de
información y [otras] funciones simbióticas.
J. C. R Licklider2
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de
información ARPA, y empezó a formar un grupo informal dentro del DARPA
del Departamento de Defensa de los Estados Unidos para investigaciones sobre
ordenadores más avanzadas. Como parte del papel de la oficina de procesado de
información, se instalaron tres terminales de redes: una para la System
Development Corporation en Santa Mónica, otra para el Proyecto Genie en
la Universidad de California (Berkeley) y otra para el proyecto Multics en
el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se
haría evidente por los problemas que esto causó.
Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos
de usuario. Por tanto, si estaba hablando en red con alguien en la SDC y quería
hablar con alguien que conocía en Berkeley o en el MIT sobre esto, tenía que irme
de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar
con él.
Como principal problema en lo que se refiere a las interconexiones está el
conectar diferentes redes físicas para formar una sola red lógica. Durante la
década de 1960, varios grupos trabajaron en el concepto de la conmutación de
paquetes. Un paquete es un grupo de información que consta de dos partes: los
datos propiamente dichos y la información de control, en la que está especificado
la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el
límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se
fragmenta en otros paquetes. Normalmente se considera que Donald
Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard
Kleinrock (MIT) lo han inventado simultáneamente.
Los inicios de Internet nos remontan a los años 60. En plena guerra fría, Estados
Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético
caso de un ataque ruso, se pudiera tener acceso a la información militar desde
cualquier punto del país. Esta red se creó en 1969 y se llamó ARPANET. En
principio, la red contaba con 4 ordenadores distribuidos entre distintas
universidades del país, Dos años después, ya contaba con unos 40 ordenadores
conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se
quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se
convirtió en el estándar de comunicaciones dentro de las redes informáticas
(actualmente seguimos utilizando dicho protocolo).
ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines
académicos o de investigación podía tener acceso a la red. Las funciones militares
se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por
los Estados Unidos. La NSF (National Science Fundation) crea su propia red
informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así
una gran red con propósitos científicos y académicos. El desarrollo de las redes
fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a
NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.
En 1985 Internet ya era una tecnología establecida, aunque conocida por unos
pocos. El autor William Gibson hizo una revelación: el término «ciberespacio». En
ese tiempo la red era básicamente textual, así que el autor se basó en los
videojuegos. Con el tiempo la palabra «ciberespacio» terminó por ser sinónimo de
Internet. El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con
alrededor de 100 000 servidores.
En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee
dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos.
Berners Lee retomó la idea de Ted Nelson (un proyecto llamado «Xanadú») de
usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuenta que en
1990 deciden ponerle un nombre al sistema y lo llamaron World Wide Web
(WWW) o telaraña mundial.
La nueva fórmula permitía vincular información en forma lógica y a través de las
redes. El contenido se programaba en un lenguaje de hipertexto con «etiquetas»
que asignaban una función a cada parte del contenido. Luego, un programa de
computación, un intérprete, era capaz de leer esas etiquetas para despeglar la
información. Ese intérprete sería conocido como «navegador» o «browser».
En 1993 Marc Andreesen produjo la primera versión del navegador «Mosaic», que
permitió acceder con mayor naturalidad a la WWW. La interfaz gráfica iba más allá
de lo previsto y la facilidad con la que podía manejarse el programa abría la red a
los legos. Poco después, Andreesen encabezó la creación del programa
Netscape.
A partir de entonces, Internet comenzó a crecer más rápido que otro medio de
comunicación, convirtiéndose en lo que hoy todos conocemos.
Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso
remoto a otras máquinas (SSH y telnet entre otras), transferencia de archivos
(FTP), correo electrónico (SMTP), conversaciones en línea (IMSN MESSENGER,
ICQ, YIM, AOL, jabber), transmisión de archivos (P2P, P2M, descarga directa),
etc.
Podemos definir a Internet como una «red de redes», es decir, una red que no
sólo interconecta computadoras, sino que interconecta redes de computadoras
entre sí. Una red de computadoras es un conjunto de máquinas que se comunican
a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas
telefónicas, etc.) con el objeto de compartir recursos.
De esta manera, Internet sirve de enlace entre redes más pequeñas y permite
ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la
característica de que utiliza un lenguaje común que garantiza la intercomunicación
de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el
lenguaje que utilizan las computadoras al compartir recursos) se conoce como
TCP/IP.
Así pues, Internet es la «red de redes» que utiliza TCP/IP como su protocolo de
comunicación.
El TCP/IP es la base de Internet que sirve para enlazar computadoras que utilizan
diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras
centrales sobre redes de área local y área extensa. TCP/IP fue desarrollado y
demostrado por primera vez en 1972 por el departamento de defensa de los
Estados Unidos, ejecutándolo en ARPANET, una red de área extensa del
departamento de defensa.
4. Convertir 40000 KB en Gb
0,32 gb
5. ¿Que son las redes sociales, ¿Menciones las tres redes sociales más
importantes, y quienes son sus fundadores?
Las redes sociales son estructuras formadas en Internet por personas u
organizaciones que se conectan a partir de intereses o valores comunes. A través de
ellas, se crean relaciones entre individuos o empresas de forma rápida, sin jerarquía o
límites físicos.
Las redes sociales, en el mundo virtual, son sitios y aplicaciones que operan en
niveles diversos – como el profesional, de relación, entre otros – pero siempre
permitiendo el intercambio de información entre personas y/o empresas.

Redes sociales.

 FACEBOOK

Mark Zuckerberg, creador de Facebook, esta red social tiene mas de 2.000
millones de usuarios en todo el mundo, y más de la mitad de ellos la utiliza a
diario.
Sorprendente el dato ¿no? Y más sorprendente es que el 87% de los usuarios la
utiliza desde el celular. Sin dudas Facebook es el líder indiscutible de las redes
sociales con más usuarios del mundo.

 WHATSAPP

Fue fundada en 2009 por Jan Koum y Brian Acton, hoy es propiedad


de Facebook quien la compró en 2014 por 19.000 millones de dólares, Jan
Koum actualmente es el CEO de WhatsApp y Director General en Facebook, Inc.
Whatsapp tiene más de mil millones de usuarios activos y en constante
crecimiento.

 YOUTUBE

Fue fundado por Chad Hurley, Steve Chen y Jawed Karim en febrero de 2005
en San Bruno, California.

Es el sitio web de videos más usado en internet. Según proyecciones para 2019
se estima que el 80% del tráfico de internet va a ser video, por lo
cual Youtube seguirá teniendo cada vez más importancia.

6. Menciones 5 dispositivos de entrada y 5 de salida?


Dispositivos de Entrada:
 Ratón.
 Escáner.
 Teclado.
 Webcam.
 Micrófono.
Dispositivos de Salida:
 Monitor.
 Impresoras.
 Plotter
 Microfilm COM
 Altavoces. 

7. Diferencias entre hardware y software?

Hardware Software
Definición Los dispositivos físicos que Colección de códigos y/o programas
componen o son accesorios de la que sirven de instrucciones en la
computadora. computadora.
Tipos Equipo Central: tarjeta madre Software de encendido
(motherboard). Software de control
Equipos periféricos: teclado, Software de aplicaciones
monitor o pantalla, Software de comunicación
Software embebido
Interacció Se necesita al menos un software Todos los softwares utilizan al menos
n para que el usuario pueda manejar un componente del hardware.
el hardware.
Función Estructura física que permite la Realizar tareas específicas.
interacción del usuario con el
computador.
Ejemplos Teclado, pantalla, impresora, ratón, Aplicaciones: Microsoft Word, Open
lector de barras. Office, Photoshop.
Sistema operativo: Linux, MacOS,
Windows, Android.
Navegador o browser de Internet:
Explorer, Safari, Firefox, Google
Chrome.

8. Convertir 100 PB en MB
107374182400 Megabytes
9. Mencione las diferencias de las memorias RAM y ROM
MEMORIA RAM MEMORIA ROM
La memoria RAM (memoria de acceso La memoria ROM (memoria de solo
aleatorio por sus siglas en inglés) es la lectura por sus siglas en inglés) es la
que utilizan los programas para guardar memoria que no se puede modificar
temporalmente los resultados de sus en un ordenador de una manera tan
procesos. Existen algunos tipos de sencilla (como es el caso de la RAM) y
memoria RAM, entre los que se aquí se guarda (por lo regular) el
encuentran SDR, DDR, DDR2, DDR3 y firmware de los dispositivos que
RDRam. conforman el ordenador.

La Memoria RAM es la que todos La Memoria ROM nace por esta


conocemos, pues es la memoria de necesidad, con la característica
acceso aleatorio o directo; es decir, el principal de ser una memoria de sólo
tiempo de acceso a una celda de la lectura, y por lo tanto, permanente que
memoria no depende de la ubicación sólo permite la lectura del usuario y no
física de la misma (se tarda el mismo puede ser reescrita.
tiempo en acceder a cualquier celda
dentro de la memoria). Son llamadas Por esta característica, la Memoria
también memorias temporales o ROM se utiliza para la gestión del
memorias de lectura y escritura. proceso de arranque, el chequeo inicial
del sistema, carga del sistema
En este tipo particular de Memoria es operativo y diversas rutinas de control
posible leer y escribir a voluntad. La de dispositivos de entrada/salida que
Memoria RAM está destinada a contener suelen ser las tareas encargadas a los
los programas cambiantes del usuario y programas grabados en la Memoria
los datos que se vayan necesitando ROM. Estos programas (utilidades)
durante la ejecución y reutilizable, y su forman la llamada Bios del Sistema.
inconveniente radica en la volatilidad al
contratarse el suministro de corriente; si La Memoria ROM como caso
se pierde la alimentación eléctrica, la contrario, sólo puede leer y es la
información presente en la memoria memoria que se usa para el Bios del
Sistema
también se pierde.
Por este motivo, surge la necesidad de
una memoria que permanentemente,
guarde los archivos y programas del
usuario que son necesarios para
mantener el buen funcionamiento del
sistema que en se ejecute en la misma.

La Memoria RAM puede leer/escribir


sobre sí misma por lo que, es la
memoria que utilizamos para los
programas y aplicaciones que utilizamos
día a día.

10. Elegir una noticia importante de tecnología de la última semana, y en un


párrafo de 10 renglones mínimo decir con sus propias palabras la opinión
respecto al tema, dar su punto de vista.
Cómo se deben preparar las plataformas tecnológicas ante días sin IVA
Expertos en comercio electrónico aseguran que empresas deben prevenir
‘tsunamis digitales’.

En el primer día sin IVA se reportaron seis millones de transacciones electrónicas


y un tráfico de comercio virtual de 100 mil personas por hora.

Los días libres de IVA se han convertido en un gran desafío para Colombia, no
solo para el Gobierno Nacional y las autoridades locales en materia de salud y
orden público, también para las empresas en comercio electrónico.

Durante la jornada del primer día sin IVA, de acuerdo con la DIAN, las ventas a
través de plataformas electrónicas incrementaron un 800 por ciento respecto al
año anterior. De hecho, Fenalco informó que el 19 de junio se reportaron seis
millones de transacciones electrónicas y un tráfico de comercio virtual de 100 mil
personas por hora.

Sin embargo, la jornada estuvo marcada por largas 'filas virtuales'. Decenas de
consumidores expresaron sus inconformidades por esperas hasta de una
hora, compras incompletas por inestabilidad del servicio y páginas de internet de
algunos comercios colapsadas.

Esa situación se prevé aún más compleja para las jornadas de este viernes 03 de
julio y la que viene para el 19 de julio, pues recientemente el Gobierno Nacional
hizo un llamado a gobernantes y alcaldes para que se suspenda la venta
presencial de electrodomésticos, computadores y equipos de
comunicaciones durante las jornadas sin IVA.

Expertos en comercio electrónico aseguran que las empresas deben comenzar a


prepararse en fechas de ‘tsunamis digitales’ para evitar una alta demanda versus
una baja disponibilidad para satisfacer las necesidades de los usuarios. En ese
sentido, concuerdan, el principal paso para lograr resultados importantes es
invertir en herramientas como las API ('Application Programming Interface') para
satisfacer las altas demandas durante estas jornadas especiales.

Las API permiten la integración y el intercambio de información en tiempo real de


un software con otro. Con estrategias de APIs sólidas, las empresas pueden
prepararse para estos escenarios especiales, evitando el tiempo de inactividad,
garantizando escalabilidad y creando las bases para nuevas experiencias digitales
como chatbots, VR, aplicaciones móviles, integraciones con servicios de entrega,
entre otros.

OPINION

Considero que las compras en plataformas virtuales son muy buenas


especialmente en este tiempo de pandemia, pues evita que se presenten posibles
contagios, además de hacer largas filas para poder pagar una compra, además
que facilita los pagos virtuales, poder leer detenidamente las características de un
artículo, hacer comparaciones en varias plataformas antes de efectuar la compra.

Sin embargo las empresas no estaban preparadas para esta gran jornada y las
plataformas colapsaron lo que ocasionaron inconformismos en algunos usuarios,
ya que el tráfico de cibernautas colapso algunas páginas e imposibilito poder
terminar sus compras.

Por eso sería muy útil que las empresas mejoren sus plataformas virtuales y para
futuras jornadas y no solo para este tipo de programas si no también, que hoy en
día la mayoría de las personas optar por comprar todo en línea.

También podría gustarte