Está en la página 1de 10

NOCIONES BASICAS DE INFORMATICA

1. 1. Conjunto de instrucciones que una vez ejecutadas realizaran una o varias tareas en
una computadora.Al conjunto general de programasse le denomina: software
2. 2.  Las instrucciones que se escribieron en un lenguaje de programación se ha
traducido al único idioma que la máquina comprende (combinaciones de ceros y unos)
llamado “Código de máquina.”
3. 3.  . Los sistemas operativos modernos pueden correr varios programas a través
delMULTITAREA planificador de procesos — unMUCHOS PROGRAMAS PUEDEN
mecanismo de software paraCORRER SIMULTÁNEAMENTE conmutar con frecuencia
laEN UNA MISMACOMPUTADORA cantidad de procesos del procesador de modo
que los usuarios puedan interactuar con cada programa mientras estos están
corriendo.  También se puede lograr la multitarea por medio del hardware; las
computadoras modernas que usan variosESTO SE LOGRA MEDIANTE
ELHARDWARE O EL SOFTWARE, procesadores o procesadoresSEGÚN SEA EL
CASO. con varios núcleos pueden correr muchos programas a la vez.
4. 4.  El programa es cargado a la memoria de acceso o RAM, bajo el control del
software llamado SISTEMAALMACENAMIENTO OPERATIVO, el cual puede
accederTípicamente los programas directamente al PROCESADOR.se almacenan en
una  El procesador ejecuta (corre) elmemoria no volátil. programa, instrucción por
instrucción, hasta que finaliza.  A un programa en ejecución se le puede denominar
PROCESO.Luego el usuario de lacomputadora solicita suejecución.
5. 5. La Programación es el proceso de diseñar, codificar, depurar y mantener el código
fuente de programas computacionales. El código fuente es escrito en un lenguaje de
programación. El propósito de la programación es crear programas que exhiban un
comportamiento deseado. El proceso de escribir código requiere frecuentemente
conocimientos en varias áreasdistintas, además del dominio del lenguaje a utilizar,
algoritmos especializados y lógica formal.
6. 6.  Los primeros científicos que trabajaban en el áreaDISEÑO decidieron reemplazar
las instrucciones, secuencias dePara diseñar un unos y ceros, por palabras
oprograma, y que letras provenientes del inglés;la computadora codificándolas así y
creandointerprete y un lenguaje de mayor nivel, que se conoce comoejecute las
Assembly o lenguajeinstrucciones ensamblador. Una vez que seescritas en él, termina
de escribir undebe usarse un programa es necesarioLenguaje de compilarlo, es
decir,programación. traducirlo a lenguaje máquina.
7. 7.  Bajo esta premisa, y en el extremo, el lenguaje másPROGRAMACIÓN potente
existente es elLa programación se rige binario, con ambigüedadpor reglas y un
conjunto nula .más o menos reducidode órdenes, expresiones,instrucciones
ycomandos que tienden aasemejarse a una lenguanatural acotada (eninglés); y que
ademástienen la particularidadde una reducidaambigüedad.
8. 8.  El proceso de creación de software, desde el punto de vista de la ingeniería,
incluye los siguientes pasos: Reconocer la necesidad de un programa para
solucionar un problema o identificar la posibilidad de automatización de una tarea.
Recoger los requisitos del programa. Debe quedar claro qué es lo que debe hacer el
programa y para qué se necesita. Realizar el análisis de los requisitos del programa.
Debe quedar claro cómo debe realizar el programa las cosas que debe hacer. Las
pruebas que comprueben la validez del programa se pueden especificar en esta
fase. Diseñar la arquitectura del programa. Se debe descomponer el programa en
partes de complejidad abordable. Implementar el programa. Consiste en realizar un
diseño detallado, especificando completamente todo el funcionamiento del programa,
tras lo cual la codificación (programación propiamente dicha) debería resultar
inmediata. Implantar (instalar) el programa. Consiste en poner el programa en
funcionamiento junto con los componentes que pueda necesitar (bases de datos,
redes de comunicaciones, etc.).
9. 9.  En inglés se le conoce como debugging, es que se asemeja aDEPURACION la
eliminación de bichosEs el proceso de (bugs), manera en que seidentificar y conoce
informalmente a loscorregir errores errores de programación. Se dice que el término
bugde programación. proviene de la época de los ordenadores de válvula termoiónica,
en los cuales los problemas se generaban por los insectos que eran atraídos por las
luces y estropeaban el equipo.

CIBERNETICA

La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. En


otras palabras, es la ciencia que estudia los flujos de energía estrechamente vinculados a
la teoría de control y a la teoría de sistemas.1 Tanto en sus orígenes como en su evolución, en
la segunda mitad del siglo XX, la cibernética es igualmente aplicable a los sistemas físicos y
sociales. Los sistemas complejos afectan su ambiente externo y luego se adaptan a él. En
términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos
externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha
imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentación y
sus conceptos derivados.
La cibernética, según el epistemólogo, antropólogo, cibernetista y padre de la terapia
familiar, Gregory Bateson, es la rama de las matemáticas que se encarga de los problemas de
control, recursividad e información. Bateson también afirma que la cibernética es "el más
grande mordisco a la fruta del árbol del conocimiento que la humanidad haya dado en los
últimos 2000 años".2
Stafford Beer, filósofo de la teoría organizacional y gerencial, de quien el propio Wiener dijo
que debía ser considerado como el padre de la cibernética de gestión, define a la cibernética
como “la ciencia de la organización efectiva”.
Según el profesor Stafford Beer, la cibernética estudia los flujos de información que rodean un
sistema, y la forma en que esta información es usada por el sistema como un valor que le
permite controlarse a sí mismo: ocurre tanto para sistemas animados como inanimados
indiferentemente. La cibernética es una ciencia interdisciplinar, y está tan ligada a la física
como al estudio del cerebro como al estudio de los computadores, y tiene también mucho que
ver con los lenguajes formales de la ciencia, proporcionando herramientas con las cuales
describir de manera objetiva el comportamiento de todos estos sistemas.
El propio Stafford Beer afirmó: "Probablemente la primera y más clara visión dentro de la
naturaleza del control fue que este no trata de tirar de palancas para producir unos resultados
deseados e inexorables. Esta noción del control se aplica solo a máquinas triviales."
Nunca se aplica un sistema total que incluye cualquier clase de elemento probabilístico -
desde la meteorología, hasta las personas; desde los mercados, a la política económica-. La
característica de un sistema no-trivial que está bajo control es que a pesar de tratar con
variables demasiado extensas para cuantificar, demasiado inciertas para ser expresadas, e
incluso demasiado difíciles de comprender, algo puede ser hecho para generar un objetivo
predecible.
ORIGEN DE LA CIBERNETICA

La cibernética es una ciencia nacida hacia 1942 e impulsada inicialmente por Norbert Wiener
y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y
en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema
del control y la comunicación en general”. Sin embargo, cabe aclarar que se puede tomar
como inicio de esta disciplina en el año 1940 con las investigaciones de Norbert Wiener
y Vannevar Bush sobre las máquinas de cálculo y sobre redes eléctricas con Yuk Wing Lee.
Aunque el término no será acuñado hasta 1947. En 1950, Ben Laposky, un matemático de
Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se
considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el
despertar de lo que habría de ser denominado computer graphics y, luego, computer art e
infoarte. También, durante la década del cincuenta, William Ross Ashby propone teorías
relacionadas con la inteligencia artificial.
La cibernética dio gran impulso a la teoría de la información a mediados de los 60; el
computador digital sustituyó al analógico en la elaboración de imágenes electrónicas. En esos
años aparece la segunda generación de computadores (con transistores en 1960)
concretándose por entonces los primeros dibujos y gráficos de computador, y la tercera
(con circuitos integrados, en 1964) así como los lenguajes de programación.
En 1965 tuvo lugar en Stuttgart la exposición ”Computer-graphik”. Pero la muestra que
consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en
el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición
“Mindextenders” del Museum of Contemporary Crafts de Londres.
En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año,
en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada
por Jorge Glusberg. Con esta muestra se inaugurarían los principios de la relación arte/imagen
digital en ese país. En España la primera manifestación fue la de “Formas
computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas
por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el
Instituto Alemán de Madrid y de Barcelona presentaron una de las muestras más completas
que ha tenido lugar en España, titulada<Impulso arte computador>
Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994. Es
importante aclarar que ya por los 1960 existían algunas antecedentes. De todas formas se
puede establecer que las primeras experiencias donde la tecnología informática puesta al
servicio de la comunidad funcionó como soporte estético trascurren por aquellos años y rompe
con la idea de lectura lineal de la obra.

ETIMOLOGIA DE LA CIBERNETICA

Norbert Wiener encontró justo la palabra que quería en la operación de los grandes barcos de
la antigua Grecia. En el mar, los grandes barcos batallaban contra la lluvia, el viento y
las mareas; cuestiones de ninguna forma predecibles. Sin embargo, si el hombre, operando
sobre el timón, podía mantener su mirada sobre un lejano faro, podría manipular la caña del
timón, ajustándola constantemente en tiempo real, hasta alcanzar la luz. Esta es la función
del timonel. En los tiempos rudos de Homero la palabra griega para designar al timonel
era kybernetes, que Wiener tradujo al Inglés como cybernetics, en español cibernética."
INFORMATICA

La informática1, también llamada computación,2 es una ciencia que administra métodos,


técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en
formato digital.
De esta manera, la informática se refiere al procesamiento automático de
información mediante dispositivos electrónicos y sistemas computacionales. Los
sistemas informáticos deben contar con la capacidad de cumplir tres tareas
básicas: entrada (captación de la información), procesamiento y salida (transmisión de los
resultados). El conjunto de estas tres tareas se conoce como algoritmo.
No existe una definición consensuada sobre el término. Sin embargo, la Asociación de
Docentes de Informática y Computación de la República Argentina han tomado una posición,
definiéndola de la siguiente manera:
"La Informática es la disciplina o campo de estudio que abarca el conjunto de conocimientos,
métodos y técnicas referentes al tratamiento automático de la información, junto con sus
teorías y aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e
información en formato digital utilizando sistemas computacionales. Los datos son la materia
prima para que, mediante su proceso, se obtenga como resultado información. Para ello, la
informática crea y/o emplea sistemas de procesamiento de datos, que incluyen medios físicos
(hardware) en interacción con medios lógicos (software) y las personas que los programan y/o
los usan (humanware).3"
Es por lo que se hace distinción entre este término y las ciencias de la computación, puesto
que el segundo engloba la parte más teórica mientras que informática se refiere a la
aplicabilidad de esta anterior en datos usando dispositivos electrónicos. De hecho se definen
cinco subdisciplinas del campo de la informática: ciencias de la computación, ingeniería
informática, sistemas de información, tecnología de la información e ingeniería de software.4
La informática, que se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX
con la aparición de tecnologías como el circuito integrado, el Internet y el teléfono móvil,5 es la
rama de la tecnología que estudia el tratamiento automático de la información.67
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un
documento denominado Informatik: Automatische Informationsverarbeitung (Informática:
procesamiento automático de información).8 El soviético Alexander Ivanovich Mikhailov fue el
primero en utilizar Informatik con el significado de «estudio, organización, y diseminación de la
información científica», que sigue siendo su significado en dicha lengua.8 En inglés, la
palabra informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer,
en 1962, cuando Bauer cofundó la empresa Informatics General, Inc.
ORIGEN DE LA INFORMATICA

La disciplina de la informática es anterior a la creación de las computadoras. Ya en la


antigüedad se conocían métodos para realizar cálculos matemáticos, por ejemplo el algoritmo
de Euclides. En el siglo XVII comenzaron a inventarse máquinas calculadoras. En el siglo XIX
se desarrollaron las primeras máquinas programables, es decir, que el usuario podría
modificar la secuencia de acciones a realizar.

Carcasa del procesador LGA775 de Intel, con la tarjeta madre, el ventilador del procesador, la
alimentación eléctrica, y la memoria.

En los inicios del procesamiento automático de la información, con la informática solo se


facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de
esos procesos trajo como consecuencia directa una disminución de los costes y un incremento
en la productividad. En la informática convergen los fundamentos de las ciencias de la
computación, la programación y también las metodologías para el desarrollo de software,
la arquitectura de las computadoras, las redes de computadores, la inteligencia artificial y
ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la
unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y
variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de
negocios, almacenamiento y consulta de información, monitorización y control
de procesos, industria, robótica, comunicaciones, control de transportes, investigación,
desarrollo de juegos, diseño computarizado,
aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeni
ería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa)
como permitir el control de procesos críticos. Actualmente, es difícil concebir un área que no
use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de
funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos
más complejos. Entre las funciones principales de la informática se enumeran las siguientes:

 Creación de nuevas especificaciones de trabajo.


 Desarrollo e implementación de sistemas informáticos.
 Sistematización de procesos.
 Optimización de los métodos y sistemas informáticos existentes.
 Facilitar la automatización de datos y formatos.
ETIMOLOGIA DE LA INFORMATICA

El vocablo informática proviene del francés informatique, acuñado por el ingeniero Philippe
Dreyfus para su empresa «Société d'Informatique Appliquée» en 1962. Pronto adaptaciones
locales del término aparecieron en italiano, español, rumano, portugués y holandés, entre
otras lenguas, refiriéndose a la aplicación de las computadoras para almacenar y procesar
la información.

Es un acrónimo de las palabras information y automatique (información automática). En lo


que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y
máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para apoyar
y potenciar su capacidad de memoria, de pensamiento y de comunicación.

GENERALIDADES DE LA COMPUTACION

Las ciencias de la computación o ciencias computacionales son aquellas que abarcan las bases teóricas
de la información y la computación, así como su aplicación en sistemas computacionales.1 2 3 El cuerpo
de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio
sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis,
diseño, eficiencia, implementación y aplicación.

Es el estudio sistemático de la factibilidad, estructura, expresión y mecanización de procedimientos


metódicos (o algoritmos) que subyacen en la adquisición, representación, procesamiento,
almacenamiento, comunicación y acceso a la información si dicha información está codificada en forma
de bits en una memoria de computadora o especificada en una estructura de genes y proteínas en una
célula biológica.

Existen diversos campos o disciplinas dentro de las ciencias de la computación o ciencias


computacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por
computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con
propiedades de los algoritmos usados al realizar cómputo y otros se enfocan en los problemas que
requieren la implementación de sistemas computacionales. Por ejemplo, los estudios de la teoría de
lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica
lenguajes de programación específicos para desarrollar una solución a un problema computacional
específico. Un científico de la computación se especializa en teoría de la computación y el diseño e
implementación de sistemas de computacionales.

El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una
sumadora mecánica. Siglo y medio después, el filósofo y matemático francés
Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le
llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que
Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un
desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor
humana para los cálculos artiméticos.
Otro de los inventos mecánicos fue la máquina de Gottfried Wilhelm von Leibniz (1646 - 1716)
de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los
engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de
las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un
automóvil.
La primera computadora fue la máquina analítica creada por Charles
Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que
tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las
tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico
lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para
efectuar sumas repetidas.
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que
podía reproducir automáticamente patrones de tejidos leyendo la información codificada en
patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de
este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la
máquina analítica que se pudiera programar con tarjetas perforadas para efectuar
cualquier cálculocon una precisión de 20 dígitos. La tecnología de la época no bastaba para
hacer realidad sus ideas.

En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo


encabezado por Howard H. Aiken. Esta máquina no está considerada como
computadora electrónica debido a que no era de propósito general y su funcionamiento estaba
basado en dispositivos electromecánicos llamados relevadores.
Una antigua patente de un dispositivo que mucha genté creyó que era la primera computadora
digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dió
el credito a John V. Atanasoff como el inventor de la computador a digital electrónica. El Dr.
Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora
digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-
Berry, ó solo ABC (Atanasoff Berry Com puter). Un estudiante graduado, Clifford Berry,fue una
útil ayuda en la construcción de la computadora ABC.
Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber
inventado la computadora, sino que fue el esfuezo de muchas personas. Sin embargo en el
antiguo edificio de Física de la Universidad de Iowa aparece una p laca con la siguiente
leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue
construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la
Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante
graduado de física."
Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que
describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly
colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calculara tablas de
trayectoria para el ejército estadounidense. El producto final, una computadora electrónica
completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic
Numerical Integrator And Computer), ó Integrador numérico y calculador electrónico. La
ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses
por un equipo de científicos que trabajan bajo reloj.
PARTES DE UNA COMPUTADORA

La computadora es, por mucho, una de las invenciones que más beneficios
le han dado a la humanidad. Su enorme capacidad para procesar datos la
convierten en una parte fundamental en el desarrollo de la ciencia.

¡Te invitamos a leer las partes de la computadora actualizado al 2019!

Pero… ¿qué es lo que hace posible que esta poderosa máquina electrónica
funcione? El hardware en combinación con el software hacen que esto sea
posible. El hardware de una computadora se refiere a todos
esos elementos que son tangibles en una computadora, mientras que el
software son aquellos programas, instrucciones y reglas informáticas que
hacen posible la ejecución de tareas específicas en un ordenador.

Este artículo se enfocará más en los dispositivos de hardware que son


“indispensables” para el correcto funcionamiento de una computadora, los
cuales son:

 Teclado
 Unidad Central de Proceso (CPU, por sus siglas en ingles)
 Monitor
 Ratón (Mouse)
 Disquetera (Floppy)
 CD-ROM

 El teclado
 Es el dispositivo que le brinda la posibilidad al usuario introducir
datos para que después puedan ser interpretados y procesados por
la CPU. El aspecto de un teclado de ordenador es bastante similar al
de una máquina de escribir y actualmente su clasificación está
conformada de la siguiente manera: teclado XT, teclado AT, teclado
expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico.
 Cabe destacar que en la mayoría de los sistemas
operativos modernos se pueden utilizar teclados virtuales (en
pantalla ó monitor) que pueden ser operados con el ratón,
brindándole la posibilidad al usuario de simular el funcionamiento de
un teclado real.
Comúnmente conocido como microprocesador, es el encargado de procesar
los datos contenidos en los programas e interpretar las instrucciones del
usuario. La evolución de la tecnología en este rubro ha sido tan grande que
actualmente existen microprocesadores con doble núcleo que,
básicamente son dos procesadores en uno mismo, lo que les permite
aumentar considerablemente la capacidad de procesamiento de datos de
una forma más rápida.
A pesar de que la definición de CPU en los últimos años ha sido bastante
clara, comúnmente se le llama CPU a todo el «cuadro» en donde están
ensamblados todos los componentes y tarjetas (memoria RAM, tarjeta de
video, tarjeta de sonido, tarjeta madre, etc.) de una computadora.

MONITOR
Es el dispositivo que, por medio de una interfaz, permite al usuario
poder visualizar los datos previamente procesados por el CPU. La unidad
mínima que se puede representar en un monitor es denominada Píxel, que
se puede definir como cada uno de los puntos que conforman una imagen
digital. Actualmente lo último en tecnología son los monitores de cristal
líquido (LCD, por sus siglas en ingles).
RATON
En informática, un mouse ó ratón es el dispositivo que, al igual que el
teclado, permite enviarle instrucciones a una computadora mientras este
interactúa con una interfaz gráfica. Hoy en día es un dispositivo
imprescindible en un ordenar, pero, se prevé que en un futuro no muy lejano
este dispositivo desaparezca, dejándole esta tarea a los ojos humanos.
DISQUERA
Es la unidad en donde se lleva a cabo la lectura de los discos flexibles ó
disquetes, un medio de almacenamiento de datos. En la actualidad, la
mayoría de las computadoras de reciente modelo ya ni siquiera toman en
cuenta a este dispositivo. ¿Por qué? La poca confiabilidad en estos
dispositivos fue una de las primordiales razones. Y la verdad es que los
disquetes están desde hace tiempo, quieran o no, obsoletos.
CD-ROM
Disco Compacto de Memoria de Sólo Lectura (CD-ROM, por sus siglas en
ingles) es un sistema de almacenamiento masivo que permite el
almacenamiento de 680 Mb. Al referirse a “sólo lectura”, quiere decir que
solo se puede grabar en este medio una sola vez. Los fabricantes de
ordenadores, de la misma manera que le paso a las disqueteras, están
tomando la decisión de omitir en sus equipos la integración de los lectores
de CD para dejarle el camino libre al DVD del cual probablemente hablemos
de el más adelante.

Se podría decir que estos son los dispositivos de hardware más


indispensables para que una computadora funcione (sin olvidarnos de
las memorias RAM, la tarjeta madre y otros elementos un poco más
técnicos). Pero existe una gran cantidad de dispositivos de hardware que
facilitan la tareas día a día a los diferentes tipos usuarios que existen. Al
avanzar la tecnología a pasos tan agigantados, que no nos sorprenda que,
en unos años, algunos de estos dispositivos se consideren obsoletos.

También podría gustarte