Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Informática es una compleja disciplina que puede considerarse como una de las grandes
culminaciones de la Humanidad y cuyas posibilidades aún no se han agotado. Sus aplicaciones
en el campo de la genética han culminado en la codificación del genoma humano y, en su
fusión con la Biología, la Bioinformática posee un potencial extraordinario que facilita el
descubrir las funciones de las proteínas y que permite la extracción de información de grandes
bases de datos para correlacionar secuencias de ADN a una velocidad inusitada.
El origen de la informática se sitúa en la segunda mitad del siglo XX, aunque la primera
generación de computadoras se desarrolló entre 1951 y 1958, las cuales funcionaban con
válvulas, cilindros magnéticos e instrucciones internas. Eran ordenadores que funcionaban
muy lentamente, eran muy grandes y generaban mucho calor. Pero con el paso de los años la
evolución de la informática no ha dejado de mejorar gracias a las nuevas tecnologías, sobre
todo teniendo en cuenta el circuito integrado, el móvil e Internet.
Las Válvulas
1) Su gran tamaño.
Ambos efecto serán debidos al gran tamaño de las válvulas con las que estaban
construidos y a que éstas necesitaban consumir una gran cantidad de energía para
alimentarse, generando una enorme cantidad de calor. Las válvulas de vacío surgieron a
principios del siglo XX, cuando en 1907 Lee De Forest inventó la primera válvula electrónica
(triodo) al intentar perfeccionar los receptores telegráficos existentes en la época. La
posibilidad de la válvula electrónica de asumir dos estados posibles fue la base fundamental
sobre la que se implantó el código binario (0,1) y las modernas computadoras digitales.
En1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de J.
Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de Moore en
Pennsylvania; ENIAC fuela primera computadora de válvulas electrónicas construida, entró en
funcionamiento en 1945 y fue dada de baja en 1955. En ese momento aún permanecía
operativa.
Hasta hace poco tiempo ha existido una polémica entre Mauchly y J. Atanasoff debido
a que el primero visitó a este cuando Atanasoff estaba trabajando en un prototipo de
computadora en su laboratorio de la Universidad de Iowa. Atanasoff manifestó que Mauchly
se basó en su computadora para construir posteriormente la ENIAC. En el verano de 1995
parece que, finalmente, se ha confirmado este hecho y el mérito del diseño de la primera
computadora moderna corresponde a Atanasoff.
1941 el Z3, creada por Konrad Zuse, fue la primera máquina programable y completamente
automática, características usadas para definir a un computador.
El Z3, de tecnología electromecánica, estaba construido con 2300 relés, tenía una frecuencia
de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran realizados con
aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el 12 de
mayo de ese mismo año fue presentada a una audiencia de científicos en Berlín).
1944 ENIAC. Considerada hasta hace unos años como la primera computadora digital
electrónica en la historia.[3] No fue un modelo de producción, sino una máquina experimental.
Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba
todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios kW
de potencia eléctrica y pesaba 30 toneladas. Era capaz de efectuar cinco mil sumas por
segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores
John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos.
1945 el Z4 fue completado, rediseñado completamente tras perderse los planos y piezas de las
anteriores Z durante los bombardeos aliados de Berlín. Fue la primera máquina en ser vendida
comercialmente en 1950, diseñada por el ingeniero alemán Konrad Zuse y construida por su
compañía Zuse KG entre 1941 y 1945, fue entregada a ETH Zürich en Suiza en septiembre de
1950.
El invento del transistor hizo posible una nueva generación de computadoras, más rápidas,
más pequeñas y con menores necesidades de ventilación.
A partir del invento de los Transistores, fue en 1958 que Jack Kilby y Robert Noycea, de la
Texas Instrument, inventaron los circuitos integrados, que eran un conjunto de transistores
interconectados con resistencias, dentro de un solo chip. Fue a partir de este hecho que las
computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo ya que
la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial.
A pesar de que podía ejecutar 100 billones de operaciones por día, no cumple con las
predicciones de los ingenieros de la IBM, lo cual obliga a Thomas Watson Jr. A reducir el precio
a casi la mitad. Sin embargo, muchas de sus innovaciones formarían parte de la exitosa serie
IBM 360.
1962, IBM presenta su modelo 1311 usando los primeros discos remobibles y que por
muchísimos años se convertirían en un estándar de la industria de la computación. La
portabilidad de la información empezó a ser posible gracias a esta nueva tecnología, la cual fue
empleada por los otros líderes del hardware, tales como Digital Equipment, Control Data y la
NEC de Japón, entre otros grandes fabricantes de computadoras.
Cada paquete de discos (disk pack) podía guardar mas de 2 millones de caracteres de
información, (2 Megabytes de ahora), lo cual promovió la generación de lenguajes de
programación y sus respectivas aplicaciones, ya que los usuarios podían intercambiar los
paquetes de discos con facilidad. Por primera vez en la historia la IBM reporta ganancias
anuales de 1 billón de dólares.
IBM 1401:
El IBM 1401 fue todo un bombazo, no era la panacea en términos de velocidad, pero era un
ordenador compacto. La sustitución de los tubos de vacío por transistores dio lugar a una
máquina más pequeña y más duradera que, además, las empresas podían comprar o alquilar
(un negocio que IBM ya había probado con éxito con modelos anteriores, desde el IBM 650).
El IBM 1401 salió al mercado en 1959. Funcionaba con un sistema de tarjetas perforadas a
través de las cuales se introducían los datos. Era fácil de programar en comparación con otros
ordenadores de la época. La empresa había avanzado notablemente en términos de usabilidad
y había lanzado un software más accesible.
Honeywell 800:
Anunciado en 1958, Honeywell lanzó al mercado su H-800 en 1960. Incluía 6.000 transistores
en un sistema básico que se podía complementar con periféricos adicionales y bancos de
memoria extra, además de una opción multiprograma que, básicamente, permitía el
funcionamiento simultáneo de varios programas distintos, cada uno con sus propios registros.
IBM 1620:
“Un equipo científico económico”. Así anunciaba IBM su 1620 allá por octubre del 59. En esta
serie también se sustituyeron las válvulas por transistores y, como el 1401, empleaba un
sistema de tarjetas perforadas (inicialmente, fueron cintas perforadas, pero, poco después de
su lanzamiento, se pasó a las tarjetas). Su memoria de núcleo magnético que abarcaba más de
60.000 dígitos decimales.
PDP-1
Digital Equipment Corporation (DEC) fue una empresa estadounidense que se especializó en
computadoras de tamaño reducido. Fundada en 1957, en los 80 fue una de las compañías
líderes en fabricación y venta de ordenadores a nivel mundial. Y se estrenó en la segunda
generación de computadoras, con su PDP-1 (Programmed Data Processor 1), un diseño de Ben
Gurley que se empezó a producir en 1960.
4) Teleproceso
5) Multiprogramación
6) Renovación de periféricos
También en 1964 la empresa Control Data Corporation, presentó el CDC 6600, que se
consideró el computador más poderoso de la época, ya que podía ejecutar unos 3.000.000 de
instrucciones por segundo.
PDP-11 fue una computadora fabricada por la empresa Digital Equipment Corp. En las décadas
de 1970 y 1980, perteneciente a la serie PDP. Fue la primera minicomputadora en
interconectar todos los elementos del sistema — procesador, memoria y periférico — a un
único bus de comunicación, bidireccional, asíncrono. Este dispositivo, llamado UNIBUS
permitía a los dispositivos enviar, recibir o intercambiar datos sin necesidad de dar un paso
intermedio por la memoria.
El circuito integrado o chip fue un invento de Robert Noyce y Jack S. Kilby, dos científicos que,
en paralelo, consiguieron integrar todos los componentes de los circuitos integrados en una
única pieza. Ahí nació la microelectrónica, que, llevada a las computadoras, dio paso a la
tercera generación, a mediados de los años 60.
Ese chip inicial continuó su desarrollo. La carrera tecnológica se alargó durante la segunda
mitad de los 60, también en el campo de la microelectrónica, donde se consiguió integrar más
circuitos dentro de un mismo chip. En definitiva, se crearon circuitos integrados que podían
hacer más tareas. Entre otras cosas, pudieron reemplazar a la antigua memoria de anillos
magnéticos de las computadoras que había hasta entonces.
Es en esta fase cuando empezamos a hablar de LSI y VLSI (Large Scale Integration Circuit y Very
Large Scale Integration Circuit, respectivamente), es decir, de las tecnologías que hacen posible
que un solo chip almacene múltiples componentes.
Kenbak-1 Con las compañías sumidas en la carrera tecnológica, es difícil establecer cuál fue el
primer ordenador personal de la historia. El Computer History Museum asegura que el título lo
ostenta el Kenbak.1, de John V. Blankenbaker. Fue el primero pero no el más conocido, porque
tenía limitaciones importantes. El Apple Computer y el PC de IBM vinieron después.
El Kenbak-1 se creó en 1970 y se comenzó a vender a principios del año siguiente. Aunque era
un ordenador personal, se puede decir que estaba en el límite entre la tercera y la cuarta
generación, ya que no incluía microprocesador.
Apple I y II A mediados de los años 70, Steve Wozniak ‘Woz’ diseñó un ordenador que era,
literalmente, para uso personal. Y entonces un amigo suyo llamado Steve Jobs propuso que lo
comercializara. Y así se vendió el primer producto del que hoy es el gigante Apple, en el verano
de 1976.
En primavera de 1977, los amigos habían vendido en torno a 200 unidades del Apple I,
fabricadas a mano y a un precio de 666,66 dólares, el número no es casual, al menos no del
todo. A Woz le gustaban los números repetidos y además, vendieron el primero a 500 dólares,
así que decidieron aumentar un tercio su valor pensando en el margen de beneficios.
Gracias a los beneficios que obtuvieron con aquel modelo, Woz y Jobs pudieron trabajar en
una nueva versión, mucho más profesional, ambiciosa y completa.
En junio de 1977, la empresa sacó al mercado el Apple II, el ordenador con el que dieron el
verdadero golpe en la mesa de la industria tecnológica de la época. Su precio era de 1.298
dólares, tenía 4 KB de memoria RAM y con él se iniciaron en la venta masiva de computadoras.
Se vendió como “una computadora extraordinaria para gente ordinaria.
El Personal Electronic Transactor (PET) fue el primer ordenador personal de Commodore. Salió
al mercado en enero de 1977, solo unos meses antes que el TRS-80, en dos versiones, con
RAM de 4K y de 8K. Más tarde, saldría también la opción con 16K. Por un tema de
competencia, esta serie llegó a Europa con el nombre de Commodore Business Machines
(CBM).
La empresa fue adaptando sus productos al mercado, reduciendo costes para incrementar su
accesibilidad. En junio del 80 lanzó su VIC-20, un ordenador de uso doméstico de menos de
300 dólares, lo nunca visto hasta el momento. Su capacidad no era comparable a la de otras
máquinas coetáneas, pero había el papel en los hogares.
Ya al límite con la quinta generación, en agosto del 81, IBM convocó a la prensa en el Waldorf
Astoria de Nueva York con motivo del lanzamiento de su primer Personal Computer (PC), el
5150. Costaba algo más de 1.500 dólares (1.565, para ser exactos) y tenía una memoria de 16
KB que se podía ampliar hasta los 256 KB por medio de tarjetas.
La nueva máquina de IBM, la 5150, podía hacer cosas como conectarse a la televisión de casa,
soportar videojuegos o procesar texto. Entre otras cosas, incluía monitor con gráficos en color
y una impresora que imprimía 80 caracteres por segundo. Se hizo tan popular que la gente
empezó a llamar PC a los ordenadores domésticos a raíz de esta nueva línea de IBM. Algo así
como cuando pides un Kleenex en lugar de un pañuelo.
PIM (Parallel Inference Machine). En 1987, se contó con el uso de estos microprocesadores y
una memoria la cual se expandió a través de los años en los que se trabajó en el proyecto,
desde el PIM/p: 512microprocesadores RISC con 256 MB de memoria hasta el PIM/k: 16
microprocesadores RISC con 1 GB de memoria.
Interacción constante con los servicios de internet, conexión inalámbrica con dispositivos y 5G:
el internet de las cosas y el aumento en el tráfico de red y operaciones realizadas en la web
hace necesario un dispositivo capacitado para el análisis y aprovechamiento de esta red.
Implemento de inteligencia artificial: A pesar de estar en una etapa temprana, se espera crear
ordenadores inteligentes basados en redes neuronales artificiales (o cerebro artificial).
La sexta generación de computadoras, tiene como aspecto principal, que los ordenadores
serán capaces de interactuar física y psicológicamente con las personas, además de
implementar actividades cognitivas como ver, oír, hablar, pensar y ser capaces de llegar a
conclusiones para resolver problemas, como los humanos.
La incorporación del WiFi como método de conexión inalámbrica para que nuestros
ordenadores (y después otros aparatos) se pudiesen conectar a la red sin hacer uso de cables.
La tecnología se comienza a idear en el año 1999 y ve la luz en el 2000.
Así, aparecen también en el 2000, las tabletas para satisfacer las necesidades de los usuarios
que venían utilizando las PDAs en años anteriores y que buscaban aparatos más cómodos y
versátiles.
Tableta
Una tableta es un dispositivo móvil que incluye software y hardware suficiente para trabajar
como un computador pero cuyo tamaño es reducido y su forma consiste en un rectángulo de
mínimo grosor y entre 7 y 12 pulgadas de diagonal. Se trata de una pantalla táctil (funciona
con estilete o con los propios dedos) que nos permite interactuar con los elementos instalados
(juegos, suites de ofimática, navegadores, etc).
En 1972 A. Kay desarrollaba el concepto de las Dynabook, aunque no conseguía llevarlo a cabo
por la imposibilidad de desarrollar tecnologías adecuadas. En 1987 Apple presenta un vídeo de
un aparato similar, pero totalmente futurista.
Es el año 2001 el que nos deja ver la primera tableta como tal, venida de la mano de Microsoft.
En los meses siguientes, Nokia hacía lo propio. Nuevamente Microsoft lanza Mira, que pasa a
llamarse Tablet PC poco tiempo después y que era un conjunto de aparatos-pantalla sin
teclado.
Generalmente se señalan seis generaciones que abarcan grandes periodos de la segunda mitad
del siglo XX, no obstante, diversas fuentes señalan lapsos más específicos, llegando a
mencionar, incluso, una séptima generación. Sin embargo, para efectos de estandarización
hablaremos hasta la sexta generación de computadoras.
Tema 2
Al abrir la unidad central del sistema se puede aprecia una serie de componentes:
-Placa principal.
-Bus.
-Memoria principal.
La unidad de control es la parte de la CPU que realmente hace que las cosas ocurran.
Emite señales de control (ordenes) externas a la CPU para producir el intercambio de datos
con la memoria y los módulos de E/S. También emite señales de control internas para
transferir datos entre registros, hacer que la ALU ejecute una función concreta y regular otras
operaciones internas. Es la unidad que extrae y analiza las instrucciones de la memoria central.
Para ello necesita dos registros:
1. Contador de Programas (CP): Es un registro del procesador que indica la posición
donde está el procesador en su secuencia de instrucciones.
Normalmente, la ALU tiene acceso directo de entrada y salida al controlador del procesador, la
memoria principal (memoria de acceso aleatorio o RAM en una computadora personal) y
dispositivos de entrada salida. Las entradas y salidas fluyen a lo largo de una ruta electrónica
que se llama bus.
Registro.
Tipos de RAM: DRAM, FPM, EDO, SDRAM, PC100, VRAM, ECC, BEDO, PC133, DIMMS, SIMMS,
SGRAM, WRAN.
Fallas "Hard fails": son daños en el hardware, por tanto, son fáciles de detectar.
Errores "Soft errors": provocados fortuitamente, debido a esto, son más difíciles de encontrar.
Memoria de caché
Es uno de los recursos con los que cuenta una CPU (Unidad Central de Procesamiento)
para almacenar temporalmente datos recientemente procesados en una memoria auxiliar. Se
trata de lo que se conoce como una memoria estática de acceso aleatorio (SRAM) muy rápida y
colocada cerca de la CPU. Así, pese a su pequeño tamaño, la memoria caché opera con mayor
velocidad, dotando al microprocesador de un tiempo extra para acceder a los datos que se
usan con más frecuencia.
•Caché de disco: Se trata de utilizar una porción de memoria RAM asociada a un disco
particular.
•Caché de pista: Es un tipo de memoria caché sólida (similar a la RAM), que se emplea en
supercomputadores.
•Caché de web: Es la memoria caché que se ocupa de guardar los datos de las páginas web
que hemos visitado de manera reciente.
Buses
Por cada una de las cuales se transporta un bit de información. El número de líneas
que forman los buses (ancho del bus) es fundamental: Si un bus está compuesto por 16 líneas,
podrá enviar 16 bits al mismo tiempo.Los buses interconexionan toda la circuitería interna. Es
decir, los distintos subsistemas del ordenador intercambian datos gracias a ellos. Son casi
todos esos caminos que se ven en la tarjeta madre.
Por cada línea se pueden trasmitir señales que representan unos y ceros, en secuencia, de a
una señal por unidad de tiempo. Si se desea por ejemplo transmitir 1 byte, se deberán mandar
8 señales, una detrás de otra, en consecuencia se tardaría 8 unidades de tiempo. Para poder
transmitir 1 byte en 1 sola unidad de tiempo tendríamos que usar 8 líneas al mismo tiempo.
Existen varios tipos de buses que realizan la tarea de interconexión entre las distintas partes
del computador, al bus que comunica al procesador, memoria y E/S se lo denomina bus del
sistema.
Bus de direcciones
Algunas computadoras tienen conexiones directas desde el bus de direcciones del procesador
y otros dispositivos del sistema a la memoria principal.
Bus de datos
Existen distintos tipos de buses. El bus de direcciones, por ejemplo, vincula el bloque de
control de la CPU para colocar datos durante procesos de cómputo. El bus de control, por otro
lado, transporta datos respecto de las operaciones que se encuentra realizando el CPU. El bus
de datos propiamente dicho, transporta información entre dispositivos de hardware como
teclado, mouse, impresora, monitor y también de almacenamiento como el disco duro o
memorias móviles.
Bus de control
Se obtiene multiplicando la frecuencia del reloj del bus del punto norte del chips (FSB)
por un multiplicador interno dado por el modelo del microprocesador esta frecuencia ayuda a
determinar el número de instrucciones que puede ejecutar el microprocesador en un segundo
entre mayor es la frecuencia mayor es el número de instrucciones por segundo que puede
ejecutar. Identifique dos funciones principales del reloj del sistema Para sincronizar las
diversas operaciones que realiza los diferentes subcomponentes del sistema informático Para
saber la hora.
Es una tarjeta, normalmente conectada a un puerto PCI, que nos permite dotar a
nuestro PC de algún elemento de que carece.
Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de
unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivo de módem
interno.
Las tarjetas suelen ser de tipo Peripheral Component Interconnect (PCI), PCI-Express o
Accelerated Graphics Port (AGP). No se fabrican las placas de tipo Industry Standard
Architecture (ISA), ni Video Electronics Standards Association VESA.
Gracias los avances en la tecnología Universal Serial Bus (USB) y a la integración de audio,
video o red en la placa base, las placas de expansión ahora son menos imprescindibles para
tener una computadora completamente funcional.
son componentes que tienen como función principal expandir las funciones o servicios de una
computadora. En la Actualidad se clasifican por el tipo de sócalo o slot en donde se insertan,
esto quiere decir, que existen tarjetas de expansión tipo ISA, PCI PCI Express, CNR y AGP.
Todos los dispositivos periféricos, tanto internos como externos necesitan valerse de
algún medio para comunicarse entre ellos y las computadoras. Algunas veces les llaman
controladores, interfaces, puertos o adaptadores.
Básicamente un controlador es un traductor entre la CPU y el dispositivo periférico como
discos duros, disquete, teclado o monitor. Los controladores ejecutan las siguientes funciones.
Adecuan las velocidades entre los dispositivos que operan a diferentes velocidades.
Este tipo de tarjetas de expansión son también llamadas Tarjetas Gráficas. Las tarjetas
gráficas van a proporcionar diferentes clases de calidad en la información que el sistema
informático va a poder mostrar en su pantalla.
Un sistema de adquisición de datos multicanal de alta velocidad no sería de utilidad para una
computadora personal utilizada para la contabilidad, pero podría ser una parte clave de un
sistema utilizado para el control de procesos industriales. Las tarjetas de expansión a menudo
se pueden instalar o quitar en el campo, lo que permite un grado de personalización del
usuario para fines particulares. Algunas tarjetas de expansión adoptan la forma de "placas
secundarias" que se conectan a conectores en una placa del sistema de soporte.
Los conductores permiten que el sistema operativo de su computadora para interactuar con
diferentes dispositivos. Donde los autobuses del sistema proporcionan una conexión de
hardware entre los componentes, los conductores actúan como intermediarios en el nivel de
software. Por ejemplo, si se conecta una cámara USB en su ordenador, el sistema operativo
controla la cámara a través de un controlador que "sabe" cómo operar esa cámara en
particular.
Tema 3
Tipos de computadoras
Es cualquier sistema cuyas señales se representan con valores continuos, es decir, que
admite números o valores infinitos.
La principal diferencia entre sistema digital y sistema analógico radica en que el primero es
mucho más preciso y la información se puede almacenar de manera más eficiente y en mayor
cantidad que en un sistema analógico.
*Ventajas
Instantaneidad.
Economía.
Fidelidad.
*Desventajas
Degradación de la señal.
Dificultades técnicas.
*Ventajas
Menor tamaño.
Eficiencia.
Precisión.
Diseño.
Estabilidad
Desventajas
Conversión.
Ancho de banda.
Alteración
Súpercomputadoras
Son equipos muy utilizados dentro del campo de la ciencia, sobre todo para realizar
simulaciones e investigaciones científicas que requieren grandes volúmenes de cálculo.
Aunque en la actualidad este término esté quedando rezagado por el de ordenadores de alto
desempeño o computadoras de alto desempeño, siempre es bueno conocer los conceptos
básicos del campo de la computación.
La predicción del clima, ya que se utiliza información que llega en tiempo real de diferentes
centrales de información y detección de clima alrededor del mundo, en búsqueda de patrones
que ayuden a predecir los cambios climáticos y evitar tragedias.
El estudio del universo, ya que al ser tan extenso y utilizar tantas variables a la vez se hace
imposible para equipos convencionales.
Simular efectos destructivos y peligrosos, como pruebas nucleares o situaciones de alto riesgo
que requieren alta potencia de trabajo.
mainframes
Los mainframes son servidores de datos diseñados para procesar hasta 1 billón de
transacciones web al día con los más altos niveles de seguridad y confiabilidad, en su esencia,
mainframes son computadoras de alto rendimiento con grandes cantidades de memoria y
procesadores que procesan miles de millones de cálculos y transacciones simples en tiempo
real. El mainframe es fundamental para las bases de datos comerciales, los servidores de
transacciones y las aplicaciones que requieren resiliencia, seguridad y agilidad.
Ejecutar sistemas operativos comunes como Linux®, así como sistemas operativos
especializados como z/OS®, junto con software que aprovecha las funcionalidades únicas del
hardware.
Admitir transacciones y rendimiento (E/S) simultáneos masivos con capacidad integrada bajo
demanda y memoria compartida integrada para la comunicación directa de aplicaciones.
Entregue los niveles más altos de seguridad con tarjetas criptográficas integradas y software
innovador. Los últimos sistemas IBM Z® pueden ejecutar hasta 1 billón de transacciones web
seguras por día y gestionar la privacidad por política.
Ofrecer resiliencia mediante múltiples capas de redundancia para cada componente (fuentes
de alimentación, enfriamiento, baterías de respaldo, CPU, componentes de E/S, módulos de
criptografía) y pruebas para condiciones climáticas extremas
Los mainframes actuales son mucho más pequeños que las primeras máquinas "Big Iron". Con
un bastidor estándar de 19", el mainframe más reciente coexiste a la perfección con otras
plataformas en el centro de datos. Un sistema de un servidor de IBM z15™ requiere un 75 por
ciento menos de espacio físico que los servidores x86 2U, que ejecutan las mismas cargas de
trabajo y rendimiento, y reduce el consumo de energía en un 40 por ciento.
Torrie McLaughlin
Alex Stuart
Meghan McGrath
Microcomputadoras
Básicamente, las microcomputadoras constituyen un sistema completo para uso personal, que
contiene además del microprocesador, una memoria y una serie de componentes de entrada y
salida de información.Finalmente, es importante aclarar que aunque las microcomputadoras
suelen confundirse con las computadoras personales, no son lo mismo. Podría más bien
decirse que las segundas forman parte de la clasificación general de las primeras.
Si quieres conocer más detalles al respecto, te invito a leer el artículo sobre los tipos de
computadoras que existen en la actualidad.
*Evolución
Desde la aparición de Alto, la cual contenía una pantalla de barrido de 875 líneas, un disco de
2,5 MB y una interfaz con una red Ethernet de 3 Mbits/s, la tecnología ha ido evolucionando,
tomando siempre en consideración los mejores aspectos de cada uno de los modelos que le
anteceden. Desde este punto de vista, se puede decir que el auge de las microcomputadoras
se debe principalmente al hecho de que su tecnología es más avanzada, en comparación con la
de las minicomputadoras y las supercomputadoras. Su diseño y construcción, lo que incluye
microprocesadores más potentes, chips de memoria y de almacenamiento más veloces y
capaces, se logra en ciclos más cortos. De esta forma le ganan tiempo a las generaciones de
otros tipos de computadoras.
Finalmente, se debe aclarar que como consecuencia de los avances tecnológicos, el término
microcomputador se encuentra en desuso, pues hoy en día la mayoría de las empresas
fabricantes incluyen microprocesadores en casi cualquier tipo de computadoras.
*Características
Así pues, el formato de instrucciones incluye un código de operación, a través del cual indica el
direccionamiento de cada operando, es decir, define a un bit de una instrucción, de los
diferentes elementos que la conforman.
Por su parte, las microoperaciones son las operaciones funcionales del microprocesador,
responsables del reordenamiento de las instrucciones y de la ejecución secuencial de un
programa.
Macrocomputadoras
A pesar de un uso intensivo del potente procesador que forma parte de su arquitectura, una
macrocomputadora se diferencia de un supercomputador en su función principal: un
supercomputador realiza complejos cálculos matemáticos, mientras que una
macrocomputadora se limita a gestión de datos y administración de tareas. Esto implica que
una macrocomputadora no está diseñada para realizar cómputos exhaustivos.
Capacidad de alojar y ejecutar varios sistemas operativos: puede mantener abiertas varias
computadoras virtuales y correr distintos sistemas operativos a la vez.
Capacidad de añadir o cambiar de clientes (usuarios que acceden desde una terminal) sin
interrupciones.
Pocos fabricantes: Debido a su elevado coste, solo unas pocas empresas se permiten
desarrollar este tipo de tecnología. Los principales desarrolladores son IBM, Hewlett-Packard
(HP), Fujitsu, Hitachi y NEC.
Son controlados a través de terminales: A diferencia de un ordenador convencional, no se
tiene acceso directo a una macrocomputadora, sino que se acceden a estos por medio de
terminales, es decir: a una macrocomputadora se accede de forma remota desde un
ordenador convencional, y se aprovecha desde allí su poder de procesamiento.
Minicomputadora
Podría decirse que las minicomputadoras son un tipo específico de computadora multiusuario,
ubicadas, en términos de proceso computacional, entre los grandes sistemas multiusuario del
tipo mainframe y las computadoras, estaciones de trabajo y sistemas de datos monousuario,
como nuestra propia PC.
Sin embargo, a pesar de estar emparentadas con los mainframes por capacidad, lo cierto es
que no ofrecen el mismo nivel de procesamiento. Nacen en la década de 1960 de la necesidad
de contar con un sistema de cómputo de bajo costo, comparándolo con un mainframe, y de
bajo mantenimiento, tanto de especialistas para operarlo como de técnico para repararlo.
Más adelante en este mismo post encontraremos información acerca de la historia de las
minicomputadoras
tecnología + informática
Las minicomputadoras, lejos de la imagen de pequeñez, son dispositivos mucho más grandes
que una computadora de escritorio, más cercanas en tamaño a pequeños mainframes, y son
utilizados para el manejo de grandes volúmenes de información, al igual que estos. Si quieres
saber todo acerca de las minicomputadoras, en este post encontraras toda la información que
necesitas.
todo-sobre-minicomputadoras- (1)
Índice de Contenidos
Ejemplos de minicomputadoras
Podría decirse que las minicomputadoras son un tipo específico de computadora multiusuario,
ubicadas, en términos de proceso computacional, entre los grandes sistemas multiusuario del
tipo mainframe y las computadoras, estaciones de trabajo y sistemas de datos monousuario,
como nuestra propia PC.
Sin embargo, a pesar de estar emparentadas con los mainframes por capacidad, lo cierto es
que no ofrecen el mismo nivel de procesamiento. Nacen en la década de 1960 de la necesidad
de contar con un sistema de cómputo de bajo costo, comparándolo con un mainframe, y de
bajo mantenimiento, tanto de especialistas para operarlo como de personal técnico para
repararlo. Más adelante en este mismo post encontraremos información acerca de la historia
de las minicomputadoras.
Las primeras minicomputadoras fueron desarrolladas por IBM en la década de 1960, con el
objetivo de poder ofrecer al usuario una computadora orientada a las aplicaciones y servicios
comerciales que requerían del gran poder de procesamiento y eficiencia de los mainframe,
pero a un costo mucho menor, al alcance de muchas compañías medianas que no contaban
con el presupuesto para poder adquirir y mantener una de aquellas bestias de cómputo que
ocupaban habitaciones enteras.
Un ejemplo claro del éxito de las minicomputadoras en el ámbito del comercio y la industria es
el de la minicomputadora PDP-8 (Programmed Data Processor – 8), desarrollada por DEC en
1965, la cual se extendió en más de 50.000 instalaciones.
Las minicomputadoras con el paso del tiempo y la tecnología se hicieron cada vez más
pequeñas y poderosas, hechos en los que la aparición en el mercado de circuitos integrados de
la Serie 7400 y las mejoras en el desarrollo de las memorias RAM tiene mucho que ver, lo que
permitió que las minicomputadoras comenzaran a utilizarse en campos como el diseño
industrial y otros ámbitos, por su costo y performance. El costo de una minicomputadora con
respecto a un mainframe era aproximadamente 10 veces menor, lo que también permitió que
organizaciones más pequeñas pudieran comprar, instalar y mantener sus propias
computadoras y no depender de terceros para ello.
Esta flexibilidad permite que las minicomputadoras sean utilizadas para investigación científica
y de ingeniería, el proceso de transacciones en el comercio y en la banca, la gestión de grandes
cantidades de archivos y administración de bases de datos.
✅Periféricos de entrada: Captan y digitalizan los datos introducidos por el usuario o por otro
dispositivo y los envían al ordenador para ser procesados. Los más conocidos son el teclado, el
ratón (mouse), escáner, cámara web, cámara digital, etc.
✅Raton: El ratón hace parte de los periféricos de tu equipo y es la parte del computador que
te permite interactuar con los objetos que aparecen en la pantalla, por medio de un cursor o
puntero que verás en el monitor.
Por lo general, el mouse o ratón tiene dos botones: el izquierdo te sirve para abrir, arrastrar,
seleccionar y ejecutar funciones. El derecho te permite acceder a funciones adicionales de los
comandos.
✅escaner:
Se le llama scanner al dispositivo de entrada que permite digitalizar imágenes, datos, señales y
otro tipo de información con el propósito de leerla y hacer uso de ella para diversos fines.
Uno de los más conocidos es el escáner de ordenador o computadora, el cual se emplea para
digitalizar imágenes y datos a partir de papeles, libros, fotografías, diapositivas y todo tipo de
objetos. Con un funcionamiento similar al de una fotocopiadora, el escáner se ocupa de "leer"
aquella información visible en el objeto con el fin de introducirla a un sistema informático para
su posterior uso. Por ejemplo, digitalizar fotografías tomadas con dispositivos analógicos para
modificarlas con programas de edición de imágenes.
✅Qué es el teclado:
El teclado es una de las principales herramientas que usamos para interactuar e introducir
datos en el computador. Sus teclas están clasificadas en 6 áreas. Veamos cuáles son:
*Teclas de función:
Es la primera línea de teclas y las encuentras en la parte superior del teclado. Se representan
como F1, F2, F3... y te sirven para realizar una función específica o para acceder a atajos de los
programas.
Teclas de control:
Se utilizan por sí solas o en combinación con números para acceder a funciones o realizar
determinadas acciones. Las más usadas son Ctrl, Alt, Esc y la tecla con el ícono de Windows (En
el caso de los computadores que cuentan con este sistema operativo). En los computadores
con sistema operativo macOS X un de las teclas más usadas es Command.
Aquí están todas las letras, números, símbolos y signos de puntuación. Estas teclas se
encuentran normalmente en una máquina de escribir.
Teclado numérico:
Sirve para ingresar datos numéricos de forma rápida. Las teclas y símbolos están agrupadas de
la misma forma como aparecen en las calculadoras.
Estas teclas son las que te sirven para desplazarte por documentos o páginas web y editar
algunos textos. Entre ellas están: Supr, Inicio, Fin, RePág, AvPág, ImpPt y las teclas de
dirección.
Con la tecla ImpPT, ubicada en el área de las teclas especiales, puedes hacer capturas de
pantalla y así mostrar o enviar a otros imágenes de lo que estás viendo en el monitor o
pantalla de tu computador
✅código de barras: El Código de Barras es una imagen que identifica a un producto de manera
estandarizada y única en todo el mundo; es un elemento imprescindible para que los
productos puedan estar en las tiendas y supermercados.
El Código está compuesto por unas barras claras y obscuras y ocasionalmente tiene dígitos
numéricos en la parte inferior.
Existe una gran variedad de Códigos de Barras. El más común es el EAN/UCC (EAN International
– Uniform Code Council), que se utiliza en los empaques de los productos que generalmente
están en los anaqueles de venta.
Imagen
✅tableta digitalizadora Una Tableta Gráfica o también llamada Tableta Digitalizadora, es un
dispositivo externo, que se conecta a una computadora mediante un cable USD o de forma
inalámbrica por medio de la tecnología del bluetooth y que permite mediante un bolígrafo o
lápiz dibujar directamente sobre la tableta viendo los resultados en el ordenador.
la tableta gráfica sirve para dibujar, pintar, tomar apuntes, efectuar modelados 3D y ser usada
para desplazarse en la pantalla como el ratón (mouse).
Su uso estaba enfocado a ilustradores, diseñadores o arquitectos, pero hoy en día sus precios
más bajos debido al avance de las tecnologías, han permitido que estos dispositivos estén al
alcance de todos, pudiendo encontrar en tiendas online modelos de tabletas graficas muy
económicas y con características bastante profesionales.
Tema 4
HARDWARE (periféricos).
Los dispositivos periféricos son en la actualidad muy variados, tan simples como un par
de audífonos o tan complejos como un disco duro de estado sólido; sin embargo, ¿qué son y
cómo se clasifican? Pfaffenberger (1990) ofrece una definición precisa al señalar que los
periféricos son aquellos dispositivos controlados por la computadora, pero externos a la
unidad central de procesamiento (CPU). Por su parte, Long (1999) asegura que un periférico es
un dispositivo de hardware que no sea el procesador central. Los dispositivos periféricos o
simplemente periféricos son herramientas de hardware que sirven como interface entre el
usuario y la computadora, y tienen la finalidad básica de satisfacer algún requerimiento, ya sea
introducir, obtener o almacenar información.
∙∙ Dispositivos de entrada: una de las definiciones más simples es la de Stanley (2010), quien
sostiene que un dispositivo de entrada es aquel que transmite información del mundo exterior
a la memoria de la computadora. Su característica más importante es que únicamente permite
introducir datos hacia la computadora. Por ejemplo, un teclado o un ratón son los dispositivos
de entrada más comunes para el usuario, pues a través de ellos es factible introducir
información a la computadora, ya sea al capturar texto, escribir instrucciones o seleccionar
objetos, presionar clics sobre los botones en pantalla, arrastrar imágenes, dibujar trazos, etc.
Otros ejemplos son el micrófono, el lector de código de barras (de uso común y extensivo en
los supermercados y tiendas departamentales), el lector de huella digital, el lector de
geometría de mano (ambos para control de acceso), el lápiz óptico, el lector de banda
magnética (para tarjetas de crédito, débito o de servicios), etc.
Discos flexibles.
La disquetera, unidad de disquete o unidad de disco flexible (FDD, del inglés Floppy Disk Drive)
es el dispositivo o unidad de almacenamiento que lee y escribe los disquetes, es decir, es la
unidad lectora/grabadora de disquetes.
Disco duro.
En informática, la unidad de disco duro o unidad de disco rígido (en inglés: hard disk
drive, HDD) es un dispositivo de almacenamiento de datos que emplea un sistema de
grabación magnética para almacenar y recuperar archivos digitales. Se compone de uno o más
platos o discos rígidos, recubiertos con material magnético y unidos por un mismo eje que gira
a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus
caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire
generada por la rotación de los discos.Permite el acceso aleatorio a los datos, lo que significa
que los bloques de datos se pueden almacenar o recuperar en cualquier orden y no solo de
forma secuencial. Las unidades de disco duro son un tipo de memoria no volátil, que retienen
los datos almacenados incluso cuando están apagados.
El primer disco duro fue inventado por IBM, en 1956.A lo largo de los años, han disminuido los
precios de los discos duros, al mismo tiempo que han multiplicado su capacidad, siendo la
principal opción de almacenamiento secundario para computadoras personales, desde su
aparición en los años 1960.Los discos duros han mantenido su posición dominante gracias a los
constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las
necesidades de almacenamiento secundario.
Discos ópticos.
Como todas las formas de los medios de almacenamiento, los discos ópticos se basan en la
tecnología digital. Cualquier tipo o morfología de la información (texto, imagen, audio, vídeo,
etc.) puede ser codificada en formato digital y almacenada en este tipo de soportes.
Una unidad de disco óptico usa rayos láser en lugar de imanes para leer y escribir la
información en la superficie del disco. Aunque no son tan rápidos como los discos duros, los
discos ópticos tienen mucho espacio para almacenar datos, son menos sensibles a las
fluctuaciones ambientales y proporcionan mayor almacenamiento a un costo menor. Su
primera aplicación comercial masiva fue el CD de música, que data de comienzos de la década
de 1980. Los discos ópticos varían su capacidad de almacenamiento, aunque hay de muchos
tipos, los más habituales son: CD de 700 MB, DVD de 4,7 GB y Blu-ray de 25 GB en una sola
capa. Tanto los discos ópticos como las unidades de discos ópticos, pueden ser de solo lectura
o de lectura y escritura.
El disco óptico admite datos tanto de tipo analógico como digital. Los estándares de
almacenamiento ópticos son regulados por la Optical Storage Technology Association.
Cintas magnéticas.
Hay diferentes tipos de cintas, tanto en sus medidas físicas como en su constitución química,
así como diferentes formatos de grabación, especializados en el tipo de información que se
quiere grabar.
La cinta magnética de audio dependiendo del equipo que la reproduce/graba recibe distintos
nombres:
Casete cuando es de formato compacto utilizada en pletina o walkman, aunque existen una
amplia gama de casetes destinados a audio, video y archivo de información.
La memoria USB (Universal Serial Bus), conocida también con los nombres locales:
lápiz de memoria, dedo, pincho, lápiz USB, memoria externa, pendrive, memocápsula,
memorín o llave maya,[1] es un tipo de dispositivo de almacenamiento de datos que utiliza
circuitos de estado sólido para guardar datos e información.
Visión general
Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica
procedentes del puerto USB. Estas memorias USB son resistentes a los rasguños (externos), al
polvo, y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento
portátil, como los disquetes, discos compactos y los DVD.
Su gran éxito y difusión les han supuesto diversas denominaciones populares relacionadas con
su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido
destacar entre todas ellas. El calificativo «USB» o el propio contexto permite identificar
fácilmente el dispositivo informático al que se refiere; aunque siendo un poco estrictos en
cuanto al concepto, USB únicamente se refiere al puerto de conexión pertinente.
Características.
Soporte.
Los sistemas operativos actuales pueden leer y escribir en las memorias USB sin más que
enchufarlas a un clavijero USB del equipo encendido, recibiendo la tensión de alimentación a
través del propio conector, de 5 voltios y un consumo de 2,5 W como máximo. En equipos
previos (como por ejemplo: los equipos con el Windows 98) se necesita instalar un controlador
proporcionado por el fabricante. Las diversas distribuciones GNU/Linux también tienen
soporte para estos dispositivos de almacenamiento desde la versión 2.4 del núcleo.
4. Impresoras.
La impresora es un objeto auxiliar, que está conectado a una unidad central de procesamiento
de una computadora, su función es hacer una copia de aquellos documentos que han sido
almacenados en un formato electrónico. Estos documentos pueden ser textos o imágenes que
están impresos en una hoja o transparencia utilizando cartuchos de tintas o tecnología láser.
La mayoría de las impresoras, están unidas a un ordenador por medio de un cable, aunque
también existen las de red, las cuales poseen una interfaz de red interna, que le permite a
cualquier usuario de la red imprimir documentos.
El mantenimiento de las impresoras matriciales puede ser un poco más complejo que el de
otras impresoras de tinta o láser. Se debe limpiar la zona del carro, que es la más utilizada para
este tipo de impresión. Este tipo de impresoras tienen un rodillo muy parecido al de las
máquinas de escribir, donde se acumulan los restos de tinta, que hay que retirar.
Impresoras de margarita.
Una impresora de margarita es un tipo de impresora que produce texto de alta calidad,
a veces conocida como impresora de calidad de carta (letter-quality printer) – en contraste con
las impresoras matriciales de alta calidad, que imprimen con “casi calidad de carta” (near letter
quality, NLQ). Había también, y aún existen, máquinas de escribir basadas en el mismo
principio.
Esta impresora recibe su nombre debido a que el dispositivo que contiene los caracteres se
asemeja a una flor de margarita. Los caracteres se encuentran en la orilla de cada uno de los
“pétalos”, que son sacados de posición a través del martinete que lo golpea sobre la cinta
entintada, para que quede plasmado en la hoja. Estas impresoras están en desuso ya que solo
imprimen textos y únicamente se puede cambiar la fuente si se cambia el disco. Su velocidad
va de 50 hasta 200 caracteres por segundo. En general no son capaces de producir gráficos; sin
embargo, con la configuración adecuada, es posible generar una imagen imprimiendo de a un
punto por vez; algunos modelos podían lograr una resolución de 120 ppp. Horizontal por 48
ppp. Vertical.
Impresoras de bola.
Los caracteres están ubicados en una esfera, de tal manera que para la impresión de
cada carácter se sigue un proceso muy similar al de la impresora de margarita.
Contiene todos los caracteres en una esfera que gira sobre un soporte móvil hasta colocar el
carácter frente a la cinta y golpearla para imprimir el carácter en el papel.
Impresoras de aguja.
Estas impresoras, también denominadas de matriz de puntos, son las más utilizadas
con microordenadores y pequeños sistemas informáticos. Los caracteres se forman por medio
de una matriz de agujas. Las agujas golpean la cinta entintada, trasfiriéndose al papel los
puntos correspondientes a las agujas disparadas.
Los caracteres, por tanto, son punteados, siendo su calidad muy inferior a los caracteres
continuos producidos por una impresora de margarita. No obstante, algunos modelos de
impresoras matriciales, presentan la posibilidad de realizar escritos en semicalidad de
impresión. Para ello, los caracteres se reescriben con los puntos ligeramente desplazados,
solapándose los de la segunda impresión con los de la primera, dando una mayor apariencia de
continuidad.
Son impresoras de calidad de impresión, sin embargo son relativamente lentas. Los caracteres
se encuentran modelados en la parte más ancha (más externa) de los sectores (pétalos) de una
rueda metálica o de plástico en forma de margarita.
La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de margarita
del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contra la
cinta, escribiéndose el carácter sobre el papel. El juego de caracteres se puede cambiar
fácilmente sin más que sustituir la margarita.
Impresoras térmicas.
Una impresora térmica es un equipo que utiliza calor como medio para producir la
imagen o el texto en papel, por lo que no se necesita tinta o tóner. Sin embargo, sí requiere de
un papel térmico que permita la impresión. Debido a la calidad de su impresión y su velocidad,
se ha vuelto cada vez más popular y se utiliza, principalmente, en supermercados, aerolíneas,
entretenimiento, servicios de inspección técnica o atención médica.
Impresoras láser.
Una impresora láser es una máquina que utiliza la tecnología láser para imprimir
imágenes en el papel, en lugar de la impresión tradicional de tinta sobre papel.
Son las más utilizadas en las oficinas, empresas o incluso en los centros de educación gracias a
su rapidez y eficacia para imprimir grandes volúmenes de documentos y páginas, además de su
excelente calidad.
Este tipo de impresora es originaria del año 1977, desarrollada e inventada por Gary
Starkwather en Xerox durante la década de los 70. El inventor de la imprenta láser fue todo un
visionario, años más tarde trabajó para Apple, donde inventó la tecnología de gestión de color.
Incluso asesoró al equipo de efectos digitales en la popular película de Star Wars.
Los equipos láser a color tienen un cilindro fotoreceptor que puede imprimir mediante un haz
lumínico. Cuando enviamos una orden, este tambor se carga de corriente eléctrica con ayuda
de un filamento y una rejilla. Elementos que se conocen como corona de carga.
El cilindro comienza a girar y mediante una serie de descargas negativas genera la imagen que
vamos a imprimir. A continuación, los pigmentos del tóner se adhieren a la superficie para
formar una imagen en negativo. Y finalmente, se traspasa al papel con ayuda de dos rodillos y
la aplicación de calor.
Una vez realizada la impresión, el tóner se limpia mediante una lámina plástica y el cilindro con
un haz de luz. De esta forma, nuestro equipo estará listo para llevar a cabo el siguiente trabajo.
Los trazadores de gráficos (en inglés: «plotters») son dispositivos de salida que realizan
dibujos sobre papel. Estos periféricos tienen gran importancia ya que con ellos se obtienen
directamente del ordenador salidas en forma de planos, mapas, dibujos, gráficos, esquemas e
imágenes en general.
5._ Comunicaciones.
Los dispositivos de entrada son aquellos elementos que se conectan para introducir dentro del
sistema general la función o información deseada. Algunos ejemplos de dispositivos de
entrada son: el teclado, el ratón, el escáner.
Los dispositivos de salida son aquellos elementos que se conectan para que el sistema de
procesamiento exponga la función o información deseada. Algunos ejemplos de dispositivos
de salida son: el monitor, las memorias portátiles, las impresoras.
Las señales RS232 pueden ser convertidas con numeroas interfaces en (casi) todos los demás
tipos de interfaces como Ethernet, USB, RS422, RS485, 20mA, fibra óptica de vidrio o plástico,
etc.
Ranuras de expansión.
En cuanto a los puertos paralelos, son un tipo de interfaz que permite conectar
diferentes tipos de periféricos a un ordenador o equipo informático o electrónico. Estos
puertos suelen estar presentes en tu ordenador, normalmente directamente en la placa base,
lo que hace que sea uno de los que queda en la parte trasera de tu torre.
El paralelo es un tipo de puerto, y existen diferentes modelos de interfaz o puerto que son
paralelos, dependiendo de los periféricos para los que han sido diseñados. Dependiendo de
este tipo de puerto destinado a tipos concretos de periféricos, estos puertos pueden tener una
cantidad determinada y concreta de contactos o cables.
En definitiva, son puertos paralelos esos que permiten el intercambio simultaneo de paquetes
de datos a través de los diferentes hilos o cables, y en ambos sentidos. El nombre de puerto
paralelo es debido a la forma en la que funciona todo a nivel físico, ya que hay un cable por
cada bit que se envía. De esta manera, si una impresora requiere el envío de determinado
número de bits, necesitarías un bus con ese mismo número de cables, que enviarán la
información de forma paralela.
5.2. Módems.
Módems interno.
El modem interno como cualquier otro dispositivo que sea interno del ordenador, se
alimenta de la propia fuente de alimentación del PC. No requieren cableado, basta con
disponer del cable telefónico que conecta el modem a la línea telefónica. En la mayoría de los
modem actuales, se ven 2 entradas RJ113 que son de entrada de la central telefónica y la otra
para conectar un teléfono para que funcione normalmente, cuando no se esté conectado.
Módems externo.
Tema 5
software
1._Definición de un software:
El segundo suceso que se dio fue un trabajo de Alan Turing que se basaba en números
computables, por lo que estaríamos ante la primera teoría del software de todos los tiempos.
Esto ocurrió poco antes de mediados del siglo XX.
Sintetizando, se puede afirmar que el software es un término que lleva relativamente pocos
años en uso, por lo que es una ciencia que todavía tiene mucho camino por recorrer.
Etapa anterior a 1950: Son décadas en las que se sientan las primeras bases y pinceladas del
software. Como se ha mencionado en el epígrafe anterior, Ada Lovelace y Alan Turing son los
precursores del concepto ‘software’.
Década de los 50’ 60’ y 70’: En estos años el software pasó de ser un concepto teórico y
abstracto a ser reconocido como un factor indispensable para la invención y desarrollo de
dispositivos o máquinas. Se acuña por primera vez en una conferencia de la OTAN el término
‘ingeniería de software’. Esto es la primera muestra de una de las ciencias y profesiones más
estudiadas y demandadas correspondientemente. En aquella época los lenguajes que más se
utilizaban eran COBOL y FORTRAN.
Década de los 80’ y 90’: En estas dos décadas se identifica un problema, y es que la gran
demanda superaba la oferta de profesionales en la industria. Además, los profesionales no
podían abarcar tantas áreas de conocimiento sin especialización previa. Surgieron los primeros
colapsos en proyectos y trabajos de complejidad avanzada. Sin ir más lejos, en esta época se
lanzan Windows en 1985 y Linux en 1992. Además la aparición del lenguaje HTML es gracias al
auge del Word Wide Web (WWW), uno de los principales hitos de la era digital.
Siglo XXI: Desde principios del siglo XXI se han dado grandes avances en todos los campos que
abarca el software. Desde la aparición de los revolucionarios Smartphone, con un software
integrado que hace que un único dispositivo pueda realizar tareas en las que antes se
necesitaba un ordenador. Por otra parte, también se han llegado a niveles de desarrollo en
tecnologías aún por investigar y desarrollar como lo son la IA o las ya tan conocidas
criptomonedas. Ejemplos de estos avances son los asistentes de voz de grandes compañías
como Apple, Microsoft o Amazon, los cuales pueden imitar el comportamiento humano. A
estos efectos, se dan multitud de lenguajes de programación en los que el objetivo del
proyecto determina qué lenguaje se debe utilizar y por ende, qué tipo profesional en
específico se necesita. Algunos lenguajes que podemos mencionar son SWIFT (para
aplicaciones en entornos iOS), JavaScript (para entornos web) o PHP (destinado a tareas y
programación de servidores o máquinas físicas).
La máquina del telar de Jacquard, creada en 1801, utilizaba los orificios en tarjetas perforadas
para representar los movimientos de un brazo de la máquina de tejer, con el objetivo de
generar patrones decorativos automáticamente.
Durante un período de nueve meses entre 1842 y 1843, Ada Lovelace tradujo las memorias del
matemático italiano Luigi Menabrea acerca de la nueva máquina propuesta por Charles
Babbage, la Máquina Analítica. Con estos escritos, ella añadió unas notas en las cuales
especificaba en detalle un método para calcular los números de Bernoulli con esta máquina.
Los primeros códigos de computadora estaban especializados según sus aplicaciones. En las
primeras décadas del siglo XX, los cálculos numéricos estaban basados en los números
decimales. Con el paso del tiempo, se dieron cuenta de que la lógica podía ser representada
con números, no sólo con palabras. Por ejemplo, Alonzo Church fue capaz de expresar el
cálculo lambda a través de fórmulas. La máquina de Turing estableció las bases para almacenar
programas como datos en la arquitectura de von Neuman de una computadora. Sin embargo,
a diferencia del cálculo lambda, el código de Turing no serviría satisfactoriamente como base
para lenguajes de más alto nivel- su principal uso es en el análisis riguroso en la complejidad
algorítmica.
Para algunas personas, lo que sería el primer lenguaje de programación moderno depende de
cuánto poder y legibilidad humana se requería antes de que se concediera el estado de
"lenguaje de programación". Tanto el telar de Jacquard como la Máquina Diferencial de
Babbage, tenían lenguajes muy simples y extremadamente limitados para describir las
acciones que estas máquinas realizaran. Se puede incluso considerar los agujeros perforados
en los rollos de pianola como un limitado lenguaje de dominio específico, a pesar de no estar
diseñado para el consumo humano.
En la década de 1940 fueron creadas las primeras computadoras modernas, con alimentación
eléctrica. La velocidad y capacidad de memoria limitadas forzaron a los programadores a
escribir programas, en lenguaje ensamblador muy afinados. Finalmente se dieron cuenta de
que la programación en lenguaje ensamblador requería de un gran esfuerzo intelectual y era
muy propensa a errores.
Entre algunos lenguajes importantes que fueron desarrollados en este período se encuentran:
1943 - Plankalkül (Respetad a Konrad), diseñado, pero sin implementar durante medio siglo
2.3._Sistemas operativos:
Un sistema operativo es uno o varios programas que se usan para poder trabajar con
los componentes de un equipo de computador.
En 1944, un grupo de científicos en Bletchley Park, Inglaterra, entre los que se encontraba Alan
Turing, construyó el computador Colossus, cuyo modelo más conocido, el Colossus Mark 2,
utilizaba 2400 tubos de vacío. Este computador, si bien, tampoco era Turing-complete (lo que
demuestra que no basta tener a Alan Turing para ser Turing-complete) ya que fue diseñado
para una tarea criptográfica particular, sí era programable mediante cintas de papel. Fue
importante en el proceso de decriptación del criptosistema alemán Lorenz.
Notemos que durante el tiempo que un dispositivo está leyendo las tarjetas perforadas, tanto
el dispositivo procesador como el dispositivo de salida no están haciendo ningún trabajo útil.
Dado el costo del equipamiento era poco conveniente tener estas unidades en espera
mientras se traduce una tarjeta perforada a una cinta magnética. Es por esto que se
desarrollaron soluciones como el sistema de procesamiento batch, o procesamiento por lotes.
En este modelo, un programador entrega sus tarjetas perforadas a un operador (otra persona)
que se dedica a ingresar las tarjetas a una unidad lectora de tarjetas (IBM 1402). Cuando hay
una cantidad suficiente de trabajos, el operador toma la cinta de salida y la traslada
(físicamente) a un dispositivo procesador como el IBM 1401 (3 registros, word de 6-bit con
codificación BCD) o el más poderoso IBM 7094 (7 registros, word de 36-bit, y espacio de
direcciones de 15-bit: 32768 words). El operador carga un primer programa (algo similar a un
sistema operativo) que prepara al computador para leer una serie de jobs desde la cinta.
Mientras el dispositivo procesador realiza las labores de cómputo, el IBM 1402 podía seguir
leyendo el siguiente conjunto de tarjetas. La salida del dispositivo procesador iba a una cinta
magnética de salida. El operador nuevamente debe tomar esta cinta, llevarla a un dispositivo
impresor (IBM 1403) que transfiera el contenido de la cinta magnética a papel de manera
offline. Esto es, no conectado al dispositivo procesador.
Este tipo de computadores se usó principalmente para cómputo científico y de ingeniería. Los
programas que permitían a estos computadores procesar secuencialmente una cantidad de
Jobs fueron algunos de los primeros en cumplir la tarea de un sistema operativo, como FMS
(FORTRAN Monitor System, básicamente un compilador de FORTRAN), y el sistema del IBM
7094, IBSYS.
OS/360, y la multiprogramación
A pesar de todos sus defectos, OS/360 fue ampliamente usado, e introdujo algunas ideas clave
en los sistemas computacionales. Sistemas como el IBM 7094 eran máquinas que procesaban
un trabajo simultáneamente. Si alguna instrucción de ese trabajo requería una lectura de cinta,
o alguna operación de I/O, la CPU debía esperar sin hacer nada (idle) hasta que la operación
terminase. Los trabajos científicos suelen ser intensivos en cómputo (CPU-bound), por lo que
esto no era un problema. Sin embargo las aplicaciones comerciales requerían operaciones de
I/O el 80% a 90% de las veces (I/O-bound) por lo que gran parte del tiempo la CPU se
encontraba idle.
La solución fue dividir el espacio de memoria en regiones, y asignar un espacio distinto a cada
job. Se introdujo un mecanismo que permitiera que, cada vez que un job estuviese esperando
una operación de I/O, el sistema permitiera que otro job pudiese ocupar la CPU. De esta
manera, si hay suficiente jobs en la memoria, sería posible mantener a la CPU trabajando casi
el 100% del tiempo. Este mecanismo fue un enorme avance que ocupamos hasta el día de hoy,
y se llama multiprogramación.
El desarrollo tecnológico de los circuitos integrados llegó al nivel conocido como VLSI
(Very Large Scale Integration), capaz de integrar hasta 1 millón de transistores en un chip de
1cm2, lo que permitía hasta 100000 celdas lógicas. Surgieron sistemas computacionales de uso
personal denominados microcomputadores, que en principio no eran tecnológicamente muy
superiores al PDP-11, pero a un precio notablemente inferior.
En 1974, Intel presenta el chip Intel 8080, una CPU de propósito general de 8-bit con un clock
de 2MHz, sucesora del 4004 y el 8008, los primeros microprocesadores del mercado. Fue parte
del popular MITS Altair 8800, que dió inicio a la era de los microcomputadores.
Intel deseaba un sistema operativo propio para el Intel 8080, por lo cual Gary Kildall construyó
un sistema operativo basado en disco (contenido en un floppy disk de 8") conectado al 8080, y
llamado CP/M (Control Programa for Microcomputers). CP/M era un sistema single-task de 8-
bit y capaz de utilizar hasta 64 KB de memoria. Si bien el sistema fue adoptado por Intel, no le
veían mucho futuro a un sistema operativo residente en disco, y los derechos quedaron en
manos de Gary Kildall quien formó la compañía Digital Research Inc. para desarrollar y vender
CP/M. Digital Research adaptó CP/M para diversos microcomputadores usando el Intel 8080,
pero también para otros microprocesadores de la época como el Zilog Z80, dominando el
mercado durante unos 5 años. En este periodo se desarrollaron versiones multitasking y de 16-
bit. Aplicaciones que surgieron bajo CP/M fueron WordStar (procesador de texto), dBase (base
de datos), Multiplan (planilla de cálculo), y Turbo Pascal (IDE y compilador para Pascal).
Un equipo de cómputo, una laptop, una tableta o un teléfono tiene sin lugar a dudas un
sistema operativo.
MS-DOS:
Unix:
Muchos critican a esta familia de sistemas operativos por ser avariciosos con los recursos del
ordenador, por su escasa estabilidad de funcionamiento y por las tediosas descargas de
actualizaciones. Sin embargo, es el sistema operativo elegido por más del 90% de los usuarios
de ordenadores. Hay una buena razón para ello.
Linux:
Intérpretes
El término código fuente también se usa para hacer referencia al código fuente de otros
elementos del software, como, por ejemplo, el código fuente de una página web, que está
escrito en lenguaje de marcado HTML o en Javascript, u otros lenguajes de programación web,
y que es posteriormente ejecutado por el navegador web para visualizar dicha página cuando
es visitada.
Lenguaje de programación:
Es una forma de comunicarnos con una computadora, tablet o celular e indicarle qué
queremos hacer. Existen distintos tipos de lenguaje: principalmente de bajo nivel y de alto
nivel. La diferencia se encuentra en lo cerca o lejos que estemos del hardware de nuestro
equipo.
Basic:
Cobol:
Pascal:
Es un lenguaje de programación creado por el profesor suizo Niklaus Wirth entre los
años 1968 y 1969, y publicado en 1970. Su objetivo era crear un lenguaje que facilitara el
aprendizaje de programación a sus alumnos, utilizando la programación estructurada y
estructuración de datos.
Fortran:
Lenguaje c: