Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Computador
Profesor: Estudiante:
Delgado, Richard. Rivera, German.
Hardware
Hardware es una palabra inglesa que hace referencia a las partes físicas
tangibles de un sistema informático, es decir, todo aquello que podemos tocar
con las manos. Dentro del hardware encontramos una gran variedad de
componentes eléctricos, electrónicos, electromecánicos y mecánicos. El
hardware es el chasis del ordenador, los cables, los ventiladores, los periféricos
y todos los componentes que se pueden encontrar en un dispositivo
electrónico. La Real Academia Española lo define como “Conjunto de los
componentes que integran la parte material de una computadora”.
Una forma de clasificar el hardware es en dos categorías: el hardware principal,
que abarca el conjunto de componentes indispensables necesarios para
otorgar la funcionalidad mínima, y, por otro lado, el hardware complementario,
que es el utilizado para realizar funciones específicas más allá de las básicas,
no estrictamente necesarias para el funcionamiento del sistema informático.
Periféricos
- Entrada: Los periféricos o dispositivos de entrada son los componentes
del sistema responsables del suministro de datos a la computadora, y
sin ellos sería imposible intentar cualquier tipo de operación con la
misma. Con el paso de los años, la tecnología ha evolucionado de
manera increíble, pero la forma que tenemos para comunicarnos con
una computadora sigue siendo la misma desde hace ya tres décadas. Si
bien en la actualidad podemos encontrar muchos intentos de reemplazo
de estos dispositivos, lo cierto es que la facilidad que estos viejos
compañeros de la PC nos proveen para el ingreso y manipulación de los
datos son prácticamente inimitables, y nos hemos acostumbrado tanto a
su uso que será imposible desprenderse de ellos fácilmente.
Algunos periféricos de entrada serian: Teclado, mouse o ratón, escáner o
digitalizador de imágenes, webcam, etc.
- Salida: En informática se designa con el nombre de periférico de salida,
a todo dispositivo que se conecta a una computadora para tener una
visualización de los datos que se están transfiriendo. Cada uno de ellos
es una parte del Hardware de la misma, y es por ellos que se establece
una comunicación desde el interior de la computadora hacia la parte
externa. Es por medio de ellos que se pueden emitir los resultados de un
proceso que se esté realizando en la computadora de una manera
legible para el usuario que lo está procesando y para otros a quienes
vaya dirigido. Existe un gran número de dispositivos, pero estos se
suelen clasificar en dos tipos: los que sirven para la salida de los datos y
los que se usan como dispositivos de almacenamiento.
Algunos periféricos de salida serian: Monitor, impresora, proyectoras,
módems, etc.
Tipos de software
Sistemas Operativos
El sistema operativo es el software que coordina y dirige todos los servicios y
aplicaciones que utiliza el usuario en una computadora, por eso es el más
importante y fundamental. Se trata de programas que permiten y regulan los
aspectos más básicos del sistema. Los sistemas operativos más utilizados son
Windows, Linux, OS/2 y DOS. Los sistemas operativos, también
llamados núcleos o kernels, suelen ejecutarse de manera privilegiada respecto
al resto del software, sin permitir que un programa cualquiera realice cambios
de importancia sobre él que puedan comprometer su funcionamiento.
Tipos
Los tipos de sistema operativo varían según el hardware y la función de cada
dispositivo. Existen algunos para ordenadores y otros para dispositivos móviles.
Lenguajes de programación
Son programas que traducen a su vez los programas fuente escritos en
lenguajes de alto nivel a código máquina.
- 1968 – Logo
- 1969 - B (precursor C)
- 1970 – Pascal
- 1970 – Forth
- 1972 – C
- 1972 – Smalltalk
- 1972 – Prolog
- 1973 – ML
- 1975 – Scheme.
- 2000 – ActionScript
- 2001 - C#
- 2001 - Visual Basic .NET
- 2002 - F#
- 2003 – Groovy
- 2003 – Scala
- 2003 – Factor
- 2005 – Scratch
- 2007 – Clojure
- 2009 – Go
- 2011 – Dart
- 2014 – Swift.
Paradigmas de programación
Un paradigma de programación es un estilo de desarrollo de programas.
Es decir, un modelo para resolver problemas computacionales. Los
lenguajes de programación, necesariamente, se encuadran en uno o
varios paradigmas a la vez a partir del tipo de órdenes que permiten
implementar, algo que tiene una relación directa con su sintaxis.