UNIVERSIDAD ALFA Y OMEGA
Licenciatura en trabajo social
Materia:
Introducción a la
Informática
Profesor:
DR. Roldan Vázquez
Hernández
rolvazher@hotmail.com
9931 38 37 47
1. Introducción a la Informática
El término informática
proviene del francés
informatique, implementado
por el ingeniero Philippe
Dreyfus a comienzos de la
década del ’60. La palabra
es, a su vez, un acrónimo de
information y automatique.
1.1 Definición de Informática
La informática es una ciencia de
la computación que se encarga
del tratamiento y estudio racional,
de la información. Es decir, esta
ciencia se encarga de distinguir a
un conjunto de conocimientos
prácticos y teóricos relacionados
con la ciencia y la tecnología que,
al relacionarse, hacen posible el
tratamiento automático y racional
de la información a través de
computadoras.
1.2 Precursores del computador
El hombre a lo largo de su
historia siempre ha estado en la
búsqueda de obtener
dispositivos con los cuales sea
más efectivo y rápido resolver
los cálculos.
Hace más de 2000 años a.C. los
chinos inventaron el ábaco, era
un instrumento para realizar
cálculos complejos de una
manera rápida.
Estaba construido por un marco de madera, con unos
cables horizontales y unas bolas agujereadas que podían
moverse de izquierda a derecha. En el siglo XVII continúa el
interés de las nuevas ciencias, como la astronomía y
navegación, en impulsar a las mentes creativas de Europa a
descubrir cómo simplificar los cálculos.
En el año 1614 el matemático escocés John Napier anunció
el descubrimiento de los logaritmos, logrando que los
resultados de las complicadas multiplicaciones quedarán
reducidas a simples procesos de sumas. Al poco tiempo,
alrededor de 1620 fue inventada la regla de cálculo con
bases en los principios matemáticos descubiertos por el
escocés.
La evolución continua y los
aportes de Charles Babbage hicieron
posible la creación del primer
ordenador. Babbage fue un
ingeniero conocido por muchos como
“El Padre de la computación”, por ser
quien diseñó la primera computadora
de uso general, pero la época no fue
de mucha ayuda para terminarla y
en el año 1833 desarrolló la
segunda máquina, ésta era capaz
de realizar sumas solo en segundos y
el operador solo necesitaba de un
mínimo tiempo de atención.
Solo en el primer tercio del siglo XX con el desarrollo
de la electrónica, comienzan a resolver los problemas
técnicos que conllevan estas máquinas, reemplazando los
sistemas de engranajes y varillas con impulsos eléctricos,
estableciendo que cuando haya un paso de corriente
eléctrica estará representado con un * 1 * y cuando no hay
un paso de corriente eléctrica, se representaría con un * 0
*.
Con el desarrollo de la
Segunda Guerra Mundial, fue
construida la primera computadora,
de nombre Mark I, y su
funcionamiento estaba basado en
interruptores mecánicos. En 1944
se construyó la primera
computadora con fines prácticos
llamada Eniac. Luego, en 1951, se
desarrollan Univac I y Univac II,
se puede decir que es el punto de
partida en la aparición de
computadoras reales, que serán de
acceso común para las personas.
La informática surgió
como el centro de atención
sobre el cual giraron cada uno
de los desarrollos tecnológicos
del siglo pasado. Cada vez
que ha aparecido un nuevo
Univac I
fenómeno en nuestra historia,
el hombre ha desarrollado una
nueva ciencia que trata de
estudiarlo y describirlo.
Surgieron las computadoras y
con ellas se desarrolló la
Univac II Informática.
1.3 Desarrollo del computador
Las funciones esenciales que puede presentar la informática
son el desarrollo y construcción de nuevas máquinas, el
desarrollo e implantación de nuevos métodos de trabajo, así
como la construcción y mejora de aplicaciones informáticas
(programas). Sus aspectos envuelven desde la programación
informática y la arquitectura informática hasta la inteligencia
artificial y la robótica.
En pocos años la informática se ha convertido en un
integrante activo de nuestra sociedad, el hombre actual vive
y se desarrolla en un medio donde los datos, información y
la comunicación son parte fundamental de la vida diaria.
Con la informática podemos realizar muchas cosas,
tales como obtener dinero de un cajero automático,
consultar enciclopedias, noticias, o cualquier información,
comunicarse con personas que se encuentren en algún lugar
del planeta, entre otras.
Hoy en día, son muchos los campos que utilizan y aplican la
informática, ésta se encuentra en medicina, la ingeniería
informática, en comunicaciones, en industrias, en empresas,
en el mundo artístico, en el ámbito investigativo y científico,
en los hogares, etc.
1.3.1 Generaciones y tecnologías
Se puede decir que la informática está dividida en 5
generaciones:
• 1ra Generación: Ésta se desarrolló entre los años 1940 y
1952, para esta época los ordenadores eran del uso
exclusivo para el sector científico-militar y funcionaban
con válvulas. Para ser modificados era necesario modificar
directamente los valores de los circuitos de las máquinas.
• 2da Generación: Comprende los años 1952. Surge
cuando la válvula es reemplazada por el transistor.
Aparecen las primeras computadoras comerciales, que ya
tenían una programación previa que sería los sistemas
operativos. Estas instrucciones interpretadas en lenguaje
de programación, Fortran y Cobol, de esta manera, el
programador escribió sus programas en esos idiomas y la
computadora pudo traducirlo al lenguaje máquina.
• 3ra Generación: Ocurrió entre los años 1964 y 1971. En
ésta generación se comienzan a utilizar los circuitos
integrados, esto permitió aumentar la capacidad de
procesamiento reduciendo el tamaño físico de las
máquinas, además de abaratar los costos de las mismas.
La importancia de esta generación radica en el notable
mejoramiento de los lenguajes de programación y el
surgimiento de los lenguajes utilitarios.
• 4ta Generación: Comprende los años 1971 y 1981. Esta
fase de evolución se caracterizó por la integración de los
componentes electrónicos, y esto dio como resultado la
aparición del microprocesador, que es la integración de
todos los elementos básicos de la computadora en un solo
circuito integrado.
• 5ta Generación: Desde 1981 hasta la actualidad. Ciertos
expertos consideran que esta generación termina con el
surgimiento de procesadores Pentium, per’
consideraremos que aún no ha terminado. Se caracteriza
por la aparición de la PC, como se la conoce actualmente.
Un sistema informático es un ordenador básico o funcional,
que incluye el hardware y software requerido para que sea
comprensible al usuario. Es el sistema encargado de
recopilar datos, procesar y difundir la información una vez
encauzada.
1.4 Representación interna de datos
En una computadora, los números se representan usando el
sistema binario. En este sistema un patrón de bits (una
secuencia de ceros y unos) representa un numero. Para
representar imágenes a color, cada pixel coloreado se
descompone en tres colores primarios: rojo, verde, azul
(RGB).
En los lenguajes de alto nivel manejamos distintos tipos de
datos: caracteres, strings, números enteros, números reales.
Para trabajar con ellos, en general sólo nos interesa saber
que son, como se opera con cada uno y esto se estudia en
los cursos de programación.
1.4 Representación interna de datos
La unidad elemental de información que se usa en
computación es un objeto que toma solo 2 valores posibles
(0, 1): el BIT (dígito binario)
Los distintos tipos de datos se construyen en base a
estructuras de bits, los cuales serán en general arrays de n
elementos que reciben el nombre de palabra de largo n. En
el caso particular de n = 4 se denomina el array se
denomina nibble, en el caso de n = 8 el array se denomina
byte.
1.4 Representación interna de datos
Estudiaremos entonces, la representación interna de los
datos como la expresión de los distintos tipos en función de
estructuras de bits.
Por lo anterior resulta que los distintos tipos de datos se
representan a través de códigos binarios. Es decir existe un
proceso de codificación de los objetos de información en
función de otros (las estructuras de bits) con los que se
trabajará en realidad.
1.4 Representación interna de datos
Tipos de datos
Multimedia: Información que contiene números, texto,
imágenes, audio y video.
1.4 Representación interna de datos
¿Como se manejan todos estos tipos de Datos?
• Los datos por lo general son una mezcla de tipos.
• Se utiliza una representación Uniforme de todos los tipos de
datos.
• Los datos de entrada a una computadora se transforman en la
representación uniforme al ser utilizados y almacenados por la
PC.
• A esta representación uniforme o formato universal se le llama
PATRÓN DE BITS.
1.4 Representación interna de datos
¿Qué es un bit?
Binary Digit = Digito Binario
• Unidad mas pequeña de datos que puede almacenarse en una
computadora; puede ser ya sea 0 o 1 (cero o uno).
• Un bit representa el estado de un dispositivo que puede tomar
uno de dos estados. Por ejemplo un interruptor eléctrico.
• Actualmente las computadoras utilizan varios dispositivos
binarios de dos estados para almacenar datos.
1.4 Representación interna de datos
• Un solo bit no puede resolver el problema de la representación
de datos, si cada pieza de datos (carácter) pudiera
representarse por un 1 o un 0, entonces solo se necesitaría un
bit. Sin embargo se hace necesario almacenar números mas
grandes, texto, gráficos y otros tipos de datos.
• Es aquí donde se hacen necesarios los PATRONES DE BITS.
1.4 Representación interna de datos
Para representar diferentes tipos de datos se utiliza un PATRON
DE BITS, una secuencia o como a veces se le llama, una cadena
de bits. Ejemplo:
1000101010111111
Esto significa que si se quiere almacenar un patrón de bits
formado por 16 bits, necesitan 16 interruptores electrónicos. Si
quiere almacenar 1000 patrones de bits, cada uno de 16 bits,
necesita 16 000 bits y así sucesivamente.
1.4 Representación interna de datos
¿Cómo identifica la memoria de la computadora el tipo de
datos?
• No los identifica, la memoria solo almacena los datos como
PATRONES DE BITS. Es responsabilidad de los dispositivos de
entrada/salida o de los programas interpretar un patrón de bits
como un numero, texto o algún otro tipo de datos.
• Los datos se codifican cuando entran a la computadora y se
decodifican cuando se presentan al usuario.
1.4 Representación interna de datos
¿Qué es un Byte?
• Un patrón de bits con una longitud de 8 se llama BYTE.
• Este termino es también utilizado para medir el tamaño
de la memoria o de otros dispositivos de almacenamiento.
1.4 Representación interna de datos
• Una pieza de texto en cualquier idioma es una secuencia
de símbolos usados para representar una idea en ese
idioma. (ej. ABC…Z, 0,1,2,3…9)
• Se puede representar cada símbolo (de lenguajes
humanos) con un patrón de bits (lenguaje de la maquina)
1.4 Representación interna de datos
¿Cuántos bits se necesitan en un patrón de bits para
representar un símbolo en un idioma?
• Esto depende de cuantos símbolos haya en la secuencia
(idioma). La longitud del patrón de bits que representa un
símbolo en un idioma depende del número de símbolos
usados en ese idioma. Mas símbolos significan un patrón
de bits mas grande.
1.4 Representación interna de datos
¿Cuántos bits se necesitan en un patrón de bits para
representar un símbolo en un idioma?
• Aunque la longitud del patrón de bits depende del numero
de símbolos, la relación no es lineal, es logarítmica. Si se
requieren dos símbolos, la longitud es un bit (el log 2 es
1). Si se necesitan cuatro símbolos, la longitud es 2 bits
(log 4 es 2)
1.4 Representación interna de datos
Un patrón de bits de dos bits puede tomar cuatro formas
diferentes: 00, 01, 10 y 1 1
Cada una de las cuales representa un símbolo
Un patrón de tres bits puede tomar ocho formas diferentes:
000, 001, 010, 01 1, 100, 101, 1 10 y 1 1 1
1.4 Representación interna de datos
ASCII
Código Norteamericano de Estándares para Intercambio de
Información (American Standard Code for Information ASCII
Interchange).
Este código utiliza siete bits para cada símbolo. Esto significa
128 (27) símbolos distintos que pueden definirse mediante
este código.
ASCII extendido: Para hacer que el tamaño de cada patrón
sea de 1 byte (8 bits), a los patrones de bits ASCII se les
aumenta un cero mas a la izquierda. Cada patrón cabe
fácilmente en un byte de memoria.
1.4 Representación interna de datos
EBCDIC
• Código Extendido de Intercambio decimal codificado en
binario desarrollado por IBM al principio de la era de las
computadoras.
• Utiliza patrones de ocho bits, de manera que puede
representar hasta 256 símbolos. Solo es utilizado en
computadoras Mainframes de IBM.
1.4 Representación interna de datos
Unicode
• Ante la necesidad de un código de mayores capacidades,
una coalición de fabricantes de hardware y software
desarrollo un código que utiliza 16 bits y puede
representar hasta 65 536 (216) símbolos. Diferentes
secciones del código se asignan a los símbolos de
distintos idiomas en el mundo.
1.4 Representación interna de datos
ISO
• La Organización Internacional para la Estandarización ha
diseñado un código que utiliza patrones de 32 bits. Este
código representa hasta 4 294 967 296 (232) símbolos,
definitivamente lo suficiente para representar cualquier
símbolo en el mundo actual.
1.4 Representación interna de datos
Números
• En una computadora, los números se representan usando
el sistema binario. En este sistema un patrón de bits (una
secuencia de ceros y unos) representa un numero.
1.4 Representación interna de datos
Gráficos de Mapa de Bits
• Una imagen se divide en una matriz de pixeles. A cada
pixel se le asigna un patrón de bits. El tamaño y el valor
del patrón depende de la imagen, para una imagen
formada solo por puntos blancos y negros, un patrón de
un bit es suficiente para representar un pixel. Los
patrones se registran uno tras otra y se almacenan en la
computadora.
1.4 Representación interna de datos
Gráficos de Mapa de Bits
1.4 Representación interna de datos
Representación de pixeles de color
1.4 Representación interna de datos
Representación de Gráficos de Vectores
• Este método no guarda los patrones de bits. La imagen se
descompone en una combinación de curvas y líneas. Cada
curva o línea se representa por medio de una formula
matemática. En este caso cada vez que se dibuja la
imagen, la formula se vuelve a evaluar.
1.4 Representación interna de datos
Audio
• El audio por naturaleza es información análoga, es
continuo no discreto.
1.4 Representación interna de datos
Video
• Es una representación de imágenes (llamadas cuadros o
frames) en el tiempo. Una película es una serie de cuadros
desplegados uno tras otro para crear la ilusión de
movimiento. Cada imagen o cuadro cambia a una serie de
patrones de bits y se almacena. La combinación de las
imágenes representa el video.
1.4 Representación interna de datos
Notación Hexadecimal
• El patrón de bits se diseñó para representar datos cuando
estos se almacenan dentro de una computadora. Sin
embargo, para la gente es difícil manipular los patrones
de bits. Escribir una series de números 0 y 1 es tedioso y
propenso al error.
• La Notación hexadecimal se basa en 16. Esto significa que
hay 16 símbolos (dígitos hexadecimales):
0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F
1.4 Representación interna de datos
Notación Hexadecimal
• La importancia de la notación hexadecimal se hace
evidente cuando se convierte un patrón de bits a esta
notación.
• Cada digito hexadecimal puede representar cuatro bits y
cuatro bits pueden representarse mediante un digito
hexadecimal.
1.4 Representación interna de datos
1.4 Representación interna de datos
Notación Octal
• Otra notación usada para agrupar patrones de bits es la
notación octal. Se basa en 8, esto es, existen ocho
símbolos (dígitos octales): 0,1,2,3,4,5,6,7.
• Cada dígito Octal representa tres bits y tres bits pueden
representarse mediante un digito octal.
Gracias