Está en la página 1de 2

EDA 1

1.1 ANTECEDENTES
Y GENERALIDADES

La computación como disciplina nace a principios de 1940 con base en la teoría


de algoritmos, la lógica matemática y la aparición del concepto programa.

Un programa es un conjunto de instrucciones que una vez ejecutadas realizarán una


o varios tareas en una computadora

Una computadora digital es un dispositivo electrónico, utilizado para procesar


información y obtener resultados, capaz de ejecutar cálculos a velocidades mas
rápidas de lo que pueden los humanos

John von Neumann propuso un esquema


con una computadora con una memoria
para almacenar datos y programas.
Registros: Donde se almacena la info. de
los programas e instrucciones.
Contador de Programa: Lee el programa
y dice cual es la siguiente instrucción
Unidad aritmética lógica: Realiza todas
las operaciones.
Unidad de control: Dirige y asigna a cada
quien una función

Un lenguaje de programación es un lenguaje artificial diseñado para expresar


instrucciones que pueden ser ejecutadas por las computadoras.

Lenguajes de alto nivel: Lenguajes de bajo nivel:


Son lenguajes parecidos al lenguaje Es aquel en que sus instrucciones
humano, no expresa los algoritmos ejercen un control directo sobre el
teniendo en cuenta la capacidad de hardware y están condicionados por la
las maquinas para ejecutar ordenes, estructura física de las computadoras
sino que se utiliza teniendo en cuenta que lo soportan. Son mas parecidos al
las capacidades cognitivas de los lenguaje binario (lenguaje de
seres humanos. computadora).

Lenguajes Binario:
Es un sistema de numeración en el que los números son representados utilizando
unicamente 0's y 1's. Las computadoras trabajan internamente con este lenguaje,
dependiendo del voltaje se ejecutan ciertas acciones (1=encendido, 0=apagado).

CLASIFICACIÓN DE LENGUAJES DE PROGRAMACIÓN

Manera de abordar la Manera al paradigma de


Manera de ejecutarse: tarea: programación:
Compilados: Parte de Imperativos: Indican Estructurado: Divide
un código fuente, y lo como hay que hacer el problema en partes
pone en un compilador, la tarea. mas pequeños.
creando un código Declarativos: Indican Orientada a objetos:
objeto y se transforma que tarea hay que Sistema de clases y
en un programa hacer. objetos siguiendo el
ejecutable.
mundo real.
Interpretados: Un
Funcional: Evaluación
programa ejecuta las
de funciones matemat.
instrucciones directa.
Logico: Tareas
una x una.
expresadas por logica
formal matematica.
EDA 1
1.2
REPRESENTACIÓN
DE DATOS

Para el manejo adecuado de datos en una computadora digital, se implemento


una representación uniforme de los datos.
Estas representación se conoce como Patrón de Bits.

BIT: BYTE:
Unidad mínima de almacenamiento Patrón de 8 bits mediante el cual se
en las computadoras y representa mide el tamaño de una memoria o de
dos estados (1, 0). otros dispositivos de almacenamiento.

Bit: 0 1 Byte: [10011010]


Bits: 01 111 1010100111 Bytes: [11001100] [10100101]

¿Cuántos bits se necesitan en un


patrón para representar un símbolo?
Dependiendo de la cantidad de bits
que se tengan disponibles.

longitud del Símbolos


patrón de bits representados
1 2
2 4
3 8
4 16

Existen cadenas de bits que representan


símbolos de texto, numéricos, etc.
Código ASCII: American Standard
Code for Information Interchange 1967.
Este código utiliza 7 bits para cada
símbolo.
Codificación EBCDIC: Extended Binary
Coded Decimal Interchange Code, para
computadoras IBM, compuesto de 8 bits
para cada símbolo.

UNICODE:
Estándar internacional que se creó para unificar criterios y poderse ocupar a
nivel mundial.
Objetivos: Universalidad, eficiencia y no ambigüedad.
Mantenido por el Unicode Technical Committee (UTC) junto con ISO/IEC.
Formatos para representacion de simbolos: UTF-8, UTF-16, UTF-32.

Cara sonriente con la Cara sonriente Cara sonriente con la


boca abierta: guiñando un ojo: boca abierta:
U+1F604 U+1F609 U+1F60D

También podría gustarte