Está en la página 1de 6

Introducción a los algoritmos

Un algoritmo es un conjunto finito de instrucciones precisas que realizan una tarea, la


cual, dado un estado inicial, culminará por arrojar un estado final reconocible. Esta
definición asume que la ejecución del algoritmo concluye en algún momento, dejando
fuera los procedimientos que ejecutan permanentemente sin detenerse. Para incluir a
éstos en la definición, algunos autores prefieren obviar la condición de que la
ejecución concluya.
ORIGEN DEL TERMINO ALGORITMO
El origen de la palabra algoritmo se encuentra en discusión. Según la Real Academia
Española, por ejemplo, proviene del latín algobarismus, que vendría a ser una
abreviatura del árabe clásico que significaría ‘cálculo mediante cifras arábigas’.
DEFINICION
En general, no existe ningún consenso definitivo en cuanto a la definición formal de
algoritmo. Muchos autores los señalan como listas de instrucciones para resolver
un cálculo o un problema abstracto, es decir, que un número finito de pasos
convierten los datos de un problema (entrada) en una solución (salida).
Características del algoritmo

 Debe ser preciso y ejecutar la misión para la que se diseñó.

 También debe ser determinístico, su resultado dependerá de los datos que se


le suministren.
 Son finitos, deben terminar en algún momento, porque cada algoritmo tiene
que tener su número limitado de cada paso.
 Los algoritmos son eficientes, porque deben ocupar una memoria mínima y
también minimizar lo que es el tiempo para la ejecución.
 Son modulares porque la filosofía que se utiliza en su diseño tiene que
favorecer la división del problema a tratar en pequeños módulos.
 Deben ser legibles y el texto que lo describe tiene que ser claro, de forma que
se permita leerlo y entenderlo, de manera fácil.
 Son modificables porque están diseñados, de manera tal, que unas próximas
modificaciones sean más fácil de realizar, hasta con programadores distintos a
sus autores.
 Tiene un solo punto de entrada y también uno de salida.

Partes del Algoritmo


Entrada
Es la información que se da al algoritmo, es decir, los valores con los que se trabajará.
Proceso

Son cálculos que se necesitan para que, partiendo de un dato que se da en la entrada,
se logre llegar al resultado esperado.

 Salida

Es el resultado final o la transformación de la entrada mediante el proceso.


07/06/2021
Código binario
 un estándar para la representación de caracteres en cualquier
dispositivo electrónico, haciendo referencia a una codificación fija que asigna a
caracteres imprimibles como letras, números y signos de puntuación y a caracteres de
control no imprimibles un código concreto, que al pasar por el dispositivo lo traduce y
muestra el carácter deseado

código de programación que está en binario, es decir, en ceros y unos. En informática y


telecomunicaciones, el código binario se utiliza con diversos métodos de codificación de
datos, tales como cadenas de caracteres o cadenas de bits.

Es un sistema de representación de textos o de procesadores de instrucciones de una


computadora, que hace uso del sistema binario, en tanto, el sistema binario es aquel
sistema de numeración que se emplea en las matemáticas y en la informática y en el
cual los números se representan usando únicamente las cifras cero (0) y uno (1).

También podría gustarte