Está en la página 1de 14

REPUBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD NACIONAL EXPERIMENTAL


SIMON RODRIGUEZ
NUCLEO MATURIN
INTRODUCCION A LA INFORMATICA

Facilitadora: Lcda. Luz Amaro

Participante:
Silvia Medina
C.I.: V-12.537.185
Sección “A”

Maturín, Enero 2021


Introducción

Se denomina instrucción en informática al conjunto de datos insertados en una secuencia


estructurada o específica que el procesador interpreta y ejecuta.

Los tipos de instrucción son aquellos permitidos, están definidos y determinados dentro de
cada importante plataforma en el conjunto de instrucciones (en inglés ISA, instruction set
architecture), que también determina los registros de origen y destino de la CPU, y en ocasiones
un dato inmediato (aquellos que son especificados explícitamente en la instrucción).

Estas instrucciones del computador son las que determinan el funcionamiento de la CPU que
las ejecuta. La CPU puede realizar una diversidad de funciones, que son el reflejo de la variedad
de las instrucciones definidas para dicha CPU. El programador tiene un repertorio de
instrucciones como medio para controlar la CPU.
Constantes
En programación, una constante es un valor que no puede ser alterado o modificado durante la
ejecución de un programa, únicamente puede ser leído.

Una constante corresponde a una longitud fija de un área reservada en la memoria principal
del ordenador, donde el programa almacena valores fijos. Por ejemplo: El valor de = 3,1416.

Por conveniencia, el nombre de las constantes suele escribirse en mayúsculas en la mayoría de


lenguajes.

C: En C las constantes se declaran con la directiva #define, esto significa que esa constante
tendrá el mismo valor a lo largo de todo el programa.

El identificador de una constante así definida será una cadena de caracteres que deberá
cumplir los mismos requisitos que el de una variable (sin espacios en blanco, no empezar por un
dígito numérico, etc).
Ejemplo:
#include <stdio.h>
#define PI 3.1415926

int main()
{
printf("Pi vale %f", PI);
return 0;
}
Lo cual mostrará por pantalla: Pi vale 3.1415926. Es decir, PI es una constante a la que le
hemos asignado el valor 3,1415926 mediante la directiva #define.

La directiva #define también se puede utilizar para definir expresiones más elaboradas con
operadores (suma, resta, multiplicación etc) y otras constantes que hayan sido definidas
previamente, por ejemplo:
#define X 2.4
#define Y 9.2
#define Z X + Y

C++: En C++ el uso de #define está totalmente desaconsejado, para declarar una constante
simbólica (equivalente a constante en C) se usa la palabra clave const seguido del tipo de dato
que queramos incluir.

Pascal: En el lenguaje de programación Pascal es posible declarar constantes de cualquier tipo


de dato utilizando (al igual que C++) la palabra reservada const.
Const Saludar = "Hola Wiki-Informaticos!"

En este lenguaje, las constantes pueden ser establecidas en parámetros de cualquier tipo
(cadena o numéricos) sin presentar errores y al igual que en C se permite que las constantes
realicen cálculos antes de ser utilizadas.
Const A = 30
Const B = 20
Const C = A + B ' C = 50

Variables
Por definición, una variable en programación es un valor que puede cambiar durante el
periodo de ejecución del código. Así, por ejemplo, en un programa que saludara al usuario, puedo
utilizar una variable llamada "usuario". En un momento dado, el usuario puede ser "Juan". En
otro momento, esta variable puede cambiar a "Lola". En el código correspondiente, ambos
momentos se reflejarían en:
//Declaro la variable usuario, de tipo cadena
String usuario;
//Asigno a usuario el valor Juan
usuario="Juan";
//Ahora asigno a usuario el valor Lola
usuario="Lola";
Normalmente, es necesario declarar la variable antes de utilizarla, salvo en algunos lenguajes
más particulares, como el PHP. DECLARAR la variable quiere decir que estamos avisando al
ordenador de que tenemos intención de utilizar una zona de la memoria para ir guardando un
valor de referencia que puede ir cambiando. Para que el programa sepa cuánta memoria necesita
reservar a dicha variable, tenemos que indicar de qué tipo es. En la mayor parte de los lenguajes
comunes de programación, nos vamos a encontrar con los siguientes tipos de variable:

 int (integer) si queremos trabajar con valores enteros


 float si queremos trabajar con decimales
 char si queremos guardar un sólo carácter
 string si queremos guardar un texto (varios caracteres)
 boolean si queremos guardar valores de tipo true/false (verdadero/falso).

Capacidad de la computadora
Los tres factores más importantes que definen la capacidad de una computadora son la
velocidad de procesamiento, la capacidad de la memoria y la capacidad de almacenamiento. En
donde la velocidad de procesamiento la brinda la cantidad de ciclos o actividades por segundo,
que la determina el procesador, dentro de los que podemos destacar como más conocidos los
procesadores PENTIUM, CELERON, etc.

La capacidad de la memoria es la cantidad de información que el procesador central ejecutivo


(CPU) puede procesar por ciclos, lo cual se mide por la cantidad de bits, es por ello que se
promueven computadoras de 64 bits que indica que su capacidad de palabras de datos es de 64
bits.

Por último la capacidad de almacenamiento que la brinda el disco duro, que es donde se
guardan las informaciones, datos y/o programas. Los discos duros generalmente se miden en
Gigabyte (GB) o millones de bytes (un conjunto de ocho dígitos binarios 0 y 1, que son las
unidades de información más pequeñas usadas en computación). Por lo que a mayor cantidad de
GB o millones de bytes, mucho mayor será la capacidad de guardar cosas en el computador. Por
lo que si va a comprar un computador, para un uso corriente como manejo de documentos,
navegar en la Internet, acceder al correo electrónico, ver películas o videos digitales, escuchar
música y organizar fotos, necesita un procesador con velocidades de 1.4 a 2.6 GHz, no importa la
marca, un mínimo de 1GB de memoria RAM, de 80GB a 200 GB de disco.

Instrucciones aritméticas
Pueden implicar transferencia de datos antes y/o después. Realizan operaciones aritméticas de
las que se encarga la ALU. Se pueden clasificar en de 1 operando (valor absoluto, negación) y 2
operandos (suma, resta).

En computación, la unidad aritmética lógica o unidad aritmético-lógica, también conocida


como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que realiza
operaciones aritméticas (suma, resta) y operaciones lógicas (SI, Y, O, NO) entre los valores de
los argumentos (uno o dos)

Por mucho, los circuitos electrónicos más complejos son los que están construidos dentro de
los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de ellos
un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes)
puede tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de
ellas con múltiples ALU.

Muchos otros circuitos pueden contener en el interior una unidad aritmético lógica: unidades
de procesamiento gráfico como las que están en las GPU modernas, FPU como el viejo
coprocesador matemático 80387, y procesadores digitales de señales como los que se encuentran
en tarjetas de sonido, lectoras de CD y los televisores de alta definición. Todos estos tienen en su
interior varias ALU potentes y complejas.

Nemotécnicos más frecuentes

 add: suma.
 add with carry: suma con acarreo.
 subtract: resta.
 subtract with borrow: resta teniendo en cuenta el adeudo anterior.
 increment: incrementa en 1 un valor.
 decrement: decrementa en 1 un valor.
 multiply: multiplica.
 divide: divide.
 extend: aumenta el operando de tamaño.
 negate: cambia de signo.
 absolute: valor absoluto.

Pueden tener instrucciones para tratar con números en BCD e incluyen operaciones en coma
flotante, lo cual se identifica con una 'f' antes del nombre del nemotécnico como por ejemplo:
fabsolute

Definición de datos
En el caso del ordenador, se define como Dato a todo conjunto de instrucciones aisladas que
son interpretadas y procesadas por la Unidad Central de Procesamiento, para poder transformar
estos impulsos eléctricos con transmisión o no-transmisión de electricidad (es decir, el Código
Binario) en algo que puede ser percibido, interpretado y aprovechado por un usuario.

Esta información es ingresada mediante la interacción de un Periférico de Entrada, dispositivo


que permite ingresar nuevos datos aislados al equipo (por caso de un Teclado, tendremos la
transmisión de impulsos eléctricos correspondientes a cada caracter) pasando posteriormente por
el Procesador que se encarga de interpretar esta transmisión eléctrica, ordenándola y
transformándola en una Información que es posteriormente mostrada por un Periférico de Salida,
que permite que un usuario mediante sus sentidos la vea e interprete.

Es por ello que se establece que los Datos Aislados no pueden ser Información, teniendo la
necesidad de que exista una interpretación, un debido proceso que lleve a entender qué es lo que
contienen, dándoles un contexto y un orden que permita solamente una interpretación o de un
resultado único y perceptible.
Cuando estos datos son guardados permanentemente en un determinado Medio de
Almacenamiento, esta asignación simbólica con nombre, extensión y un formato determinado es
denominado como Archivo, pudiendo realizar su posterior proceso e interpretación a futuro.

Datos indefinidos
Indefinido no es realmente un tipo de datos. Denota una variable que no ha sido definida aún.
Una función (un método de proyecto que devuelve un resultado) puede devolver un valor
indefinido, dentro del método, el resultado de la función ($0) se asigna a una expresión indefinida
(una expresión calculada con por lo menos una variable indefinida). Un campo no puede ser
indefinido (el comando Undefined siempre devuelve False a un campo). Una variable variant
tiene el valor indefinido por defecto.

Funciones de bibliotecas
Las funciones de biblioteca son aquellas funciones que están definidas en los archivos de
cabecera dentro de un programa, estos archivos forman parte de las bibliotecas que maneja el
lenguaje "C" y que nos proporcionan gran ayuda en la programación, por ejemplo, existen en
"C" funciones predefinidas o de biblioteca que nos ayudan a realizar cálculos matemáticos, a
manejar cadenas de caracteres, entre otras muchas funciones que solo hay que usarlas sin tener
que escribirlas o definirlas.

El lenguaje de programación C, antes de normalizarse, no disponía de funcionalidades tales


como operaciones de entrada/salida (a diferencia de lenguajes tradicionales como COBOL y
FORTRAN). Con el tiempo, las comunidades de usuarios de C fueron compartiendo ideas, así
como las implementaciones de lo que ahora se denomina las bibliotecas estándar de C para
proporcionar esas funcionalidades. Muchas de estas ideas se incorporaron finalmente en la
definición estandarizada del lenguaje.

Tanto Unix como C fueron creados en los Laboratorios Bell de AT&T a finales de la década
de los 60 y principios de los 70. Fue en los 70 cuando el lenguaje de programación C acrecentó
su popularidad. Muchas organizaciones y universidades crearon sus propias versiones del
lenguaje para sus propios proyectos. A comienzos de los 80 se evidenciaron los problemas de
compatibilidad derivados de la existencia de las múltiples implementaciones del lenguaje. en
1983 el Instituto Nacional Estadounidense de Estándares (ANSI, de las siglas en inglés de
American National Standards Institute) creo un comité para establecer una especificación
estándar del lenguaje conocida como ANSI C. Este trabajo culminó con la creación del llamado
estándar C89 en 1989. Una parte del estándar resultante fue un conjunto de bibliotecas de
software denominado 'bibliotecas estándar de ANSI C.

El estándar Ansi
La biblioteca estándar de ANSI C consta de 24 ficheros cabecera que pueden ser incluidos en
un proyecto de programación con una simple directiva. Cada cabecera contiene la declaración de
una o más funciones, tipos de datos y macros.

En comparación con otros lenguajes de programación (como por ejemplo Java) la biblioteca
estándar es muy pequeña, está proporciona un conjunto básico de funciones matemáticas, de
tratamiento de cadenas, conversiones de tipo y entrada/salida por consola o por ficheros. No se
incluyen, ni un conjunto de tipos de datos contenedores básicos (listas, pilas, colas, ...), ni
herramientas para crear una interfaz gráfica de usuario (GUI), ni operaciones para trabajar en red,
no otras funcionalidades que un lenguaje como Java incorpora de manera estándar. La principal
ventaja del reducido tamaño de la biblioteca estándar de C es que construir un entorno de trabajo
en ANSI C es muy fácil y, en consecuencia, portar un programa en ANSI C de una plataforma a
otra es relativamente sencillo.

Se han desarrollado muchas otras bibliotecas para proporcionar una funcionalidad equivalente
a la de otros lenguajes de programación. Por ejemplo, el proyecto de desarrollo del entorno de
escritorio de GNOME creó las bibliotecas GTK+ y GLib con funcionalidades para desarrollar y
trabajar con interfaces gráficas de usuario. La variedad de bibliotecas disponibles ha hecho que, a
lo largo de la historia, haya quedado demostrada la superioridad de algunas de estas herramientas.
El gran inconveniente es que a menudo no funcionan especialmente bien en conjunto,
normalmente son los propios programadores familiarizados con las diferentes bibliotecas quienes
consiguen sacarles el máximo partido, aunque diferentes partes de ellas puedan estar disponibles
en cualquier plataforma.
Algoritmos
En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al cual
pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o
decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un
problema o tomar una decisión.

Los algoritmos no tienen que ver con los lenguajes de programación, dado que un mismo
algoritmo o diagrama de flujo puede representarse en diversos lenguajes de programación, es
decir, se trata de un ordenamiento previo a la programación.

Visto así, un programa no es otra cosa que una serie compleja de algoritmos ordenados y
codificados mediante un lenguaje de programación para su posterior ejecución en un computador.
Los algoritmos también son frecuentes en la matemática y la lógica, y son la base de la
fabricación de manuales de usuario, folletos de instrucciones, etc. Uno de los algoritmos más
conocidos de la matemática es el atribuido a Euclides, para obtener el máximo común divisor de
dos enteros positivos, o el llamado “método de Gauss” para resolver sistemas de ecuaciones
lineales.

Partes de un algoritmo
Todo algoritmo debe constar de las siguientes partes:

 Input o entrada. El ingreso de los datos que el algoritmo necesita para operar.
 Proceso. Se trata de la operación lógica formal que el algoritmo emprenderá con lo
recibido del input.
 Output o salida. Los resultados obtenidos del proceso sobre el input, una vez terminada
la ejecución del algoritmo.

¿Para qué sirve un algoritmo?


Dicho muy llanamente, un algoritmo sirve para resolver paso a paso un problema. Se trata de
una serie de instrucciones ordenadas y secuenciadas para guiar un proceso determinado.

En las Ciencias de la computación, no obstante, los algoritmos constituyen el esqueleto de los


procesos que luego se codificarán y programarán para que sean realizados por el computador.

Tipos de algoritmos
Existen cuatro tipos de algoritmos en informática:

 Algoritmos computacionales. Un algoritmo cuya resolución depende del cálculo, y que


puede ser desarrollado por una calculadora o computadora sin dificultades.
 Algoritmos no computacionales. Aquellos que no requieren de los procesos de un
computador para resolverse, o cuyos pasos son exclusivos para la resolución por parte
de un ser humano.
 Algoritmos cualitativos. Se trata de un algoritmo en cuya resolución no intervienen
cálculos numéricos, sino secuencias lógicas y/o formales.
 Algoritmos cuantitativos. Todo lo contrario, es un algoritmo que depende de cálculos
matemáticos para dar con su resolución.

Características de los algoritmos


Los algoritmos presentan las siguientes características:

 Secuenciales. Los algoritmos operan en secuencia, debe procesarse uno a la vez.


 Precisos. Los algoritmos han de ser precisos en su abordaje del tema, es decir, no
pueden ser ambiguos o subjetivos.
 Ordenados. Los algoritmos se deben establecer en la secuencia precisa y exacta para
que su lectura tenga sentido y se resuelva el problema.
 Finitos. Toda secuencia de algoritmos ha de tener un fin determinado, no puede
prolongarse hasta el infinito.
 Concretos. Todo algoritmo debe ofrecer un resultado en base a las funciones que
cumple.
 Definidos. Un mismo algoritmo ante los mismos elementos de entrada (input) debe dar
siempre los mismos resultados.
Conclusión

Las instrucciones son herramienta que nos permite utilizar un lenguaje de computadora para
crear salidas, procesarlas y finalmente emitirlas como resultado a la solución de un problema, la
creación de un juego nuevo, realizar animaciones, crear una aplicación tecnológica, así como
también nos permite introducirnos al mundo de la robótica y la domótica.

Cuando programamos desarrollamos diversas habilidades tal como el pensamiento lógico


computacional, tener en mente alternativas de solución y algo importante, permite desarrollar la
creatividad.

"Todos en este país deberían aprender a programar una computadora...porque te enseña a


pensar" Steve Jobs
Bibliografía

https://es.wikipedia.org/wiki/Constante_(inform%C3%A1tica)

http://www.aprendizdetecnologo.com/index.php/programacion/36-introduccion-a-la-

programacion-i-variables-y-sentencias-de-control-de-flujo

https://hoy.com.do/respondiendotecomo-saber-la-capacidad-de-una-computadora/

http://arquitecturadelcomputadorsemestre6.blogspot.com/2014/10/instruccion-

informatica.html

https://sistemas.com/datos.php

https://doc.4d.com/4Dv18/4D/18.4/Tipos-de-datos.300-5233654.es.html

https://sites.google.com/site/programacionyal/home/unidad-4/4-1-funciones-de-biblioteca

https://concepto.de/algoritmo-en-informatica/

También podría gustarte