Está en la página 1de 14

La arquitectura de computadoras es el diseño conceptual y la estructura operacional

fundamental de un sistema de computadoras.1Es decir, es un modelo y una descripción


funcional de los requerimientos y las implementaciones de diseño para varias partes de una
computadora, con especial interés en la forma en que la unidad central de proceso (CPU)
trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de interconectar componentes de hardware, para crear
computadoras según los requerimientos de funcionalidad, rendimiento y costo.
La computadora recibe y envía la información a través de los periféricos, por medio de los
canales. La CPU es la encargada de procesar la información que le llega a la computadora. El
intercambio de información se tiene que hacer con los periféricos y la CPU. Puede
considerarse que todas aquellas unidades de un sistema, exceptuando la CPU, se denomina
periférico, por lo que la computadora tiene dos partes bien definidas, que son:

1. La CPU (encargada de ejecutar programas y que también se considera compuesta por


la memoria principal, la unidad aritmético lógica y la unidad de control),
2. Los periféricos (que pueden ser de entrada, salida, entrada/salida, almacenamiento y
comunicaciones).
La implantación de instrucciones es similar al uso de una serie de desmontaje en
una fábrica de manufacturación. En las cadenas de montaje, el producto pasa a través de
muchas etapas de producción antes de tener el producto desarmado. Cada etapa o segmento
de la cadena está especializada en un área específica de la línea de producción y lleva a cabo
siempre la misma actividad. Esta tecnología es aplicada en el diseño
de procesadores eficientes.
A estos procesadores se les conoce como pipeline processors. Estos están compuestos por
una lista de segmentos lineales y secuenciales en donde cada segmento lleva a cabo una
tarea o un grupo de tareas computacionales. Los datos que provienen del exterior se
introducen en el sistema para ser procesados. La computadora realiza operaciones con los
datos que tiene almacenados en memoria, produce nuevos datos o información para el uso
externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los
siguientes aspectos:

 Almacenamiento de operados en la CPU: dónde se ubican los operadores aparte de la


sustractora informativa (SI).
 Cantidad de operados explícitos por instrucción: cuántos operados se expresan en
forma explícita en una instrucción típica. Normalmente son 0, 1, 2 y 3.
 Posición del operando: ¿cualquier operando puede estar en memoria, o deben estar
algunos o todos en los registros internos de la CPU?. Cómo se especifica la dirección de
memoria (modos de direccionamiento disponibles).
 Operaciones: qué operaciones están disponibles en el conjunto de instrucciones.
 Tipo y tamaño de operados y cómo se especifican.
Veamos primero cual es el significado de los términos CISC y RISC:

 CISC (complex instruction set computer) Computadoras con un


conjunto de instrucciones complejo.

RISC (reduced instruction set computer) Computadoras con un


ARQUITECTURAS CISC
La microprogramación es una característica importante y esencial de casi
todas las arquitecturas CISC.

Como por ejemplo:

Intel 8086, 8088, 80286, 80386, 80486.


Motorola 68000, 68010, 68020, 68030, 6840.

La microprogramación significa que cada instrucción de máquina es


interpretada por una microprograma localizada en una memoria en el
circuito integrado del procesador.

En la década de los sesentas la micropramación, por sus características,


era la técnica más apropiada para las tecnologías de memorias
existentes en esa época y permitía desarrollar también procesadores con
compatibilidad ascendente. En consecuencia, los procesadores se
dotaron de poderosos conjuntos de instrucciones.

Las instrucciones compuestas son decodificadas internamente y


ejecutadas con una serie de microinstrucciones almacenadas en una
ROM interna. Para esto se requieren de varios ciclos de reloj (al menos
uno por microinstrucción).

ARQUITECTURAS RISC

Buscando aumentar la velocidad del procesamiento se descubrió en


base a experimentos que, con una determinada arquitectura de base, la
ejecución de programas compilados directamente con microinstrucciones
y residentes en memoria externa al circuito integrado resultaban ser mas
eficientes, gracias a que el tiempo de acceso de las memorias se fue
decrementando conforme se mejoraba su tecnología de encapsulado.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se
pueden implantar por hardware directamente en la CPU, lo cual elimina
el microcódigo y la necesidad de decodificar instrucciones complejas.

En investigaciones hechas a mediados de la década de los setentas, con


respecto a la frecuencia de utilización de una instrucción en un CISC y al
tiempo para su ejecución, se observó lo siguiente:

- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de
ejecución de un programa.

- Existen secuencias de instrucciones simples que obtienen el mismo


resultado que secuencias complejas predeterminadas, pero requieren
tiempos de ejecución más cortos.

Las características esenciales de una arquitectura RISC pueden


resumirse como sigue:

 Estos microprocesadores siguen tomando como base el esquema


moderno de Von Neumann.
 Las instrucciones, aunque con otras características, siguen
divididas en tres grupos:

a) Transferencia.
b) Operaciones.
c) Control de flujo.

 conjunto de instrucciones reducido.

Diferencia de rics y cisc

CISC (Complex Instruction Set Computer) Computadoras con un conjunto de instrucciones complejo.
RISC (Reduced Instruction Set Computer) Computadoras con un conjunto de instrucciones reducido.

La arquitectura CISC se refiere a los microprocesadores tradicionales que operan con grupos grandes
de instrucciones de procesador (lenguaje de maquina). Los microprocesadores INTEL 80xxx están
dentro de esta categoría (incluido el PENTIUM). Los procesadores CISC tienen un set de instrucciones
complejas por naturaleza que requieren varios a muchos ciclos para completarse.

La arquitectura RISC a diferencia de los CISC tiene un set de instrucciones simples requiriendo uno o
pocos ciclos de ejecución. Estas instrucciones pueden ser utilizadas más eficientemente que la de los
procesadores CISC con el diseño de software apropiado, resultando en operaciones más rápidas.
La computación paralela es una forma de cómputo en la que muchas instrucciones se
ejecutan simultáneamente,1 operando sobre el principio de que problemas grandes, a menudo
se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en
paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit,
paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo
se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones,
pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el
aumento de la frecuencia2Como el consumo de energía —y por consiguiente la generación de
calor— de las computadoras constituye una preocupación en los últimos años3 la computación
en paralelo se ha convertido en el paradigma dominante en la arquitectura de computadores,
principalmente en forma de procesadores multinúcleo4
Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite
su hardware: equipos con procesadores multinúcleo y multi-procesador que tienen múltiples
elementos de procesamiento dentro de una sola máquina y los clústeres, MPPS y grids que
utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar tareas
específicas, se utilizan arquitecturas especializadas de computación en paralelo junto a
procesadores tradicionales.
Los programas informáticos paralelos son más difíciles de escribir que los secuenciales,5
porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones
de carrera los más comunes. La comunicación y sincronización entre diferentes subtareas son
algunos de los mayores obstáculos para obtener un buen rendimiento del programa paralelo.
La máxima aceleración posible de un programa como resultado de la paralización se conoce
como la ley de Amdahl.
SISTEMA DE MEMORIAS

Elemento de memoria de núcleos magnéticos, 1971, capacidad de 16 KiB

Memoria primaria (MP), memoria principal, memoria central o memoria interna es la


memoria de la computadora donde se almacenan temporalmente tanto los datos como los
programas que la unidad central de procesamiento (CPU) está procesando o va a procesar en
un determinado momento. Por su función, la MP debe ser inseparable del microprocesador o
CPU, con quien se comunica a través del bus de datos y el bus de direcciones. El ancho
del bus determina la capacidad que posea el microprocesador para el direccionamiento de
direcciones en memoria.
En algunas ocasiones suele llamarse “memoria interna” porque a diferencia de los dispositivos
de memoria secundaria, la MP no puede extraerse tan fácilmente.
Esta clase de memoria es volátil, es decir que cuando se corta la energía eléctrica, se borra
toda la información que estuviera almacenada en ella.
La MP es el núcleo del subsistema de memoria de un sistema informático, y posee una menor
capacidad de almacenamiento que la memoria secundaria, pero una velocidad millones de
veces superior. Cuanto mayor sea la cantidad de memoria, mayor será la capacidad de
almacenamiento de datos.
Cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y después lo
empieza a ejecutar. Lo mismo ocurre cuando necesita procesar una serie de datos; antes de
poder procesarlos los tiene que llevar a la memoria principal.
Dentro de la memoria de acceso aleatorio (RAM) existe una clase de memoria
denominada memoria caché, que se caracteriza por ser más rápida que las demás,
permitiendo que el intercambio de información entre la CPU y la MP sea a mayor velocidad.
La estructura de la memoria principal ha cambiado en la historia de las computadoras. Desde
los años 1980 es prevalentemente una unidad dividida en celdas que se identifican mediante
una dirección. Está formada por bloques de circuitos integrados o chips capaces de
almacenar, retener o "memorizar" información digital, es decir, valores binarios; a dichos
bloques tiene acceso el microprocesador de la computadora.
Sistema de memoria en base
En informática, la memoria es el dispositivo que retiene, memoriza o
almacena datos informáticos durante algún período de tiempo.1La memoria proporciona una
de las principales funciones de la computación moderna: el almacenamiento de información y
conocimiento. Es uno de los componentes fundamentales de la computadora, que
interconectada a la unidad central de procesamiento (CPU, por las siglas en inglés de Central
Processing Unit) y los dispositivos de entrada/salida, implementan lo fundamental del modelo
de computadora de la arquitectura de von Neumann.
En la actualidad, «memoria» suele referirse a una forma de almacenamiento de estado sólido,
conocida como memoria RAM (memoria de acceso aleatorio; RAM por sus siglas en inglés,
de random access memory), y otras veces se refiere a otras formas de almacenamiento
rápido, pero temporal. De forma similar, se refiere a formas de almacenamiento masivo,
como discos ópticos, y tipos de almacenamiento magnético, como discos duros y otros tipos
de almacenamiento, más lentos que las memorias RAM, pero de naturaleza más permanente.
Estas distinciones contemporáneas son de ayuda, porque son fundamentales para la
arquitectura de computadores en general.
Además, se refleja una diferencia técnica importante y significativa entre «memoria» y
«dispositivos de almacenamiento masivo», que se ha ido diluyendo por el uso histórico de los
términos «almacenamiento primario» (a veces «almacenamiento principal»), para memorias
de acceso aleatorio, y «almacenamiento secundario», para dispositivos de almacenamiento
masivo. Esto se explica en las siguientes secciones, en las que el término tradicional
«almacenamiento» se usa como subtítulo, por conveniencia.

La memoria de acceso aleatorio (Random Access Memory, RAM) se utiliza como memoria
de trabajo de computadoras y otros dispositivos para el sistema operativo, los programas y la
mayor parte del software. En la RAM se cargan todas las instrucciones que ejecuta la unidad
central de procesamiento (procesador) y otras unidades del computador, además de contener
los datos que manipulan los distintos programas.
Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de
memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un
orden para acceder (acceso secuencial) a la información de la manera más rápida posible.
Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM
estén conectados de manera correcta. En el caso que no existan o no se detecten los
módulos, la mayoría de tarjetas madres emiten una serie de sonidos que indican la ausencia
de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico
sobre la memoria RAM indicando fallos mayores en la misma.
Una EPROM

La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only
memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos
electrónicos, que permite solo la lectura de la información y no su escritura,1
independientemente de la presencia o no de una fuente de energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o
fácil. Se utiliza principalmente para contener el firmware2 (programa que está estrechamente
ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u
otro contenido vital para el funcionamiento del dispositivo, como los programas que ponen en
marcha el ordenador y realizan los diagnósticos.
En su sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- (el más antiguo
tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente,
y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM
más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a
programar varias veces, aún siendo descritos como "memoria de solo lectura" (ROM). La
razón de que se las continúe llamando así es que el proceso de reprogramación en general es
poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares
aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos
reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se
suelen encontrar en hardware producido a partir de 2007.

En informática, la memoria virtual es una técnica de gestión de la memoria que permite que
el sistema operativo disponga, tanto para el software de usuario como para sí mismo, de
mayor cantidad de memoria que esté disponible físicamente. La mayoría de los ordenadores
tienen cuatro tipos de memoria: registros en la CPU, la memoria caché (tanto dentro como
fuera del CPU), la memoria RAM y el disco duro. En ese orden, van de menor capacidad y
mayor velocidad a mayor capacidad y menor velocidad.
Muchas aplicaciones requieren acceso a más información (código y datos) que la que se
puede mantener en memoria física. Esto es así sobre todo cuando el sistema operativo
permite múltiples procesos y aplicaciones ejecutándose simultáneamente. Una solución al
problema de necesitar mayor cantidad de memoria de la que se posee consiste en que las
aplicaciones mantengan parte de su información en disco, moviéndola a la memoria principal
cuando sea necesario. Hay varias formas de hacer esto.
Una opción es que la aplicación misma sea responsable de decidir qué información será
guardada en cada sitio (segmentación), y de traerla y llevarla. La desventaja de esto, además
de la dificultad en el diseño e implementación del programa, es que es muy probable que los
intereses sobre la memoria de dos o varios programas generen conflictos entre sí: cada
programador podría realizar su diseño teniendo en cuenta que es el único programa
ejecutándose en el sistema. La alternativa es usar memoria virtual, donde la combinación
entre hardware especial y el sistema operativo hace uso de la memoria principal y la
secundaria para hacer parecer que el ordenador tiene mucha más memoria principal (RAM)
que la que realmente posee. Este método es invisible a los procesos. La cantidad de memoria
máxima que se puede hacer ver que hay tiene que ver con las características del procesador.
Por ejemplo, en un sistema de 32 bits, el máximo es 232, lo que da 4096 Megabytes (4
Gigabytes). Todo esto hace el trabajo del programador de aplicaciones mucho más fácil, al
poder ignorar completamente la necesidad de mover datos entre los distintos espacios de
memoria.
Aunque la memoria virtual podría estar implementada por el software del sistema operativo, en
la práctica casi siempre se usa una combinación de hardware y software, dado el esfuerzo
extra que implicaría para el procesador.

Diagrama de una memoria caché de CPU.

En informática, una caché es un componente de hardware o software que almacena datos


para que las solicitudes futuras de esos datos se puedan atender con mayor rapidez; los datos
almacenados en un caché pueden ser el resultado de un cálculo anterior o el duplicado de
datos almacenados en otro lugar, generalmente, de velocidad de acceso más rápido. Se
produce un acierto de caché cuando los datos solicitados se pueden encontrar en esta,
mientras que un error de caché ocurre cuando no están dichos datos. La lectura de la caché
es más rápido que volver a calcular un resultado o leer desde un almacén de datos más lento;
por lo tanto, cuantas más solicitudes se puedan atender desde la memoria caché, más rápido
funcionará el sistema.
Cuando hablamos de una caché de memoria nos referimos a la memoria de acceso rápido de
una unidad central de procesamiento (CPU), que guarda temporalmente los datos recientes de
los procesados (información).1
La memoria caché es un búfer especial de memoria que poseen las computadoras, que
funciona de manera semejante a la memoria principal, pero es de menor tamaño y de acceso
más rápido. Nace cuando las memorias ya no eran capaces de acompañar a la velocidad del
procesador, por lo que se puede decir que es una memoria auxiliar, que posee una gran
velocidad y eficiencia y es usada por el microprocesador para reducir el tiempo de acceso a
datos ubicados en la memoria principal que se utilizan con más frecuencia.
La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y
la memoria de acceso aleatorio (RAM) para acelerar el intercambio de datos.
Cuando se accede por primera vez a un dato, se hace una copia en la caché; los accesos
siguientes se realizan a dicha copia, haciendo que sea menor el tiempo de acceso medio al
dato. Cuando el microprocesador necesita leer o escribir en una ubicación en memoria
principal, primero verifica si una copia de los datos está en la caché; si es así, el
microprocesador de inmediato lee o escribe en la memoria caché, que es mucho más rápido
que de la lectura o la escritura a la memoria principal.2
De forma similar, cuando hablamos de caché software hablamos de un espacio de memoria
que contiene los datos calculados o copiados desde un espacio más lento. Un ejemplo
habitual es hablar de la caché del navegador web, este espacio en disco contiene la
información temporal descargada desde Internet o red interna, que por la naturaleza del
sistema, siempre tendrá una velocidad más lenta que el disco físico de la máquina.

Diseño de registros con funciones básicas


Un registro es un conjunto de flip-flops que almacenan un
mismo dato, y se rigen por las mismas se˜nales de control
(i.e. reloj, reset, y habilitaci´on). Cuando las entradas de cada
flip-flop son independientes y se comparte la se˜nal de
habilitaci´on, el registro se conoce como registro con carga en
paralelo.
Los registros de corrimiento son untiles para implementar: (a)
multiplicaci´on y (b) divisi´on de un entero por un multiplo de
dos, o (c) conversi´on de serie a paralelo.
En general, los programas escritos en C++ tienen una estructura (básica) compuesta por tres
secciones:

1. Directivas de preprocesador
2. declaraciones globales
3. declaración de funciones
Directivas de preprocesador[editar]
Los compiladores de C++ proporcionan bibliotecas de funciones, y cada biblioteca de funciones
tiene asociada un archivo de definición que se denomina cabecera. Para utilizar algo de una
biblioteca en un programa (por ejemplo, una función), hay que colocar al principio del programa
una directiva de preprocesamiento seguida de la cabecera de la biblioteca entre signos de
"menor que" y "mayor que" (<>).

En computación, la unidad aritmética lógica o unidad aritmético-lógica, también conocida


como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula
operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o,
no), entre valores (generalmente uno o dos) de los argumentos.
Por mucho, los circuitos electrónicos más complejos son los que están construidos dentro de
los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de
ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y
los mainframes) puede tener múltiples núcleos, cada núcleo con múltiples unidades de
ejecución, cada una de ellas con múltiples ALU.
Muchos otros circuitos pueden contener en el interior una unidad aritmético lógica: unidades
de procesamiento gráfico como las que están en las GPU modernas, FPU como el
viejo coprocesador matemático 80387, y procesadores digitales de señales como los que se
encuentran en tarjetas de sonido, lectoras de CD y los televisores de alta definición. Todos
éstos tienen en su interior varias ALU potentes y complejas.

La palabra hardware en informática se refiere a las partes físicas tangibles de un sistema


informático; sus componentes eléctricos, electrónicos, electromecánicos y mecánicos.1 Los
cables, así como los gabinetes o cajas, los periféricos de todo tipo, y cualquier otro elemento
físico involucrado, componen el hardware o soporte físico; contrariamente, el soporte lógico e
intangible es el llamado software.
El término es propio del idioma inglés, su traducción al español no tiene un significado acorde,
por tal motivo se lo ha adoptado tal cual es y suena. La Real Academia Española lo define
como «Conjunto de los componentes que integran la parte material de una computadora».2 El
término, aunque sea lo más común, no solamente se aplica a las computadoras, también es a
menudo utilizado en otras áreas de la vida diaria y la tecnología. Por
ejemplo, hardware también se refiere a herramientas y máquinas, y en electrónica hardware
se refiere a todos los componentes electrónicos, eléctricos, electromecánicos, mecánicos,
cableados y tarjetas de circuitos impresos.
Otros ejemplos donde se aplica el término hardware son, en relación a los robots,34 así como
en relación a los teléfonos móviles, las cámaras fotográficas, los reproductores digitales, o
cualquier otro dispositivo electrónico. Cuando dichos dispositivos también procesan datos,
poseen firmware y/o software además de hardware.
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una
caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría
hacerse entre hardwareprincipal, como el estrictamente necesario para el funcionamiento
normal del equipo, y el «complementario», como el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP o CPU),
encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de salida, que posibilitan dar salida
(normalmente en forma visual, impresa o auditiva) a los datos procesados. Su abreviatura
es Hw.
Hardware típico de una computadora personal:
1. Monitor.
2. Placa principal.
3. Microprocesador (CPU) y zócalo.
4. Un módulo de RAM y tres ranuras.
5. Dos tarjetas de expansión y tres ranuras.
6. Fuente de alimentación.
7. Unidad de disco óptico (CD; DVD; BD).
8. Unidad de disco duro o unidad de estado sólido.
9. Teclado.
10. Ratón.

Dentro de la ingeniería de sistemas, un sistema de control es un conjunto de dispositivos


encargados de administrar, ordenar, dirigir o regular el comportamiento de otro sistema, con el
fin de reducir las probabilidades de fallo y obtener los resultados deseados. Por lo general, se
usan sistemas de control industriales en procesos de producción industriales1 para controlar
equipos o máquinas.2
Existen dos clases comunes de sistemas de control, sistemas de lazo abierto y sistemas de
lazo cerrado. En los sistemas de control de lazo abierto la salida se genera dependiendo de la
entrada; mientras que en los sistemas de lazo cerrado la salida depende de las
consideraciones y correcciones realizadas por la retroalimentación. Un sistema de lazo
cerrado es llamado también sistema de control con realimentación. Los sistemas de control
más modernos en ingeniería automatizan procesos sobre la base de muchos parámetros y
reciben el nombre de controladores de automatización programables (PAC).
Control: selección de las entradas de un sistema de manera que los estados o salidas
cambien de acuerdo a una manera deseada. Los elementos son:

 Siempre existe para verificar el logro de los objetivos que se establecen en la planeación.
 Medición. Para controlar es imprescindible medir y cuantificar los resultados.
 Detectar desviaciones. Una de las funciones inherentes al control, es descubrir las
diferencias que se presentan entre la ejecución y la planeación.
 Establecer medidas correctivas. El objeto del control es prever y corregir los errores.
 Factores de control; Cantidad, Tiempo, costo, Calidad.
Controlador: (Electrónica). Es un dispositivo electrónico que emula la capacidad de los seres
humanos para ejercer control. Por medio de cuatro acciones de control: compara, calcula,
ajusta y limita.
Proceso: operación o desarrollo natural progresivamente continúo, marcado por una serie de
cambios graduales que se suceden uno al otro en una forma relativamente fija y que conducen
a un resultado o propósito determinados. Operación artificial o voluntaria progresiva que
consiste en una serie de acciones o movimientos controlados, sistemáticamente dirigidos
hacia un resultado o propósito determinados. Ejemplos: procesos químicos, económicos y
biológicos.
Supervisión: acto de observar el trabajo y tareas de otro (individuo o máquina) que puede no
conocer el tema en profundidad.

Sistema de control de lazo abierto[editar]


Es aquel sistema en que solo actúa el proceso sobre la señal de entrada y da como resultado
una señal de salida independiente a la señal de entrada, pero basada en la primera. Esto
significa que no hay retroalimentación hacia el controlador para que éste pueda ajustar la
acción de control. Es decir, la señal de salida no se convierte en señal de entrada para el
controlador.

 Ejemplo 1: Un tanque con una manguera de jardín. Mientras que la llave siga abierta, el
agua fluirá. La altura del agua en el tanque no puede hacer que la llave se cierre y por
tanto no nos sirve para un proceso que necesite de un control de contenido o
concentración.
 Ejemplo 2: Al hacer una tostada, lo que hacemos es controlar el tiempo de tostado de ella
misma entrando una variable (en este caso el grado de tostado que queremos). En
definitiva, el que nosotros introducimos como parámetro es el tiempo.
Estos sistemas se caracterizan por:

 Ser sencillos y de fácil concepto.


 Nada asegura su estabilidad ante una perturbación.
 La salida no se compara con la entrada.
 Ser afectado por las perturbaciones. Estas pueden ser tangibles o intangibles.
 La precisión depende de la previa calibración del sistema.
Sistema de control de lazo cerrado[editar]
Son los sistemas en los que la acción de control está en función de la señal de salida. Los
sistemas de circuito cerrado usan la retroalimentación desde un resultado final para ajustar la
acción de control en consecuencia.
El control en lazo cerrado es imprescindible cuando se da alguna de las siguientes
circunstancias:
 Cuando un proceso no es posible de regular por el hombre.
 Una producción a gran escala que exige grandes instalaciones y el hombre no es capaz
de manejar.
 Vigilar un proceso es especialmente difícil en algunos casos y requiere una atención que
el hombre puede perder fácilmente por cansancio o despiste, con los consiguientes
riesgos que ello pueda ocasionar al trabajador y al proceso.
Sus características son:

 Ser complejos, pero amplios en cantidad de parámetros.


 La salida se compara con la entrada y le afecta para el control del sistema.
 Su propiedad de retroalimentación.
 Ser más estable a perturbaciones y variaciones internas.
Un ejemplo de un sistema de control de lazo cerrado sería el termotanque de agua que
utilizamos para bañarnos.
Otro ejemplo sería un regulador de nivel de gran sensibilidad de un depósito. El movimiento de
la boya produce más o menos obstrucción en un chorro de aire o gas a baja presión. Esto se
traduce en cambios de presión que afectan a la membrana de la válvula de paso, haciendo
que se abra más cuanto más cerca se encuentre del nivel máximo.

La resolución de un problema mediante un ordenador consiste en el proceso que a partir de


la descripción de un problema, expresado habitualmente en lenguaje natural y en términos
propios del dominio del problema, permite desarrollar un programa que resuelva dicho
problema.
Este proceso exige los siguientes pasos:

 Análisis del problema.


 Diseño o desarrollo de un algoritmo.
 Transformación del algoritmo en un programa (codificación).
 Ejecución y validación del programa.
Los dos primeros pasos son los más difíciles del proceso. Una vez analizado el problema y
obtenido un algoritmo que lo resuelva, su transformación a un programa de ordenador es una
tarea de mera traducción al lenguaje de programación deseado.

Software

Dentro de la categoría de software de aplicaciónestán incluidos los procesadores de


texto como LibreOffice Writer (arriba) y los editores de gráficos rasterizados como Krita (abajo).
Buscador de Programas en Ubuntu 13.10

Se conoce como software1 al soporte lógico de un sistema informático, que comprende el


conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas
específicas, en contraposición a los componentes físicos que son llamados hardware. La
interacción entre el software y el hardware hace operativo un ordenador (u otro dispositivo), es
decir, el Software envía instrucciones que el Hardware ejecuta, haciendo posible su
funcionamiento.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas, tales
como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a
la edición de textos; el llamado software de sistema, tal como el sistema operativo, que
básicamente permite al resto de los programas funcionar adecuadamente, facilitando también
la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando
una interfaz con el usuario. 2
El software en su gran mayoría, está escrito en lenguajes de programación de alto nivel, ya
que son más fáciles y eficientes para que los programadores los usen, porque son más
cercanos al lenguaje natural respecto del lenguaje de máquina.3 Los lenguajes de alto nivel se
traducen a lenguaje de máquina utilizando un compilador o un intérprete, o bien una
combinación de ambos. El software también puede estar escrito en lenguaje ensamblador ,
que es de bajo nivel y tiene una alta correspondencia con las instrucciones de lenguaje
máquina; se traduce al lenguaje de la máquina utilizando un ensamblador.
El anglicismo software es el más ampliamente difundido al referirse a este concepto,
especialmente en la jerga técnica; en tanto que el término sinónimo «logicial», derivado del
término francés logiciel, es utilizado mayormente en países y zonas de influencia francesa. Su
abreviatura es Sw.

También podría gustarte