Está en la página 1de 11

UNIVERSIDAD DOMINICO AMERICANO

ESCUELA DE INFORMÁTICA
ARQUITECTURA DEL COMPUTADOR

NOMBRE:
Darlin Antonio Espinosa Féliz

MATRICULA:
2020-30-3-0023

MAESTRA:
LILIANA HERASME

TEMA:
ENSAYO UNIDAD 5

FECHA DE ENTREGA:
11 DE MARZO 2023
Introducción.
La arquitectura interna del computador se refiere a la estructura y
organización de los componentes internos de un sistema informático. Esta
arquitectura se compone de diferentes elementos, como la CPU, la
memoria, los dispositivos de entrada y salida, y otros componentes que
trabajan juntos para procesar y almacenar información.

La arquitectura interna del computador es importante porque determina la


forma en que los programas y aplicaciones pueden ser escritos y
ejecutados, y cómo los usuarios pueden interactuar con el sistema.
Además, la arquitectura interna también influye en la velocidad y eficiencia
del procesamiento de datos, así como en la capacidad de expansión y
actualización del sistema.

Por lo tanto, comprender la arquitectura interna del computador es


esencial para los ingenieros y desarrolladores de software, así como para
los usuarios finales que desean mejorar el rendimiento de su sistema o
resolver problemas técnicos. En esta era digital, la arquitectura interna del
computador se encuentra en constante evolución, impulsando el desarrollo
de tecnologías más avanzadas y poderosas.
Arquitectura de la tarjeta principal(tarjeta madre)
La arquitectura de la tarjeta principal, también conocida como tarjeta
madre o placa base, es uno de los componentes más importantes de
cualquier computadora. Es la pieza central a la que se conectan todos los
demás componentes, como el procesador, la memoria, el almacenamiento
y los puertos de entrada y salida.
En general, la arquitectura de la tarjeta madre está diseñada para
proporcionar una conexión estable y confiable entre todos los
componentes del sistema. La mayoría de las tarjetas madre modernas
utilizan una arquitectura de bus de sistema, que es una serie de
conductores que conectan los componentes de la computadora y permiten
la transferencia de datos entre ellos. El bus de sistema también se encarga
de administrar el flujo de energía a través de la placa base.

La tarjeta madre está diseñada para acomodar diferentes tipos de


componentes, como procesadores, memoria RAM, tarjetas de video y
dispositivos de almacenamiento. Por lo tanto, la arquitectura de la tarjeta
madre también debe ser compatible con los estándares de la industria para
estos componentes. Por ejemplo, la mayoría de las tarjetas madre
modernas utilizan sockets de CPU compatibles con los procesadores Intel o
AMD, y ranuras de memoria RAM que admiten DDR3, DDR4 o DDR5.

Otro componente importante de la arquitectura de la tarjeta madre es el


chipset, que es un conjunto de circuitos integrados que se encarga de
coordinar el flujo de datos entre el procesador y los demás componentes
del sistema. El chipset también puede proporcionar características
adicionales, como conectividad de red y audio integrados, puertos USB y
soporte para overclocking.

En general, la arquitectura de la tarjeta madre es un aspecto crítico del


diseño de cualquier computadora, ya que influye en su capacidad de
procesamiento, velocidad y estabilidad. La elección de una tarjeta madre
adecuada para un sistema de computadora específico depende de varios
factores, como el tipo de procesador que se utilizará, la cantidad de
memoria necesaria y los dispositivos de entrada y salida requeridos.

Arquitectura de las ranuras de expansión ISA, EISA, PCI Y AGP.


Las ranuras de expansión son conectores de placa base que permiten a los
usuarios conectar dispositivos adicionales a su sistema informático. En la
historia de la informática, varias arquitecturas de ranuras de expansión han
sido utilizadas, incluyendo ISA, EISA, PCI y AGP. A continuación, describiré
brevemente cada una de estas arquitecturas:
ISA (Industry Standard Architecture): ISA fue la primera arquitectura de
ranura de expansión ampliamente utilizada en los sistemas informáticos.
Fue introducida en 1981 por IBM y soporta una velocidad de bus de hasta
8 MHz. ISA se utiliza principalmente para dispositivos de baja velocidad
como tarjetas de sonido y módems.

EISA (Extended Industry Standard Architecture): EISA fue introducida en


1988 como una mejora de ISA. EISA soporta una velocidad de bus de hasta
20 MHz y es compatible con dispositivos ISA. EISA se utiliza principalmente
para dispositivos de alta velocidad como tarjetas de red y controladores
SCSI.

PCI (Peripheral Component Interconnect): PCI fue introducida en 1992 y se


convirtió en la arquitectura de ranura de expansión más popular en los
sistemas informáticos. PCI soporta una velocidad de bus de hasta 66 MHz y
es compatible con dispositivos ISA y EISA. PCI se utiliza principalmente para
dispositivos de alta velocidad como tarjetas gráficas y controladores de
almacenamiento.

AGP (Accelerated Graphics Port): AGP fue introducida en 1997 como una
mejora de PCI para tarjetas gráficas. AGP soporta una velocidad de bus de
hasta 533 MHz y utiliza un canal dedicado para transferir datos entre la
tarjeta gráfica y la memoria del sistema. AGP se utiliza exclusivamente para
tarjetas gráficas y ha sido reemplazada por la arquitectura PCI Express
(PCIe) en la mayoría de los sistemas modernos.

Arquitectura del conjunto de super chip


El término "Super Chipset" es un término antiguo que se refería a un
conjunto de circuitos integrados que se utilizaban en placas base de
computadoras de la década de 1990. A menudo, se utilizaba para referirse
a un conjunto de chips que se encargaban del control de diversos
componentes de la placa base, incluyendo el bus de sistema, los puertos de
entrada/salida, la gestión de energía, entre otros.
La arquitectura de un conjunto de super chipset se basaba en la separación
de los componentes de la placa base en diferentes controladores de chips.
Cada controlador de chips estaba diseñado específicamente para manejar
un componente específico de la placa base, lo que permitía una mayor
eficiencia en el rendimiento y la gestión de energía.
A medida que la tecnología avanzó, la arquitectura de conjunto de super
chipset fue reemplazada por la arquitectura de chipset único. La
arquitectura de chipset único combina las funciones de varios
controladores de chips en un solo chip, lo que permite una reducción de
costos y un menor consumo de energía.
Hoy en día, la mayoría de los sistemas informáticos utilizan un solo chip que
integra todo el chipset, incluyendo el controlador de memoria, el
controlador de puertos de entrada/salida, el controlador de disco duro y
otros componentes. Esta arquitectura de chipset único es mucho más
eficiente y proporciona un mejor rendimiento en comparación con los
conjuntos de super chipset más antiguos.

Arquitectura del coprocesador matemático


El coprocesador matemático, también conocido como unidad de coma
flotante o FPU (por sus siglas en inglés Floating Point Unit), es un chip
especializado que se encuentra dentro de la CPU (unidad central de
procesamiento) de una computadora. Su función es realizar operaciones
matemáticas complejas que implican números con decimales o fracciones,
lo que permite que la CPU se concentre en otras tareas.
La arquitectura del coprocesador matemático se basa en la unidad de coma
flotante, que es un tipo de aritmética utilizada para manejar números
decimales o fraccionarios. La unidad de coma flotante está diseñada para
realizar operaciones matemáticas rápidamente y con alta precisión, lo que
permite a las computadoras procesar cálculos complejos más rápido y con
mayor exactitud.
En los primeros días de las computadoras personales, los coprocesadores
matemáticos eran opcionales y se vendían como un accesorio adicional
para la CPU. Sin embargo, hoy en día, todos los procesadores modernos
tienen un coprocesador matemático integrado en la CPU.
La mayoría de los procesadores modernos utilizan arquitecturas de
coprocesador matemático basadas en la norma IEEE 754, que es un
estándar para aritmética de punto flotante utilizada por la mayoría de los
procesadores y sistemas operativos modernos. La norma IEEE 754 define
cómo se almacenan y procesan los números de punto flotante en la
memoria y en el coprocesador matemático.

Arquitectura del temporizador programable


El temporizador programable, también conocido como temporizador de
sistema o PIT (por sus siglas en inglés Programmable Interval Timer), es un
circuito integrado que se encuentra en la placa base de una computadora.
Su función principal es generar señales de temporización para el sistema, lo
que permite a la CPU y a otros componentes trabajar de manera
sincronizada y coordinada.

La arquitectura del temporizador programable se basa en un contador que


cuenta impulsos de reloj generados por un cristal de cuarzo en la placa base.
El PIT se divide en tres canales, cada uno de los cuales puede funcionar en
diferentes modos de temporización para generar diferentes señales de
temporización.

El canal 0 se utiliza principalmente para generar la señal de interrupción del


reloj del sistema, que se utiliza para sincronizar las operaciones de la CPU
con otros componentes del sistema. El canal 1 se utiliza para generar
señales de temporización para la controladora de DMA (acceso directo a
memoria), que se utiliza para transferir datos entre dispositivos sin la
intervención de la CPU. El canal 2 se puede utilizar para generar señales de
temporización para dispositivos externos, como unidades de disco duro.

El temporizador programable se puede programar para generar diferentes


señales de temporización según las necesidades del sistema. Los modos de
temporización incluyen la temporización de un solo disparo, la
temporización periódica y la temporización de pulsos. La frecuencia de la
señal de temporización también se puede ajustar para adaptarse a las
necesidades del sistema.
En resumen, la arquitectura del temporizador programable se basa en un
contador que cuenta impulsos de reloj generados por un cristal de cuarzo
en la placa base. El temporizador programable se divide en tres canales,
cada uno de los cuales puede funcionar en diferentes modos de
temporización para generar diferentes señales de temporización. La
programación del temporizador programable se utiliza para sincronizar las
operaciones de la CPU y otros componentes del sistema y se ha convertido
en una parte esencial de la arquitectura de las computadoras modernas.

Arquitectura del controlador de acceso directo a memoria (CDMA)


El controlador de acceso directo a memoria o DMA (por sus siglas en inglés
Direct Memory Access) es un componente de la arquitectura de una
computadora que permite a los dispositivos de entrada/salida (E/S) acceder
directamente a la memoria del sistema, sin tener que pasar por la unidad
central de procesamiento (CPU). El controlador de acceso directo a
memoria se encarga de la transferencia de datos entre los dispositivos E/S
y la memoria del sistema.

La arquitectura del controlador de acceso directo a memoria se basa en un


circuito integrado que se encuentra en la placa base de una computadora.
El controlador de acceso directo a memoria se comunica con la CPU y los
dispositivos E/S mediante buses de datos y señales de control. Cuando un
dispositivo E/S necesita acceder a la memoria del sistema, envía una señal
de solicitud al controlador de acceso directo a memoria. El controlador de
acceso directo a memoria luego transfiere los datos entre el dispositivo E/S
y la memoria del sistema sin la intervención de la CPU.

El controlador de acceso directo a memoria se divide en dos modos: el


modo de ciclo único y el modo de bloqueo. En el modo de ciclo único, el
controlador de acceso directo a memoria transfiere un solo byte de datos a
la vez entre el dispositivo E/S y la memoria del sistema. En el modo de
bloqueo, el controlador de acceso directo a memoria transfiere bloques
enteros de datos entre el dispositivo E/S y la memoria del sistema.

El controlador de acceso directo a memoria se utiliza para mejorar el


rendimiento de la computadora al permitir que los dispositivos E/S accedan
directamente a la memoria del sistema sin la intervención de la CPU. Esto
reduce la carga de trabajo en la CPU y permite que la CPU se concentre en
otras tareas. El controlador de acceso directo a memoria también se utiliza
para acelerar la transferencia de datos entre los dispositivos E/S y la
memoria del sistema, lo que mejora el rendimiento general del sistema.

Arquitectura del controlador de memoria cache


El controlador de memoria caché es un componente de la arquitectura de
un procesador que se encarga de administrar y acceder a la memoria caché.
La memoria caché es una memoria de alta velocidad y baja capacidad que
se utiliza para almacenar temporalmente los datos que se utilizan con
frecuencia por el procesador. La arquitectura del controlador de memoria
caché se divide en tres partes: la caché, el controlador y el bus de datos.

La caché es una memoria de alta velocidad que se encuentra dentro del


procesador. La memoria caché se divide en varios niveles (L1, L2, L3, etc.),
siendo L1 la memoria caché más rápida y cercana al procesador. La
memoria caché funciona como una memoria temporal para los datos y las
instrucciones que se utilizan con frecuencia por el procesador, lo que
permite al procesador acceder rápidamente a estos datos sin tener que
buscarlos en la memoria principal.
El controlador de memoria caché se encarga de administrar la memoria
caché y garantizar que los datos almacenados en la caché sean los más
relevantes y utilizados por el procesador. El controlador de memoria caché
también se encarga de transferir los datos entre la memoria caché y la
memoria principal, lo que se conoce como "evicción" y "escritura de
vuelta". Cuando la memoria caché se llena, el controlador de memoria
caché debe decidir qué datos eliminar para hacer espacio para nuevos
datos.
El bus de datos es la vía por la que se transfieren los datos entre la memoria
caché, el procesador y la memoria principal. El bus de datos debe ser lo
suficientemente rápido para garantizar que los datos se transfieran sin
retrasos y sin interrupciones.
La arquitectura del controlador de memoria caché se utiliza para mejorar el
rendimiento del procesador al reducir el tiempo que tarda el procesador en
acceder a los datos. La memoria caché almacena los datos que se utilizan
con frecuencia por el procesador, lo que reduce el tiempo que tarda el
procesador en buscar estos datos en la memoria principal. El controlador
de memoria caché garantiza que los datos almacenados en la caché sean
los más relevantes y utilizados por el procesador, lo que mejora la eficiencia
del procesador.

Arquitectura del controlador del bus


El controlador del bus es un componente clave en la arquitectura de un sistema
informático, que se encarga de coordinar el flujo de datos entre los diferentes
componentes del sistema, como el procesador, la memoria, las unidades de
almacenamiento y los periféricos.

La arquitectura del controlador del bus se divide en dos partes principales: el


controlador del bus de datos y el controlador del bus de direcciones.

El controlador del bus de datos se encarga de gestionar el flujo de datos que se


transfieren a través del bus de datos. El bus de datos es un canal de comunicación que
se utiliza para transmitir los datos entre el procesador y otros componentes del sistema.
El controlador del bus de datos se encarga de gestionar la velocidad de transferencia de
datos a través del bus y de asegurarse de que los datos se transmitan de forma fiable y
sin errores.

El controlador del bus de direcciones se encarga de gestionar el flujo de direcciones que


se transmiten a través del bus de direcciones. El bus de direcciones es otro canal de
comunicación que se utiliza para transmitir las direcciones de memoria y de los
periféricos a los que el procesador necesita acceder. El controlador del bus de
direcciones se encarga de asegurarse de que la dirección correcta se envía al
componente correcto en el momento adecuado.

Además, el controlador del bus también se encarga de controlar el acceso de los


diferentes componentes del sistema al bus. Para evitar conflictos de acceso, el
controlador del bus utiliza un sistema de prioridades para determinar qué componente
del sistema tiene acceso al bus en un momento determinado.

Arquitectura del controlador de interrupciones programables.


El controlador de interrupciones programables es un componente clave en la
arquitectura de un sistema informático que se encarga de gestionar las interrupciones
generadas por los dispositivos periféricos conectados al sistema. Las interrupciones son
señales que los dispositivos periféricos envían al procesador para indicar que requieren
su atención.

La arquitectura del controlador de interrupciones programables incluye varios


componentes, como el registro de máscara de interrupciones, el registro de solicitud de
interrupción y el vector de interrupción.
El registro de máscara de interrupciones se utiliza para habilitar o deshabilitar las
interrupciones generadas por los dispositivos periféricos. Al establecer el registro de
máscara, el controlador de interrupciones programables puede evitar que los
dispositivos periféricos generen interrupciones innecesarias y mejorar el rendimiento
general del sistema.

El registro de solicitud de interrupción se utiliza para indicar qué dispositivo periférico


ha generado una interrupción. Cuando un dispositivo periférico genera una
interrupción, establece su bit correspondiente en el registro de solicitud de interrupción.
El controlador de interrupciones programables lee el registro de solicitud de
interrupción para determinar qué dispositivo periférico ha generado una interrupción y
así poder manejarla adecuadamente.

El vector de interrupción se utiliza para indicar la dirección de memoria del controlador


de interrupciones programables que contiene el código para manejar la interrupción
específica. Cuando se produce una interrupción, el procesador utiliza el vector de
interrupción para saltar a la dirección de memoria del controlador de interrupciones
programables y ejecutar el código correspondiente.
Además de estos componentes principales, la arquitectura del controlador de
interrupciones programables también puede incluir registros adicionales para controlar
la prioridad de las interrupciones y determinar qué interrupción se manejará primero.
CONCLUSION.

En conclusión, la arquitectura interna del computador es un tema fundamental para


comprender el funcionamiento de los sistemas informáticos modernos. Esta disciplina
aborda el diseño y la organización de los componentes internos de un computador,
incluyendo el procesador, la memoria, los dispositivos de entrada/salida, y los buses de
comunicación.

Al entender cómo estos componentes interactúan entre sí, los diseñadores de


computadoras pueden crear sistemas más eficientes y poderosos, capaces de realizar
una amplia variedad de tareas de procesamiento de información. Además, la
comprensión de la arquitectura interna del computador es esencial para la solución de
problemas y la realización de diagnósticos en caso de fallos del sistema.
En resumen, la arquitectura interna del computador es una disciplina crucial en el
diseño, construcción y mantenimiento de sistemas informáticos modernos. El
conocimiento de esta disciplina es esencial para una amplia gama de profesionales de la
tecnología, incluyendo ingenieros de software, desarrolladores de hardware y técnicos
de soporte técnico.

También podría gustarte