Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unida
d
Temas Subtemas
1 Modelo de
arquitecturas de
cmputo.
1.1 Modelos de arquitecturas de cmputo.
1.1.1 Clsicas.
1.1.2 Segmentadas.
1.1.3 De multiprocesamiento.
1.2 Anlisis de los componentes.
1.2.1 CPU.
1.2.1.1 Arquitecturas.
1.2.1.2 Tipos.
1.2.1.3 Caractersticas.
1.2.1. !uncionamiento.
1.2.2 Memoria.
1.2.2.1 Arquitecturas.
1.2.2.2 Tipos.
1.2.2.3 Caractersticas.
1.2.2. !uncionamiento.
1.2.3 "ispositi#os de $%&.
1.2.3.1 Arquitecturas.
1.2.3.2 Tipos.
1.2.3.3 Caractersticas.
1.2.3. !uncionamiento.
2 Comunicacin
interna en la
computadora.
2.1 'uses.
2.1.1 'us (ocal.
2.1.2 'us de datos.
2.1.3 'us de direcciones.
2.1. 'us de control.
2.1.) 'uses normali*ados.
2.2 "ireccionamiento.
2.2.1 Modo real.
2.2.2 Modo prote+ido.
2.2.3 Modo real #irtual.
2.3 Tempori*acin.
2.3.1 ,elo- de sistema.
2.3.2 Reset del sistema.
2.3.3 Estados de espera.
2. $nterrupciones de .ard/are.
2..1 0nmascarable.
2..2 1o2enmascarable.
2.) Acceso "irecto a memoria.
2.5.1 Sistema de video.
2.5.2 Sistema de discos.
2.5.3 Otras aplicaciones.
3 Seleccin de
componentes para
3.1 C3ip Set.
3.1.1 CPU.
ensamble de
equipos de
cmputo.
3.1.2 Controlador del 'us.
3.1.3 Puertos de 0%S.
3.1. Controlador de $nterrupciones.
3.1.) Controlador de "MA.
3.1.4 Circuitos de tempori*acin 5
control.
3.1.6 Controladores de #ideo.
3.2 Aplicaciones.
3.2.1 Entrada/ Salida.
3.2.2 Almacenamiento.
3.2.3 !uente de alimentacin.
3.3 Ambientes de servicios.
3.3.1 egocios.
3.3.2 !ndustria.
3.3.3 Comercio electrnico.
Microcontroladores
.
.1 Arquitectura.
".1.1 #erminales.
.1.2 CPU.
.1.3 0spacio de Memoria.
.1. 0ntrada% Salida.
.1.) Caractersticas especiales.
.2 Pro+ramacin.
.2.1 Modelo de pro+ramacin.
.2.2 Con-unto de instrucciones.
.2.3 Modos de direccionamiento.
.2. (en+ua-e ensamblador.
".3 Aplicaciones.
".3.1 $omo sistema independiente.
".3.2 $omo subsistema de una
computadora.
Unidad 1. Modelo de arquitecturas de
cmputo.
1.1 Modelos de arquitecturas de cmputo.
2
3 Tecnologas RISC y CISC:
RISC: %Reduced !nstruction Set $omputer& computadora de con'unto de
instrucciones reducido
Arquitectura de computadoras que e'ecuta un n(mero limitado de
instrucciones. El concepto es que la ma)or*a de los programas usan
generalmente unas pocas instrucciones+ ) si se acelera la e'ecuci,n de
esas instrucciones b-sicas+ se me'ora el rendimiento.
.a arquitectura R!S$ elimina una capa de carga operativa llamada
/microc,digo/+ que se emplea normalmente para 0acilitar la agregaci,n
de nuevas ) comple'as instrucciones a una computadora. .as
computadoras R!S$ poseen un peque1o n(mero de instrucciones
montadas en los circuitos de nivel in0erior+ que traba'an a m-2ima
velocidad.
Aunque las m-quinas R!S$ son s,lo de un 153 a un 543 m-s veloces
que sus contrapartidas $!S$
CISC: %$omple2 !nstruction Set $omputer& $omputadora de con'unto de
instrucciones comple'o $omputadoras que poseen un con'unto de
instrucciones mu) e2tenso. .as m-quinas $!S$ tienen de doscientas a
trescientas instrucciones+ que est-n grabadas en microc,digo.
3ttp7%%///.mono+ra8ias.com%traba-os%re8ercomp%re8ercomp.s3tml
3.1.1 Clsicas.
El Concepto de von Neumann.
.os primeros computadores se programaban en realidad recable-ndolos. Esto
pr-cticamente equival*a a reconstruir todo el computador cuando se requer*a
de un nuevo programa. .a tarea era simpli0icada gracias a un panel de
contactos %mu) similar al de los primeros conmutadores tele0,nicos que eran
atendidos por operadoras+ ) que 5o) en d*a s,lo llegamos a ver en via'es
pel*culas en blanco ) negro. 6er 0ig. 1& con el que era posible enla7ar circuitos
para crear secciones dedicadas a una actividad espec*0icas. .a programaci,n
del computador se llevaba a cabo+ literalmente+ reconstru)8ndolo.
9ig 1.: E!A$+ primer computador electr,nico ) su panel de cone2iones
;ientras que el recablear al computador establec*a una clara distinci,n entre
los datos %representados por los estados o se1ales el8ctricas que ser*n
mantenidas por los relevadores o a trav8s de los bulbos que con0ormaban al
computador& ) el programa %las cone2iones que ser*an establecidas entre estos
componentes del 5ard<are& la labor de /programaci,n/ requer*a sino del propio
creador del computador si a un verdadero e2perto ) conocedor de electr,nica+
principios de l,gica digital ) del problema mismo. Esto vino a cambiar con el
concepto del pro+rama almacenado+ un concepto te,rico mu) importante que
0ue establecido por el matem-tico =o5n von eumann el 34 de 'unio de 1>"5 en
un borrador sobre el dise1o de la ED6A$. A di0erencia de los primeros
computadores+ von eumann propon*a que tanto el programa como sus datos
0ueran almacenados en la memoria del computador. Esto no solo simpli0icaba
la labor de programaci,n al no tener que llevar a cabo el recableado del
computador sino que adem-s libraba ) generali7aba el dise1o del 5ard<are
para 5acerlo independientede cualquier problema ) en0ocado al control )
e'ecuci,n del programa. Este concepto 0ue tan importante ) decisivo que dio
lugar al concepto de la arquitectura de #on 1eumann+ a(n presente en
nuestros d*as.
.a arquitectura de von eumann se compone de tres elementos?
1. .a Unidad Central de Procesamiento %$@A+ por sus siglas en ingl8s&+ que es
considerada como el cerebro ) cora7,n del computador. !nternamente consiste de una
Anidad Aritm8tico:.,gica %A.A&+ un con'unto de registros ) una Anidad de $ontrol
%$A&. .a A.A es donde se reali7an todas las operaciones que involucran un
procesamiento matem-tico %particularmente aritm8tico& o l,gico %operaciones
booleanas&. .os registros permiten el almacenammiento de datos para estas
operaciones ) sus resultados. En la $A es donde se e'ecutan todo el resto de las
operaciones %decisi,n+ control+ movimiento de datos&. Ana $@A con todos estos
elementos implementada en un solo c5ip recibe el nombre de microprocesador.
2. .a memoria+ que es donde datos ) programa es almacenado. .a memoria puede ser
visto como un arreglo unidimensional 0inito en la que cada localidad es identi0icada por
un valor asociado a su posici,n ) que es comunmente llamado direccin. E2isten
diversos tipos de memoria+ identi0icados por el tipo de tecnolog*a usada+ aunque para
un computador son generalmente clasi0icadas en dos grandes grupos por tipo de uso al
que de destina. .a memoria RAM %Random Access ;emor)+ ;emoria de Acceso
Aleatorio& ) que es aquella destinada al almacenamiento de datos ) programas
%inclu)endo al sistema operativo&+ es considerada temporal o de tipo vol-til )a que
pierde si contenido cuendo el computador es apagadoo reiniciali7ado. .a memoria
ROM es aquella de tipo permanente+ aun cuando el computador sea desenergi7ado
mantendr- su contenido. Es usada principalmente para el almacenamiento de
peque1os programas destinados a la adminsitraci,n b-sica de recursos+ especialmente
de entrada ) salida.
3. .as interfaces de entrada y salida (I/O). destinadas a liberar de traba'o a la $@A en la
comunidaci,n con dispositivos de entrada %teclados+ ratones&+ salida %impresoras& )
entrada:salidas %discos+ cintas&.
Estos tres elementos est-n interconectados a trav8s de un con'unto de l*neas
que llevan instrucciones %control bus&+ datos %data bus& ) que permiten dar los
valores de direcciones de memoria ) dispositivos %memor) bus&.
9ig 2.: Esquema de la arquitectura de von eumann.
5ttp?//5omepage.mac.com/eravila/computer!!.5tml
La arquitectura von Neumann se refiere a las arquitecturas de computadoras que
utilizan el mismo dispositivo de almacenamiento tanto para las intrucciones como para
los datos (a diferencia de la arquitectura Harvard). El trmino se acu en el documento
First Draft of a Report on the EDVAC (194)! escrito por el conocido matem"tico #o$n
von %eumann! que propuso el concepto de pro&rama almacenado. 'ic$o documento fue
redactado en vistas a la construccin del sucesor de la computadora E%()*! + su
contenido fue desarrollado por ,resper Ec-ert! #o$n .auc$l+! )rt$ur /ur-s! + otros
durante varios meses antes de que 0on %eumann redactara el 1orrador del informe.
Los ordenadores con arquitectura 0on %eumann constan de cinco partes2 La unidad
aritmtico3l&ica o )L4! la unidad de control! la memoria! un dispositivo de
entrada5salida + el 1us de datos que proporciona un medio de transporte de los datos
entre las distintas partes.
4n ordenador con arquitectura von %eumann realiza o emula los si&uientes pasos
secuencialmente2
1. 61tiene la si&uiente instruccin desde la memoria en la direccin indicada por el
contador de pro&rama + la &uarda en el re&istro de instruccin.
7. )umenta el contador de pro&rama en la lon&itud de la instruccin para apuntar a
la si&uiente.
8. 'escodifica la instruccin mediante la unidad de control. 9sta se encar&a de
coordinar el resto de componentes del ordenador para realizar una funcin
determinada.
4. :e e;ecuta la instruccin. 9sta puede cam1iar el valor del contador del pro&rama!
permitiendo as< operaciones repetitivas. El contador puede cam1iar tam1in
cuando se cumpla una cierta condicin aritmtica! $aciendo que el ordenador
pueda =tomar decisiones=! que pueden alcanzar cualquier &rado de comple;idad!
mediante la aritmtica + l&ica anteriores.
. 0uelve al paso 1.
Ho+ en d<a! la ma+or<a de ordenadores est"n 1asados en esta arquitectura! aunque
pueden incluir otros dispositivos adicionales! (por e;emplo! para &estionar las
interrupciones de dispositivos e>ternos como ratn! teclado! etc).
5ttp?//<<<.programacion.com/blogs/""BdiarioBdeBunBpro0esorBdeBin0ormtica/a
rc5ive/"4>BqueBesBlaBarquitecturaBin0ormtica.5tml
)rquitectura Harvard
El trmino Arquitectura Harvard ori&inalmente se refer<a a las arquitecturas de
computadoras que utiliza1an dispositivos de almacenamiento f<sicamente separados
para las instrucciones + para los datos (en oposicin a la )rquitectura von %eumann). El
trmino proviene de la computadora Harvard .ar- (! que almacena1a las instrucciones
en cintas perforadas + los datos en interruptores.
?odas las computadoras constan principalmente de dos partes! la *,4 que procesa los
datos! + la memoria que &uarda los datos. *uando $a1lamos de memoria mane;amos
dos par"metros! los datos en s<! + el lu&ar donde se encuentran almacenados (o
direccin). Los dos son importantes para la *,4! pues muc$as instrucciones frecuentes
se traducen a al&o as< como @co&e los datos de sta direccin + a"delos a los datos de
sta otra direccin@ ! sin sa1er en realidad qu es lo que contienen los datos.
En los Altimos aos la velocidad de las *,4s $a aumentado muc$o en comparacin a la
de las memorias con las que tra1a;a! as< que se de1e poner muc$a atencin en reducir el
nAmero de veces que se accede a ella para mantener el rendimiento. :i! por e;emplo!
cada instruccin e;ecutada en la *,4 requiere un acceso a la memoria! no se &ana nada
incrementando la velocidad de la *,4 3 este pro1lema es conocido como =limitacin de
memoria=.
:e puede fa1ricar memoria muc$o m"s r"pida! pero a costa de un precio mu+ alto. La
solucin! por tanto! es proporcionar una pequea cantidad de memoria mu+ r"pida
conocida con el nom1re de cac$. .ientras los datos que necesita el procesador estn en
la cac$! el rendimiento ser" muc$o ma+or que si la cac$ tiene que o1tener primero los
datos de la memoria principal. La optimizacin de la cac$ es un tema mu+ importante
de cara al diseo de computadoras.
La arquitectura Harvard ofrece una solucin particular a este pro1lema. Las
instrucciones + los datos se almacenan en cac$s separadas para me;orar el rendimiento.
,or otro lado! tiene el inconveniente de tener que dividir la cantidad de cac$ entre los
dos! por lo que funciona me;or slo cuando la frecuencia de lectura de instrucciones +
de datos es apro>imadamente la misma. Esta arquitectura suele utilizarse en ':,s! o
procesador de seal di&ital! usados $a1itualmente en productos para procesamiento de
audio + video.
@$ttp255es.Bi-ipedia.or&5Bi-i5)rquitecturaCHarvard@
Arquitectura Carvard
El procesador de los modernos microcontroladores responde a la arquitectura R!S$
%$omputadores de =uego de !nstrucciones Reducido&+ que se identi0ica por poseer un repertorio
de instrucciones m-quina peque1o ) simple+ de 0orma que la ma)or parte de las instrucciones
se e'ecutan en un ciclo de instrucci,n.
Otra aportaci,n 0recuente que aumenta el rendimiento del computador es el 0omento del
paralelismo impl*cito+ que consiste en la segmentaci,n del procesador %pipe:line&+
descomponi8ndolo en etapas para poder procesar una instrucci,n di0erente en cada una de
ellas ) traba'ar con varias a la ve7.
$ttp255BBB.unicrom.com5?utC,(*s1.asp
.a arquitectura Carvard dispone de dos memorias independientes una+ que
contiene s,lo instrucciones ) otra+ s,lo datos. Ambas disponen de sus
respectivos sistemas de buses de acceso ) es posible reali7ar operaciones de
acceso %lectura o escritura& simult-neamente en ambas memorias. 9igura 1.3.
9igura 1.3. .a arquitectura Carvard dispone de dos memorias independientes
para datos ) para instrucciones+ permitiendo accesos simult-neos.
$ttp255BBB.mono&rafias.com5tra1a;os175microco5microco.s$tml
ARQUITECTURA AR!AR"
Arquitectura .ar#ard9 que utili*a antememorias de instrucciones 5 datos separadas. 0sta t:cnica9 denominada
Arquitectura .ar#ard9 en cierto modo contrapuesta a la idea de ;on 1e/mann9 5a que utili*a memorias cac3:
separadas para cdi+o 5 datos. 0sto tiene al+unas #enta-as .
ARQUITECTURA !ECT#RIA$
0l encadenamiento aumenta la #elocidad de proceso9 pero a<n se puede me-orar a=adiendo t:cnicas como el
supersescalado. 0sta t:cnica permite 3acer paralelas las mismas etapas sobre instrucciones di8erentes. Un
procesador superescalar puede e-ecutar ms de una instruccin a la #e*. Para :sto es necesario que e>istan
#arias unidades aritm:tico2l+icas9 de punto 8lotante 5 de control. 0l proceso que si+ue el micro es
transparente al pro+rama9 aunque el compilador puede a5udar anali*ando el cdi+o 5 +enerando un 8lu-o de
instrucciones optimi*ado. ;eamos cmo se e-ecutaran las instrucciones en un procesador superescalar de
que tiene duplicadas las subunidades que lo componen7
Aunque esto me-ora la #elocidad +lobal del sistema9 los con8lictos de datos crecen. Si antes las instrucciones
se encontraban mu5 pr>imas9 a3ora se e-ecutan simultaneamente. 0sto 3ace necesario un c3equeo dinmico
para detectar 5 resol#er los posibles con8lictos.
ARQUITECTURA %I%E&$INE
Paralelismo Temporal7 Pipe2(ine ?(ineal@
(a arquitectura pipe2line se aplica en dos lu+ares de la maquina9 en la CPU 5 en la UA(.
;eamos en que consiste el pipe2line 5 tratemos de entender porque el pipe2line me-ora el rendimiento de todo
el sistema.
;eamos una CPU no or+ani*ada en pipe2line7
Si se trata de una instruccin a ser e-ecutada por la A(U podemos decir que la CPU reali*a a lo lar+o del ciclo
de maquina estas ) tareas.
Una #e* que termina de e-ecutar una instruccin #a a buscar otra 5 tarda en e-ecutarla un tiempo T9 es decir
cada T se+undos e-ecuta una instruccin.
ABu: sucede si di#idimos en ) unidades se+<n las ) cosas que reali*a la CPUC
Supon+amos la CPU di#idida en ) unidades9 de tal 8orma que c%u tarde lo mismo en reali*ar su partecita. 0s
decir c%u tardar T%).
Para que una instruccin se e-ecute se necesita T se+undos entonces para que usar pipe2line.
Si ocurre esto en una CPU normal a una con pipe2line9 la cantidad de instrucciones que se 3acen por se+undo
aumenta9 es decir aumenta el 8lu-o de instrucciones que se e-ecutan por se+undo.
5ttp?//5tml.rincondelvago.com/computadoresBarquitectura:5arvard:pipeline:
vectorial.5tml
Arquitectura PIPE-LINE.
Ya hemos mencionado que una de las formas de lograr operaciones concurrentes en un
procesador se utilizan dos tcnicas bsicas: paralelismo y pipelining.
El paralelismo consegua la concurrencia multiplicando la estructura del hardware tantas veces
como sea posible, de modo que las diferentes etapas del proceso se ejecuten
simultneamente.
Pipelining consiste en desdoblar la funcin a realizarse en varias partes, asignndole al
hardware correspondiente a cada una de las partes tambin llamadas etapas. As como el agua
fluye a travs de una tubera (pipeline) las instrucciones o datos fluyen a travs de las etapas
de un computador digital pipeline a una velocidad que es independiente de la longitud de la
tubera (numero de etapas del pipeline) y depende solamente de la velocidad a la cual los datos
e instrucciones pueden ingresar al pipeline.
Esta velocidad a su vez depende del tiempo que tarde el dato en atravesar una etapa. Este
tiempo puede ser significativo ya que el computador no solo desplaza los datos o instrucciones
de etapa en etapa sino que en cada una de ellas se realiza alguna operacin sobre los mismos.
Como ejemplo en el caso de las instrucciones tendremos operaciones de bsqueda,
decodificacin y ejecucin.
Pipeline Fsico:
Pipeline digital.
Mientras un tem en particular fluye a travs del pipeline, ste ocupa slo una etapa por vez. A
medida que transcurre el tiempo la etapa que quedo vacante por un tem, ser ocupada por el
siguiente.
Este uso concurrente de diferentes etapas por diferentes tems se lo conoce por solapamiento.
El resultado neto es que la mxima velocidad a la cual los nuevos tems pueden ingresar al
pipeline depende exclusivamente del tiempo mximo requerido para atravesar una etapa y no
del nmero de stas.
La utilizacin del pipeline se traduce en una mejora del comportamiento o performance del
procesador. Si una funcin se lleva a cabo en T segundos en un procesador de diseo
convencional, al utilizar un procesador pipeline de N etapas esa misma funcin podr realizarse
en T/N segundos. Esto a nivel terico, ya que la mejora de performance depender de la
cantidad de operaciones que puedan estructurarse en pipeline y tambin de calidad de la
particin o subdivisin de cada una de esas operaciones. La estructuracin en pipeline de un
procesador se realiza en diferentes niveles como aritmtica de punto flotante, ciclo de
instruccin, procesador de entrada/salida, etc.
Esta divisin o particin de una funcin en varias subfunciones se podr realizar si se dan las
siguientes condiciones:
1. La evaluacin de la funcin bsica es equivalente a la evaluacin secuencial de las
subfunciones que la constituyen.
2. Las entradas a una subfuncin provienen nicamente de las salidas de subfunciones previas
en la secuencia de evaluacin.
3. Excepto el intercambio de entradas y salidas no existe otra vinculacin entre las
subfunciones.
4. Debe disponerse del hardware necesario para la evaluacin de dichas subfunciones.
5. El tiempo requerido por estas unidades de hardware para evaluar las subfunciones es
aproximadamente el mismo.
Este hardware mencionado en el punto 4 es el correspondiente o asociado con las distintas
etapas del pipeline.
A diferencia del pipeline fsico (tubera), el digital no maneja los datos en forma continua. Este
maneja los datos en forma interrumpida y los va desplazando de etapa en etapa sincronizando
con un reloj.
Dado que la lgica que realiza el procesamiento en cada etapa generalmente carece de
memoria y dado el carcter discontinuo de la aparicin de los datos en las etapas se impone la
utilizacin de un elemento de memoria en la entrada y salida de cada etapa. De esta manera,
bajo el control del reloj asociado a cada elemento de memoria, evitamos que los datos ingresen
a una etapa antes que haya finalizado el proceso anterior.
Pipeline vs. Solapamiento.
Los conceptos de pipelining y solapamiento tienen significados parecidos pero no son
equivalentes, pese a que en algunos casos se los utiliza indistintamente. Ambos se basan en la
idea de particin o subdivisin de una funcin, pero se aplican en distintos entornos.
Se dice que podr existir pipeline cuando se den las siguientes condiciones:
1. Cada evaluacin de la funcin bsica es independiente de las anteriores.
2. Cada evaluacin requieren aproximadamente la misma secuencia de subfunciones.
3. Cada subfuncin se encadena perfectamente con las anterior.
4. Los tiempos utilizados para evaluar las distintas subfunciones son aproximadamente iguales.
Solapamiento se podr utilizar cuando se den las siguientes condiciones:
1. Existe dependencia entre las distintas evaluaciones.
2. Cada evaluacin puede requerir una secuencia diferente de subfunciones.
3. Cada subfuncin tiene un propsito distinto.
4. El tiempo por etapa no es necesariamente constante, sino que depende de la etapa y de los
datos que la atraviesan.
En muchos casos el pipeline propiamente dicho y que detallamos en primer lugar se lo suele
llamar sincrnico o esttico, por otra parte el solapamiento se lo suele llamar pipeline
asincronico o dinmico.
Un ejemplo de pipeline esttico es el de una unidad destinada a realizar sumas en punto
flotante sobre datos provenientes de otra unidad. Aqu la funcin bsica, suma en punto
flotante es relativamente simple, el resultado de una sumo depende del anterior, prximo o de
cualquier otro. Adems una vez que se realiz la particin, todas las sumas siguen la misma
secuencia.
El ejemplo ms simple de solapamiento o pipeline dinmico se da en un procesador donde la
entrada/salida es manejada por un procesador, los cmputos por otro y la comunicacin se
realiza a travs de un modulo de memoria comn.
La realizacin de una funcin en este procesador alternara entre el procesador de computo y el
de entrada/salida.
En otros casos la evaluacin de una funcin slo requerira de un procesador. En este caso
vemos
que las distintas operaciones estn menos sincronizadas que en el caso del sumador en punto
flotante. La
participacin de la funcin bsica vara dinmicamente y an el tiempo empleado en cada
etapa es difcil de
predecir.
Otro ejemplo de operacin por solapamiento es el de ejecucin de instrucciones de CPU's de
alta
velocidad. En este caso el hardware podr estar dividido en un nmero fijo de etapas como en
el caso del
sumador de punto flotante, pero de acuerdo con las diferencias de formato de las instrucciones
cada una
puede desarrollar un camino diferente a travs del pipeline.
Pipeline en maquinas SISD.
Dependencia entre instrucciones y riesgos.
En una maquina secuencial clsica todas las operaciones que involucran la ejecucin de una
instruccin se completan antes que comience la prxima. En el caso de las maquinas SISD
podemos intentar realizar pipeline a nivel de ejecucin de instrucciones.
Esto consistir en solapar la ejecucin de las mismas de manera que algunas de las
operaciones necesarias para las instrucciones i+1, i+2, .... puedan realizarse antes que finalice
la ejecucin de la instruccin i. Puede ocurrir que las operaciones realizadas por i+1, i+2,
dependan de los resultados de i que an no fue completada. Esta dependencia entre
instrucciones crea riesgos que deben evitarse y resolverse.
Se reconocen tres clases de riesgos, read-after-write, write-after-read y write-after-write.
Veamos las diferencias considerando este segmento de cdigo de programa:
Almacenar en x
Sumar x
Almacenar en x
Almacenar en x