Está en la página 1de 8

UNIVERSIDAD TECNOLÓGICA DE PANAMÁ

FACULTAD DE INGENIERÍA DE SISTEMAS


COMPUTACIONALES
DEPARTAMENTO DE COMPUTACIÓN Y
SIMULACIÓN DE SISTEMAS
CARRERA LICENCIATURA EN INGENIERÍA DE SOFTWARE
MÉTODOS NUMERICOS

Trabajo Grupal 1
Título del Taller: Las principales causas de los errores en la representación
interna de los datos

Integrantes:
Beckford, Ian 8-967-1300
Escobar, Marcos 8-916-2019
Espino, Louis 8-945-1231
López, Carolina 8-957-2277
Nuñez, Samuel 8-854-1791

Profesor:
Ing. Samuel Jiménez

SEMESTRE I, 2022
Cue Column Note Taking Area
1. Diferencias entre precisión, 1. Muestre el significado y la diferencia entre precisión,
exactitud y magnitud: exactitud y magnitud.

La precisión indica que al aplicar Significados:


una cantidad determinada de Precisión: se define como el grado de coincidencia existente entre
mediciones se está teniendo una los resultados independientes de una medición, obtenidos en
coincidencia de valores entre condiciones estipuladas, ya sea de repetitividad, de
estas mediciones las cuales están reproducibilidad o intermedias
siendo hechas por separado y en
las mismas condiciones. Por otro Exactitud: como el grado de concordancia entre el resultado de
lado, la exactitud se da cuando una medición y un valor verdadero del mensurando.
una medición en específico está Magnitud: es una medida asignada para cada uno de los objetos de
muy cerca o es igual a un valor un conjunto medible, formados por objetos matemáticos.
real conocido.
En la siguiente ilustración se muestra de forma gráfica las
También existe una relación entre diferencias entre la precisión y la exactitud:
las definiciones de exactitud y
magnitud, ya que se puede decir
que esta última es el valor
matemático real o de referencia
que se tiene sobre un objeto
medible, al cual tras aplicarle
diferentes mediciones se puede
tener tanto aproximaciones
precisas como algunas mediciones Figura 1: Diferencias entre Precisión y Exactitud.
Fuente: https://www.testexamen.com/test/practicas-laboratorio/exactitud-
exactas. precision/exacto-preciso-analisis-grafica.html

2. Explique los tipos de errores


presentes en los métodos
numéricos 2. Explique los tipos de errores presentes en los métodos
numéricos
Podemos mencionar el error
absoluto, que es el valor absoluto Error absoluto: Es la diferencia entre el valor de la medida y el
de la diferencia entre el valor de valor tomado como exacto. Puede ser un valor positivo o negativo,
la medida y el valor exacto. según si la medida es superior al valor real o inferior (la resta sale
Además, el error relativo es la positiva o negativa). Tiene las mismas unidades que las de la
división entre el error absoluto y medida.
el valor exacto. Por su parte, el EA = | P* - P |
error de redondeo se debe a que
las computadoras sólo pueden Error relativo: Es el cociente (la división) entre el error absoluto y
guardar un número finito de cifras el valor exacto. Si se multiplica por 100 se obtiene el tanto por
significativas durante un cálculo. ciento (%) de error. Al igual que el error absoluto puede ser
Y también se puede mencionar
que el error de truncamiento
positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por
defecto. No tiene unidades.

3. Defina que son bits y byte: ER = | P* - P| / P , si P =/ 0

Empezando por decir que bits y Error de redondeo: La casi totalidad de los números reales
byte, son dos cosas totalmente requieren, para su representación decimal, de una infinidad de
diferentes, sin embargo, se dígitos. En la práctica, para su manejo sólo debe considerarse un
complementan. Ya que los bytes número finito de dígitos en su representación, procediéndose a su
son conjuntos de bits en una determinación mediante un adecuado redondeo. Los errores de
tupla; 8 para ser exactos. redondeo se deben a que las computadoras sólo guardan un número
Usualmente se tiene esta finito de cifras significativas durante un cálculo.
confusión, pero una vez
comprendido que bit es la unidad Errores de truncamiento: Cuando una expresión matemática se
más pequeña de información en remplaza por una fórmula más simple, se introduce un error,
computadoras, todo se aclara a la conocido como error de truncamiento. Los errores de truncamiento
hora de comprender cuantos son aquellos que resultan al usar una aproximación en lugar de un
conforman un byte. procedimiento matemático exacto. Estos tipos de errores son
evaluados con una formulación matemática: la serie de Taylor.
4. Explique las siguientes
representaciones de datos: 3. Defina que son bits y byte
Un dato en informática es un Bit es la abreviación de Binary Digit (digito binario), en términos
conjunto de símbolos necesarios técnicos es la unidad mínima de información de una computadora.
para expresar un número, valor, Tiene solamente un valor que puede ser 0 o 1. Toda la información
palabra o concepto. Teniendo esto procesada por una computadora es medida y codificada en bits.
en cuenta, el computador para
Byte (Binary Tuple=” Tupla Binaria”), es un grupo de ocho bits,
poder comprender estos datos
formando una secuencia que representa un carácter. El byte se usa
utiliza representaciones de código
para describir unidades de almacenamiento de datos. Hay que tener
binario, sobre los que se realizan
muy clara la diferencia entre lo que es un BIT (un 0 o un 1) y lo
operaciones para conseguir los
que es BYTE una secuencia de (bits continuos)
resultados requeridos. Estos tipos
de representaciones se pueden 4. Explique las siguientes representaciones de datos:
clasificar dentro de distintas
categorías como lo son: 1) Representación ASCII: Es un conjunto de caracteres de
números que se utilizan en siete bits, y tiene 128 combinaciones. Con el ASCII, el bit
cálculos aritméticos, 2) letras del menos significativo se lla a b0, y el más significativo se
alfabeto y 3) otros símbolos que llama b6. El b7 no es parte del código ASCII, sino se
se utilizan con propósitos reserva, en general, como bit de paridad. Con cualquier
específicos. Se comprende en este conjunto de caracteres, todos los bits son igualmente
punto que se han diseñado significativos, porque la clave no representa a un número
distintos patrones y/o secuencias binario ponderado. Se acostumbra, en los códigos de
para representar símbolos, caracteres, citar los bits por su orden; b0 es el bit de orden
usualmente se le conoce como cero, b1 es el bit de primer orden, b7 es el bit de séptimo
código. orden. En el ASCII, el bit de bajo orden b0 es el LSB (least-
significant bit) y se transmite primero. Es probable que el ASCII sea el código que
más se usa hoy.
Figura 2: Representación ASCII de los caracteres.
Fuente: Estructura y diseño de computadores: La interfaz hardware/software.

Representación IBM437: Un ejemplo de código de 8 bits es el que utilizó IBM en


sus primeras computadoras personales, el cual puede considerarse también un
«estándar de facto». Utiliza los 128 valores más altos para letras y símbolos de otros
idiomas y para caracteres gráficos (que permiten dibujar recuadros y cosas
similares). Posee también algunas versiones adaptadas a distintas regiones del
mundo. La utilizada para la mayoría de los idiomas de Occidente es la IBM437.

Figura 3: Repertorio completo de la página de códigos 437.


Fuente: https://upload.wikimedia.org/wikipedia/commons/f/f8/Codepage-437.png

Representación ISO 8859-1: Es un estándar de la familia ISO de representación de


caracteres pertenecientes a idiomas de Europa occidental (alfabetos latinos no. 1).
Este estándar a diferencia del ASCII incluye caracteres especiales y diacríticos
como la ñ, causando que tenga 128 codificaciones de caracteres adicionales respecto
a ASCII. Fue estandarizado en 1998 y es la base de los caracteres de 8 bits más
populares.
Figura 4: Representación ISO-8859-1
Fuente:
https://www.fing.edu.uy/tecnoinf/mvd/cursos/arqcomp/material/teo/arq-
teo02.pdf

Representación ISO 10646: Es una estandarización de


representación de caracteres universales que aplica para
la forma escrita de los idiomas del mundo y símbolos
adicionales. ISO 10646 especifica la arquitectura y define
los términos de la norma internacional UCS, también
especifica la gestión de futuras adiciones a UCS.
Figura 5: Representación ISO10646.
Fuente: https://www.semanticscholar.org/paper/Codage-des-caract%C3%A8res-et-multi-linguisme-%3A-de-
%C3%A0-et-Andr%C3%A9-Goossens/f314db502518f57aab91ada15984b98cc0b8bf9a

Summary
Logramos comprender la diferencia entre los conceptos precisión, exactitud y magnitud que a pesar de ser distintos
cada uno complementa al otro para referirse a distintos aspectos de un todo. Comprendimos los conceptos de bits y
los bytes que a menudo suelen confundirse. Pudimos ver también algunos tipos de errores presente en métodos
numéricos como lo son: error absoluto, el cual es la diferencia entre el valor medido y el valor exacto; el error
relativo, que es el error absoluto entre el valor exacto; el error de redondeo, el cual se produce cuando se redondea a
cierta cifra Bibliografías
significativa; y el error de truncamiento, los cuales se producen al usar una aproximación y no un
procedimiento exacto. Las distintas representaciones de datos investigadas nos permitieron comprender como se
codifican los distintos caracteres de las distintas lenguas y su simbología especial permitiendo así que estos puedan
ser representados en el software.
1. ¿Qué es un bit? Bits y bytes explicados. (2021, 4 agosto). IONOS Digitalguide.
Recuperado 2 de abril de 2022, de
https://www.ionos.es/digitalguide/paginas-web/desarrollo-web/que-es-un-bit/
2. Graciela Marker. (2017, 5 junio). Tecnologia-Informatica. Tecnología +
Informática. Recuperado 2 de abril de 2022, de https://www.tecnologia-
informatica.com/que-es-el-bit-byte/#¿Que_es_un_Byte?
3. Burden, R. L. F., & Douglas, J. Analisis Numerico/Richard L. Burden, J. Douglas
Faires; Tr. OSCAR Palmas (no. 511.7 B873a 2002.).
4. Anónimo. (2021, January 13). ¿Cuál es la diferencia entre exactitud y Precisión?
Midebien. Retrieved April 2, 2022, from https://midebien.com/cual-es-la-diferencia-
entre-exactitud-y-
5. Anónimo. (2021, January 13). ¿Cuál es la diferencia entre exactitud y Precisión?
Midebien. Retrieved April 2, 2022, from https://midebien.com/cual-es-la-diferencia-
entre-exactitud-y-
6. Tomasi, W. (2003). Sistemas de comunicaciones electrónicas. Pearson Educación.
7. Patterson, D. A., & Hennessy, J. L. (2018). Estructura y diseño de computadores:
La interfaz hardware/software. Reverte.
8. pablingas. (2015, September 12). REPRESENTACION DE DATOS & TIPOS DE DATOS.
Arquitectura y Redes II. https://pablingas.wordpress.com/2015/09/12/representacion-de-
datos-tipos-de-datos/
9. ISO. (Diciembre de 2017). ISO.ORG. Obtenido de ISO 10646:217:
https://www.iso.org/standard/69119.html

También podría gustarte