Está en la página 1de 12

CONFIABILIDAD DE

SISTEMAS CRÍTICOS

Exposición y redacción de temas de


ingeniería.
 Grupo 1.

De la luz Morales Berenice.


I. INTRODUCCIÓN
Cuántas veces no ha sucedido que algún sistema no
hace lo que nosotros deseamos, lo cual causa enojo
más no hay un daño grave, hay sistemas que sí fallan
causan enormes pérdidas humanas o económicas.
La confianza de un usuario de un sistema crítico se
mide principalmente por la confiabilidad que éste
tenga en dicho sistema, basado principalmente en la
disponibilidad, fiabilidad, seguridad y protección que
el sistema le proporcione al usuario.
II. SISTEMAS CRÍTICOS
A. Definición de sistemas críticos.
• Sistemas críticos. Son aquellos que tienen impacto
directo en los procesos y/o productos.

• Son sistemas técnicos o socio-técnicos de los cuales


dependen las personas o los negocios, si estos
sistemas no ofrecen sus servicios de la forma
esperada pueden provocar graves problemas y
pérdidas importantes.
B. Tipos principales de sistemas críticos.
 
• Sistemas de seguridad críticos: sistemas cuyo fallo
puede provocar perjuicio, pérdida de vidas o daños
graves al medio ambiente,
• sistemas de misión críticos: sistemas cuyo fallo de
funcionamiento puede provocar errores en algunas
actividades dirigidas por objetivos,
• sistemas de negocio críticos: sistemas cuyo fallo de
funcionamiento pueden provocar costes muy
elevados para el negocio que utiliza un sistema de
éste tipo.
III. CONFIABILIDAD
La confiabilidad de un sistema informático es una
propiedad del sistema que es igual a su fidelidad.
 
Confiabilidad = Fidelidad

La fidelidad significa el grado de confianza del


usuario en que el sistema operará tal y como se
espera de él y que no “fallará” al utilizarlo
normalmente.
Existen cuatro dimensiones principales de la
confiabilidad que están interrelacionadas:
Por lo general, niveles altos de confiabilidad
solamente pueden alcanzarse a costa del rendimiento
del sistema.

El incremento de la confiabilidad de un sistema


puede hacer crecer significativamente los costes de
desarrollo.

Esto es relativo ya que es mejor prevenir fallos.


1.- Disponibilidad: es la probabilidad de que el
sistema esté activo y en funcionamiento y sea capaz
de proporcionar servicios útiles en cualquier
momento.
2.- Fiabilidad: la fiabilidad de un sistema es la
probabilidad de que, durante un determinado período
de tiempo, el sistema funcione correctamente tal y
como espera el usuario.
Incluye:
• Corrección: asegurar que los servicios que
proporciona el sistema son los especificados,
• precisión: asegurar que la información se proporciona
al usuario con el nivel de detalle adecuado,
• oportunidad: asegurar que la información que
proporciona el sistema se hace cuando es requerida.
3.- Seguridad: es una valoración de la probabilidad de
que el sistema cause daño a las personas o a su
entorno.
4.- Protección: es una valoración de la probabilidad de
que el sistema pueda resistir intrusiones accidentales
o premeditadas.
Incluye:
• Integridad: asegurar que el programa y los datos del
sistema no resulten dañados,
• confidencialidad: asegurar que sólo las personas
autorizadas puedan acceder a la información.
IV. CONCLUSIÓN.
Para mejorar la confiabilidad, es necesario adoptar una
aproximación a las interacciones entre las tecnologías  y las personas
para el diseño del sistema, teniendo en cuenta que las personas
forman parte del sistema así como el hardware y el software.
Es importante desarrollar sistemas con un grado razonable de
confiabilidad pues los usuarios prefieren sistemas fiables,
disponibles y seguros; además una falla en el sistema puede ser
mucho más costosa que el hacer confiable al sistema.
No todas las propiedades de la confiabilidad son aplicables a todos
los sistemas
Es importante decidir qué tan confiable debemos hacer nuestro
sistema, según las necesidades y requerimientos establecidos.

También podría gustarte