Está en la página 1de 30

 Introducción a la Gestión y Aseguramiento de

Calidad del Software.

 Actividades de Aseguramiento de Calidad del


Software.

 Meta del Departamento de Calidad.


 La Gestión de la Calidad de Software es un
conjunto de actividades de la función general de
la Dirección que determina la calidad, los
objetivos y las responsabilidades.

 El Aseguramiento de Calidad Software es un


conjunto de actividades planificadas y
sistemáticas necesarias para aportar la confianza
en que el producto satisfará los requisitos dados de
calidad.
 Aplicación de Guías Metodológicas, Estándares y
Herramientas.
 Establecimiento de un plan para el aseguramiento
de la calidad del proyecto.
 Recopilación y análisis de métricas.
 Revisión de Documentos.
 Revisión de Código.
 Pruebas Funcionales de Calidad.
 Elaboración de Informes de Calidad.
 Metodologías de calidad de Software: Joseph Juran ,Deming, Philip
Crosby,Seis Sigma

 Herramientas de calidad de Software :


Hojas de Verificación
Histogramas
Diagramas de Paretto
Gráficos de Control
Tecnica de Grupo nominal y Diagramas de Flujo

 Estándares de Desarrollo del Software:

Estándar de arquitectura de sistemas, interfaz de usuario, nomenclatura de objetos,


plataforma de desarrollo para nuevos sistema y buenas practicas.

 Otros estándares:
IE E E 8 2 9 -1 9 9 8 Documentación de pruebas del software
IE E E 1 0 2 8 -1 9 9 7 Revisiones del Software
 Especifica los aspectos y controles de calidad que
se aplica a cualquier proceso o conjunto de
procesos que tengan por finalidad la realización
de un producto.
Variables Variables Reacción a situación
No.
Actividad o producto Responsable Etapa Conceptuales Operacionales de Productos no Cumplimiento Próxima revisión
Actividad
de Calidad de Calidad Conformes

Perfil del Proyecto

Estudio costo-
beneficio

Estudio de Factibilidad
Técnico
Cronograma

Actualización de
documentos

Matriz de Riesgos

Requerimientos por
parte del negocio

Documento de análisis

Documento de Diseño

Plan de Pruebas

Ejecución de Pruebas

Plan de Implantación
Manuales

Plan de capaictación

Capacitación para
Usuarios

Informe de Cierre del


Proyecto
No. Actividad o Responsable Etapa Variables Conceptuales Variables Operacionales de Calidad Reacción a Cumplimiento Observaciones Próxima
Actividad producto de Calidad situación de revisión
Productos no
Conformes

Acorde con las Utiliza la plantilla "XXXXX_Plan de


Metodologías Pruebas" ,de la Metodología del
Departamento de Desarrollo de Sistemas

Revisado por el equipo técnico de TI

Aprobación escrita por el equipo


Aprobación conforme
técnico y la escala de aprobación
correspondiente

Plan de Analista
Documento organizado clara y
P1 Ejecución lógicamente
Pruebas desarrollador
Debe contemplar:

Contenido conforme Pruebas Unitarias


Pruebas Integrales
Pruebas Funcionales
Pruebas Técnicas
Entrega en el tiempo Según lo indicado en el cronograma:
previsto
No. Actividad Responsable Etapa Variables Conceptuales Variables Operacionales de Reacción a Cumplimiento Observaciones Próxima
Actividad o producto de Calidad Calidad situación revisión
de
Productos
no
Conformes

Utiliza la plantilla "XXXXXRegistro


de Ejecución de Pruebas", acorde
Acorde con las
con la Metodología del
Metodologías
Departamento de Desarrollo de
Sistemas
Cumple con lo indicado en el Plan
Cumple con los objetivos de Pruebas
Cubre la necesidad existente
Revisado y aprobado por el
equipo técnico de TI
Aprobación conforme Aprobación escrita por el equipo
técnico y la escala de aprobación
correspondiente
Entrega en el tiempo Según lo indicado en el
previsto Cronograma:
La actividad se realizó con una
Duración aceptable duración aceptable según lo
indicado en el Plan
Documento organizado clara y
lógicamente
No contiene ambigüedad
Ejecución Contenido de la plantilla:
Analista
A1 de Pruebas Ejecución
desarrollador Identificación No. Plan de
Unitarias
Pruebas
Identificación No. de Pruebas
Proyecto
Identificación No. Requerimiento
asociado
Alcance y objetivo
Contenido conforme
Versión del programa
Aspectos de hardware
Procedimientos, resultados
esperados y resultados obtenidos
Observaciones
Acciones correctivas realizadas
Fechas
Aceptación
Responsables de efectuar la
prueba
Participantes
La ejecución de las pruebas
Ejecutado por el personal fueron realizadas por los
competente funcionarios responsables según el
plan de pruebas.
 Las métricas son una pieza fundamental en el
proceso de desarrollo de software.

 Existen distintas clasificaciones de las métricas del


software.

 Las métricas permiten estimar costos, esfuerzos y


recursos en los proyectos de software y en los
departamentos de TI.
 Diagrama Proceso Individual
› Continuo
Documentación : Casos de Uso
Lista de chequeo sencilla para revisar la especificación de los casos de uso.
Pregunta Si No
¿Por qué?
__________________
1. ¿Se han encontrado todos los casos de uso?
__________

¿Por qué?
1. ¿Se identifican todos los actores que intervienen en __________________
los mismos? __________

1. ¿Dos actores tocan un caso del uso respecto al ¿Por qué?


mismo papel? __________________
En ese caso, se debe usar los actor - generalizaciones __________
para modelar la conducta compartida.

1. ¿Un actor particular usará el sistema en varios


¿Por qué?
maneras o él tiene varios propósitos para usar el
__________________
caso del uso?
__________
En ese caso, probablemente se debe tener más de un
actor.
¿Por qué?
1. ¿Los actores tienen los nombres intuitivos y __________________
descriptivos? __________

1. ¿Usuarios y clientes pueden entender los nombres? ¿Por qué?


__________________
Es importante que los nombres del actor correspondan a __________
sus papeles. Si no, cámbielos.
Documentación :Plan de Pruebas
Lista de chequeo sencilla para revisar el Plan de pruebas .
Indispensable
Pregunta Si No
(S/N)
1. ¿Garantiza el plan de pruebas que el sistema cumple con
los objetivos planteados en los requerimientos?
1. ¿Contempla la matriz de prueba, los casos de pruebas
necesarios para garantizar que los objetivos planteados en
los requerimientos se cumplirán si las pruebas son
satisfactorias?
Prueba de Funcionalidad
Ejecute cada caso de uso, flujo de caso de uso, o función
usando datos válidos y no válidos, para verificar lo siguiente:
 Se obtienen los resultados esperados cuando se usan datos
válidos.
 Cuando se usan datos no válidos se despliegan los mensajes
de error o advertencia apropiados. Se aplica
apropiadamente cada regla del negocio
Todas las pruebas planificadas se realizaron. Todos los defectos
encontrados han sido debidamente identificados
Identificar o describir aquellos elementos o problemas (internos o
externos) que impactaron en la implementación y ejecución de
las pruebas de funcionalidad
Prueba de Interfase de Usuario
Verificar que: la navegación a través de los elementos que se
están probando reflejen las funciones del negocio y los
requerimientos, incluyendo manejo de ventanas, campos y
métodos de acceso; los objetos de las ventanas y características,
como menús, tamaño, posición, estado funcionen de acuerdo a
los estándares
 Diagrama Proceso Individual
› Proceso de 2 Revisiones
 Muestra de 5 elementos y evaluación en
las buenas practicas:
› 1. Bases de Datos:
 Creación de Tablas
 Procedimientos de Almacenado.
› 2. Casos de Uso
› 3. Capa de Acceso a Datos
› 4. Capa Lógica de Negocios
› 5. Capa de Servicio
› 6. Capa de Presentación
 Creación de Tablas
 Procedimientos de
Almacenado
 Evaluación
 Diagrama Proceso Individual
› Proceso de 2 revisiones
 Objetivo:
› Boicotear el sistema, encontrar
errores a nivel funcional dentro de
un sistema.
 Boicotear: Lograr que el sistema falle
 Plan de Pruebas:
› Muestra de procesos mas críticos en relación
Casos de Uso – Requerimientos: Casos Prueba.
 Informe de Resultados:
› Resultados de los casos de prueba (Aprobado-
Rechazado-No Ejecutado).
Sistema para la administración de las
pruebas:
TestLink: OpenSource
Resultados Aceptables: X>66%
 Pruebas de Caja Blanca:
› Objetivo: revisar cobertura de código realizado
en las pruebas unitarias por parte del
desarrollador. Resultado aceptable: X>55-60%
 Pruebas de Estrés:
› Objetivo: analizar el decaimiento de un sistema
mediante su uso o visitas: Recomendación de
sistema: Web Stress Tool (Licenciado).

 Pruebas de Portabilidad:
› Objetivo: Encontrar errores de uso dependiendo
del sistema operativo y/o navegador usado.
 Informe Resultados Revisión de Código.
 Informe de Revisión de Documentación.
 Informe de resultados de la Ejecución de Casos de
Pruebas.
 Informe Control Calidad por Periodo.
 Informe Final de Calidad .
 Reducir los errores e incumplimientos durante la
construcción de un sistema antes de su
lanzamiento a producción.

 Notificar y evitar los incumplimientos


metodológicos de un sistema en sus fases.
 Obtener un software lo mayormente depurado.

 Evitar errores en el uso de herramientas de


desarrollo que puedan afectar la labor diaria de la
empresa o organización.

 Evitar sobrecostos para solucionar incumplimientos


o reparar fallas en proyectos o mantenimientos de
un sistema.

También podría gustarte