Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Industrias
Sobre Abstracta
Recursos
CONTACTO
Blog
Buscar aquí...
Pruebas de Software 1
Categorías
Automatización de Pruebas
Un buen informe de pruebas debe ser fácil de leer y debe minimizar desperdicios
causados por la falta o mala comunicación. Revisa en este post las pautas para facilitar Calidad de Software Cultura
este proceso.
Desarrollo de Software DevOps
Estrategia Eventos
Herramientas Liderazgo
Pruebas de Performance
Pruebas de Software
Se asume que redactar un defecto es una tarea sencilla, ¿pero no nos hemos encontrado muchas veces con que los
reportes de testing no tienen nada que ver con el caso de prueba? A pesar de tener un formato para reportar
defectos, es común que el tester no los pueda transmitir y el desarrollador mucho menos entender, dejando la
puerta abierta a interpretaciones causadas por ambigüedad, imprecisión, redundancia o falta de información.
Más allá de la redacción del reporte, entre algunos de nuestros clientes identi camos otro tipo de oportunidades de Descarga nuestro e-book
mejora, desde la fase de inicio de los proyectos de testing, pues al obviar la gestión de defectos como una fase de automatización de
fundamental del proceso de pruebas, se materializaron varios riesgos asociados a la mala comunicación del equipo pruebas:
interno, mala comunicación con sus clientes o usuarios, y pérdidas de dinero u oportunidades de negocio. Un
proceso no óptimo de gestión de defectos pierde de vista la posibilidad de una mejora continua asociada al ciclo
de vida del desarrollo de software.
El reporte parece una actividad de baja complejidad, donde temporalmente las actividades de testing “ nalizan”.
Más, es la oportunidad para conocer el comportamiento de los procesos y proyectos, así como el desempeño
humano y del producto. Es un proceso fundamental que si inicia de manera temprana, facilita la identi cación de las
causas raíces de los problemas asociados al software.
La gestión de defectos está orientada a reconocer, investigar, clasi car, registrar, asignar y medir defectos, que
eviten situaciones de bloqueo.
DESCARGAR E-BOOK
Este post tiene como objetivo transmitir pautas para facilitar el proceso de reportes de testing. Así como recalcar
la importancia de tener un buen diseño de casos de prueba, estandarización y transparencia, toda vez que el
reporte debe ser fácil de leer, debe minimizar desperdicios causados por la falta o mala comunicación, y porque el
momento de redactar un defecto no debería ser tan complejo.
Dichas discrepancias se pueden identi car en diferentes etapas del ciclo de vida del desarrollo y del producto de
software. Con el objetivo de minimizar diferentes tipos de riesgos asociados a los proyectos y al producto, lo ideal
es evidenciar la mayor cantidad de defectos posible en etapas tempranas del desarrollo del software, incluso desde
la fase de planeación.
Cualquier defecto detectado además de ser investigado y reportado, debe ser monitoreado bajo un proceso
estricto de seguimiento y control.
Documentación
Para mejorar la documentación del reporte y su lectura, se sugiere contar con los siguientes atributos:
. Casos de prueba escritos correcta y detalladamente: Facilitará el entendimiento y redacción del defecto.
. Identi cador del reporte: Un identi cador único que permita trazar el defecto .
. Tarea padre: Generalmente el caso de prueba es la tarea padre para asociar el defecto, esta asociación facilita
la trazabilidad.
. Informador o tester: Responsable del reporte, quien encuentra el defecto y redacta el reporte.
. Estado: Según los estados de nidos para el ciclo de vida, por ejemplo: Abierto, cerrado, en revisión, anulado,
etcétera. Este ítem se detalla con precisión más adelante.
. Versión: Especi car en qué versión del paquete, funcionalidad, producto o commit, se encontró el defecto.
. Severidad: La severidad facilita la priorización para la resolución de la incidencia y afecta los datos que se
obtendrán en el informe. Este ítem se detalla con precisión más adelante.
. Reproducibilidad: Identi car si es un defecto común, si nunca se ha intentado o si es un defecto frecuente.
. Resumen: Escribir un título que permita interpretar fácilmente el defecto.
. Pasos para reproducir el error: Describir todos los pasos que faciliten el camino para que cualquier persona del
equipo pueda llegar a reproducir el defecto.
. Información adicional: Datos de prueba, diagnóstico.
. Ambiente o ubicación: Documentar la base de datos de pruebas, el nombre o identi cador del ambiente.
. Imágenes y/o videos: Respaldar el reporte con imágenes o videos para ampliar y facilitar su lectura.
. Descripción del defecto: Este ítem se detalla a continuación.
Se ha dejado este tópico aparte por la atención que merece. De la buena redacción del defecto depende en gran
medida que se logren minimizar los problemas asociados a los altos reprocesos producidos por las falencias en la
interpretación del reporte.
Para lograr con mayor facilidad este objetivo, se puede realizar la descripción del defecto teniendo en cuenta los
siguientes elementos:
. Cuándo: Acción que describe el evento y las variables dentro de la descripción del caso de prueba.
. Qué: Resultado que se obtuvo al ejecutar la acción (cuándo), que discrepa del resultado esperado.
. Dónde: Ubicación del objeto de prueba.
. Resultado esperado: Describe el objetivo de la funcionalidad.
Forma 1
Básicamente los elementos cuándo, dónde y resultado esperado del defecto son un “copy – paste” de los
elementos descripción y resultado esperado del caso de prueba. Lo mismo podría darse con los pasos para
reproducir el defecto y los pasos del casos de prueba.
Severidad
Asignar severidades a los defectos reportados facilitará su priorización. Existen diferentes tipos de severidades,
tales como: Bloqueante, alta, crítica, mayor, menor, entre otras. Esto dependerá de cada organización.
Es una incidencia o defecto si: Bloquea la ejecución, hay cálculos incorrectos o mensajes errados o inexistentes.
Para hacer la vida un poco más sencilla al momento de realizar el reporte, se pueden asignar las siguientes:
Bloqueante: Un estado de severidad bloqueante es aquel donde no hay funcionalidad de las reglas del negocio
y/o la aplicación, presenta bloqueos para continuar con el ujo normal de la funcionalidad o con las pruebas.
Funcional/Mayor: Son problemas graves que afectan las reglas de negocio.
Menor: El defecto no afecta ninguna regla de negocio es probablemente un problema cosmético.
La clasi cación por severidad de los defectos es una buena estrategia para medir prioridades, y para que el equipo
no se lleve sorpresas al momento de recibir los reportes.
Usualmente se confunde la severidad “Menor” con las mejoras. Sin embargo, las mejoras no hacen parte del ciclo de
vida de las incidencias.
Mejora: Es una propuesta que se realiza con el objetivo de agregar alguna característica, funcionalidad o parte del
producto, lo cual di ere completamente de la de nición de un defecto.
Siempre que haya un cambio de estado es importante para el seguimiento del proyecto dejar notas documentando
las razones del cambio. Es decir, si se toma la decisión de ir al ujo alterno “No será corregido” se debería describir
el motivo, por ejemplo:
Informe de Prueba
La información de los reportes puede depender de variables como los estados de los defectos, la severidad, tiempo
de resolución, qué defectos son los más activos y la efectividad del informador.
Desarrollador
Informador o tester
Resolución
Tendencias de las incidencias
Profundizar en el análisis habilita la posibilidad de identi car las causas raíces de la incidencia y dejar un registro
que se podría con gurar a través de una parametrización en el documento o herramienta. Y con ello, aportar al
mejoramiento de la gestión de los proyectos, el ciclo de vida del desarrollo del software, el ciclo de vida del
producto y su gestión de riesgos.
Una forma de gestionar los defectos para facilitar el seguimiento y monitoreo es crear ciclos de ejecución de
pruebas. Cuando se realizan los diseños se crean las suite de pruebas o juego de pruebas, que sirve para agrupar los
casos de prueba y disponerlos para la fase de ejecución.
Los casos de prueba en diseño no están asignados a un plan de prueba particular o a una suite, solo se agruparán
para iniciar la ejecución, dado que cada suite tiene un objeto de prueba particular. Se sugiere el uso de 3 ciclos, así:
Ciclo 1: Se ejecutan los casos de prueba que afectan directamente la funcional que ha sido cambiada,
actualizada, corregida o mejorada.
Ciclo 2: Se prueban los casos de prueba que fallaron en el ciclo 1. El ciclo 2, normalmente se denomina Re-Test.
Ciclo 3: Se ejecutan los casos de prueba que validan la regresión del producto, son casos de prueba que
permiten validar que los cambios no hayan causado daños colaterales.
Algunos errores se reportan en un ciclo y se decide que no serán corregidos, por lo cual, se mantiene el caso de
prueba con el reporte. Sin embargo se tiene en cuenta que este deberá planearse para una nueva versión.
¡Síguenos en LinkedIn, Twitter, Facebook, Instagram y Youtube para ser parte de nuestra comunidad y enterarte de
más buenas prácticas para gestionar informes de testing!
Etiquetas
COMPARTIR 57 / 219
Posts Relacionados
Testing de Software, clave para el éxito Abstracta quedó rankeada entre las
de los Pagos Digitales principales Empresas de Testing 2020-
El panorama de los modos de consumo y pago se 2021
encuentran en pleno cambio de paradigma: el Nos apasiona el desafío de ayudar a empresas
efectivo es cosa del pasado. Conoce la situación disruptivas para que logren introducir mejores
global y cómo desde Abstracta te ayudamos a prácticas de gestión de calidad y pruebas de
optimizar los pagos digitales. software, en el ciclo de vida de sus
desarrolladores.
0 Ver más
0 Ver más