Está en la página 1de 4

Modelo de pruebas de software

Ass Durn Ziga

Resumen Uno de los objetivos de la fase de pruebas del sistema es verificar que el comportamiento externo del sistema software satisface los requisitos establecidos por los clientes y futuros usuarios del mismo.

Introduccin La fase de pruebas del sistema tiene como objetivo verificar el sistema software para comprobar si este cumple sus requisitos. Dentro de esta fase pueden desarrollarse varios tipos distintos de pruebas en funcin de los objetivos de las mismas. Algunos tipos son pruebas funcionales, pruebas de usabilidad, pruebas de rendimiento, pruebas de seguridad, etc. Este trabajo se centra en pruebas funcionales de aplicaciones con interfaces grficas. Estas pruebas verifican que el sistema software ofrece a los actores humanos la funcionalidad recogida en su especificacin.

Desarrollo Antes se deben de definir algunos conceptos: Falla o Failure: Ocurre cuando un programa no se comporta de la manera adecuada. Falta o fault: Tiene lugar en el cdigo del programa. La existencia de alguna falta en el programa puede generar una falla en el sistema. Error: Es una accin humana que provoca que un software contenga una falta. Un error puede significar la existencia de una falla en el programa, lo cual provoca que el sistema falle.

No se puede garantizar ni probar que un sistema jams falle, si no que slo se puede demostrar que no contiene faltas. El no encontrar faltas no significa que la prueba haya

sido exitosa. Solo lo es si se han encontrado faltas. La prueba es un proceso de ejecucin de un programa con la intencin de descubrir un error. Un buen caso de prueba es aquel que tiene alta probabilidad de mostrar un error no descubierto hasta entonces. El nico modo de que la prueba tenga xito es encontrando un error que no haya sido detectado hasta entonces. Tcnicas de prueba de software Las tcnicas de evaluacin dinmica o prueba proporcionan distintos criterios para generar casos de prueba que provoquen fallos en los programas. Estas tcnicas se agrupan en: Tcnicas de caja blanca o estructurales, que se basan en un minucioso examen de los detalles procedimentales del cdigo a evaluar, por lo que es necesario conocer la lgica del programa. Tcnicas de caja negra o funcionales, que realizan pruebas sobre la interfaz del programa a probar, entendiendo por interfaz las entradas y salidas de dicho programa. No es necesario conocer la lgica del programa, nicamente la funcionalidad que debe realizar.

Tcnica de caja Blanca Este mtodo se centra en cmo disear los casos de prueba atendiendo al comportamiento interno y la estructura del programa. Se examina as la lgica interna del programa sin considerar los aspectos de rendimiento. El objetivo de la tcnica es disear casos de prueba para que se ejecuten, al menos una vez, todas las sentencias del programa, y todas las condiciones tanto en su vertiente verdadera como falsa.

Tcnica de caja Negra Tambin conocidas como Pruebas de Comportamiento, estas pruebas se basan en la especificacin del programa o componente a ser probado para elaborar los casos de

prueba. El componente se ve como una Caja Negra cuyo comportam iento slo puede ser determinado estudiando sus entradas y las salidas obtenidas a partir de ellas. No obstante, como el estudio de todas las posibles entradas y salidas de un programa sera impracticable se selecciona un conjunto de ellas sobre las que se realizan las pruebas. Fases 1. Diseo de las pruebas. Esto es, identificacin de la tcnica o tcnicas de pruebas que se utilizarn para probar el software. Distintas tcnicas de prueba ejercitan diferentes criterios como gua para realizar las pruebas. Seguidamente veremos algunas de estas tcnicas. 2. Generacin de los casos de prueba. Los casos de prueba representan los datos que se utilizarn como entrada para ejecutar el software a probar. Ms concretamente los casos de prueba determinan un conjunto de entradas, condiciones de ejecucin y resultados esperados para un objetivo particular. Como veremos posteriormente, cada tcnica de pruebas proporciona unos criterios distintos para generar estos casos o datos de prueba. Por lo tanto, durante la tarea de generacin de casos de prueba, se han de confeccionar los distintos casos de prueba segn la tcnica o tcnicas identificadas previamente. La generacin de cada caso de prueba debe ir acompaada del resultado que ha de producir el software al ejecutar dicho caso (como se ver ms adelante, esto es necesario para detectar un posible fallo en el programa). 3. Definicin de los procedimientos de la prueba. Esto es, especificacin de cmo se va a llevar a cabo el proceso, quin lo va a realizar, cundo, etc 4. Ejecucin de la prueba, aplicando los casos de prueba generados previamente e identificando los posibles fallos producidos al comparar los resultados esperados con los resultados obtenidos. 5. Realizacin de un informe de la prueba, con el resultado de la ejecucin de las pruebas, qu casos de prueba pasaron satisfactoriamente, cules no, y qu fallos se detectaron. Referencias
http://www.lsi.us.es/docencia/get.php?id=361 http://farova2.blogspot.mx/2008/10/modelo-de-pruebas-de-software.html http://ceur-ws.org/Vol-227/paper07.pdf

También podría gustarte