Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Uno de los hallazgos útiles que resultaron de este estudio fue la importancia de
considerar los factores humanos al realizar una evaluación TMM.
[44]. Para determinar con precisión el estado de un proceso de prueba, el
los participantes en la evaluación deben proporcionar información precisa y consistente.
Deben estar motivados para trabajar con el equipo de evaluación.
hacia el objetivo de la mejora del proceso de prueba. Por eso es importante
que los participantes estén capacitados y preparados, y que la evaluación
El proceso debe adaptarse para que encaje bien con las normas culturales de la
organización. Además, también es muy importante que el equipo de evaluación de TMM
obtenga un fuerte apoyo de la gerencia para la evaluación y
los cambios de proceso que pueden seguir. Esto maximiza las posibilidades de
éxito (ver Sección 16.9.3).
Para abordar estos problemas de factores humanos, el investigador de este TMM
estudio ha agregado fases o pasos para aumentar la "fase de preparación" de
el procedimiento de evaluación descrito por Homyen [25]. La nueva inicial
se llama la “fase de propuesta”. Lo sugiere el investigador
que esta fase se aplique a organizaciones nuevas en las evaluaciones de TMM,
y/o aquellos que son conservadores en su enfoque de los cambios en los procesos.
La fase de propuesta incluye actividades como un estudio de la cultura organizacional,
obtener el apoyo de SEPG u otros grupos de mejora de procesos, reclutar voluntarios para
inscribirse en una evaluación informal
(completar el cuestionario TMM), educar al personal y a la alta dirección
Machine Translated by Google
ment en el TMM, y tener una reunión de lanzamiento para los participantes. Durante
En esta fase, la información del cuestionario se cuenta y se informa a
SEPG y/o alta dirección. Los resultados proporcionan una imagen aproximada de
el proceso de prueba, y puede usarse para motivar e iniciar acciones adicionales. Cuando se
completa este paso, se desarrolla una propuesta formal para una evaluación de TMM y se
identifican los posibles patrocinadores y proyectos. En
esta vez, el equipo de TMM debe asegurarse de que haya un número estadísticamente
significativo de participantes para la evaluación. Se desarrolla un plan de compra para up per
management, y se presentan el plan y la propuesta.
a este grupo. El equipo de TMM utiliza el plan de compra y la propuesta para
obtener el compromiso, el apoyo y la financiación de la alta dirección para
la evaluacion. Tener este compromiso por parte de la dirección es fundamental
para que la evaluación del proceso y el esfuerzo de mejora tengan éxito.
En lo que se llama la "fase de preparación orientada al ser humano", el TMM
El investigador aumenta el paso original de "preparación" del TMM con
un plan de compra desarrollador/probador. El plan de compra es importante para hacer el
participantes conscientes de que la mejora de procesos es un esfuerzo de todos, que
hay muchos beneficios que resultan de una evaluación, y esa calidad
prácticas juegan un papel fundamental en la calidad del producto. Tenga en cuenta que en el medio oeste
Las clasificaciones que resultaron de este estudio son preliminares para este sitio organizacional
y se planea una evaluación más formal para obtener las clasificaciones de referencia del proceso de
• Los factores humanos son una consideración importante al realizar una evaluación. Una “fase de
preparación” TMM aumentada es útil para abordar los problemas de factores humanos. Se deben
una evaluación exitosa. Como parte del proceso de capacitación y personalización, los instructores
deben proporcionar un mapeo de los términos utilizados por el TMM con los utilizados por la
organización. Esto es útil a pesar de que el cuestionario TMM tiene un glosario de términos. Ayuda
• Realizar una evaluación, aunque sea tan informal como en este estudio, tiene muchos beneficios y es
una excelente herramienta para conocer la naturaleza de un proceso. También es una herramienta
para obtener apoyo de gestión y recursos para la mejora del proceso de prueba.
• Algunas de las áreas de proceso de prueba más débiles encontradas en este estudio fueron:
-capacitación;
• Satisfacer las metas de madurez del nivel 5 de TMM puede ser muy difícil para una organización o
grupo en particular. El investigador sugirió que para este sitio, grupos más pequeños de
desarrolladores/evaluadores dirigidos por líderes de prueba que estén involucrados en los detalles
de bajo nivel de las pruebas deberían trabajar para alcanzar el nivel 4 de TMM. Este puede ser un
TMM
Grupo Nivel Comentarios sobre los resultados
ciclo vital.
TL2 1 Ausencia de políticas/objetivos de depuración; falta de
respuestas en cuestionario.
SEPG1 1 Este grupo puede satisfacer todos los objetivos de madurez en todos
TABLA 16.5
Para respaldar los esfuerzos exitosos de evaluación y mejora del proceso de prueba,
una organización necesita asegurarse de que su personal técnico esté debidamente capacitado,
motivados y provistos de herramientas de apoyo para hacer el trabajo. Este requisito tiene
sus raíces en el esfuerzo de “Involucramiento total de los empleados (TIE)”, que en
en sí era parte del movimiento de "Gestión de calidad total" en Japón
[45]. El personal debe estar convencido de que la evaluación y mejora del proceso
Machine Translated by Google
REFERENCIAS
[1] I. Burnstein, T. Suwanassart y C. Carlson, "Desarrollo de [6] M. Paulk, C. Weber, B. Curtis y M. Chrissis, El modelo de
un modelo de madurez de prueba: parte I", CrossTalk: Journal madurez de la capacidad, Addison-Wesley, Reading, MA, 1995.
of Defense Software Engineering. vol. 9, núm. 8, 1996, págs.
21 a 24,
[7] Instituto de Ingeniería de Software, www.sei.cmu. edu/cmmi/
[2] I. Burnstein, T. Suwanassart y C. Carlson, "Desarrollo de publicaciones
un modelo de madurez de prueba: parte II", CrossTalk: Journal
[8] F. Coallier, "Cómo encaja ISO 9001 en el mundo del
of Defense Software Engineering. vol. 9, núm. 9, 1996, págs.
software", IEEE Software, vol. 11, núm. 1, 1994, págs. 98–100.
19–26.
[5] I. Burnstein, A. Homyen, T, Suwanassart, G. Saxena, R. [12] M. Paulk, C. Weber, S. García, M. Chrissis y M. Bush,
Grom, "Un modelo de madurez de prueba para la evaluación y “Prácticas clave del modelo de madurez de la capacidad,
mejora del proceso de prueba de software", Software Quality versión 1.1”, Informe técnico, CMU/SEI-93-TR-25, 1993,
Professional (Sociedad Estadounidense para la Calidad), vol. Instituto de Ingeniería de Software, Pittsburgh, PA.
1, núm. 4, septiembre de 1999, págs. 8–21.
Machine Translated by Google
[13] D. Gelperin, B. Hetzel, “El crecimiento del software [26] J. Hearns, S. García, “Gestión automatizada del equipo de
testing”, Communications of the Association of Computing Machinery, pruebas: ¡funciona!” proc. del 10° Ing. de Software.
vol. 31, núm. 6, 1988, págs. 687–695. Conferencia del Grupo de Procesos (SEPG'98), 6–9 de marzo,
Chicago, IL, 1998.
[14] J. Durant, “Informe de encuesta sobre prácticas de prueba de
software”, Informe técnico, TR5-93, Prácticas de software [27] W. Humphrey, W. Sweet, “Un método para evaluar
Centro de Investigaciones, 1993. la capacidad de ingeniería de software de los contratistas”,
Informe técnico, CMU/SEI-87-TR-23, Instituto de ingeniería de
[15] B. Beizer, Técnicas de prueba de software, segundo
software, Pittsburgh, PA, 1987.
edición, Van Nostrand Reinhold, Nueva York, 1990.
[28] J. Puffer, A. Litter, "Planificación de acciones", Boletín informativo
[16] D. Gelperin, A. Hayashi, “Cómo apoyar mejor
del Consejo técnico de ingeniería de software de IEEE,
pruebas de software”, Application Trends, mayo de 1996,
vol. 15, núm. 2, 1997, págs. 7 a 10.
págs. 42–48.
[29] R. Grom, “Informe sobre un soporte de evaluación de TMM
[17] D. Gelperin, "¿Cuál es su madurez de comprobabilidad?"
tool,” Technical Report, Instituto de Tecnología de Illinois, Chicago,
Application Trends, mayo de 1996, págs. 50–53.
IL, 1998.
[18] T. Koomen, M. Pol, "Mejora del proceso de prueba usando TPI", [30] C. Cook, M. Visconti, “Modelo de documentación nuevo y
Informe técnico, IQUIP Informatica mejorado”, Informe técnico, Estado de Oregón
BV, Diemen, Países Bajos, 1998, http://www. Universidad, 1996.
iquip.nl.
[31] K. El Emam, D. Goldenson, L. Briand, P. Mar, “Acuerdo entre
[19] T. Koomen, M. Pol, Mejora del proceso de prueba, evaluadores en evaluaciones basadas en SPICE: algunos informes
Addison-Wesley, Reading, MA, 1999. preliminares”, Proc. Cuarta Conferencia Internacional sobre el
Proceso del Software,
[20] A. Clouse, C. Wells, “Transitioning from EIA/IS 731 to CMMI,”
Brighton, Reino Unido, 1996, págs. 149–156.
CrossTalk: Journal of Department of
Ingeniería de software de defensa, vol. 13, N° 7, julio [32] G. Saxena, "Un marco para construir y evaluar modelos de
2000, págs. 15 a 20. madurez de procesos", Ph.D. tesis, Illinois
Instituto de Tecnología, Chicago, IL, 1999.
[21] S. Shrum, "Elegir una representación de modelo CMMI",
CrossTalk: Revista del Departamento de Defensa [33] J. Weszka, P. Babel, J. Ferguson, “CMMI:
Ingeniería de software, vol. 13, núm. 7, julio de 2000, camino evolutivo hacia la mejora de los procesos empresariales”,
págs. 6–7. CrossTalk: Revista del Departamento de Ingeniería de Software de
Defensa, vol. 13, núm. 7, julio de 2000,
[22] Organización Internacional de Normalización
págs. 8–11.
(ISO), ISO/IEC Evaluación de procesos de software Trabajo
Borrador-Parte 3: Procesos de calificación, versión 1.00; Parte 5: [34] Equipo de desarrollo de productos de CMMI, “CMMI for
Construcción, selección y uso de instrumentos y herramientas de ingeniería de sistemas/ingeniería de software, versión 1.02
evaluación, versión 1.00; Parte 7: Guía para uso en (CMMI-SE/SW, V1.02) representación por etapas”, Informe Técnico,
mejora de procesos, versión 1.00, Organización Internacional de CMU/SEI-2000TR-018, ESC-TR-2000-
Normalización, Ginebra, 1995. 018, Instituto de Ingeniería de Software, noviembre de 2000.
[23] D. Zubrow, W. Hayes, J. Siegel, D. Goldenson, “Cuestionario de [35] D. Kitson, “Un estándar internacional emergente
madurez”, Informe técnico, para la evaluación de procesos de software”, Proc. IEEE tercero
CMU/SEI-94-SR-7, Instituto de Ingeniería de Software, Simposio y foro sobre estándares internacionales de ingeniería de
Pittsburgh, Pensilvania, 1994. software, Walnut Creek, CA, junio de 1999.
[24] S. Masters, C. Bothwell, “Una evaluación CMM [36] S. García, “Evolución de los paradigmas de mejora:
framework, versión 1.0”, Informe técnico, CMU/SEI 95-TR-001, Modelos de madurez de capacidad e ISO/IEC 15504
Instituto de ingeniería de software, Pittsburgh, PA, 1995. (PDTR)”, Mejora y práctica de procesos de software, vol. 3, núm. 1,
1998.
[25] A. Homyen, “Un modelo de evaluación para determinar [37] Organización Internacional de Normalización
madurez del proceso de prueba”, Ph.D. tesis, Instituto de Illinois de (ISO), “ISO/IEC 12207: Tecnología de la información—
Tecnología, Chicago, IL, 1998. Procesos del ciclo de vida del software”, 1995.
Machine Translated by Google
[38] J. Moore, “ISO 12207 y vida de software relacionada [44] H. Tran, "Un procedimiento sobre cómo realizar una
estándares de ciclo,” http://www.acm.org.tsc/lifecycle. evaluación de madurez de prueba en una organización de
html desarrollo de software utilizando la metodología de evaluación TMM",
Tesis de maestría, Universidad de Minnesota, Rochester, MN,
[39] R. Kehoe, A. Jarvis, ISO-9000-3, Springer-Verlag,
2001.
Nueva York, 1995.
[45] L. Zells, “Aprendiendo de las aplicaciones TQM japonesas
[40] I. Burnstein, T. Suwanassart, correspondencia privada, 2001.
a la ingeniería de software”, Gestión de calidad total para
software, G. Schulmeyer, J. McManus,
[41] J. Hook, “Evaluación del cuestionario TMM”, Informe técnico, eds., Van Nostrand Reinhold, Nueva York, 1992.
Instituto de Tecnología de Illinois, Chicago, IL, 1997.
[46] K. El Emam, B. Shostak, N. Madhavji, “Implementación de
conceptos del proceso de software personal
[42] K. Olsen, P. Stall Vinje, “Using the testing maturity model in en un entorno industrial”, Proc. Cuarta Internacional
practice test-planning and postevaluation,” Conferencia Conferencia sobre el Proceso de Software, Mejora,
EuroSTAR98, Munich, Alemania, and Practice, Brighton, Reino Unido, 1996, págs. 117–130.
1998.
APÉNDICE I
procesos. Esta lista no pretende ser exhaustiva, solo representativa de las conferencias disponibles
en estas áreas. Algunas de las conferencias se llevan a cabo una vez al año; otros se llevan a cabo
varias veces al año. Las ubicaciones de las conferencias pueden variar de un año a otro.
www.sqe.com
588 | Apéndice I
Logan, UT 84322-5045
www.stc-online.org
Esta lista contiene sitios web que se enfocan en material general de mejora de
procesos. Los evaluadores y administradores de pruebas pueden encontrar información
muy útil en estos sitios.
www.stsc.hill.af.mil
www.cmu.edu/collaborating/spins/spins.html
Machine Translated by Google
www.sei.cmu.edu
www.sei.cmu.edu/cmmi
http://sepo.nosc.mil
http://sel.gsfc.nasa.gov El
www.software.org
www.espi.co.uk
www.egroups.com/group.spi
590 | Apéndice I
www.sqi.gu.edu.au/spice/contents.html
www.asq.org
Editor de Software Quality Professional, una revista que contiene artículos de alta calidad
que cubren aspectos de la prueba y la calidad del software. La sociedad también participa
en la certificación de ingenieros de calidad, patrocina conferencias de calidad/pruebas,
publica libros y tiene un foro de Six Sigma.
11. Cuerpo de conocimientos de ingeniería de software (SWEBOK). Desarrollado por un grupo de
trabajo conjunto IEEE/ACM.
www.swebok.org
SWEOK contiene áreas de conocimiento y descripciones de temas que son esenciales para
todos los ingenieros de software.
12. Instituto de Garantía de Calidad (QAI)
www.qaiusa.com
Hay muchos sitios web dedicados a las pruebas. Muchos ofrecen servicios de prueba.
La siguiente es una lista de algunos sitios web útiles relacionados con las pruebas que contienen
enlaces a documentos, conferencias y servicios de interés para los profesionales de las pruebas.
www.rbsc.com
Tiene una buena lista de documentos relacionados con las pruebas de orientación a objetos.
sistemas
2. Centro de recursos de pruebas y calidad del software
Machine Translated by Google
www.softwareqatest.com
www.ssq.org
estándares.ieee.org/catalog
Enumera los documentos de normas IEEE y cómo solicitar copias. El sitio web del IEEE
es:
ieee.org
www.ondaweb.com
www.mtsu.edu/strom/
Esta es una buena fuente de material relacionado con las pruebas. Es mantenido por
la Universidad Estatal de Middle Tennessee. Hay una lista de investigadores en
pruebas, revisiones, monografías y fuentes educativas.
7. Revista de Pruebas de Software e Ingeniería de Calidad (STQE)
www.stqemagazine.com/
Este sitio describe una revista que contiene artículos sobre pruebas de software.
www.soft.com
Apéndice I
592 |
Esta sección contiene una lista de documentos y libros relacionados con las pruebas
de software que son de interés para desarrolladores, probadores y administradores.
La lista está en orden alfabético y contiene una compilación de las referencias
mencionadas en cada capítulo del libro, así como elementos adicionales que aumentan
el material del texto.
Beizer, B., Software System Testing and Quality Assurance, Van Nos trand
Reinhold, Nueva York, 1984.
Brettschneider, R., "¿Está su software listo para su lanzamiento?" Software IEEE, vol.
6, núm. 4, págs. 100 a 108, 1989.
Burnstein, I., A. Homyen, R. Grom, CR Carlson, "Un modelo para evaluar la madurez
del proceso de prueba", CrossTalk: Journal of Department of Defense Software
Engineering, vol. 11, núm. 11, noviembre de 1998, págs. 26–30.
Machine Translated by Google
Apéndice I
594 |
Cangussu, J., R. DeCarlo, A. Mathur, "Un modelo formal del proceso de prueba", IEEE
Trans. Ingeniería de software, vol. 28, núm. 8, agosto de 2002,
págs. 782–796.
Chen, T., Y. Yu, "Sobre el número esperado de fallas detectadas por pruebas de
subdominios y pruebas aleatorias", IEEE Trans. Ingeniería de software,
vol. 22, 1996, págs. 109–119.
Coad, P., E. Yourdon, Object-Oriented Analysis, segunda edición, Your don Press, Englewood
Cliffs, NJ, 1991.
Coallier, F., "Cómo encaja ISO 9001 en el mundo del software", IEEE Software, vol. 11, núm.
1, 1994, págs. 98–100.
Cobb, R., H. Mills, "Software de ingeniería bajo control de calidad estadístico", IEEE Software,
vol. 7, núm. 5, 1990, págs. 44 y 54,
Dalal, S., C. Mallows, “Algunas ayudas gráficas para decidir cuándo detenerse
software de prueba”, IEEE Journal on Selected Areas in Communications,
vol. 8, núm. 2, 1990, págs. 169–175.
Dalal, S., C. Mallows, "¿Cuándo se debe dejar de probar el software?" J. American Statistical
Association, vol. 81, núm. 403, págs. 872–879, 1988.
Delamaro, M., J. Maldonado, A. Mathur, "Mutación de la interfaz: un enfoque para las pruebas
de integración", IEEE Transactions on Software Engineering, vol. 27, núm. 3, marzo de 2001,
págs. 228–247.
DeMillo, R., R. Lipton, F. Sayward, “Sugerencias sobre la selección de datos de prueba: ayuda
para el programador en ejercicio”, Computer, vol. 11, núm. 4, 1978,
págs. 34–41.
Deming, W., Out of the Crisis, Centro de Ingeniería Avanzada del MIT
Estudio, Cambridge, MA, 1986.
Dieli, M., "Un enfoque de resolución de problemas para la planificación de pruebas de usabilidad", Proc.
Machine Translated by Google
596 | Apéndice I
Doong, R., P. Frankl, "El enfoque ASTOOT para probar programas orientados a objetos",
ACM Transactions of Software Engineering and Methodology, vol. 3, 1994, págs. 101 a 130.
Duran, J., S. Ntafos, "Una evaluación de las pruebas aleatorias", IEEE Trans.
SW Ingeniería, vol. 10, 1984, págs. 438–444.
Ehrlich, W., B. Prasanna, J. Stampfel, J. Wu, "Determinación del costo de una decisión de
parada de prueba", IEEE Software, vol. 10, núm. 2, págs. 33–42, 1993.
Endres, A., "Un análisis de errores y causas en los programas del sistema", IEEE
Transactions on Software Engineering, vol. SE-1, N° 2, 1975.
Fenton, N., "Medición de software: una base científica necesaria", IEEE Transactions on
Software Engineering, vol. SE-20, No. 3, págs. 199–206, 1994.
Fenton, N., Métricas de software: un enfoque riguroso, Chapman & Hall, Londres, 1991.
Firth, R., V. Mosley, R. Pethia, L. Roberts, W. Wood, Una guía para la clasificación y
evaluación de herramientas de ingeniería de software, Informe técnico, CMU/SEI-87-
TR-10. ESD-TR-87-11, Instituto de Ingeniería de Software, Carnegie Mellon, 1987.
Gelperin, D., A. Hayashi, “How to support better software testing”, App plication Trends,
mayo de 1996, págs. 42–48.
Gilb, T., Principios de gestión de ingeniería de software, Addison Wesley, Reading, MA,
1988.
Machine Translated by Google
598 | Apéndice I
Gotterbarn, D., K. Miller, S. Rogerson, "La sociedad informática y ACM aprueban el código
de ética de la ingeniería de software", IEEE Computer, vol. 32, núm. 10, octubre de 1999,
págs. 84–88.
Grom, R., "Informe sobre una herramienta de apoyo a la evaluación de TMM", Informe
técnico, Instituto de Tecnología de Illinois, Chicago, IL, 1998.
Hamlet, D., "¿Estamos probando la verdadera confiabilidad?" Software IEEE, vol. 9, núm.
4, págs. 21 a 27, 1992.
Hetzel, B., The Complete Guide to Software Testing, segunda edición, QED Information
Sciences, Inc., Wellesley, MA. 1988.
ting,” Proc. Cuarta Conf. Internacional. sobre reutilización de software, Orlando, FL,
abril de 1996, págs. 22–30.
Homyen, A. “Un modelo de evaluación para determinar la madurez del proceso de prueba,”
Doctor. Tesis, Instituto de Tecnología de Illinois, Chicago, IL, 1998.
Horgan, J., S. London, M. Lyu, “Lograr la calidad del software con pruebas
medidas de cobertura”, IEEE Computer, vol. 27, núm. 9, 1994, págs. 60–68.
Howden, W., “A Survey of Dynamic Analysis Methods”, In Software Testing and Validation
Techniques, segunda edición, E. Miller y W. How den, eds., IEEE Computer Society Press,
Los Alamitos, CA, 1981.
Humphrey, W., Gestión del proceso de software, Addison-Wesley, Reading, MA, 1990.
Humphrey, W., W. Sweet, "Un método para evaluar la capacidad de ingeniería de software
de los contratistas", Informe técnico, CMU/SEI-87-TR 23, Instituto de ingeniería de software,
Pittsburgh, PA, 1987.
Apéndice I
600 |
Institute of Electrical and Electronics Engineers, Inc., IEEE/ANSI Standard 730-1989, Standard
for Software Quality Assurance Plans, 1989,
reservados todos los derechos.
Institute of Electrical and Electronics Engineers, Inc., IEEE/ANSI Standard 982.2-1988, IEEE
Guide for the Use of IEEE Standard Dictionary
of Measures to Produce Reliable Software, (Reaff 1989), 1988, todos los derechos
reservado.
1008-1987, Estándar para pruebas de unidades de software, (Reaff 1993), 1987, todas
Derechos reservados.
Juran, J., M. Gryna, M. Frank, Jr., R. Bingham, Jr. (eds.), Control de calidad
Manual, tercera edición, McGraw-Hill, Nueva York, 1979.
Kaner, C., J. Falk, H. Nguyen, Testing Computer Software, segunda edición, Van
Nostrand Reinhold, Nueva York, 1993.
Machine Translated by Google
Apéndice I
602 |
Koomen, T., M. Pol, Test Process Improvement, Addison-Wesley, Reading, MA, 1999.
Koomen, T., M. Pol, "Improvement of the test process using TPI", Informe técnico, IQUIP
Informatica BV, Diemen, Países Bajos, 1998,
http://www.iquip.nl.
Kung, D., Phsia, J. Gao, Testing Object-Oriented Software, IEEE Computer Society Press,
Los Alamitos, CA, 1998.
Laski, J., B. Korel, "Una estrategia de prueba orientada al flujo de datos", IEEE Trans.
Ingeniería de software, vol. 9, núm. 3, 1983, págs. 347–354.
Lee, L., El día que se detuvieron los teléfonos, Primus, Nueva York, 1992.
Mantei, M., “El efecto de las estructuras del equipo de programación en las tareas de
programación”, Comunicaciones de la ACM, vol. 24, núm. 3, 1981,
págs. 106–113.
Marks, D., Testing Very Big Systems, McGraw-Hill, Nueva York, 1992.
Martin, J., W. Tsai, "Inspección N-fold: una técnica de análisis de requisitos", Comm.
ACM, vol. 33, núm. 2, 1990, págs. 225–232.
Apéndice I
604 |
Mills, C., "Pruebas de usabilidad en el mundo real", SIGCHI Bulletin, vol. 19, núm.
1, págs. 43–46, 1987.
Myers, G., El arte de las pruebas de software, John Wiley, Nueva York, 1979.
Olsen, K., P. Stall Vinje, "Uso del modelo de madurez de pruebas en la planificación
práctica de pruebas y la evaluación posterior", Conferencia EuroSTAR98, Munich,
Alemania, 1998.
Paulk, M., M. Konrad, "Una descripción general del proyecto SPICE de ISO", American
Programmer, vol. 7, núm. 2, febrero de 1994, págs. 16–20.
Paulk, M., M. Konrad, "Una descripción general del proyecto SPICE de ISO", American
Programmer, vol. 7, núm. 2, 1994, págs. 16–20.
Paulk, M., C. Weber, S. Garcia, M. Chrissis, M. Bush, "Prácticas clave del modelo de
madurez de la capacidad, versión 1.1", Informe técnico, CMU/SEI-93-TR-25, Instituto
de ingeniería de software , Pittsburgh, Pensilvania, 1993.
Machine Translated by Google
Apéndice I
606 |
Perry, W., Métodos eficaces para la prueba de software, John Wiley, Nueva York, 1995.
Pham, H., Pruebas y fiabilidad del software, IEEE Computer Society Press, Los Alamitos, CA,
1995.
Poston, R., "Las herramientas de prueba combinan lo mejor de lo nuevo y lo antiguo", IEEE
Software, vol. 12, núm. 2, 1995, págs. 122 a 126.
Poston, R., "Pruebas automatizadas a partir de modelos de objetos", Comm. de la ACM, vol.
37, núm. 9, 1994, págs. 48–58.
Prowell, S., C. Trammell, R. Linger, J. Poore, Ingeniería de software para salas limpias,
Addison-Wesley, Reading, MA, 1999.
Puffer, J., A. Litter, “Planificación de acciones”, Boletín informativo del Consejo técnico de
ingeniería de software de IEEE, vol. 15, núm. 2, 1997, págs. 7 a 10.
Putman, D., "Uso del control estadístico de procesos con programas de prueba automatizados",
CrossTalk: The Journal of Defense Software Engineering, vol. 11, núm. 8, agosto de 1998,
págs. 16–20.
Quilici, A., “Un enfoque basado en la memoria para reconocer planes de programas,”
CACM, vol. 37, núm. 5, 1994, págs. 84–93.
Rakos, J., Gestión de proyectos de software para proyectos de tamaño pequeño a mediano,
Prentice Hall, Englewood Cliffs, NJ, 1990.
Roper, T., Software Testing Management: Life on the Critical Path, Prentice Hall,
Englewood Cliffs, NJ, 1993.
Rubin, J., Manual de pruebas de usabilidad, John Wiley, Nueva York, 1994.
Sauer, C., D. Jeffery, L. Land, P. Yetton, "La efectividad de las revisiones técnicas
de desarrollo de software: un programa de investigación motivado por el
comportamiento", IEEE Transactions on Software Engineering, vol. 26, núm. 1,
2000, págs. 1 a 14.
Saxena, G., "Un marco para construir y evaluar modelos de madurez de procesos",
Ph.D. tesis, Instituto de Tecnología de Illinois, Chicago, IL, 1999.
Apéndice I
608 |
nal del Departamento de Ingeniería de Software de Defensa, vol. 13, No. 7, julio de 2000,
págs. 6–7.
Smith, M., D. Robson, "Un marco para probar programas orientados a objetos", J.
Programación orientada a objetos, junio de 1992, págs. 45–53.
Speed, J., "¿Qué quieres decir con que no puedo llamarme ingeniero de software?"
Software IEEE, noviembre/ diciembre. 1999, págs. 45–50.
Sullivan, P., "Más allá de una concepción estrecha de las pruebas de usabilidad", IEEE
Transactions on Professional Communications, vol. 32, núm. 4, págs. 256–264, 1989.
Thayer, R., ed., Software Engineering Project Management, segunda edición, IEEE Computer
Society Press, Los Alamitos, CA, 1997.
Tsai, B., S. Stobart, N. Parrington, I. Mitchell, "Un enfoque de prueba basado en el estado que
brinda cobertura de flujo de datos en pruebas de clases orientadas a objetos".
proc. Duodécima Semana Internacional de la Calidad Conf., mayo de 1999.
Voas, J., “Certificación: reducción de los costos ocultos de la mala calidad”, IEEE Software,
julio/agosto de 1999, págs. 22–25.
Machine Translated by Google
Voas, J., “Certificación de componentes de software listos para usar”, IEEE Computer, junio
de 1998, págs. 53–59.
Voas, J., "Un modelo de falla dinámica para el análisis de propagación e infección en
programas de computadora", Ph.D. Tesis, College of William and Mary en Virginia, mayo de
1990.
Wakid, S., D. Kuhn, D. Wallace, “Toward credible IT testing and certi fication”, IEEE Software,
julio/agosto de 1999, págs. 39–47.
Weiser, M., "Los programadores usan segmentos al depurar", CACM, vol. 25, núm. 7, 1982,
págs. 446–452.
Weller, E., "Uso de métricas para administrar proyectos de software", IEEE Software, vol. 9,
núm. 5, 1994, págs. 27–32.
Weller, E., "Aplicaciones prácticas del control estadístico de procesos", IEEE Software, vol.
14, núm. 3, 2000, págs. 48–55.
Weszka, J., P. Babel, J. Ferguson, "CMMI: camino evolutivo hacia la mejora de procesos
empresariales", CrossTalk: Journal of Department of Defense Software Engineering, vol. 13,
núm. 7, julio de 2000, págs. 8–11.
Weyuker, E., T. Ostrand, J. Brophy, R. Prasad, "Despejando una carrera profesional para
probadores de software", IEEE Software, vol. 17, núm. 2, marzo/abril de 2000, págs. 76–82.
Weyuker, E., “La evaluación de los criterios de adecuación de las pruebas de software
basadas en programas”, CACM, vol. 31, núm. 6, 1988, págs. 668–675.
Whittaker, J., “¿Qué son las pruebas de software? ¿Y por qué es tan difícil? Software IEEE,
enero/ febrero. 2000, págs. 70–79.
Wilde, N., "Probar sus objetos", The C Users Journal, mayo de 1993, págs. 25–32.
Machine Translated by Google
Apéndice I
610 |
Wilkins, B., Principios de prueba en circuitos y sistemas VSLI en silicio, A. Brown, ed.,
McGraw-Hill, Nueva York, 1991, págs. 222–250.
Zawacki, R., "How to pick eagles", Datamation Magazine, septiembre de 1995, págs.
115–16.
Zhu, H., "Un análisis formal de la relación subsumida entre los criterios de adecuación
de las pruebas de software", IEEE Transactions on Software Engineering, vol. 22,
núm. 4, 1996, págs. 248–255.
ANEXO II
Este apéndice contiene una versión abreviada de un plan de prueba del sistema que se
desarrolló con fines educativos. Ilustrará al lector el contenido de varios de los componentes
principales de un plan de prueba típico.
Los archivos adjuntos del plan de prueba no se incluyen en este ejemplo.
Para fines pedagógicos, el software que se probará es un sistema automatizado de
programación de cursos llamado "College Course Scheduler (CCS)", que está en desarrollo
para una universidad local. El cliente propuesto es South Central College. La universidad ofrece
programas de licenciatura y maestría, y tanto los cursos de pregrado como los de posgrado se
enumeran en su catálogo y horarios de cursos. El decano de la universidad es el principal
enlace con el grupo de desarrollo llamado Windy City Developers Corporation. Los usuarios
son los asistentes administrativos y presidentes departamentales, y el registrador del colegio.
Apéndice II
612 |
para enseñar durante el semestre dado, y sus preferencias de hora del día para
conferencias y sesiones de laboratorio. Las preferencias como entrada por parte del
instructor deben ser cursos válidos y tiempos de clase, que se especifican para cada
departamento. Las preferencias por escrito se envían al asistente administrativo del
departamento que realiza la programación manual. Si un instructor no presenta una lista
escrita de preferencias, los cursos se programan sin preferencias. El horario final
enumera cada curso ofrecido, el instructor, el tiempo de clase y el salón. Los artículos
no programables se enumeran en un informe separado. Se envían copias impresas del
programa final a cada instructor.
Apéndice II
614 |
también forman parte del sistema. El informe del horario departamental debe enviarse por correo
electrónico a la facultad correspondiente; se puede imprimir y también se guarda en un archivo para
usar en la impresión del programa de cursos de toda la universidad que reúne el registrador de la
universidad.
debe aceptar una entrada de archivo por parte del asistente o presidente administrativo del
departamento, enumerando los números de cursos ofrecidos para el semestre, los instructores, las
inscripciones esperadas y un conjunto de preferencias de tiempo de clase.
debe estar basado en menús y ser fácil de aprender. Se requiere una función de ayuda y los
usuarios deben recibir comentarios sobre las actividades del sistema. El sistema debe proporcionar
información útil en caso de errores del usuario.
emparejado en 15. Solo una persona en cada departamento puede solicitar una ejecución de
programación en un momento dado. Se permiten actualizaciones a un cronograma departamental
hasta la fecha de finalización designada. Después de esa fecha, solo el registrador puede realizar
cambios.
Machine Translated by Google
CCS-REQ-7. Seguridad
El sistema debe ser seguro, y solo se deben otorgar usuarios autorizados
acceso. Hay dos niveles de usuarios: (i) el registrador del colegio que es el
administrador del sistema, y (ii) los asistentes administrativos departamentales
y presidentes. El registrador tiene todos los privilegios del sistema. Todos los usuarios pueden
generar cronogramas y formular consultas. Además, los usuarios de cada departamento pueden
mantener (agregar, eliminar, modificar) los datos apropiados en el
bases de datos asociadas a su respectivo departamento. Los usuarios no pueden modificar
información de departamentos externos. El registrador de South Central College es responsable
de agregar, eliminar y modificar registros de usuarios, y
asignación de privilegios de usuario.
(CCS)
por
PREPARADO POR
15 DE ENERO DE 2001
Contenido
1. Identificador del plan de
prueba 2. Introducción 3.
Elementos a probar
4. Características a probar
5. Enfoque 6.
Criterios de aprobación/rechazo
9. Tareas de prueba
CCS-WCD-2001-4
2. Introducción
Las siguientes secciones describen la naturaleza del sistema bajo prueba, los objetivos
de la prueba y el alcance. También se proporciona una lista de documentos relacionados.
Apéndice II
618 |
El sistema está siendo desarrollado para South Central College por Windy City Development.
Nuestro objetivo para las pruebas del sistema es asegurar que:
•
todas las funcionalidades requeridas del CCS están implementadas y funcionan
correctamente de acuerdo con los requisitos del cliente;
• el software es seguro;
•
interactúa correctamente con el software y el hardware externos requeridos.
Los siguientes son documentos relacionados con la prueba que se prepararán para
el sistema CCS y se pueden utilizar como fuentes de información para el sistema
planificadores de pruebas.
3. Elementos a probar
Todos los elementos que constituyen el sistema College Course Scheduler (CCS)
serán probados durante la prueba del sistema para asegurar que trabajan juntos para
implementar los requerimientos del cliente. Estos elementos se enumeran a continuación con
su número de identificación, número de versión y biblioteca de código fuente.
Estos elementos constituyen la configuración comprobable para el software CCS.
620 | Apéndice II
4. Características a probar
La siguiente es una lista de las características que se probarán junto con su diseño.
identificador de especificación.
DISEÑO
IDENTIFICADOR DE ESPECIFICACIONES
RASGO
Seguridad CCS-DS-3-2001-7
consultando CCS-DS-3-2001-8
Ayudar CCS-DS-3-2001-13
5. Enfoque
Windy City Software es una organización de nivel 3 de TMM. Contamos con un grupo
de pruebas dedicado y capacitado, y contamos con los recursos y el entorno necesarios
para probar todo el software que desarrollamos para asegurar la alta calidad y el
cumplimiento de los requisitos de nuestros clientes. El sistema de calendario de cursos
universitarios se probará minuciosamente en varios niveles (consulte los documentos
relacionados en la Sección 2.3). Las pruebas a nivel del sistema serán exhaustivas y extensas.
Todos los artículos serán probados para asegurar que funcionen juntos correctamente; se
probarán todas las funciones y requisitos para garantizar que satisfagan las necesidades del
usuario. Se utilizará un rastreador de requisitos para probar para asegurar que todos los
requisitos estén cubiertos por al menos un caso de prueba. Las plantillas para el diseño de
pruebas y las especificaciones de los casos de prueba se encuentran en el documento de
Procedimiento y Política de Pruebas de Windy City TTP-2-1995. Los casos de prueba y las
especificaciones de diseño, así como cualquier script de prueba que se prepare, se guardarán
en un repositorio de prueba para su uso en versiones futuras.
5.2. Personal
Dos ingenieros de pruebas, Prerek Patel y Sally Jordan, serán responsables del
diseño de casos de prueba, la ejecución de las pruebas y el registro de los resultados.
Serán supervisados por Jane Smith, directora de pruebas, y Jonathan Boyd, ingeniero de
pruebas principal. Todos tienen al menos 5 años de experiencia en pruebas de sistemas
similares y han recibido capacitación interna en la aplicación de técnicas de diseño de
pruebas y uso de herramientas de prueba.
5.3. Mantenimiento de
registros Todos los eventos observados durante la ejecución se registrarán en un
registro de prueba que se asociará con cada prueba. A todos los fallos se les asignará una gravedad.
Machine Translated by Google
Apéndice II
622 |
y registrarse en un informe de incidente/problema de prueba. Se hará un recuento del número de estos últimos
informes. Los formatos para los registros de prueba y los informes de incidentes/problemas de prueba se describen
en el documento de política y procedimiento de prueba de Windy City, TTP-2-1995. Todos los defectos revelados
durante la prueba del sistema se registrarán en el repositorio de defectos. El número de defectos encontrados (por
tipo y nivel de gravedad) por KLOC en cada tipo de prueba del sistema también se registrará para la evaluación
de la calidad. La productividad de los probadores se monitoreará utilizando una medida de la cantidad de casos
de prueba desarrollados por semana y la cantidad de casos de prueba ejecutados por semana.
Las pruebas del sistema se controlarán mediante reuniones semanales sobre el estado de las pruebas.
Las tramas y los informes resumidos serán preparados por Jane Smith y Jonathan Boyd. La cantidad de requisitos
cubiertos por semana frente a la cantidad total de requisitos será uno de los elementos trazados para realizar un
seguimiento del progreso de las pruebas. Otros elementos que se trazarán incluyen el número de defectos de un
nivel de gravedad específico encontrado por semana. Las mediciones, gráficos y plantillas asociadas con los
pruebas de Windy City, TTP-2-1995. Los costos de las pruebas serán monitoreados utilizando los valores ganados
Las siguientes herramientas se utilizarán para apoyar el esfuerzo de prueba del sistema.
Todo el personal de pruebas involucrado en este proyecto ha sido capacitado y tiene experiencia en el uso de
Herramienta/comparador de captura-reproducción
Rastreador de defectos
Generador de carga
Machine Translated by Google
Apéndice II
624 |
Se ejercerán y examinarán todos los estados efectivos del sistema y las transiciones
de estado; por ejemplo, el estado de preferencias de ingreso, el estado de generación de
informes, el estado de ingreso de un nuevo usuario. El diagrama de transición de estado del
sistema que se encuentra en el Documento de requisitos de CCS (CCS-REQ-1-2001) se
utilizará como fuente de información para el diseño de la prueba. Los datos de entrada de
las operaciones de programación manual también servirán como fuente para diseñar datos
de prueba, y los programas obtenidos de estas operaciones manuales se utilizarán como
oráculos para evaluar las salidas del sistema. Las especificaciones de diseño de prueba y
los casos de prueba se encuentran en los archivos adjuntos a este plan de prueba.
carga de programación de transacciones y consultas sobre los recursos del sistema. Es más
probable que esto ocurra durante la quinta semana de cada semestre, cuando se debe hacer
la programación para el próximo semestre. Se estima que el número promedio de usuarios es
de 15. Durante las pruebas de estrés, se simularán las entradas de 25 usuarios y se observará
el comportamiento del sistema. Las herramientas monitorearán el uso de la CPU, la cantidad
de llamadas al sistema, las interrupciones y otras características del sistema para determinar
si se han producido eventos anormales. Los parámetros del sistema se ajustarán para
maximizar la eficiencia.
6. Criterios de aprobación/rechazo
7. Criterios de Suspensión/Reanudación
Normalmente, las pruebas se suspenderán al final de la jornada laboral. Todos los documentos
relacionados con la prueba deben enviarse a Jane Smith. La prueba es re-
Machine Translated by Google
Apéndice II
626 |
sumado el siguiente día de trabajo por la mañana. Además, las pruebas se suspenderán si:
Cuando se repara el defecto que causa la falla del software, la nueva versión del software se someterá
a una prueba de regresión. Si la nueva versión pasa la prueba de regresión, se pueden reanudar las pruebas
normales.
Si durante la prueba del sistema hay una falla de hardware, el probador notificará a los miembros del
personal apropiados y reanudará la prueba cuando se realicen las reparaciones, reiniciando desde el comienzo
de la prueba.
8. Entregables de prueba
Los siguientes elementos serán generados por el grupo de prueba del sistema para este proyecto. Una
descripción detallada de cada artículo está contenida en el documento de Procedimiento y Política de Pruebas
Datos de prueba
pruebas nacionales;
•
Pantallas de entrada de consultas y resultados.
Machine Translated by Google
Las entradas para todas las pruebas se encuentran en los archivos adjuntos al plan de prueba del
sistema. El plan de prueba y los anexos del plan de prueba estarán bajo el control del Sistema de
CCS-CMP-1-2001).
9. Tareas de prueba
Se encuentra una lista de tareas de prueba en un archivo adjunto a este plan de prueba del sistema.
Se preparó mediante el desarrollo de una estructura de desglose del trabajo para las tareas
relacionadas con las pruebas requeridas por el proyecto CCS. El archivo adjunto enumera cada tarea
de prueba como se muestra a continuación, sus tareas predecesoras, las habilidades especiales
necesarias para llevar a cabo la tarea, la persona responsable, el esfuerzo requerido y la fecha de finalización.
• entrevistas con el decano de South Central College para obtener ejemplos de horarios anteriores,
preferencias y otros datos relacionados con la universidad necesarios para preparar las entradas
grupo;
• supervisar al personal de pruebas y organizar las mediciones relacionadas con las pruebas;
Machine Translated by Google
Apéndice II
628 |
• prepararse para las reuniones sobre el estado de las pruebas y asistir a ellas;
11. Responsabilidades
Dado que nuestra organización está en el nivel 3 de TMM, tenemos un grupo de prueba
dedicado. Los miembros del grupo de prueba responsables de probar el sistema College
Course Scheduler son:
• Tom White y John Li no están formalmente asociados con el grupo de pruebas de este
proyecto, pero ayudarán en las pruebas de seguridad.
Los dos ingenieros de pruebas, Prerek Patel y Sally Jordan, serán responsables de la
especificación del diseño de la prueba, el diseño del caso de prueba y del procedimiento de
prueba, la ejecución de la prueba y el registro de los resultados. Serán supervisados por Jane Smith,
Machine Translated by Google
gerente de pruebas y Jonathan Boyd, ingeniero de pruebas líder, quienes también son
responsables de desarrollar el plan de pruebas, respaldar el diseño de casos de prueba,
administrar documentos y mediciones relacionados con las pruebas, administrar el estado de la prueba
reunión y desarrollo de informes de estado de la prueba y el resumen final de la prueba
reporte. También se reunirán con el decano de la universidad para recopilar los datos necesarios.
datos del curso e identificar escenarios de uso típicos. Un adjunto describe en detalle las
responsabilidades de prueba para estos miembros del personal.
El grupo de desarrollo de CCS es el encargado de dar respuesta a la prueba
informes de incidentes/problemas. Este grupo localizará, reparará defectos y registrará
defectos Devolverán el código reparado a los probadores para la regresión.
y otras pruebas requeridas. El grupo también apoya a los probadores con la tarea de
mantenimiento del repositorio de defectos,
Los miembros del personal necesarios para el esfuerzo de prueba del sistema se enumeran en la Sección
experiencia en la planificación de pruebas, por lo que no se requiere capacitación adicional para este proyecto.
13. Programación
Apéndice II
630 |
Nuestra organización ha sido evaluada en el nivel 3 de TMM con respecto a su proceso de prueba.
Esto implica que tenemos un proceso de prueba estable y predecible, un personal capacitado y
herramientas de prueba disponibles. Además, también tenemos una extensa base de datos de
costos de prueba de proyectos anteriores. El proyecto CCS es típico de las muchas aplicaciones
que hemos desarrollado en el pasado y para las cuales hemos recopilado datos relevantes
relacionados con las pruebas. Estimamos que los elementos de impacto de los costos de prueba
para el proyecto CCS serán similares a los de proyectos anteriores, y estamos seguros de que
podemos usar enfoques/heurísticas anteriores para ayudar a estimar los costos de prueba para el
sistema CCS. Nuestra confianza se basa
sobre:
• nuestro proceso de prueba relativamente estable y nuestro grupo de prueba altamente calificado;
En el pasado, hemos tenido éxito al usar el modelo COCOMO para estimar los costos totales
de este tipo de proyecto utilizando un conjunto de constantes generadas a partir de datos internos.
Luego aplicamos la heurística desarrollada por nuestra organización de que los costos de prueba
del sistema para este tipo de proyecto serán del 34,5 %.
Machine Translated by Google
del costo total del proyecto. En este caso, se ha obtenido una estimación
del coste global de todo el proyecto utilizando el modelo COCOMO y el
método Delphi. Los dos coinciden en un margen del 5,3 %. El costo total
del proyecto se estima en $ABC. Por lo tanto, el costo total de las
pruebas del sistema es ABC * .345 dólares.
16. Aprobaciones
Jane Smith
Gerente de prueba
FIRMA FECHA
cris padilla
Gerente de proyecto
FIRMA FECHA
tim rubin
Gerente de aseguramiento de la calidad del software
FIRMA FECHA
Machine Translated by Google
ANEXO III
Parte 1:
EL CUESTIONARIO TMM
Parte 2:
Esta parte del Anexo III contiene el contenido completo del documento
Cuestionario TMM, versión 2.0. El Cuestionario TMM tiene ocho secciones. El
contenido de cada sección se describe a continuación.
No es No
Preguntas Sí No aplicar conocido
Comentarios
CUADRO AIII.1
Plantilla de cuestionario.
BLOQUE 4. Las preguntas del TMM. Para cada nivel de TMM hay:
Para las preguntas de la meta de madurez que se encuentran en la Sección 4, cuatro posibles
Las opciones se ofrecen de la siguiente manera:
Solo se debe seleccionar una de las opciones para cada pregunta y se deben considerar todas
las preguntas. Continúe con el resto del cuestionario y gracias por su ayuda.
Al evaluar los datos de TMM, ayudará a los asesores a tener información sobre la experiencia
en ingeniería de software, las habilidades técnicas y las funciones actuales de cada encuestado.
Nombre
Posición
Teléfono
Correo electrónico
Fecha
Gerente
Alta dirección o alta dirección
Gerente de proyecto
Machine Translated by Google
Gerente de prueba
Personal técnico
Ingeniero de software
Ingeniero de pruebas
Programador (desarrollador)
Analista
¿En qué actividades relacionadas con los exámenes participa activamente (puede marcar más de una)?
Planificación de pruebas
Desarrollo de estándares
Revisiones y auditorías
Seguimiento del estado
Capacitación
Definición de métricas
Contratación y reclutamiento
Comunicaciones usuario/cliente
Control de procesos
Prevención de defectos
Transferencia tecnológica
Evaluación de procesos
Machine Translated by Google
La mejora de procesos
Modelado e ingeniería de confiabilidad
Pruebas de usabilidad
Evaluación de herramientas
Proceso de reutilización
Tiempo completo
Tiempo parcial
Consultores
12345
12345
Sí No
Ad hoc
Informal
Algo estructurado
Altamente estructurado
10. ¿Con qué frecuencia los gerentes de proyectos deben enfrentar los desafíos de los
requisitos cambiantes de los clientes?
Responda a cada una de las siguientes preguntas con una respuesta SÍ, NO, NO
APLICA o NO SE SABE. Se pueden ingresar comentarios después de cada pregunta.
PREGUNTAS
depuración?
10. ¿Se utilizan medidas básicas para determinar el logro de las pruebas?
¿metas?
¿metas?
12. ¿Se han desarrollado las políticas y objetivos de pruebas con aportes de
13. ¿Se han desarrollado las políticas y objetivos de depuración con aportes y comentarios de los
prueba también debe abordar la asignación de recursos, los costos y las responsabilidades de las
pruebas. Los objetivos, políticas y procedimientos, una vez aprobados, se establecen y se revisan
periódicamente.
2.2.2. Las plantillas del plan de prueba para todos los niveles de prueba se desarrollan,
2.2.3. Hay capacitación técnica disponible para cubrir el uso de plantillas de planes de prueba
2.2.4. Se implementa un procedimiento para incluir los requisitos generados por el usuario
prueba.
PREGUNTAS
¿planificación?
proyectos?
5. ¿Se utilizan las metas/los objetivos de la prueba como base para la planificación de la prueba?
gerentes?
herramientas de ning?
planificación?
10. ¿Los desarrolladores (probadores) están debidamente capacitados para desarrollar especificaciones
11. ¿Se tienen en cuenta los riesgos relacionados con las pruebas al desarrollar planes de prueba?
12. ¿Están disponibles las estimaciones (tiempo, presupuesto, herramientas) de proyectos anteriores para su
Apéndice III
642 |
17. ¿Existe un procedimiento para solicitar la opinión del usuario/cliente para la planificación de pruebas
18. ¿Los desarrolladores (probadores) tienen la oportunidad de aportar información al plan de prueba en todos
los niveles?
19. ¿Se revisa el proceso de planificación de pruebas de forma periódica y/o basada en eventos?
20. ¿Están definidos en los documentos organizativos otros elementos relacionados con las pruebas, como los
informes de transmisión de pruebas, los registros de pruebas, los informes de incidentes de pruebas y los
informes resumidos de pruebas?
21. ¿Se completan para cada proyecto otros elementos relacionados con las pruebas, como informes de
de pruebas?
22. ¿Apoya la administración las interacciones entre los gerentes de proyectos (pruebas), los desarrolladores
(probadores), los diseñadores y los analistas para respaldar la planificación de las pruebas?
23. ¿Se especifican las medidas de prueba básicas en el plan de prueba en todos los niveles?
24. ¿Los desarrolladores (probadores) recopilan y almacenan información básica relacionada con las pruebas?
¿mediciones?
25. ¿Se utilizan las medidas de prueba básicas para garantizar que se cumplan los objetivos básicos de prueba?
se han cumplido?
de técnicas y métodos de prueba básicos. En las políticas y planes de prueba se debe especificar claramente
cómo y cuándo se aplicarán estas técnicas y métodos, y cualquier herramienta básica que los apoye. Varias
técnicas y métodos básicos que se utilizan a menudo en el proceso de prueba son estrategias de diseño de
prueba de caja negra y caja blanca, el uso de una matriz de validación de requisitos y la división de la prueba
Algunas herramientas de prueba que respaldan el uso de estas técnicas y métodos son analizadores estáticos
errores.
Machine Translated by Google
PREGUNTAS
1. ¿Se ha formado un comité o grupo para evaluar y recomendar un conjunto de técnicas, métodos
y herramientas de prueba básicos?
2. ¿Se han documentado, distribuido y distribuido las recomendaciones del grupo?
uted, y aprobado?
3. ¿Se han incluido herramientas y técnicas básicas en las políticas de prueba?
4. ¿Se han diseñado formularios y plantillas apropiados para apoyar las técnicas de prueba básicas?
5. ¿Proporciona la alta dirección los recursos adecuados para respaldar el uso de técnicas y
6. ¿Se ha capacitado a los desarrolladores (probadores) para aplicar las herramientas, formularios
y métodos básicos?
¿pruebas?
11. ¿Se planifican e implementan las pruebas en varios niveles (unidad, integración, sistema, etc.)?
12. ¿Están las técnicas y herramientas de prueba básicas descritas en el estado de la política?
14. ¿Apoya la alta dirección la interacción entre analistas, diseñadores y desarrolladores (probadores)
personas altamente calificadas que se encargan de las pruebas. El grupo de prueba debe
estándares, métricas de prueba, base de datos de prueba, reutilización de prueba, seguimiento de prueba y
se definen los esfuerzos del grupo de trabajo y su funcionalidad y posición en la jerarquía de informes.
3.1.3. Hay capacitación disponible para asegurar que el grupo de prueba tenga la
PREGUNTAS
1. ¿La organización reconoce las pruebas como una actividad profesional?
3. ¿Existe una organización de prueba de software en toda la organización responsable de probar cada
proyecto?
4. ¿Hay una trayectoria profesional que puedan seguir los miembros del grupo de prueba?
ingenieros?
10. ¿El grupo de pruebas de software de la organización se coordina con el grupo de SQA para mejorar
la eficacia de las pruebas y mejorar la calidad del software con respecto a los requisitos del usuario?
11. ¿El grupo de prueba tiene una ruta de comunicación con los desarrolladores para la planificación de
12. ¿Se solicitan las inquietudes de los clientes como información para evaluar las políticas de la organización?
13. ¿Existe un mecanismo formal para la interacción probador-usuario/cliente?
El propósito de esta meta de madurez desde el punto de vista del grupo de prueba es asegurar que haya
personal calificado disponible para realizar las tareas de prueba. El programa de formación formal se
basa en una política de formación. Requiere especificar objetivos de capacitación y desarrollar planes y
Las clases de capacitación están disponibles para todos los miembros del personal. El impacto del
prueba de última generación. También prepara a los evaluadores para la planificación de pruebas, para
tareas que implican la integración de las pruebas en el ciclo de vida del software, para el proceso de
revisión y para identificar y priorizar los riesgos relacionados con las pruebas. En los niveles más altos
de TMM, prepara a los probadores para el control del proceso de prueba, una medida de prueba.
Machine Translated by Google
Apéndice III
646 |
PREGUNTAS
tributado y aprobado?
3. ¿La organización sigue una política organizacional escrita para cumplir
sus necesidades de formación?
el programa de entrenamiento?
actividades en paralelo con otras actividades de la fase del ciclo de vida que comienzan temprano en
el ciclo de vida del software. Una organización madura no retrasa las actividades de prueba hasta que
este objetivo son: la planificación de pruebas maestras y del sistema se inicia temprano en la vida
iniciado en tiempo de diseño detallado. Una variación del modelo V es utilizada por
gerentes, probadores y desarrolladores para guiar las actividades de integración. Los recursos que
3.3.2. Las actividades de prueba están integradas en el ciclo de vida del software.
política. Las políticas de planificación de proyectos y pruebas se ajustan para promover la integración
de las pruebas. Los estándares y las pautas de calidad se desarrollan para los productos de trabajo
relacionados con las pruebas producidos en cada fase del ciclo de vida.
PREGUNTAS
1. ¿Se ha establecido un grupo o comité para apoyar la integración de
actividades de prueba?
Machine Translated by Google
Apéndice III
648 |
procedimientos, metas, políticas y medidas para controlar y monitorear las pruebas. Las metas,
de forma regular para cada proyecto de acuerdo con la política. Los planes de contingencia son
desarrollado, registrado y documentado junto con planes de prueba para cada proyecto para su uso
cuando el seguimiento del estado muestra que las pruebas se desvían significativamente
de lo planeado.
PREGUNTAS
1. ¿Se ha establecido un comité o grupo para apoyar el monitoreo?
y el control de la prueba?
¿pruebas?
5. ¿Los gerentes de proyectos y los gerentes de pruebas trabajan juntos para controlar
y planes de seguimiento?
7. ¿Se desarrollan planes de contingencia relacionados con las pruebas para cada proyecto para apoyar
9. ¿La información sobre el estado de las pruebas se basa en los hallazgos de las reuniones regulares
sobre el estado y se informa a los gerentes de pruebas, proyectos y niveles superiores de forma periódica?
¿base?
11. ¿Están los elementos de prueba bajo el control de un sistema de gestión de configuración?
revisada periódicamente?
Machine Translated by Google
Las revisiones son un tipo de técnica de prueba que se puede utilizar para eliminar defectos
de los artefactos de software. Lograr este objetivo de madurez da como resultado un
programa de revisión que ayuda a una organización a identificar, catalogar y eliminar
defectos de los artefactos de software de manera efectiva y temprana en el ciclo de vida del
software. Las revisiones también respaldan las evaluaciones de calidad de los elementos
relacionados con el software. Ejemplos de elementos que pueden revisarse son documentos
de requisitos, documentos de diseño, planes de prueba y especificaciones de casos de prueba.
4.1.3. Los artefactos de software se revisan para cada proyecto como se describe
en la política de revisión y se refleja en el plan del proyecto. Las mediciones de revisión se
recopilan y aplican para mejorar la calidad del producto y del proceso.
PREGUNTAS
1. Tiene un comité o grupo de toda la organización sobre el proceso de revisión
establecido, con financiación y recursos?
2. ¿Se ha desarrollado, distribuido y aprobado una política de revisión en toda la organización?
5. ¿Se proporcionan los recursos adecuados (p. ej., financiación, materiales de revisión, herramientas)
formar reseñas?
8. ¿Los cronogramas del plan del proyecto reflejan las necesidades de revisión?
10. ¿Se revisan los productos de trabajo de software/prueba desarrollados en diferentes fases del ciclo
11. ¿Los defectos encontrados durante las revisiones se almacenan en un repositorio de defectos?
12. ¿Se rastrean las acciones relacionadas con los defectos identificados en las revisiones hasta que
se resuelven?
14. ¿Se recopilan mediciones relacionadas con productos de trabajo de software durante
para ayudar a una organización a determinar el progreso de las pruebas, evaluar la calidad y la eficacia
Ejemplos de medidas relacionadas con las pruebas son los costos de las pruebas, la productividad de los
documenta, distribuye y apoya los procedimientos, objetivos, políticas y medidas que se aplican a los
artefactos de software y el proceso de prueba. Las metas, políticas, procedimientos y medidas, una vez
Apéndice III
652 |
PREGUNTAS
13. ¿Se utilizan medidas de los atributos de calidad del software para rastrear el software?
calidad durante la prueba?
14. ¿Se utilizan elementos de datos de prueba para respaldar la planificación de acciones para la mejora
PREGUNTAS
1. ¿Se ha establecido, financiado y apoyado un comité para toda la organización sobre
evaluación de la calidad del software?
2. ¿El comité ha desarrollado, distribuido y aprobado una política para toda la organización
relacionada con la evaluación de la calidad del software basada en mediciones?
Apéndice III
654 |
9. ¿Se ha establecido un conjunto de atributos de calidad medibles para los productos de software?
5.1.3. Los equipos de prevención de defectos se establecen de acuerdo con la política, con
equipos de prevención. Los equipos se aseguran de que los defectos inyectados/eliminados sean
identificado y registrado para cada fase del ciclo de vida, se establece un procedimiento de análisis causal
probadores para evitar que los defectos identificados vuelvan a ocurrir. Estos planes son
seguimiento, y los cambios en los procesos se producen como resultado del éxito en los proyectos piloto.
PREGUNTAS
2. ¿El comité ha desarrollado y distribuido políticas, programas y procedimientos para toda la organización
4. ¿Se proporcionan los recursos adecuados (p. ej., financiación, materiales, herramientas) para
6. ¿Se han establecido equipos de prevención de defectos (los miembros pueden ser parte
¿prevención?
9. Para cada fase del ciclo de vida, ¿se clasifican todos los defectos inyectados/eliminados?
10. Una vez identificadas, se analizan y eliminan las causas comunes de los defectos.
nated sistemáticamente?
11. ¿Se desarrollan planes de acción específicos para evitar que se repitan los defectos?
12. ¿Se miden y rastrean las acciones de prevención de defectos para asegurar el progreso?
res y para evaluar la eficacia?
13. ¿Se implementan acciones efectivas de prevención de defectos en toda la organización en forma de
Apéndice III
656 |
PREGUNTAS
1. ¿Se ha creado un comité de toda la organización centrado en el control de calidad?
establecido con financiación y apoyo?
2. ¿Se han desarrollado, distribuido y aprobado políticas, programas y procedimientos en
toda la organización para respaldar el control de calidad del software?
3. ¿Se reflejan las preocupaciones de los clientes en las políticas de control de calidad del software?
4. ¿Son los recursos adecuados (p. ej., financiación, materiales, laboratorios, herramientas)
previsto para las actividades de control de calidad?
5. ¿Están capacitados los gerentes y el personal técnico en actividades de control de calidad?
6. ¿Se utilizan métodos estadísticos durante las pruebas para evaluar el software?
¿calidad?
7. ¿Los objetivos de calidad cuantitativos y cualitativos para los productos de software son
identificados por el grupo de prueba de software y el grupo SQA con aportes de los
usuarios/clientes?
10. ¿Se recopilan los aportes de los usuarios/clientes para el modelado de uso?
13. ¿Existe un mecanismo para la participación de los usuarios en las pruebas de usabilidad?
14. ¿Se aplican los comentarios de los usuarios para realizar mejoras en el software en
desarrollo?
15. ¿Se especifican los criterios cuantitativos para las decisiones de parada de prueba en los planes de prueba?
El propósito de este objetivo de madurez es promover la mejora continua del proceso de prueba
y la reutilización del proceso de prueba. Se alienta a una organización a identificar las prácticas
de prueba que deben mejorarse, implementar las mejoras y realizar un seguimiento del progreso
de la mejora. También se alienta a aplicar actividades de control de procesos a las pruebas,
evaluar continuamente nuevas herramientas y tecnologías relacionadas con las pruebas para la
adaptación y apoyar la transferencia de tecnología. Finalmente, se alienta a una organización a
que identifique
Machine Translated by Google
Apéndice III
658 |
responsabilidades de supervisión continua para los problemas del proceso de prueba que incluyen
reutilización del proceso de prueba, control del proceso de prueba, evaluación y mejora del proceso
distribuye y respalda los procedimientos, objetivos, políticas, estándares y mediciones para las
actividades de mejora del proceso de prueba. Los objetivos, políticas, procedimientos, estándares
y revisada periódicamente.
5.3.4. Los componentes del proceso de prueba de alta calidad son reconocidos como
PREGUNTAS
1. ¿Se ha creado un grupo o grupo de trabajo centrado en la mejora del proceso de prueba?
distribuido y aprobado?
5. ¿Se proporcionan los recursos adecuados (p. ej., financiación, materiales, herramientas) para
¿Transferencia tecnológica?
Machine Translated by Google
6. ¿Se proporcionan los recursos adecuados (p. ej., financiación, materiales, herramientas) para el
7. ¿Se proporcionan los recursos adecuados (p. ej., financiación, materiales, herramientas) para la
9. ¿Los gerentes y el personal técnico están capacitados en la evaluación del proceso de prueba,
mejora y reutilización?
proyectos?
13. ¿Se evalúan continuamente las herramientas de prueba para que las usen los
¿grupo?
17. ¿Las acciones de mejora exitosas conducen a cambios en el proceso de prueba organizacional,
18. ¿Están definidas las mediciones para el control del proceso de prueba?
19. ¿Se realizan periódicamente actividades de control del proceso de prueba que dan como resultado
21. ¿Se revisa periódicamente el programa de evaluación y mejora del proceso de pruebas?
Los evaluadores deben tener en cuenta que las preguntas de la herramienta de prueba no tienen un
impacto formal en la clasificación que resulta del proceso de clasificación de TMM. Esta sección del
Cuestionario TMM es útil para que los evaluadores obtengan una mayor comprensión del estado actual
del proceso de prueba de una organización. Las respuestas a estas preguntas también son útiles al
banco de trabajo Para cada uno de los tipos de herramientas enumerados a continuación, el encuestado
de diseño asociada, el código fuente y los casos de prueba para proyectos grandes).
1. Compiladores.
eso).
y normas).
• Medidores de complejidad (computar métricas del código fuente para determinar varios atributos
de programas).
entidades).
casos de prueba)
conjuntos).
los requisitos creando casos de prueba a partir de requisitos escritos siguiendo las reglas
pruebas usando scripts de captura, reproduzca las pruebas usando scripts de reproducción.
por lo general, funcionan a la velocidad en tiempo real de los componentes que se emulan).
5. Evaluadores de pruebas (realizan funciones que consumen mucho tiempo y son propensas a errores).
• Reductores y analizadores de datos (convierte los datos a una forma que se puede
interpretarse más fácilmente y, en ocasiones, puede realizar varios análisis estadísticos
de los datos).
Como en el caso de las preguntas de uso de la herramienta de prueba, las preguntas de tendencia de prueba
están diseñados para proporcionar una visión más amplia del proceso de prueba a los evaluadores.
No juegan ningún papel formal en una clasificación de TMM. Los evaluadores pueden utilizar las
respuestas como mejor les parezca para ayudar en el proceso de evaluación.
Esta sección está reservada para que un encuestado comente sobre la naturaleza de la
Cuestionario TMM en sí mismo. Los encuestados pueden comentar sobre cualquier aspecto de
el cuestionario, por ejemplo, sobre la claridad de las preguntas, la organización de las
preguntas, la integridad y la facilidad de uso del documento. Los comentarios proporcionan
información útil para los mantenedores del cuestionario.
quién puede entonces considerar los cambios apropiados. Los encuestados pueden utilizar el
sección en blanco provista a continuación y/o agregar páginas suplementarias con sus
comentarios
test de aceptación. Pruebas formales realizadas para determinar si un sistema cumple con
los criterios de aceptación especificados y para permitir que el cliente
determinar si acepta el sistema. [IEEE-STD-610.12–1990]
Machine Translated by Google
Apéndice III
664 |
actividad. Cualquier paso dado o función realizada, tanto mental como física,
hacia el logro de algún objetivo. Las actividades incluyen todo el trabajo que realizan los gerentes
y el personal técnico para realizar las tareas del proyecto y de la organización.
Pruebas de caja negra. Una estrategia de prueba básica que considera una especificación de
diseño funcional para diseñar casos de prueba sin tener en cuenta la estructura interna del
programa. Esta estrategia admite la prueba del producto frente a las especificaciones externas
del usuario final.
herramienta de captura/reproducción. Una herramienta de prueba que registra las entradas y los resultados de la prueba (p. ej.,
compromiso. Un pacto que se asume libremente, se hace visible y se espera que sea
mantenida por todas las partes.
pueden ser, por ejemplo, unidades de código, conjuntos de prueba, especificaciones y planes de prueba.
[IEEE-STD-610.12–1990]
defecto. Una falla en un sistema o componente del sistema que hace que el
sistema o componente no cumpla con su función requerida. Un defecto, si se
encuentra durante la ejecución, puede causar una falla del sistema.
usuario final. El individuo o grupo que usará el sistema para su propósito operativo
previsto cuando se implemente en su entorno. revisión/actividad impulsada por
meta. (1) Una declaración de intenciones, o (2) una declaración de un logro que un
individuo o una organización quiere lograr.
Apéndice III
666 |
se fueron.
nivel de madurez. Una meseta o etapa evolutiva bien definida para un proceso.
respaldado por un conjunto de objetivos y prácticas que, cuando se implementan, describen el
estado del proceso.
política. Una declaración de principio o curso de acción de alto nivel que se utiliza
para gobernar un conjunto de actividades en una organización.
gestión de riesgos. Un enfoque para el análisis de problemas que sopesa los riesgos en
una situación mediante la identificación de los riesgos, sus probabilidades de ocurrencia y
su impacto, para dar una comprensión más precisa de las pérdidas potenciales
y cómo evitarlos. La gestión de riesgos incluye la identificación de riesgos,
análisis, priorización y control.
Machine Translated by Google
Apéndice III
668 |
role. Una unidad de responsabilidades definidas que puede ser asumida por uno o
más individuos.
ciclo de vida del software. El período de tiempo que comienza cuando se concibe un
producto de software y finaliza cuando el software ya no está disponible para su uso.
usar. El ciclo de vida del software generalmente incluye una fase de concepto, una fase de
requisitos, una fase de diseño, una fase de implementación, una fase de prueba, una fase de
instalación y verificación, una fase de operación y mantenimiento y, algunas veces, una fase
de retiro. [IEEE-STD-610.12–1990]
prueba del sistema El proceso de probar un sistema integrado de hardware y software para
verificar que el sistema cumple con los requisitos especificados.
Machine Translated by Google
requerimientos técnicos. Aquellos requisitos que describen lo que debe hacer el software
y sus limitaciones operativas. Ejemplos de técnica
Los requisitos incluyen funcionalidad, rendimiento, interfaz y calidad.
requisitos
pruebas. (1) Un grupo de procedimientos llevados a cabo para evaluar algún aspecto de
una pieza de software. (2) Un proceso utilizado para revelar defectos en el software.
y para establecer que el software ha alcanzado un grado específico de
calidad con respecto a los atributos seleccionados.
evaluación del proceso de prueba. Una evaluación por parte de un equipo capacitado de software/prueba/
Apéndice III
670 |
herramientas de prueba Los sistemas de software y/o hardware, u otros instrumentos, que
se utilizan para medir y evaluar un artefacto de software.
producto de trabajo de prueba. Cualquier artefacto creado como parte del proceso de prueba. Los
modelo V. Un marco para describir las actividades del ciclo de vida del desarrollo de
software desde la especificación de requisitos hasta el mantenimiento. (El Modelo V
Modificado incluye actividades de desarrollo y ejecución de pruebas).
Pruebas de caja blanca. Una estrategia de prueba básica que requiere el conocimiento de
la estructura interna de un programa para diseñar casos de prueba.
RESPONSABILIDADES (ATR)
Esta parte del Apéndice III contiene el conjunto completo de actividades, tareas y
responsabilidades (ATR) para las tres vistas críticas descritas en el TMM. La sección está
organizada por nivel de TMM, luego por los objetivos de madurez dentro de cada nivel y
finalmente por las tres vistas críticas. Para cada nivel de TMM hay:
Recuerde que en el nivel 2 de TMM no se requiere un grupo de prueba dedicado, por lo que los
ATR se asignan formalmente solo a los desarrolladores. Si una organización tiene un grupo de
especialistas en pruebas, los ATR del desarrollador se pueden transferir a este grupo.
• Promover los cambios culturales necesarios para implementar las políticas de prueba/
depuración.
Machine Translated by Google
• Establecer metas de prueba para cada proyecto en cada nivel de prueba que reflejen o
metas y políticas de pruebas organizacionales.
• Llevar a cabo actividades de prueba que cumplan con los requisitos organizacionales.
políticas
• Trabajar con los gerentes de proyecto para desarrollar un esquema de clasificación de defectos
y depósito de defectos.
depuración cuando la gerencia lo solicita. (Estos grupos desempeñan un papel indirecto en la formación
de los objetivos y políticas de prueba/depuración de una organización, ya que estos objetivos y políticas
reflejan los esfuerzos de la organización para garantizar la satisfacción del cliente/usuario. Comentarios
de
estos grupos deben ser alentados por la gerencia y SQA. En general, las necesidades de sus clientes
y del mercado en general tendrán un impacto en la naturaleza de las metas y políticas de prueba/
aprobado.
• Asegúrese de que la declaración de la política de pruebas, los estándares de calidad y las plantillas del plan
capacitación.
• Asegúrese de que la declaración de la política de pruebas contenga un mecanismo formal para la entrada
aceptación. (En niveles más altos de TMM, esto también incluirá la planificación de pruebas de
usabilidad).
política.
• Asegúrese de que las plantillas del plan de prueba se apliquen de manera uniforme para todos los proyectos.
• Asegúrese de que todos los desarrolladores (probadores) completen todos los documentos necesarios
• Asegúrese de que los planes de prueba estén preparados para todos los niveles de prueba: unidad, en
• Participar en clases de capacitación para la planificación de pruebas, uso de plantillas de planes de prueba,
• Preparar planes de prueba multinivel para cada proyecto con aportes y apoyo de los desarrolladores. (Esto se aplica a
los jefes de proyecto y de prueba cuando hay un grupo de prueba). Los jefes de proyecto/prueba utilizan las
plantillas de plan de prueba de la organización como guía para preparar planes de prueba. Se identifican los
riesgos de prueba y se seleccionan e incluyen medidas simples en el plan de prueba para garantizar que se hayan
cumplido los objetivos de prueba. Los datos de defectos de proyectos anteriores se utilizan cuando corresponde
• Asegurarse de que los desarrolladores (probadores) preparen adjuntos del plan de prueba, como casos de prueba y
procedimientos de prueba.
• Asegurarse de que se preparen documentos de prueba auxiliares, como informes de transmisión de prueba y registros
de prueba.
• Asegúrese de que todos los desarrolladores (probadores) completen todos los documentos necesarios posteriores a
• Promover interacciones con desarrolladores (probadores) y clientes para desarrollar planes de prueba de aceptación y
• Asistir a clases de capacitación para la planificación de pruebas, para el uso de herramientas de planificación y
• Ayudar al gerente del proyecto (prueba) a determinar los objetivos de la prueba, los riesgos de la prueba y los costos
• Trabajar con analistas y diseñadores para garantizar que los problemas de capacidad de prueba se
aborden durante las fases de diseño y requisitos para respaldar la planificación y el diseño de la
prueba.
• Recopile medidas simples relacionadas con las pruebas para garantizar que se hayan cumplido los objetivos de las pruebas.
logrado.
• Complete todos los documentos necesarios previos y posteriores a la prueba, como informes de
• Trabajar con los clientes para desarrollar casos de uso y/o cualquier otra descripción de la interacción
• Suministrar información y consenso para el plan de pruebas de aceptación. Los atributos funcionales
y relacionados con el rendimiento requeridos que esperan los clientes/usuarios deben especificarse
• Asegúrese de que las recomendaciones del grupo estén documentadas, distribuidas y aprobadas.
• Garantizar que las políticas y estándares de una organización estén diseñados para
para desarrollar casos de prueba, procedimientos de prueba, registros de prueba e incidentes de prueba
informes.
• Proporcionar recursos para respaldar el uso de los métodos de prueba de caja negra/blanca, como
herramientas y plantillas.
• Asegúrese de que los planes de prueba incluyan el uso de métodos de diseño de prueba de caja negra/blanca
ods
• Asegúrese de que los planes de prueba cubran los niveles múltiples de prueba.
• Promover los cambios culturales necesarios para respaldar la aplicación en toda la organización de
• Promover los cambios culturales necesarios para apoyar las pruebas multinivel.
• Asignar el tiempo y los recursos adecuados para diseñar y ejecutar el sistema negro/
Pruebas de caja blanca, pruebas multinivel y análisis de los resultados de las pruebas.
• Ajustar los cronogramas del proyecto para que se puedan realizar pruebas multinivel
adecuadamente.
herramientas de prueba.
• Asista a clases y sesiones de capacitación, lea materiales, adquiera herramientas, trabaje con colegas
• Asista a clases y sesiones de capacitación, lea materiales, adquiera herramientas, trabaje con colegas
aceptación.
• Garantizar que se utilice un equilibrio de enfoques de prueba para el diseño de casos de prueba
• Interactuar con especificadores y diseñadores para revisar sus representaciones del software. Las
gráficos de flujo de control que son fuentes ricas para el desarrollo de casos de prueba. Estas
• Consulte el repositorio de defectos para obtener información sobre defectos anteriores de proyectos
• Apoyar la gestión (proyecto/prueba) para garantizar que las pruebas multinivel y el uso de técnicas de
prueba de caja negra/blanca formen parte de las políticas de la organización, se incorporen a los
• Trabaje con los gerentes de proyectos (pruebas) para garantizar que haya tiempo y recursos para realizar
pruebas en todos los niveles.