Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ARTÍCULO
DE INVESTIGACIÓNAcceso
abierto
Resumen
Antecedentes: Las evaluaciones periódicas y pertinentes de los sistemas de vigilancia son esenciales para mejorar su rend
Métodos: Con el fin de identificar y comparar las ventajas y limitaciones de estos enfoques, implementamos una revisión
Resultados: Tras aplicar criterios de exclusión e identificar otros documentos adicionales mediante citas, se conservaron 1
(iv) extraer conclusiones y recomendaciones de .
Conclusiones: Se destacó la falta de información relativa a la identificación y selección de métodos y herramientas para e
Métodos
Fuentes bibliográficas y estrategia de búsqueda
Se realizó una búsqueda bibliográfica sistemática de
acuerdo con los requisitos PRISMA (Preferred Reporting
Items for Systematic Reviews and Meta-Analyses) [7],
utilizando CAB abstract (Commonwealth Agricultural
Bureau), Web of Science, Medline, Google Scholar y
Scopus para identificar artículos. La búsqueda
bibliográfica se centró en artículos publicados entre 1992
y enero de 2013. Se limitó a la lengua inglesa y a los
artículos con resúmenes disponibles. Se incluyeron cuatro
ámbitos en la búsqueda, con varias palabras clave para
cada uno: vigilancia ("surveillance or report or monitor
"), evaluación ("eva- luat or assess or analys"), marco
("framework or guideline or method or tool ") y salud
("health or bioterrorism or public security").
Se utilizaron cuatro algoritmos de búsqueda con las
correspondientes palabras clave del Medical Subject
Headings (MeSH) , dirigidos a los mismos ámbitos que la
búsqueda anterior:
es una organización de conceptos que proporciona Los métodos detallarían cómo llevar a cabo la evaluación
un enfoque para la investigación [8,9]. (qué evaluar y cómo); y las herramientas no sólo
– Una directriz puede definirse como un documento proporcionarían una metodología, sino que también
que debe seguirse en la realización de determinadas incluirían elementos prácticos para llevar a cabo la
tareas; proporciona recomendaciones (un conjunto de evaluación (por ejemplo, hojas de cálculo, cuestionarios).
normas o criterios) sobre los pasos que deben
seguirse para alcanzar un objetivo deseado [10,11].
Resultados
– Un método proporciona información sobre cómo
La búsqueda bibliográfica identificó un total de 521
lograr un fin; es una forma regular y sistemática
registros (Figura 1). Tres no estaban disponibles y se han
de realizar algo [12].
excluido [15-17]. Se examinaron los artículos restantes y
– Una herramienta puede definirse como un proceso
quedaron un total de 15 artículos (Figura 1).
con una finalidad específica; se utiliza como medio
para realizar una operación o alcanzar un fin
[13,14]. Ámbito de aplicación y categoría de los enfoques de evaluación
Entre los enfoques identificados, diez proceden del ámbito
En otras palabras, los marcos ayudarían a los usuarios a de la vigilancia de la salud pública [5,18-26]; tres de la
definir lo que hay que tener en cuenta en el proceso de vigilancia de la salud ani- mal [27-29]; uno de la vigilancia del
evaluación; las directrices informarían de los distintos medio ambiente [27-29]; y uno de la vigilancia de la salud
pasos necesarios para pública [27-29].
11 registros identificados102
a través
registros
de Cab
identificados
Abstract
74 aregistros
través de
identificados
Web of Science
66a registros
través deidentificados
Medline 433 a través
registros
de Scopus
identificados a través de Google Scholar
53 artículos eliminados debido a la misma lista de criterios de exclusión en los textos completos
Figura 1 Diagrama de flujo PRISMA del proceso de selección de los estudios a incluir en la revisión sistemática.
Calba et al. BMC Public Health (2015) Página 5 de
15:448 22
vigilancia sanitaria [30]; y uno procedente tanto de la demostración de la ausencia de Brucella melitensis en
vigilancia de la sanidad animal como de la salud pública ovejas, y demostración de la ausencia de Brucella melitensis
[31] (Tabla 1). en ovejas.
Los autores definieron siete enfoques como marcos [5,21-
24,28,30]; dos como directrices [20,26]; dos como métodos
[29,31]; y cuatro como herramientas [18,19,25,27] (Tabla 1).
Sin embargo, según las definiciones revisadas
anteriormente, la mayoría de los enfoques (13/15) podrían
definirse como marcos o directrices, ya que
proporcionarían una hoja de ruta general o estructurada
para el proceso de evaluación [5,19-26,28-31] (Tabla 1).
Ocho enfoques proporcionaban información sistemática
sobre cómo debía llevarse a cabo la evaluación y, por tanto,
podían definirse como métodos [5,18-20,27-29,31], pero
sólo tres enfoques proporcionaban herramientas prácticas
para llevar a cabo la evaluación (dos en PH [18,19] y uno en
AH [27]) (Tabla 1).
de
Página 5
Tabla 1 Categoría, campo de vigilancia y objetivo(s) de los enfoques utilizados para la evaluación de los sistemas de vigilancia (Continuación)
de
Página 6
Tabla 2 Pasos del proceso de evaluación proporcionados por los enfoques de evaluación identificados; junto con la ausencia o presencia del diferente
elemento práctico recuperado del análisis.
Elementos prácticos de evaluación
Referencias Organización Pasos
Presencia Ausencia
Contexto del sistema de vigilancia - Sin presentación de casos prácticos
Preguntas de evaluación - Lista de atributos de evaluación
- Falta de representación visual de los resultados
(13)
Proceso de recogida y gestión de datos - Falta de información sobre el
evaluador o evaluadores
[5] Hoja de ruta - Falta de métodos y herramientas para la
estructurada
Hallazgos
evaluación (sólo preguntas generales)
- Definiciones de los atributos
Informe de
de evaluación - Falta de matriz de selección de atributos
evaluación
Seguimiento - Sin presentación de casos prácticos
- Métodos e instrumentos de - Falta de información sobre los evaluadores
Hoja de ruta evaluación: cuestionario y fichas de
[ estructurada - Hojas trabajo - Falta de atributos de evaluación
de trabajo (lista de
control) - - Falta de definiciones de los atributos de
evaluación
- Representación visual de los
resultados: gráficos de barras y de - Falta de matriz de selección de atributos
radar
Evaluación de recursos- No hay presentación
casos prácticos
de
Indicadores
Hoja de ruta
Tabla 2 Pasos del proceso de evaluación proporcionados por los enfoques de evaluación identificados; junto con la ausencia o presencia del diferente
de
de
Documentac
ión y
evaluación
del
vigilancia-
Lista de
atributos de
evaluación
(8)
representaci
ón visual de
los
resultados
Evaluación de
la capacidad
del sistema de
vigilancia
Definiciones de
los atributos de
evaluación
- Falta de métodos y herramientas para la evaluación (cuestiones generales)
Resultado de la evaluación - Falta de matriz de selección de atributos
- Sin presentación de casos prácticos
de
Página 7
Tabla 2 Pasos del proceso de evaluación proporcionados por los enfoques de evaluación identificados; junto con la ausencia o presencia del diferente elemento
práctico recuperado del análisis (Continuación)
Evaluación intermedia - Falta de información sobre los evaluadores
-Definiciones de los atributos - Falta de métodos y herramientas para la
Evaluación final de evaluación evaluación
- Falta de matriz de selección de atributos
de
Página 8
Tabla 2 Pasos del proceso de evaluación proporcionados por los enfoques de evaluación identificados; junto con la ausencia o presencia del diferente elemento
práctico recuperado del análisis (Continuación)
- Lista de atributos de evaluación (10)
e indicadores de resultados
- Métodos y herramientas para la
evaluación: cuestionario, guía de
puntuación y hojas de trabajo.
Ámbito de la evaluación- Aplicación del estudio de caso (c.f.
Tabla 1) (Tabla 1)
Representación visual de los
Características del sistema de vigilancia - resultados
mediante un código de
Hoja de ruta colores (verde, naranja, rojo) - Falta de métodos y herramientas para la
[28] estructurada - evaluación
Diseñar la evaluación Tipo/conocimientos del
evaluador o
evaluadores:"Cualquier
persona familiarizada con conceptos
epidemiológicos y
Guía de aplicación Realizar la evaluación con un conocimiento razonable de la (sólo se facilitan referencias)
enfermedad objeto de vigilancia".
- Lista de atributos de evaluación (22)
Informe - Definiciones de los atributos de
evaluación
- Matriz de selección de atributos
Descripción del sistema de - Falta de representación visual de los resultados
- Falta de información sobre los evaluadores
vigilancia Identificación de los Presentación de casos prácticos (véase
Hoja de ruta -Falta de atributos de evaluación
[29,32] estructurada - el Cuadro 1)
Cuestionario - Guía de objetivos prioritarios - Falta de definiciones de los atributos de
puntuación evaluación
Elaboración de cuadros de mando e - Falta de métodos y herramientas para la
indicadores Aplicación y seguimiento Proporciona indicadores de resultados evaluación
Actualizaciones y auditoría- Falta de matriz de selección de
atributos
- Sin presentación de casos prácticos
- Proporciona indicadores de
Establecimiento de prioridades resultados - Falta de representación visual de los resultados
- Falta de información sobre los evaluadores
[30] Hoja de
Base científica y pertinencia- Falta de atributos de evaluación
ruta
general Solidez analítica y viabilidad - Falta de definiciones de los atributos
de evaluación
- Falta de métodos y herramientas para la
evaluación
[31] Hoja de Interpretación y utilidad
ruta
general Análisis de textos
Comparación Validación
Modelo conceptual del programa
- Falta de matriz de
selección de
atributos
de
Página 9
Calba et al. BMC Public Health (2015) Página 10 de
15:448 22
10
10
9 9 9
8 8 8
7
6 7 7
5
4 6 6
Número de
3 5
2
1 4
0
3 3
2 2 222222
Simplic
Portabil
Especifi
Flexibil
C
Sensibil
Estab
Puntual
Representativid
pac
s
Fiabili
Im
to
cid ad
Calidad
ilid
ida d
ida d
ida d
ida d
ad
Efic
de los
datos
Gestión de
Integri
Valor predictivo
Aceptabilidad /
Gestión de
Eficacia Funcional Valor Organización
la evaluación de la aceptabilidad (8/10) [5,20-22,24, 26-28], Los estudios que han evaluado los sistemas de vigilancia
la flexibilidad (7/10) [5,20,21,24,26-28], la estabilidad (6/ han utilizado los atributos recomendados por las
10) [5,22,24,26-28] y simplicidad (5/10) [5,20,21,26,27]. directrices de los CDC [24].
Otros atributos como la utilidad (9/10) [5,20-27], la
representatividad (8/10) [5,20,21,24-28] y la calidad de los Comparación entre enfoques
datos (7/10) [5,22-27] también se incluyeron en más de la Para cada enfoque de evaluación identificado, se
mitad de los enfoques. Los atributos destinados a evaluar el enumeraron los elementos prácticos propuestos para
valor del sistema de vigilancia no se tuvieron en cuenta con realizar la evaluación (por ejemplo, lista de atributos de
frecuencia, especialmente los atributos económicos: la evaluación, pres- entación de casos prácticos). En la Tabla
evaluación del coste sólo se recomendó en 3/10 enfoques 3 se presenta una lista combinada de estos elementos y su
[22,24,28]; el impacto, la eficacia y la eficiencia sólo en 2/10 utilidad en el proceso de evaluación. Se analizó la presencia
[5,22,28]. o ausencia de estos elementos prácticos en cada enfoque de
En cuanto al proceso de evaluación de estos atributos, evaluación considerado en esta revisión. Esto permitió
sólo se ofrecieron orientaciones con ejemplos de preguntas realizar un análisis comparativo de los enfoques existentes
para los principales interesados en seis enfoques (Tabla 2) en función de su exhaustividad y practicidad (Tabla 3):
[5,20,21,24-26]. Estas preguntas eran en su mayoría
generales y no siempre se especificaba a quién había que (1) La falta de aplicación a los estudios de casos. Se
entrevistar para recopilar la información pertinente. Uno aplicaron cuatro enfoques a estudios de casos
de los enfoques incluía referencias a la aplicación publicada [27- 29,31], lo que facilita su posterior aplicación
de métodos o herramientas para la evaluación de atributos por parte de los usuarios.
específicos, que podían utilizarse como ejemplo o base, (2) La falta de representación gráfica de los resultados.
pero no se incluían orientaciones sobre cómo seleccionar Cuatro enfoques [18,19,27,28] produjeron
el método más adecuado (Tabla 2) [28]. resultados gráficos (por ejemplo, gráficos circulares,
Diez de los 21 atributos incluidos en los enfoques histogramas), que facilitan la presentación de
ilustrados en la Figura 2 eran los recomendados en las informes, la comunicación y el análisis posterior de
directrices de los CDC [24]. Esto concuerda con los los resultados de la evaluación.
hallazgos previos de Drewe y colaboradores [3], quienes (3) La ausencia de recomendaciones sobre el tipo de
destacaron que casi una cuarta parte de los atributos evaluador y los conocimientos que requiere. Cinco
identificados publicados en las directrices de los CDC [25] enfoques ofrecían información sobre el evaluador
eran los recomendados en ellas.
Calba et al. BMC Public Health (2015) Página 11 de
15:448 22
Tabla 3 Aspectos prácticos identificados en una revisión de los enfoques de evaluación de los sistemas de vigilancia de la salud, y su
papel en el proceso de evaluación
Elementos prácticos Utilidad
Lista de atributos de evaluación que deben evaluarseDiseñar la
evaluación
Definiciones de los atributos de evaluación que deben evaluarseDiseñar la
evaluación
Presentación de casos prácticosFacilidad de
aplicación
Representación visual de los resultadosFacilidad de
comunicación
Información sobre el evaluador o evaluadores (por ejemplo, nivel de conocimientos requerido) Diseño de la evaluación
Lista de métodos y herramientas para evaluar los atributos de la evaluación a los que se dirige Diseñarla evaluación
Facilidad de
aplicación
requisitos (por ejemplo, experiencia en vigilancia de descripción del proceso de evaluación, (iii) aplicación y (iv)
enfermedades transmisibles, experto superior de recomendaciones. Tres enfoques de evaluación se centraron
laboratorio) [21,23,25,27,28], lo que ayuda a valorar en la evaluación de la estructura del sistema [18,19,31], pero
la viabilidad y garantizar la calidad de la evaluación. la mayoría también incluía una evaluación de la calidad de
(4) Información práctica insuficiente sobre qué atributos los datos generados.
de evaluación evaluar (por ejemplo, sensibilidad,
aceptabilidad). Diez enfoques proporcionaron una
lista de atributos [5,20-28] y los atributos se
definieron en 7 de ellos [5,20-22,24,26,28]. Sin
embargo, sólo un enfoque [28] proporcionaba
información sobre cómo priorizar estos atributos en
función del contexto y el objetivo de la vigilancia
mediante una matriz.
(5) Ausencia de información sobre cómo evaluar los
atributos de evaluación. Aunque diez enfoques
proporcionaron información sobre qué atributos
evaluar, sólo la herramienta OASIS proporcionó
métodos detallados y una herramienta lista para usar
para realizar esta evaluación [27]. Seis enfoques
sugerían formas de abordar la fase de evaluación,
proporcionando preguntas generales relacionadas con
la evaluación de cada atributo (por ejemplo, ¿es el
intervalo de tiempo adecuado para la intervención
sanitaria?) [5,20,21,24-26]; y uno proporcionaba
referencias a publicaciones relevantes relacionadas
con la evaluación práctica de los sistemas de vigilancia
y con los métodos y herramientas existentes [28].
Además, ninguno de los enfoques proporcionaba
información sobre cómo interpretar las evaluaciones
de atributos.
Debate
Aunque los objetivos de evaluación de los distintos
enfoques varían según el ámbito de aplicación y el tipo de
enfoque, se identificaron cuatro etapas comunes en el
proceso de evaluación: (i) descripción del con- texto, (ii)
Calba et al. BMC Public Health (2015) Página 12 de
y15:448
el rendimiento del sistema. Estos enfoques también 22
tienen en cuenta implícitamente la estructura del sistema,
que debe describirse para comprender el proceso de
vigilancia, seleccionar los atributos que deben evaluarse y
formular las recomendaciones pertinentes.
Una de las principales limitaciones de los enfoques
existentes era el nivel de detalle proporcionado a los
evaluadores para poner en práctica la evaluación. La
mayoría de los enfoques identificados ofrecían
recomendaciones g e n é r i c a s para las
evaluaciones (es decir, marco y directrices) con mayor o
menor nivel de detalle sobre los distintos pasos a seguir
para su aplicación. Sólo tres incluían métodos y
herramientas para la implementación de la evaluación (es
decir, cuestionarios listos para usar y/o guías de
puntuación) [18,19,27], de los cuales sólo uno estaba
relacionado con la AH [27]. Esto pone de manifiesto la
necesidad de desarrollar herramientas prácticas en este
campo. Se ha hecho hincapié en la necesidad de
flexibilidad para tener en cuenta las variaciones del
sistema de vigilancia y los recursos disponibles [6]. De
hecho, los métodos y herramientas presentados no
permitían al evaluador diseñar su propio proceso de
evaluación en función del contexto de vigilancia o de las
limitaciones socioeconómicas.
Otra limitación de los enfoques existentes es la ausencia
de una lista exhaustiva de los atributos que deben
evaluarse, de flexibilidad en la elección de los atributos y
de orientaciones sobre cómo deben seleccionarse. Las
directrices actualizadas de los CDC [26] sugieren que no
todos los atributos enumerados pueden ser pertinentes y
que pueden seleccionarse en función del contexto y los
objetivos de la evaluación. Las descripciones del proceso
de desarrollo proporcionadas en la bibliografía revisada
no fueron suficientes para comprender el proceso de
selección de atributos en los distintos enfoques; si se
seleccionaron, por ejemplo, debido a su importancia
relativa en la evaluación de los sistemas de vigilancia, o
debido a la facilidad de evaluación. Sólo un enfoque [28]
ofrecía un método para seleccionar los atributos
relevantes en función de los objetivos de vigilancia. Sin
embargo, en el documento no se ofrecían orientaciones
sobre cómo llevar a cabo este proceso de selección.
Calba et al. BMC Public Health (2015) Página 13 de
15:448 22
Las orientaciones sobre los métodos de evaluación de Otras limitaciones de los enfoques existentes son la
atributos son limitadas. Sólo un enfoque (claramente ausencia de recomendaciones sobre quién debe llevar a
etiquetado como herramienta) proporcionaba métodos cabo la evaluación, lo que ayudaría a establecerla, y de una
detallados para la evaluación de atributos [27], pero esto no representación gráfica de los productos que ayude a
permitía ninguna flexibilidad en la selección de métodos difundir los resultados. Además, una descripción de las
para la evaluación de atributos. La selección de un método aplicaciones de los estudios de caso podría ayudar a los
de evaluación adecuado puede ser compleja y un enfoque usuarios finales a comprender cómo llevar a cabo la
de evaluación debe proporcionar suficientes elementos evaluación. Asimismo, una cierta transparencia en el
para ayudar a los evaluadores a elegir. De hecho, es proceso de desarrollo de los enfoques contribuiría a su
necesario examinar las ventajas y los límites de los métodos usabilidad al ofrecer la posibilidad de ver y evaluar posibles
actuales, así como los recursos necesarios para su conflictos de intereses.
aplicación (datos necesarios, requisitos tecnológicos y
conocimientos específicos). La elaboración de Conclusión
orientaciones para la selección de los atributos pertinentes Varias organizaciones han desarrollado enfoques de
y los métodos más adecuados para evaluarlos aportaría evaluación, centrados sólo en aspectos parciales de las
otro grado de flexibilidad al propio proceso de evaluación. características de los sistemas de vigilancia, y la mayoría de
Además de esta necesidad de orientación sobre la los enfoques disponibles ofrecen recomendaciones
selección y evaluación de atributos, también es necesario generales para las evaluaciones.
incluir una lista exhaustiva de atributos de evaluación que Esta revisión ha puesto de manifiesto la necesidad de
podrían valorarse. Esta revisión confirma publicaciones desarrollar un enfoque global para la evaluación de los
anteriores en las que se destacaba la necesidad de tener en sistemas de vigilancia, basado en los ya existentes y que
cuenta los atributos económicos en los enfoques de incluya orientaciones sobre la evaluación de atributos
evaluación (por ejemplo, la relación coste-eficacia, la individuales. Este enfoque tendría que ser (i) completo, e s
relación coste-beneficio) [3]. Los aspectos económicos son decir, proporcionar una lista completa de atributos que
un tema central en la mayoría de los procesos de decisión y abarque no sólo los aspectos epidemiológicos de la
permitirían una mejor selección y/o priorización de las evaluación, sino también los sociales y económicos; (ii)
medidas correctoras eficaces. Estos elementos podrían flexible y adaptable al contexto (propósito de la vigilancia y
desempeñar un papel importante en la definición del objetivo de la e v a l u a c i ó n ) y a las limitaciones de
proceso de evaluación, ya que permitirían orientar mejor la las evaluaciones (tiempo, recursos, datos disponibles, etc.);
evaluación teniendo en cuenta los beneficios para los y (iii) operativo, es decir, que se adapte a las necesidades de
responsables de la toma de decisiones, que a menudo los usuarios.); y (iii) operativa, es decir, que ofrezca un
tienen que elegir en función de unos recursos limitados o proceso estructurado para llevar a cabo la evaluación que
decrecientes [3]. También se necesitan atributos incluya orientaciones sobre cómo seleccionar los atributos
sociológicos (por ejemplo, aceptabilidad, comunicación, adecuados y la selección de métodos e instrumentos
beneficios no monetarios), ya que ninguno de los enfoques prácticos para su evaluación.
de evaluación proporciona información sobre cómo tener
en cuenta las percepciones, necesidades y expectativas de Nota final
las partes interesadas. Además, la evaluación también debe a
El objetivo general de RISKSUR es desarrollar y validar
tener en cuenta las necesidades e intereses de las partes marcos conceptuales y de apoyo a la toma de decisiones,
interesadas del sistema [34]. Estos aspectos son esenciales así como herramientas asociadas para diseñar sistemas
para garantizar la aceptabilidad, sostenibilidad e impacto eficientes de vigilancia zoosanitaria basados en el riesgo
de los sistemas de vigilancia. Es importante comprender las http://www.fp7-risksur.eu/.
percepciones y expectativas de las partes interesadas en
Abreviaturas
para garantizar que el sistema funciona correctamente y PH: Salud pública; AH: Sanidad animal; EH: Sanidad ambiental; OH: Una salud;
proporciona información relevante. Como se describe en el CCP: Punto de control crítico; APPCC: Análisis de riesgos del punto de control
artículo de Auer y colaboradores [34], la aceptabilidad crítico; CDC: Centro para el control y la prevención de enfermedades; OMS:
puede considerarse un atributo fundamental. Deben Organización Mundial de la Salud; RESAPATH: Red de vigilancia de la
resistencia a los antimicrobianos en bacterias patógenas de origen animal;
desarrollarse métodos y herramientas para evaluar estos RENESA: Evolución de las tasas de micoplasmosis y salmonelosis en aves de
elementos e incluirlos en los enfoques de evaluación. corral; FA: fiebre aftosa;
OASIS: Outil d'analyse des systèmes de surveillance; SERVAL: SuRveillance
Ninguno de los enfoques proporcionó estándares de oro EVALuation framework.
que pudieran guiar la interpretación de los resultados de la
evaluación y orientar las medidas correctivas que debían Intereses contrapuestos
Los autores declaran no tener intereses contrapuestos.
aplicarse. También habría que considerar en los enfoques
de evaluación cómo fijar el objetivo económico para Contribuciones de los autores
ofrecer recomendaciones sobre cómo equilibrar los MP y FLG concibieron la idea de este estudio, supervisaron la ejecución
general del estudio y el proceso de elaboración del manuscrito. CC
resultados frente a los costes, especialmente en situaciones
contribuyó al diseño del estudio, la recopilación de datos, el análisis de
de escasez de recursos. datos y la redacción del manuscrito. AL y LH ayudaron a diseñar el estudio
y, con
Calba et al. BMC Public Health (2015) Página 14 de
15:448 22
y CS participaron en la revisión y mejora del manuscrito. Todos los 16. Solberg S. Forest health monitoring: evaluation of methods, trends and
autores leyeron y aprobaron el manuscrito final. causes based on a Norwegian Nationwide set of monitoring plots, Dr.
Agric. Tesis, Universidad Agrícola de Noruega. 1999.
Agradecimientos 17. Teutsch G, Ptak T, Schwarz R, Hoder T. A new integral procedure for the
Esta revisión se ha realizado en el marco del proyecto RISKSUR, financiado quantification of groundwater contamination. J Contam Hydrol.
por el Séptimo Programa Marco de la Unión Europea (7PM / 2007-2013) 2000;75:183-213.
mediante el acuerdo de subvención n°310806.
Referencias
1. Declich S, Carter A. Vigilancia de la salud pública: orígenes
históricos, métodos y evaluación. Bull World Health Organ.
1994;72:285-304.
2. Corley CD, Lancaster MJ, Brigantic RT, Chung JS, Walters RA, Arthur RR,
et al. Assessing the continuum of event-based biosurveillance through
an operational lens. Biosecur Bioterror. 2012;10:131-41.
3. Drewe J, Hoinville L, Cook A, Floyd T, Stärk K. Evaluation of animal and
public health surveillance systems: a systematic review. Epidemiol
Infect. 2012;140:575-90.
4. Shahab S. Finding value in the evaluation of public health
syndromic surveillance systems from a policy perspective. En: Finding
value in the evaluation of public health syndromic surveillance
systems from a policy perspective. Alberta, Canadá: Alberta Health
Services; 2009. p. 1-24.
5. Comité Coordinador de Vigilancia Sanitaria. Marco e instrumentos
de evaluación de los sistemas de vigilancia de la salud. En: Marco e
instrumentos para evaluar los sistemas de vigilancia de la salud.
Vancouver, Canadá: Health Canada; 2004.
6. Klaucke ND. Evaluación de los sistemas de vigilancia de la salud
pública. En: Halperin W, Baker EL, Monson RR, editores. Vigilancia de
la salud pública. New York: Van Nostrand Reinhold; 1992. p. 26-41.
7. Moher D, Liberati A, Tetzlaff J, Altman DG. Preferred reporting
items for systematic reviews and meta-analyses: the PRISMA
statement. Ann Intern Med. 2009;151:264-9.
8. Diccionario de la lengua inglesa.
[http://www.thefreedictionary.com/ framework]
9. Encycolpedia y diccionario de medicina, enfermería y
afines. [http://medical-
dictionary.thefreedictionary.com/framework].
10. Diccionario de términos científicos y
técnicos. [http://
enciclopedia2.thefreedictionary.com/guidelin
es]
11. Diccionario dental Mosby. [http://medical-
dictionary.thefreedictionary.com/ guidelines]
12. Diccionario médico. [http://medical-
dictionary.thefreedictionary.com/
method].
13. Diccionario de la lengua inglesa.
[http://www.thefreedictionary.com/tools]
14. Cobuild English Usage. [http://www.thefreedictionary.com/tools]
15. Yoshimizu M, Hori Y, Yoshinaka T, Kimura T, Leong J, Rodgers C.
Evaluation of methods used to detect the prevalence of infectious
haematopoietic necrosis (IHN) virus in the surveillance and monitoring of
fish health for risk assessment. En: Rodgers C, editor. Risk analysis in
aquatic animal health;
8-10 de febrero; París, Francia. París, Francia: Oficina Internacional de
Epizootias (OIE); 2001. p. 276-81.
Calba et al. BMC Public Health (2015) Página 16 de
15:448 22
18. Organización Mundial de la Salud. Componentes básicos para los 2011;11:744.
programas de prevención y control de infecciones: herramientas
de evaluación para los programas de CIP. En: Componentes
básicos para los programas de prevención y control de
infecciones: herramientas de evaluación para los programas de
CIP. Organización Mundial de la Salud (OMS); 2011.
http://www.wpro.who.int/hrh/about/nursing_midwifery/
core_components_for_ipc.pdf.
19. Organización Mundial de la Salud. Evaluación del sistema
nacional de información sanitaria: instrumento de evaluación.
Organización Mundial de la Salud (OMS); 2008.
http://apps.who.int/iris/bitstream/10665/43932/1/
9789241547512_eng.pdf?ua=1 (ISBN 978 92 4 154751 2).
20. Organización Mundial de la Salud. Sistemas de vigilancia y
respuesta a las enfermedades transmisibles: guía para el
seguimiento y la evaluación. En: Sistemas de vigilancia y respuesta
a las enfermedades transmisibles: guía para el seguimiento y la
evaluación. Ciudad: Organización Mundial de la Salud (OMS);
2006. p. 90.
21. Organización Mundial de la Salud. Protocolo para la evaluación de
los sistemas de vigilancia epidemiológica. En: Protocolo para la
evaluación de los sistemas de vigilancia epidemiológica. Ciudad:
Organización Mundial de la Salud (OMS); 1997. p. 49.
22. Meynard JB, Chaudet H, Green AD, Jefferson HL, Texier G, Webber
D, et al. Proposal of a framework for evaluating military surveillance
systems for early detection of outbreaks on duty areas. BMC Public
Health. 2008;8:46.
23. Centro Europeo para la Prevención y el Control de las Enfermedades.
Marco para la evaluación y valoración de las redes de vigilancia a escala
de la UE en 2006-2008. En: Marco para la evaluación y valoración de las
redes de vigilancia a escala de la UE en 2006-2008. Ciudad: Centro
Europeo para la Prevención y el Control de las Enfermedades (ECDC);
2006. p. 13.
24. Buehler JW, Hopkins RS, Overhage MJ, Sosin DM, Tong V.
Framework for evaluating public health surveillance systems for early
detection of outbreaks: recommendations from the CDC Working
Group. En: Marco para la evaluación de los sistemas de vigilancia de
la salud pública para la detección precoz de brotes:
recomendaciones del Grupo de Trabajo de los CDC, vol. 53. Madrid.
Ciudad: Centro para el Control y la Prevención de Enfermedades
(CDC); 2004. p. 1-11.
25. Kansanterveyslaitos Folkhälsoinstitutet. Protocolo de evaluación de
las redes de vigilancia de las enfermedades transmisibles en la UE.
En: Protocolo de evaluación de las redes de vigilancia de las
enfermedades transmisibles en la UE. Ciudad: Instituto Nacional de
Salud Pública (KTL); 2004. p. 59.
26. German RR, Lee L, Horan J, Milstein R, Pertowski C, Waller M.
Directrices actualizadas para la evaluación de los sistemas de
vigilancia de la salud pública. En: Directrices actualizadas para la
evaluación de los sistemas de vigilancia de la salud pública, vol.
50. Ginebra: OMS. Ciudad: Center for Disease Control and
Prevention (CDC); 2001. p. 1-35.
27. Hendrikx P, Gay E, Chazel M, Moutou F, Danan C, Richomme C, et
al. OASIS: an assessment tool of epidemiological surveillance
systems in animal health and food safety. Epidemiol Infect.
2011;139:1486-96.
28. Drewe J, Hoinville L, Cook A, Floyd T, Gunn G, Stärk K. SERVAL: un
nuevo marco para la evaluación de la vigilancia zoosanitaria.
Transbound Emerg Dis. 2013;62:1-13.
29. Dufour B. Método de evaluación técnica y económica para la mejora
de las redes de vigilancia de enfermedades animales infecciosas. Vet
Res. 1999;30:27-37.
30. Malecki KC, Resnick B, Burke TA. Effective environmental public
health surveillance programs: a framework for identifying and
evaluating data resources and indicators. J Public Health
Manag Pract. 2008;14:543-51.
31. El Allaki F, Bigras-Poulin M, Ravel A. Conceptual evaluation of
population health surveillance programs: method and example. Prev
Vet Med. 2013;108:241-52.
32. Dufour B, Hendrickx P. Surveillance épidémiologique en santé
animale. En: Éditions Quæ. 3r ed. París, Francia: AEEMA y CIRAD,
Maison Alfort. 2011.
33. Peyre M, Hoinville L, Häsler B, Lindberg A, Bisdorff B, Dorea F, et al.
Network analysis of surveillance system evaluation attributes: a way
towards improvement of the evaluation process. La Habana, Cuba:
Presentado en la Conferencia Internacional para la Vigilancia de la
Sanidad Animal (ICAHS2); 2014.
34. Auer AM, Dobmeier TM, Haglund BJ, Tillgren P. The relevance of
WHO injury surveillance guidelines for evaluation: learning from
the Aboriginal Community-Centered Injury Surveillance System
(ACCISS) and two institution-based systems. BMC Public Health.