Referencia: Reference

:
Escudero, Tomás (2003). Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista ELectrónica de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm. Consultado en (poner fecha).

This article in english version

(added March, 21th 2006)

Analysis / Análisis

Hits:

Visitas

DESDE LOS TESTS HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL. UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN (From tests to current evaluative research. One century, the XXth, of intense development of evaluation in education)
In format

po r
Tomás Escudero Escorza (tescuder@posta.unizar.es)

En formato

Article record About the authors Print this article

Ficha del artículo Sobre los autores Imprimir el artículo

Abstract
This article presents a review and state of art about development in educational evaluation in the XXth century. The main theoretical proposals are commented

Resumen
Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Se analizan los principales propuestas teóricas planteadas.

Keywords
Evaluation, Evaluation Research, Evaluation Methods; Formative Evaluation Summative Evaluation, Testing, Program Evaluation

Descriptores
Evaluación, Investigación evaluativa, Métodos de Evaluación, Evaluación Formativa, Evaluación Sumativa, Test, Evaluación de Programas

Introducción
En cualquier disciplina, la aproximación histórica suele ser una vía fundamental para comprender su concepción, estatus, funciones, ámbito, etc. Este hecho es especialmente evidente en el caso de la evaluación, pues se trata de una disciplina que ha sufrido profundas transformaciones conceptuales y funcionales a

lo largo de la historia y, sobre todo, a lo largo del siglo XX, en el que principalmente ubicamos nuestro análisis. En este sentido, la aproximación diacrónica al concepto resulta imprescindible.
Comments to this article Related articles: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

Comentar este artículo Artículos relacionados: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

El análisis la vamos a llevar a cabo basándonos en tres planteamientos que podríamos tachar de clásicos en la reciente literatura sobre el tema y que usamos indistintamente, aunque no tenemos la pretensión de ofrecer un planteamiento de síntesis, sino de utilización cabal de todos ellos, puesto que los tres planteamientos inciden sobre los mismos momentos y movimientos claves.

Un planteamiento, quizás el más utilizado en nuestro contexto (Mateo y otros, 1993; Hernández, 1993), es el que ofrecen Madaus, Scriven, Stufflebeam y otros autores, que en sus trabajos suelen establecer seis épocas, empezando su análisis desde el siglo XIX (Stufflebeam y Shinkfield, 1987; Madaus y otros, 1991). Nos hablan de: a) época de la reforma (1800-1900), b) época de la eficiencia y del «testing» (1900-1930), c) época de Tyler (1930-1945), d) época de la inocencia (1946-1956), e) época de la expansión (1957-1972) y f) época de la profesionalización (desde 1973), que enlaza con la situación actual. Otros autores como Cabrera (1986) y Salvador (1992) citan tres grandes épocas, tomando como punto de referencia central la figura de Tyler en el segundo cuarto del Siglo XX. A la época de Tyler se le denomina de nacimiento, a las anteriores de precedentes o antecedentes y a la posterior de desarrollo. Guba y sus colaboradores, sobre todo Yvonna Lyncoln, destacan distintas generaciones. Ahora estaríamos en la cuarta (Guba y Lincoln, 1989), que según ellos se apoya en el enfoque paradigmático constructivista y en las necesidades de los «stakeholders» (demandantes e implicados en la evaluación), como base para determinar la información que se necesita. La primera generación es la de la medición, que llega hasta el primer tercio de este siglo, la segunda es la de la descripción y la tercera la del juicio o valoración. Tras el análisis histórico, como complemento y como revisión de síntesis del mismo, ofrecemos un sucinto resumen de los enfoques evaluativos más relevantes, de los distintos modelos y planteamientos que, con mayor o menor fuerza, vienen a nuestra mente cuando intentamos acotar lo que es hoy en día la investigación evaluativa en educación

1. Precedentes: Antes de los «tests» y de la medición Desde la antigüedad se han venido creando y usando procedimientos instructivos en los que los profesores utilizaban referentes implícitos, sin una teoría explícita de evaluación, para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace más de tres mil años, para seleccionar a los altos funcionarios. Otros autores como Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se refiere a los exámenes de los profesores griegos y romanos. Pero según McReynold (1975), el tratado más importante de evaluación de la antigüedad es el Tetrabiblos, que se atribuye a Ptolomeo. También Cicerón y San Agustín introducen en sus escritos conceptos y planteamientos evaluadores. En la Edad Media se introducen los exámenes en los medios universitarios con carácter más formal. Hay que recordar los famosos exámenes orales públicos en presencia de tribunal, aunque sólo llegaban a los mismos los que contaban con el visto bueno de sus profesores, con lo que la posibilidad de fracaso era prácticamente inexistente. En el Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en su Examen de ingenios para las ciencias, defiende la observación como procedimiento básico de la evaluación (Rodríguez y otros, 1995). En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educación, se acentúa la necesidad de comprobación de los méritos individuales y las instituciones educativas van elaborando e introduciendo normas sobre la utilización de exámenes escritos (Gil, 1992). Entrado el siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación, tras la superación de exámenes (exámenes del Estado). Según Max Weber (Barbier, 1993), surge un sistema de exámenes de comprobación de una preparación específica, para satisfacer las necesidades de una nueva sociedad jerárquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a utilizar las primeras técnicas evaluativas del tipo «tests» escritos, que se extienden a las escuelas de Boston, y que inician el camino hacia referentes más objetivos y explícitos con relación a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todavía de una evaluación sustentada en un enfoque teórico, sino más bien, algo que responde a prácticas en buena medida rutinarias y con frecuencia basadas en instrumentos poco fiables. Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele señalar como la primera investigación evaluativa en educación (Mateo y otros, 1993). Se trataba de un análisis comparativo en escuelas americanas sobre el valor de la instrucción en el estudio de la ortografía, utilizando como criterio las puntuaciones obtenidas en los tests. 2. Los tests psicométricos En el contexto anterior, a finales del siglo XIX, se despierta un gran interés por la medición científica de las conductas humanas. Esto es algo que se enmarca en el movimiento renovador de la metodología de las ciencias humanas, al asumir el

En el campo educativo destacan algunos instrumentos de aquella época. d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar unos mecanismos de acreditación y selección de alumnos. la experimentación. apoyando la medición de las características de los individuos y las diferencias entre ellos. En este sentido. 1986). Aparece la exigencia del rigor científico y de la objetividad en la medida de la conducta humana (Planchard. siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los comienzos del siglo XX. de lectura de Thorndike y McCall y de aritmética de Wood y McCall (Planchard. la evaluación y la medida tenían poca relación con los programas escolares. 1967. En Francia destacan los trabajos de . se desarrolla una actividad evaluativa intensa conocida como «testing». 1981). dentro del modelo del rasgo y atributo que caracterizaba las elaboraciones psicológicas de la época (Fernández Ballesteros. b) La influencia de las teorías evolucionistas y los trabajos de Darwin. de redacción de Hillegas. como las escalas de escritura de Ayres y Freeman. 1960) y se potencian las pruebas escritas como medio para combatir la subjetividad de los exámenes orales (Ahman y Cook. sinónimo de evaluación educativa. Ahman y Cook. la evaluación recibe las mismas influencias que otras disciplinas pedagógicas relacionadas con procesos de medición. 1978). tales como: a) El florecimiento de las corrientes filosóficas positivistas y empíricas. • Los tests de rendimiento. c) El desarrollo de los métodos estadísticos que favorecía decisivamente la orientación métrica de la época (Nunnally. olvidándose en gran medida la representatividad y congruencia con los objetivos educativos. según sus conocimientos. Los tests informaban algo sobre los alumnos. En palabras de Guba y Lincoln (1982). como la pedagogía experimental y la diferencial (Cabrera. el hallazgo de puntuaciones diferenciales. • El objetivo era detectar y establecer diferencias individuales. que apoyaban a la observación. para determinar la posición relativa del sujeto dentro de la norma grupal. Ebel. es decir. 1960. pero no de los programas con los que se les había formado. en este periodo entre finales del siglo XIX y principios del XX. fue en los tests psicológicos donde los esfuerzos tuvieron mayor impacto. En la práctica sólo se hablaba de medición. que se define por características como las siguientes: • Medición y evaluación resultaban términos intercambiables. se elaboraban para establecer discriminaciones individuales. Galton y Cattel.positivismo de las ciencias físico-naturales. Sin embargo. 1977). los datos y los hechos como fuentes del conocimiento verdadero. Consecuentemente con este estado de cosas. La actividad evaluativa se verá condicionada de forma decisiva por diversos factores que confluyen en dicho momento. de ortografía de Buckingan. 1967). de cálculo de Wood.

pues todavía existen textos y publicaciones que utilizan de manera indisoluble evaluación y medida (Gronlund. 3. El papel del evaluador era técnico. 1968 y 1969. en su famoso . Tras la contienda. Estas aplicaciones estandarizadas se acogen muy bien en los ámbitos educativos y McCall (1920) propone que los profesores construyan sus propias pruebas objetivas. para utilizar con grandes colectivos de estudiantes. sobre tests de capacidades cognitivas. 1974). expedientes académicos. superando desde el conductismo. con las necesidades de reclutamiento en la Primera Guerra Mundial. que puede legítimamente ser denominada como la generación de la medida. Entre 1932 y 1940. Pero quien es tradicionalmente considerado como el padre de la evaluación educativa es Tyler (Joint Committee. el divorcio entre lo enseñado y las metas de la instrucción. Tyler. sobre todo. 1985). o la media de distintos correctores. La evaluación se dejaba.Alfred Binet. Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa para lectoescritores y Beta para analfabetos) e inventarios de personalidad (Phillips. en Francia se inicia en los años veinte una corriente independiente conocida como docimología (Pieron. técnicas de repesca y tests. que supone un primer acercamiento a la verdadera evaluación educativa. se trata de criterios en buena medida vigentes actualmente y. Como puede verse. empezaron a surgir algunos movimientos hipercríticos con estas prácticas. en manos de una interpretación totalmente personal del profesor. Según estos autores. Guba y Lincoln (1989) se refieren a esta evaluación como a la primera generación. Ahora hablamos del Stanford-Binet. 1981). como proveedor de instrumentos de medición. Años más tarde. 1972). Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests psicológicos con el desarrollo de la estadística y del análisis factorial. El fervor por el «testing» decreció a partir de los años cuarenta e. por ser el primero en dar una visión metódica de la misma. Bonboir. en último término. esta primera generación permanece todavía viva. basados en procedimientos de medida de la inteligencia. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas y d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección. La década entre 1920 y 1930 marca el punto más alto del «testing». Como solución se proponía: a) elaboración de taxonomías para formular objetivos. en algún caso. los tests psicológicos se ponen al servicio de fines sociales. incluso. para no tener que confiar exclusivamente en las propuestas por especialistas externos. uno de los tests más conocidos en la historia de la psicometría. la mera evaluación psicológica. exámenes. b) diversificación de fuentes de información. El nacimiento de la verdadera evaluación educativa: La gran reforma «tyleriana» Antes de que llegara la revolución promovida por Ralph W. pues se idean multitud de tests estandarizados para medir toda clase de destrezas escolares con referentes objetivos externos y explícitos. incluso avanzados. Se criticaba. después revisados por Terman en la Universidad de Stanford. muy en boga en el momento.

1982. 1975. que deben ser cuidadosamente definidos en términos de conducta (Mager. 1982). c) Elección de instrumentos apropiados de evaluación. Desgraciadamente. e) Determinación de la fiabilidad y objetividad de las medidas. plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. Guba y Lincoln. las ideas de Tyler fueron muy bien acogidas por los especialistas en desarrollo curricular y por los profesores. d) Interpretación de los resultados de las pruebas. como el proceso surgido para determinar en qué medida han sido alcanzados los objetivos previamente establecidos (véase también Tyler. 1967 y 1969). pero dentro de un proceso socializador. e integrando en él su método sistemático de evaluación educativa. Esta evaluación ya no es una simple medición. de la segunda generación de la evaluación. aunque sin desarrollar. la referencia central en la evaluación son los objetivos preestablecidos. Se alude. teniendo en cuenta que deben marcar el desarrollo individual del alumno. La obra de síntesis la publica unos años después (Tyler. porque supone un juicio de valor sobre la información recogida. fácil de entender y aplicar (Guba y Lincoln. a la toma de decisiones sobre los aciertos o fracasos de la programación. A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de inmediato. algo que retomarán otros importantes evaluadores como Cronbach y Sufflebeam unos años después. pero su función es más amplia que el hacer explícito este cambio a los propios alumnos. 1989) y encajaba perfectamente en la racionalidad del análisis de la tarea que comenzaba a usarse con éxito en ámbitos educativos militares (Gagné. padres y profesores. 1962). publicado dos años después (Smith y Tyler.Eight-Year Study of Secondary Education para la Progressive Education Association. ni explotada. 1942). b) Determinación de las situaciones en las que se deben manifestar las conductas esperadas. . exponiendo de manera clara su idea de «curriculum». esta visión evaluativa global no fue suficientemente apreciada. los planteamientos de Tyler se extendieron con la Ley General de Educación de 1970. en función de los resultados de los alumnos. Su esquema era racional y se apoyaba en una tecnología clara. House. 1971). 1950). El «currículum» viene delimitado por las cuatro cuestiones siguientes: a) ¿Qué objetivos se desean conseguir? b) ¿Con qué actividades se pueden alcanzar? c) ¿Cómo pueden organizarse eficazmente estas experiencias? d) ¿Cómo se puede comprobar si se alcanzan los objetivos? Y la buena evaluación precisa de las siguientes condiciones: a) Propuesta clara de objetivos. En España. Para Tyler. por aquellos que utilizaron sus trabajos (Bloom y otros. Se trata. según Guba y Lincoln (1989). El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos. es también un medio para informar sobre la eficacia del programa educacional y también de educación continua del profesor.

1956. Tyler murió el 18 de febrero de 1994. los siguientes aspectos en el pensamiento de Tyler al final de sus días: a) Necesidad de analizar cuidadosamente los propósitos de la evaluación. 1990) y aparecen las famosas taxonomías de los objetivos educativos (Bloom y otros. convenientemente preparada. 1964). una estudiante graduada de la Universidad de Stanford. pero depende de su contenido. 1970. entre otros. En rigor. 1953. Esta entrevista. Para ello es necesaria una evaluación comprensiva de todos los aspectos significativos de su rendimiento. adecuada a las peculiaridades del alumno y el centro. 1991). c) El «portfolio» es un instrumento valioso de evaluación. hay que ser cauteloso ante la preponderancia de un solo procedimiento de evaluación. a la investigación y a la educación en general. El verdadero desarrollo de las propuestas tylerianas vino después (Taba. incluyendo el «portfolio». la comparación de centros no es posible. Se extienden mucho las instituciones y servicios educativos de todo tipo. es necesario interaccionar con ellos de manera más frecuente y más informal. Fernández de Castro. ayudarles a que aprendan. Horowitz (1995) analiza el contenido y el significado de la citada entrevista. d) La verdadera evaluación debe ser idiosincrásica. entrevistó a Tyler con el propósito de conocer su pensamiento acerca del actual desarrollo de la evaluación y de los temas controvertidos alrededor de la misma. por el gran despilfarro consumista tras una época de recesión. Medio siglo después de que Tyler revolucionara el mundo de la evaluación educativa. En todo caso. Unos meses antes. 1950. en abril de 1993.Tras la Segunda Guerra Mundial se produce un periodo de expansión y optimismo que Stufflebeam y Shinkfield (1987) no han dudado en calificar de «irresponsabilidad social». convenientemente actualizadas. por su incapacidad de abarcar todo el espectro de aspectos evaluables. Se escribe mucho de evaluación. Para ello. 1962. Los actuales planteamientos de evaluaciones múltiples y alternativas deben ajustarse a este principio b) El propósito más importante en la evaluación de los alumnos es guiar su aprendizaje. se observa la fortaleza. no basta con asegurarse que hacen regularmente el trabajo diario. la aportación de la evaluación a la mejora de la enseñanza es escasa debido a la carencia de planes coherentes de acción. en esta época. se producen cantidad de tests estandarizados. Sin embargo. Como acabamos de ver. coherencia y vigencia de su pensamiento. tras siete décadas de fructíferas aportaciones y servicios a la evaluación. Walberg y Haertel. Lindquist. se . fue presentada el 16 de abril de 1993 en la Conferencia de la AERA que tuvo lugar en Atlanta. esto es. Krathwohl y otros. Se trata de la etapa conocida como la de la inocencia (Madaus y otros. destacando. e) Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos. pero con escasa influencia en el perfeccionamiento de la labor instruccional. antes de ponerse a evaluar. Pamela Perfumo. Ralph W. 1973). superados los noventa años de vida. se avanza en la tecnología de la medición y en los principios estadísticos del diseño experimental (Gulliksen. sus ideas básicas. Popham y Baker.

El desarrollo de los sesenta Los años sesenta traerán nuevos aires a la evaluación educativa. En 1964 se establece el Acta de educación primaria y secundaria (ESEA) y se crea el National Study Comitte on Evaluation. aunque ésta se centraba en los alumnos como sujeto que aprende. 1983). su enfoque y su última interpretación variará según el tipo de decisión buscada. A finales de los años sesenta.) y el de la enseñanza programada. como contribuyentes. . la década de los setenta. 1995). 1983. y como consecuencia de lo anterior. 1976). Rutman y Mowbray. la era de la «Accountability».. fueron muchos los millones de dólares que desde los fondos públicos se destinaron a subvencionar nuevos programas educativos e iniciativas del personal de las escuelas públicas americanas encaminadas a mejorar la calidad de la enseñanza. Aparece un cierto desencanto con la escuela pública y crece la presión por la rendición de cuentas (MacDonald. entra en escena un nuevo movimiento. los años sesenta serán fructíferos en demanda de evaluación en el ámbito de la educación. cabe señalar la recesión económica que caracteriza los finales años sesenta. 1980 y 1983. De la misma forma que la proliferación de programas sociales en la década anterior había impulsado la evaluación de programas en el área social. 1984). Este movimiento se vio también potenciado por el desarrollo de nuevos medios tecnológicos (audiovisuales. (Popham. de la rendición de cuentas (Popham. Rodríguez y otros.. Weiss. Para mejorar la situación y retomar la hegemonía científica y educativa. Buena parte de culpa de este fuerte ímpetu evaluador americano se debió a la ya citada aprobación de la «Elementary and Secondary Act» (ESEA) en 1965 (Berk. 1983). entre otras cosas porque se empezó a prestar interés por algunas de las llamadas de atención de Tyler. creándose una nueva evaluación no sólo de alumnos. 4. 1976. Rutman y Mowbray. Stenhouse. sobre todo. 1983. y se estipuló que cada uno de los proyectos realizados con el apoyo económico federal debía ser anualmente evaluado. En esa época surge un cierto conflicto entre la sociedad americana y su sistema educativo. Ello hizo que la población civil. ordenadores. 1993. 1981. cuyas posibilidades educativas despertaron el interés entre los profesionales de la educación (Rosenthal. Esta nueva dinámica en la que entra la evaluación. tras el lanzamiento del Sputnik por la URSS en 1957. Con esta ley se puso en marcha el primer programa significativo para la organización de la educación en el ámbito federal de los Estados Unidos. En 1958 se promulga una nueva ley de defensa educativa que proporciona muchos programas y medios para evaluarlos. y los propios legisladores se preocupasen por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema escolar. sus funciones.entroncan fácilmente en las corrientes más actuales de la evaluación educativa. y el objeto de valoración era el rendimiento de los mismos. y. sobre todo porque los rusos iban por delante en la carrera especial. a fin de justificar subvenciones futuras. Rutman. hace que. sino orientada a incidir en los programas y en la práctica educativa global (Mateo y otros. Junto al desencanto de la escuela pública. relacionadas con la eficacia de los programas y el valor intrínseco de la evaluación para la mejora de la educación. 1984).

1976. contenidos. se inicia durante esta época un periodo de reflexión y de ensayos teóricos con ánimo de clarificar la multidimensionalidad del proceso evaluativo. y. Entre las objeciones a este tipo de estudios. la legislación de muchos estados americanos instituyó la obligación de controlar el logro de los objetivos educativos y la adopción de medidas correctivas en caso negativo (MacDonald. 1978). cuando se refiere al movimiento de descentralización escolar durante los últimos años sesenta y principios de los setenta. así como el propio producto educativo. lo que unido a la tremenda expansión de la evaluación de programas ocurrida durante estos años. Del análisis que Cronbach del concepto. pero también todos aquellos factores que confluyen en el proceso educativo (el programa educativo en un sentido amplio. aunque en su línea de sugerencias. diera lugar a una oleada de protestas por parte del personal docente. profesor. La riqueza de ideas evaluativas expuestas en estos trabajos nos obligan a que. Como hitos de la época hay que destacar dos ensayos por su decisiva influencia: el artículo de Cronbach (1963). Course improvement through evaluation. profesores. Los grandes distritos escolares se dividieron en áreas geográficas más pequeñas. nos refiramos a ellas. de responsabilidad escolar. experiencias de aprendizaje.). se amplió considerablemente el fenómeno de la evaluación educativa. Como resultado de estas nuevas necesidades de la evaluación. Wilson y otros. Es comprensible que. organización. dará lugar al nacimiento de esa nueva modalidad de investigación aplicada que hoy denominamos como investigación evaluativa. Cronbach abre el campo conceptual y funcional de la evaluación educativa mucho más allá del marco conceptual dado por Tyler. y el de Scriven (1967). Distingue el autor tres tipos de decisiones educativas a las cuales la evaluación sirve: a) sobre el perfeccionamiento del programa y de la instrucción. planteado así. este movimiento de rendición de cuentas. aunque brevemente. en el año 1973. The methodology of evaluation. el autor destaca el hecho de que. contribuye más al desarrollo de la educación que la evaluación usada para estimar el valor del producto de un programa ya concluido. b) La evaluación que se usa para mejorar un programa mientras éste se está aplicando. por consiguiente. entresacamos las sugerencias siguientes: a) Asociar el concepto de evaluación a la toma de decisiones. con un control ciudadano más directo sobre lo que ocurría en las escuelas. medios.que se asocia fundamentalmente a la responsabilidad del personal docente en el logro de objetivos educativos establecidos. etc. etc. El sujeto directo de la evaluación siguió siendo el alumno. Estas reflexiones teóricas enriquecerán decisivamente el ámbito conceptual y metodológico de la evaluación. De hecho. Como consecuencia de estos focos de influencia. organización. con frecuencia. funciones y metodología de la evaluación. De esta forma. Otra dimensión de la responsabilidad escolar nos la ofrece Popham (1980). c) Poner en cuestión la necesidad de que los estudios evaluativos sean de tipo comparativo. b) sobre los alumnos (necesidades y méritos finales) y c) acerca de la regulación administrativa sobre la calidad del sistema. las diferencias entre las .

lo que el autor llama meta de la evaluación. la evaluación como actividad metodológica es esencialmente igual. b) Scriven señala dos funciones distintas que puede adoptar la evaluación: la formativa y la sumativa. la observación sistemática y no sistemática. reclamando la necesidad de una evaluación con referencia al criterio. Se defienden los estudios más analíticos. esto es. las técnicas de evaluación no pueden limitarse a los tests de rendimiento. mientras que las funciones de la evaluación pueden ser enormemente variadas. Si estas reflexiones de Cronbach fueron impactantes. no lo fueron menos las del ensayo de Scriven (1967). al defender la valoración con relación a unos objetivos bien definidos y no la comparación con otros grupos. supone en definitiva el proceso por el cual estimamos el valor de algo que se evalúa. y las funciones de la evaluación en un contexto particular. con objeto de mejorarlo. El objetivo de la evaluación es invariante. en contraste al casi exclusivo uso que se hacía de los tests como técnicas de recogida de información. c) Otra importante contribución de Scriven es la crítica al énfasis que la evaluación da a la consecución de objetivos previamente establecidos. f) Desde esta óptica. y el término de evaluación sumativa para aquel proceso orientado a comprobar la eficacia del programa y tomar decisiones sobre su continuidad. las pruebas de ensayo. según el autor. Sus fecundas distinciones terminológicas ampliaron enormemente el campo semántico de la evaluación. e) Metodológicamente Cronbach propone que la evaluación debe incluir: 1) estudios de proceso –hechos que tienen lugar en el aula–. a la vez que clarificaron el quehacer evaluativo. 2) medidas de rendimiento y actitudes –cambios observados en los alumnos– y 3) estudios de seguimientos. bien controlados. Estas funciones se relacionan con el uso que se hace de la información recogida. Destacamos a continuación las aportaciones más significativas: a) Se establece de forma tajante la diferencia entre la evaluación como actividad metodológica. d) Se ponen en cuestión los estudios a gran escala. las entrevistas. así como otras referentes a las dificultades técnicas que en el marco educativo presentan los diseños comparativos. Así.puntuaciones promedio entre-grupos son menores que las intra-grupos. no tiene ningún interés saber hasta qué punto se han conseguido. porque si los objetivos carecen de valor. Resalta la necesidad de que la evaluación debe incluir tanto la evaluación de los propios objetivos . el camino posterior seguido por los estudiantes que han participado en el programa. sea lo que fuera lo que estemos evaluando. Los cuestionarios. Propone el término de evaluación formativa para calificar aquel proceso de evaluación al servicio de un programa en desarrollo. ocupan un lugar importante en la evaluación. puesto que las diferencias entre los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas de los resultados. que pueden usarse para comparar versiones alternativas de un programa. Cronbach aboga por unos criterios de comparación de tipo absoluto.

1964. Esta distinción resulta muy importante a la hora de considerar el criterio a utilizar. 1986). Durante estos años sesenta aparecen muchas otras aportaciones que va perfilando una nueva concepción evaluativa. Atkin. Glaser. 1963. el juicio. 1965. 1964. Scriven. a veces los más bajos en las taxonomías del dominio cognoscitivo. sino también por centrar la valoración del aprendizaje en los productos más fácilmente mensurables. 1970. pues en la evaluación intrínseca el criterio no se formula en términos de objetivos operativos. 1963. Se percibe que el núcleo conceptual de la evaluación lo constituye la valoración del cambio ocurrido en el alumno como efecto de una situación educativa sistemática. 1968). Lindvall. e) Scriven adopta una posición contraria a Cronbach. a la que se referían preferentemente. 1967. y de que se prestaba escasa atención a los objetivos del dominio afectivo. Glaser. 1967 y 1969. con trabajos sobre los objetivos educativos que continuarían y perfeccionarían el camino emprendido en 1956 por Bloom y colaboradores (Mager. 1962 y 1973. sino también a los efectos laterales o no pretendidos. que presentan mayor dificultad de tratamiento operativo. 1967). pero Scriven considera que la evaluación como opuesta a la mera descripción implica emitir un juicio sobre la superioridad o inferioridad de lo que se evalúa con respecto a sus competidores o alternativas. el modelo evaluativo de Tyler se enriquecería mucho en estos años. mientras que sí se hace en la evaluación extrínseca . Bloom y otros. incidiendo no sólo en estudios en la línea de la investigación evaluativa. En una evaluación intrínseca se valora el elemento por sí mismo.como el determinar el grado en que éstos han sido alcanzados (Scriven. e incluso a resultados o efectos a largo plazo (Cronbach. Stake. . siendo unos objetivos bien formulados el mejor criterio para valorar este cambio. de extenderse en las décadas posteriores. 1969). como un contenido intrínseco en la evaluación. Krathwohl y otros. en la línea de evaluación como «assessment» (Mateo. que terminará de desarrollarse y. como dos formas diferentes de valorar un elemento de la enseñanza. Estamos ante la tercera generación de la evaluación que. A pesar de las voces críticas con la operativización de objetivos (Eisner. Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de evaluadores. sino también en la evaluación orientada al sujeto. Así mismo. 1973 y 1974). 1971. Admite con Cronbach los problemas técnicos que los estudios comparativos entrañan y la dificultad de explicar las diferencias entre programas. Popham. se caracteriza por introducir la valoración. según Guba y Lincoln (1989). Entre otras cosas aparecieron nuevas ideas sobre la evaluación de la interacción en el aula y sobre sus efectos en los logros de los alumnos (Baker. d) Clarificadora es también la distinción que hace Scriven entre evaluación intrínseca y evaluación extrínseca. la valora. además. defendiendo el carácter comparativo que deben presentar los estudios de evaluación. no sólo por la estructura de valor que en ello subyace. mientras que en la evaluación extrínseca se valora el elemento por los efectos que produce en los alumnos. sobre todo. se comienza a prestar atención no sólo a los resultados pretendidos. la juzga con relación a distintos criterios. Ahora el evaluador no sólo analiza y describe la realidad. Gagné 1971).

Stake se irá distanciando de sus posiciones iniciales. El énfasis en los objetivos y su medida traerá también la necesidad de una nueva orientación a la evaluación. 1973. siendo irrelevantes. 1977. defiende la utilización de evaluadores externos para evitar todo tipo de tergiversación de los profesores muy implicados en los procesos instruccionales. Mager. c) el conocimiento de si los resultados esperados son dispersos o concentrados y d) los métodos que han de emplearse para alcanzar los objetivos. señala para los primeros.Stake (1967) propuso su modelo de evaluación. además de los conocidos objetivos de describir la ejecución del sujeto y tomar decisiones sobre si domina o no domina un contenido. aún siguiendo el modelo básico de Tyler. la investigación evaluativa es siempre aplicada. Un nivel podemos calificarlo como la evaluación orientada hacia los individuos. así como la valoración de ese estatus por comparación con un estándar o criterio de realizaciones deseables. 1970 y 1983. En sus sucesivas propuestas. Carreño. es el de la evaluación orientada a la toma de decisiones sobre el «instrumento» o «tratamiento» o «programa» educativo. Su principal propósito es descubrir la efectividad. otro objetivo como es el de valorar la eficacia de un programa. Así. no centrarse meramente en los conocimientos intelectuales alcanzados por los alumnos. que sigue la línea de Tyler. al efecto de contraste. The countenance model. los resultados obtenidos por otros sujetos o grupo de sujetos (Popham. 1985). trazar las líneas de su posible redefinición. Metfessell y Michael (1967) presentaron también un modelo de evaluación de la efectividad de un programa educativo en el cual. Este último nivel. la denominada evaluación de referencia criterial. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica. además. b) el tiempo necesario para que se realice el cambio propuesto. éxito o fracaso de un programa al compararlo con los objetivos propuestos y. en cambio. proponían la utilización de una lista comprensiva de criterios diversos que los evaluadores podrían tener en cuenta en el momento de la valoración y. en cuanto que es el tipo de evaluación que suministra una información real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de enseñanza previstos. impulsado también por . por ejemplo. La distinción introducida por Glaser (1963) entre mediciones referidas a normas y criterios tendrá eco al final de la década de los sesenta. El otro nivel. fundamentalmente alumnos y profesores. Gronlund. y posibilitar algunas bases para elaborar hipótesis acerca de las causas y los fallos en los resultados finales. matizando que la investigación científica es preferentemente teórica y. Desde finales de los sesenta los especialistas se pronunciarán decisivamente a favor de la evaluación criterial. En las prácticas evaluativas de esta década de los sesenta se observan dos niveles de actuación. Esta investigación evaluativa para Suchman debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo. cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests referidos a la norma. pero es más completo al considerar las discrepancias entre lo observado y lo esperado en los «antecedentes» y «transacciones». precisamente como resultado de las nuevas exigencias que a la evaluación educativa se le planteaban. así. Suchman. por consiguiente.

De la Orden. Estos enriquecerán considerablemente el vocabulario evaluativo. cuantitativos y cualitativos. a nuestro entender. considerados particularmente. que ha venido a llamarse de “Consecución de Metas”. que corresponden a los últimos años sesenta. Arnal y otros. Stufflebeam y Shinkfield. pero enfatizan la necesidad de aportar datos sobre la congruencia o discrepancia entre las pautas de . y valorar así sus respectivas aportaciones en los terrenos conceptual y metodológico (Worthen y Sanders. Scriven. Pérez (1983) y en alguna medida House (1989). En una primera época. Para estos autores los objetivos propuestos siguen siendo el criterio fundamental de valoración. puesto que es cada evaluador el que termina construyendo su propio modelo en cada investigación evaluativa. en esta época destacan la propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). 1985) los que consideran los modelos no como excluyentes. las propuestas seguían la línea expuesta por Tyler en su planteamiento. Nosotros. y que algunos modelos pueden ser representativos de ellas. En este movimiento de propuestas de modelos de evaluación cabe distinguir dos épocas con marcadas diferencias conceptuales y metodológicas. 1980. por tanto. se diferencian más por destacar o enfatizar alguno o algunos de los componentes del proceso evaluativo y por la particular interpretación que a este proceso le dan. pero los diferentes modelos. sino más bien como complementarios y que el estudio de los mismos (al menos aquellos que han resultado ser más prácticos) llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. tienden a clasificar estos modelos en dos grandes grupos. 1973. compartimos la idea de Popham (1980) de que algunos son demasiado complicados y otros utilizan una jerga bastante confusa. También son varios los autores (Lewy. Anderson y Ball. Se trata. 1983. Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas. pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situación es mucho más rica en matices. 1993). Guba y Lincoln (1982) nos hablan de más de cuarenta modelos propuestos en estos años. 1992. 1982. de una época caracterizada por la pluralidad conceptual y metodológica. 5. Además de los ya citados de Stake y Metfessell y Michael. Desde los años setenta: La consolidación de la investigación evaluativa Si con algo se podría caracterizar las aportaciones teóricas que nos ofrecen los especialistas durante los años setenta es con la proliferación de toda clase de modelos evaluativos que inundan el mercado bibliográfico. 1994). 1987. en algún momento nos hemos atrevido a hablar de enfoques modélicos. Cronbach. sin embargo. más que de modelos. modelos de evaluación que expresan la propia óptica del autor que los propone sobre qué es y cómo debe conducirse un proceso evaluativo. Popham. como los diferentes modelos deben ser vistos. Algunos autores como Guba y Lincoln (1982). en función del tipo de trabajo y las circunstancias (Escudero. 1976. será la base para la consolidación en el terreno educativo de la evaluación de programas y de la investigación evaluativa. y Mateo (1986) se refiere a la eclosión de modelos.la evaluación de programas en el ámbito social. Es desde esta perspectiva.

Ejemplos notables de ellos son: probablemente el más famoso y utilizado de todos. La audiencia prioritaria son los propios participantes del programa.P. atendiendo a los tópicos ¿qué es la evaluación? ¿qué funciones tiene? ¿cuál es el objeto de evaluación?. La audiencia prioritaria de la evaluación en estos modelos no es quien debe tomar las decisiones. Una segunda época en la proliferación de modelos es la representada por los modelos alternativos. y la evaluación para la toma de decisiones sobre los individuos de otra. Es fácilmente comprensible que las exigencias que plantea la evaluación de programas de una parte. según las necesidades de las decisiones a las que sirven. Pero también es cierto que bajo esta diversidad subyacen diferentes concepciones teóricas y metodológicas sobre la evaluación.. la Evaluación Democrática de MacDonald (1976). ni el responsable de elaborar los currículos u objetivos. La aportación conceptual y metodológica de estos modelos es valorada positivamente entre la comunidad de evaluadores (Popham.S. este segundo grupo de modelos evaluativos enfatiza el papel de la audiencia de la evaluación y de la relación del evaluador con ella. puesto que en sus propuestas suponen diferentes tipos de evaluación. como en los modelos de consecución de metas. Guba y Lincoln. La relación entre el evaluador y la audiencia en palabras de Guba y Lincoln (1982) debe ser «transaccional y fenomenológica». Ello explica que cuando Nevo (1983 y 1989) pretende realizar una conceptualización de la evaluación. Se trata de modelos que propugnan una evaluación de tipo etnográfica.E. Pérez 1983). el C. directores. conducen a una gran variedad de esquemas evaluativos reales utilizados por profesores. En líneas generales. proceso y producto).instrucción diseñadas y la ejecución de las mismas en la realidad del aula. Diferentes concepciones que han dado lugar a una apertura y pluralidad conceptual en el ámbito de la evaluación en varios sentidos (Cabrera. Entre ellos destacan la Evaluación Responsable de Stake (1975 y 1976).I..P. a partir de la revisión de la literatura especializada. no encuentra una única respuesta a estas cuestiones. a la que se adhieren Guba y Lincoln (1982). A continuación destacamos los puntos mas sobresalientes de esta pluralidad conceptual. input. House. que con diferentes concepciones de la evaluación y de la metodología a seguir comienzan a aparecer en la segunda mitad de esta década de los setenta. como en los modelos orientados a la toma de decisiones. 1977. Guba y Lincoln. (contexto. a) Diferentes conceptos de evaluación. de aquí que la metodología que consideran más adecuada es la propia de la antropología social (Parlett y Hamilton. 1989). Estos autores van más allá de la evaluación centrada en resultados finales. 1982. 1980. 1986). propuesto por Stufflebeam y colaboradores (1971) y el C. Otros modelos consideran el proceso de evaluación al servicio de las instancias que deben tomar decisiones. Este resumen de modelos de la época de eclosión es suficiente para aproximarnos al amplio abanico conceptual teórico y metodológico que hoy se relaciona con la evaluación. la Evaluación Iluminativa de Parlett y Hamilton (1977) y la Evaluación como crítica artística de Eisner (1985). Por una parte existe la clásica definición dada por Tyler: la evaluación como el proceso de . 1982. (toma sus siglas del Centro de la Universidad de California para el Estudio de la Evaluación) dirigido por Alkin (1969). inspectores y administradores públicos.

De las definiciones apuntadas anteriormente se desprende que el criterio a utilizar para la valoración de la información también cambia. como el proceso de estimar el valor o el mérito de algo. las necesidades. una clara identificación del objeto de evaluación es una importante parte en cualquier diseño de evaluación. el concepto de evaluación de Scriven (1967). con objeto de señalar las diferencias que comportarían los juicios valorativos en caso de estimar el mérito (se vincularía a características intrínsecas de lo que se evalúa) o el valor (se vincularía al uso y aplicación que tendría para un contexto determinado). obtener y proporcionar información relevante para juzgar decisiones alternativas. MacDonald (1976) y Cronbach (1982). es retomado por Cronbach (1982). Guba y Lincoln (1982) refieren los términos de la comparación valorativa. 1975. cualquier cosa puede ser objeto de evaluación y ésta no debería limitarse a estudiantes y profesores y. 1982. Guba y Lincoln (1982). representan diferentes propuestas para conducir una evaluación. Stufflebeam y colaboradores. por otro. las características del objeto evaluado y. defendida por Alkin (1969). Guba y Lincoln. expectativas y valores del grupo a los que les afecta o con los que se relaciona el objeto evaluado. Parlett y Hamilton. d) Pluralidad de objetos de evaluación. 1980). abogan por que el criterio de valoración fundamental sean las necesidades contextuales en las que ésta se inserta. siendo el que toma las decisiones el responsable de su valoración. House. Además. una buena y operativa definición de los objetivos constituye el criterio fundamental. Por un lado. Alkin y MacDonald llegan a sugerir incluso la no valoración de la información por parte del evaluador. Las definiciones de evaluación que acentúan la determinación del «mérito» como objetivo de la evaluación. Desde la óptica de la consecución de metas. de un lado. 1977. b) Diferentes criterios. Así. . de otro. 1983) que acentúan el proceso de evaluación al servicio de determinar el «valor» más que el «mérito» de la entidad u objeto evaluado.determinar el grado de congruencia entre las realizaciones y los objetivos previamente establecidos. existen dos conclusiones importantes que se obtienen de la revisión de la bibliografía sobre la evaluación. Los modelos de evaluación citados y otros más que pueden encontrarse en la bibliografía. Se trata de modelos relacionados con la acreditación y el enjuiciamiento profesional (Popham. Como dice Nevo (1983 y 1989). a la que corresponden los modelos orientados hacia la consecución de metas. y House (1989). utilizan criterios estándares sobre los que los expertos o profesionales están de acuerdo. Desde la perspectiva de las decisiones y situados dentro de un contexto político. Los autores (Stake. Stufflebeam y otros (1971). c) Pluralidad de procesos evaluativos dependiendo de la percepción teórica que sobre la evaluación se mantenga. Contrasta esta definición con aquella más amplia que se propugna desde los modelos orientados a la toma de decisiones: la evaluación como el proceso de determinar.

Mateo y otros. Evaluation and Program Planning. Rutman. sino también afectivos (Anderson y Ball. que viene definida en gran medida por la diversidad metodológica. 1983. En este contexto. No obstante. sino a los efectos posibles de un programa educativo. recogiéndose la propuesta de Scriven entre evaluación formativa y sumativa. i) Pluralidad metodológica. Por último. El anterior resumen recoge las aportaciones a la evaluación en los años setenta y ochenta. Apertura también respecto a la recogida de información no sólo del producto final. Madaus y otros.. f) Pluralidad también reconocida de las funciones de la evaluación en el ámbito educativo. de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos.. pluralidad en los informes de evaluación. Y apertura en la consideración de diferentes resultados de corto y largo alcance. 1983. Las cuestiones metodológicas surgen desde la dimensión de la evaluación como investigación evaluativa. aparecen muchas nuevas revistas especializadas como Educational Evaluation and Policy Analysis. Studies in Evaluation. lo que ha venido a llamarse evaluación interna vs. pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores. una relación directa entre el evaluador y las diferentes audiencias de la evaluación es reconocida por la mayoría de los autores (Nevo.. sino también en planes de estudio para titulaciones de primer y segundo ciclos. g) Diferencias en el papel jugado por el evaluador. 1991. Incluso Scriven (1973 y 1974) propone una evaluación en la que no se tenga en cuenta los objetivos pretendidos. Guba y Lincoln (1989) ofrecen una alternativa evaluadora. informales. 1993). sea pretendido o no. una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista. evaluación externa. que denominan cuarta generación.e) Apertura. tales como una visión gestora de la evaluación. 1987. se profundizó en los planteamientos teóricos y prácticos y se consolidó la evaluación como investigación evaluativa en los términos antes definida. 6. apertura también en considerar no sólo resultados de tipo cognitivo. lógicamente. New Directions for Program Evaluation. La alternativa de Guba y Lincoln la denominan respondente y . en la que además de los innumerables modelos de los setenta. 1983). Weiss. sino también sobre el proceso educativo.. la época que se ha denominado época de la profesionalización (Stufflebeam y Skinkfield. tras todo este desarrollo antes descrito. por consiguiente. se fundan asociaciones científicas relacionadas con el desarrollo de la evaluación y las universidades empiezan a ofrecer cursos y programas de investigación evaluativa. hasta informes muy estructurados (Anderson y Ball. 1984). reconocida en general por todos los autores. 1983). no sólo en postgrados y programas de doctorado. Desde informes narrativos. sino valorar todos los efectos posibles. Evaluation News. 1983). 1993. Hernández. La cuarta generación según Guba y Lincoln A finales de los ochenta. y añadiéndose otras de tipo sociopolítico y administrativas (Nevo. h) Pluralidad de audiencia de la evaluación y. Evaluation Review.

3) Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta. c) Son potenciales usuarios de la información resultante de la evaluación.constructivista. según Guba y Lincoln. el evaluador es responsable de determinadas tareas. preocupaciones y asuntos de los implicados. 5) Preparar una agenda para la negociación acerca de temas no consensuados. 1997). b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación. 8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y . y la epistemología postmoderna del constructivismo (Russell y Willinsky. Partiendo de estas premisas. d) No se proporcionan medios para valoraciones caso por caso. e) Se produce una interacción positiva entre los distintos implicados. 7) Formar y hacer de mediador para un «forum» de implicados para la negociación. 6) Recoger y proporcionar la información necesaria para la negociación. Las demandas. porque: a) Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados. construyendo un proceso ordenado y sistemático de trabajo. 4) Generar el máximo acuerdo posible acerca de dichas construcciones. c) No se tienen en cuenta suficientemente los factores contextuales. b) Los resultados pueden ser utilizados en su contra en diferentes sentidos. típica del positivismo. demandas y preocupaciones. sobre todo si están al margen del proceso. que se lleva a cabo dentro de los planteamientos metodológicos del paradigma constructivista. preocupaciones y asuntos de los implicados es necesaria. las preocupaciones y los asuntos de los implicados o responsables (stakeholders) sirven como foco organizativo de la evaluación (como base para determinar qué información se necesita). e) La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social. demandas y preocupaciones. d) Pueden ampliar y mejorar el rango de la evaluación. 2) Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto. La utilización de las demandas. comprender y criticar las diferentes construcciones. El cambio paradigmático lo justifican estos autores porque: a) La metodología convencional no contempla la necesidad de identificar las demandas. de manera que se sientan protegidos ante tal riesgo. integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975). Las responsabilidades básicas del evaluador de la cuarta generación son las siguientes: 1) Identificar todos los implicados con riesgo en la evaluación. que realizará secuencialmente o en paralelo.

1967. 9) Reciclar la evaluación siempre que queden asuntos pendientes de resolución. 7) . con diferentes subfases en cada una de estas. • Identificación de audiencias. 5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. Preparación de la agenda para la negociación. • Propósito de la evaluación (Guba y Lincoln.de los de otros grupos (Stake. 1982). preocupaciones y asuntos resueltos. 1985). La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicación de la naturaleza y características del paradigma constructivista en contraposición con las del positivista. 1985). • Literatura profesional. 8) 9) Recogida de información. • Agentes. Glaser. 6) Clasificación de las demandas. • Garantía de acceso a registros y documentos. • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. • Acuerdo con el cliente por el tipo de evaluación. • Victimas. 4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss. • Breve descripción de la metodología a usar. • Construcción ética del evaluador. Estos pasos son los siguientes: 1) Establecimiento de un contrato con un patrocinador o cliente. 1987). Establecimiento de prioridades en los temas no resueltos. • Consecución de facilidades y acceso a la información (Lincoln y Guba. 2) Organización para reciclar la investigación. Zeller. • Observación. • Identificación del cliente o patrocinador de la evaluación. 1986. Cuando se habla de los pasos o fases de la evaluación en esta cuarta generación. 1982). • Círculos de otras audiencias. • Descripción del tipo de informe a elaborar. 3) Identificación de las audiencias (Guba y Lincoln. • Documentos y registros. • Listado de especificaciones técnicas. • Beneficiarios. Lincoln y Guba. • Selección y entrenamiento del equipo evaluador. 1978. • Identificación del objeto de la evaluación. sus proponentes citan doce pasos o fases.

En el caso de la cuarta generación los criterios que se ofrecen son los de credibilidad. c) el contraste con colegas. Este análisis de la cuarta generación de podemos terminarlo con los rasgos con los que definen Guba y Lincoln a la evaluación: a) La evaluación es un proceso sociopolítico. también de base constructivista. d) autenticidad catalítica y e) autenticidad táctica (Lincoln y Guba. e) la subjetividad progresiva y f) el control de los miembros. La transferencia puede verse como paralela a la validez externa. En esta evaluación. c) autenticidad educativa. de forma que la idea de isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas a ellas. fiabilidad y objetividad. Otra manera de juzgar la calidad de la evaluación es el análisis dentro del propio proceso. d) La evaluación es un proceso continuo. Los criterios paralelos. Pero estos dos tipos de criterios. f) La evaluación es un proceso con resultados impredecibles. Sin embargo. algo que encaja con el paradigma hermenéutico. 1986). 12)Reciclado/revisión. entre las que destacan las siguientes: a) el compromiso prolongado. Estos criterios incluyen los siguientes: a) imparcialidad. Licoln y Guba. 1981). 1987. se denominan así porque intentan ser paralelos a los criterios de rigor utilizados muchos años dentro del paradigma convencional. Para juzgar la calidad de la evaluación. 1986). 1988).10)Desarrollo de la negociación. los criterios deban ser acordes con el paradigma fundamentador (Morgan. que defienden con más ahínco los criterios que denominan de autenticidad. b) La evaluación es un proceso conjunto de colaboración. recursivo y altamente divergente. la dependencia es paralela al criterio de fiabilidad y la confirmación puede verse como paralela a la objetividad. 11)Informes (Zeller. justicia. pero estas deben ampliarse con destrezas para recoger e interpretar datos cualitativos . d) el análisis de casos negativos (Kidder. aunque útiles. Para conseguir esto existen varias técnicas. e) La evaluación es un proceso emergente. El criterio de credibilidad es paralelo al de validez interna. se retienen las características del evaluador fruto de las tres primeras generaciones. de confianza. b) autenticidad ontológica. Estos criterios han sido validez interna y externa. se nos ofrecen tres enfoques que se denominan paralelo. no son del todo satisfactorios para Guba y Lincoln. b) la observación persistente. c) la evaluación es un proceso de enseñanza/aprendizaje. la de técnico. a través de un proceso dialéctico. dependencia y confirmación (Lincoln y Guba. g) La evaluación es un proceso que crea realidad. esto es. la de analista y la de juez. el ligado al proceso hermenéutico y el de autenticidad. transferencia. 1983).

Stufflebeam (1994) nos . ética y justa con los implicados.(Patton. con la de historiador e iluminador. 2000 y 2001). El nuevo impulso alrededor de Stufflebeam Para terminar este recorrido analítico-histórico desde los primeros intentos de medición educativa hasta la actual investigación evaluativa en educación. así como un papel más activo como evaluador en un contexto socio-político concreto. esto es. por otra parte. y d) segura y precisa a la hora de ofrecer información y juicios sobre el objeto de la evaluación. proporcionar información a tiempo e influir. Stufflebeam invoca a la responsabilidad del evaluador. emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. Sin embargo. desde 1975 a 1988 presidente del «Joint Committee on Standars for Educational Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher Evaluation). que debe actuar de acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad. estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas. 1994). esto es. centro auspiciado y financiado por el Departamento de Educación del gobierno americano. sino que completamos en buena medida la visión del panorama actual. la implicación de todos desde el principio del proceso y. 1998. 1980). tras analizar la cuarta generación de Guba y Lincoln. Se parte de los cuatro principios del Joint Committee (1981 y 1988). incrementando la probabilidad de que la evaluación sirva para mejorar la enseñanza escolar. es también su deber. 7. queremos recoger las recomendaciones que más recientemente nos viene ofreciendo una de las figuras señeras de este campo en la segunda mitad del siglo XX. legítima. esto es. además de la suya. el desarrollo de aproximaciones más pragmáticas de la conceptualización de Guba y Lincoln. 1999. adecuada. la evaluación se ve como una «transdisciplina». con la de mediador de juicios. de la idea de que cualquier buen trabajo de investigación evaluativa debe ser: a) útil. debe suponer un esfuerzo razonable y debe ser políticamente viable. 1994. Esto requiere por parte del profesorado el reconocimiento de otras posiciones. Además. adaptadas a las distintas realidades escolares. Stufflebeam. proponente del modelo CIPP (el más utilizado) a finales de los sesenta. Para evaluar la educación en una sociedad moderna. pues es aplicable a muchas disciplinas diferentes y a muchos objetos diversos (Scriven. b) factible. c) apropiada. en las que se han ido integrando ideas de diversos evaluadores también notables. Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta generación para desarrollar formulaciones alternativas de práctica evaluadora entre los implicados. no sólo ofrecemos una de las últimas aportaciones a la actual concepción de la investigación evaluativa en educación. Nos estamos refiriendo a Daniel L. Recogiendo estas recomendaciones (Stufflebeam. y su derecho. esto es. rico y plural.

la adecuación y viabilidad de las normas legales. etc. el desarrollo de aspiraciones y la cobertura para todos los sectores de la comunidad (Kellagan. responsabilidades y obligaciones profesionales o institucionales. la consecución de metas. Scriven (1998) nos señala que usando otras denominaciones habituales. Es necesario preguntarse si la educación que se proporciona cubre las necesidades de los estudiantes y de sus familias en todos los terrenos a la vista de los derechos básicos. 1982). 1991a). legitimidad y precisión (Joint Committee. • La equidad. Quizás uno de los retos que deben abordar los sistemas educativos es la definición más clara y precisa de estos deberes y responsabilidades. 1981 y 1988). calidad respecto a criterios generales) como por su valor (valor extrínseco. 4) La evaluación de profesores. 3) Las entidades educativas deben ser valoradas tanto por su mérito (valor intrínseco. calidad y servicio para un contexto particular) (Guba y Lincoln. . valor con el de relación coste-eficacia y significación con el de importancia. programas. instituciones educativas. 5) Los estudios evaluativos deben ser capaces de valorar hasta qué medida los profesores y las instituciones educativas son responsables y rinden cuentas del cumplimiento de sus deberes y obligaciones profesionales (Scriven. en este caso. mérito tiene bastante equivalencia con el término calidad. Hay que preguntarse si el sistema es justo y equitativo a la hora de proporcionar servicios educativos. equidad. factibilidad. el acceso a los mismos. etc. • La excelencia como objetivo permanente de búsqueda. a partir del análisis de las prácticas pasadas y presentes es uno de los fundamentos de la investigación evaluativa.dice que se deben tomar algunos criterios básicos de referencia como los siguientes: • Las necesidades educativas. 1982. 1994). Estas recomendaciones son las siguientes: 1) Los planes de evaluación deben satisfacer los cuatro requerimientos de utilidad. 1985). los tres conceptos son dependientes del contexto. 1991). como por su significación en la realidad del contexto en el que se ubica. En todo caso. • La factibilidad. incluso en el terreno formativo (Scriven. La mejora de la calidad. Stufflebeam sumariza una serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y mejorar el sistema educativo. la evaluación es problemática. Scriven. 2) Las entidades educativas deben examinarse por su integración y servicio a los principios de la sociedad democrática. el compromiso y participación de los implicados y todo lo que hace que el esfuerzo educativo produzca el máximo de frutos posibles. debe relacionarse siempre con el conjunto de sus deberes. etc. Tomando el referente de estos criterios y sus derivaciones. bienestar. Hay que cuestionar la eficiencia en la utilización y distribución de recursos. Sin ello. dentro de una sociedad democrática (Nowakowski y otros. sobre todo significación. de manera que entender la diferencia entre dependencia del contexto y arbitrariedad es parte de la comprensión de la lógica de la evaluación.

1988. 1998).) debe emplearse de manera prospectiva. para localizar bien las metas y objetivos y definir prioridades. 1999). así como en la promoción de la aceptación y el uso de sus resultados (Chelimsky. Asimismo. 8) Se debe promover la autoevaluación profesional. la evaluación del contexto debe utilizarse retrospectivamente. 1994). 1991) 9) La evaluación del contexto (necesidades. para asegurar el uso de un rango adecuado de enfoques según las necesidades y los planes. para promover la autonomía de los mismos en la resolución de sus problemas. los estudios evaluativos deben conceptualizarse y utilizarse sistemáticamente como parte del proceso de mejora educativa a largo plazo (Alkin y otros. Weiss (1998) nos alerta de que la evaluación participativa incrementa la probabilidad de que se utilicen los resultados de la evaluación. y métodos tanto cuantitativos como cualitativos para recoger y analizar la información. pero también de manera retrospectiva para juzgar hasta qué punto la calidad del proceso determina el por qué los resultados son de un nivel u otro (Stufflebean y Shinkfield. Generalmente su interés es el cambio de cosas pequeñas. problemas en un área. 1991) 10) La evaluación de las entradas (inputs) debe emplearse de manera prospectiva. 1979. todo estudio evaluativo debe tener un componente formativo y otro sumativo. pero también la de que sea conservadora en su concepción. 13) Los estudios evaluativos se deben apoyar en la comunicación y en la inclusión sustantiva y funcional de los implicados (stakeholders) con las cuestiones claves. proporcionando a los educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella (Madaus y otros. en relación con las necesidades de los estudiantes (Madaus y otros. Se necesita una valoración prospectiva de los resultados para orientar el proceso y detectar zonas de necesidades. La evaluación para el desarrollo (empowerment evaluation). 1991. Scriven. oportunidades. Se necesita una evaluación retrospectiva del producto para poder juzgar en conjunto el mérito y el valor del objeto evaluado (Scriven. de participación de los implicados en el programa evaluado. Webster y otros. Keefe. 11) La evaluación del proceso debe usarse de manera prospectiva para mejorar el plan de trabajo.. 7) Recogiendo los puntos anteriores. que defiende Fetterman (1994). 1991. 1991.. 1987). pues es difícil pensar que los responsables de una organización pongan en cuestión el fundamento y el sistema de poder de la misma. criterios. Webster y Edwards. Joint Committee.. porque no basta con emitir un juicio sobre el mérito o el valor de algo. 14) Los estudios evaluativos deben emplear múltiples perspectivas. 1993. La pluralidad y . Más aún. 12) La evaluación del producto es el medio para identificar los resultados buscados y no buscados en los participantes o afectados por el objeto evaluado. múltiples medidas de resultados. de base democrática.6) Los estudios evaluativos deben proporcionar direcciones para la mejora. 1994) y de fundamento para la acción contra las discriminaciones sociales (Mertens. para juzgar bien el valor de los servicios y resultados educativos. es un procedimiento. Stronge y Helm. hallazgos e implicaciones de la evaluación.

complejidad del fenómeno educativo hace necesario emplear enfoques múltiples y multidimensionales en los estudios evaluativos (Scriven, 1991) 15) Los estudios evaluativos deben ser evaluados, incluyendo metaevaluaciones formativas para mejorar su calidad y su uso y metaevaluaciones sumativas para ayudar a los usuarios en la interpretación de sus hallazgos y proporcionar sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988; Madaus y otros, 1991; Scriven, 1991; Stufflebeam, 2001). Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la teoría ética de que la bondad moral es objetiva e independiente de los sentimientos personales o meramente humanos. Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en análisis comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos resulta evidente que las concepciones de la investigación evaluativa son diversas, dependiendo del origen epistemológico desde el que se parte, pero apareciendo claros y contundentes algunos elementos comunes a todas las perspectivas como la contextualización, el servicio a la sociedad, la diversidad metodológica, la atención, respeto y participación de los implicados, etc., así como una mayor profesionalización de los evaluadores y una mayor institucionalización de los estudios (Worthen y Sanders, 1991). El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint Committee on Standards for Educational Evaluation con las posiciones de la corriente evaluadora denominada postmodernista, representada, además de por Guba y Lincoln, por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que existan razones para actitudes de escepticismo y frustración con las prácticas evaluadoras actuales, porque existen muchos ámbitos de aproximación y el desarrollo de estándares de evaluación es perfectamente compatible con la atención a los diversos implicados, valores, contextos sociales y métodos. Stufflebeam defiende una mayor colaboración en la mejora de las evaluaciones, estableciendo los estándares de manera participativa, pues cree que es posible la aproximación de planteamientos, con contribuciones importantes desde todos los puntos de vista. Weiss (1998) también toma posiciones parecidas cuando nos dice que las ideas constructivistas deben hacernos pensar más cuidadosamente al usar los resultados de las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya que interpretarlo en términos exclusivamente individuales, pues existen muchos elementos comunes entre las personas, los programas y las instituciones. 8. Para concluir: síntesis de enfoques modélicos y metodológicos de la evaluación y la última perspectiva de Scriven Tras este análisis del desarrollo de la evaluación a lo largo del Siglo XX, parece oportuno, a modo de síntesis y de conclusión, recoger y resaltar los que son considerados los principales modelos, planteamientos metodológicos, diseños, perspectivas y visiones de la evaluación en la actualidad. Su análisis, de manera compacta, es un complemento necesario para una visión como la histórica

que, por su linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada. Hemos visto que en la década de los setenta y en sus alrededores se produce una especie de eclosión de propuestas evaluativas, que tradicionalmente han venido siendo denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseños (Arnal y otros, 1992) de investigación evaluativa. Sabemos que existieron varias decenas de estas propuestas, pero muy concentradas en el tiempo, en la década citada. De hecho, el asunto de los propuestos modelos para la evaluación parece un tema prácticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o propuestas, salvo alguna excepción como vemos más adelante. A pesar de lo dicho, se sigue hablando de modelos, métodos y diseños en la literatura especializada, sobre todo buscando su clasificación de acuerdo con diversos criterios, origen paradigmático, propósito, metodología, etc. También en las clasificaciones, no sólo en los modelos, existe diversidad, lo que prueba que, además de dinamismo académico en el terreno de la investigación evaluativa, todavía existe cierta debilidad teórica al respecto. Nosotros ya hemos señalado con anterioridad (Escudero, 1993), que coincidimos con Nevo (1983 y 1989) en la apreciación de que muchos de los acercamientos a la conceptualización de la evaluación (por ejemplo, el modelo respondiente, el libre de metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que debería acarrear el citado concepto. Lo que un texto clásico en evaluación (Worthen y Sanders, 1973) denomina como «modelos contemporáneos de evaluación» (a los conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio Stake (1981) dice que sería mejor denominarlo como «persuasiones» mientras que House (1983) se refiere a «metáforas». Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse a concepción, enfoque o incluso método de evaluación. De Miguel (1989), por su parte, piensa que muchos de los llamados modelos solamente son descripciones de procesos o aproximaciones a programas de evaluación. DarlingHammond y otros (1989) utilizan el término «modelo» por costumbre, pero indican que no lo hacen en el sentido preciso que tiene el término en las ciencias sociales, esto es, apoyándose en una estructura de supuestos interrelacionales fundamentada teóricamente. Finalmente diremos que el propio autor del modelo CIPP, solamente utiliza esta denominación de manera sistemática para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando los términos de enfoque, método, etc., al referirse a los otros. Para nosotros, quizás sea el término enfoque evaluativo el más apropiado, aunque aceptemos seguir hablando de modelos y diseños por simple tradición académica. Nuestra idea es que a la hora de plantearnos una investigación evaluativa, no contamos todavía con unos pocos modelos bien fundamentados, definidos, estructurados y completos, entre los que elegir uno de ellos, pero sí tenemos distintos enfoques modélicos y un amplio soporte teórico y empírico, que permiten al evaluador ir respondiendo de manera bastante adecuada a las distintas cuestiones que le va planteando el proceso de investigación, ayudándole a configurar un plan global, un organigrama coherente, un «modelo»

científicamente robusto para llevar a cabo su evaluación (Escudero, 1993). ¿Cuáles son las cuestiones que hay que responder en este proceso de construcción modélica? Apoyándonos en las aportaciones de diferentes autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990), deben responderse y delimitar su respuesta al construir un modelo de investigación evaluativa, los aspectos siguientes: Objeto de la investigación evaluativa. 2) Propósito, objetivos. 3) Audiencias/implicados/clientela. 4) Énfasis/aspectos prioritarios o preferentes. 5) Criterios de mérito o valor. 6) Información a recoger. 7) Métodos de recogida de información. 8) Métodos de análisis. 9) Agentes del proceso. 10) Secuenciación del proceso. 11) Informes/utilización de resultados. 12) Límites de la evaluación. 13) Evaluación de la propia investigación evaluativa / metaevaluación. Para definir estos elementos hay que buscar, lógicamente, el apoyo de los diferentes enfoques modélicos, métodos, procedimientos, etc., que la investigación evaluativa ha desarrollado, sobre todo en las últimas décadas. Volviendo a los denominados modelos de los setenta y a sus clasificaciones, podemos recoger algunas de las aparecidas en la última década en nuestro entorno académico, apoyándose en distintos autores. Así, por ejemplo, Arnal y otros (1992) ofrecen una clasificación de lo que denominan diseños de la investigación evaluativa, revisando las de diversos autores (Patton, 1980; Guba y Lincoln, 1982; Pérez, 1983; Stufflebeam y Shinkfield, 1987). Esta clasificación es la siguiente : 1)

Tabla 1- Tipos de diseños de investigación educativa
Perspectiva Patton (1980) Objetivos Empírico-analítica Análisis sistemas Guba y Lincoln (1982) Objetivos Pérez (1983) Objetivos Análisis sistemas Método científico CIPP Susceptibles de complementarieda d Crítica artística Adversario UTOS UTOS Cronbach (1982) CIPP Crítica artística CIPP Crítica artística Stufflebeam y Shinkfield (1987) Objetivos Autores creadores Tyler (1950) Rivlin (1971) Rossi y otros (1979) Suchman (1967) Stufflebeam (1966) Eisner (1971) Contrapuesto Wolf (1974)

Humanísticointerpretativa Respondente Respondente Respondente Respondente Stake (1975 Parlett y Iluminativo Iluminativo Iluminativo Hamilton (1977) Sin metas Sin metas Democrático Sin metas Scriven (1967) MacDonald (1976) Por su parte. Castillo y Gento (1995) ofrecen una clasificación de «métodos de evaluación» dentro de cada uno de los modelos (paradigmas). Una síntesis de estas clasificaciones es la siguiente: Tabla 2. resultados Centrados en logros de necesidades U (unidades de evaluación) T (tratamiento) O (operaciones) Técnico externo Técnico externo Técnico externo Técnico externo Tabla 3. Wolf (1974) Finalidad evaluativa Análisis de necesidades del cliente Opiniones para decisión consensuada Paradigma dominante Mixto Contenido de evaluación Todos los efectos del programa Rol del evaluador Evaluador externo de necesidades del cliente Cualquier aspecto Árbitro externo del programa del debate Mixto . que ellos denominan conductivista-eficientistas. transacciones.Modelo conductista-eficientista Método/ autor Consecución objetivos Tyler (1940) CIPP Stufflebeam (1967) Figura (countenance) Stake (1967) CSE Alkin (1969) Planificación educativa Cronbach (1982) Finalidad evaluativa Medición logro objetivos Información para toma decisiones Valoración resultados y proceso Información para determinación de decisiones Valoración proceso y producto Paradigma dominante Cuantitativo Contenido de evaluación Resultados Rol del evaluador Técnico externo Mixto Mixto Mixto Mixto C (contexto) I (input) P (proceso) P (producto) Antecedentes.Modelo humanístico Método/ autor Atención al cliente Scriven (1973) Contraposición Owens (1973). humanísticos y holísticos (mixtos).

A diferencia de Tyler. habitualmente el objetivo perseguido. aunque no la hiciera explícita. Este autor identifica seis visiones o enfoques alternativos en la fase «explosiva» de los modelos. es el criterio de evaluación. Según el planteamiento tyleriano. por Ralph Tyler y extensamente elaborada en el modelo CIPP (Stufflebeam y otros. las decisiones acerca de un programa deben basarse en el grado de coincidencia entre los objetivos y los resultados. Esta posición es mantenida. cuestionándose si tales objetivos cubren las necesidades que deben cubrir. El cambio de los alumnos. Stufflebeam ofrece una perspectiva más amplia de los . La visión fuerte hacia la toma de decisiones (Visión A) concibe al evaluador investigando con el objetivo de llegar a conclusiones evaluativas que le ayuden al que debe tomar decisiones. pero van más allá. además de algunas más que denomina «exóticas» y que se mueven entre los modelos de jurisprudencia y de experto. A continuación comentamos sucintamente estas visiones y los «modelos» que se adscriben a ellas.Crítica artística Eisner (1981) Interpretación crítica de la acción educativa Cualitativo • • • • Contexto Procesos emergentes Relaciones de procesos Impacto en contexto Provocador externo de interpretaciones Tabla 4. previamente a introducir su perspectiva transdisciplinar que luego comentamos. Los que apoyan este enfoque se preocupan de si el programa alcanza sus objetivos.Modelo holístico Método/ autor Evaluación respondente Stake (1976) Finalidad evaluativa Valoración de respuesta a necesidades de participantes Interpretación educativa para mejorarla Paradigma domiContenido de nante evaluación Cualitativo Resultado de debate total sobre programa Rol del evaluador Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Evaluación holística MacDonald (1976) Evaluación iluminativa Parlett y Hamilton (1977) Cualitativo Elementos que configuran la acción educativa Iluminación y comprensión de los componentes del programa Cualitativo Sistema de enseñanza y medio de aprendizaje También Scriven (1994) ofrece una clasificación de los «modelos anteriores». 1971).

El representante teórico más genuino es Marv Alkin (1969). uno de los textos más utilizados de evaluación en el ámbito de las ciencias sociales (Rossi y Freeman. Esta posición es lógicamente popular entre los que piensan que la verdadera ciencia no debe o no puede entrar en cuestiones de juicios de valor. La visión de la descripción fértil. uno de sus colaboradores en tal empresa. termina definiendo un Sistema de Información para la Gestión (Management Information System-MIS) para uso del que toma decisiones. De hecho. Este modelo es muy cercano al control de programas en sentido convencional. pero no ofrece valoraciones al respecto Pero la forma más simple de la visión relativista (Visión C) es la desarrollada en el «modelo de discrepancia» de evaluación de Malcolm Provus (1971). Esta visión y la anterior han sido el camino que ha permitido integrarse sin problemas en el «carro» de la investigación evaluativa a muchos científicos sociales. sin un juicio por parte del evaluador acerca de esos valores o alguna referencia a otros. Estos son las cuatro dimensiones que identifican su modelo. tomó posteriormente una dirección diferente. 1993). la educación comparada y la administración educativa. los que participan de la visión A proceden de un paradigma diferente. Sin embargo. Guba. probablemente debido a su conexión académica con la historia. pero es éste el que tiene que tomar las conclusiones evaluativas. contexto (C) donde tiene lugar el programa o está la institución. se deja constancia de que el objetivo primordial de la investigación evaluativa es la mejora. La visión relativista (Visión C) también mantiene la distancia de las conclusiones evaluativas. planificación del programa. Scriven (1994) nos dice que Stufflebeam ha seguido desarrollando su perspectiva desde que desarrolló el CIPP. valor o valía. planteando las siguientes fases: valoración de las necesidades y fijación del problema. la filosofía de la educación. que define a la evaluación como un proceso factual de recogida y generación de información al servicio del que toma las decisiones. la toma de decisiones para la mejora de todas y cada una de las cuatro dimensiones antes citadas. toma preferentemente esta perspectiva . pero no le obliga a emitir conclusiones evaluativas o críticas a los objetivos de los programas. rica. completa (Visión D) es la que entiende la evaluación como una tarea etnográfica o periodística. El modelo de Alkin se conoce como CES (Centro para el Estudio de la Evaluación). Las visiones B y C son las posiciones de los científicos entroncados con una concepción libre de valores de la ciencia. inputs (I) elementos y recursos de partida. tal como hemos visto al analizar la cuarta generación de la evaluación (Guba y Lincoln. Las discrepancias son las divergencias con la secuencia de tareas proyectadas y la temporalización prevista. es una especie de simulación de una evaluación. en la que el evaluador . evaluación de la instrumentalización. En cambio. evaluación de progresos y evaluación de resultados. Hace unos años Alkin (1991) revisó sus planteamientos de dos décadas atrás. proceso (P) que hay que seguir hacia la meta y producto (P) que se obtiene. pero siguió sin incluir los términos de mérito. pero usando el marco de valores de los clientes. Además. La visión débil hacia la toma de decisiones (Visión B) concibe al evaluador proporcionando información relevante para la toma de decisiones.contenidos a evaluar. 1989).

que exige un método pluralista. 9) Desarrollo de temas. transacciones y resultados. que parece más evaluativa. responsables y audiencias. Estas fases son las siguientes: 1) Hablar con los clientes. 8) Antecedentes. elaborando dos matrices de datos. el sentido de las agujas del reloj.informa de lo que ve sin intentar emitir afirmaciones valorativas o inferir conclusiones evaluativas. En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos de vista y buscar la confluencia de las diversas perspectivas. flexible. para evitar el término rica. asumiendo que los objetivos del programa pueden modificarse sobre la marcha. Sus posiciones quedaban claramente establecidas en noventa y cinco tesis que han tenido una enorme difusión entre los evaluadores y los usuarios de la evaluación. antecedentes. transacciones y resultados. 11) Esquema para la audiencia y 12) Reunión de informes formales. 4) Propósitos e intereses. proponiendo el método de evaluación de la figura (Stake. Se centra en la observación. Según Stufflebeam y Shinkfield (1987). A mitad de los setenta. 1990) y presentar una amplia gama de opiniones o juicios. en su primera etapa. más que en la inferencia. en la segunda. En la primera se recogen de un lado las intenciones y de otro las observaciones y. 1967). como rostro o imagen total de la evaluación. dirigido por Lee J. valorando sus necesidades y expectativas. es tayleriano en cuanto a concepción evaluativa centrada en los objetivos planteados. Stake. tiene algo de sabor relativista y a veces parece precursora de la visión de la cuarta generación. con la finalidad de ofrecer una visión completa y holística del programa y responder a los problemas y cuestiones reales que plantean los implicados. poniendo la primera en las doce horas y siguiendo las siguientes fases. 5) Cuestiones y problemas. . ni siquiera en el marco de los valores del cliente como en la visión relativista. resta importancia a la orientación sumativa de la evaluación (decisiones externas sobre los programas y rendición de cuentas). enfatizando la comprensión. Stake (1975a) propone las fases del método a modo de las horas de un reloj. 7) Observadores. holístico. lo que se aprueba y los juicios. jueces e instrumentos. La visión del proceso social (Visión E) que cristalizó hace algo más de dos décadas alrededor de un grupo de la Universidad de Stanford. este modelo hizo de Stake el líder de una nueva escuela de evaluación. Este modelo sugiere la «atención al cliente» propuesta por Scriven (1973). descripciones y estudio de casos. subjetivo y orientado al servicio. 10) Validación (confirmación). Se trata de una especie de versión naturalista de la visión B. una de descripción y otra de juicio. en lugar de presentar sus conclusiones personales. Cronbach (1980). 2) Alcance del programa. la planificación y la mejora de los programas sociales a los que sirve. Recientemente se le ha denominado como visión de la descripción sólida. El evaluador puede seguir las fases también en sentido contrario del reloj o en cualquier otro orden. en lo observable. El evaluador deberá interpretar las opiniones y diferencias de puntos de vista (Stecher y Davis. Esta gira en torno a los tres componentes. interactivo. Stake se aleja de la tradición tayleriana de preocupación por los objetivos y revisa su método de evaluación hacia un planteamiento que él califica como «respondente» (Stake. fuerte. 3) Panorama de actividades. las normas. 6) Datos para investigar los problemas. lo que se cree que debe ser. 1975 y 1975a). De manera gráfica. Esta visión ha sido defendida por Robert Stake y muchos de los teóricos británicos.

Ernie House (1989). • Tratamiento (T) de la evaluación. partidarios y adversarios. y favorece la idea de que ello es el resultado de la construcción por individuos y la negociación de grupos. en alguna variación o adaptación del mismo. discutible y no objetivo.En cuanto a los contenidos de la evaluación. al menos. De esta revisión de Scriven quedan al margen algunas posiciones evaluativas tradicionalmente recogidas y tratadas por los analistas. 1975 y 1981) plantea la evaluación en términos similares al proceso de crítica artística. etc. se suele denominar a su enfoque como evaluación sin metas. Por ello. siendo mantenida por Guba y Lincoln (1989) y seguida por muchos evaluadores americanos y británicos. . también denominada holística. incluido el suyo. puesto que frecuentemente los logros no previstos son más importantes que los que figuran en la planificación del programa. quizás motivado por la ausencia de estas facetas en los planteamientos de Cronbach y sus colaboradores. • Operaciones (O) que lleva a cabo el evaluador para la recogida y análisis de datos. 1991). Scriven apunta que el propio Guba ha sido siempre consciente de las potenciales «autocontradicciones» de su posición. mérito. en definitiva varios (uto).. La evaluación iluminativa (Parlett y Hamilton. que el conocimiento científico de todo tipo es sospechoso. Eisner (1971. • Contexto en el que tiene lugar el programa y su evaluación. varios tratamientos y varias operaciones. un teórico y un práctico de la evaluación bastante independiente de corrientes en boga. descriptivo e interpretativo. En una investigación evaluativa concreta se pueden dar varias unidades. Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos: • Unidades (U) que son sometidas a evaluación. 1980). Ya hemos visto anteriormente que esta visión rechaza una evaluación orientada a la búsqueda de calidad. Así por ejemplo. Owens (1973) y Wolf (1974 y 1975) proponen un método de contraposición o discusión que sobre un programa llevan a cabo dos grupos de evaluadores. con la pretensión de iluminar sobre un complejo rango de cuestiones que se dan de manera interactiva (Fernández. para proporcionar información pertinente a quienes toman decisiones. pero se distinguía sobre todo por su énfasis de las dimensiones más éticas y argumentales de la evaluación. El propio Scriven (1967 y 1973) proponía hace años centrar la evaluación en la atención al cliente y no tanto en las metas previstas. La evaluación democrática de MacDonald (1971 y 1976). según Scriven. La visión constructivista de la cuarta generación (Visión F) es la última de estas seis visiones que describe Scriven (1994). Lo mismo le ocurre a todo trabajo análitico como el análisis filosófico. se trata algo así como de un intermediario informativo (Scriven. El evaluador determina el valor o mérito del programa para informar a los usuarios. así como para la elaboración de conclusiones. también marcó el entronque social de los programas. 1977) tiene un enfoque holístico. supone la participación colaborativa de los implicados. individuos o grupos participantes. Esto significa. valor. dentro de un universo UTO de situaciones admisibles. Schuman (1967) ofrece un diseño evaluativo basado en el método científico o.

instituciones y otros muchos más objetos. Esta posición no sólo ve legitimidad en la emisión de conclusiones evaluativas por parte del investigador. la visión fuerte sobre la toma de decisiones. haciéndolo lo mejor posible. En segundo lugar. los rendimientos. esta visión generalizada significa que: a) Los campos distintivos de aplicación de la disciplina son los programas. también se produce información valiosa para el gestor que decide y se pueden analizar los productos de un programa o institución a la vista de sus objetivos. se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation Thesaurus. representada fundamentalmente por el modelo CIPP de Stufflebeam y sus planteamientos. pues dice que es la más cercana de todas a la visión del sentido común. No se trata de una orientación exclusiva hacia el consumidor. d) Los distintos campos de la investigación evaluativa tienen muchos b) c) . En la perspectiva transdisciplinar. la investigación evaluativa es una disciplina que incluye sus propios contenidos y los de otras muchas disciplinas. En definitiva. Las investigaciones evaluativas se mueven desde niveles muy prácticos hasta el nivel conceptual. En tal sentido. es transdisciplinar. la investigación evaluativa tiene dos componentes: el conjunto de campos de aplicación de la evaluación y el contenido de la propia disciplina. Así mismo. del personal o de los productos investigados. y la metaevaluación de todo ello. de la misma manera que los médicos trabajan con los pacientes. que es la que tienen los evaluadores trabajando con sus programas. su preocupación por el análisis y mejora se extiende a muchas disciplinas. A partir de aquí. se debe establecer de manera explícita y defender la lógica utilizada en la inferencia de conclusiones evaluativas a partir de las premisas definicionales y factuales. sino que ve necesidad de hacerlo en la gran mayoría de las ocasiones. y que el bien común es la primacía de la evaluación. De manera más detallada.siendo el contraste de opiniones de los implicados el elemento evaluativo primordial. Algo parecido a lo que ocurre a disciplinas como la estadística y la medición. Scriven (1994) analiza las seis visiones críticamente y se muestra más cercano a la visión A. independientemente del tipo y del estado general del paciente. 1991). Se trata también de una visión generalizada. Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prácticas que resultan de ellas. no justamente una visión general. pero sí la consideración primera del consumidor como justificación del programa. más que hacia el gestor o intermediario. la gestión. la investigación evaluativa es mucho más que la evaluación de programas e incide en procesos. los productos. Scriven quiere extender esta visión con una visión o modelo que denomina transdisciplinar y que él califica como significativamente distinta de la aludida visión A y radicalmente diferente de las restantes. el personal. los proyectos. Esta visión es objetivista como la A y defiende que el evaluador determine el mérito o el valor del programa. Desde esta perspectiva. la perspectia transdisciplinar se orienta hacia el consumidor. que incluye la generalización de conceptos en el ámbito del conocimiento y la práctica.

Baltimore: The Hopkins University Press. Principles of Tests Measurement. Barcelona: Paidos. (1993). S. las consecuencias. En M. Anderson.. B. etc. (1983). Evaluating Pupil Growth. consideramos desde una posición pragmática. (1969). una muy importante. coincide en gran medida con los planteamientos que de la misma hemos defendido en otros momentos (Escudero. Barcelona: Labor Atkin. 2. donde existen distintos tipos y distintas audiencias y. 2-7. tiene su propia metodología. La evaluación en los procesos de formación. M. M. Ma. M. Educational evaluation methodology: The state of the art. San Francisco. A. S. son los usuarios en el sentido de Scriven.. Sin embargo. Investigación educativa.. 339-358. Boston. 35. y Phillips (Eds.91-112). (1991). Berk. Una crítica que podría hacerse a este planteamiento de Scriven está en el excesivo énfasis relativo de la orientación al cliente. Review of Educational Research. (1968). 1996). Referencias bibliográficas Ahman. aportan algo útil para la comprensión conceptual y el desarrollo de la investigación evaluativa. (Ed. y Latorre. que todas las visiones tienen puntos fuertes y que en todo caso. 27-30. D. Chicago: NSSE/ University of Chicago . (1992). R. Fundamentos y Metodología. además. J. Del Rincon. Esta perspectiva transdisciplinar de la investigación evaluativa de Scriven (1994). de personal. Alkin. The Science Teacher. Evaluation theory development: II. The profession and practice of program evaluation. Ca: Jossey-Bass. no es necesario ser un gran especialista. Pensamos que esta orientación debe integrarse dentro de una orientación a los implicados. Barbier. La evaluación de programas. McLaughlin. pero sí tener un conocimiento cabal.niveles de interconexión y solapamiento. 39. J. (1969). al usuario en sentido estricto.: Allyn and Bacon Alkin. Behavioral Objectives in curriculum design: A cautionary note. Evaluation theory development. M.) (1981). de centros. Nosotros no tenemos unas posiciones contrarias a las otras visiones en la misma medida que las tiene Scriven y. de hecho. probablemente. J. R. Curriculum evaluation. y la correcta ubicación en el proceso de muchas técnicas auxiliares en las que. sí que pensamos que esta moderna visión de Scriven es sólida y coherente y ampliamente aceptada en la actualidad. A. y Ball. Evaluation Comment. D. Evaluation and education at quarter century (pp. S. sino que. . La lógica de la síntesis de resultados. La evaluación no sólo necesita el apoyo técnico de otras muchas disciplinas. (1967). L. y Cook. Arnal. tienen muchos puntos en común. 1. pero nos parece que la investigación evaluativa hoy en día tiene una orientación prioritaria más plural que la defendida por este autor. Baker. etc. M. J. por supuesto.). El cuarto elemento distintivo de la visión transdisciplinar de la evaluación es que se trata de una visión técnica.

Castillo. 1. Mexico: Trillas. methods and institutional arrangements. En Arturo De la Orden. (1969).. Essay examinations.. E. (1985). W. A. Bonboir. (1971). S.R.F. W. Chicago: Jossey-Bass. D. Dubois. R. y Krathwohl. Willar (Coord. (1989). En A. R. H.. Teacher evaluation in the organizational context: A review of the literature. Phillips. Boston: Allyn Bacon.. SR (1989).L. E.D. (1970). London: The Falmer Press. J. y Suppes. R. Course improvement through evaluation. Walker. 7. La Docimologie. (1977). Cabrera. (1956). New York: MacMillan. TH. A.H.) New directions in educational evaluation (pp. (1967). M. Enfoques y principios teóricos de la evaluación. Hastings. Cronbach. 64. T. 672-683. 35-55. E. Wise. L. En R. P. S. The School . En E. DC: American Council on Education. (1972). J. Barcelona: Universidad de Barcelona. S..25-69)..J. J.203-253).. L. Buenos Aires: Guadalupe. Investigación educativa. (Ed.D. F. D. Carreño. Paris: PUF. (1995). Designing evaluations of educational and social programs. P. Cronbach. L. (1998).. Y Madaus. De La Orden. Teachers College Record. D. E. Fundamentos de la medición educacional. J. Cronbach. L.M. (1963). La evaluación en la educación secundaria. Bloom. Evaluación de programas educativos. & Pease. S. (1975).. A History of Psychological Testing.). Educational objectives: Help or hindrance?.133-137). (1986). De Miguel. Towards reform in program evaluation: Aims. Evaluación del aprendizaje. (1977). A. Chelimsky. Dornbusch. Engelhaut. Darling-Hammond. Modelos de investigación sobre organizaciones educativas. L. Eisner. Revista de Investigación Educativa. Hess. Thorndike (Ed.S. McKay. 21-56. S. B. Ebel. Handbook on formative and summative evaluation of student learning. B. AE. R. F.C. American Journal of Evaluation 19. Research for tomorrow's schools: Disciplined inquiry for education. (1980). Hambron. H. (1994). S. Proyecto docente sobre técnicas de medición y evaluación educativas. centros y profesores (pp. F. M. Cronbach.. Furst. y Weiner. B. Salamanca: Amasú Ediciones.. S. J. Bloom. Madrid: Editorial Universitas.S. San Francisco: Jossey-Bass. (1982). y Gento. (1971)..R.C. M. Modelos de evaluación de programas educativos. 13. F. Cognitive domain. W. Bloom.Blanco. The role of experience in formulating theories of evaluation practice. Buenos Aires: Troquel. Coffman.). Washington . Hill.. Hornick. Hastings. House (Ed. S.Medina y L. New York: Davis. Madrid: Anaya. Investigación evaluativo. Diccionario de Ciencias de la Educación (pp. Taxonomy of educational objectives Handbook I.) Educational Measurement. L. y Madaus G. New York: McGraw-Hill.

Stanford. E. School Review. (1994). Zaragoza: Universidad de Zaragoza. Evaluation Practice. Popham (Ed. . (1982). H. (1950). B. 75. D. El sistema educativo de la Compañía de Jesús. E. (1967).). Glaser. Glaser. San Francisco: Jossey Bass Publishers. E. Guba. Actas de las III Jornadas Nacionales de Didáctica Universitaria «Evaluación y Desarrollo Profesional» (pp. 1-15. Fernández. (1991). 1-18). Las condiciones del aprendizaje. Fourth Generation Evaluation. Eisner. (1973).) (1965). R. S. Glaser. Proyecto docente e investigador. (1978). Universidad de Las Palmas. Eisner. Ca. The perceptive eye: Toward the reformation of educational evaluation. Y. R. Fetterman. E. Gagne.). y Lincoln. Gil. Madrid: Aguilar. Madrid: Cincel. E. Emerging models for educational evaluation. R. (1993). Ca: Stanford University . (1981). (1981). W. The methodology of qualitative evaluation: the case of educational connoisseurship and educational criticism. Medina (Coord. A. (1975). Eisner. En A. Eisner. Measurement and evaluation in teaching. The discovery of grounded theory. (1963). T. 18. G. (1992). Escudero. Y. E. (1971). Ca: Stanford Evaluation Consortion. G. Instructional objectives (pp.A. (1985). T. 2. Effective evaluation. Teaching machines and programmed learning. La evaluación de la calidad docente. G. Madrid: CSIC. American Psychologists. En J.I Carrobles. New York: Wiley Hambleton. Madrid: UPCO. S. 15. B. Newbury Park. y J. Madrid: Ediciones Pirámide. Theory of mental tests. Fernández de Castro. Mill Valley. Evaluación conductual. Stanford. J. Glaser. (1985). Chicago: AERA. Chicago: Aldine. 519-521. 5-59). M. Enfoques modélicos en la evaluación de la enseñanza universitaria. Las Palmas: Servicio de Publicaciones. (1985). y Lincoln.En Encyclopedia of Educational Research. (Dir. London: The Falmer Press. W. (1969. G. (1996). Gronlund. Empowerment evaluation. E. (Ed. New York: McMillan. K. W. Theoretical sensitivity. Guba. New York: MacMillan. Washington: National Education Association. J. Instructional and expressive educational objectives: their formulation and use in curriculum. Eisner.Review. Teoría y métodos de evaluación. En R. Instructional technology and the measurement of learning outcomes: some questions.: Sage Publications Gullicksen. E. y Strauss. M. Perspectivas históricas de la evaluación conductual. Ca: Sociology Press. Escudero. W. L. Fernández Ballesteros. Criterion-referenced measurement. La «Ratio Studiorum». R. La enseñanza programada. The art of educational evaluation. N. 1.). R. (1989). (1971). 250-260. E. Fernández.

Lincoln. 10. Blomm. CA: Sage. E. (1982). But is it rigorous? Trustworthiness and authenticity in naturalistic evaluation. L. Keefe. En House. E. Defining educational objectives. R. Lewy. Evaluating with validity. projects. F. En B.).). E. San Francisco: Jossey-Bass.. Boston. Lindvall. G. y Guba. Handbook II: Affective domain.) (1989). Worthen y J. y. Manual de evaluación formativa del currículo.: Houghton Mifflin Company.). Naturalistic inquiry. LA. CA. Tyler. F. (1971). S. Evaluation and the control of education. Educational Evaluation: Theory and Practice. (1983). A. San Francisco. Scientific inquiry and the social sciences. S. Ohio: Charles A. (Eds. R. 125136. B. en D.. 20. G. Horowitz. Qualitative research and quasi-experimental frameworks. The Journal of Educational Research. D. G. Design and Analysis of Experiments in Psychology and Education. London: Jessica Kingsley Publishers. R.: Jossey-Bass House. Taxonomy of educational objectives. 89. (1981). (Ed. J. (1976). R. y.) (1976).1. Newbury Park.: Sage. Sanders. En D. New York. S.: McGraw-Hill. (Ed. Kogan. Ca. London: McMillan. Joint Committee on Standards for Educational Evaluation (1981. (1964). The evaluation of the Humanities Curriculum Project: a holistic approach. Murcia. Criteria for assessing naturalistic inquiries as products.. A 75-year legacy on assessment: Reflections from an interview with Ralph W. Evaluation at the local level.Hammond. R. (1988).B. Bogotá: Universidad Pontificia Javierana. E. Proyecto docente e investigador. Hernández. Naturalistic evaluation. (1986). House. (1995). B. (1993). R. (1953). D. Viewpoints on Educational . B. School evaluation using the CASE-IMS model and improvement process. E. y. Paper presented at the American Educational Research Association. Krathwohl. R. Bogotá : Voluntad/Unesco. M. En M. Tawney (Ed. 68-75. How we think about evaluation.: Sage. y Guba. Lindquist. Theory into Practice. L. Newbury Park. Madaus. (1985). Ca. M. (1994). Collins. B. Worthington. y Guba. New Orleans. Evaluating higher education. The personnel evaluation standards. R. Philosophy of evaluation. (Ed. H. 2. 55-67. y Masia. San Francisco: Jossey-Bass. Ma. B. E. Brewer y B. Macdonald. y otros (1991). E. T. Beverly Hills. Jones Publishing Company. Williams (Ed. 163-169. Pittsburg: University of Pittsburgh Press. Lincoln. Kellaghan. Studies in Educational Evaluation. E. Kidder. La evaluación educativa. F. Lincoln. New Cork: Davis McKay. G.) (1964). 3. Curriculum evaluation today: trends and implications. Joint Committee on Standards for Educational Evaluation (1988). and materials.S. Evaluation Models. (1989). (1983). C. Standards for evaluations of educational programs. Macdonald.

: Fearon. (1983). Preparing instructional objective. En E. Martínez de Toda. (1991). Review of Educational Research. C. En J. Morgan. Psychometric Theory. Nevo. R. Proyecto docente e investigador. H. Beverly Hills. Ca. N. y Hamilton . Tesis doctoral. Mateo. (1978). M. 426-449). (1977). Norris. (1920). Columbus. R. D. 1. Q. Qualitative Evaluation methods. The conceptualization of educational evaluation: An analytical review of the literature. Pieron. Patton. (1974). La enseñanza: su teoría y su práctica (pp. J. F. Mateo. (1983). En E. R. 7. D. Parlett. C. vol. 15-29. New directions in educational evaluation. (1973). (1845). Educational and Psychological Measurement. Common School Journal.: Sage Pérez. (1973). School Evaluation: The Politics and Process. H. S. Mary Anne Bunda. 20. Understanding educational evaluation. La evaluación en el aula universitaria. A paradigm involving multiple criterion measures for the evaluation of effectiveness of school programs. y Michael. Educational evaluation by adversery proceedings. D. J. W. London : Kogan Page/CARE.). Mager. J. A Handbook of Educational Variables. y otros (1993). (1980). En Hamilton D. Madrid: Universidad Complutense. 53. Pérez. M. London : The Falmer Press. (1993). October. R. Journal of Educational Research. January. Metfessel. London: MacMillan. 931-943. Barcelona: Universidad de Barcelona. (1999). Ca: Sage. R. P. Palo Alto. 1. y otros (Eds. B. T. (1983). The conceptualization of educational evaluation: An analytical review of the literature. Beverly Hills. (1968). Nunnally. Madrid: Akal Phillips.San Francisco: Jossey-Bass. Metaevaluación de necesidades educativas: Hacia un sistema de normas. Vocabulaire de la psychologie. 27. A. Mass. Beyond the numbers game.R. Inclusive evaluation: Implications of transformative theory for evaluation. University of East Anglia . (1975). W. G. Análisis de metas. D. (1986). (1967). Mccall. Boston: Kluwer-Nijhoff . A new kind of school examination. A. Nowalowski. N. Zaragoza: ICE-Universidad de Zaragoza.). Modelos contemporáneos de evaluación. Gimeno y A. Ohio: Merril. F.and Human Services Evaluation. Evaluation in education. CA. III. Beyond method. Mertens. Russell Working (1985). Evaluation as illumination: A new approach to the study of innovative programmes. 1-14. McReynold. M. Hingham . (1962). 19. School of Education .). House (Ed. Berkeley: McCutchan. Boston Grammar and Writing Schools. 117-128. México: Trillas. Paris: PUF. Jeri. M.. Mann. New York: McGraw Hill. House (Comp.: Kluwer-Nijhoff Publishing. . Nevo. Advances in Psychological Assessment. American Journal of Evaluation. J. Mager. Owens. (1989).

H. A. Universidad de Cantabria. 57-70. E. y otros (1979). Evaluation research methods: A base guide. Ca. N. Popham. L. Ca. Popham.: Sage. Popham. Popham. Goal-free evaluation. y Freeman. Kalamazoo. Chicago : Rand McNally and Company. J. Beverly Hills. NJ.: Center for Research on Educational Accountability and Teacher Evaluation. W. Ca. D. Scriven. R. A. 39-83). Rutman. Scriven. M. L. PUF. Encyclopedia of Educational Evaluation. y Willinsky. Beverly Hills. S.. Rossi. Studies in Educational Evaluation. Problemas y técnicas de la evaluación educativa. (1971).).: Brookings Institute. W. y otros (Eds. M. (1970). (1991a). M. Evaluation: A Systematic Approach.. Systematic thinking for social action. Anderson. CA. Russell. P. Evaluación basada en criterios. y otros (1995). Berkeley. P. (1970). Berkeley. W. 187-199. AERA Monograph 1. Inverness . H. (pp. Aula Abierta Monografías 25. 319-328). (1991. Scriven. House (Ed. (1980). Beverly Hills . American Journal of Evaluation 19.: Prentice Hall.(pp. (1974). Proyecto docente. Oviedo: ICE-Universidad de Oviedo. (1992). Scriven. H. 1. (1980). En S. . Studies in Educational Evaluation. 1. Washington. (1993). M. E. The methodology of evaluation. 3. San Francisco: Jossey Bass Publishers. Ca. J. L. G. (1998). Englewood Cliffs. 147-166. Evaluation as a discipline. Understanding program evaluation. Discrepancy evaluation. 1-4. Examens et Docimologie. Salvador.: McCutchan. Ca. Planchard. Madrid: Ediciones Fas. E. En Perspectives of Curriculum Evaluation. (1969). Ca. Mi. En E. (1983). Beverly Hills . The logic of evaluation. M. Rosenthal. Evaluación de los aprendizajes. Madrid: Magisterio Español. 20.: Sage. Rossi. Paris. L. For educational program improvement and assessment. (1967). y Baker. J. School evaluation: The politics and process. Ca. Scriven. M. Madrid: Anaya. (1994). Rodríguez. M. 23. W. Minimalist theory: The least theory that practice require. Systematic Instruction.). B. (1971). T. (1997). Establishing instructional goals. Evaluation: A systematic approach. (1960). Englewood Cliffs. y Mowbray.) (1984). Duties of the teacher. J. Evaluation history. Newbury Park . N.: Sage.: Edgepress Scriven. (1983). La investigación pedagógica. Evaluation Thesaurus. (1976).Pieron. J.: Sage Scriven. M. Scriven. H. Prose and cons about goal-free evaluation. Evaluation Comment. Rivlin. Rutman. M.: McCutchan Publishing Co. 3. Fourth generation educational evaluation: The impact of a post-modern paradigm on school based evaluation. (1973).: Sage. (Ed.C. Provus. M. J.: Prentice Hall.

D. Stufflebeam. R. Stufflebeam. y Shinkfield. (1967). Gephart.: .Smith. New York: Harper & Row. Stake.: Sage. Studies in Educational Evaluation. 1. (1990). Studies in Educational Evaluation. WJ. New York : Russell Sage Foundation. Guidelines for developing evaluation checklists. Teacher College Record. D. R. (1990). W. (1967). Evaluating professional support personnel in educational settings. 3. The countenance of educational evaluation. Assessment of person. WJ. L. Merriman. D. (1984). S. R. Evaluation News. M. Urbana: University of Illinois Press. Barcelona: Paidos/MEC. 22. Occasional Paper. EG. L. Stufflebeam. Englewood Cliffs. Investigación y desarrollo del curriculum. 25.J. R. 20. Stufflebeam. Setting standars for educational evaluators. A. M. 121-134. L. E. Suchman. D. Stake. E. (1986). A depth study of the evaluation requeriment. E. D. Newbury Park. J.wmich. H. 2 . Conflicts between standards-based and postmodernist evaluations: Toward rapprochement. L. (1998). The applicability of selected evaluation models to evolving investigative designs. American Journal of Evaluation. R. University of Western Michigan. Guía teórica y práctica. D. R. R. 489-500. Illinois : F. 4. public schools. HO & Provus. y Tyler. 287-296. Foley. Hammond.edu/evalctr/checklists/ el 15 de Diciembre de 2002. J. (1975a). (1942). Quieting reform. Stacher. Evaluating the arts in education: A responsive approach. (1975b). How to Focus on Evaluation. Itasca. L. L. Stenhouse. Sunberg. D. R. M. 2. Stufflebeam. (1987). Stake. L. E. y Davis. 5. L. Smith. (1966). 19-22. 16. Newbury Park. A. Stufflebeam. Stake. (1981). N. N. 5. A theoretical stament of responsive evaluation. Madrid: Morata. 22. (1976). y Helm. Consultado en www. 3. 183-209. Ca. Journal of Personnel Evaluation in Education. Studies in Educational Evaluation. 3-21.. (2000). L. 3. E. E. Ca: Sage. Introduction: Recommendations for improving evaluations in U. 12. D. E. The metaevaluation imperative. 325-334. (1977). 68. V. Theory into Practice. E. MM (1971).. Guba. Appraising and recording student progress. Using profesional standards to legally and ethically release evaluation findings. A. N. Stronge. RL. (1994). Evaluative Research: Principles and Practice in Public Service and Social Action Programs. Stake. Studies in Educational Evaluation. Educational Evaluation and Decision-making. (2001). Ohio: Merril . 148-152. 523-540. Stake. B. y Haver. D. (1999). Stufflebeam. Program evaluation: particularly responsive evaluation. Peacock Publishing. W. E. L. Evaluación sistemática. (1991). D. Stufflebeam.

(1974). R. P. G. Theory into Practice. Weiss. y Sanders. R.L. Métodos para determinar la eficiencia de los programas de acción. 1.. R. R. (1973). La evaluación de los objetivos. Tyler. L. H. Curriculum development. D. The International Encyclopedia of Educational Evaluation. Fernández Chávez. / Este artículo ha sido citado en. Ph. M. L. J. R. (1975). W. México: Trillas. Taba.. R. AERA Monograph Series Curriculum Evaluation. R. Studies in Educational Evaluation. Chicago: Rand McNally. A. Paper presented at the annual meeting (April) of the AERA. New York: Teacher College Press. J. E.. H. The changing face of educational evaluation. Tyler. T.. Educational Evaluation: Theory and Practice. y Edwards. Trial by jury: a new evaluation method. D. Webster. Educational evaluation: New roles. Fundamentos psicológicos del aprendizaje y la enseñanza (pp. Worthen. E. The citizen as jurist: A new model of educational evaluation. E. Investigación evaluativa. (1978). (1994). W. An accountability system for school improvement.. Chicago: University of Chicago Press . 185-187. (1987). H. * Bustos. 21-33. J. R. Wolf. Jones Publishing Company. A.. W.. En J. (Ed.Prentice Hall. Atlanta. New York: Harcourt Brace . N. y Almaguer. 3-12. H. Wilson. 4. Webster. (1950). 19. dissertation. Tyler. Stack (Comp. J. GA.9-16. Worthen. (1993).fide. Wilson (Ed. (1983). Ohio: Charles a. XXX.) (1969). W.. Basic principles of curriculum and instruction. W.) (1990). Madrid: Anaya. R. TO KNOW MORE / PARA SABER MÁS This article has been cited in. Construcción histórica del concepto de calidad de la educación. http://www. 1. Zeller. Have we learned anything new about the use of evaluation?. 549578).). Wolf.). y Sanders. (1967). 20. Phi Delta Kappa.O. Walberg. 113-137. Columbia University . (1998). Weiss. L. (1962).[Párrafo añadido el 16 de Marzo de 2007] . R.. Effectiveness indices: A «value added» approach to measuring school effect. Changing concepts of educational evaluation. Oxford: Pergamon Press. . C. C. B. J. J. B. new means. R. Thorndike. Worthington. 1. Revista de pedagogía pp. (1991). y Haertel. Citizen Action in Education. Theory and practice. Mendro. Chicago: University of Chicago Press . (Ed. A rethoric for naturalistic inquiry. R. C. Perspectives of curriculum evaluation. Indiana University. American Journal of Evaluation. An Introduction to the Theory of Mental and Social Measurements. (1904).pdf . En R. 57. 1. C ().cl/revistas/documentos/Const.

es/departamentos/filologia_inglesa/garciala/bibliography.index-f. Márquez. Salud Publica Mex. 48:229-235. http://www. Revista de Educación en Ciencias de la Salud (RECS).pdf . Index Enferm Digital 2004. José Ángel (2006). 8-9.unizar. Arango-Córdoba A. [Párrafo añadido el 16 de Marzo de 2007] Escudero.es/servicios/sp/ej/contextos/infos/2091397. Disponible en http://www2. Fac.cl/ofem/recs/anteriores/vol312006/art3106a. [Párrafo añadido el 16 de Marzo de 2007] Torres Fernández. Las investigaciones sobre evaluación educativa en Cuba. Rev. Education Policy Analysis Archives. abr. Disponible en http://www.cu/revistas/aci/vol14_5_06/aci10506. vol. Marín Milanés. Las tecnologías de la información y la comunicación y los indicadores de evaluación universitaria en España.php?script=sci_arttext&pid=S071813372005000100002&lng=es&nrm=iso. Disponible en http://bvs. (2004).unirioja. http://cied.Univ. 2. n. Evaluación de los programas de promoción de la salud para inmigrantes.13. (2006). (2006). Ing. C. 11(46).asu.udec. (2003). La nueva concepción de la evaluación de aprendizajes en la educación de las ciencias de la salud. A bibliography of literary theory. criticism and philology. http://epaa.html . Ignacio. Vol. 11th online edition http://www. Escobar-Paucar G. T (2005-2006).htm ..* Cardona Rodríguez.php.cu/revista/61/index . M. Análisis integral de las prácticas pedagógicas de un programa educativo en Colombia. p. Un metamodelo OLAP para la evaluación de ambientes tel. Torres-Ospina JN.mx/salud/48/483_6. 2005. 3. (2006). L.pdf. [Párrafo añadido el 16 de Marzo de 2007] Peñaranda-Correa F. Juan y Casas R. Yanelis.. 179-199.com/indexenfermeria/44revista/44_articulo_51-55. Disponible en la World Wide Web: http://www.Acimed. [Párrafo añadido el 16 de Marzo de 2007] Ortiz.sld. Claves identificativas de la investigación evaluativa: análisis desde la práctica. Leal Labrada. & Barrenetxea Ayesta. [online]. 6 (1).edu/epaa/v11n46.. .htm.insp.J. [Párrafo añadido el 16 de Marzo de 2007] García Landa. [Párrafo añadido el 16 de Marzo de 2007] Gámez Requena. . Usabilidad: la evaluación de los servicios en el entorno Web . J. Gustavo (2006). ISSN 0718-1337.1 [citado 08 Enero 2007]. no. Yorbelis . [Párrafo añadido el 16 de Marzo de 2007] * * * * * * * .rimed. A. Contextos Educativos. 44-45. Franklín. Osvaldo. Yelina y Kourí Cardellá.9-20. 14(5) . [Párrafo añadido el 19 de Mayo de 2004] * Cockbaine O.P. Piedra Salomón.scielo.C. A. http://www. Rosell León. Tarapacá. [Párrafo añadido el 16 de Marzo de 2007] González Pérez. Bastidas-Acevedo M. Ciencias Pedagógicas.cl/scielo.

n. Evaluation Methods. Se analizan los principales propuestas teóricas planteadas.es/RELIEVE Dirección Language / Español (Title. Publication Date: 2003 Fecha de Febr. v. Catedrático del área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Zaragoza. v.es). Un siglo. 9. Desde los tests hasta la investigación evaluativa actual.es/RELIEVE/v9n1/RELIEVEv9n1_1. Es miembro de la Comisión de Coordinación Técnica del Plan de Calidad de las Universidades. Testing. Evaluación. [ From tests to current evaluative research. Program Evaluation.uv. Desde los tests hasta la investigación evaluativa actual. Métodos de Evaluación. Evaluación de Programas Keywords Descriptores Institution / Universidad de Zaragoza (España) Institución Publication site / http://www. Evaluación Sumativa. Formative Evaluation Summative Evaluation. Test. n. 1. Investigación evaluativa. 9.1 . el XX. Buscar otros artículos de este autor en Scholar Google ARTICLE RECORD / FICHA DEL ARTÍCULO Escudero. 1 Revista 1134-4032 ISSN Publication date / 2003 (Reception Date: 2003 January 10. Revista Reference / Referencia Title / Título ELectrónica de Investigación y EValuación Educativa (RELIEVE). the XXth. Evaluación Formativa. One century. Tiene un gran número de trabajos y publicaciones sobre evaluación educativa.ABOUT THE AUTHORS / SOBRE LOS AUTORES Tomás Escudero Escorza (tescuder@posta. n. 27 ) publicación Abstract / Resumen This article presents a review and state of art about development in educational evaluation in the XXth century.. of intense development of evaluation in education] Authors / Autores Tomás Escudero Escorza Review / Revista ELectrónica de Investigación y EValuación Educativa (RELIEVE). Un siglo. http://www.unizar.htm. Tomás (2003). Evaluation. Consultado en (poner fecha). particularmente sobre evaluación institucional. de intenso desarrollo de la evaluación en educación. de intenso desarrollo de la evaluación en educación. abstract and keywords in english) Idioma Volumen 9. el XX.uv. The main theoretical proposals are commented Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Evaluation Research.

está sustentada teóricamente en la cuarta generación de la evaluación. la cual es concebida como un proceso democrático. negociado. en el que se contemplan diversas dimensiones: evaluación del aprendizaje en los alumnos. propósitos y objetivos del Proyecto Educativo Educación Básica: "Reto. número y dirección electrónica del documento). y Modelo Curricular planteado. © Copyright 2002. ARGUMENTACIÓN TEÓRICA En una sociedad convulsionada como la nuestra. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE. RELIEVE.es/RELIEVE email: relieve@uv. Reproduction and distribution of this articles it is authorized if the content is no modified and their origin is indicated (RELIEVE Journal. Coll (1987) considera que el cómo evaluar va unido al cómo enseñar.© Copyright 2002. se observa una educación ajena a este . que ha provocado una ruptura ética en los individuos y desintegración de las comunidades. number and electronic address of the document). inmersa en una crisis de valores. [Principal] [La Revista] [Artículos publicados] [Publicar en RELIEVE] [Home Page] [ About us] [ Published Articles] [To publish in RELIEVE] Revista ELectrónica de Investigación y EValuación Educativa http://www.uv. Compromiso y Transformación". De allí que la evaluación podrá verse como un proceso constructivo integrado al quehacer educativo. respondiente. por cuanto ambos procesos se realizan simultáneamente en el aula y no de forma separada. volume. el Plan de Acción del Ministerio de Educación.es Programa de Estudio de Educación Básica Información General Evaluación La propuesta de evaluación de los aprendizajes en la primera Etapa de Educación Básica se enmarca dentro de los principios. RELIEVE. la práctica pedagógica y el proyecto pedagógico de aula y plantel. iluminativo e integrado a los procesos de enseñanza y de aprendizaje. volumen.

El docente debe provocar y planificar las condiciones óptimas para que se produzcan los encuentros entre él. se identifica como la construcción interna del conocimiento donde subyace una actividad autoestructurante por parte del alumno cuya dinámica.problema. al maestro como mediador y a la escuela en integración con su comunidad. que plantea como finalidad proyectar. continua. a fin de favorecer una verdadera enseñanza y la construcción del saber por parte del niño. Para cubrir tales exigencias se plantean.El aprendizaje es una actividad mental. depende de los procesos cognitivos estructurales cada vez más complejos que determinan las relaciones interpersonales entre el alumno y el docente. En este sentido la teoría de Vygotzky (1977 y 1979). intensiva. En este sentido. así concebido. . innovaciones en la Educación Básica que conducirán a redimensionar el proceso enseñanza aprendizaje como vía para la comprensión. los alumnos y la comunidad. tanto la enseñanza como el aprendizaje cobran una nueva connotación: . el objeto de conocimiento que constituye el contenido del saber y el profesor que enseña con el propósito de favorecer el aprendizaje de los alumnos. Esto supone el uso de nuevas estrategias y actividades que tomen en cuenta al niño como centro del saber. así como con otros fuera de su alcance que puedan ser asimilados con la orientación del docente o por intermedio de otros compañeros de clase o de la comunidad donde vive el niño. Como lo afirma Coll (1990). planificado y provocado por agentes externos. personalizada. El aprendizaje. el ser y la comunicación para lograr un cambio que permita superar los obstáculos y dificultades y poder encauzarlo con bases firmes hacia el nuevo milenio. la actividad pedagógica deberá ser articulada entre el alumno que lleva a cabo su aprendizaje. según lo postulado por Piaget (1966 y 1975). dinámica. Nos encontrarnos con un alumno en capacidad de aprender una serie de aspectos que tienen que ver con su nivel de desarrollo. autónoma e implica que el alumno esté en constante interacción con el objeto de conocimiento. orientar y dirigir las experiencias del trabajo reflexivo de los alumnos atendiendo a hechos y valores de sus culturas y de sus vidas. concede al maestro . el hacer.La enseñanza es concebida como un proceso intencional. el saber. para avanzar en un proceso democrático dignificador de sus actores y cohesionador de sus comunidades. Por ello ambos procesos (enseñanza y aprendizaje) no pueden darse aisladamente sino de forma cohesionada e interactiva.

autoevalúa. como inherente a la condición social del sujeto El hombre desarrolla sus potencialidades genéticas realiza sus logros c culturales en función de la interacción con otros hombres. alumnos y objetos de conocimiento en el cual el maestro actúa como mediador del aprendizaje del alumno. simultáneamente. donde cada niño sea percibido como un ser diverso que avanza a su propio ritmo de acuerdo con su nivel de maduración. por lo que tienen gran importancia en la práctica pedagógica y evaluativa. La interacción y la comunicación. verbal. al considerar al aprendizaje como un proceso constructivo interno y personal. quien estará en capacidad de construir e integrar aprendizajes cada vez más complejos en función de la interacción y cooperación con los demás. significativa planteada por Ausubel (1977). según el mismo autor. La significatividad reside en relacionar e integrar los nuevos conocimientos que el alumno adquiere con los que ya posee. quien señala la importancia de los conocimientos previos de los alumnos en la adquisición de nuevas informaciones. planifica y organiza situaciones significativas y pertinentes que promueven la participación democrática en el aula. a través de un proceso interactivo que se origina entre docentes. que toma en cuenta las estructuras mentales del que aprende. La práctica pedagógica no puede ir separada de la práctica evaluativa. Para ello. contrasta y logra cosas en un mismo curso de negociaciones. con la naturaleza y. esto implica un aula que: . propone. construir conocimientos y emprender tareas y (2) Poseedor de un acervo cultural que tenga continuidad en la escuela Las teorías anteriormente descritas centran su atención en el estudiante. su reflexión e interacción en los procesos de enseñanza y de aprendizaje. Cabe destacar la teoría psicológica. son posibles en la medida en la que el sujeto que interactúa sea percibido como: (1) Dignificado en su capacidad para comprender.un papel importante como mediador en el desarrollo de las estructuras mentales del alumno. El autor define estas tres condiciones básicas para que se produzca el aprendizaje: (1) Estructuración lógica de los materiales de enseñanza. evalúa. por lo que se debe propiciar en el aula un ambiente favorable para la discusión y confrontación de ideas. construye aprendizajes. (2) Organización de la enseñanza tomando en cuenta los conocimientos previos y estilos de aprendizaje en los alumnos y (3) La motivación como elemento importante para aprender. La necesidad comunicativa es planteada por Esté (1994). alimentándose de esa interacción.

sociales. El sistema de instrucción está constituido por un conjunto de elementos que toma en cuenta y relaciona con el entorno socio-psicológico y material.). ENFOQUE DE LA EVALUACIÓN Consecuentemente con las bases conceptuales del diseño del nivel antes enunciadas. 1972) Es un modelo cualitativo que se fundamenta en dos ejes conceptuales: sistema de instrucción y el ambiente o entorno de aprendizaje. intereses y aspiraciones de quienes actúan en el proceso enseñanza aprendizaje. regresiones. es comprensiva. Usa la investigación etnográfica. interpretaciones. global. 2. actitudes. se destacan los siguientes: 1. progresos. se inserta la evaluación de los aprendizajes en la Educación Básica. para vincularlo con los resultados reflejados en el curriculum que se producen a corto. es decir.. Evaluación respondiente (Etake. 3. Invite al docente a observar y describir la evolución del aprendizaje de los alumnos (bloqueos. Incluya la planificación integrada al contexto y al proceso de evaluación. por cuanto. El ambiente de aprendizaje está representado por un conjunto de relaciones culturales. Estimule la ayuda mutua y la cooperación. analiza la interrelación del proceso de aprendizaje en el contexto donde se desarrolla. a fin de ofrecer información pertinente y oportuna a cada uno de los participantes. aptitudes. que pretende hacer de la escuela un lugar que valore y comprenda las consideraciones. que permita su libre actuación para que manifieste lo que él es y quiere ser y hacer. institucionales y psicológicas las cuales inciden en las normas.. narrativo.1. Se base en el derecho democrático que todos tienen a participar en la toma de decisiones y en el control y evaluación de procesos y resultados desarrollados a partir de tales decisiones. 1975) . Evaluación iluminativa (Parlett y Hamilton.naturalístico. Respete a cada niño como individuo. 4.. 2. mediano y largo plazo. 5. Entre los modelos evaluativos que sirven de apoyo a la nueva corriente de evaluación planteada. dentro del enfoque cualitativo . opiniones y estilos de trabajo que tienen lugar en el aula.etnográfico . de carácter descriptivo. La metodología de la evaluación cualitativa. y el aprendizaje por parte de los alumnos. el proceso de la enseñanza por parte del docente.

Comunica. . Evaluación democrática (Stenhouse. el consenso entre los distintos agentes que actúan en el proceso de evaluación. se agrupan para dar fundamento a la cuarta generación de la evaluación. descubriendo y ofreciendo un retrato completo y holístico de los procesos de enseñanza y de aprendizaje. McDonald y Elliot. Toma en cuenta la experiencia vivenciada de cada uno de los participantes. D. con el fin de responder a las necesidades de información y al nivel de conocimientos de quienes participan en el proceso. por cuanto: A. a través de ciclos dinámicos de confrontación de ideas para tomar decisiones. Así mismo. Atiende las diferencias individuales. 1989) Proponen en su modelo. 4. B. reorienta y mejora el proyecto de aula y de la institución. 3.El propósito principal del modelo es responder a los problemas que se confrontan en el aula. invita al docente a reflexionar acerca de la didáctica y metodología de la enseñanza utilizadas. El rol del evaluador pasa a ser más dinámico. Participa y propicia actividades de interacción constructiva. Está en capacidad de negociar y generar consenso entre los participantes. 1976 y 1982) Postula el derecho del alumno y del docente de expresar sus puntos de vista y opiniones en el aula. C. a través del uso de las formas de participación de la evaluación como forma para transformar y modificar la práctica educativa. Enfatiza el rol del docente evaluador como orientador que se ocupa de analizar y valorar el progreso del estudiante. Todos estos modelos evaluativos anteriormente descritos. en atención a sus logros y dificultades para aprender. A través de esta concepción evaluativa se propicia una relación ética y de respeto que toma en cuenta las diferencias individuales de los alumnos. F. Evaluación negociada (Guba y Lincoln. Concede mayor importancia al trabajo en equipo. la escuela y la comunidad. orienta v hace reflexionar sobre todo el proceso educativo.

G. tanto en lo general. I.Constructivo . Todo esto conduce a conceptualizar el proceso evaluativo como: . los materiales educativos.Global: porque se pretende evaluar todos los componentes de la practica pedagógica.participativo: por cuanto se considera que el alumno va descubriendo y construyendo su aprendizaje a partir de experiencias previas. Planifica en atención a las necesidades de los alumnos y del contexto. relaciones e influencias. La evaluación como parte de los procesos de enseñanza y de aprendizaje tiene como finalidad principal. En tal sentido. las cuales son convalidadas y enriquecidas en el aula. . Delega funciones en un trabajo organizado. por lo que deberá: . LA NECESIDAD DE LA PROPUESTA La aplicación de esta nueva forma de evaluación generará cambios en la práctica pedagógica. como en lo particular. tal y como suceden en la realidad sobre como aprende el estudiante y como el docente logra que aprenda más y mejor. Redimensiona y reorienta su proyecto de aula y aporta esfuerzos para el alcance de las metas establecidas en el proyecto plantel. la cual constituye el elemento didáctico fundamental para promover la reforma necesaria en el mejoramiento del proceso educativo. despertar el interés hacia el mejoramiento del desarrollo de los alumnos. cooperativo y democrático.Servir de instrumento de investigación y reflexión para proporcionar un potencial formativo a cada uno de los agentes que interactúan en el proceso educativo. J. el Proyecto Curricular del Plantel y el Currículo Básico. la actividad del docente. que permitan el mejoramiento continuo de quienes participan en los procesos de enseñanza y de aprendizaje. Informa a los alumnos y a sus representantes acerca del progreso habido durante el trabajo escolar. La evaluación recoge evidencias continuas.interactivo . H. la evaluación centrada en procesos es la práctica evaluativa que más se ajusta al modelo planteado anteriormente. .

fundamentado en objetivos de aprendizaje de etapa y los planteados por los docentes en el proyecto de aula. . actitudes. estrategias y criterios de evaluación.Detectar en los alumnos: intereses. . . . EVALUACIÓN DEL APRENDIZAJE EN EL ALUMNO En atención a los planteamientos curriculares la evaluación de los aprendizajes se concibe como: Un proceso interactivo de valoración continua de los progresos de los alumnos. evitando de esta manera la exclusión.Reconsiderar fines.Contribuir a formar y afianzar los valores y actitudes.Desarrollar en cada alumno sus capacidades del saber. aptitudes. a objeto de proporcionar un tratamiento más justo a los alumnos. que tonga en cuenta contenidos conceptuales. del saber hacer y del ser. . el fracaso escolar y los profundos niveles de insatisfacción de docentes..Fomentar relaciones democráticas y afectivas a través de actividades de cooperación que involucren la autoevaluación. ritmos y estilos de aprendizaje. métodos y técnicas que contribuyan a mejorar la práctica pedagógica y a evitar conflictos y bloqueos en los alumnos. coevaluación y heteroevaluación. .Proporcionar medios que permitan detectar dificultades en los procesos de enseñanza y de aprendizaje. . padres y niños. procedimentales y actitudinales y el nivel de evolución del estudiante. Desde esta perspectiva.Incentivar el trabajo en equipo. . la presente propuesta promueve situaciones específicas para integrar la evaluación a los procesos de enseñanza y de aprendizaje. con el fin de mejorarlo y contribuir a la permanencia de los estudiantes en el sistema educativo. En este sentido tendrá como finalidad: . la repitencia.Determinar el avance del aprendizaje de los alumnos en la adquisición de los tres tipos de contenidos.Promover la autoafirmación personal como estímulo positivo para valorar progresos y esfuerzos. como un espacio de reflexión conjunta donde los agentes educativos puedan compartir experiencias.

junto con el alumno.Brindar al alumno oportunidades para aprender del acierto y del error y en general de la experiencia.Global. en la familia y en su comunidad. . el proyecto de aula y en general todos los componentes del diseño curricular. PRINCIPIOS DE LA EVALUACIÓN INTEGRAL E INTEGRADA Entendida como: . que permita el intercambio de ideas sobre el trabajo y la responsabilidad que corresponde a cada uno en el proceso de aprendizaje. c) Aspira el conocimiento global del alumno como sujeto de aprendizaje. . .Evaluación conjunta e implícita en los procesos de enseñanza y de aprendizaje. circunstancias y trabajo. por lo que se requiere de una comunicación abierta con él para comprender sus problemas. . la organización del plantel. en el grupo.Individualizada. para orientarlos hacia la consolidación de logros .Identificar las limitaciones o dificultades que poseen los alumnos. . lo cual contribuye al desarrollo de la metacognición. tanto a nivel formal como lo no previsto en el currículo.Proporcionar al docente información para mejorar y fortalecer su práctica pedagógica y la planificación que se desarrollará en el aula. b) Pretende evaluar. para lo cual emplea diversas técnicas que permitan conocer y reflexionar acerca de las diferencias individuales y grupales.Conjugación de contenidos conceptuales. es decir. porque la evaluación: a) Considera el proceso de aprendizaje del alumno como un todo. procedimentales y actitudinales.Fortalecer la interacción entre el docente y el alumno. el trabajo docente. la estrategia empleada. explicando sus progresos en todos los aspectos de su personalidad en relación con las circunstancias que lo rodean en la escuela. así como entender y orientar el aprendizaje y la enseñanza.. centrada en la evolución y particularidades de cada alumno. .

reflexiva e individualizada con retroalimentación constante. para construir significativamente su propio aprendizaje y al mismo tiempo proporciona herramientas al docente para la planificación del proceso enseñanza aprendizaje. f) Información útil al alumno sobre su proceso de aprendizaje que le permita asumir la responsabilidad que le corresponde a su continuidad. atendiendo a criterios previamente establecidos y a su aplicación. procedimentales y actitudinales. La evaluación continua implica: a) Observación permanente. con el fin de proporcionarle la ayuda requerida. retroalimentarlo y mejorarlo. tome en cuenta las individuales de los alumnos y el contexto donde se produce el aprendizaje para reorientarlo. la evaluación contempla tres funciones: . e) Incentivo de las funciones orientadora v motivadora de la evaluación. d) Conocimiento del alumno para comprender sus adquisiciones. c) Acumulación de juicios basados en procedimientos formales e informales.CONTINUA Centrada en el proceso. descriptivo e interpretativo. . g) Consideración de la autoevaluación. posibilidades progresos y carencias. obtener información sobre los conceptos y experiencias que el alumno posee.Explorativa: tiene como propósito. FUNCIÓN En este sentido. coevaluación y heteroevaluación para el logro de una interacción constructiva de los participantes. valorando reflexiva y permanentemente la actuación del alumno para la consecución de competencias expresadas en los objetivos generales de etapa que abarque todos los contenidos conceptuales. b) Carácter cualitativo. h) Aprovechamiento de logros anteriores en todo el proceso y al final del mismo.

para continuar la labor educativa. valores. . e) Acumular juicios descriptivos. actitudes. procedimentales y actitudinales. La evaluación de procesos tiene carácter dinámico y formativo. procedimentales y actitudinales adquiridos por los alumnos. investigar y reflexionar constantemente con el alumno su proceso de aprendizaje. debe estar estrechamente vinculada con las actividades de enseñanza y de aprendizaje.En tal sentido se debe explorar en el alumno: a) Disposiciones. incomprensiones y errores. c) Propiciar situaciones donde se manifiesten rasgos del alumno: hábitos de trabajo. que permitan conocer el punto del cual parte y establecer necesidades previas. disposición. que permitan evidenciar los progresos y las limitaciones que requieran una atención esmerada en beneficio del aprendizaje del estudiante. significación y utilidad de lo aprendido. la madurez . representaciones y esquemas. para corregirlos y superarlos con el fin de garantizar el éxito en el aprendizaje.Formativa: Tiene como propósito observar. responsabilidad. sentimientos. d) Carencias. integración del grupo. conceptos. d) Analizar con sentido crítico la participación en el trabajo tanto del alumno como del profesor. manifestaciones intelectuales y potencialidades entre otras. para iluminar lo que está ocurriendo y a la vez ofrecer retroalimentación y acciones necesarias para estimular y mejorar su aprendizaje. tomando en cuenta los aspectos conceptuales. dedicación. e) Logros alcanzados después de un tiempo de aprendizaje. c) El sentido. g) Elaborar criterios para la promoción de los alumnos. b) Determinar las causas de sus deficiencias y éxitos. b) Cómo aprende: hechos. y ser realizada fundamentalmente a través de procedimientos informales que permitan: a) Conocer los progresos de los alumnos. actitudes y aptitudes. f) Planificar nuevas acciones educativas tomando en consideración los contenidos conceptuales.

Docentes. h) Implementar las diferentes formas de participación de la evaluación: autoevaluación. actitudes. perspectiva y apreciaciones con carácter deliberativo y negociado.Flexibilizar la aplicación de criterios de evaluación que se seleccionen.Integración de juicios.del aprendiz. aptitudes e intereses. comunicación e información constante. para asumir la responsabilidad que les corresponde en la continuidad del proceso de aprendizaje y para que conozcan sus capacidades. c) Proporcionar información relevante para promover al alumno. . que determinan su crecimiento integral. COOPERATIVA Concebida como una labor conjunta de todos los participantes para: . coevaluación y heteroevaluación como herramientas de la evaluación de procesos. capacidades e intereses para la resolución de la realidad. capacidades. b) Determina el nivel de logro de competencias fijadas.Mantener una visión multidireccional. con ella se pretende: a) Recoger y analizar evidencias sobre los resultados obtenidos durante el proceso de aprendizaje. Formas de participación . . . Final: Cumple con la función administrativa de la evaluación. habilidades y destrezas. d) Proporcionar información a los: . para otorgar una calificación basada en la acumulación de juicios descriptivos sobre cl proceso de aprendizaje del estudiante.Propiciar niveles de relación. aptitudes. posibilidades y limitaciones de los alumnos y los criterios de evaluación establecidos previamente. tomando en consideración el conjunto de observaciones hechas durante el proceso sobre: consecución de objetivos educacionales. acciones concretas para mejorar el aprendizaje.Alumnos. en términos de criterios de evaluación previamente establecidos. .

f) Evita errores y sus causas que le ayudarán a planear mejor la actividad. b) Analiza y describe sus actividades. f) Desarrolla actitudes para la integración del grupo. c) Aporta soluciones para el mejoramiento individual y grupal. reflexión y crítica constructiva ante situaciones específicas de aprendizaje. preparación anterior. por cuanto identifica sus posibilidades y limitaciones para hacerlo consciente de los cambios necesarios para su propia actuación. COEVALUACIÓN Es un proceso de valoración recíproca que realizan los alumnos sobre su propia actuación y la del grupo. e) Desarrolla su capacidad de líder.AUTOEVALUACIÓN Es un proceso que permite el autodesarrollo del alumno. c) Estimula la retroalimentación constante de sí mismo y de otras personas para mejorar su actuación. . actitud frente a la materia. d) Opina sobre su actuación en el grupo. e) Evalúa todo el proceso. b) Incrementa su participación. Mediante la autoevaluación el alumno: a) Emite juicios de valor sobre sí mismo en función de ciertos criterios o puntos de referencia. d) Participa críticamente en la construcción de su aprendizaje. características y la variedad de causas de sus éxitos y fracasos. Mediante la coevaluación el alumno: a) Determina los logros personales y grupales. dedicación. ritmo de trabajo y progreso en su desarrollo. atención. atendiendo a ciertos criterios previamente establecidos. para decidir cual fue la causa del acierto y del error. así como su propio interés.

tales como: el qué. HETEROEVALUACIÓN Es un proceso de valoración recíproca que se realiza entre los agentes educativos (alumno. Esto significa que el docente al planificar debe incluir los elementos relacionados con la evaluación. padres y representantes. equipo de docentes. EL QUÉ EVALUAR Vendrá dado por los objetivos generales de grado.g) Mejora su responsabilidad e identificación con el trabajo. ... . el con qué y el cúando evaluar.Saca conclusiones sobre el progreso del alumno.Acumula una serie de datos integrales acerca de la actuación del alumno. las competencias derivadas de los mismos y los criterios de evaluación establecidos para definir el logro alcanzado por los alumnos.Recoge e interpreta datos que evidencian el desarrollo del proceso educativo. el cómo. Las competencias representan el nivel de desempeño que debe demostrar el. una vez evidenciadas. en cada uno de estos grados debe aspirarse al logro de las competencias básicas. PLANIFICACIÓN DE LA EVALUACIÓN La planificación de la evaluación debe estar estrechamente vinculada con el proceso interactivo de la clase. La primera Etapa de Educación Básica contempla tres grados. tomar decisiones para: . los cuales permitirán. La heteroevaluación se fundamenta en una evaluación continua donde cada uno de los agentes: . docente.. con el objeto de lograr el mejoramiento y la calidad de su actuación. los métodos de enseñanzas empleados y la participación y colaboración de los padres y representantes en el proceso educativo.). alumno al final de la etapa. h) Posee libertad para emitir juicios valorativos acerca de otros porque es parte activa del proceso.

qué hace y cuáles son sus actitudes Es importante que el docente al evaluar tenga presente la consideración de estos aspectos (indicadores y criterios de la evaluación) a fin de evitar el azar. b) Ubicar a los alumnos en un grado de acuerdo con las competencias logradas. Indicador: es la señal que permite evidenciar el dominio de la competencia.a) Nivelar o recuperar a los alumnos con la ayuda de docentes. la arbitrariedad e irracionalidad. padres o representantes así como de tutorías de alumnos más avanzados. Criterio: implica la norma o recurso que permite evidenciar el nivel del logro de la competencia del alumno. es decir. la costumbre o la rutina. a través de los cuales se podrá evidenciar los progresos alcanzados por los alumnos. . Para evaluar las competencias se deben establecer criterios e indicadores de logro. c) Promover al alumno una vez que haya adquirido las competencias generales de la etapa. Permite establecer diferencias cualitativas y cuantitativas en logro de la misma. convalidar lo que sabe.

b) Las tareas donde se manifieste el grado de significación de lo aprendido en el desarrollo de la clase. e) La utilización de distintas estrategias de evaluación: actividades. funciones.EL COMO EVALUAR A través de: a) Situaciones relacionadas con lo enseñado que involucren lo conceptual. atendiendo el carácter dinámico de la evaluación. En el siguiente cuadro se presenta una propuesta que permite visualizar cómo evaluar: . procedimental y actitudinal. d) Una gama diversa de actividades de evaluación que permitan la transferencia de lo aprendido a situaciones diferentes. c) Actividades continuas que proporcionen información sobre todo el proceso. formas de participación y diversas técnicas y procedimientos que permitan orientar el proceso de aprendizaje del alumno.

que sean capaces de promover la interrelación docente . Entre algunos de los procedimientos e instrumentos de evaluación recomendables para la primera etapa de Educación Básica figuran: .alumno.EL CON QUÉ EVALUAR Con instrumentos que además de aportar la información que se requiera. b) Ser de fácil interpretación y manejo diario. Se recomienda el empleo de instrumentos que se caractericen por: a) Recoger aspectos concretos y al mismo tiempo permitan la incorporación de otros no previstos. c) Evitar en lo posible el sesgo cuantitativo.

.

EL CÚANDO EVALUAR No se dispone de una fecha prevista para evaluar. La validez de una evaluación depende de los hechos replicables como base de la verdad. de manera que puedan percibir cómo el estudiante ha evolucionado en su aprendizaje y cuáles han sido los progresos alcanzados. GRANDES ORIENTACIONES EN LA EVALUACIÓN Hay diferentes enfoques. PERSPECTIVAS DE LA EVALUACIÓN House (1980-1983) ha puesto de manifiesto que las diferentes perspectivas de evaluación son dependientes de diversas concepciones filosóficas. basada en observaciones permanentes sobre la actuación de cada alumno para determinar e interpretar sus progresos. para el subjetivismo depende de las experiencias acumuladas como base de la comprensión. Será responsabilidad del plantel en atención a sus necesidades y al proyecto pedagógico de aula que decidirá la periodicidad o frecuencia de información a padres y representantes. . Asimismo se recomienda que esa información llegue tanto al representante como al alumno.. intereses que permitan realizar el análisis del proceso. 1980:252). aptitudes..Orientación práctica. La evaluación tendrá carácter continuo. es decir que tanto los datos como los análisis realizados puedan ser reproducidos y verificados por otras personas competentes utilizando las mismas técnicas. limitaciones.Orientación medios-fines. 3.Orientación emic. marcos u orientaciones sobre la evaluación. del progreso de su representado. dependiente de una tradición empirista en las ciencias sociales. 4. Aoki (1991) expone las cuatro grandes orientaciones que comprende: 1. El conocimiento científico se concibe más como algo tácito que explícito (House. 2. Dra... a través de los portafolios y registros descriptivos. Para el objetivismo. la evaluación requiere que la información sea "objetiva científicamente". ritmos y estilos de aprendizaje.Orientación crítico-hermenéutica. María Dolores García Fernández. Desde una epistemología subjetiva la validez depende de "una llamada a la experiencia más que al método científico. Universidad de Córdoba. Profa. Así en cuanto a teorías del conocimiento las agrupa en dos grandes tendencias: Objetivismo y Subjetivismo.

Conocimiento crítico unido a la Descubrir las ideologías subyacentes al conocimiento y a la acción. paradigma cuantitativo. "a partir de un horizonte de valores claramente articulado selecciona fines y organiza los medios apropiados teniendo en cuenta los efectos secundarios alternativos" (Habermas. ¿cuál de ellos implica menor coste y tiempo?. generalizaciones.Cada una de ellas se corresponde con los grandes paradigmas que se han destacado. motivos. Basada en los objetivos. 2. La creencia clave es la posibilidad de progreso. 4.. contenidos.¿Qué generalizaciones válidas pueden hacerse para todas las escuelas en una zona o distrito?. a partir de la teoría de los intereses cognoscitivos de Habermas: El Empírico-Analítico con la orientación medios-fines. 1989:384).Dados unos currícula. Cualidad de la reflexión y de la acción Comprender las asunciones ocultas. leyes y teorías. orientada al éxito con arreglo a fines.¿Qué efectivos y eficientes son los medios usados en conseguir los fines y objetivos curriculares?. el paradigma crítico.. Fidelidad entre medios y fines. con referencia al criterio. MODO DE EVALUACIÓN Medida de la discrepancia entre medios y fines. ORIENTACIONES INTERESES CAMPO DE CONOCIMIENT O El control se refleja en valores de eficacia. Como acción instrumental. contenido de los materiales curriculares y los métodos de enseñanza especificados?. PRÁXICA Acción emancipatori a que mejora la condición humana.. MEDIOS-FINES . 5.. tasación y consecución.¿Cómo de bueno es el curriculum A comparado con el curriculum B en conseguir los fines dados?. 3. certeza y predictibilida d. el críticoreflexivo con la orientación de la praxis paradigma cualitativo. efectividad. racionalizaciones e ideologías. perspectivas. y la situacionalinterpretativa la subdivide en emic y crítico-hermenéutica. Los intereses de los evaluadores que actúan con una orientación mediosfines dentro del paradigma cuantitativo reflejan cuestiones como las siguientes: 1.¿Cuál es el grado de congruencia entre resultados pretendidos. imitada al campo de los hechos. coste-beneficio. En la orientación medios-fines nos interesa reflejar una orientación de la evaluación que puede ser caracterizada como técnica o instrumental.

La realidad se entiende como socialmente construida. asunciones. Perspectiva de estudios de casos etnográficos. Por su parte. Perspectiva etnomenológica. 6.¿Cuáles son las metáforas fundamentales que guía a los que desarrollan..¿Cuál es la orientación subyacente en el curriculum A en términos de sus intereses fundamentales. etc. que difieren de la orientación técnica.acción... CRÍTICOHERMENÉUTICA Perspectiva fenomenológicohermenéutica. Reglas tácitas con que la gente vive en su vida diaria.A nivel más básico ¿a qué intereses sirve el currículum?. EMIC Cualidad de vida cultural cotidiana.. las distorsiones que subyacen en la existencia humana.. a lo que Paolo Freire llama Praxis. revelando las condiciones ideológicas que hacen posible el conocimiento.¿Cuál es la cosmovisión que subyace al currículum? Este conjunto de intereses refleja una orientación en la evaluación vista desde una teoría crítica de la sociedad neomarxista. sus asunciones y enfoques?. Intuiciones dentro de las situaciones humanas únicas. se les sitúa en condiciones para liberarse o transformarlos. Búsqueda crítica de lo que significa ser humano. En lugar de una racionalidad de medios-fines. la orientación práxica toma un marco dialéctico entre acción práctica y reflexión crítica. Este proceso reflexivo no pretende sólo poner de manifiesto estos supuestos. denso de la cultura.¿)Cuál es el punto de vista implícito de los alumnos y del profesor que ayuda a los planificadores del currículum?. sino entrar en un proceso de transformación de la realidad evaluada. Sumario de modos de entender las orientaciones en evaluación. la orientación práxica (crítico emancipadora)está interesada en otro tipo de cuestiones. . cosmovisiones. 5. 3.¿Cuál es el prejuicio básico de los editores o autores de los materiales y recursos prescritos o recomendados?. Concretado en el mundo vivido de la existencia. implementan o evalúan el curriculum?. 2. Por la explicitación de los supuestos ocultos o inconscientes de los afectados. 4. Revelación de los significados existenciales en la experiencia vivida.. en la actitud moral de emanciparse de ellos. como son las siguientes: 1.. produciendo alienación. Los evaluadores práxicos están interesados en poner de manifiesto los intereses. Cualidad de la existencia humana Conocimiento descriptivo.

creencias y actividades en su situación vivida por aquellos que están inmersos en la situación evaluada. y unir las estructuras de significado de la experiencia vivida.. para esto emplea situaciones de diálogo que puedan clarificar los motivos. sino cómo es vivido. padres y administradores)?)Qué valor tienen estas visiones? 3. 4. 1991:103)..¿Cómo viven la experiencia en esta clase?. La orientación que Aoki llamada crítico-hermenéutica se interesa por las intuiciones en las experiencias humanas como vivencia. 1. 5. administradores y padres" (Aoki. 5.. pretende comprender los valores. Estos intereses se centran en la existencia. Más que una perspectiva "emic"... y los significados comunes. le importa entrar profundamente en conversación intersubjetiva con la gente en una situación de evaluación.¿Cómo es la existencia de un profesor o alumno en esta clase?.La orientación emic. por analogía con su empleo en antropología. APROXIMACIONES TEÓRICAS EN LA EVALUACIÓN: MODELOS. vivencias y experiencias que tienen los alumnos y profesores en la vida del aula.¿Cómo ven el currículum A varios grupos (alumnos... 3.. 2.¿Cuáles son las reglas construidas por el grupo para un currículum determinado en esta clase?. las experiencias auténticas. por tanto una evaluación con esta orientación pretende transcender la objetividad.. La orientación crítico-hermenéutica está interesada "en la búsqueda de los significados ontológicos en la experiencia vivida de los alumnos.¿Cómo estos grupos ven la fuerza y debilidad de un currículum determinado?. sus esfuerzos se dirigen a clarificar. Los evaluadores están interesados en los patrones etnoculturales de la vida en las situaciones escolares. 4. La mayoría de los evaluadores de esta orientación están interesados en la construcción social de la realidad desde un punto de vista antropológico o sociológico.¿Cuál es la cualidad de las experiencias vividas de los profesores y alumnos?. profesores.¿Cómo son experienciados los contenidos trabajados?.¿De que modo estos grupos aprueban o desaprueban un currículum determinado?.¿De qué modo se corresponden pedagógicamente conjuntamente lo que los profesores hacen y enseñan?. profesores. Las cuestiones que preocupan a una evaluación desde esta perspectiva son: 1.. La cuestión más importante no es lo que se enseña.¿Cómo comprender la cualidad de un currículum en la microcultura de la clase?. . 2.

Tanto la evaluación como la investigación. cualitativo y dialéctico. nos aporta muy poco sobre la calidad de los objetivos propuestos. sino desde una visión interpretativa de lo subjetivo.. Por tanto este enfoque se refiere a los resultados de un proyecto..La interpretativa. en un contexto social. B) Se realiza en un contexto de acción. la evaluación es el descubrimiento de la naturaleza y el valor de algo" indicando algunas características comunes: A) Supone conocer el fenómeno a evaluar y determinar su valor. Solo se pueden comprender los significados desde el punto de vista del actor. Para Eisner (1983) son fundamentales la inducción y la observación. programa etc. se identifica la autoridad con el experto. descubrimos la naturaleza y el valor de algo. 2. a) EL PARADIGMA CUANTITATIVO. en base al proceso y resultados de la evaluación. sino comprender el significado que constituye socialmente. Es positivista. Este autor hace un recorrido por tres paradigmas fundamentales: cuantitativo. puede captar . La percepción es muy importante para el evaluador ya que así. Esta nueva definición amplía las formas de evaluar y determinar la eficacia de los objetivos propuestos . para mejorar el nivel de logro de los estudiantes. Según Madans y Kellagham (1992) hay varios tipos de evaluación cualitativa: 1.La artística.Proppe (1990) se basa en la definición de Stake y Dewey (1969) "desde una perspectiva amplia. porque estos no se pueden entender desde criterios externos. La evaluación "acrítica" se fundamenta en el interés por el control. en el que la ciencia es el único camino de conocimiento y la realidad como el único objeto posible de conocimiento. Como es conocido el Comité sobre Estándares de Evaluación desarrollo una serie de ideas y normas en base a una definición de evaluación más amplia:"Investigación sistemática sobre el valor o mérito de algún objeto"(1981). El evaluador estudia los significados y significantes que se asignan a los sucesos por los actores. está fundamentado en el positivismo. Es por lo que no pretende formular leyes universales. qué ha sucedido y que significado tiene o ha tenido para diferentes grupos. D) Es un proceso de aprendizaje. basada en una imagen dualista (sujeto/objeto). b) EL PARADIGMA CUALITATIVO. analizando la evaluación en cada uno de ellos. Supone una representación narrativa de los descubrimientos del evaluador. se interesa por saber qué está sucediendo. C) Hay que tomar decisiones y se toman en determinados momentos. Bajo este concepto se han realizado experiencias de evaluación con el objeto de controlar y evaluar los efectos del curriculum en las escuelas. Pero el énfasis de los resultados. la eficacia y eficiencia.

más que en la certificación. La excelencia se identifica con competencia y esta con el poder de "poner en práctica conocimientos. como la comunicación "sistemáticamente distorsionada" (Habermas. que no todas pueden dominar con facilidad.. con independencia del proceso o de las circunstancias. en un proceso dialéctico que transcienda la dualidad sujeto/objeto. válida y fiable pro medio de la triangulación. metaevaluación. supone una tarea de negociación para ayudar a construir significados y revelar los significados construidos. 3. Desde el paradigma crítico. exigiendo una asimilación progresiva y un trabajo. el proceso de evaluación es un proceso de reflexión y autoreflexión.La sistemática. Pretende ofrecer una visión objetiva. Esta evaluación se basa en el interés por la emancipación respecto a supuestos ocultos o condiciones humanas subyacentes. en forma de evaluación dialéctica. Esto implica que se reduzca el rol de la evaluación como elemento de selección. se muestra la evaluación formal de la excelencia escolar. pero también un proceso de diálogo. Para Madans y Kellagham (1992). La evaluación. entonces. debe ser el catalizador del diálogo. es valorar su excelencia. Juzgar el valor de algo. Proppe (1990) señala que esta visión mantiene la lealtad al dualismo sujeto/objeto. c) EL PARADIGMA CRÍTICO. pero cada hecho educativo debe ser entendido en su contexto y cultura. Por tanto. se propugna la acción. 1987). técnicas. en el que el evaluador se convierte en un auténtico agente de cambio. análisis de la comprensión del mundo. Los esquemas de evaluación deben poner énfasis en la mejora de la calidad del proceso de aprendizaje y las formas de motivación intrínseca. autoreflexión y autocomprensión. Por otra parte. por otro lado rechaza la posición positivista con respecto a que el mundo externo sea el único elemento que determina la visión que se debe tener de la realidad. El evaluador se relaciona con la posibilidad de que todos los seres humanos se convierten en participantes en la "acción comunicativa". está en el interés por el significado de la comunicación intersubjetiva entre los individuos y "sobre ellos" en una situación dada. la evaluación dialéctica es un proceso de recogida y ofrecimiento de información. Así pues. Comparte con el enfoque tradicional el enfoque de la orientación de la investigación hacia "un mundo real" externo a los individuos. . El fundamento de la evaluación.cualidades y relaciones que existen entre el profesor y el estudiante. la "crítica-emancipatoria" pretende generar conocimiento que ayude a las personas a hacerse conscientes de si mismas y a decidir con criterio personal. La excelencia para Perrenoud (1990) tiene que ver con los distintos ámbitos y tareas de la vida humana. es importante establecer mecanismos para que el alumno tenga acceso a los datos y se cuide la confidencialidad y la privacidad de los mismos. Desde este planteamiento. saber hacer. por ello.

y destacan el componente ético de la evaluación. personalidad. dos importantes filósofos de la ciencia. Worthen (1990) señala: "El valor de los modelos yace en su habilidad para ayudarnos a pensar..Enfoques orientados a los expertos: Dependientes primariamente de las aplicaciones de profesionales expertos para juzgar los programas educativos. éstos son dependientes de grandes enfoques o paradigmas de la educación o. más ampliamente. 3. En cambio. En nuestra opinión. 1.La evaluación informal es constante en una clase.. difusión y en cuanto a sus consecuencias referentes a promoción. 1987). criterios y datos de la evaluación..Enfoques orientados a la gestión: Cuya principal preocupación es identificar y reunir las necesidades informativas para los gestores que han de tomar decisiones. .Enfoques orientados al adversario: El foco central de la evaluación es la planificación de oposición de puntos de vista (pro y contra) de diferentes evaluadores. apoyo pedagógico y orientación. para determinar los valores. 5. Clasificación de los distintos enfoques de evaluación (Worthen y Sanders. Este tipo de evaluación informal. Worthen y Sanders (1987) de "puntos de vista alternativos". nos consta que la evaluación es "una práctica ampliamente rechazada por los alumnos y bastante molesta y engorrosa para muchos profesores". Perez Gómez (1983c) y Hopkins(1989:18) hablan de "modelos". ni registrada.Enfoques orientados a los objetivos: Cuyo foco son los fines y objetivos específicos y en qué grado han sido conseguidos. de acción social. Scriven y House. Gimeno (1992). para proporcionar fuentes de ideas y técnicas nuevas. hacen hincapié en la constitución de la evaluación como disciplina. para servir como listas mentales con las que repensar lo que debemos considerar. 6. dado que la búsqueda de la excelencia forma parte de la situación..Enfoques naturalistas y orientados a la participación: Investigación e implantación de los participantes (o "afectados"). en lugar de paradigmas. no hay paradigmas sustantivos propios de evaluación. Este tipo de evaluación suele ser escrita y normalizada en cuanto a su forma... Es por lo que . El análisis de la evaluación en la educación primaria nos lleva a una crítica del sistema de evaluación formal por calificaciones estableciendo diferentes niveles de excelencia sin saber muy bien cuales son los criterios que los guían. 4. Por eso es más conveniente hablar de modelos de evaluación. Aoki (1991) de "orientaciones". etc. Fija oficialmente el nivel de excelencia reconocido a cada alumno. ni negociada. que se integra en el flujo de las interacciones diarias. implica a la organización escolar. la evaluación formal. recordar o de lo que debemos preocuparnos ". necesidades. 2. no está codificada. que consiste en valorar el grado de dominio del curriculum. materiales y recursos educativos.Enfoques orientados la consumidor: Evaluar los "productos" para proporcionar información a los consumidores para elegir entre curriculum alternativos.

. hay que descubrir hasta qué punto las experiencias de aprendizaje han logrado los efectos previstos (Nevo. según él. "Los modelos preceptivos brindan marcos y estrategias más rigurosas para realizar evaluaciones. puesto que existen múltiples diferencias individuales entre los estudiantes.. añadiendo que la medida era la parte descriptiva de la evaluación y la explicación completaba el proceso de evaluación. Tyler apuntó la necesidad de la evaluación. 2) Modelos descriptivos: son aquellas descripciones o análisis sobre los modos de hacer la evaluación en la práctica.Modelo de estudio de casos. Los dos aspectos metodológicos más importantes para llevar a cabo estudios evaluativos son: A. Este método tuvo gran influencia al utilizar la medición.Modelo clásico (o agrícola-botánico). Las bases del primer método sistemático de evaluación surgen a partir del modelo de Tyler. Worthen y Sanders (1987:49 y ss. mientras que los modelos descriptivos presentan una amplia gama de posibilidades válidas" (Alkin y ellet..Modelo de investigación y Desarrollo (o de factoría industrial). preceptos.Desde el contexto inglés a Hopkins (1989) le parece bien distinguir seis modelos de evaluación: 1... los ambientes en los que se desarrolla la enseñanza y la capacidad del docente para lograr los planes. adquiriendo un sentido de legitimación con el paralelismo de la investigación científica... prohibiciones y líneas orientativas que determinan qué es una evaluación adecuada y el mejor modo de llevarla acabo. hablan de que los modelos de evaluación se pueden utilizar en dos sentidos: 1) Modelos preceptivos. son aquellos que proporcionan un conjunto de normas.) estiman que los diferentes planteamientos filosóficos sobre el conocimiento y los valores tienen su correspondiente implicación en los métodos. al proponer una formulación precisa de objetivos como punto de referencia para la evaluación y la toma de decisiones.La dificultad encontrada por los evaluadores al trabajar a través de límites disciplinares y metodológicos. 6. Fases de la evaluación: . MODELOS CUANTITATIVOS: EL MODELO DE EVALUACIÓN POR OBJETIVOS.Investigación cuantitativa/cualitativa. no basta con haber planificado correctamente para lograr unos resultados determinados. Referido fundamentalmente a la evaluación de programas.Model o de toma de decisiones (o político). Alkin y Ellet (1991). B.1989). 3.. 2. Tyler diferenció medida y evaluación. ya que.Modelo del profesor como investigador. 5.Modelo iluminativo ( o antropológico). 4. 1991:2574).

1989).. Para Scriven (1978). y comparar con las necesidades de la gente a la que debe servir. se basa en la necesidad de mejorar la práctica educativa. puede tener valor en si mismo.Examinar los resultados para determinar la áreas del currículum más fuertes y más débiles. dentro de un modelo pretest-postest. 5. 3.Aplicar los instrumentos.Servir la guía para la toma de decisiones. Sin embargo Tyler no dio normas sobre cómo usar los datos de la evaluación. 1989).Identificar situaciones en las que los estudiantes puedan demostrar la conducta expresada en los objetivos.. refiriéndose a los productos o el rendimiento como único criterio. Sttuflebeam.Desarrollar hipótesis y probarlas para explicar los patrones observados de consistencia o debilidad. Pero además esa realidad que se evalúa puede tener valor dentro de un contexto de uso o aplicación. 7.. con sus principales cometidos.Proporcionar datos para la responsabilidad.. el valor está en la medida en que . en cuyo caso. Product). obtener y proporcionar información útil para juzgar alternativas de decisión. es decir. con lo cual la evaluación debe tener otro alcance: se desplaza desde la valoración de los alumnos a la evaluación de programas. .Determinación de los objetivos específicos de cada área de contenido.Examinar o desarrollar instrumentos capaces de probar cada objetivos. 2. es decir. Por un lado. para poder juzgar su valor. y 1975. 6. 4. Según el autor las funciones de la evaluación son: . la evaluación es un proceso que implica descripción y juicio o valoración. Process. Para ello es preciso diseñar. a) El modelo CIPP (Context.Promover la comprensión de los fenómenos implicados. lo cual define Scriven como mérito. valor libre de contexto. proporcionar estándares para saber cómo juzgar la discrepancia entre las medidas y los objetivos propuestos. La evaluación orientada al perfeccionamiento de los sistemas. Imput. la función de la evaluación está en conceder valor a lo que se está evaluando. que ignoraba los juicios sobre la dignidad y mérito. b) Modelo de evaluación libre de objetivos. 1985 y Sttuflebeam y Sinkfield. y no solo para los alumnos. MODELOS DE TRANSICIÓN HACIA LA EVALUACIÓN CUALITATIVA Stake (1967. sin. es decir. incluye en el modelo la técnica del grupo asesor para la evaluación de entradas. además.Hacer modificaciones apropiadas en el currículum.1. que no evaluaba los objetivos. para comprobar que se han dado cambios y que pueden se imputados al currículum. Este modelo de Sttuflebeam (Sttuflebeam y Sinkfield.. Tyler entendió la evaluación como un proceso terminal. según Guba y Lincoln. algo inherente e independiente de posibles aplicaciones. .. Se le criticó que su evaluación no es explicativa.. propuso objetivos para las condiciones contextuales y para la conducta del profesor.

en los referente a las estrategias de la difusión de programas de innovación. La evaluación del mérito puede ser más homogénea. Además propondrá la evaluación libre de objetivos. Fuente de estándares: juicio sobre las necesidades locales SUMATIVA Intención: crítica. Debido a esto Scriven. si se establecen los criterios de bondad. Fuentes de estándares: juicios y valores del contexto local. El objetivo de la evaluación formativa es refinar y mejorar los criterios y juicios sobre los aspectos intrínsecos de las realidades que están siendo evaluadas. porque el valor depende de la situación.proporciona tales soluciones. Sin embargo tanto el mérito como la dignidad son valores variables. aunque se tiende a una profesionalización de esta. según Guba y Lincoln. Intención: certificado y justificación para uso local. Audiencia: equipo de adaptación local. Sin embargo la evaluación formativa es más propia de los profesionales que están tendiendo a una profesionalización de esta. si se juzga conforme a ellos. que aumente la objetividad y los resultados deben hacerse públicos. La evaluación sumativa. pero también teniendo en cuenta el valor que tienen para varias audiencias.50). al margen de los objetivos previstos. las relaciones entre tipos de evaluación y su objetivo: TIPO DE EVALUACIÓN FORMATIVA MÉRITO Intención: modificar y mejorar el diseño. según Scriven (Guba y Lincoln. para Scriven. VALOR Intención: ver las adecuación al contexto. Además puede ayudar a los administradores a decidir si implantar a nivel general un currículum o programa o modificarlo. sin excluir que algún . en cuanto a las personas que juzgan debido a sus distintos indicadores de esos valores. es decir. evaluador externo. Fuente de estándares: panel de expertos. certificado y justificación. Audiencia: equipo que lo desarrolla. Audiencia: los que toman decisiones locales. Fuente de estándares: panel de expertos Especifica el valor y el mérito en cada tipo de evaluación. A continuación se muestra. es un valor extrínseco que el autor llama dignidad. evaluar el programa en sus efectos. como muestra Bridges (1988) en la siguiente tabla donde se resumen las condiciones necesarias para ello.p. Pero la determinación de la dignidad requiere una evaluación en el contexto en el que se realiza. adaptadores potenciales. debe realizarse por un experto. 1985. El objetivos de la evaluación sumativa es determinar el impacto o los resultados en el contexto en que se obtienen tales resultados. lo cual tienen sus efectos más importantes. Audiencia: compañeros profesionales. establecerá la diferencia entre evaluación formativa y sumativa. a la que se dirige la evaluación.

INFORMES VALORES STATUS DESCRIPCIÓN/PRESCRIP CIÓN CERCANÍA/DISTANCIA El evaluador tiene una posición de curiosidad imparcial. El evaluador tiene distintos valores que los que desarrollan el programa. MODELOS CUALITATIVOS: Dentro de ellos podemos destacar los siguientes: MODELOS NATURALISTAS Modelo de evaluación respondiente. de ahí que se evalué sin referencia a objetos. Se percibe al evaluador como en un status diferente y particular. A continuación se presenta un cuadro comparativo entre la evaluación preordenada. consensual Objetivos del programa. El evaluador entrará en la discusión sobre estrategias alternativas. . analiza e informa solamente. o acciones recomendadas El evaluador desea la iniciativa para el éxito y siente alguna responsabilidad en este éxito. escepticismo y oposición Diferencia entre una evaluación más formativa y una menos formativa (Bridges. 1988). y la evaluación respondiente de Studie: Item comparativo Orientación Perspectiva de valor Bases el diseño de evaluación Evaluación preordenada Formal Única.evaluador o momento de la evaluación determine el grado de consecución de los objetivos planteados. Base común de valores compartidos entre evaluadores y los que desarrollan el programa. Evaluación respondiente Informal Pluralista. HACIA MAYOR INDEPENDENCIA Y UN INFLUENCIA MENOS FORMATIVA Documentos escritos producidos después de haber realizado la práctica. Preocupaciones y problemas de la audiencia. El problema surge cuando se valoran los efectos sin criterios. Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa. y cuyo criterio serán las necesidades de los sujetos a los que se dirige el programa. hipótesis. El evaluador describe. según el modelo de Tyler. CRITERIOS HACIA UNA INFLUENCIA MÁS FORMATIVA Y MENOS INDEPENDIENTE Dialogo continuo formal o informal con los directores los que tomas decisiones. posibilidad de conflicto.

Formal: informes. Estimulador de los sujetos con visión de probar un funcionamiento crítico. 1975) es sensible a las necesidades e intereses de la audiencia.Preconcepciones del evaluador. por lo que la primera fase hace referencia a los problemas. Estos problemas deben utilizarse para discusiones. )Cuándo está completo el diseño?. Métodos Comunicación. habilidad. Test.28). a menudo progresivos. 1989. y posteriormente servirán para organizar el plan de recogida de datos. Programa de actividades. motivaciones o problemas de las personas en y alrededor de la evaluación. aptitud. medida. . dudas y necesidades. es un estadio típico. Estimulado por los sujetos y las actividades. La evaluación respondiente (Stake. Nunca. descripciones. proporcionando experiencia variada. Descripción narrativa. sobre dominio. Informal. entrevistas. periodismo y poesía. Modelos de contraposición Consiste en proponer evidencias sólidas en torno a los problemas para los que se toman decisiones sobre los programas. Antropología. El valor instrumental de la educación. p. comunicación holística. reacciones. interpretación simbólica. ya que la observación y la información deben ser continuas y estar presentes en todas las fases. La forma del modelo quiere romper la idea de linealidad. Feedback Paradigma Psicología experimental Comparación de las formas de evaluación preordenada y respondiente (Guba y Lincoln. retratos. identificando variables y sus relaciones. negociaciones e interacciones. Subjetivos: observaciones. Rol del evaluador Al comenzar la evaluación. Continuamente está evolucionando. Informe escrito. resultados. y la búsqueda de soluciones. De la discusión puede surgir la clarificación. Objetivos. bien será el existente o el propuesto. las acciones correspondientes. Owen propone algunos de los ámbitos de discusión que se basan en la investigación sobre "pros" y "contras": a) Para explorar los valores de un currículum. Una forma de identificar problemas es hablando con los implicados. siendo mejor si en el análisis de dichos programas participan distintas personas que aportan visiones diferentes sobre un mismo problema. a menudo oral. proporcionando modelos el programa. Para poder emitir juicios correctos.

Dos elementos clave orientan esta tarea: los objetivos del programa y las entrevistas al personal implicado. d) Para revelar las distintas interpretaciones que distintos representantes hacen sobre los mimo datos. Tarea para un grupo de implicados representante de los diversos grupos. f) Para clarificar cuestiones en torno a los contratos de trabajo. pero marca la diferencia del conocimiento que obtiene el "entendimiento educativo"con el del antropólogo. la organización y las concepciones de los individuos. cuestionarios y tests. e) Para informar a los profesores. Un jurado deliberará sobre los argumentos presentados. Sttuflebeam y Sinkfield (1989). la evaluación judicial. Por otra parte. Pueden utilizarse entrevistas. defiende el modelo de evaluación iluminativa. y tratando de desvelar las relaciones entre las creencias y las prácticas. así como el análisis de la información documental e históricas. señalan tres etapas: a) Observación. . Por ello no sólo cuentan los hechos sino también las interpretaciones de las personas implicadas. c) Preparación de los argumentos. directores y administradores. está compuesta de cuatro etapas: a) Proposición de problemas relativos a la evaluación de un programa. para Wolf. c) Para estimar la congruencia entre una innovación y el sistema existente. c) Explicación. los procesos curriculares innovadores tal como ocurre. b) Selección de problemas sobre la priorización de los vistos. g) Para tomar decisiones sobre todas estas cuestiones. Todo ello se hace entre de un marco de negociación cuya meta es facilitar la comprensión de los procesos por los propios participantes y servir de estímulo a su enriquecimiento en el plano personal y tanto como en el grupal. a través de la inmersión en la realidad. Eisner (1979).b) Para seleccionar libros de texto. b) Investigación: Selección y planeamiento de cuestiones de manera coherente y sistemática sobre el programa en su contexto. De ahí que proponga tres condiciones: a) Disponer de valores para juzgar sobre el mérito y la dignidad de un proceso educativo. así como la observación. Tarea de dos equipos evaluativos que deben reunir y analizar los datos convenientes. Modelo de crítica artística Este modelo se centra en procesos educativos y está muy ligado con la formación del profesorado. Se destapan los principios subyacentes de la organización del programa y se ven las posibles relaciones causa-efecto en sus operaciones. etapa de iluminación. describiéndolos en términos de factores influyentes. d) Discusión ante la audiencia. quien no evalúa porque no tienen interés pro mejorar la cultura. abarcando todas las variables que afectan al resultado del programa. Modelo de evaluación iluminativa Trata de comprender de forma amplia.

que deja las cosas como están. Las base para una evaluación democrática debe se la perspectiva o la epistemología critica. los valores y las circunstancias. Lakomski (1983) critica la evaluación democrática de McDonald porque no proporciona una respuesta política al problema de control. El evaluador se preocupa por determinar el valor educativo de su política y actuar como consejero. Es personal y exige desarrollo de la capacidad de percepción. o valoración educativa según unos criterios. * Conclusión. iluminando las prioridades. divulgar el conocimiento obtenido para hacerlo comprensible a otros.* b) Poseer un conocimiento refinado. cuyos conceptos claves son la negociación. Su finalidad es proporcionar datos relevantes para los que tienen que tomar decisiones. Los informes pertenece a la administración y la técnicas deben ser creíbles y eficaces. c) Democráticos: Servicio de información a la comunidad entera sobre las características del programa educativo. La evaluación democrática. Tiene la siguiente estructura: Descripción. También critica la idea del evaluador como "agente honesto". generalización de la idea básica obtenida. Los informes son burocráticos. A su juicio se debe a la aceptación de la perspectiva fenomenológica. b) Autocráticos: Servicio condicional a las agencias con poder para distribuir los recursos. Reconoce la pluralidad de valores. ofreciendo la información necesaria para conseguir sus objetivos políticos. confidencialidad y accesibilidad. Los informantes tienen el control sobre el uso de la información. * Evaluación. Basado en el derecho de sabe. Emerge de un marco teórico fenomenológico. Las técnicas son científicas. interpretativo. Las técnicas de recogida de datos son accesibles a personas no especialistas. que facilite la comprensión de los hechos en relación con los factores que influyen sobre ellos. para que otros vean y experimenten los contenidos a través de la forma. que toma en consideración el factor político y el tema del control y del poder en la evaluación. El evaluador acepta los valores de la autoridad. distinguiendo tres tipos: a) Burocrática: Trabajos que sirven incondicionalmente alas agencias gubernamentales con poder para distribuir los recursos educativos. El rol del investigador es democratizar el conocimiento. McDonald (1983) piensa que las diferentes formas de evaluación responden a diferentes posiciones sobre la distribución del poder educativo. MODELOS CRÍTICOS. * Interpretación. puesto que olvida que la actividad de evaluación está influenciada por los valores del propio . es decir. apreciación. Se rige por los principios y la objetividad y la responsabilidad profesional. científicos y públi cos. c) Tener crítica educativa. sin embargo creemos que está a medio camino entre los modelos prácticos y lo críticos.

Lo que contradice el principio de construir reglas y criterios universalmente válidos para la aplicación de un programa..119). aunque siempre hay elementos constrictores de la libertad e acción y circunstancias que están más allá del control de los participantes. histórica y culturalmente negociada. evaluadores. * Criterios para un evaluación democrática del currículum. sobre la naturaleza y la dignidad de un programa. 4) Principio de la pluralidad de perspectivas de valor: En la evaluación hay que tratar de determinar cuáles son las perspectiva más relevantes en el proyecto. existente dentro de la comunidad. Partiendo de la definición de Kemmis (1989. p. Por lo cual será importante clarificar los criterios para una evaluación democrática. cuando. e informar a la audiencia para dar pie al debate sobre el programa. Pero el hecho de que no haya valores absolutos no quiere decir que no haya criterios por los que lo evaluadores puedan juzgar lo que debe hacerse en cada situación. la evaluación externa contribuir al debate crítico pro acrecentar la conciencia de algunos intereses y valores relevante para el programa. según el autor. no es más que un sofisticado relativismo en el que..evaluador.). "Evaluación es el proceso de ordenación de la información de los argumentos que permiten participar en el debate crítico sobre un programa específico a individuos y a grupos interesados". cuando los diferentes grupos no están de acuerdo o entran en conflicto de valores. 5) Principio de la comunidad autocrítica: La evaluación debe refinar el debate crítico. 3) Principio de comunidad de intereses: El evaluador deberá iluminar la extensión de los intereses comunes y de los conflictos entre valores e intereses de los participantes de la comunidad. Por ello es importante atender al proceso de negociación de los participantes. 2) Principio de autonomía y responsabilidad: Este principio implica a todos lo participantes (profesores. para identificar los factores contextuales e históricos que influyen y facilitan el análisis crítico de estos aspectos. Parece ser que se parte de la aceptación de que el pluralismo es la única posición válida. De ahí que la autocrítica sea la primera base para la evaluación. Se basa en el principio de autonomía moral y cooperación o responsabilidad compartida entre los patrocinadores del programa y los participantes. 6) Principio de propiedad en la producción y distribución de información: Los argumentos y la información son un . y la evaluación independiente puede ayudar a aprovechar la autocrítica al programa allí donde el programa de la comunidad es difuso o dividido por la controversia. La metaevaluación puede ayudar a mejora la calidad de la contribución el programa de evaluación. ya que a través de él se van cambiando las exigencias del programa en un proceso de debate crítico o conservación Para adoptar este principio es preciso partir de que la realidad es social. los cuales deberá descubrirse mediante la evaluación. patrocinadores. se admite que no hay forma de establecer cuál de ellos es correcto porque todos ellos son igualmente válidos. considera que un programa de evaluación sobre desarrollo curricular e innovación debe estar desarrollado por los siguientes principios: 1) Principio de la racionalidad como lo razonable: La tarea de la evaluación es iluminar el razonamiento que guía el desarrollo del programa.

orientar a conocer cuál es el nivel de consecución de alguna meta u objetivo existente de un programa. Es decir. . La investigación científica debe ser su modelo. circunstancias y oportunidades de los que serán más estrechamente implicados en el programa. LA EVALUACIÓN COMO INVESTIGACIÓN. considera que la evaluación es una actividad orientada a determinar el valor de algo y. según Suchman (1967). Su característica fundamental.aspecto importante de la evaluación porque su uso y abuso afecta a los participantes y a los observadores del programa en su vida social. cambiarlo o retirarlo. Suchman (1967) distinguió ente evaluación e investigación evaluativa. Weis (1989). y si se debe continuar con él ampliarlo. reducirlo. obligaciones. Se necesitan pruebas para convencer a otras persona acerca de la validez de las conclusiones. definiéndola como aquella forma de evaluación que establece criterios claros y específicos para el éxito. necesidades. que la investigación pretende obtener conclusiones generando nuevo conocimiento. ética y política. desarrollo y operatividad de los programas. Los supuestos básicos de la investigación evaluativa. Para este autor la investigación evaluativa es necesaria cuando: Los resultados que se quieren evaluar son complejos. definido por un valor. La finalidad es ayudar en la planificación. * * * * El estudio de casos en investigación curricular. producción y distribución de este proceso o de elaboración de información. Por ello la evaluación deberá hacer explícitos lo principios de procedimiento que gobierna la dirección. 7) Principio de conveniencia: El diseño de evaluación no es una cuestión teórica o técnica sino práctica. son: * La utilidad de los resultados debe ser el criterio fundamental del evaluador. debe aportar conocimiento suficiente porque los que toman decisiones quieren y necesitan saber con qué grado de acierto está cumpliendo el programa los objetivos para los que se estableció. Las decisiones que se derivan son importantes y caras. y no debe realizarse con relación a la "lógica interna" del modelo de evaluación que se elija. y la investigación como la actividad científica que trata de aumentar la posibilidad de demostrar el valor de alguna actividad social. difíciles de observar y constan de muchos elementos que reaccionan de diversas formas. sino en relación a las preferencias. Entendida la evaluación como el proceso de emitir juicio de valor.

Ying (1987.) Los conocimientos sobre una disciplina no sólo se transmiten en la enseñanza y se comprueban en los exámenes. la evaluación contribuye "la determinación de lo que son los conocimientos válidos de una disciplina. Walker (1989) considera el estudio de casos es el intento de investigar a través de la experiencia de los sujetos del estudio para ofrecérselo a los que son audiencia. En este sentido la evaluación legitima el curriculum a aprender/enseñar/seleccionar en un campo de conocimiento o disciplinar de una etapa educativa. se presenta como una perspectiva amplia. se entiende por estudio de casos el análisis de una instancia en acción. participación. por ejemplo. son medio des influir en la vida del centro. en un buen estudio sobre la . b) El estudio de casos da una formación del mundo. sino el mismo examen contribuye a establecer los conocimientos válidos de una disciplina". realidad.13) define el estudio de caso como un método de investigación que permite un estudio holístico y significativo de un acontecimiento o fenómeno contemporáneo dentro del contexto real en que se produce.Según Pérez Gómez (1983). Madaus y Kellagan (1992:147). Marcelo y Parrilla (1991) citan las siguientes: totalidad. de lo que escribes.. la evaluación de la innovación curricular. citado por Marcelo y Parrilla 1991. hemos de incluir. señalan que este es "un área compleja de estudio. Nunca describe la realidad como es ahora. y/o como programa o contenido. la entrevista. en el que es difícil establecer lo límites entre fenómeno y contexto. o con los alumnos sobre la enseñanza. tras la revisión (histórica) del campo de la evaluación del curriculum. Las características del estudio de caso son definidas por diversos autores. Madaus (1988). al curriculum como resultado o producto. Por ejemplo. Como ha destacado Kvale (1992:121-2). Shulman (1992) subraya como característica. innovadores o formativos). aparte de dimensiones internas del curriculum (contenidos. etc). el hablar cono profesores sobre sus sentimientos. a los test. etc. así. confidencialidad y accesibilidad. ya que se hace un selección para entrevistar. sobre la vida de otros. y de la investigación educativa". En ambos casos van unidas. y la evaluación de programas (educativos. materiales. que es evaluado en el aprendizaje de los alumnos. que el estudio de casos refleja los problemas particulares de la enseñanza. Por esto. Sin embargo el autor reflexiona sobre alguno problemas y los presenta como razones para no hacer el estudio de casos: a) El estudio de casos es una intervención. con relaciones cercanas a la evaluación de programas. y que requiere el uso de múltiples fuentes de evidencia. para que te hablen. LA EVALUACIÓN DEL CURRICULUM EL CAMPO DE LA EVALUACIÓN DEL CURRÍCULUM "Evaluación de curriculum" entendida como la evaluación de curriculum diseñado. (. capta un instante en el tiempo y el espacio y lo detienen frente a la realidad cambiante. y a través de ellos se puede conseguir una visión clara de ello que sucede en la clase. p.. a menudo incontrolada. particularidad. Dentro de la evaluación del currículum. negociación. c) El estudio de casos es conservador. la observación de la enseñanza. La evaluación del curriculum ha estado dominada por un cierto imperialismo de los test y estándares establecidos.

alumnos.La evaluación de la práctica curricular se dirige a lo que los profesores y alumno han utilizado. refiriéndose a la evaluación del curriculum en la práctica. es dependiente de múltiples perspectivas filosóficas y metodológicas conjuntamente. pero la asociación tradicional entre investigadores y evaluación ha motivado un énfasis en los test y medida. prioritariamente se centra en juzgar/valorar su éxito y resultados. en su dimensión sumativa.La dirección de la evaluación del curriculum se puede dirigir a la administración educativa. 3. o de personal.En segundo lugar. propugnan una "evaluación social del curriculum". cifrando el primero en describir el posible valor educativo del currículo. de un método de enseñanza. profesores. y cubre un amplio rango de actividades curriculares (procesos y productos) que pueden ser objeto de evaluación. Aquí igualmente se presenta un amplio espectro de modos y formas de evaluación Desde la perspectiva crítica Apple y Beyer (1983). qué se aprende. y la orientación al diseño. 3. pues la suposiciones metodológicas suelen implicar concepciones del curriculum.Los métodos aplicados. La finalidad del análisis es describir y comprender una situación. contexto y situación investigada. Evidentemente esto es una generalización. 1988:83). sus potencialidades curriculares y sus procesos de desarrollo. 2.. desarrollo e informe. distinta de la investigación curricular sobre evaluación en la medida en que no pretende proporcionar material para la discusión teórica. sino información útil para iluminar la práctica. Ariav (1986) señala los siguientes propósitos. ha puesto de manifiesto cómo los test usurpan el papel del currículum en la definición de lo que hay que enseñar y cómo hacerlo: "No es currículum oficial. están usando o van a usar en el futuro.La evaluación del curriculum es dependiente de las múltiples perspectivas del curriculum existentes. 2. mientras que la "evaluación del curriculum". King (1991). sino los test quienes están determinando cada vez más que se enseña.. caracterizada por redefinir la unidad de evaluación dentro de un contexto más amplio y por focalizarse en las funciones . agencias patrocinadores. la toma de datos empíricos.. independientemente de sus resultados . de igual manera..1986) entre análisis del curriculum y evaluación del curriculum.. y cómo se aprende"(Madaus. Por otra parte podemos distinguir funcionalmente (Ariav. métodos de la evaluación del currículum: 1. señala las siguientes características iniciales: 1. al tiempo que puede proporcionar evidencias que puedan ser tomadas en cuenta para guiar la toma de decisiones (y en este aspecto guarda similaridad con la evaluación formativa).. teniendo una función descriptiva más que prescriptiva. La evaluación puede dirigirse al uso de un material curricular específico.El propósito de la evaluación del curriculum es juzgar el éxito o fracaso de un curriculum particular. porque según los diferentes modelos de evaluación se centrará en cuestiones diferentes y aplicará diferentes metodologías. son diferentes en los modelos y fines. comunidad escolar. como base para clarificar el campo. cómo se enseña.influencia de los test en la determinación del currículum.

sociales que cumplen el curriculum escolar. 1994:26). 1983: 430) para ver las conexiones entre el curriculum y las estructuras ideológicas y económicas: 1. todos ellos se convierten en objeto de evaluación" (MEC. clase social. a todo el conjunto del sistema educativo". en suma. que fue inventada para solucionar nuestros problemas sociales.Las perspectivas. Por ello la evaluación del curriculum es incompleta si se limita a la "caja negra" de la escuela investigando lo que se enseña o las experiencias de los alumnos con los programas escolares. en cuanto son dependientes del curriculum o influyen decisivamente en él (entorno escolar o apoyo externo). Dado que las escuelas no son entidades aisladas. En consecuencia. necesitarían ser objeto de estudio en una evaluación social del curriculum (Apple y Beyer. Así en el reciente documento a debate presentado por el MEC (1994) sobre "Centros educativos y calidad de enseñanza" se señala: "Al adoptar una concepción más compleja e interactiva del curriculo. Los resultados de la educación vienen determinados por la actuación de los profesionales que en ella intervienen.Las interacciones cotidianas y regularidades de la vida escolar: Lo que se ha llamado "curriculum oculto" como modo en que se enseña y reproducen importantes valores y normas sobre trabajo. procedimientos y teorías fundamentales que los docentes utilizan para planificar. afirma que: "La importancia actualmente cobrada por la evaluación educativa y el notable desarrollo de las funciones que le han sido atribuibles ha producido una ampliación paulatina de su ámbito de actuación. por la organización y funcionamiento del centro no escolar en el que aquélla se lleva a cabo. la evaluación del curriculum debe ampliarse a estas funciones socioeconómicas. que constituyó su campo de intervención originario. que realizó una revisión de las tendencias actuales en evaluación y dice: "La evaluación. y por la actuación del aparato administrativo que debe proporcionar los recursos para el funcionamiento eficaz del sistema en su conjunto. distribución y reproducción de las relaciones sociales. Parte de la siguiente definición de evaluación: . expresado en materiales curriculares y vivenciados por el profesor y los alumnos.. más allá de la valoración de los aprendizajes adquiridos por los alumnos. se encuentra afectada hoy en día. al currículo. al menos. la evaluación alcanza actualmente a los centros educativos.. ha proporcionado un conjunto de principios que deben regir un proceso de evaluación democrática en el desarrollo curricular.El corpus formal del conocimiento escolar: El curriculum planificado. el campo de la evaluación del curriculum se ha ampliado considerablemente hasta poder abarcar otros campos. por la propia definición y desarrollo del currículo.. divorciadas del contesto social y de sus funciones de legitimación. SENTIDO DE LA EVALUACIÓN En un documento del MEC (!994) sobre "Centros educativos y calidad de enseñanza". 2. a la propia Administración y. raza y género de nuestra sociedad. precisamente por los mismos problemas que tenía que resolver". al profesorado. 3. No obstante. Kemmis (1986: 119). organizar y evaluar lo que sucede en las escuelas. producción. ya no se justifica reducir la tarea de evaluación exclusivamente al alumno y al proceso de enseñanza y aprendizaje. Próximo a nosotros tenemos a House (1992). Tres dominios.

"Evaluación es el proceso de recoger información y argumentos que capaciten a los individuos y grupos interesados para participar en el debate crítico sobre un programa específico. Así definida la evaluación consiste en aprovechar y refinar los múltiples procesos de enjuiciamiento público y privado, no en substituirlos con tecnologías de valoración". CONCEPTUALIZACIÓN DE LA EVALUACIÓN. La evaluación tiene como objeto determinar el valor de una cosa, Worthen y Sanders (1987:24) definen la evaluación como "el acto de proporcionar juicios para determinar el valor (valía o mérito), sin minusvalorar por ello las importantes funciones que la evaluación tenga en la toma de decisiones y en las actividades políticas. En educación, la evaluación es la determinación formal de la cualidad, efectividad, o el valor de un programa, producto, proyecto, objetivo, o curriculum. La evaluación, para ello, utiliza métodos de investigación y de juicio, como: 1.- Determinar los estándares para juzgar la cualidad y decidir cuáles de ellos deben ser relativos o absolutos 2.- Recoger información relevante sobre los objetos de evaluación; y aplicar los estándares para determinar la cualidad. Gimeno (1992, p.338) define la evaluación como "proceso por medio del que alguna o varias características de un alumno, de un grupo de estudiantes, de un ambiente educativo, de objetivos educativos, de materiales, profesores, programas, etc., reciben la atención del que evalúa, se analizan y se valoran sus características y condiciones en función de unos criterios o puntos de referencia para emitir un juicio que sea relevante para la educación". En el artículo de Cronbach (1963), Presentó un cambio muy significativo en el que se elabora una propuesta sobre los tipos de decisiones en el uso de la evaluación: 1.- Mejora del curso/programa: Decidir qué material de instrucción y qué métodos son satisfactorios y en cuales es necesario introducir cambios. 2.- Decisiones sobre individuos: Identificar las necesidades del alumno, con el fin de planificar su aprendizaje, valorar sus méritos con fines de selección y agrupación, familiarizándose con sus propios progresos y deficiencias. 3.- Regulación administrativa: Juzgar la calidad del sistema escolar, la de los profesores individualmente considerados, etc. Cronbach plantea la necesidad de centrar la evaluación en el propio proceso de desarrollo de un curso, con el objeto de mejorar y evitar lagunas que al final del proceso no se pueden superar. Nevo (1989) llevó a cabo una revisión biliográfica sobre evaluación y señaló las dimensiones relevantes en la evaluación del curriculum: 1.- )Cómo se define la evaluación? La evaluación educativa es una sistemática descripción de los objetos educativos y/o su mérito o valor.

2.- )Cuáles son las funciones de la evaluación? Señalaremos cuatro funciones básicas en la evaluación educativa. 1.- Formativa (para desarrollar y mejorar). 2.- Sumativa (para selección, certificación, rendir cuentas). 3.- Sociopolítica (como motivación y soporte de apoyo público). 4.- Administrativa (para ejercer control y autoridad). Por otro lado Gimeno (1992) al referirse a la evaluación de la enseñanza, considera siete tipos de funciones que de hecho ejerce la evaluación: a) Definir los significados pedagógicos y sociales, o qué se entiende por excelencia escolar. Y a partir de la consecución de la excelencia o de niveles de excelencia, definir el significado social de términos y las realidades como la calidad de la educación, o el rendimiento, el éxito, el fracaso escolar, etc b) Funciones sociales. Dado que a través de las certificaciones se acreditan los niveles de competencia en función del grado de saber demostrado, sirve para la jerarquización de los puestos de trabajo y la selección de las personas que deben desempeñarlos. c) Poder de control. El profesor ejerce su poder, fundamentalmente a través de las calificaciones. Controla la conducta, y es una forma de compensación a la ausencia de liderazgo.

d) Funciones pedagógicas. También sirve a funciones con claro objetivo educativo, o de mejora, que son las que legitiman la existencia de la práctica de la evaluación.(creación de ambiente escolar, función diagnóstica, recursos para la individualización, afianzamiento del aprendizaje, orientación, pronóstico y ponderación del currículum y socialización profesional). e) Funciones con respecto a la organización escolar. Proporciona conocimiento para una ordenación del currículum y una organización de la práctica real de la enseñanza. f) Proyección psicológica. En la medida que repercute en la motivación, el autoconcepto y las actitudes hacia la escuela, etc.

g) Apoyo a la investigación. Es una fuente de información sobre el funcionamiento del sistema educativo, y la validez de los currículums. 3.- ¿Cuales son los objetos de la evaluación? Cualquier entidad puede ser evaluada, pero los objetos más frecuentes son: alumnos, personal administrativo y docente, curricula, materiales, programas proyectos, e instituciones o centros. No debe limitarse a alumnos y profesores, y es necesario identificar claramente el objeto de evaluación, ampliar el objeto de la evaluación, para que esta sea más explicativa.

A.- La evaluación de los alumnos En la evaluación de los alumnos considero dos formas: la evaluación por parte de la administración, y la evaluación por los profesores. a) La evaluación por parte de la administración se realiza generalmente mediante exámenes; esta ha sido la forma más utilizada en todos los países. Marsh (1992) considera que el problema de los exámenes hoy día se sitúa fundamentalmente a nivel de la enseñanza secundaria, pues aunque han sido muy utilizados en el siglo XX, sin embargo se está operando un cambio de manera que se han desplazado desde la primaria a la secundaria. b) La evaluación del alumno por los profesores Los profesores toman en cuenta la cantidad de información tanto al planificar como durante la tarea de instrucción (habilidad y logro, cuestiones sobre el sexo, participación en clase, autoconcepto, competencia social, independencia, conducta en clase, hábitos de trabajo,...) Pero el logro es lo más importante, de forma que hay evidencia de que el juicio sobre la capacidad, la motivación y el esfuerzo del estudiante dependen de su valoración del resultado. B.- Evaluación del profesor Es opinión pública, que la clave de la mejora de la educación está ligada al grado de calidad de los profesores, lo cual a llevado a la administración a tomar diferentes decisiones en torno al cambio para facilitar la mejora. de esta manera se ha visto en la necesidad de adoptar medidas para realizar una evaluación correcta. * Entrevista al profesor. Se ha usado en el pasado y es la piedra angular de las estrategias de evaluación más recientes. Test de competencia. Se usan para certificación inicial y para el contrato. Los profesores deberían demostrar competencia cognitiva como un prerrequisisto para poder enseñar. Medidas indirectas de la competencia del profesor. Esto no se refiere a características de la personalidad, sino a rasgos tales como el compromiso profesional que se expresa a través de actividades extraescolares, etc. Observación de clases. Supone observación directa del estilo del profesor en clase, durante la interacción con sus alumnos, y generalmente se completa con entrevistas. Se pueden usar instrumentos estandarizados de observación para facilitar los juicios de los observadores, como Weade y Evertson (1991) recomiendan, ya que la observación sistemática y deliberada, como una acción intencional enfocada a determinados propósitos, puede y debe ser planeada para poder obtener justamente la información que se necesita. Valoraciones de los estudiante. Se basa fundamentalmente en que: 1) los estudiantes saben cuando han sido motivados; 2) son los estudiantes los que van a cambiar la conducta; 3) ellos saben si el

*

*

*

*

* Revisión de compañeros. y desde luego no es útil una aproximación unidimensional para juzgar la competencia del profesor. 8. Evaluación del Claustro de profesores. La autoevaluación puede promover autoreflexión y la motivación hacia el cambio y el desarrollo personal y profesional.. En este proceso un comité de compañeros evalúa la enseñanza a través de un análisis de documentos. concluyeron que no hay un único método válido. como método de investigación. 4. 3. No olvidando que se deben emplear múltiples y variados criterios. cuatro grupos de variables deben ser consideradas: los objetivos del objeto/aspecto a evaluar. 2.¿Cómo se realiza el proceso de evaluación? En el proceso de evaluación. Es responsabilidad del evaluador/es delimitar a los afectados por una evaluación e identificar o proyectar la información necesaria. sus estrategias y planes. 5. y la consecución de objetivos determinados para los objetos propuestos. lo cual es un pilar de la profesionalización. porque todos tienen sus riesgos .Comunicar los hallazgos a las audiencias.. El grado de consecución de normas y estándares. Aunque es una idea entusiasta.. 7...¿Qué tipo de información debe ser recogida para cada objeto? Independientemente de los modelos de evaluación que condicionan esta dimensión.¿¡Qué métodos de evaluación deben ser usados en la evaluación? .. y sobre los aspectos organizativos. Un profesor puede usar datos derivados de las otras técnicas y hacer juicios sobre su propia enseñanza.profesor proporciona feed-back. 4) El reconocimiento de los estudiantes pude motivar la buena enseñanza..¿)Qué criterios se han de emplear para juzgar el mérito de un objeto? Al menos tendremos en cuenta los siguientes: Si responde a las necesidades identificadas de los actuales o potenciales clientes.Centrarse en el problema de evaluación. su proceso de implementación.¿A quién debe servir la evaluación? La evaluación debe ofrecer la información necesaria para todas las partes implicadas tanto las actuales como potenciales. y sus resultados e impacto. interesadas en el objeto de evaluación.. * Darling-Hammond y sus colaboradores (1989) después de revisar los procedimientos de evaluación del profesor. Unido a una estrecha interacción entre el evaluador y los destinatarios. en la práctica puede causas tensión. la existencia de otros objetivos no planteados. debe incluir las tres actividades siguientes: 1.Coleccionar y analizar datos empíricos. 6.

.Comprensión del contexto social y del tema específico de evaluación.Analítico: Tratar el programa como una totalidad holística.Formativa . Viabilidad (ser realista y prudente). credibilidad. 9. 3.Habilidad para mantener relaciones humanas correctas con los individuos o grupos implicados en la evaluación.. o defender la legitimidad de proporcionar un juicio sobre el programa evaluado. que necesita de varios métodos de trabajo. o estudios de caso particulares. utilidad y precisión.. 3.Sumativa: Una de las distinciones más extendidas es si los estudios de evaluación se hacen durante el desarrollo del programa o cuando el programa ha finalizado.Juicio: Priman los aspectos descriptivos y objetivos en la información proporcionada. 7.La evaluación es una tarea compleja...Formal .Una amplia competencia en metodología de investigación y otras técnicas de análisis de datos. Precisión (técnicamente adecuada).Respondente: Si la evaluación debe venir predeterminada por la observación de las actividades o por la realización de preocupaciones de los participantes en el programa . 6. 2. como los estudios de caso. utilizando de acuerdo con la naturaleza del problema el método de investigación que mejor se ajuste a la demanda solicitada. 5.Proceso: Otra distinción relevante en los estudios de evaluación es si se dirigen a los resultados de un programa.. 2. y Apropiada (ser realizada de modo legítimo y ético). según el valor extremo del programa o su valor intrínseco. categorizandolos en los siguientes: 1. o hacer estudios analíticos como las relaciones entre variables .. Por otra parte tenemos a Stake (1986) que ha señalado las dimensiones más comunes para clasificar los diseños de evaluación.Caso particular . suele requerir validez.Descripción ..Preordenado . Stake plantea sus dudas sobre la base en la práctica de la distinción. 4.Informal: Evaluar de un domo informal es una actividad específicamente humana.Producto . La evaluación está más operacionalizada y menos personalizada.Generalización: Si el estudio de un programa se hace como representativo de otros.¿Quién debe hacer la evaluación? La evaluación debe ser realizada por equipos de profesionales que posean: 1. 4.-Totalidad .-¿)Por medio de qué estándares debe juzgarse una evaluación? La evaluación debe lograr un equilibrio óptimo en el conjunto de estándares de: Utilidad (su uso y su práctica). con pretensiones de generabilidad..Un marco conceptual para integrar las capacidades mencionadas... o a sus procesos de desarrollo. 10.

extenderlo o adoptarlo. Por otra parte. "Solo el tiempo de realización. Para un alumno hay un comienzo y un final. aquellos que lo financian. EVALUACIÓN FORMATIVA Y SUMATIVA Siguiendo a Cronbach. en la evaluación sumativa la audiencia incluye a los potenciales consumidores (alumnos. mientras que en la sumativa las decisiones conciernen sobre si continuar con el programa o darlo por finalizado. DIMENSIONES DE LA EVALUACIÓN FORMATIVA Y SUMATIVA. y supervisores. El supuesto básico la evaluación formativa es que los agentes utilizan o podrán usar la información obtenida para el estudio que realizan. 1992:2552). Las audiencias en el caso de la evaluación formativa es el personal inmerso en el programa.Externa: Si la evaluación es realizada por personas implicadas en la institución responsable del programa o por externos. El propio Lewy (1991: 2552-3) reconoce que "tras dos décadas de utilización de estos términos se ha producido poco consenso en lo que se refiere a sus rasgos distintivos".el desarrollo no acaba nunca. en un principio por las audiencias a quién van dirigidas y el uso que se hace de la información. etc. Se diferencian. el público que la pide y la manera de usar los resultados. Por eso Scriven resaltó que no hay diferencias lógicas o metodológicas entre la evaluación formativa y sumativa. distinguiendo entre lo que se hace durante el desarrollo y aquello que se hace cuando el desarrollo ha terminado. La evaluación formativa sirve para tomar decisiones sobre el desarrollo del programa. Scriven en 1976. y unos informes sumativos pueden servir para promover el desarrollo). aunque la distinción entre formativa/sumativa es "superficialmente clara". en la práctica no funciona así (una evaluación formativa puede convertirse en una serie de pequeños informes. nunca acaba. Estos términos tienen un efecto dramático. Por eso Stake (Worthen y Sanders. 8. pues el propósito de ambas es examinar el valor de una entidad determinada. los términos han sido universalmente utilizados. distinguió entre roles o funciones que pude cumplir la evaluación "propongo la utilización de los términos evaluación formativa y sumativa para hacer referencia a estas dos funciones de la evaluación"). Hopkins (1989:168) señala que. interpretado y negociado. pueden indicar si una evaluación es formativa o sumativa. Esta posición influye en cómo es evaluado. el mismo estudio pude ser considerado formativo por un cliente y sumativo por otro" (Lewy. En el caso de la evaluación . y Fernandez Perez (1994:781) los denomina "evaluación sobre el proceso" y "evaluación terminal". Esta distinción es difícil en la práctica. Para la mayoría de los programas educativos-cursos de correspondencia..discretas. Stufflebeam las ha llamado "evaluación proactiva" y "evaluación retroactiva". pero para el profesor.Interna . como términos más adecuados. programas Montessori. Acercándose a Stake. Lo que es importante es que hay diferencias entre lo que la "gente del programa" quiere conocer sobre el programa y lo que los "externos" quieren conocer". Yo encuentro esta distinción trivial. diferenciar entre evaluación interna y externa: " En el campo de la evaluación los términos formativo y sumativo han llegado a ser cada vez más utilizados. 1987: 36) propone. el programa sigue funcionando. profesores y otros profesionales).

procesos. revistas especializadas En la última década ha emergido con fuerza una perspectiva interpretativa de análisis de los significados. normalmente rendimientos académicos de los alumnos. Desde una perspectiva que intente unir desarrollo curricular e investigación no tiene sentido separar el papel de desarrollador interno y evaluador externo. más preferentemente . en el caso de la evaluación sumativa el modo de aplicación se basa en informes de evaluación para responsables de evaluación. Un evaluador externo es alguien que en alguna medida no forma parte del proyecto. y que le sirva para defender su viabilidad frente a las escuelas tradicionales. sin embargo en la evaluación sumativa el nivel deseado de generalización se escapa hacia operaciones con objetos similares. medidos en términos cuantitativos. planificadores de la educación. conferencia. tanto si son personal especializado. necesita también de una evaluación sumativa que le sirva para demostrar su mérito y valor. según los diferentes estándares de calidad. que emplea como instrumento básico de mejora la evaluación formativa o autoevaluación.autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. aunque referido a la evaluación del profesorado universitario.. Zabalza (1990b) contrapone la evaluación orientada al control a la evaluación orientada al desarrollo. la acción conjunta del centro y su compromiso por la mejora escolar. Scriven define de las siguientes formas las evaluaciones externas e internas: Evaluaciones internas son aquellas hechas por el personal del proyecto. informe interno. Aquel que desarrolló un curriculum debe ser un investigador. La nueva evaluación equivale a investigar la naturaleza y los problemas de la innovación educativa y el perfeccionamiento de las escuelas" (Stenhouse. Dos características diferenciales entre la evaluación formativa y la sumativa las encontramos en el nivel deseado de generalización y el modo de aplicación. 1984: 169). lo que implica valorar los procesos. En la práctica un proyecto de innovación.. EVALUACIÓN INTERNA/EXTERNA Siguiendo la sugerencia de Stake. De este modo está en crisis si lo que se debe evaluar es la consecución de los objetivos prefijados centrándose en los resultados. o para presentarla como una alternativa a la evaluación sumativa. ambos se fusionan: "En mi opinión el desarrollo del currículum debería tratarse como investigación educativa.sumativa: "lo que funciona en un contexto sometido a unas condiciones debe operar de manera similar en otro contexto". o alguien que en el caso del personal de evaluación es diferente del personal que está siendo evaluado. y no un reformador. como si son externos a la parte encargada de producción/escritura/servicio del proyecto. sujetos o grupos implicados y la iniciativa de la evaluación. De modo similar al nuestro. junto a la dimensión anterior se pude diferenciar entre evaluación interna (realizada por los que están trabajando en el programa) y externa (conducida por agentes externos). o. No debemos caer en el error de oponerlas dicotomicamente. se ha utilizado injustificadamente la evaluación formativa como excusa para evitar las demandas de rendir cuentas de resultados. y la limitada difusión entre evaluadores y programas similares al estudiado. pues como recuerda recientemente Nevo (1994: 94). El modo de aplicación en la evaluación formativa se basa en el informe oral. . En la evaluación formativa el nivel de generalización está limitado al contexto especifico evaluado. modos de trabajo y "cultura". desarrollado autonomamente por un centro escolar. a veces.

Personas implicadas en el desarrollo del programa o currículum.También se plantea necesidad de una evaluación interna debido a que la evaluación del currículum forma parte de la cultura de la escuela. Cuando se trata del currículum básico. En cuanto a la evaluación de los aprendizajes del curriculum. Debe conocer cual es el nivel de la eficacia en la tarea encomendada al sistema educativo. A menudo informal Frecuente/continua Normalmente pequeña. ¿Cuál es el grado de eficacia? Formas/roles Medida Frecuencia de datos Tamaño muestra Audiencia Principales cuestiones . sobre todo a efectos administrativos. CONTROL/EXTERNA Certificar comparativamente la eficacia de un programa. Los alumnos. Rosales (1990)ve la necesidad de implicar a diferentes grupos de personas: a) Los profesores. Son los responsables de la evaluación inicial y continua de sus alumnos. ¿Qué necesidades tenemos?. Válida/fiable Limitada en el tiempo Normalmente extensa Administración. Deben conocer qué valoración va obteniendo el aprendizaje de sus hijos en la escuela. ¿Qué coste?. La sociedad. b) c) d) DIMENSIONES DE LA EVALUACIÓN INTERNA/EXTERNA Dimensiones Propósito DESARROLLO/INTERNA Mejorar internamente el funcionamiento de un programa. Observación sistemática. por ello requiere crear cauces de participación y responsabilización apropiados para la toma de decisiones del currículum escolar. Centrado en los resultados. es preciso someterla a deliberación. Evaluación sumativa Responsabilidad: Dar cuentas de los resultados Externos Cuantitativa: validez. ¿Cómo se está trabajando?. o de proyectos de innovación que desarrollan el currículum básico. Necesitan conocer los resultados que va teniendo su propia actividad y esfuerzo. Desarrollo y mejora del programa o curriculum Agentes Metodología Internos Cualitativa: Etnográfica y procesual. ¿Qué resultados?. potenciales consumidores o patrocinadores. Los padres. Test estandarizados o pruebas formales. Orientado en los procesos internos Evaluación formativa. la evaluación interna puede ser completada por la externa.

INFORMES VALORES STATUS DESCRIPCIÓN/ PRESCRIPCIÓN . Como resultado de un Proyecto llevado a cabo en Israel para capacitar a los centros a hacer su propia evaluación.¿Cómo mejorar?.Los resultados o impactos no deben ser únicamente los aspectos a examinar cuando se evalúa un programa.. El evaluador sólo describe. 2.. analiza e informa. 1987:36). aunque cada una pueda tener ventajas para ciertos propósitos: Evaluación interna para una evaluación formativa y para proveer feedback para la mejora.El personal escolar entiende mejor el significado de la evaluación mediante la distinción entre descripción y juicio. Criterios Hacia una influencia más formativa y menos independiente Diálogo continuo formal o informal con los gestores y los que toman decisiones Base común de valores compartidos entre evaluadores y los que desarrollan el programa Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa El evaluador entrará en la discusión sobre estrategias alternativas. para proveer información en orden a planificar y mejorar. defiende que la evaluación basada en la escuela puede ser concebida como sinónima de "evaluación interna". 3. Dimensiones principales de la evaluación (Reelaborado a partir de Worthen y Sanders. o acciones Hacia una mayor independencia y una influencia menos formativa Documentos escritos producidos después de haber desarrollado la actividad práctica. así como para certificar y dar cuentas. 4. proyecto u otro objeto de evaluación dentro del centro escolar. y para proveer información para demostrar el rendimiento de cuentas o resultados.La autoevaluación tiene que servir conjuntamente para una función formativa y sumativa.Los alumnos y sus resultados no deben ser el único objeto de la evaluación escolar. interesa cómo la evaluación puede servir para un desarrollo o mejora interna del aspecto o actividad evaluada (Hopkins. El evaluador/es tiene distintos valores que los que desarrollan el programa. La tarea de hacer más formativa una evaluación se convierte en el problema de cómo el conocimiento producido en la evaluación es utilizado por los usuarios. Pero más allá de discriminaciones conceptuales. y la externa para una evaluación sumativa. implicando una formación para aprender de la evaluación. en combinación con la "evaluación externa".. Se percibe al evaluador como en un status diferente y particular. Nevo (1994) expone las siguientes conclusiones extraídas: 1.. 1989). Nevo (1994). La distinción entre evaluación interna y externa no tiene por qué implicar un juicio de valor sobre la superioridad o ventajas de una sobre otra.

evaluación y cambio son distintos. Holly y Hopkins (1988) han propuesto. Paradoja de la evaluación formativa (según Bridges. pudo incluir la tradición Tyleriana de medida de resultados o "productos" para detectar aquellos aspectos. y evaluación como mejora. Cada una tiene sus propias implicaciones metodológicas y puede servir para cuestionar el papel de la evaluación en el proceso de mejora escolar. * Evaluación basada en objetivos. * Posible uso conservador por los centros. Evaluación PARA la mejora "Evaluación formativa" Ayudar a introducir mejoras en la práctica * Evaluación durante el proceso. al tiempo que cada una se sitúa a un nivel superior del círculo y pueden conducir a otra. * Mayor implicación de los usuarios. * Usar los datos para mejorar la práctica. * Perspectiva de "fidelidad". recogido en Hopkins. * Comunicar y utilizar los datos. distinguir tres perspectiva sobre la relación entre mejora escolar y evaluación: evaluación de la mejora. La evaluación de la mejora. * Posible mecanismo de interiorización de responsabilidad. * Mejora como adopción de propuestas externas. en un programa educativo o curriculum. y diferenciar.recomendadas COMPROMISO/ DISTANCIA El evaluador toma la iniciativa para el éxito y siente alguna responsabilidad en este éxito. que no toda evaluación formativa implica un desarrollo organizativo del centro. * Limitarse a como facilitar el cambio. que no funcionan eficientemente de acuerdo con las expectativas prefijadas. El avaluador toma una posición de curiosidad imparcial. evaluación para la mejora. RELACIÓN ENTRE MEJORA ESCOLAR Y EVALUACIÓN. * Determinar el grado de implementación y factores que lo explican. Evaluación DE la mejora Medida de la consecución de los objetivos. Caracteres Limitacione s * Permanecer en un plano emic. sin transcender el contexto local. en un primer plano. con fines clarificadores. 1989:168). * No centrarse en los factores que constituyen el proceso de cambio mismo. . escepticismo u oposición. * Autoevaluación del centro. Aspectos Finalidad Evaluación COMO mejora La evaluación forma parte del proceso de desarrollo * El papel de evaluador y usuario se identifican. * Racionalidad instrumental de medios-fines. La distinción tiene la virtualidad de romper con la oposición fácil entre evaluación sumativa y formativa. dentro de una evaluación orientada a la mejora escolar.

y otros sesgos desde los que se realiza la evaluación. como intento de introducir mejoras en la práctica docente. La evaluación. confidencial y accesible a todos los implicados. En palabras de House (1973: 131) "La utilización de la metodología científica en el contexto de justificación nos permite justificar los resultados producidos en el 'contexto de valoración'". negociador. y autorenovación"(Darling. influyen en sus cambiantes relaciones". el patrocinador y evaluadores en la elaboración de los informes de evaluación para contribuir a hacer un uso democrático: Independencia. y consecuentemente utilizados por los agentes . es usada para ofrecer a los profesores informaciones prácticas sobre el aprendizaje de los alumnos y proveer información para que la comunidad escolar se comprometa en "un proceso recursivo de autoreflexión. inserta en el propio desarrollo organizativo del centro. autocrítica. y se discuta y reelabora entre los diferentes grupos de interés. tanto los métodos aplicados. en todo proceso de evaluación dos contextos: el contexto de valoración y el de justificación. que una política externa de evaluación de alumnos. de hecho. La evaluación democrática en las instituciones educativas se entiende como un servicio de información a toda la comunidad. identificándose los papeles de evaluador y usuario por medio de la autoevaluación escolar.. publicación. técnicas empleadas para demostrar los resultados extraídos. el contexto de valoración se refiere a valores. del acceso a los datos y de la información. aplicó un análisis político a la evaluación. si no se entra en los propios mecanismos distorsionadores del pensamiento de los agentes sobre sus propias condiciones de trabajo. ideología. agente de cambio y dinamizador. en estos casos. "Los evaluadores no solo viven en el mundo real de la política educativa. formales o no. Pero el control democrático por los agentes implicados en la metodología utilizada y de la información generada no deja de ser una propuesta moralista y/o piadosa. Para House (1973:130) se pueden distinguir. por lo que su finalidad es cómo facilitar el cambio. se debería hacer o sería legítimo lograr.Hammond. desinterés. LA PRÁCTICA EN LA EVALUACIÓN DEMOCRÁTICA. que configuran la comunidad educativa". 1994: 26). centros o profesores sólo puede legitimarse desde la orientación de ofrecer apoyos a la base para mejorar la enseñanza. confidencialidad y rendimiento de cuentas. desdeñando en parte los factores del proceso de cambio. actitudes. sin reconocer un derecho especial a ningún grupo. para lo que utiliza metodologías e informes que puedan hacer accesible el conocimiento. Una fase clave en la evaluación educativa es la diseminación de los resultado e informes evaluativos. proponiendo frente a tipos burocráticos o autocráticos. ha señalado un conjunto de Principios de procedimiento. como primer paso para la reflexión conjunta sobre lo que se hace. negociación del informe. autocorrección. etc. McDonald (1976). es decir se guía por un conjunto de valores contribuyendo a hacer explícito un dibujo más claro de la institución y de lo que significa su trabajo en el conjunto más amplio de las prácticas sociales. Beltran y San Martín (1992: 67) la definen como "aquella en la que. Mientras que el contexto de justificación incluye todos los procedimientos científicos. La evaluación de la mejora implica que ésta tiene como fin explícito la mejora escolar. El evaluador externo adopta la posición de mediador. como la información generada en el proceso evaluador es abierta. una "evaluación democrática". Darling-Hammond (1994) han argumentadon.La evaluación como mejora se puede asimilar a la llamada "evaluación formativa". McTaggart (1990). que deberán seguir y respetar. negociado.

Por tanto Darling-Hammong (1994:25) propone un sistema de evaluación externa que potencie la igualdad y la mejora interna (1994: 25): "cambiar las formas y formatos de evaluación sin cambiar los modos en que la evaluación es usada no cambiará los resultados de la evaluación. Más bien deben contribuir a enriquecer el discurso público de la comunidad educativa sobre el sistema educativo público: "Debe proveer información que capacite a los agentes educativos a reflexionar y hacer un mejor escrutinio de sus actividades"(Bryk y Hermanson. EVALUACIÓN FORMAL DEL CURRICULUM. por lo que el evaluador debe preveer. La comunicación a los potenciales usuarios necesitan una información válida. En cuanto a la distribución y uso por profesionales o administración. han tenido un uso instrumental o "ingenieril". Desde esta perspectiva las evaluaciones en base a indicadores no deben pertenecer al uso privado de políticos o administradores educativos para ejercer más efecto sobre las escuelas. (. Madaus y Kellaghan (1992) estiman necesaria una evaluación formal del currículum. produciendo una merma relevante en la interpretación y uso de la información. se ha observado que los análisis vienen a sugerir que casi nunca se hacen cambios en función de los resultados de la evaluación. la evaluación debe ser una parte integral para incentivar el diálogo entre los profesores y el desarrollo de la escuela". proponiendo ellos. Debemos tener en cuenta los canales de comunicación y el contexto de trabajo ya que este.)En orden a mejorar la educación. 1992: 466). Inyectar nuevos conocimientos en una organización es un acto micropolítico. programas o alumnos. se diseñan y realizan para producir datos/juicios que serán usados con determinados fines por agentes/audiencias diversas. clientes y agentes proporcionando información para comprender y reflexionar sobre la situación. ya que los profesores suelen hacerlo de forma secundaria. De hecho. los potenciales usos que se puedan hacer de los datos de la evaluación y del procesamiento de los mismos. Bryk y Hermanson (1992). se presenta como el filtro último para juzgar la pertinencia y adecuación de los resultados. inevitablemente. debían servir para ilustrar a los patrocinadores. significativa y operacionalizada.. y poner los medios. dado que su preocupación principal es la evaluación del nivel de logro de los alumnos. debemos clarificar al máximo. por lo que más que dirigirse a la toma de decisiones. señalan que estos. Partiendo de que todo conocimiento es poder. Determinados principios éticos deben ser respetados por tanto en la producción. que afecta la circulación de la información en una situación dada y tiene consecuencias vitales para los que la sufren".. sin tener en cuenta los factores que afectan al procesamiento social de dicha información. 1990). Si queremos apoyar el aprendizaje de los alumnos. del proceso de enseñanza o de los alumnos)es obvio. al revisar los sistemas de indicadores de evaluación como instrumentos necesarios para mejorar el sistema educativo. un uso ilustrado de la información: "proporcionar información para comprender los problemas y catalizar nuevas ideas". Como dice Kemmis (1986)): "La evaluación es. el modelo Tyleriano pretendía ser un instrumento para ayudar a los profesores a . debemos incluir a los profesores en todas las fases del proceso y que la evaluación esté implicada en el curriculum y en las actividades de enseñanza. Las evaluaciones formales (de los centros. (Huberman y Cox. el uso y la distribución de los informes de evaluación. distribución y control de los informes de evaluación de centros. un proceso político.sociales y educativos.

a las materias de enseñanza con objetivos específicos adaptados al contenido de los cursos y necesidades particulares de grupos de estudiantes. proceso y producto). Stake distingue tres elementos sobre los que centrar el proceso de evaluación (antecedentes. con fuerte acento en Tyler y Taba. pero también para evaluar la adecuación de los materiales. input.. evaluación libre de objetivos (Scriven) u objetivos expresivos (Eisner). a través de los objetivos como elementos del curriculum. No todos los modelos dan el mismo énfasis.. no dejan de ser obvios y tradicionales. si desarrollan otros objetivos no pretendidos. necesidades e intereses). El modelo CIPP. es preciso hacerlo como criterio necesarios de evaluación.. Un conjunto de cuestiones pueden plantearse en la evaluación de los materiales: elementos que incluyen. Madaus y Kellaghan (1992) proponen seis componentes fundamentales del curriculum que deben ser evaluados. 3. en relación con los restantes elementos. que contempla todos los elementos y aspectos que presenta la enseñanza: 1. Zabalza (1987) hace una propuesta de evaluación comprhensiva del proceso de enseñanza/aprendizaje. recoge cuatro categorías (Contexto y evaluación de necesidades. 4. destrezas. 1. organización del centro. 5. si son guías para el desarrollo. y resultados).Áreas de desarrollo de los sujetos: .Contexto: Partir del contexto de desarrollo del curriculum. acción conjunta del curriculum por el centro. por su dependencia con concepciones valorativas (educativas y sociales). los procedimientos empleados y los resultados obtenidos. no obstante.Transacción y procesos: Los procesos y la interacción en clase deben ser evaluados.. rendimiento académico..Objetivos generales: Aunque es difícil definirlos y operativizarlos. también la concepción educativa del centro y de la sociedad. Seis componentes principales en la evaluación del curriculum (Madaus y Kellaghan. naturaleza de la materia y psicología del aprendizaje. como dice Taba.. como las características de los alumnos (nivel cognoscitivo. como señaló Tyler. Por otra parte silencian dimensiones como organización y estructuración del curriculum.Resultados: El fin último de la evaluación curricular es qué resultados producen en los alumnos los elementos anteriores.Materiales curriculares: El curriculum planificado se concreta en los materiales curriculares empleados. etc. señalando a modo de notas a pie de página otras versiones.área cognitiva: conocimiento y habilidades mentales. 1992). que recojo en el siguiente gráfico. A pesar de la variedad de aspectos o dominios y métodos. 6. 2.evaluar el curriculum. transacciones alumnos-profesor. Los elementos y forma de evaluación que proponen Madaus y Kellaghan. normalmente con metodologías cualitativas.Objetivos específicos de las áreas curriculares o unidades didácticas: Trasladar los objetivos generales. etc. No obstante cabe una deliberación curricular sobre los contenidos (Walker).Este contexto es relevante para los objetivos. .. a si deben evaluarse sólo en función de los objetivos explícitos o también de los no intencionados.

. etc..área relacional social. ajuste personal...autoevaluación. Por tanto reducirse a tan sólo una técnica significa renunciar a la información que ella no puede darnos y que si podrían dar otro tipo de técnicas. Componentes y aspectos de una evaluación comprehensiva (Zabalza. . . etc.observación. etc. ..significación: recogiendo aquellos aspectos más importantes o que han sido definidos como prioritarios. relaciones interpersonales.Técnicas de evaluación: .Situaciones controladas: las típicas situaciones artificiales en que se plantean tareas de papel y lápiz.. . Operaciones mentales: . nivel de adaptación.. 1987).evaluación del proceso y del producto.Contenidos. intereses. . 4. . de exámenes orales. heteroevaluación y mixta o de triangulación. entrevistas.evaluación cuantitativa y cualitativa.Situaciones en que se recoge la información: .Situaciones naturales: las que surgen en la dinámica norma de una clase.evaluación individual y en grupo.entrevistas. 5. .representatividad: que se recojan una muestra representativa de los contenidos-tareas trabajadas y de las operaciones puestas en juego. . ..Modalidades de evaluación: . 3.sociogramas. ejercicios prácticos. . 2.evaluación sumativa y formativa. .pruebas objetivas y tests. en el recreo.(cada tipo de técnica se especializa en un tipo de información. etc.área afectivo-emocional: satisfacción. . Tareas.exámenes orales y escritos..

LA EVALUACIÓN DEL CURRICULUM A TRAVÉS DE LA AUTOEVALUACIÓN La autoevaluación institucional. como analiza Martínez Bonafé (1989:64). y por lo tanto como un campo de investigación de la práctica profesional del profesor. partiendo de los principios de justificación y desarrollo de los proyectos curriculares que estemos llevando a cabo. en que el proceso de autorevisión y reflexión crítica de la propia realidad. colegialidad y compromiso.La evaluación para Stenhouse. reivindicando la dimensión actual de autorevisión colegiada de la labor conjunta del centro. guiado por unos valores de cooperación. En una perspectiva de fidelidad podemos medir los resultados de un programa comparándolos con los objetivos del programa. como lo hace Lewy (1976: 36): "Un programa que se ha incorporado exitosamente dentro de un sistema educativo y ha tenido una calurosa acogida del profesorado. se debe constituir un una investigación sobre el desarrollo del curriculum. Desde estas coordenadas se habla de un control de calidad de un programa. Zabalza (1987:289-90). Para prevenir esto. y a la propia organización de la escuela. Pero en una perspectiva procesual es más difícil valorar cualitativamente el desarrollo curricular innovador. a la estructuración. además. organizativo y profesional de los profesores. en la práctica. La evaluación del curriculum se centra en la revisión de los fundamentos y la práctica de las decisiones que los enseñantes adoptan en el centro con la colaboración de un asesor externo". como estrategia de revisión y desarrollo de la mejora. Una evaluación institucional se inscribe en un marco más amplio de la reconstrucción cultural de la escuela y de sus pautas de trabajo. organización y desarrollo del curriculum. De este modo. desde esta perspectiva. debe mantenerse un permanente seguimiento del control de calidad del programa. consiste en la "comprobación crítica del curriculum como hipótesis de acción educativa". a la enseñanza del profesor. a los materiales curriculares. Hernández (1990: 12) define. revelar cómo algunas o todas las partes del programa deben alterarse o reemplazarse. lo que se podría cambiar y consensuar planes de acción. De este modo la evaluación. El sentido de esta autoevaluación institucional del curriculum es la mejora de la propia institución escolar y de la calidad de enseñanza (evaluación formativa y . nos permita analizar y valorar las líneas generales del proceso". Este control debe. Por ello la mayor parte de los estudios de evaluación del curriculum se refieren a una perspectiva de "fidelidad". se convierte en el contexto para promover el desarrollo curricular. el control de la calidad puede conducir a la actualización de un programa viejo o al desarrollo de nuevos programas. caracteriza la evaluación del desarrollo del currículum como "realizar una especie de reflexión. precisando a continuación que "los resultados de este tipo de evaluación tendrá la virtualidad de reorientarnos respecto a qué es lo que consideramos importante a nivel de principios curriculares y si estamos funcionando o no. la evaluación del curriculum como " la puesta en marcha de un proceso que exige por parte de quienes lo inician la voluntad de reflexionar sobre la práctica con el ánimo profesional de aprender de ella de forma constante. El control de calidad debe hacerse mediante el estímulo a aquellas escuelas en las que el programa se implementa en forma adecuada y reforzando aquellas en que la implementación ha sido defectuosa. significa que el centro escolar como conjunto genera procesos y formas de trabajo dirigidas a autorevisar lo que se hace cotidianamente. El deterioro total o parcial puede ocurrir en todo el sistema o solo en ciertas áreas o escuelas. en el sentido que tales principios enmarcan". entendiendo el curriculum como un problema práctico. De acuerdo con el análisis de Martínez Bonafé (1988) los problemas a investigar se refieren al aprendizaje de los alumnos. puede deteriorarse con el tiempo.

y emprender acciones de mejora en aquellos aspectos que se consideren prioritarios. problemas). 2. frente a producido desde "fuera" por expertos evaluadores financiados por la Administración. Esto significa situar al profesorado con la disposición.- 4. como ejemplifica la siguiente figura. su capacidad para resolver colegiadamente los problemas y de tomar la reflexión y revisión de la práctica. No se debe entender como algo puntual o formalista. Se trata de revisar y diagnosticar el estado actual del Centro y su funcionamiento. para rectificar o modificar las líneas de trabajo planteadas y para reflexionar sobre ellas. Planificación para la acción y búsqueda de alternativas y recursos: En un segundo momento. etc. Holly y Southworth. una vez definido el ámbito de mejora. Para esto es necesario promover la capacidad del centro para ponerlo en práctica. sino revisión permanente.procesual). se compone y está relacionada con otros componentes. actitud y competencia para aprender del contexto de trabajo. necesidades. en que aspectos conviene corregir. inscrita en un compromiso por la mejora. coordinada y reflexivamente. entraríamos en la elaboración conjunta de un plan de desarrollo de la escuela y. De este modo la finalidad y sentido en la autorevisión escolar no es primariamente evaluar la consecución de los objetivos prefijados encontrándose en los resultados normalmente rendimientos académicos de los alumnos sino. qué va sucediendo en la práctica con los acuerdos tomados. o un a"escuela en desarrollo" o una "escuela evaluativa". previendo los recursos necesarios. rendición de cuentas o fiscalización del funcionamiento del Centro (evaluación externa o sumativa). en una búsqueda colegiada de soluciones. más que el control de resultados.Autodiagnóstico: Identificación y análisis de necesidades: Revisar y valorar la realidad actual del centro (logros. Desarrollo o puesta en práctica: Analizar. parte por reconocer/capacitar al Centro para hacer su propia evaluación. por medio de procesos de revisión conjunta de su práctica diaria y de la propia acción educativa del centro en los espacios discursivos del trabajo colectivo. como ejes sobre los que articular la mejora escolar. al tiempo que supone reivindicar una perspectiva dialógica del conocimiento primando el conocimiento local. 1992b. modificados o ampliados. como alternativa al profesionalismo de expertos externo para evaluar la realidad escolar. En último extremo la autoevaluación se institucionaliza cuando un centro se acerca a una "comunidad de aprendizaje". más preferentemente.- 3. clarificar las necesidades llegando a un entendimiento y priorizar ámbitos concretos de mejora. entre otros. generando conocimiento desde la propia práctica en deliberación con los compañeros.- . generar alternativas. No obstante la autoevaluación institucional del centro escolar. 1. Evaluación como y para la mejora: Inserta "en espiral" en el propio proceso de desarrollo se autorevisa colegiadamente lo conseguido para generar nuevos problemas o prioridades y líneas de acción. que´efectos está teniendo. La evaluación del desarrollo curricular no es un apartado final ni un procedimiento formal o burocrático. Partiendo de una relación de compromiso institucional por la mejora de la educación. se suelen utilizar un modelo flexible y contextual con estos procesos (Escudero. se utiliza un modelo de "resolución de problemas" en que se genera desde dentro consenso para mejorar las dimensiones organizativas y didácticas del trabajo escolar. 1989). ir haciendo un balance permanente para ver si los cambios deben ser mantenido. Holly y Hopkins (1988). como han puesto de manifiesto. sino un proceso dinámico de decisión y revisión en torno a cómo vamos a abordar los problemas. por parte del grupo de profesores. autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. La autoevaluación institucional. de respetar la profesionalidad del profesor.

exista tan poco referido a la evaluación de innovaciones. en sus primeras formulaciones. La evaluación tanto del curriculum como de la innovación curricular. y el consecuente apoyo posterior. y Evaluación a largo plazo. Estrategias basadas en la realidad institucional de los centros escolares: p. 3.. desde una perspectiva procesual. sitúa estos tres componentes en la evaluación de una innovación curricular: 1..2. LA EVALUACIÓN EN LAS INNOVACIONES CURRICULARES En sentido amplio la evaluación del curriculum.Fases en la autorevisión del centro escolar. pero los estudios de investigación de estas relaciones están en las primeras etapas de desarrollo y plantean algunas dificultades intrínsecas". recursos e instrumentos". Casi la totalidad de los estudios examinados aisladamente uno u otro. se pueden distinguir diferentes estrategias para llevar a cabo la evaluación. Evaluación durante el proceso de implementación. sino también qué otras consecuencias (no planificadas) ha tenido la innovación. o basadas principalmente en el sujeto/profesor como individuo: P. Fullan (1985c:1212).- En sentido general los modelos y técnicas de evaluación de programas son trasladables a la evaluación de las innovaciones. .e.Los factores que han afectado a la implementación. como hicieron en este apartado González y Escudero (1987: 143-160). 2. estrategias. tanto la adecuación/validez del "prototipo de diseño curricular". actitudes capacidad organizativa y otros resultados. dependientes cada una de diferentes perspectivas sobre el cambio educativo: 1. forma parte de todo proceso de desarrollo curricular innovador. No obstante.Estrategias de origen tecnológico para ver el grado de implementación y facilitar el desarrollo. Cuál es el estado actual del cambio en la práctica en un tiempo dado. Como señala Fullan (1985c: 1212): "La mayoría de la literatura del campo no trata investigaciones que examinen las relaciones entre proceso de implementación y resultados. b) c) A su vez. y El impacto de la implementación en el aprendizaje de los alumnos. como el propio proceso de planificación. como ha especificado Sttuflebeam en su modelo CIPP: a) Evaluación durante el proceso de planificación del curriculum. como dice De la Torre (1992: 953): "Resulta un tanto sorprendente que siendo tan amplia la literatura disponible sobre evaluación educativa y evaluación de programas.- Desde una perspectiva de proceso no sólo se debe examinar el desarrollo curricular a la luz de los objetivos de la innovación. debe suponer. el CBAM.e. RBE o DO. (por lo que es preciso) recurrir a la evaluación curricular y de programas para inferir modelos. al menos. como proceso de investigación. de los procesos de cambio.

1987). según el grado de implementación... Disposiciones favorables para utilizarla IV. El modelo CBAM ("Concers Based Adoption Model") ha sido uno de los que específicamente ha pretendido convertirse en un modelo de evaluación del desarrollo de las innovaciones (Hord. Pobre coordinación. observando la práctica docente de los profesores NIVELES DE USO USUARIOS VI. 1981:21). El comienzo del desarrollo del modelo presentado discrimina cinco tipos de usuarios. diferenciando entre usuario y no usuario en la innovación. el CBAM emplea las "configuraciones de la . entonces. El CBAM suele usar un cuestionario (SOCQ) sobre los estadios/niveles de interés/implicación para obtener el perfil individual de las preocupaciones dominantes en la adopción y desarrollo de la innovación. complementado por entrevistas y estudios longitudinales... orientación. Además de la adopción en una innovación.PREPARACIÓN NO USUARIOS I.. Por eso mismo los diferencia en tres niveles (no uso.Desde esta misma perspectiva se emplean también procedimientos abiertos.USO MECÁNICO II. Tener en cuenta estos últimos significa partir de las actitudes y conductas previas para una posterior adopción. tiene establecida una rutina de uso. Y es que "ciertas reformas no producen efectos.ORIENTACIÓN 0.B REFINAMIENTO IV. para lo que es necesario determinar los niveles de uso de la innovación. Cambios menores para facilitar el uso. no actúa Niveles de uso de la innovación. Evalúa impacto e introduce cambios para mejorarlo o potenciar sus posibilidades No introduce casi cambios. es necesario evaluar cómo está siendo desarrollada en las aulas. y con ello como una estrategia para facilitar el desarrollo y gestión del cambio en los centros educativos. vuelven a crear en algún otro punto del sistema educativo el mismo desequilibrio que pretendían corregir" (Unesco. preparación).. Los niveles de interés permiten analizar la dimensión personal y afectiva del proceso de innovación.. que permitan describir qué cambios introducidos en la práctica han resultado exitosos.A RUTINA III. al determinar los "niveles de uso de una innovación". por su propia dinámica. otras provocan efectos inesperados o incluso opuestos a las intenciones iniciales y otras. Junto a los anteriores elementos. completados por la observación directa. cualitativos..INTEGRACIÓN INDICADORES Busca alternativas/opciones más efectivas. Intenta colaborar/coordinar activamente con otros el uso de la innovación.NO USUARIO Buscar información No conoce.RENOVACIÓN V. El modelo CBAM parte. Desde esta perspectiva procesual es muy importante incluir en el diseño de la evaluación los factores que han condicionado y explican el desarrollo de la innovación. por medio de un conjunto de indicadores (conductuales) de cada uno de los siete niveles de uso.

2. 1.. e irse acercando a una "plena" implementación. 3. metas y objetivos. es que la mayoría de propuestas de innovación oficial carecen de dicho perfil. Un segundo perfil del usuario.1. por tener un amplio grado de "indeterminación curricular".2. habría que reiniciar el ciclo para diagnosticar la situación.Procedimientos para superar la carencia de conocimientos y destrezas que necesita el profesorado para desarrollar plenamente la innovación. materiales organización y estructuras) necesarias para superarlos. elaborando un plan de formación del profesorado.Evaluación: Detectar y valorar en qué medida se han ido superando los obstáculos identificados y se han realizado las metas del perfil de la innovación.C.Aplicación: Acciones dirigidas a superar los obstáculos. Leithwood y Montgomery (1980).innovación" (I. por observación comparada lo que está pasando en la práctica (configuración de la innovación). en coincidencia en parte con el modelo CBAM y con un enfoque del cambio como resolución de problemas (Leithwood. puede utilizarse con fines evaluativos. Así como el "perfil" de la innovación (presupuestos y asunciones básicas.. Revisar lo que se está haciendo en la práctica y el perfil o alcance de lo que plantea el modelo. Un perfil preciso y definido de la innovación nos permite establecer.Identificación de obstáculos:Detectados los aspectos "discrepantes". se puede entrar en un análisis de los obstáculos y los apoyos (conocimientos y destrezas.Diseñar procedimientos para facilitar la disponibilidad de recursos y materiales curriculares que faciliten el desarrollo e implementación del cambio. con una orientación sumativa en la segunda. 2. así como el grado de desarrollo de la innovación. El problema para evaluar con este modelo. contenidos y estrategias. Si no hubiese existido progreso.Diagnóstico de la situación: Se trata de identificar el perfil de la innovación para saber las metas necesarias para la implementación del curriculum propuesto.1. etc. 2. 1. podría identificar si las conductas del profesor en las distintas dimensiones de la innovación curricular han tenido cambios. Esto supone elaborar un perfil del usuario que sirva para medir las prácticas reales de los profesores en cada dimensión curricular.) como lo ha percibido e interpretado el cambio por parte de los usuarios y las realizaciones que la innovación tiene en la práctica. La evaluación diagnóstica del nivel de uso de una innovación permite determinar qué intervenciones (cuarto componente del modelo) son mejores por parte de los agentes de cambio. Según señalan Leithwood y Montgomery (1980) habría que llevar tres tipos de tareas: 2.). aplicado en esta fase. como ya señalaba.. necesarios para poder realizar una evaluación de la innovación en la práctica.Procedimientos para superar la ineficacia de estructuras organizativas y de control. Por tanto además de las posibilidades del CBAM como diagnóstico. medios y recursos. 1986).. Una evaluación formativa irá en la primera dirección. con las siguientes fases y procesos: 1.3. EVALUACIÓN DE PROGRAMAS .Revisión de la discrepancia de la innovación. plantea una "estrategia técnica atenuada" de evaluación.. 2.

P5. recoger datos relativos a las variables o indicadores seleccionados. U4. en el llamado Joint Commitee on Standards for Educational Evaluation (1988). E4. f) contribuir a comprender procesos básicos psicológicos.La evaluación debe servir a las necesidades de los participantes. sociales y otros". Los principios comúnmente aceptados han sido fijados por un colectivo de investigadores... Las obligaciones deben constar por escrito.. 1987).Descripción de propósitos y procedimientos.. que posteriormente se han reeditado (The Joint Commitee on Standards for Educational Evaluation & Sanders.Información válida. sin embargo. distingue cinco: experimentalista. juzgar la relación coste-beneficio. E7.Amplitud y selección de la información.Claridad del informe..Identificación de la audiencia. El evaluador debe ser competente. se ha destacado la función de proporcionar información y elementos de juicio que contribuyan a establecer un cierto debate social sobre las acciones educativas.Evaluación completa y clara. 3) servir para una función política. U5. y ver qué objetivos se han alcanzado. o responder a las demandas del cliente..Información fiable. consiste en establecer criterios que sirvan para juzgar la propia labor evaluativa del programa. PROPIEDAD P1. En los últimos tiempos.. Que incluya preguntas pertinentes sobre el programa.. d) obtener evidencias para ayudar a un programa . Reduciendo la desorganización mientras se obtiene información. La información debe tener valor suficiente. Al igual que la evaluación en general.Según Worthen (1989) los propósitos de la evaluación de programas son los siguientes "a) contribuir a tomar decisiones sobre la implantación de un programa... La evaluación de un programa. para juzgar su adecuación.Por eso normalmente es necesario identificar los objetivos del programa y necesidades de los participantes.Acuerdos formales.. Clara y precisa. Por su parte Talmage (1982:594) entiende que "tres propósitos aparecen frecuentemente en las definiciones de evaluación de programas: 1) Proporcionar juicios sobre el valor de un programa. b) contribuir a tomar decisiones acerca de la continuidad. P2.Información sistemática. juzgando el valor o el mérito en su consecución (Sttuflebeam y Shinkfield. la evaluación de programas ha estado muy orientada a maximizar la eficiencia y eficacia de las acciones del programa.Fuentes confiables de información.Viabilidad política.. E6..Derechos de los sujetos. ecléctica. E3. Talmage (1982). 2) Ayudar en la toma de decisiones responsables en política.. No obstante.Planifica la evaluación con antelación a las diferentes posiciones de los grupos de interés. c) contribuir a tomar decisiones sobre las modificaciones de los programas. establecer unos indicadores. Describir perspectivas para interpretar hallazgos. U3.Eficacia del coste.Interacciones humanas. E2. que puede servir de guía general del tema UTILIDAD U1. se planifica como un proceso cíclico para valorar si el programa ha conseguido alcanzar los objetivos para los que se puso en marcha o ha dado lugar a otros efectos o resultados (positivo o no). P4.Identificación de valores. E5. Identificación de personas afectadas por la evaluación.. F2. De los puntos fuertes y débiles del EXACTITUD E1. entonces.Orientación del servicio. F3.... Se debe revisar .. hay diferentes modalidades de evaluación de programas. P3. por ejemplo. conforme aparecen en el siguiente cuadro. 1994).Procesamientos prácticos.. U2.Documentación del programa.Credibilidad del evaluador. Información importante del programa FACTIBILIDAD F1. Se deben respetar derechos de sujetos. Respetar la dignidad en los participantes. expansión o certificación. coste-beneficio y crítica. e) obtener evidencias para oponerse a un programa. Pero el papel clave que desempeñan los criterios y normas de valor en la evaluación de un programa.Análisis del contexto. descriptiva.

P6. Las Normas de Evaluación de Programas (The Joint Committee on Standards For Evaluation & Sanders.Conclusiones justificadas. E11... en la cual se refleja la propia realidad. Hemos seguido.. en principio. E8. P8. Es por lo que partimos de las técnicas utilizadas por Kemmis y McTaggart (1992) en la investigación-acción.Metaevaluación. de las audiencias y de los propósitos de la misma evaluación.Impacto de la evaluación. impresiones e interpretaciones subjetivas de la realidad.. sistemáticamente.Conflicto de interés. .Revelación de hallazgos.Análisis de la información cuantitativa. Son aquellas que describen hechos.U6. Por tanto se trata de técnicas de evaluación cualitativa. las nuevas perspectivas no sustituyen a las anteriores sino que las complementan.. Los hallazgos se deben difundir entre los usuarios.. de lo que un alumno o grupo de alumnos dicen o hacen en determinadas situaciones a lo largo de un período de tiempo. Difusión y diseminación de los hallazgos.. b) Notas de campo.. Son técnicas de evaluación continua. (2) la segunda postura más actual entiende la evaluación como el conocimiento empírico del mérito o valor de las actividades y objetivos de un programa propuesto".Justificación de los gastos en recursos. con una finalidad formativa. 1994). la línea de Kemmis y McTaggart (1992). que se usan tanto en enfoques interpretativos como críticos. Como señala Tejedor y otros (1993) "los cambios habidos en estos últimos años en las dos posturas básicas son los siguientes: (1) la postura tradicional entendía la evaluación como el empleo de métodos científicos para medir el desarrollo y los resultados de programas que luego se utilizaban para la toma de decisiones. Ory (1991) comenta que el aumento de estas técnicas de evaluación se debe a la ampliación del campo de la evaluación.. Son informes longitudinales y descriptivos. Son muy importantes los hechos y contextos en relación a los incidentes relativos a un problema determinado.Análisis de la información cualitativa E10. compleja que tiende a un mayor realismo.. Realizaremos un estudio de las diferentes técnicas cualitativas y cuantitativas en la evaluación TÉCNICAS CUALITATIVAS.Planificar la evaluación para que penetre en los usuarios. Metodologicamente hoy se vive una situación plural.Informe imparcial E12. a) Registros anecdóticos. programa.Responsabilidad fiscal. U7. P7.Oportunidad y difusión informe. Realizado con apertura y honradez. E9. aunque con finalidades diferentes. LAS TÉCNICAS EN LA EVALUACIÓN EN EL CURRICULUM.

observaciones. . d) Análisis de documentos. como una exigencia profesional. Su validez en investigación cualitativa depende del contexto en el que se utilice. cuadro de horario. poner en práctica los planes y mantener registros que ayuden a valorar las prácticas. Se registran todos los comportamientos observados para comprender la secuencia de los mismos. circulares. * Según el autor se deben tener en cuenta los siguientes principios en la redacción de los diarios: . planificaciones de los profesores.). debe servir para estimular la reflexión y la discusión colegiada. con el objetivo de analizar el funcionamiento interno del centro o de una parte del mismo. planificar. Para Schratz (1992). Es un componente dentro de un repertorio de métodos de evaluación. historias de vida. informes escolares. Es un vehículo para facilitar la relación de apoyo y de crítica. expresando la forma intelectual de vivir la experiencia. pudiendo ser potentes instrumentos de autocontrol del proceso de enseñanza (diario de profesores) o de aprendizaje (diario de alumnos y profesores). revistas o periódicos escolares. pero también refleja otros aspectos personales integrados en la misma. integrando en la medida de lo posible a los estudiantes con objetivo de introducirles y hacerles conscientes de los procesos de autoevaluación y contribuir en procesos de autoreflexión. el diario. etc. por el potencial que ofrece: * * * Es un mecanismo para explorar las prácticas.. Es un medio de autonomía a través del desarrollo de la confianza en la utilización de la palabra escrita como guía para la acción. la de reflexionar sobre las propias prácticas docentes. autobiografías. Los diarios en el contexto de documentos personales. interpretaciones. como biografías. e) Diarios Se trata de analizar los informes personales cuyo contenido puede ser muy variado (preocupaciones. en el contexto de un proyecto de investigaciónacción de profesores universitarios.. Utilizado en un contexto evaluativo contribuye a desarrollar el proceso de autorreflexión. es un documento personal que se escribe para consignar pensamientos. cartas. elabore y su finalidad y forma de analizarlo. archivos. folletos. White (1985) considera. informaciones del tablón de anuncios. hipótesis. por ello ve necesaria la redacción de un diario en el contexto del Área Remota de Educación del Profesorado (RATE). impresiones y sentimientos sobre situaciones docentes. trabajos de los estudiantes. son consideradas como importantes por Zabalza (1991) para la investigación educativa y para analizar el pensamiento y los dilemas que se le presentan al profesor en la práctica. Se utilizan entre otros documentos importantes cartas. reflexiones. sentimientos. que a la vez proporciona oportunidades de reflexión sobre esta acción y nuevos planes de acción consecutivos. explicaciones..c) Descripción ecológica del comportamiento. A pesar de ser considerado como un documento para la reflexión personal sobre el desarrollo profesional. programas y proyectos educativos del centro.

así como sobre los cambios que se vayan iniciando en la estructura organizativa formal. sólo evalúa el progreso del estudiante. y en el que se contiene variedad de información que consta en documentos.- f) La carpeta de enseñanza. exámenes. el contenido. Los momentos especiales del curso. el conocimiento y la comprensión del profesor. Para Shulman (1992) el portafolio es un documento físico que recoge las preguntas de los profesores y las respuestas reflexivas que van dando. La redacción del diario requiere una estructura y un ambiente de apoyo. esta técnica. ya que considera que es una técnica que proporciona evidencia sobre el pensamiento y la práctica del profesor. ensayos. autoevaluación del profesor.2. así como sus reflexiones.66) distinguen cuatro tipos de reflexiones que deben constar en el diario de un proyecto de investigación-acción: 1. Sobre los cambios en las relaciones sociales ente las personas integradas en su misma actividad. 4. Además contiene la observación directa del profesor en sus clase. se reservarán para ser escritos ininterrumpida y silenciosamente Debe compartirse con otros participantes todo aquello que se escriba. preguntas. pero también para que otros comprendan el significado desde el punto de vista de los sujetos. con fines formativos.Sobre el cambio en la utilización del lenguaje y sobre un discurso más coherente en relación con la preocupación temática que se estudia. . Sobre los cambios en los modos de participación del grupo en el proceso de investigación-acción mismo. Explica el uso de la carpeta de enseñanza para explicar tres campos: Cómo planifica y enseña el profesor una parte del currículum. Se reservaran momentos especiales en el horario para compartir los diarios. Kemmis y McTaggart (1992.a) b) c) d) e) El diario debe ser realizado por todos los participantes implicados en el proceso. Por tanto. para valorar la calidad de la enseñanza. proyectos. interrogantes. y las relaciones entre estudiantes y profesores. puede convertirse en un medio de evaluación colaborativa en cuanto que sirve para la reflexión del profesor. Sobre el cambio en las prácticas educativas en su contexto. esto puede conseguirse estableciendo un enfoque previo al inicio de la redacción y procedimientos para el diálogo en el que se comparten los diarios. y cómo crea un ambiente que favorece la enseñanza. g) Cuadernos. tanto de uno mismo como de los otros. 1992). La carpeta de enseñanza. Se tienen en cuenta el contexto. que se está utilizando en la Universidad de Stanford (Shulman. trabajos. y cómo se relaciona este proceso con otros existentes en el mimo centro educativo. es una técnica de investigación y evaluación educativa. y profundizar en el conocimiento y valoración de las prácticas de enseñanza por el análisis documental y la entrevista sobre ello.p.3. Athanasses (1991) utiliza este medio en la evaluación de la enseñanza de la lectura y escritura.

. abiertas o cerradas. percibir. disciplina. para elaborar informes diarios de cada tema. Es un medio de control del cual no se debe abusar en detrimento de otras actividades que pueden ser más enriquecedoras como observar. la cual ayudará al profesor a juzgar posteriores pasos en el enfoque dado. Los estudiantes están muy motivados a dar sus propias opiniones. Similar a un cuestionario abierto podemos encontrar el cuestionario de "completar frases".. Sin embargo. Este procedimiento proporciona conocimiento sobre la comprensión de los estudiantes. en la que se pide a los estudiantes que respondan a dos preguntas: )Qué es lo más significativo que he aprendido hoy?. i) Archivos. Se tratan de fichas en las que se registra información referente a distintos tipo de temas: actividades. )Cuál es la cuestión fundamental que me queda en la mente al terminar la clase?. sin embargo brinda una información más rica de la experiencia individual. y a su vez el profesor obtendría una visión más amplia de cada cuestión debido a estos comentarios subjetivos. sobre todo si se presentan resultados. una respuesta rápida e individual de algunos aspectos del proceso de enseñanza-aprendizaje. de forma sencilla y escrita. sobre todo si es diferente de otros profesores. opiniones y valores. y que además pueden consignarse en alguno forma de representación escrita o no.Es el registro de actividades en determinados tiempos. creencias. reacciones. de conocimiento y autoevaluación de la enseñanza. Para Schratz (1992). Se trata de una forma de comunicación. que exigen también respuestas escritas. y la valoración que se hace de ellos. la cual consiste en obtener. k) Entrevistas. por ello sería buena la idea de que los estudiantes pudieran escribir una corta explicación del por qué han tomado determinada opción. idear. Dado que en la investigación de Schratz es muy importantes la comunicación y la evaluación en ambas direcciones. pensar.. motivación. y puede utilizarse para evaluar cierto aspectos e los procesos de enseñanza. j) Cuestionarios. en las que cada estudiante añade a la pregunta su propia interpretación.. el cuestionario es una de las técnicas más usadas y sencilla utilizadas en evaluación. su debilidad se fundamenta en la limitación de las opciones para responder. se ha utilizado otra técnica denominada "carta abierta".. como base para la reflexión. Schratz habla de otras técnicas como la del "minuto de escritura". discutir. Otra técnica es la del "feedback inminente". El problema de esta técnica es que ofrece dificultad en orden a estandarizar los resultados.. h) Muestras de cuestiones tipo. Sirve de evaluación. y sirve para evaluar la comprensión como los sentimientos. Puede servir para obtener más información o apoyo de los estudiantes. organización.aprendizaje.Sirven. analizar.. imaginar. Son recopilaciones de diversos materiales con un fin determinado. Se componen de preguntas escritas.

cuál es su estructura. y desde las preguntas amplias a las detalladas. recogiendo información sobre ciertos aspectos y problemas. Se basa la entrevista en un mapa conceptual. estructuradas y semiestructuradas. El problema de este procedimiento es el excesivo tiempo que hay que dedicarle. es decir. Basándose en la utilización que hizo Piaget de la entrevista para evaluar las capacidades cognitivas. de las que se solicitan explicaciones. Los autores no aconsejan la pregunta arbitraria. se graba. Toda entrevista debería grabarse y analizarse mediante un sistema de categorías de conocimiento. Posteriormente se entrevista al profesor y a los estudiantes. d) Ordenación de las preguntas. así como las preguntas que hacen posible observar las regularidades en las respuestas de los niños. también ayudan a conocer las actitudes y valores de los estudiantes y los procedimientos que utilizan para resolver la tarea. Novak y Gowin (1988) enfatizan en la importancia de la entrevista como instrumento de evaluación del aprendizaje significativo. y son el punto de partida de las preguntas más útiles para averiguar la comprensión de los estudiantes. y para analizar las categorías de respuestas se van consignando en la UVE. b) Estructuración de las preguntas. incluidos los más pequeños. Se debe averiguar previamente qué sabe el alumno sobre un tema o cuerpo de conocimiento determinado. fue el haber ideado los hechos y objetivos específicos que usaba en las entrevistas. y juicios de valor y trasferencia. ya que en todos los estudiantes. Gowin observó que la UVE de evaluación contradice la teoría de los estadios de Piaget. Otro tipo de entrevista es la que Schratz (1992) denomina "entrevista triangular". Deben hacer referencia a cuestiones claves. de forma que se puede descubrir cómo funciona la mente del estudiante y qué teorías sostiene. para facilitar la organización de conceptos y ejemplos de una instrucción posterior. relación. Apoyan a la tarea. se puede encontrar todo tipo de respuestas que pertenecen a las distintas categorías del pensamiento. una planificación cuidadosa de la entrevista. . Una de las aportaciones de Piaget.Las entrevistas pueden ser de varios tipos: no planificadas. planificadas pero no estructuradas. e) Evaluación de las entrevistas. proceder de lo fácil a lo difícil. cómo pueden activarse conceptos y estructuras para resolver problemas. La entrevista sirve para indagar qué conceptos han adquirido o poseen los estudiantes. partir de la tarea que se está realizando. según estos autores. en la que un observador externo participa en la entrevista con fines evaluativos. sobre todo al comenzar. En la planificación de una entrevista hay que tener en cuenta los siguientes elementos: a) Selección del contenido. Este tipo de entrevista implica un mayor esfuerzo en la investigación evaluativa ya que se confrontan tres perspectivas. Gowin (1988) propone otro sistema de categorías. Novak y Gowin. Por ello dan algunas reglas para ordenarlas. pero suele aportar información sobre problemas específicos o áreas de interés. y pedir explicaciones sobre lo que sucede. proponen categorizar los tipos de respuestas en válidas y erróneas. el análisis de las entrevistas mediante la UVE. c) Selección de materiales auxiliares.

Schratz (1992) utiliza esta técnica para el análisis de la interacción entre profesor y estudiantes. Son útiles en reuniones de trabajo y para la interacción con el alumno en clase o en grupos. También sirven como referencia para entrevistas con los estudiantes. Sin embargo sería útil la observación entre compañeros de forma regular. Con este método se pretende averiguar qué individuos son apreciados o rechazados en un grupo. Schratz (1992) comenta que la observación directa produces ansiedad en los profesores. determinados productos. Útiles para registrar "incidentes críticos".l) Métodos sociométricos. q) Análisis de metáforas Revelan ideas y definiciones de los problemas que subyacen a los programas. inputs y resultados. aspectos de la actividad de la clase. desarrollar actitudes sociales o mejorar las relaciones personales. comportamiento no verbal del estudiante y del profesor n) Grabaciones en audio. Su problema es el largo tiempo que hay que dedicar para una transcripción completa. Pueden servir para formar grupos de trabajo. para así compartir significados que ayuden al crecimiento continuo personal y profesional. Se representa un visión global del programas en sus contexto con los procesos. Kemmis y McTaggart. y quienes se aprecian o rechazan mutuamente. y sus interrelaciones. Sirven para registrar los datos de la observación. p) Observación de clases. de clases grabadas o de reuniones. señalan cuatro categorías de comportamientos que pueden registrarse: comportamiento verbal del estudiante y del profesor. para analizarla posteriormente. o de aspectos concretos. o de parte. o) Fotografías y diapositivas. que pueden poner de manifiesto . m) Inventarios y listados de interacciones. r) Mapas conceptuales. y después se relacionan mediante palabras de enlace. Técnica muy útil para la evaluación de los procesos de enseñanza-aprendizaje. Facilita el registro de toda la clase. ñ) Grabaciones en vídeo. s) Algoritmos relacionales. También se ha utilizado en el análisis del pensamiento del profesor. Por ello Kemmis y McTaggart consideran necesario un listado de interacciones para agilizar el análisis. Para crearlos se comienza por hacer declaraciones cortas de un problema para después centrar la atención sobre dos términos que representan un dilema.

Test de rendimiento de los estudiantes. Requieren mucho tiempo y un clima socioafectivo adecuada para que puedan suponer una situación de pensamiento y de trabajo intelectual adecuado. Proporciona conocimiento de su tarea al profesor. Los exámenes suponen una importante experiencia de aprendizaje ya que obliga a revisar. Sirven para diagnosticar lagunas. a) b) c) Pruebas de ensayo. c) * Características que deben reunir las pruebas. Pruebas objetivas de respuesta breve. Se basan en la comprobación del aprendizaje de contenidos disciplinares. o igualdad y complementariedad entre los dos conceptos. etc. sin embargo existe una tendencia a la cuantificación. durante y después. alumnos. clarifica sus objetivos. de producción de determinadas obras o experimentos de laboratorio. En cuanto a la elaboración las cuestiones deben ser representativas del contenido que se pretende evaluar. A través de ellas se puede expresar el conocimiento obtenido. La prueba debe estar . Para ello se encuadran las descripciones del programa hechas por distintas personas: director. b) Se comprueba el aprendizaje del alumno mediante el diálogo con el profesor.la primacía de unos elementos frente a otros. así como la expresividad y originalidad del alumno. TÉCNICAS CUANTITATIVAS. que tienen lugar en determinados momentos del proceso de enseñanza/aprendizaje. Los estudiante aprenden a evaluar sus propios resultados a través de ellos. Se relacionan con la evaluación periódica y sumativa (Rosales. cuantitativas. Pruebas formales de elaboración de respuestas. Ausbel (1983) consideraba que los exámenes tienen algunos valores positivos: a) A la vez que el profesor piensa qué debe ser objeto de examen. constar logros. aclara y consultar los conocimientos antes. para poder rendir y expresar el aprendizaje. a) Los exámenes escritos. profesores. Tienen un papel motivacional. lo cual le sirve de autoevaluación. 1990). al mismo tiempo que comunica sus expectativas a los alumnos al indicarles cuáles son los aspectos fundamentales de la materia y que forma puede tener el examen. t) Recuadros de frases Se usan para comparar las visiones y descubrir los aspectos críticos del programa. b) c) d) e) Tipos de pruebas escritas. No todos los exámenes se construyen sobre pruebas objetivas. Pruebas orales.

En cuanto a la medición. Criterios generales sobre evaluación de los aprendizajes y promoción de los alumnos.G. contenidos y criterios de evaluación de las distintas áreas. La corrección debe tener en cuenta qué aspectos y contenidos deben puntuarse y con qué prioridad. evaluarán el Proyecto Curricular y las programaciones de aula emprendidos. además de reconducir el proceso de aprendizaje. * * LA EVALUACIÓN DEL CURRICULUM EN LA REFORMA Algunas de las principales funciones y sentidos de la evaluación fueron ya recogidos en la L. en virtud de su desarrollo real y de su adecuación a las características específicas y las necesidades educativas de los alumnos y alumnas". 1990c). y del Proyecto curricular. Por eso se plantea. es obtener (MEC. Los Reglamentos Orgánicos de los Centros (1993) determinan. La finalidad de la evaluación. es importante reducir el nivel de ansiedad de los alumnos a través de una información previa sobre el conocimientos de que la prueba va a consistir en aspectos importantes a los que ha dedicado tiempo y tareas suficientes. Por último se produce la evaluación. o con fines formativos. se trata de comparar lo logrado con lo pretendido. En la medida que el lugar y la función de la evaluación en el propio Diseño Curricular sigue siendo el mismo (Escudero.adecuadamente elegida a los fines planteados y la formulación debe ser clara. Su aplicación puede tomar mediadas sobre la promoción de un alumno. En este sentido Zabalza (1987) habla de la influencia del contexto de aprendizaje que juega en la asociación de preguntas y respuestas. Tyleriano :"¿Qué.1992b) "información que permita adecuar el proceso de enseñanza al progreso real en la construcción de aprendizajes de los alumnos". que deberán incluir las siguientes decisiones relativas a la evaluación: La distribución de los objetivos. de modo que permita tomar las decisiones para. Por lo que es dificil hacer una evaluación que permita juzgar si se han alcanzado los objetivos deseados". La evaluación del aprendizaje de los alumnos se convierte en autorregulación del proceso de enseñanza. - . del proceso de aprendizaje de los alumnos. después de un período de indecisión sobre qué aspectos formales debían incluir los Proyectos curriculares de Etapa. con una cierta novedad. para tomar decisiones sobre la planificación y el desarrollo del currículum en los procesos siguientes. adecuar el diseño y desarrollo de la programación. cómo y cuando evaluar?. Asimismo. de 1970. el juicio de valor que emitimos sobre la calificación otorgada cuando se analizan los resultados y los procesos. y en criterio de si es necesario reformular el diseño y programación realizado. la relación entre la evaluación del proceso de aprendizaje y la evaluación del proceso de enseñanza. Así las órdenes de evaluación especifican que "los profesores/as evaluarán los procesos de enseñanza y su propia práctica docente en relación con el desarrollo del currículo. * En cuanto a la aplicación. La evaluación de la enseñanza se debe realizar en un triple nivel: evaluación del proceso de enseñanza y práctica docente. es decir.E. los datos y las condiciones en las que se han producido.

orientaciones. establecidos oficialmente para la elaboración de proyectos curriculares de centro. dependientes de la perspectiva adoptada. * * . si dicha selección debe basarse en los corpus disciplinares o incluir contenidos de otras fuentes necesarios para la vida cotidiana. En la evaluación del Proyecto Curricular se especifica que se evaluará "la validez de la secuenciación de los objetivos y contenidos por ciclos". tanto en la selección. acuerdo/consenso por el que se ha llegado al documento o propuesta. qué núcleos de conocimientos humanos deben formar parte del currículo escolar de una determinada etapa/ciclo.. 2) Organización y secuenciación. distribución y secuenciación por ciclos. en su caso. En relación con la evaluación del contenido curricular en los Proyectos Curriculares. una vez que se ha llevado a cabo una primera implementación y desarrollo práctico. se plantean dos cuestiones principales: 1) Selección de contenidos.. para sacar nuevas posibilidades. enunciados de tópicos. Elaborada una determinada distribución y secuenciación de los contenidos del curriculo. se pueden analizar los criterios/indicadores para juzgar/evaluar la adecuación del "prototipo de diseño curricular" realizado. compromiso. Aspectos como la determinación del contenido. Grado en que ha empleado creativamente el potencial curricular del curriculo básico. La secuenciación de contenidos interciclos e intraciclos se debe efectuar al triple nivel de Proyecto Curricular de Etapa. generando un currículo "propio".Perspectiva de "fidelidad": * Grado de concordancia/fidelidad con los criterios. me parece. Congruencia con los materiales curriculares ("libros de texto") utilizados. del Ciclo respectivo o en cada unidad didáctica. LA EVALUACIÓN DE LOS DOCUMENTOS INSTITUCIONALES EN EL CENTRO. prescrito oficialmente o no. etc. desde una triple perspectiva de criterios-guía: 1. no previstas en el curriculum oficial. * * 2. están cubiertos aparentemente todos los bloques temáticos. en el apartado dedicado a los contenidos curriculares.Perspectivas de proceso. Grado en que está completa la "cubierta curricular" externa del currículo oficial: p. distribución y equilibrio que se ha realizado de los contenidos. revisar los procesos de enseñanza y la práctica docente de los profesores. desarrollo o adaptación: * Grado de adaptación/variación de las prescripciones oficiales para lograr una adaptación mutua a la situación del contexto local del Centro. Proceso de dinámica de trabajo conjunto. de acuerdo con lo señalado en este Proyecto Docente.e. son dimensiones del problema de la selección del contenido curricular. a nivel de diseño curricular.- Criterios para evaluar y.

3. 1992. elección de un tipo de contenido como eje vertebrador de la secuencia. así como la . delimitación de las ideas eje. * Recoge suficientes opciones de contenido. resulta problemático aplicar en una lógica supervisora un conjunto de indicadores externos. A modo de ejemplo. significativos.) son una mezcla de estos dos componentes: Teoría de la Elaboración y Psicología Constructivista. * Tiene un cuenta los contenidos trabajados en la etapa anterior. En cualquier caso. 1993). INDICADORES DE EVALUACIÓN DEL CONTENIDO DEL PCC *Incluye los contenidos. al margen del proceso y realidad interna del Centro a que responda el Proyecto curricular. Esta evaluación. coherencia con la lógica de las disciplinas a las que pertenecen los contenidos de aprendizaje. los contenidos transversales. de manera que resultan: funcionales. por áreas o materiales. en las diferentes áreas o materias. * Es coherente la secuenciación vertical de contenidos. * Tiene en cuenta los contenidos que se trabajarán en la etapa posterior. ser empleados complementariamente indistintamente desde una perspectiva de fidelidad o de desarrollo. deberá valorar todos y cada uno de los elementos que componen el propio Proyecto curricular. * Es coherente la secuenciación horizontal de contenidos de las diferentes áreas o materias. continuidad y progresión. La evaluación del proceso de enseñanza y de la práctica docente. creo. aplicables a la vida diaria y útiles. Del Carmen. los criterios externos uniformados para evaluar el Proyecto curricular de Etapa se pueden ver los indicadores de evaluación que aparecen en la siguiente tabla. MEC. además del análisis específicos del Proyecto Curricular de Etapa. según las orientaciones y normativa oficial. Estos criterios son: Pertinencia con el desarrollo evolutivo y los aprendizajes previos del alumnado. para cada ciclo o curso de la etapa.Perspectiva "oficialista": * Los criterios de secuenciación de contenidos aducidos repetidamente en la literatura oficial (Del Carmen y Zabala. deberá abordar. 1991: 45-50. * Incluye. El Proyecto Curricular de Etapa/Centro. * Secuencia los contenidos. exige su evaluación por parte del Claustro de profesores. etc. Pueden. en su caso. 1991: 20-23. para que pueda ser un instrumento válido para la práctica pedagógica. interrelación y presencia de temas transversales. 1992b: 36-41. la consideración de los siguientes aspectos: a) La organización del Centro y el aprovechamiento de los recursos. para la elección por parte del alumnado VALORACIÓN 12345 12345 12345 12345 12345 12345 12345 12345 12345 12345 Indicadores de Evaluación del contenido en el Proyecto Curricular del Centro (Casanova. al menos. * Adecua los contenidos a las peculiaridades del alumnado. equilibrio. por áreas o materias. b) El carácter de las relaciones entre profesores y alumnos y entre los mismos profesores. * Adecua los contenidos a las características del entorno. marcados legalmente como obligatorios..

aquí nos referimos sólo al primer sentido. actitudes y valores". además de señalar diversos campos de actuación en la enseñanza. más o menos mensurables. en los criterios de evaluación referidos a los contenidos comunes válidos de una disciplina. en esta segunda dimensión . 1992:17). de perspectivas/juicios de los diferentes profesores. Por ahora. en las actitudes no son fáciles de expresar. Departamentos y tutores d) La regularidad y claridad de la relación con los padres. algunos a procedimientos y casi ninguno a contenidos actitudinales. conceptos. madres o tutores legales. En analogía con la definición operacional de inteligencia (lo que es medido en los test). valores y normas presentan algunas diferencias sustanciales entre sí. Claustro de Profesores. el contenido curricular operativo para los alumnos es lo que es evaluado en los exámenes. al igual que sucede con las estrategias e instrumentos de evaluación más apropiados en cada caso" (Coll y otros. y cuando se intentan determinar los criterios de evaluación. Con lo que hay una contradicción entre lo proclama de novedad o la Reforma que era hacer explícito el currículo oculto por medio de la dimensión de "normas. y esa será la lectura que hará el profesorado (y las propias editoriales). como objetivos que los alumnos tendrán que haber cubierto al final del proceso. para uniformarlas en función de esos mínimo. y 3) la labor de evaluación es conjunta del equipo de profesores: integración de juicios. que interacciona y suele ser dependiente con los contenidos planificados y trabajados en el aula. se convierte en "institución creadora de conocimientos" (Kvale. EVALUACIÓN DEL PROCESO DE APRENDIZAJE Los "criterios de evaluación" de Enseñanzas mínimas se refieren mayoritariamente a contenidos conceptuales. . con un sentido formativo o continuo. Equipo Técnico de Coordinación Pedagógica. EVALUACIÓN DE LOS CONTENIDOS La evaluación del grado de aprendizaje de contenidos curriculares impartidos. siendo juzgada toda la labor educativa de modo integrado. Nos fijaremos. 2) Que el proceso de evaluación esté integrado en el propio proceso de enseñanza-aprendizaje. prescriptivo. c) La coordinación entre los órganos y personas responsables en el Centro de la planificación y desarrollo de la práctica docente: Equipo Directivo. que deja poco margen a las potenciales interpretaciones y prácticas docentes divergentes del profesorado. éstas prácticamente desaparecen en su dimensión sustantiva. por la evaluación que se efectúa del aprendizaje de los alumnos. definiendo éstos el conocimiento válido en un campo disciplinar. EVALUACIÓN INTEGRADA O DIFERENCIAL La evaluación integrada se debe entender con un doble sentido: 1) No separa aspectos conceptuales de los actitudinales. los procedimientos y las actitudes. que "las estrategias didácticas y los procesos psicológicos mediante los cuales se enseñan y se aprenden los hechos. 1992).convivencia de entre los alumnos. La distinción entre tres tipos de contenidos quiere indicar. Por ello los "criterios de evaluación" se convierten en objetivos terminales en la práctica. lo que convierte la propuesta inicial de un currículo abierto y flexible de facto en currículo semicerrado. tal vez porque en su propósito de especificar criterios.

etc. Tipo de aprendizaje * Hechos: memorísticos. pretende ser relevante didácticamente por implicar distintos procesos de aprendizaje. recordar. tolerar. Criterios y Formas de evaluación SABER: Conocer. contextualización. relación e integración. planificar. no obstante. * Definición. experimentar. Clases de contenidos. como ejemplo de lo que no debe hacerse. Clase de contenido CONCEPTUAL: Hechos conceptos y principios. construir. analizar. * Observación sistemática en sus diversas variantes y situaciones. Así haber situado formalmente el campo de las actitudes y valores como contenidos de toda enseñanza. métodos. debiera significar que han de ser evaluados de manera global e integrada. valores y normas * Componente afectivo. etc. con estos presupuestos referirnos específicamente a cada tipo de contenido: 1. * Conocimiento y utilización (funcionalidad. sentir. describir. puestos de manifiesto en la misma forma de llevar a cabo la acción. Podemos. especifica que el Informe de Evaluación Individualizado contendrá. aplicar. sobre los elementos básicos de los informes de evaluación. * Uso y aplicación práctica en situaciones apropiadas. VALORAR: Comportarse. resumir. Interpretando de modo extremo lo anterior.E" de 11 de noviembre). tipo de aprendizaje y formas de evaluación. al mismo nivel que los restantes. no debe significar en ningún caso que cada tipo de contenido tenga una evaluación diferenciada. son las cualidades. preferir. PROCEDIMIENTOS: Distintas acciones y estrategias para resolver objetivos o alcanzar metas. * Conceptos: significativo. destrezas o hábitos a las tareas o situaciones particulares. etc. La Orden del MEC de 30 de octubre de 1992 ("B. cognitivo y comportamental. ha diferenciado la evaluación de la adquisición de cada tipo de contenido en cinco grados para cada área. reglas. y los criterios para juzgar el nivel de aprendizaje alcanzado puede ser distinto. etc. generalización. conceptual y de principios. categorización. tanto en Primaria como en Secundaria Obligatoria. uso y aplicación) de un conjunto de habilidades y estrategias. reproductivo y aislado. * Principios: Comprensión de relaciones entre conceptos o hechos. enumerar. identificación. demostrar.O.Que los instrumentos y procesos de evaluación tengan que ser diferentes en cada tipo de contenido. SABER HACER: Elaborar. valorar. los que hacen "educativa" una actividad. valores y principios intrínsecos al propio proceso educativo. * Predisposición a actuar de una determinada forma socialmente deseable. apreciar. ACTITUDINAL: Actitudes. aceptar.Evaluación de contenidos conceptuales: La distinción entre conocimiento factual. manejar. respetar. . la "apreciación sobre el grado de asimilación de los contenidos de las diferentes áreas o materias". explicar. Integración de acciones. EVALUACIÓN DE LOS CONTENIDOS Como señalo Stenhouse. etc. exposición. relacionar. entre otros elementos. y no los resultados objetivos extrínsecos que se consiguen.

y deberá ser aprobado por el Claustro. aunque el "saber cómo" suele presuponer el "saber que". Evaluación de los contenidos actitudinales: Las actitudes adquiridas no suelen ser directamente evaluables. con que legitimidad) podríamos entrar en qué métodos o técnicas nos podrían ser útiles en este sentido. incluye la "apreciación sobre el grado de asimilación de los contenidos conceptuales. aparte de los destinados a las familias. la coordinación en el ciclo o interciclos. 2. De acuerdo con la literatura oficial se aconseja que acerca de la práctica docente en el aula se deberá valorar el diseño y desarrollo de cada unidad didáctica. Su evaluación debe referirse a destrezas de distinto rango. y la adecuación de los criterios de evaluación/promoción. el ambiente de aula y clase y la propia actuación personal. referida a tres aspectos fundamentales: el ambiente del aula. 3. EVALUACIÓN DE LOS PROCESOS DE ENSEÑANZA-APRENDIZAJE Como otro ámbito de la evaluación se pretende que los maestros y profesoras evalúen su propia práctica docente. Pero también el Claustro o el Consejo Escolar de Centro pueden tener la iniciativa de poner en marcha programas de evaluación sobre el funcionamiento del Centro educativo. la coordinación y coherencia entre los profesores de cada ciclo. desde estrategias cognitivas a la utilización de técnicas e instrumentos. FUTURO DE LA EVALUACIÓN. Solo si tenemos claro el sentido de la evaluación en este ámbito (por qué. Aquellas evaluaciones que afecten al Proyecto curricular introduciendo algunos modificaciones deberán reflejarse en la Programación anual. Esta evaluación debe efectuarse al comienzo de cada ciclo y al finalizar. Así un concepto no se puede evaluar igual si fuera un dato o un principio.Evaluación de procedimientos: Pretende incidir en que los alumnos aprendan a saber hacer y transferir funcionalmente a otros contextos las habilidades adquiridas. para qué.- LA DIFUSIÓN DE LA EVALUACIÓN: TIPOS DE INFORMES Se prescribe la realización de un Informe Anual y de un Informe de Evaluación Individualizado (IEI). son inferidas a partir de acciones manifiestas. cuyo formato específico se deja como decisión a los centros. cuya finalidad es servir de orientación para evaluación inicial del primer ciclo de educación primaria (en el caso de Infantil) o de los ciclos o etapas siguientes. procedimentales y actitudinales de las diferentes áreas o materias". pues suele implicar procesos de un nivel sino más alto. En el ámbito del Ciclo y la Etapa el desarrollo de la programación o Proyecto curricular. Evaluar estos contenidos actitudinales trae consigo dos problemas: uno técnico-metodológico y otro ético. y la calidad y regularidad de las relaciones con los padres. . de manera que se garantice la continuidad del proceso de aprendizaje. que emitirán los profesores al término de cada curso académico en Primera y Secundaria Obligatoria. El Informe de Evaluación Individualizado (IEI). El plan para evaluar el proceso de enseñanza-aprendizaje se encomienda a un Equipo técnico la comisión Coordinación Pedagógica. diferente de abstracción.estrategias de enseñanza y modos de evaluación.

Es decir. Weiss. sin suponer un debate entre ellos. el trabajo de evaluación no termina con el informe de lo que sucede sino con la propuesta de estrategias de mejora. el conocimiento. al hacer la recensión. los capítulos de cada uno de los autores aportan a la obra de McLaughlin y Phillips siguen mirando hacia adentro. que. por otra parte. que hubiera dado lugar a nuevas visiones o modelos. y ya que los sistemas educativos hoy no son competitivos. D) EN CUANTO AL OBJETO DE LA EVALUACIÓN. B) SOBRE LOS MÉTODOS EN LA EVALUACIÓN. hacia sus posiciones. House. que un teoría mixta. Ory (1991) hace una crítica a los programas de evaluación que se ha desarrollado durante los últimos veinticinco años. Para los autores Greene y McClintock. C) EN CUANTO A LA FINALIDAD DE LA EVALUACIÓN. para otros la cualitativa. aumentando. Greene y McClintock (1991)piensan que no se puede buscar la causa de la mejora de la educación en un programa de innovación curricular entendido como variable independiente. La mayoría de los modelos se desarrollaron en los años sesenta y setenta. técnicas. probablemente. en el año 1991. Su argumento es que una sociedad creciente sofisticada valorará más la dimensión cualitativa como el primer elemento de competición. Eisner. algunos autores revisan y hacen una reflexión debido a la petición de participación en la obra de House sobre evaluación.. porque son muchos los factores que influyen en el éxito de un determinado programa y no sólo éste. se desarrollarán sistema de evaluación con mecanismos para asegurar y promover la calidad. etc. en nuestro país empezamos ahora a necesitar. que puedan tener en cuenta distintas variables para concebir programas teóricamente. como los efectos des un programa de niños bisen dotados. Por ello hay que tener en cuenta una variedad de perspectivas o aproximación a la evaluación desde enfoques mixtos.En los últimos años los teóricos de la evaluación se han dedicado a reflexionar. De forma que Milburn (1992). Igualmente. y algo importante será relacionar evaluación de programas y proyectos futuros. E) SOBRE LOS AGENTES DE LA EVALUACIÓN. Clinkenbeard (1992) reflexiona sobre problemas educativos y tipos de programas. ya que los métodos no están inherentemente ligados a un determinado paradigma. Scriven. En caso singulares. y desarrollando alguno elementos de la práctica: instrumentos. pero en adelante el énfasis deberá ponerse en el desarrollo del profesorado y en la mejora del currículum. Sttuflebeam. En el año 1989. a pesar de los pocos ejemplos prácticos de investigaciones que utilicen métodos mixtos. . porque a su juicio hacen demasiado hincapié en ser útiles para los que toman decisiones. Para determinados problemas sólo sirve la metodología cuantitativa. hay que hacer estudio de casos con métodos cualitativos.. Eastmond (1991) defiende que en losa años 90 la evaluación se enfocará hacia la calidad. dice que hay obras que tienen éxito si eliges a los participantes adecuados: Stake. no es lo mismo usar métodos mixtos. A) SOBRE EL MARCO TEÓRICODE LA EVALUACIÓN. pero además es el único medio para poder explora y descubrir si efectivamente trabajan de manera cualitativamente diferente.

centros escolares y la industria. y la industria puede proporcionar recursos y servir como canalizadora del cambio. los profesores de los centros escolares pueden obtener experiencia en conducir trabajos de evaluación. En este sentido. en apoyo de las nuevas tecnologías que emergen. La escuela pública puede proporcionar la prueba fehaciente del juicio sobre la realidad educativa. pueden generarse nuevas asociaciones entre universidades. . Pero en la empresa pública se confiará la evaluación a profesionales externos que puedan establecer comparaciones con otros programas similares. Todos los grupos ganan por la interacción intelectual. La Universidad puede proporcionar entrenamiento en técnicas de evaluación.Eastmond (1991) supone que en los próximos años se verá como natural la necesidad de evaluación interna dentro de las organizaciones.