Referencia: Reference

:
Escudero, Tomás (2003). Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista ELectrónica de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm. Consultado en (poner fecha).

This article in english version

(added March, 21th 2006)

Analysis / Análisis

Hits:

Visitas

DESDE LOS TESTS HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL. UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN (From tests to current evaluative research. One century, the XXth, of intense development of evaluation in education)
In format

po r
Tomás Escudero Escorza (tescuder@posta.unizar.es)

En formato

Article record About the authors Print this article

Ficha del artículo Sobre los autores Imprimir el artículo

Abstract
This article presents a review and state of art about development in educational evaluation in the XXth century. The main theoretical proposals are commented

Resumen
Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Se analizan los principales propuestas teóricas planteadas.

Keywords
Evaluation, Evaluation Research, Evaluation Methods; Formative Evaluation Summative Evaluation, Testing, Program Evaluation

Descriptores
Evaluación, Investigación evaluativa, Métodos de Evaluación, Evaluación Formativa, Evaluación Sumativa, Test, Evaluación de Programas

Introducción
En cualquier disciplina, la aproximación histórica suele ser una vía fundamental para comprender su concepción, estatus, funciones, ámbito, etc. Este hecho es especialmente evidente en el caso de la evaluación, pues se trata de una disciplina que ha sufrido profundas transformaciones conceptuales y funcionales a

lo largo de la historia y, sobre todo, a lo largo del siglo XX, en el que principalmente ubicamos nuestro análisis. En este sentido, la aproximación diacrónica al concepto resulta imprescindible.
Comments to this article Related articles: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

Comentar este artículo Artículos relacionados: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

El análisis la vamos a llevar a cabo basándonos en tres planteamientos que podríamos tachar de clásicos en la reciente literatura sobre el tema y que usamos indistintamente, aunque no tenemos la pretensión de ofrecer un planteamiento de síntesis, sino de utilización cabal de todos ellos, puesto que los tres planteamientos inciden sobre los mismos momentos y movimientos claves.

Un planteamiento, quizás el más utilizado en nuestro contexto (Mateo y otros, 1993; Hernández, 1993), es el que ofrecen Madaus, Scriven, Stufflebeam y otros autores, que en sus trabajos suelen establecer seis épocas, empezando su análisis desde el siglo XIX (Stufflebeam y Shinkfield, 1987; Madaus y otros, 1991). Nos hablan de: a) época de la reforma (1800-1900), b) época de la eficiencia y del «testing» (1900-1930), c) época de Tyler (1930-1945), d) época de la inocencia (1946-1956), e) época de la expansión (1957-1972) y f) época de la profesionalización (desde 1973), que enlaza con la situación actual. Otros autores como Cabrera (1986) y Salvador (1992) citan tres grandes épocas, tomando como punto de referencia central la figura de Tyler en el segundo cuarto del Siglo XX. A la época de Tyler se le denomina de nacimiento, a las anteriores de precedentes o antecedentes y a la posterior de desarrollo. Guba y sus colaboradores, sobre todo Yvonna Lyncoln, destacan distintas generaciones. Ahora estaríamos en la cuarta (Guba y Lincoln, 1989), que según ellos se apoya en el enfoque paradigmático constructivista y en las necesidades de los «stakeholders» (demandantes e implicados en la evaluación), como base para determinar la información que se necesita. La primera generación es la de la medición, que llega hasta el primer tercio de este siglo, la segunda es la de la descripción y la tercera la del juicio o valoración. Tras el análisis histórico, como complemento y como revisión de síntesis del mismo, ofrecemos un sucinto resumen de los enfoques evaluativos más relevantes, de los distintos modelos y planteamientos que, con mayor o menor fuerza, vienen a nuestra mente cuando intentamos acotar lo que es hoy en día la investigación evaluativa en educación

1. Precedentes: Antes de los «tests» y de la medición Desde la antigüedad se han venido creando y usando procedimientos instructivos en los que los profesores utilizaban referentes implícitos, sin una teoría explícita de evaluación, para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace más de tres mil años, para seleccionar a los altos funcionarios. Otros autores como Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se refiere a los exámenes de los profesores griegos y romanos. Pero según McReynold (1975), el tratado más importante de evaluación de la antigüedad es el Tetrabiblos, que se atribuye a Ptolomeo. También Cicerón y San Agustín introducen en sus escritos conceptos y planteamientos evaluadores. En la Edad Media se introducen los exámenes en los medios universitarios con carácter más formal. Hay que recordar los famosos exámenes orales públicos en presencia de tribunal, aunque sólo llegaban a los mismos los que contaban con el visto bueno de sus profesores, con lo que la posibilidad de fracaso era prácticamente inexistente. En el Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en su Examen de ingenios para las ciencias, defiende la observación como procedimiento básico de la evaluación (Rodríguez y otros, 1995). En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educación, se acentúa la necesidad de comprobación de los méritos individuales y las instituciones educativas van elaborando e introduciendo normas sobre la utilización de exámenes escritos (Gil, 1992). Entrado el siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación, tras la superación de exámenes (exámenes del Estado). Según Max Weber (Barbier, 1993), surge un sistema de exámenes de comprobación de una preparación específica, para satisfacer las necesidades de una nueva sociedad jerárquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a utilizar las primeras técnicas evaluativas del tipo «tests» escritos, que se extienden a las escuelas de Boston, y que inician el camino hacia referentes más objetivos y explícitos con relación a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todavía de una evaluación sustentada en un enfoque teórico, sino más bien, algo que responde a prácticas en buena medida rutinarias y con frecuencia basadas en instrumentos poco fiables. Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele señalar como la primera investigación evaluativa en educación (Mateo y otros, 1993). Se trataba de un análisis comparativo en escuelas americanas sobre el valor de la instrucción en el estudio de la ortografía, utilizando como criterio las puntuaciones obtenidas en los tests. 2. Los tests psicométricos En el contexto anterior, a finales del siglo XIX, se despierta un gran interés por la medición científica de las conductas humanas. Esto es algo que se enmarca en el movimiento renovador de la metodología de las ciencias humanas, al asumir el

la experimentación. 1960. En este sentido. 1978). olvidándose en gran medida la representatividad y congruencia con los objetivos educativos. 1967). b) La influencia de las teorías evolucionistas y los trabajos de Darwin. En el campo educativo destacan algunos instrumentos de aquella época. el hallazgo de puntuaciones diferenciales. la evaluación y la medida tenían poca relación con los programas escolares. para determinar la posición relativa del sujeto dentro de la norma grupal. 1977). sinónimo de evaluación educativa. 1981). como las escalas de escritura de Ayres y Freeman. En Francia destacan los trabajos de . • Los tests de rendimiento. como la pedagogía experimental y la diferencial (Cabrera. 1960) y se potencian las pruebas escritas como medio para combatir la subjetividad de los exámenes orales (Ahman y Cook. los datos y los hechos como fuentes del conocimiento verdadero. apoyando la medición de las características de los individuos y las diferencias entre ellos. Aparece la exigencia del rigor científico y de la objetividad en la medida de la conducta humana (Planchard. en este periodo entre finales del siglo XIX y principios del XX. de redacción de Hillegas. siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los comienzos del siglo XX. fue en los tests psicológicos donde los esfuerzos tuvieron mayor impacto. 1967. En palabras de Guba y Lincoln (1982). Sin embargo.positivismo de las ciencias físico-naturales. pero no de los programas con los que se les había formado. se elaboraban para establecer discriminaciones individuales. La actividad evaluativa se verá condicionada de forma decisiva por diversos factores que confluyen en dicho momento. Consecuentemente con este estado de cosas. tales como: a) El florecimiento de las corrientes filosóficas positivistas y empíricas. En la práctica sólo se hablaba de medición. de ortografía de Buckingan. de cálculo de Wood. la evaluación recibe las mismas influencias que otras disciplinas pedagógicas relacionadas con procesos de medición. Ahman y Cook. • El objetivo era detectar y establecer diferencias individuales. Los tests informaban algo sobre los alumnos. de lectura de Thorndike y McCall y de aritmética de Wood y McCall (Planchard. Ebel. 1986). Galton y Cattel. es decir. dentro del modelo del rasgo y atributo que caracterizaba las elaboraciones psicológicas de la época (Fernández Ballesteros. que apoyaban a la observación. según sus conocimientos. c) El desarrollo de los métodos estadísticos que favorecía decisivamente la orientación métrica de la época (Nunnally. d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar unos mecanismos de acreditación y selección de alumnos. se desarrolla una actividad evaluativa intensa conocida como «testing». que se define por características como las siguientes: • Medición y evaluación resultaban términos intercambiables.

uno de los tests más conocidos en la historia de la psicometría. técnicas de repesca y tests. pues todavía existen textos y publicaciones que utilizan de manera indisoluble evaluación y medida (Gronlund. Ahora hablamos del Stanford-Binet. 1985). empezaron a surgir algunos movimientos hipercríticos con estas prácticas. 3. La década entre 1920 y 1930 marca el punto más alto del «testing». Como puede verse. b) diversificación de fuentes de información. o la media de distintos correctores. sobre tests de capacidades cognitivas. en algún caso. Tras la contienda. expedientes académicos. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas y d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección. Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests psicológicos con el desarrollo de la estadística y del análisis factorial. muy en boga en el momento. los tests psicológicos se ponen al servicio de fines sociales. 1968 y 1969. El fervor por el «testing» decreció a partir de los años cuarenta e. Bonboir. Pero quien es tradicionalmente considerado como el padre de la evaluación educativa es Tyler (Joint Committee. Tyler. en último término. Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa para lectoescritores y Beta para analfabetos) e inventarios de personalidad (Phillips. que puede legítimamente ser denominada como la generación de la medida. para no tener que confiar exclusivamente en las propuestas por especialistas externos. El nacimiento de la verdadera evaluación educativa: La gran reforma «tyleriana» Antes de que llegara la revolución promovida por Ralph W. por ser el primero en dar una visión metódica de la misma. Estas aplicaciones estandarizadas se acogen muy bien en los ámbitos educativos y McCall (1920) propone que los profesores construyan sus propias pruebas objetivas. Según estos autores. sobre todo. incluso avanzados. superando desde el conductismo. que supone un primer acercamiento a la verdadera evaluación educativa. incluso. 1972). La evaluación se dejaba.Alfred Binet. esta primera generación permanece todavía viva. en su famoso . Como solución se proponía: a) elaboración de taxonomías para formular objetivos. Años más tarde. exámenes. en Francia se inicia en los años veinte una corriente independiente conocida como docimología (Pieron. el divorcio entre lo enseñado y las metas de la instrucción. como proveedor de instrumentos de medición. con las necesidades de reclutamiento en la Primera Guerra Mundial. Entre 1932 y 1940. en manos de una interpretación totalmente personal del profesor. pues se idean multitud de tests estandarizados para medir toda clase de destrezas escolares con referentes objetivos externos y explícitos. 1974). después revisados por Terman en la Universidad de Stanford. Guba y Lincoln (1989) se refieren a esta evaluación como a la primera generación. la mera evaluación psicológica. 1981). El papel del evaluador era técnico. se trata de criterios en buena medida vigentes actualmente y. basados en procedimientos de medida de la inteligencia. Se criticaba. para utilizar con grandes colectivos de estudiantes.

El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos. House. 1971). 1950). Se trata. pero dentro de un proceso socializador. los planteamientos de Tyler se extendieron con la Ley General de Educación de 1970. padres y profesores. En España. por aquellos que utilizaron sus trabajos (Bloom y otros. La obra de síntesis la publica unos años después (Tyler. b) Determinación de las situaciones en las que se deben manifestar las conductas esperadas. exponiendo de manera clara su idea de «curriculum». . 1975. Esta evaluación ya no es una simple medición. 1982). es también un medio para informar sobre la eficacia del programa educacional y también de educación continua del profesor. teniendo en cuenta que deben marcar el desarrollo individual del alumno. d) Interpretación de los resultados de las pruebas. Desgraciadamente. según Guba y Lincoln (1989). la referencia central en la evaluación son los objetivos preestablecidos. e) Determinación de la fiabilidad y objetividad de las medidas. 1967 y 1969). Para Tyler. como el proceso surgido para determinar en qué medida han sido alcanzados los objetivos previamente establecidos (véase también Tyler. 1942). esta visión evaluativa global no fue suficientemente apreciada. ni explotada. en función de los resultados de los alumnos. pero su función es más amplia que el hacer explícito este cambio a los propios alumnos. algo que retomarán otros importantes evaluadores como Cronbach y Sufflebeam unos años después. de la segunda generación de la evaluación. 1982. porque supone un juicio de valor sobre la información recogida. publicado dos años después (Smith y Tyler. 1962). 1989) y encajaba perfectamente en la racionalidad del análisis de la tarea que comenzaba a usarse con éxito en ámbitos educativos militares (Gagné. que deben ser cuidadosamente definidos en términos de conducta (Mager. las ideas de Tyler fueron muy bien acogidas por los especialistas en desarrollo curricular y por los profesores. plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. fácil de entender y aplicar (Guba y Lincoln. Se alude. aunque sin desarrollar. c) Elección de instrumentos apropiados de evaluación. Su esquema era racional y se apoyaba en una tecnología clara. e integrando en él su método sistemático de evaluación educativa. Guba y Lincoln. El «currículum» viene delimitado por las cuatro cuestiones siguientes: a) ¿Qué objetivos se desean conseguir? b) ¿Con qué actividades se pueden alcanzar? c) ¿Cómo pueden organizarse eficazmente estas experiencias? d) ¿Cómo se puede comprobar si se alcanzan los objetivos? Y la buena evaluación precisa de las siguientes condiciones: a) Propuesta clara de objetivos. A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de inmediato.Eight-Year Study of Secondary Education para la Progressive Education Association. a la toma de decisiones sobre los aciertos o fracasos de la programación.

Krathwohl y otros. El verdadero desarrollo de las propuestas tylerianas vino después (Taba. 1991). pero con escasa influencia en el perfeccionamiento de la labor instruccional. ayudarles a que aprendan. En rigor. 1973). 1953. Esta entrevista. entre otros. por el gran despilfarro consumista tras una época de recesión. fue presentada el 16 de abril de 1993 en la Conferencia de la AERA que tuvo lugar en Atlanta. 1962. Para ello. los siguientes aspectos en el pensamiento de Tyler al final de sus días: a) Necesidad de analizar cuidadosamente los propósitos de la evaluación. se producen cantidad de tests estandarizados. coherencia y vigencia de su pensamiento. Unos meses antes. no basta con asegurarse que hacen regularmente el trabajo diario. superados los noventa años de vida. Los actuales planteamientos de evaluaciones múltiples y alternativas deben ajustarse a este principio b) El propósito más importante en la evaluación de los alumnos es guiar su aprendizaje. una estudiante graduada de la Universidad de Stanford. Popham y Baker. 1956. antes de ponerse a evaluar. e) Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos. Medio siglo después de que Tyler revolucionara el mundo de la evaluación educativa. convenientemente preparada. 1950. 1964). d) La verdadera evaluación debe ser idiosincrásica. en esta época. se . es necesario interaccionar con ellos de manera más frecuente y más informal. la aportación de la evaluación a la mejora de la enseñanza es escasa debido a la carencia de planes coherentes de acción. convenientemente actualizadas. esto es. la comparación de centros no es posible. pero depende de su contenido. Se extienden mucho las instituciones y servicios educativos de todo tipo. tras siete décadas de fructíferas aportaciones y servicios a la evaluación. En todo caso. a la investigación y a la educación en general. 1970. entrevistó a Tyler con el propósito de conocer su pensamiento acerca del actual desarrollo de la evaluación y de los temas controvertidos alrededor de la misma. hay que ser cauteloso ante la preponderancia de un solo procedimiento de evaluación. adecuada a las peculiaridades del alumno y el centro. Como acabamos de ver. Lindquist. se avanza en la tecnología de la medición y en los principios estadísticos del diseño experimental (Gulliksen. Tyler murió el 18 de febrero de 1994.Tras la Segunda Guerra Mundial se produce un periodo de expansión y optimismo que Stufflebeam y Shinkfield (1987) no han dudado en calificar de «irresponsabilidad social». Se trata de la etapa conocida como la de la inocencia (Madaus y otros. en abril de 1993. Sin embargo. incluyendo el «portfolio». Ralph W. por su incapacidad de abarcar todo el espectro de aspectos evaluables. Horowitz (1995) analiza el contenido y el significado de la citada entrevista. 1990) y aparecen las famosas taxonomías de los objetivos educativos (Bloom y otros. c) El «portfolio» es un instrumento valioso de evaluación. sus ideas básicas. Para ello es necesaria una evaluación comprensiva de todos los aspectos significativos de su rendimiento. Pamela Perfumo. se observa la fortaleza. destacando. Walberg y Haertel. Fernández de Castro. Se escribe mucho de evaluación.

la era de la «Accountability». En 1964 se establece el Acta de educación primaria y secundaria (ESEA) y se crea el National Study Comitte on Evaluation. sus funciones. hace que. la década de los setenta.. 1976. como contribuyentes. sobre todo porque los rusos iban por delante en la carrera especial. relacionadas con la eficacia de los programas y el valor intrínseco de la evaluación para la mejora de la educación. de la rendición de cuentas (Popham. . 1976). 1995). En esa época surge un cierto conflicto entre la sociedad americana y su sistema educativo. Rutman y Mowbray.entroncan fácilmente en las corrientes más actuales de la evaluación educativa. entre otras cosas porque se empezó a prestar interés por algunas de las llamadas de atención de Tyler. su enfoque y su última interpretación variará según el tipo de decisión buscada. 1980 y 1983. y. Con esta ley se puso en marcha el primer programa significativo para la organización de la educación en el ámbito federal de los Estados Unidos. 1993. 1983. tras el lanzamiento del Sputnik por la URSS en 1957. y se estipuló que cada uno de los proyectos realizados con el apoyo económico federal debía ser anualmente evaluado. Este movimiento se vio también potenciado por el desarrollo de nuevos medios tecnológicos (audiovisuales. Rutman y Mowbray. De la misma forma que la proliferación de programas sociales en la década anterior había impulsado la evaluación de programas en el área social. los años sesenta serán fructíferos en demanda de evaluación en el ámbito de la educación. 1984). sobre todo. (Popham. 1983). 1984). Weiss. cuyas posibilidades educativas despertaron el interés entre los profesionales de la educación (Rosenthal. 1981. Ello hizo que la población civil.. ordenadores. A finales de los años sesenta. Junto al desencanto de la escuela pública. Rodríguez y otros. Aparece un cierto desencanto con la escuela pública y crece la presión por la rendición de cuentas (MacDonald. Esta nueva dinámica en la que entra la evaluación. Stenhouse. 1983. El desarrollo de los sesenta Los años sesenta traerán nuevos aires a la evaluación educativa. a fin de justificar subvenciones futuras. entra en escena un nuevo movimiento. Rutman. 1983). En 1958 se promulga una nueva ley de defensa educativa que proporciona muchos programas y medios para evaluarlos. y los propios legisladores se preocupasen por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema escolar. creándose una nueva evaluación no sólo de alumnos. cabe señalar la recesión económica que caracteriza los finales años sesenta.) y el de la enseñanza programada. fueron muchos los millones de dólares que desde los fondos públicos se destinaron a subvencionar nuevos programas educativos e iniciativas del personal de las escuelas públicas americanas encaminadas a mejorar la calidad de la enseñanza. Para mejorar la situación y retomar la hegemonía científica y educativa. 4. y como consecuencia de lo anterior. aunque ésta se centraba en los alumnos como sujeto que aprende. Buena parte de culpa de este fuerte ímpetu evaluador americano se debió a la ya citada aprobación de la «Elementary and Secondary Act» (ESEA) en 1965 (Berk. y el objeto de valoración era el rendimiento de los mismos. sino orientada a incidir en los programas y en la práctica educativa global (Mateo y otros.

contribuye más al desarrollo de la educación que la evaluación usada para estimar el valor del producto de un programa ya concluido. The methodology of evaluation. se amplió considerablemente el fenómeno de la evaluación educativa. De hecho. organización. pero también todos aquellos factores que confluyen en el proceso educativo (el programa educativo en un sentido amplio.). aunque en su línea de sugerencias. El sujeto directo de la evaluación siguió siendo el alumno. Del análisis que Cronbach del concepto. etc. la legislación de muchos estados americanos instituyó la obligación de controlar el logro de los objetivos educativos y la adopción de medidas correctivas en caso negativo (MacDonald. se inicia durante esta época un periodo de reflexión y de ensayos teóricos con ánimo de clarificar la multidimensionalidad del proceso evaluativo. y el de Scriven (1967). funciones y metodología de la evaluación. Course improvement through evaluation. cuando se refiere al movimiento de descentralización escolar durante los últimos años sesenta y principios de los setenta. dará lugar al nacimiento de esa nueva modalidad de investigación aplicada que hoy denominamos como investigación evaluativa. b) sobre los alumnos (necesidades y méritos finales) y c) acerca de la regulación administrativa sobre la calidad del sistema. y. Como consecuencia de estos focos de influencia. así como el propio producto educativo. profesor. planteado así. Entre las objeciones a este tipo de estudios. Es comprensible que. nos refiramos a ellas. diera lugar a una oleada de protestas por parte del personal docente. con un control ciudadano más directo sobre lo que ocurría en las escuelas. 1978). medios. Los grandes distritos escolares se dividieron en áreas geográficas más pequeñas. Como hitos de la época hay que destacar dos ensayos por su decisiva influencia: el artículo de Cronbach (1963). Otra dimensión de la responsabilidad escolar nos la ofrece Popham (1980). organización. De esta forma. en el año 1973.que se asocia fundamentalmente a la responsabilidad del personal docente en el logro de objetivos educativos establecidos. aunque brevemente. b) La evaluación que se usa para mejorar un programa mientras éste se está aplicando. La riqueza de ideas evaluativas expuestas en estos trabajos nos obligan a que. Wilson y otros. Cronbach abre el campo conceptual y funcional de la evaluación educativa mucho más allá del marco conceptual dado por Tyler. por consiguiente. experiencias de aprendizaje. de responsabilidad escolar. Estas reflexiones teóricas enriquecerán decisivamente el ámbito conceptual y metodológico de la evaluación. Distingue el autor tres tipos de decisiones educativas a las cuales la evaluación sirve: a) sobre el perfeccionamiento del programa y de la instrucción. etc. 1976. Como resultado de estas nuevas necesidades de la evaluación. entresacamos las sugerencias siguientes: a) Asociar el concepto de evaluación a la toma de decisiones. c) Poner en cuestión la necesidad de que los estudios evaluativos sean de tipo comparativo. el autor destaca el hecho de que. profesores. contenidos. las diferencias entre las . este movimiento de rendición de cuentas. lo que unido a la tremenda expansión de la evaluación de programas ocurrida durante estos años. con frecuencia.

Si estas reflexiones de Cronbach fueron impactantes. Destacamos a continuación las aportaciones más significativas: a) Se establece de forma tajante la diferencia entre la evaluación como actividad metodológica. Estas funciones se relacionan con el uso que se hace de la información recogida. que pueden usarse para comparar versiones alternativas de un programa. mientras que las funciones de la evaluación pueden ser enormemente variadas. Así. e) Metodológicamente Cronbach propone que la evaluación debe incluir: 1) estudios de proceso –hechos que tienen lugar en el aula–. la evaluación como actividad metodológica es esencialmente igual. Los cuestionarios. Sus fecundas distinciones terminológicas ampliaron enormemente el campo semántico de la evaluación. b) Scriven señala dos funciones distintas que puede adoptar la evaluación: la formativa y la sumativa. El objetivo de la evaluación es invariante. y el término de evaluación sumativa para aquel proceso orientado a comprobar la eficacia del programa y tomar decisiones sobre su continuidad. ocupan un lugar importante en la evaluación. Se defienden los estudios más analíticos. 2) medidas de rendimiento y actitudes –cambios observados en los alumnos– y 3) estudios de seguimientos. reclamando la necesidad de una evaluación con referencia al criterio. puesto que las diferencias entre los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas de los resultados. f) Desde esta óptica. según el autor. a la vez que clarificaron el quehacer evaluativo. las entrevistas. las pruebas de ensayo. Cronbach aboga por unos criterios de comparación de tipo absoluto. el camino posterior seguido por los estudiantes que han participado en el programa. al defender la valoración con relación a unos objetivos bien definidos y no la comparación con otros grupos. en contraste al casi exclusivo uso que se hacía de los tests como técnicas de recogida de información. c) Otra importante contribución de Scriven es la crítica al énfasis que la evaluación da a la consecución de objetivos previamente establecidos. Resalta la necesidad de que la evaluación debe incluir tanto la evaluación de los propios objetivos . las técnicas de evaluación no pueden limitarse a los tests de rendimiento. con objeto de mejorarlo.puntuaciones promedio entre-grupos son menores que las intra-grupos. esto es. y las funciones de la evaluación en un contexto particular. bien controlados. supone en definitiva el proceso por el cual estimamos el valor de algo que se evalúa. lo que el autor llama meta de la evaluación. d) Se ponen en cuestión los estudios a gran escala. no lo fueron menos las del ensayo de Scriven (1967). Propone el término de evaluación formativa para calificar aquel proceso de evaluación al servicio de un programa en desarrollo. la observación sistemática y no sistemática. sea lo que fuera lo que estemos evaluando. así como otras referentes a las dificultades técnicas que en el marco educativo presentan los diseños comparativos. porque si los objetivos carecen de valor. no tiene ningún interés saber hasta qué punto se han conseguido.

1971.como el determinar el grado en que éstos han sido alcanzados (Scriven. 1967. sobre todo. Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de evaluadores. Atkin. 1967 y 1969. 1965. Así mismo. como un contenido intrínseco en la evaluación. como dos formas diferentes de valorar un elemento de la enseñanza. pero Scriven considera que la evaluación como opuesta a la mera descripción implica emitir un juicio sobre la superioridad o inferioridad de lo que se evalúa con respecto a sus competidores o alternativas. defendiendo el carácter comparativo que deben presentar los estudios de evaluación. 1986). que presentan mayor dificultad de tratamiento operativo. se comienza a prestar atención no sólo a los resultados pretendidos. 1973 y 1974). incidiendo no sólo en estudios en la línea de la investigación evaluativa. Entre otras cosas aparecieron nuevas ideas sobre la evaluación de la interacción en el aula y sobre sus efectos en los logros de los alumnos (Baker. 1968). Durante estos años sesenta aparecen muchas otras aportaciones que va perfilando una nueva concepción evaluativa. se caracteriza por introducir la valoración. e incluso a resultados o efectos a largo plazo (Cronbach. . que terminará de desarrollarse y. mientras que en la evaluación extrínseca se valora el elemento por los efectos que produce en los alumnos. Admite con Cronbach los problemas técnicos que los estudios comparativos entrañan y la dificultad de explicar las diferencias entre programas. Glaser. Gagné 1971). Krathwohl y otros. Stake. Estamos ante la tercera generación de la evaluación que. de extenderse en las décadas posteriores. mientras que sí se hace en la evaluación extrínseca . y de que se prestaba escasa atención a los objetivos del dominio afectivo. no sólo por la estructura de valor que en ello subyace. en la línea de evaluación como «assessment» (Mateo. Se percibe que el núcleo conceptual de la evaluación lo constituye la valoración del cambio ocurrido en el alumno como efecto de una situación educativa sistemática. Popham. 1970. la juzga con relación a distintos criterios. 1967). el juicio. Glaser. A pesar de las voces críticas con la operativización de objetivos (Eisner. 1969). además. Lindvall. con trabajos sobre los objetivos educativos que continuarían y perfeccionarían el camino emprendido en 1956 por Bloom y colaboradores (Mager. a veces los más bajos en las taxonomías del dominio cognoscitivo. Bloom y otros. siendo unos objetivos bien formulados el mejor criterio para valorar este cambio. 1963. la valora. a la que se referían preferentemente. sino también por centrar la valoración del aprendizaje en los productos más fácilmente mensurables. 1964. 1964. Ahora el evaluador no sólo analiza y describe la realidad. según Guba y Lincoln (1989). En una evaluación intrínseca se valora el elemento por sí mismo. 1962 y 1973. Scriven. e) Scriven adopta una posición contraria a Cronbach. d) Clarificadora es también la distinción que hace Scriven entre evaluación intrínseca y evaluación extrínseca. pues en la evaluación intrínseca el criterio no se formula en términos de objetivos operativos. sino también a los efectos laterales o no pretendidos. el modelo evaluativo de Tyler se enriquecería mucho en estos años. Esta distinción resulta muy importante a la hora de considerar el criterio a utilizar. 1963. sino también en la evaluación orientada al sujeto.

aún siguiendo el modelo básico de Tyler. Desde finales de los sesenta los especialistas se pronunciarán decisivamente a favor de la evaluación criterial. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica. Stake se irá distanciando de sus posiciones iniciales. defiende la utilización de evaluadores externos para evitar todo tipo de tergiversación de los profesores muy implicados en los procesos instruccionales. 1985). Suchman. En sus sucesivas propuestas. Un nivel podemos calificarlo como la evaluación orientada hacia los individuos. siendo irrelevantes. en cambio. Metfessell y Michael (1967) presentaron también un modelo de evaluación de la efectividad de un programa educativo en el cual. cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests referidos a la norma. al efecto de contraste. por ejemplo. además de los conocidos objetivos de describir la ejecución del sujeto y tomar decisiones sobre si domina o no domina un contenido. fundamentalmente alumnos y profesores. por consiguiente. En las prácticas evaluativas de esta década de los sesenta se observan dos niveles de actuación. éxito o fracaso de un programa al compararlo con los objetivos propuestos y. los resultados obtenidos por otros sujetos o grupo de sujetos (Popham. la investigación evaluativa es siempre aplicada. así como la valoración de ese estatus por comparación con un estándar o criterio de realizaciones deseables. La distinción introducida por Glaser (1963) entre mediciones referidas a normas y criterios tendrá eco al final de la década de los sesenta. proponían la utilización de una lista comprensiva de criterios diversos que los evaluadores podrían tener en cuenta en el momento de la valoración y. Así. Su principal propósito es descubrir la efectividad. no centrarse meramente en los conocimientos intelectuales alcanzados por los alumnos. impulsado también por . b) el tiempo necesario para que se realice el cambio propuesto. El otro nivel. Mager. 1977. y posibilitar algunas bases para elaborar hipótesis acerca de las causas y los fallos en los resultados finales. Carreño. El énfasis en los objetivos y su medida traerá también la necesidad de una nueva orientación a la evaluación. 1970 y 1983. Este último nivel. señala para los primeros. otro objetivo como es el de valorar la eficacia de un programa. c) el conocimiento de si los resultados esperados son dispersos o concentrados y d) los métodos que han de emplearse para alcanzar los objetivos. 1973. Esta investigación evaluativa para Suchman debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo. The countenance model. es el de la evaluación orientada a la toma de decisiones sobre el «instrumento» o «tratamiento» o «programa» educativo. precisamente como resultado de las nuevas exigencias que a la evaluación educativa se le planteaban. Gronlund. trazar las líneas de su posible redefinición. la denominada evaluación de referencia criterial. matizando que la investigación científica es preferentemente teórica y. que sigue la línea de Tyler. pero es más completo al considerar las discrepancias entre lo observado y lo esperado en los «antecedentes» y «transacciones». así. además.Stake (1967) propuso su modelo de evaluación. en cuanto que es el tipo de evaluación que suministra una información real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de enseñanza previstos.

Nosotros. puesto que es cada evaluador el que termina construyendo su propio modelo en cada investigación evaluativa. Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas. pero enfatizan la necesidad de aportar datos sobre la congruencia o discrepancia entre las pautas de . Scriven. 1976. Arnal y otros. modelos de evaluación que expresan la propia óptica del autor que los propone sobre qué es y cómo debe conducirse un proceso evaluativo. 1987. por tanto. De la Orden. Guba y Lincoln (1982) nos hablan de más de cuarenta modelos propuestos en estos años. 1973. Para estos autores los objetivos propuestos siguen siendo el criterio fundamental de valoración. 1994). y valorar así sus respectivas aportaciones en los terrenos conceptual y metodológico (Worthen y Sanders.la evaluación de programas en el ámbito social. 5. Además de los ya citados de Stake y Metfessell y Michael. tienden a clasificar estos modelos en dos grandes grupos. compartimos la idea de Popham (1980) de que algunos son demasiado complicados y otros utilizan una jerga bastante confusa. 1985) los que consideran los modelos no como excluyentes. considerados particularmente. sin embargo. Popham. y Mateo (1986) se refiere a la eclosión de modelos. de una época caracterizada por la pluralidad conceptual y metodológica. 1993). 1983. más que de modelos. que corresponden a los últimos años sesenta. en algún momento nos hemos atrevido a hablar de enfoques modélicos. En este movimiento de propuestas de modelos de evaluación cabe distinguir dos épocas con marcadas diferencias conceptuales y metodológicas. Stufflebeam y Shinkfield. Cronbach. sino más bien como complementarios y que el estudio de los mismos (al menos aquellos que han resultado ser más prácticos) llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. Desde los años setenta: La consolidación de la investigación evaluativa Si con algo se podría caracterizar las aportaciones teóricas que nos ofrecen los especialistas durante los años setenta es con la proliferación de toda clase de modelos evaluativos que inundan el mercado bibliográfico. a nuestro entender. Anderson y Ball. cuantitativos y cualitativos. que ha venido a llamarse de “Consecución de Metas”. 1992. pero los diferentes modelos. pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situación es mucho más rica en matices. se diferencian más por destacar o enfatizar alguno o algunos de los componentes del proceso evaluativo y por la particular interpretación que a este proceso le dan. 1980. En una primera época. También son varios los autores (Lewy. Es desde esta perspectiva. las propuestas seguían la línea expuesta por Tyler en su planteamiento. Algunos autores como Guba y Lincoln (1982). 1982. en función del tipo de trabajo y las circunstancias (Escudero. Se trata. como los diferentes modelos deben ser vistos. en esta época destacan la propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). Estos enriquecerán considerablemente el vocabulario evaluativo. Pérez (1983) y en alguna medida House (1989). y que algunos modelos pueden ser representativos de ellas. será la base para la consolidación en el terreno educativo de la evaluación de programas y de la investigación evaluativa.

como en los modelos orientados a la toma de decisiones. conducen a una gran variedad de esquemas evaluativos reales utilizados por profesores. según las necesidades de las decisiones a las que sirven.P. Es fácilmente comprensible que las exigencias que plantea la evaluación de programas de una parte. Pérez 1983). que con diferentes concepciones de la evaluación y de la metodología a seguir comienzan a aparecer en la segunda mitad de esta década de los setenta. y la evaluación para la toma de decisiones sobre los individuos de otra. Por una parte existe la clásica definición dada por Tyler: la evaluación como el proceso de . de aquí que la metodología que consideran más adecuada es la propia de la antropología social (Parlett y Hamilton. La audiencia prioritaria son los propios participantes del programa. inspectores y administradores públicos. 1982. la Evaluación Iluminativa de Parlett y Hamilton (1977) y la Evaluación como crítica artística de Eisner (1985). En líneas generales. 1982. atendiendo a los tópicos ¿qué es la evaluación? ¿qué funciones tiene? ¿cuál es el objeto de evaluación?. directores. Ejemplos notables de ellos son: probablemente el más famoso y utilizado de todos. Se trata de modelos que propugnan una evaluación de tipo etnográfica. proceso y producto).I. ni el responsable de elaborar los currículos u objetivos. Este resumen de modelos de la época de eclosión es suficiente para aproximarnos al amplio abanico conceptual teórico y metodológico que hoy se relaciona con la evaluación. como en los modelos de consecución de metas. input. 1977. no encuentra una única respuesta a estas cuestiones.P. La aportación conceptual y metodológica de estos modelos es valorada positivamente entre la comunidad de evaluadores (Popham.. Otros modelos consideran el proceso de evaluación al servicio de las instancias que deben tomar decisiones.S. House. La audiencia prioritaria de la evaluación en estos modelos no es quien debe tomar las decisiones. (toma sus siglas del Centro de la Universidad de California para el Estudio de la Evaluación) dirigido por Alkin (1969).E. Estos autores van más allá de la evaluación centrada en resultados finales. el C. propuesto por Stufflebeam y colaboradores (1971) y el C. 1980. Guba y Lincoln. a) Diferentes conceptos de evaluación. la Evaluación Democrática de MacDonald (1976). A continuación destacamos los puntos mas sobresalientes de esta pluralidad conceptual. este segundo grupo de modelos evaluativos enfatiza el papel de la audiencia de la evaluación y de la relación del evaluador con ella. Entre ellos destacan la Evaluación Responsable de Stake (1975 y 1976). Una segunda época en la proliferación de modelos es la representada por los modelos alternativos.. 1986). Guba y Lincoln. a partir de la revisión de la literatura especializada. a la que se adhieren Guba y Lincoln (1982). 1989). La relación entre el evaluador y la audiencia en palabras de Guba y Lincoln (1982) debe ser «transaccional y fenomenológica». Diferentes concepciones que han dado lugar a una apertura y pluralidad conceptual en el ámbito de la evaluación en varios sentidos (Cabrera.instrucción diseñadas y la ejecución de las mismas en la realidad del aula. puesto que en sus propuestas suponen diferentes tipos de evaluación. Pero también es cierto que bajo esta diversidad subyacen diferentes concepciones teóricas y metodológicas sobre la evaluación. (contexto. Ello explica que cuando Nevo (1983 y 1989) pretende realizar una conceptualización de la evaluación.

d) Pluralidad de objetos de evaluación. por otro. MacDonald (1976) y Cronbach (1982). De las definiciones apuntadas anteriormente se desprende que el criterio a utilizar para la valoración de la información también cambia. de un lado. una buena y operativa definición de los objetivos constituye el criterio fundamental. como el proceso de estimar el valor o el mérito de algo. es retomado por Cronbach (1982). House. 1982. Guba y Lincoln (1982) refieren los términos de la comparación valorativa. Los modelos de evaluación citados y otros más que pueden encontrarse en la bibliografía. 1980). b) Diferentes criterios. siendo el que toma las decisiones el responsable de su valoración. representan diferentes propuestas para conducir una evaluación. a la que corresponden los modelos orientados hacia la consecución de metas. las características del objeto evaluado y. defendida por Alkin (1969). una clara identificación del objeto de evaluación es una importante parte en cualquier diseño de evaluación. cualquier cosa puede ser objeto de evaluación y ésta no debería limitarse a estudiantes y profesores y. Guba y Lincoln (1982). las necesidades. Se trata de modelos relacionados con la acreditación y el enjuiciamiento profesional (Popham. obtener y proporcionar información relevante para juzgar decisiones alternativas. con objeto de señalar las diferencias que comportarían los juicios valorativos en caso de estimar el mérito (se vincularía a características intrínsecas de lo que se evalúa) o el valor (se vincularía al uso y aplicación que tendría para un contexto determinado). . 1983) que acentúan el proceso de evaluación al servicio de determinar el «valor» más que el «mérito» de la entidad u objeto evaluado. Alkin y MacDonald llegan a sugerir incluso la no valoración de la información por parte del evaluador. Stufflebeam y colaboradores. 1975. el concepto de evaluación de Scriven (1967). Así. Guba y Lincoln. abogan por que el criterio de valoración fundamental sean las necesidades contextuales en las que ésta se inserta. expectativas y valores del grupo a los que les afecta o con los que se relaciona el objeto evaluado. utilizan criterios estándares sobre los que los expertos o profesionales están de acuerdo. Además. 1977. de otro. Stufflebeam y otros (1971).determinar el grado de congruencia entre las realizaciones y los objetivos previamente establecidos. c) Pluralidad de procesos evaluativos dependiendo de la percepción teórica que sobre la evaluación se mantenga. existen dos conclusiones importantes que se obtienen de la revisión de la bibliografía sobre la evaluación. Los autores (Stake. Como dice Nevo (1983 y 1989). Las definiciones de evaluación que acentúan la determinación del «mérito» como objetivo de la evaluación. Desde la óptica de la consecución de metas. y House (1989). Contrasta esta definición con aquella más amplia que se propugna desde los modelos orientados a la toma de decisiones: la evaluación como el proceso de determinar. Por un lado. Parlett y Hamilton. Desde la perspectiva de las decisiones y situados dentro de un contexto político.

Evaluation and Program Planning. sino valorar todos los efectos posibles. h) Pluralidad de audiencia de la evaluación y. Y apertura en la consideración de diferentes resultados de corto y largo alcance. La alternativa de Guba y Lincoln la denominan respondente y . Hernández. la época que se ha denominado época de la profesionalización (Stufflebeam y Skinkfield. 1993. que viene definida en gran medida por la diversidad metodológica. Guba y Lincoln (1989) ofrecen una alternativa evaluadora. No obstante. Rutman. una relación directa entre el evaluador y las diferentes audiencias de la evaluación es reconocida por la mayoría de los autores (Nevo. por consiguiente. de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos. 1983). que denominan cuarta generación. hasta informes muy estructurados (Anderson y Ball. sino también en planes de estudio para titulaciones de primer y segundo ciclos. aparecen muchas nuevas revistas especializadas como Educational Evaluation and Policy Analysis. f) Pluralidad también reconocida de las funciones de la evaluación en el ámbito educativo.. no sólo en postgrados y programas de doctorado. lo que ha venido a llamarse evaluación interna vs. g) Diferencias en el papel jugado por el evaluador. Evaluation News. pluralidad en los informes de evaluación. 1983). pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores. La cuarta generación según Guba y Lincoln A finales de los ochenta. Desde informes narrativos. sino también afectivos (Anderson y Ball. En este contexto. sea pretendido o no. recogiéndose la propuesta de Scriven entre evaluación formativa y sumativa. 1993). New Directions for Program Evaluation. sino también sobre el proceso educativo. 1983). 1987.. Weiss.. Apertura también respecto a la recogida de información no sólo del producto final. Las cuestiones metodológicas surgen desde la dimensión de la evaluación como investigación evaluativa. Por último. Madaus y otros. en la que además de los innumerables modelos de los setenta. 1991. Studies in Evaluation. se fundan asociaciones científicas relacionadas con el desarrollo de la evaluación y las universidades empiezan a ofrecer cursos y programas de investigación evaluativa. i) Pluralidad metodológica. lógicamente. 1983. 1983. 6. Incluso Scriven (1973 y 1974) propone una evaluación en la que no se tenga en cuenta los objetivos pretendidos. evaluación externa. tales como una visión gestora de la evaluación. sino a los efectos posibles de un programa educativo. 1984). Evaluation Review. una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista. y añadiéndose otras de tipo sociopolítico y administrativas (Nevo. reconocida en general por todos los autores. informales.e) Apertura. apertura también en considerar no sólo resultados de tipo cognitivo. Mateo y otros. El anterior resumen recoge las aportaciones a la evaluación en los años setenta y ochenta. tras todo este desarrollo antes descrito.. se profundizó en los planteamientos teóricos y prácticos y se consolidó la evaluación como investigación evaluativa en los términos antes definida.

Partiendo de estas premisas. construyendo un proceso ordenado y sistemático de trabajo. e) Se produce una interacción positiva entre los distintos implicados. que realizará secuencialmente o en paralelo. d) No se proporcionan medios para valoraciones caso por caso. las preocupaciones y los asuntos de los implicados o responsables (stakeholders) sirven como foco organizativo de la evaluación (como base para determinar qué información se necesita).constructivista. c) No se tienen en cuenta suficientemente los factores contextuales. 2) Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto. 1997). preocupaciones y asuntos de los implicados es necesaria. de manera que se sientan protegidos ante tal riesgo. d) Pueden ampliar y mejorar el rango de la evaluación. 4) Generar el máximo acuerdo posible acerca de dichas construcciones. integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975). b) Los resultados pueden ser utilizados en su contra en diferentes sentidos. que se lleva a cabo dentro de los planteamientos metodológicos del paradigma constructivista. e) La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social. porque: a) Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados. demandas y preocupaciones. El cambio paradigmático lo justifican estos autores porque: a) La metodología convencional no contempla la necesidad de identificar las demandas. típica del positivismo. 7) Formar y hacer de mediador para un «forum» de implicados para la negociación. c) Son potenciales usuarios de la información resultante de la evaluación. 8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y . Las responsabilidades básicas del evaluador de la cuarta generación son las siguientes: 1) Identificar todos los implicados con riesgo en la evaluación. y la epistemología postmoderna del constructivismo (Russell y Willinsky. sobre todo si están al margen del proceso. demandas y preocupaciones. 6) Recoger y proporcionar la información necesaria para la negociación. según Guba y Lincoln. b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación. 3) Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta. preocupaciones y asuntos de los implicados. La utilización de las demandas. el evaluador es responsable de determinadas tareas. comprender y criticar las diferentes construcciones. Las demandas. 5) Preparar una agenda para la negociación acerca de temas no consensuados.

• Identificación del cliente o patrocinador de la evaluación. • Acuerdo con el cliente por el tipo de evaluación. preocupaciones y asuntos resueltos. Cuando se habla de los pasos o fases de la evaluación en esta cuarta generación. 1987). 1985). Preparación de la agenda para la negociación. Lincoln y Guba. • Victimas. 1982). • Identificación de audiencias. • Beneficiarios. • Observación. Estos pasos son los siguientes: 1) Establecimiento de un contrato con un patrocinador o cliente. 4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss. 1986. • Literatura profesional. 1967. • Documentos y registros. • Consecución de facilidades y acceso a la información (Lincoln y Guba. 1982). • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. 1978. 7) . Establecimiento de prioridades en los temas no resueltos. • Propósito de la evaluación (Guba y Lincoln. • Listado de especificaciones técnicas. • Construcción ética del evaluador. • Selección y entrenamiento del equipo evaluador. • Círculos de otras audiencias. Zeller. La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicación de la naturaleza y características del paradigma constructivista en contraposición con las del positivista.de los de otros grupos (Stake. 2) Organización para reciclar la investigación. 6) Clasificación de las demandas. • Breve descripción de la metodología a usar. • Garantía de acceso a registros y documentos. • Descripción del tipo de informe a elaborar. • Identificación del objeto de la evaluación. 5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. 8) 9) Recogida de información. 3) Identificación de las audiencias (Guba y Lincoln. • Agentes. 1985). Glaser. con diferentes subfases en cada una de estas. 9) Reciclar la evaluación siempre que queden asuntos pendientes de resolución. sus proponentes citan doce pasos o fases.

Licoln y Guba. 1988). Este análisis de la cuarta generación de podemos terminarlo con los rasgos con los que definen Guba y Lincoln a la evaluación: a) La evaluación es un proceso sociopolítico. c) autenticidad educativa. e) La evaluación es un proceso emergente. de forma que la idea de isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas a ellas. los criterios deban ser acordes con el paradigma fundamentador (Morgan. g) La evaluación es un proceso que crea realidad. justicia. 11)Informes (Zeller. En el caso de la cuarta generación los criterios que se ofrecen son los de credibilidad. d) autenticidad catalítica y e) autenticidad táctica (Lincoln y Guba. esto es. 1987. f) La evaluación es un proceso con resultados impredecibles. la de analista y la de juez. la de técnico. b) autenticidad ontológica. La transferencia puede verse como paralela a la validez externa. Pero estos dos tipos de criterios. c) el contraste con colegas. Sin embargo. El criterio de credibilidad es paralelo al de validez interna. c) la evaluación es un proceso de enseñanza/aprendizaje. d) el análisis de casos negativos (Kidder. a través de un proceso dialéctico. entre las que destacan las siguientes: a) el compromiso prolongado. b) La evaluación es un proceso conjunto de colaboración. e) la subjetividad progresiva y f) el control de los miembros. 1981). Para juzgar la calidad de la evaluación. 12)Reciclado/revisión. Estos criterios incluyen los siguientes: a) imparcialidad. la dependencia es paralela al criterio de fiabilidad y la confirmación puede verse como paralela a la objetividad. transferencia. que defienden con más ahínco los criterios que denominan de autenticidad. b) la observación persistente. algo que encaja con el paradigma hermenéutico. recursivo y altamente divergente. se denominan así porque intentan ser paralelos a los criterios de rigor utilizados muchos años dentro del paradigma convencional. de confianza. se retienen las características del evaluador fruto de las tres primeras generaciones. 1983).10)Desarrollo de la negociación. d) La evaluación es un proceso continuo. no son del todo satisfactorios para Guba y Lincoln. el ligado al proceso hermenéutico y el de autenticidad. se nos ofrecen tres enfoques que se denominan paralelo. dependencia y confirmación (Lincoln y Guba. pero estas deben ampliarse con destrezas para recoger e interpretar datos cualitativos . Para conseguir esto existen varias técnicas. fiabilidad y objetividad. En esta evaluación. Otra manera de juzgar la calidad de la evaluación es el análisis dentro del propio proceso. también de base constructivista. Estos criterios han sido validez interna y externa. Los criterios paralelos. 1986). aunque útiles. 1986).

Nos estamos refiriendo a Daniel L. Stufflebeam. Esto requiere por parte del profesorado el reconocimiento de otras posiciones. esto es. queremos recoger las recomendaciones que más recientemente nos viene ofreciendo una de las figuras señeras de este campo en la segunda mitad del siglo XX. esto es. con la de historiador e iluminador. con la de mediador de juicios. Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta generación para desarrollar formulaciones alternativas de práctica evaluadora entre los implicados. el desarrollo de aproximaciones más pragmáticas de la conceptualización de Guba y Lincoln. centro auspiciado y financiado por el Departamento de Educación del gobierno americano. por otra parte. estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas. ética y justa con los implicados. debe suponer un esfuerzo razonable y debe ser políticamente viable. en las que se han ido integrando ideas de diversos evaluadores también notables. Stufflebeam (1994) nos . que debe actuar de acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad. Se parte de los cuatro principios del Joint Committee (1981 y 1988). esto es. proponente del modelo CIPP (el más utilizado) a finales de los sesenta. esto es. la implicación de todos desde el principio del proceso y.(Patton. tras analizar la cuarta generación de Guba y Lincoln. c) apropiada. legítima. además de la suya. 1994. 1998. Stufflebeam invoca a la responsabilidad del evaluador. pues es aplicable a muchas disciplinas diferentes y a muchos objetos diversos (Scriven. 7. incrementando la probabilidad de que la evaluación sirva para mejorar la enseñanza escolar. Sin embargo. así como un papel más activo como evaluador en un contexto socio-político concreto. desde 1975 a 1988 presidente del «Joint Committee on Standars for Educational Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher Evaluation). Además. no sólo ofrecemos una de las últimas aportaciones a la actual concepción de la investigación evaluativa en educación. de la idea de que cualquier buen trabajo de investigación evaluativa debe ser: a) útil. 1980). b) factible. adaptadas a las distintas realidades escolares. El nuevo impulso alrededor de Stufflebeam Para terminar este recorrido analítico-histórico desde los primeros intentos de medición educativa hasta la actual investigación evaluativa en educación. 1994). emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. 1999. y su derecho. es también su deber. rico y plural. y d) segura y precisa a la hora de ofrecer información y juicios sobre el objeto de la evaluación. proporcionar información a tiempo e influir. adecuada. Recogiendo estas recomendaciones (Stufflebeam. la evaluación se ve como una «transdisciplina». 2000 y 2001). Para evaluar la educación en una sociedad moderna. sino que completamos en buena medida la visión del panorama actual.

5) Los estudios evaluativos deben ser capaces de valorar hasta qué medida los profesores y las instituciones educativas son responsables y rinden cuentas del cumplimiento de sus deberes y obligaciones profesionales (Scriven. equidad. etc. Sin ello. 1985). la adecuación y viabilidad de las normas legales. Hay que preguntarse si el sistema es justo y equitativo a la hora de proporcionar servicios educativos. el compromiso y participación de los implicados y todo lo que hace que el esfuerzo educativo produzca el máximo de frutos posibles. • La excelencia como objetivo permanente de búsqueda. Scriven (1998) nos señala que usando otras denominaciones habituales. los tres conceptos son dependientes del contexto. en este caso. etc. programas.dice que se deben tomar algunos criterios básicos de referencia como los siguientes: • Las necesidades educativas. calidad respecto a criterios generales) como por su valor (valor extrínseco. debe relacionarse siempre con el conjunto de sus deberes. el desarrollo de aspiraciones y la cobertura para todos los sectores de la comunidad (Kellagan. la consecución de metas. 1982). Stufflebeam sumariza una serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y mejorar el sistema educativo. Scriven. de manera que entender la diferencia entre dependencia del contexto y arbitrariedad es parte de la comprensión de la lógica de la evaluación. 1981 y 1988). valor con el de relación coste-eficacia y significación con el de importancia. dentro de una sociedad democrática (Nowakowski y otros. a partir del análisis de las prácticas pasadas y presentes es uno de los fundamentos de la investigación evaluativa. 1994). Es necesario preguntarse si la educación que se proporciona cubre las necesidades de los estudiantes y de sus familias en todos los terrenos a la vista de los derechos básicos. mérito tiene bastante equivalencia con el término calidad. 2) Las entidades educativas deben examinarse por su integración y servicio a los principios de la sociedad democrática. calidad y servicio para un contexto particular) (Guba y Lincoln. Hay que cuestionar la eficiencia en la utilización y distribución de recursos. bienestar. • La factibilidad. responsabilidades y obligaciones profesionales o institucionales. incluso en el terreno formativo (Scriven. . La mejora de la calidad. 3) Las entidades educativas deben ser valoradas tanto por su mérito (valor intrínseco. Estas recomendaciones son las siguientes: 1) Los planes de evaluación deben satisfacer los cuatro requerimientos de utilidad. • La equidad. la evaluación es problemática. como por su significación en la realidad del contexto en el que se ubica. En todo caso. etc. 1991). sobre todo significación. el acceso a los mismos. Quizás uno de los retos que deben abordar los sistemas educativos es la definición más clara y precisa de estos deberes y responsabilidades. factibilidad. 1991a). 4) La evaluación de profesores. 1982. legitimidad y precisión (Joint Committee. Tomando el referente de estos criterios y sus derivaciones. instituciones educativas.

Se necesita una evaluación retrospectiva del producto para poder juzgar en conjunto el mérito y el valor del objeto evaluado (Scriven. Keefe. pues es difícil pensar que los responsables de una organización pongan en cuestión el fundamento y el sistema de poder de la misma. 12) La evaluación del producto es el medio para identificar los resultados buscados y no buscados en los participantes o afectados por el objeto evaluado. para localizar bien las metas y objetivos y definir prioridades. problemas en un área. todo estudio evaluativo debe tener un componente formativo y otro sumativo. pero también la de que sea conservadora en su concepción. 7) Recogiendo los puntos anteriores. Se necesita una valoración prospectiva de los resultados para orientar el proceso y detectar zonas de necesidades. Joint Committee. 1994). 1988... Stronge y Helm. pero también de manera retrospectiva para juzgar hasta qué punto la calidad del proceso determina el por qué los resultados son de un nivel u otro (Stufflebean y Shinkfield. 14) Los estudios evaluativos deben emplear múltiples perspectivas. así como en la promoción de la aceptación y el uso de sus resultados (Chelimsky. Webster y Edwards. de base democrática.. 1993. los estudios evaluativos deben conceptualizarse y utilizarse sistemáticamente como parte del proceso de mejora educativa a largo plazo (Alkin y otros. 1991) 9) La evaluación del contexto (necesidades. Asimismo. es un procedimiento. 1991) 10) La evaluación de las entradas (inputs) debe emplearse de manera prospectiva.6) Los estudios evaluativos deben proporcionar direcciones para la mejora. Más aún. hallazgos e implicaciones de la evaluación. oportunidades. 13) Los estudios evaluativos se deben apoyar en la comunicación y en la inclusión sustantiva y funcional de los implicados (stakeholders) con las cuestiones claves. criterios. Scriven. 1991. la evaluación del contexto debe utilizarse retrospectivamente. 1994) y de fundamento para la acción contra las discriminaciones sociales (Mertens. para juzgar bien el valor de los servicios y resultados educativos. que defiende Fetterman (1994). y métodos tanto cuantitativos como cualitativos para recoger y analizar la información. para promover la autonomía de los mismos en la resolución de sus problemas. 1991. Generalmente su interés es el cambio de cosas pequeñas. porque no basta con emitir un juicio sobre el mérito o el valor de algo. 1979. 1999). Webster y otros. en relación con las necesidades de los estudiantes (Madaus y otros. La evaluación para el desarrollo (empowerment evaluation). múltiples medidas de resultados. 11) La evaluación del proceso debe usarse de manera prospectiva para mejorar el plan de trabajo. proporcionando a los educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella (Madaus y otros. 1987). 1998). de participación de los implicados en el programa evaluado.) debe emplearse de manera prospectiva. 8) Se debe promover la autoevaluación profesional. para asegurar el uso de un rango adecuado de enfoques según las necesidades y los planes. 1991. Weiss (1998) nos alerta de que la evaluación participativa incrementa la probabilidad de que se utilicen los resultados de la evaluación. La pluralidad y .

complejidad del fenómeno educativo hace necesario emplear enfoques múltiples y multidimensionales en los estudios evaluativos (Scriven, 1991) 15) Los estudios evaluativos deben ser evaluados, incluyendo metaevaluaciones formativas para mejorar su calidad y su uso y metaevaluaciones sumativas para ayudar a los usuarios en la interpretación de sus hallazgos y proporcionar sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988; Madaus y otros, 1991; Scriven, 1991; Stufflebeam, 2001). Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la teoría ética de que la bondad moral es objetiva e independiente de los sentimientos personales o meramente humanos. Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en análisis comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos resulta evidente que las concepciones de la investigación evaluativa son diversas, dependiendo del origen epistemológico desde el que se parte, pero apareciendo claros y contundentes algunos elementos comunes a todas las perspectivas como la contextualización, el servicio a la sociedad, la diversidad metodológica, la atención, respeto y participación de los implicados, etc., así como una mayor profesionalización de los evaluadores y una mayor institucionalización de los estudios (Worthen y Sanders, 1991). El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint Committee on Standards for Educational Evaluation con las posiciones de la corriente evaluadora denominada postmodernista, representada, además de por Guba y Lincoln, por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que existan razones para actitudes de escepticismo y frustración con las prácticas evaluadoras actuales, porque existen muchos ámbitos de aproximación y el desarrollo de estándares de evaluación es perfectamente compatible con la atención a los diversos implicados, valores, contextos sociales y métodos. Stufflebeam defiende una mayor colaboración en la mejora de las evaluaciones, estableciendo los estándares de manera participativa, pues cree que es posible la aproximación de planteamientos, con contribuciones importantes desde todos los puntos de vista. Weiss (1998) también toma posiciones parecidas cuando nos dice que las ideas constructivistas deben hacernos pensar más cuidadosamente al usar los resultados de las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya que interpretarlo en términos exclusivamente individuales, pues existen muchos elementos comunes entre las personas, los programas y las instituciones. 8. Para concluir: síntesis de enfoques modélicos y metodológicos de la evaluación y la última perspectiva de Scriven Tras este análisis del desarrollo de la evaluación a lo largo del Siglo XX, parece oportuno, a modo de síntesis y de conclusión, recoger y resaltar los que son considerados los principales modelos, planteamientos metodológicos, diseños, perspectivas y visiones de la evaluación en la actualidad. Su análisis, de manera compacta, es un complemento necesario para una visión como la histórica

que, por su linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada. Hemos visto que en la década de los setenta y en sus alrededores se produce una especie de eclosión de propuestas evaluativas, que tradicionalmente han venido siendo denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseños (Arnal y otros, 1992) de investigación evaluativa. Sabemos que existieron varias decenas de estas propuestas, pero muy concentradas en el tiempo, en la década citada. De hecho, el asunto de los propuestos modelos para la evaluación parece un tema prácticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o propuestas, salvo alguna excepción como vemos más adelante. A pesar de lo dicho, se sigue hablando de modelos, métodos y diseños en la literatura especializada, sobre todo buscando su clasificación de acuerdo con diversos criterios, origen paradigmático, propósito, metodología, etc. También en las clasificaciones, no sólo en los modelos, existe diversidad, lo que prueba que, además de dinamismo académico en el terreno de la investigación evaluativa, todavía existe cierta debilidad teórica al respecto. Nosotros ya hemos señalado con anterioridad (Escudero, 1993), que coincidimos con Nevo (1983 y 1989) en la apreciación de que muchos de los acercamientos a la conceptualización de la evaluación (por ejemplo, el modelo respondiente, el libre de metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que debería acarrear el citado concepto. Lo que un texto clásico en evaluación (Worthen y Sanders, 1973) denomina como «modelos contemporáneos de evaluación» (a los conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio Stake (1981) dice que sería mejor denominarlo como «persuasiones» mientras que House (1983) se refiere a «metáforas». Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse a concepción, enfoque o incluso método de evaluación. De Miguel (1989), por su parte, piensa que muchos de los llamados modelos solamente son descripciones de procesos o aproximaciones a programas de evaluación. DarlingHammond y otros (1989) utilizan el término «modelo» por costumbre, pero indican que no lo hacen en el sentido preciso que tiene el término en las ciencias sociales, esto es, apoyándose en una estructura de supuestos interrelacionales fundamentada teóricamente. Finalmente diremos que el propio autor del modelo CIPP, solamente utiliza esta denominación de manera sistemática para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando los términos de enfoque, método, etc., al referirse a los otros. Para nosotros, quizás sea el término enfoque evaluativo el más apropiado, aunque aceptemos seguir hablando de modelos y diseños por simple tradición académica. Nuestra idea es que a la hora de plantearnos una investigación evaluativa, no contamos todavía con unos pocos modelos bien fundamentados, definidos, estructurados y completos, entre los que elegir uno de ellos, pero sí tenemos distintos enfoques modélicos y un amplio soporte teórico y empírico, que permiten al evaluador ir respondiendo de manera bastante adecuada a las distintas cuestiones que le va planteando el proceso de investigación, ayudándole a configurar un plan global, un organigrama coherente, un «modelo»

científicamente robusto para llevar a cabo su evaluación (Escudero, 1993). ¿Cuáles son las cuestiones que hay que responder en este proceso de construcción modélica? Apoyándonos en las aportaciones de diferentes autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990), deben responderse y delimitar su respuesta al construir un modelo de investigación evaluativa, los aspectos siguientes: Objeto de la investigación evaluativa. 2) Propósito, objetivos. 3) Audiencias/implicados/clientela. 4) Énfasis/aspectos prioritarios o preferentes. 5) Criterios de mérito o valor. 6) Información a recoger. 7) Métodos de recogida de información. 8) Métodos de análisis. 9) Agentes del proceso. 10) Secuenciación del proceso. 11) Informes/utilización de resultados. 12) Límites de la evaluación. 13) Evaluación de la propia investigación evaluativa / metaevaluación. Para definir estos elementos hay que buscar, lógicamente, el apoyo de los diferentes enfoques modélicos, métodos, procedimientos, etc., que la investigación evaluativa ha desarrollado, sobre todo en las últimas décadas. Volviendo a los denominados modelos de los setenta y a sus clasificaciones, podemos recoger algunas de las aparecidas en la última década en nuestro entorno académico, apoyándose en distintos autores. Así, por ejemplo, Arnal y otros (1992) ofrecen una clasificación de lo que denominan diseños de la investigación evaluativa, revisando las de diversos autores (Patton, 1980; Guba y Lincoln, 1982; Pérez, 1983; Stufflebeam y Shinkfield, 1987). Esta clasificación es la siguiente : 1)

Tabla 1- Tipos de diseños de investigación educativa
Perspectiva Patton (1980) Objetivos Empírico-analítica Análisis sistemas Guba y Lincoln (1982) Objetivos Pérez (1983) Objetivos Análisis sistemas Método científico CIPP Susceptibles de complementarieda d Crítica artística Adversario UTOS UTOS Cronbach (1982) CIPP Crítica artística CIPP Crítica artística Stufflebeam y Shinkfield (1987) Objetivos Autores creadores Tyler (1950) Rivlin (1971) Rossi y otros (1979) Suchman (1967) Stufflebeam (1966) Eisner (1971) Contrapuesto Wolf (1974)

Modelo conductista-eficientista Método/ autor Consecución objetivos Tyler (1940) CIPP Stufflebeam (1967) Figura (countenance) Stake (1967) CSE Alkin (1969) Planificación educativa Cronbach (1982) Finalidad evaluativa Medición logro objetivos Información para toma decisiones Valoración resultados y proceso Información para determinación de decisiones Valoración proceso y producto Paradigma dominante Cuantitativo Contenido de evaluación Resultados Rol del evaluador Técnico externo Mixto Mixto Mixto Mixto C (contexto) I (input) P (proceso) P (producto) Antecedentes. Una síntesis de estas clasificaciones es la siguiente: Tabla 2. humanísticos y holísticos (mixtos). Castillo y Gento (1995) ofrecen una clasificación de «métodos de evaluación» dentro de cada uno de los modelos (paradigmas). resultados Centrados en logros de necesidades U (unidades de evaluación) T (tratamiento) O (operaciones) Técnico externo Técnico externo Técnico externo Técnico externo Tabla 3. transacciones.Humanísticointerpretativa Respondente Respondente Respondente Respondente Stake (1975 Parlett y Iluminativo Iluminativo Iluminativo Hamilton (1977) Sin metas Sin metas Democrático Sin metas Scriven (1967) MacDonald (1976) Por su parte. que ellos denominan conductivista-eficientistas.Modelo humanístico Método/ autor Atención al cliente Scriven (1973) Contraposición Owens (1973). Wolf (1974) Finalidad evaluativa Análisis de necesidades del cliente Opiniones para decisión consensuada Paradigma dominante Mixto Contenido de evaluación Todos los efectos del programa Rol del evaluador Evaluador externo de necesidades del cliente Cualquier aspecto Árbitro externo del programa del debate Mixto .

previamente a introducir su perspectiva transdisciplinar que luego comentamos. es el criterio de evaluación. habitualmente el objetivo perseguido. por Ralph Tyler y extensamente elaborada en el modelo CIPP (Stufflebeam y otros. Stufflebeam ofrece una perspectiva más amplia de los . cuestionándose si tales objetivos cubren las necesidades que deben cubrir.Crítica artística Eisner (1981) Interpretación crítica de la acción educativa Cualitativo • • • • Contexto Procesos emergentes Relaciones de procesos Impacto en contexto Provocador externo de interpretaciones Tabla 4. además de algunas más que denomina «exóticas» y que se mueven entre los modelos de jurisprudencia y de experto. Esta posición es mantenida. A continuación comentamos sucintamente estas visiones y los «modelos» que se adscriben a ellas. Los que apoyan este enfoque se preocupan de si el programa alcanza sus objetivos. 1971). El cambio de los alumnos. La visión fuerte hacia la toma de decisiones (Visión A) concibe al evaluador investigando con el objetivo de llegar a conclusiones evaluativas que le ayuden al que debe tomar decisiones. Según el planteamiento tyleriano. A diferencia de Tyler. aunque no la hiciera explícita.Modelo holístico Método/ autor Evaluación respondente Stake (1976) Finalidad evaluativa Valoración de respuesta a necesidades de participantes Interpretación educativa para mejorarla Paradigma domiContenido de nante evaluación Cualitativo Resultado de debate total sobre programa Rol del evaluador Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Evaluación holística MacDonald (1976) Evaluación iluminativa Parlett y Hamilton (1977) Cualitativo Elementos que configuran la acción educativa Iluminación y comprensión de los componentes del programa Cualitativo Sistema de enseñanza y medio de aprendizaje También Scriven (1994) ofrece una clasificación de los «modelos anteriores». las decisiones acerca de un programa deben basarse en el grado de coincidencia entre los objetivos y los resultados. Este autor identifica seis visiones o enfoques alternativos en la fase «explosiva» de los modelos. pero van más allá.

completa (Visión D) es la que entiende la evaluación como una tarea etnográfica o periodística. pero no ofrece valoraciones al respecto Pero la forma más simple de la visión relativista (Visión C) es la desarrollada en el «modelo de discrepancia» de evaluación de Malcolm Provus (1971). pero es éste el que tiene que tomar las conclusiones evaluativas. La visión débil hacia la toma de decisiones (Visión B) concibe al evaluador proporcionando información relevante para la toma de decisiones. El modelo de Alkin se conoce como CES (Centro para el Estudio de la Evaluación). Este modelo es muy cercano al control de programas en sentido convencional. en la que el evaluador . tomó posteriormente una dirección diferente. pero no le obliga a emitir conclusiones evaluativas o críticas a los objetivos de los programas. La visión de la descripción fértil. 1993). evaluación de la instrumentalización. la educación comparada y la administración educativa. Las visiones B y C son las posiciones de los científicos entroncados con una concepción libre de valores de la ciencia. Sin embargo. planificación del programa. 1989). uno de sus colaboradores en tal empresa. tal como hemos visto al analizar la cuarta generación de la evaluación (Guba y Lincoln. la toma de decisiones para la mejora de todas y cada una de las cuatro dimensiones antes citadas. Estos son las cuatro dimensiones que identifican su modelo. Guba. evaluación de progresos y evaluación de resultados. El representante teórico más genuino es Marv Alkin (1969). la filosofía de la educación. Hace unos años Alkin (1991) revisó sus planteamientos de dos décadas atrás.contenidos a evaluar. Además. contexto (C) donde tiene lugar el programa o está la institución. termina definiendo un Sistema de Información para la Gestión (Management Information System-MIS) para uso del que toma decisiones. probablemente debido a su conexión académica con la historia. que define a la evaluación como un proceso factual de recogida y generación de información al servicio del que toma las decisiones. planteando las siguientes fases: valoración de las necesidades y fijación del problema. los que participan de la visión A proceden de un paradigma diferente. rica. En cambio. pero usando el marco de valores de los clientes. Las discrepancias son las divergencias con la secuencia de tareas proyectadas y la temporalización prevista. se deja constancia de que el objetivo primordial de la investigación evaluativa es la mejora. toma preferentemente esta perspectiva . es una especie de simulación de una evaluación. De hecho. inputs (I) elementos y recursos de partida. uno de los textos más utilizados de evaluación en el ámbito de las ciencias sociales (Rossi y Freeman. valor o valía. Esta visión y la anterior han sido el camino que ha permitido integrarse sin problemas en el «carro» de la investigación evaluativa a muchos científicos sociales. Esta posición es lógicamente popular entre los que piensan que la verdadera ciencia no debe o no puede entrar en cuestiones de juicios de valor. sin un juicio por parte del evaluador acerca de esos valores o alguna referencia a otros. proceso (P) que hay que seguir hacia la meta y producto (P) que se obtiene. pero siguió sin incluir los términos de mérito. Scriven (1994) nos dice que Stufflebeam ha seguido desarrollando su perspectiva desde que desarrolló el CIPP. La visión relativista (Visión C) también mantiene la distancia de las conclusiones evaluativas.

dirigido por Lee J. flexible. descripciones y estudio de casos. tiene algo de sabor relativista y a veces parece precursora de la visión de la cuarta generación. En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos de vista y buscar la confluencia de las diversas perspectivas. 6) Datos para investigar los problemas. El evaluador deberá interpretar las opiniones y diferencias de puntos de vista (Stecher y Davis. enfatizando la comprensión. Recientemente se le ha denominado como visión de la descripción sólida. 1967). 5) Cuestiones y problemas. elaborando dos matrices de datos. responsables y audiencias. en lugar de presentar sus conclusiones personales. resta importancia a la orientación sumativa de la evaluación (decisiones externas sobre los programas y rendición de cuentas). fuerte. 1990) y presentar una amplia gama de opiniones o juicios. 1975 y 1975a). Esta gira en torno a los tres componentes. las normas. subjetivo y orientado al servicio. . lo que se aprueba y los juicios. que parece más evaluativa. proponiendo el método de evaluación de la figura (Stake. 4) Propósitos e intereses. En la primera se recogen de un lado las intenciones y de otro las observaciones y. 9) Desarrollo de temas. 10) Validación (confirmación). una de descripción y otra de juicio. lo que se cree que debe ser. Se centra en la observación. El evaluador puede seguir las fases también en sentido contrario del reloj o en cualquier otro orden. Este modelo sugiere la «atención al cliente» propuesta por Scriven (1973). jueces e instrumentos. más que en la inferencia. Cronbach (1980). en su primera etapa. 7) Observadores. en lo observable. Stake (1975a) propone las fases del método a modo de las horas de un reloj. transacciones y resultados. asumiendo que los objetivos del programa pueden modificarse sobre la marcha. Se trata de una especie de versión naturalista de la visión B. con la finalidad de ofrecer una visión completa y holística del programa y responder a los problemas y cuestiones reales que plantean los implicados. que exige un método pluralista. 8) Antecedentes. Esta visión ha sido defendida por Robert Stake y muchos de los teóricos británicos. La visión del proceso social (Visión E) que cristalizó hace algo más de dos décadas alrededor de un grupo de la Universidad de Stanford. 3) Panorama de actividades. ni siquiera en el marco de los valores del cliente como en la visión relativista. De manera gráfica. interactivo. este modelo hizo de Stake el líder de una nueva escuela de evaluación. la planificación y la mejora de los programas sociales a los que sirve. el sentido de las agujas del reloj.informa de lo que ve sin intentar emitir afirmaciones valorativas o inferir conclusiones evaluativas. holístico. antecedentes. Stake. Estas fases son las siguientes: 1) Hablar con los clientes. Stake se aleja de la tradición tayleriana de preocupación por los objetivos y revisa su método de evaluación hacia un planteamiento que él califica como «respondente» (Stake. valorando sus necesidades y expectativas. 2) Alcance del programa. Según Stufflebeam y Shinkfield (1987). como rostro o imagen total de la evaluación. en la segunda. 11) Esquema para la audiencia y 12) Reunión de informes formales. Sus posiciones quedaban claramente establecidas en noventa y cinco tesis que han tenido una enorme difusión entre los evaluadores y los usuarios de la evaluación. A mitad de los setenta. para evitar el término rica. es tayleriano en cuanto a concepción evaluativa centrada en los objetivos planteados. poniendo la primera en las doce horas y siguiendo las siguientes fases. transacciones y resultados.

también denominada holística. en definitiva varios (uto).. incluido el suyo. mérito. • Operaciones (O) que lleva a cabo el evaluador para la recogida y análisis de datos. 1980). se suele denominar a su enfoque como evaluación sin metas. . • Tratamiento (T) de la evaluación. en alguna variación o adaptación del mismo. Schuman (1967) ofrece un diseño evaluativo basado en el método científico o. Ernie House (1989). 1991). Por ello. supone la participación colaborativa de los implicados. y favorece la idea de que ello es el resultado de la construcción por individuos y la negociación de grupos. dentro de un universo UTO de situaciones admisibles. En una investigación evaluativa concreta se pueden dar varias unidades. De esta revisión de Scriven quedan al margen algunas posiciones evaluativas tradicionalmente recogidas y tratadas por los analistas. para proporcionar información pertinente a quienes toman decisiones. Ya hemos visto anteriormente que esta visión rechaza una evaluación orientada a la búsqueda de calidad. discutible y no objetivo. que el conocimiento científico de todo tipo es sospechoso. descriptivo e interpretativo. varios tratamientos y varias operaciones. La evaluación iluminativa (Parlett y Hamilton. etc. El evaluador determina el valor o mérito del programa para informar a los usuarios. Lo mismo le ocurre a todo trabajo análitico como el análisis filosófico. según Scriven. con la pretensión de iluminar sobre un complejo rango de cuestiones que se dan de manera interactiva (Fernández. • Contexto en el que tiene lugar el programa y su evaluación. Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos: • Unidades (U) que son sometidas a evaluación. quizás motivado por la ausencia de estas facetas en los planteamientos de Cronbach y sus colaboradores. así como para la elaboración de conclusiones. Esto significa. El propio Scriven (1967 y 1973) proponía hace años centrar la evaluación en la atención al cliente y no tanto en las metas previstas.En cuanto a los contenidos de la evaluación. pero se distinguía sobre todo por su énfasis de las dimensiones más éticas y argumentales de la evaluación. individuos o grupos participantes. se trata algo así como de un intermediario informativo (Scriven. un teórico y un práctico de la evaluación bastante independiente de corrientes en boga. valor. partidarios y adversarios. Scriven apunta que el propio Guba ha sido siempre consciente de las potenciales «autocontradicciones» de su posición. siendo mantenida por Guba y Lincoln (1989) y seguida por muchos evaluadores americanos y británicos. La evaluación democrática de MacDonald (1971 y 1976). puesto que frecuentemente los logros no previstos son más importantes que los que figuran en la planificación del programa. al menos. Owens (1973) y Wolf (1974 y 1975) proponen un método de contraposición o discusión que sobre un programa llevan a cabo dos grupos de evaluadores. 1975 y 1981) plantea la evaluación en términos similares al proceso de crítica artística. La visión constructivista de la cuarta generación (Visión F) es la última de estas seis visiones que describe Scriven (1994). Así por ejemplo. también marcó el entronque social de los programas. Eisner (1971. 1977) tiene un enfoque holístico.

la perspectia transdisciplinar se orienta hacia el consumidor. A partir de aquí. se debe establecer de manera explícita y defender la lógica utilizada en la inferencia de conclusiones evaluativas a partir de las premisas definicionales y factuales. el personal. y la metaevaluación de todo ello. Scriven quiere extender esta visión con una visión o modelo que denomina transdisciplinar y que él califica como significativamente distinta de la aludida visión A y radicalmente diferente de las restantes. pues dice que es la más cercana de todas a la visión del sentido común. también se produce información valiosa para el gestor que decide y se pueden analizar los productos de un programa o institución a la vista de sus objetivos. independientemente del tipo y del estado general del paciente. del personal o de los productos investigados. sino que ve necesidad de hacerlo en la gran mayoría de las ocasiones. la visión fuerte sobre la toma de decisiones. la investigación evaluativa es mucho más que la evaluación de programas e incide en procesos. Las investigaciones evaluativas se mueven desde niveles muy prácticos hasta el nivel conceptual. Esta posición no sólo ve legitimidad en la emisión de conclusiones evaluativas por parte del investigador. En segundo lugar. Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prácticas que resultan de ellas. No se trata de una orientación exclusiva hacia el consumidor. Scriven (1994) analiza las seis visiones críticamente y se muestra más cercano a la visión A. la investigación evaluativa tiene dos componentes: el conjunto de campos de aplicación de la evaluación y el contenido de la propia disciplina. 1991). no justamente una visión general. los productos. haciéndolo lo mejor posible. la investigación evaluativa es una disciplina que incluye sus propios contenidos y los de otras muchas disciplinas. más que hacia el gestor o intermediario. De manera más detallada. instituciones y otros muchos más objetos. que es la que tienen los evaluadores trabajando con sus programas. la gestión. y que el bien común es la primacía de la evaluación. En la perspectiva transdisciplinar. que incluye la generalización de conceptos en el ámbito del conocimiento y la práctica. En tal sentido. En definitiva. pero sí la consideración primera del consumidor como justificación del programa. Esta visión es objetivista como la A y defiende que el evaluador determine el mérito o el valor del programa.siendo el contraste de opiniones de los implicados el elemento evaluativo primordial. d) Los distintos campos de la investigación evaluativa tienen muchos b) c) . Se trata también de una visión generalizada. su preocupación por el análisis y mejora se extiende a muchas disciplinas. los proyectos. representada fundamentalmente por el modelo CIPP de Stufflebeam y sus planteamientos. Así mismo. esta visión generalizada significa que: a) Los campos distintivos de aplicación de la disciplina son los programas. los rendimientos. Desde esta perspectiva. se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation Thesaurus. es transdisciplinar. Algo parecido a lo que ocurre a disciplinas como la estadística y la medición. de la misma manera que los médicos trabajan con los pacientes.

Evaluation theory development: II. Nosotros no tenemos unas posiciones contrarias a las otras visiones en la misma medida que las tiene Scriven y. etc. Barcelona: Labor Atkin. donde existen distintos tipos y distintas audiencias y. Berk. Anderson.. Curriculum evaluation. M. y Phillips (Eds. Una crítica que podría hacerse a este planteamiento de Scriven está en el excesivo énfasis relativo de la orientación al cliente. Evaluating Pupil Growth. Barbier. Ma. Educational evaluation methodology: The state of the art. Esta perspectiva transdisciplinar de la investigación evaluativa de Scriven (1994). S. McLaughlin. La evaluación de programas.91-112). L. (1992). aportan algo útil para la comprensión conceptual y el desarrollo de la investigación evaluativa.niveles de interconexión y solapamiento. San Francisco. 2-7. Evaluation theory development. y Cook. de centros. tienen muchos puntos en común. J. 35. J. Baker. Sin embargo. además. (Ed. M. (1983). Del Rincon. A. M. D. una muy importante. Fundamentos y Metodología. (1967). de hecho. S. (1968). probablemente. (1969). 1. D. R. A. . Ca: Jossey-Bass. (1993). 1996). La evaluación no sólo necesita el apoyo técnico de otras muchas disciplinas. B. R. Chicago: NSSE/ University of Chicago . que todas las visiones tienen puntos fuertes y que en todo caso. Principles of Tests Measurement. (1991). M. y Ball. S. pero sí tener un conocimiento cabal. J. Behavioral Objectives in curriculum design: A cautionary note. etc.) (1981). Referencias bibliográficas Ahman.. En M. y la correcta ubicación en el proceso de muchas técnicas auxiliares en las que. al usuario en sentido estricto. J. Evaluation and education at quarter century (pp. La lógica de la síntesis de resultados. (1969). 27-30. The profession and practice of program evaluation. de personal. Alkin. El cuarto elemento distintivo de la visión transdisciplinar de la evaluación es que se trata de una visión técnica. sino que. son los usuarios en el sentido de Scriven. 339-358. Pensamos que esta orientación debe integrarse dentro de una orientación a los implicados. coincide en gran medida con los planteamientos que de la misma hemos defendido en otros momentos (Escudero. Review of Educational Research.). pero nos parece que la investigación evaluativa hoy en día tiene una orientación prioritaria más plural que la defendida por este autor.: Allyn and Bacon Alkin. 39. Investigación educativa. The Science Teacher. no es necesario ser un gran especialista. 2. Baltimore: The Hopkins University Press. M. Boston. por supuesto. las consecuencias. y Latorre. Evaluation Comment. Arnal. sí que pensamos que esta moderna visión de Scriven es sólida y coherente y ampliamente aceptada en la actualidad. tiene su propia metodología. Barcelona: Paidos. consideramos desde una posición pragmática.. La evaluación en los procesos de formación.

M.. B. & Pease. J.) New directions in educational evaluation (pp. Research for tomorrow's schools: Disciplined inquiry for education. Teachers College Record. Hastings. Dubois. Designing evaluations of educational and social programs.. SR (1989). (1989).S..203-253). S.M. (1969). Chelimsky. A.25-69). (Ed.. Cognitive domain. Eisner. R. Cronbach. En R. Bloom. McKay. Carreño. Salamanca: Amasú Ediciones. Evaluación de programas educativos. Enfoques y principios teóricos de la evaluación. W. L. Darling-Hammond. (1986). Castillo. L. The role of experience in formulating theories of evaluation practice. De La Orden. En Arturo De la Orden. D.. L. L. centros y profesores (pp. D. The School . (1971). S.J. Madrid: Anaya. Cronbach. S. Coffman.).C. S. Buenos Aires: Guadalupe. Bloom. E. Bloom. L. methods and institutional arrangements. Thorndike (Ed.Blanco.Medina y L. La evaluación en la educación secundaria. Taxonomy of educational objectives Handbook I. Hess. L. 35-55. (1998). B. Hill. House (Ed. Madrid: Editorial Universitas. Cabrera. F. Modelos de investigación sobre organizaciones educativas.H. y Krathwohl. Hambron. Boston: Allyn Bacon. 1. TH. Phillips. T. De Miguel. Walker. Willar (Coord. D. S.C. (1977). W. F. (1985). New York: MacMillan. Course improvement through evaluation. En A.R. M. New York: Davis. W. Dornbusch. y Weiner. (1971). Engelhaut. (1975). Revista de Investigación Educativa. AE. H.L. S. Evaluación del aprendizaje. y Gento. (1963). R. H. Cronbach. J. Proyecto docente sobre técnicas de medición y evaluación educativas. 21-56.. La Docimologie. E. Chicago: Jossey-Bass.. 7. Towards reform in program evaluation: Aims. Investigación educativa.D. Paris: PUF. J. Educational objectives: Help or hindrance?. (1972). S. Hornick. Cronbach. Y Madaus. Washington . DC: American Council on Education. B. P. (1967). Fundamentos de la medición educacional.R. E. A. Diccionario de Ciencias de la Educación (pp. Modelos de evaluación de programas educativos. Handbook on formative and summative evaluation of student learning. Investigación evaluativo.133-137). Ebel.. (1956). Bonboir. (1977). E. Teacher evaluation in the organizational context: A review of the literature. New York: McGraw-Hill. F. y Madaus G.. 64. En E.D.)... Hastings.F.. Furst. American Journal of Evaluation 19. Barcelona: Universidad de Barcelona. (1970). 13. Mexico: Trillas. y Suppes. 672-683. R. Buenos Aires: Troquel. (1982). M. (1980). Essay examinations. Wise. San Francisco: Jossey-Bass. (1994). F. S. J. (1995). P.) Educational Measurement. J. A History of Psychological Testing. A..S. R. London: The Falmer Press.

La «Ratio Studiorum». (1975). Teoría y métodos de evaluación. R. Zaragoza: Universidad de Zaragoza. The discovery of grounded theory. Ca: Sociology Press. E. G. Emerging models for educational evaluation. Glaser. T. R. W. Fernández de Castro. E. Theory of mental tests. El sistema educativo de la Compañía de Jesús. Chicago: AERA. Guba. Empowerment evaluation. E. Eisner. Universidad de Las Palmas.A. W. Instructional technology and the measurement of learning outcomes: some questions. E. Gil. Chicago: Aldine. (1993). R. Newbury Park. N. Las condiciones del aprendizaje. Madrid: Cincel. En R. London: The Falmer Press. J. y J. Perspectivas históricas de la evaluación conductual. (1969. Evaluation Practice. 5-59). La evaluación de la calidad docente. (1985). (1985). E. Effective evaluation. Theoretical sensitivity. Y.I Carrobles.Review.). San Francisco: Jossey Bass Publishers. Fourth Generation Evaluation. Fernández Ballesteros. 1-18). 18. Madrid: CSIC. G. The methodology of qualitative evaluation: the case of educational connoisseurship and educational criticism. (1963). (Ed. (1950). (1996). Las Palmas: Servicio de Publicaciones. Eisner. Ca: Stanford University . H. Gronlund. 2. Teaching machines and programmed learning. L. (1981). y Strauss. E. New York: McMillan. G. 1. En J. (1981). (1971). B. Evaluación conductual. 1-15. Instructional objectives (pp. A. (1985). (1978). (1967). E. The art of educational evaluation. W. Enfoques modélicos en la evaluación de la enseñanza universitaria. Eisner. Escudero. Glaser. Measurement and evaluation in teaching. M. Glaser. Popham (Ed. Ca: Stanford Evaluation Consortion. (1992). R. 75. Ca. K. D. G. Medina (Coord. Madrid: Aguilar. The perceptive eye: Toward the reformation of educational evaluation. J. Eisner. Fernández. (Dir. 15. W.). (1989). La enseñanza programada. y Lincoln.). En A. E. Stanford. y Lincoln.En Encyclopedia of Educational Research. 250-260. Proyecto docente e investigador. (1991). American Psychologists. New York: Wiley Hambleton. Escudero. Criterion-referenced measurement. Actas de las III Jornadas Nacionales de Didáctica Universitaria «Evaluación y Desarrollo Profesional» (pp. Instructional and expressive educational objectives: their formulation and use in curriculum. New York: MacMillan. Eisner. (1971). Mill Valley. Madrid: UPCO.) (1965). . Guba. (1994). T. Glaser. E. Fernández. Fetterman. Washington: National Education Association. Gagne. S. Y. M. S. 519-521. (1973). Stanford. B. Madrid: Ediciones Pirámide. (1982). R. School Review.: Sage Publications Gullicksen.

B. Murcia. y Guba. R. L.). En B. San Francisco: Jossey-Bass. Lincoln. School evaluation using the CASE-IMS model and improvement process. 55-67. F. (1988). E.). 10. (1971). B. New York. London: McMillan. But is it rigorous? Trustworthiness and authenticity in naturalistic evaluation. F. Madaus.. Ca. (Ed. B. Newbury Park. Horowitz.: Houghton Mifflin Company. E. CA: Sage. Scientific inquiry and the social sciences. G.. How we think about evaluation. F. E. y otros (1991). Handbook II: Affective domain. Standards for evaluations of educational programs. R. Lewy. G. (1983). M. y. Collins. Paper presented at the American Educational Research Association. Beverly Hills. (1982).). Philosophy of evaluation. M. and materials. Educational Evaluation: Theory and Practice. Jones Publishing Company. y. R. San Francisco. y. E. G. Brewer y B. Macdonald. Hernández. (Eds. y Guba. T. Newbury Park. (1994). New Cork: Davis McKay. Design and Analysis of Experiments in Psychology and Education. (1985). D.) (1976). S. R. Macdonald. projects. The evaluation of the Humanities Curriculum Project: a holistic approach. Tyler.B. (1976). Viewpoints on Educational . (Ed. CA. B. Ohio: Charles A. Tawney (Ed. 89. Kellaghan. Bogotá: Universidad Pontificia Javierana. Krathwohl.. G. (1983). R.: McGraw-Hill. Evaluating higher education. Taxonomy of educational objectives. Evaluation at the local level. Lincoln. R. Proyecto docente e investigador. Curriculum evaluation today: trends and implications. House. (1989). L. (1995). The personnel evaluation standards. La evaluación educativa. Qualitative research and quasi-experimental frameworks.: Sage. 20. Lincoln. Blomm.S. R. Keefe. Worthington. New Orleans. Boston. y Guba. LA. Studies in Educational Evaluation. (1986).Hammond. 3.) (1964). (1981). A 75-year legacy on assessment: Reflections from an interview with Ralph W. Naturalistic evaluation. D. C. Naturalistic inquiry. Evaluation and the control of education. Ma. B. En M. Sanders. Kidder. S. Criteria for assessing naturalistic inquiries as products. Bogotá : Voluntad/Unesco.: Jossey-Bass House. J. A. Williams (Ed. The Journal of Educational Research. (1953). Kogan. Ca.: Sage. En House. Pittsburg: University of Pittsburgh Press. en D. 125136. Worthen y J. (1964). Lindquist. San Francisco: Jossey-Bass. H. Manual de evaluación formativa del currículo. 163-169. Defining educational objectives. Joint Committee on Standards for Educational Evaluation (1981. Evaluation Models. Lindvall. (1993). Joint Committee on Standards for Educational Evaluation (1988). E. En D. y Masia.1. R. 2. 68-75. E. S. Evaluating with validity. Theory into Practice. London: Jessica Kingsley Publishers.) (1989). E. E. (Ed.

R. Journal of Educational Research. Beyond method. y Michael. Palo Alto. Beverly Hills. D.San Francisco: Jossey-Bass. D. J. Preparing instructional objective. (1991). R. Ohio: Merril.. Beyond the numbers game. T. London: MacMillan. Common School Journal. Metaevaluación de necesidades educativas: Hacia un sistema de normas. Mertens. (1978). (1983).). University of East Anglia . J. Advances in Psychological Assessment. New directions in educational evaluation. R. (1977). A new kind of school examination. (1986). CA. Análisis de metas. The conceptualization of educational evaluation: An analytical review of the literature. Pieron. La enseñanza: su teoría y su práctica (pp. C. J. London : The Falmer Press. 15-29. January. Nowalowski. (1975). 1. (1967). (1980). En J. (1989). A. (1973). F. Beverly Hills. Nevo. W. Mass. 117-128. Patton. Boston: Kluwer-Nijhoff . Educational evaluation by adversery proceedings. D. Martínez de Toda.: Kluwer-Nijhoff Publishing. D. 27. Mccall. Psychometric Theory. Madrid: Akal Phillips. III. Boston Grammar and Writing Schools.and Human Services Evaluation. En Hamilton D. October. Pérez. Hingham . R. B. Parlett. A. Vocabulaire de la psychologie. Modelos contemporáneos de evaluación. M. H. Review of Educational Research. Mateo. S. vol. American Journal of Evaluation. Mary Anne Bunda.). J. School of Education . Paris: PUF. Ca: Sage. M. Educational and Psychological Measurement. Q. Qualitative Evaluation methods. Gimeno y A. Understanding educational evaluation. C. Columbus. 19. (1974). (1983). Metfessel. A Handbook of Educational Variables. N. México: Trillas.: Fearon. En E. En E. Tesis doctoral. A paradigm involving multiple criterion measures for the evaluation of effectiveness of school programs. McReynold. The conceptualization of educational evaluation: An analytical review of the literature. School Evaluation: The Politics and Process. (1920). Nevo. H. 426-449). La evaluación en el aula universitaria. 7. Mateo. Jeri. R.: Sage Pérez. (1993). Morgan. F. y otros (1993). Norris. Mager. (1845). Mager. Proyecto docente e investigador. y otros (Eds. (1999). P. Barcelona: Universidad de Barcelona.). Zaragoza: ICE-Universidad de Zaragoza. 53. Ca. W. (1962). Owens. Evaluation in education. (1983). y Hamilton . New York: McGraw Hill. N. 931-943. House (Comp. London : Kogan Page/CARE. 1-14. M. G.R. Evaluation as illumination: A new approach to the study of innovative programmes. Berkeley: McCutchan. (1968). (1973). M. Nunnally. Mann. . 20. Russell Working (1985). Madrid: Universidad Complutense. Inclusive evaluation: Implications of transformative theory for evaluation. House (Ed. 1.

: McCutchan Publishing Co. (1994). 39-83).: Sage. Understanding program evaluation. 3. (1967). A. W.). Fourth generation educational evaluation: The impact of a post-modern paradigm on school based evaluation. 20. N. Beverly Hills . (1983). En Perspectives of Curriculum Evaluation. P. Popham. M. Rutman. Scriven. (1980). J. Evaluation research methods: A base guide. En S. 57-70. G. Popham. Newbury Park . Rutman. M. Paris. . y Freeman. Evaluation: A Systematic Approach. A. CA. Duties of the teacher. The logic of evaluation. Evaluation Thesaurus. R. San Francisco: Jossey Bass Publishers. (1992). H. M. y otros (1979). y Mowbray. Evaluación basada en criterios. Englewood Cliffs. Berkeley. Ca. Ca. Oviedo: ICE-Universidad de Oviedo. (Ed. M. Scriven. (1998). Madrid: Anaya.: Edgepress Scriven. Salvador. (1997). Problemas y técnicas de la evaluación educativa. J. Madrid: Ediciones Fas. M. y Baker. En E.Pieron. J. Ca.: Center for Research on Educational Accountability and Teacher Evaluation. Ca. W.. Planchard. Examens et Docimologie. B. Rosenthal. Rivlin. PUF. (1973).. Ca.: Sage. D. J. P. L. Berkeley. Systematic thinking for social action. Prose and cons about goal-free evaluation. Aula Abierta Monografías 25.(pp. Scriven. E. For educational program improvement and assessment. N. Madrid: Magisterio Español. J. Ca. Rodríguez. Inverness . Russell. (pp. Scriven. AERA Monograph 1. Proyecto docente. (1993). 147-166. (1971). Mi. 187-199. Ca.). M. M.: Sage. 1-4. Evaluation as a discipline. NJ. W. Englewood Cliffs. L.C. House (Ed. Anderson. W. M. (1980). Popham. (1974).: Prentice Hall. T. Establishing instructional goals. E. M. Minimalist theory: The least theory that practice require. (1991. y otros (Eds. The methodology of evaluation.: Sage. Washington. 1. Goal-free evaluation. Evaluation history. Evaluación de los aprendizajes. H. (1991a). y otros (1995). Discrepancy evaluation. Beverly Hills . 3.: Prentice Hall. J. Beverly Hills. School evaluation: The politics and process. Scriven. L.: Sage Scriven. La investigación pedagógica. Rossi. y Willinsky. S. Evaluation: A systematic approach. (1983). L.) (1984). H. Evaluation Comment. M. 319-328). H. (1960). 23. Rossi. American Journal of Evaluation 19.: McCutchan. Universidad de Cantabria. (1970). (1976). Popham.: Brookings Institute. Systematic Instruction. Encyclopedia of Educational Evaluation. (1970). Beverly Hills. Scriven. Studies in Educational Evaluation. Provus. (1969). Chicago : Rand McNally and Company. E. (1971). Kalamazoo. Studies in Educational Evaluation. 1.

D. Ohio: Merril . y Haver. L. HO & Provus. EG. A theoretical stament of responsive evaluation. R. 523-540. (1976). Guía teórica y práctica. J. D. Guidelines for developing evaluation checklists. Madrid: Morata. 3. Itasca. Merriman. Stufflebeam. R. (1967). V. M. Studies in Educational Evaluation. B. (1998).wmich. Stake. Sunberg.: Sage. Theory into Practice. (1991). The applicability of selected evaluation models to evolving investigative designs. 287-296. Suchman. 20. Stufflebeam. Studies in Educational Evaluation.. Stufflebeam. (2001). New York : Russell Sage Foundation. Urbana: University of Illinois Press. Ca. 121-134. R. D. D. 4. (2000). N. Consultado en www. Stronge. M. Stufflebeam. Studies in Educational Evaluation. E. Gephart. N. A. Educational Evaluation and Decision-making. M. D. The metaevaluation imperative. Using profesional standards to legally and ethically release evaluation findings. 148-152. (1942). Appraising and recording student progress. E. E. Stufflebeam. Peacock Publishing. W. 16. Newbury Park.. 68. 12. (1966). L. Investigación y desarrollo del curriculum. Stacher. Evaluating professional support personnel in educational settings. WJ. Program evaluation: particularly responsive evaluation. (1975b). Stufflebeam. Evaluation News. Stufflebeam. 489-500.Smith. 2. Evaluating the arts in education: A responsive approach. Stake. Stake. Stake. Stenhouse. (1990). Occasional Paper. R. The countenance of educational evaluation. E. Studies in Educational Evaluation. R. (1987). 2 . L. Stake. 5. N. (1984). 325-334. (1977). Newbury Park. L. D. Barcelona: Paidos/MEC. A. 3. Introduction: Recommendations for improving evaluations in U. Quieting reform.edu/evalctr/checklists/ el 15 de Diciembre de 2002. 3. E. Hammond. L. RL. y Tyler. R. (1990). S. New York: Harper & Row. A. American Journal of Evaluation. Illinois : F. Guba.: . D. E. y Shinkfield. MM (1971). Evaluación sistemática. (1986). 25. Englewood Cliffs. E. (1967). 5. 22. H. E. A depth study of the evaluation requeriment. R. E. Stufflebeam. (1975a). Teacher College Record. y Helm. University of Western Michigan. Evaluative Research: Principles and Practice in Public Service and Social Action Programs. (1981). 183-209. J. (1994). 3-21. y Davis.J. D. 22. Foley. L. L. How to Focus on Evaluation. D. public schools. Journal of Personnel Evaluation in Education. Setting standars for educational evaluators. R. 1. Stake. L. L. 19-22. W. D. WJ. Conflicts between standards-based and postmodernist evaluations: Toward rapprochement. Smith. L. (1999). Ca: Sage. Assessment of person.

GA. Chicago: Rand McNally. y Haertel. Have we learned anything new about the use of evaluation?. C. R. W. Perspectives of curriculum evaluation. Webster. C (). Fernández Chávez. Zeller.. . W.L. 1. http://www. W. The International Encyclopedia of Educational Evaluation. Métodos para determinar la eficiencia de los programas de acción.Prentice Hall. R. 20. (1904). W. Revista de pedagogía pp. Citizen Action in Education. En R. Weiss. The changing face of educational evaluation.). (1975). 3-12.. * Bustos. (1967). Webster. An accountability system for school improvement. Stack (Comp. L.fide.pdf . (1993). A. Indiana University. Worthen.. Paper presented at the annual meeting (April) of the AERA. Columbia University . 19. 1. Wilson. dissertation. Changing concepts of educational evaluation. Ph. R.. Educational evaluation: New roles.[Párrafo añadido el 16 de Marzo de 2007] . 549578). An Introduction to the Theory of Mental and Social Measurements.9-16. Weiss. (1998). Wolf. Educational Evaluation: Theory and Practice.) (1969). y Almaguer. Curriculum development. (1950). Tyler. H. XXX. American Journal of Evaluation. 1. R. C. (1994). C. (1983). H. Jones Publishing Company. Wilson (Ed. 1. R. (1974). Fundamentos psicológicos del aprendizaje y la enseñanza (pp. J. J.. J. P. R. J. (1987). Tyler. E. 21-33. 4. Worthen. H. Wolf. y Edwards. J. E. R. The citizen as jurist: A new model of educational evaluation. Atlanta. Mendro. R.) (1990). G. Theory and practice. y Sanders. Investigación evaluativa. M.. R. A. L. y Sanders. N. La evaluación de los objetivos. T. (1962). 113-137. Tyler..cl/revistas/documentos/Const.. (Ed. New York: Harcourt Brace . B. D. Walberg. H.O. Madrid: Anaya. R. A rethoric for naturalistic inquiry.. Studies in Educational Evaluation. Effectiveness indices: A «value added» approach to measuring school effect. W. Thorndike. R. Phi Delta Kappa. Chicago: University of Chicago Press . Chicago: University of Chicago Press . Theory into Practice. Taba. 185-187. Oxford: Pergamon Press. (1991). new means. New York: Teacher College Press. L. Ohio: Charles a. (1973). (1978). E. TO KNOW MORE / PARA SABER MÁS This article has been cited in. Trial by jury: a new evaluation method. AERA Monograph Series Curriculum Evaluation. J. Basic principles of curriculum and instruction. Worthington. B. En J. México: Trillas.). 57. Construcción histórica del concepto de calidad de la educación. D. / Este artículo ha sido citado en. R. (Ed.

Yorbelis . La nueva concepción de la evaluación de aprendizajes en la educación de las ciencias de la salud. A bibliography of literary theory.J. p. [Párrafo añadido el 16 de Marzo de 2007] * * * * * * * . http://cied. Piedra Salomón.. (2006). Disponible en http://www2. 11(46). [Párrafo añadido el 16 de Marzo de 2007] Torres Fernández. (2006). C. 14(5) . T (2005-2006). criticism and philology. Bastidas-Acevedo M. Index Enferm Digital 2004.cl/ofem/recs/anteriores/vol312006/art3106a.sld. Gustavo (2006). Arango-Córdoba A. [Párrafo añadido el 16 de Marzo de 2007] Escudero. 8-9.* Cardona Rodríguez.es/servicios/sp/ej/contextos/infos/2091397. Rev. (2006). ISSN 0718-1337.C. Juan y Casas R. 11th online edition http://www.php?script=sci_arttext&pid=S071813372005000100002&lng=es&nrm=iso. abr. Franklín.insp.. vol. 6 (1). (2003).unizar. Yanelis. Leal Labrada.htm. A.13. Las tecnologías de la información y la comunicación y los indicadores de evaluación universitaria en España. 3. José Ángel (2006). Tarapacá. Análisis integral de las prácticas pedagógicas de un programa educativo en Colombia. [Párrafo añadido el 16 de Marzo de 2007] Peñaranda-Correa F.rimed. . Marín Milanés. http://www. Ignacio.Univ. [Párrafo añadido el 16 de Marzo de 2007] Ortiz.com/indexenfermeria/44revista/44_articulo_51-55. Las investigaciones sobre evaluación educativa en Cuba.P.pdf. [Párrafo añadido el 19 de Mayo de 2004] * Cockbaine O. [Párrafo añadido el 16 de Marzo de 2007] Gámez Requena.Acimed. Claves identificativas de la investigación evaluativa: análisis desde la práctica.scielo. Escobar-Paucar G. J. Márquez.mx/salud/48/483_6. Ing. Disponible en http://www. Fac. 179-199. A. http://www.cl/scielo.cu/revista/61/index .html .cu/revistas/aci/vol14_5_06/aci10506. Yelina y Kourí Cardellá. Torres-Ospina JN. Education Policy Analysis Archives. 48:229-235. Usabilidad: la evaluación de los servicios en el entorno Web ..unirioja. n. Evaluación de los programas de promoción de la salud para inmigrantes.asu.php. 44-45. (2004). Revista de Educación en Ciencias de la Salud (RECS). Disponible en la World Wide Web: http://www. L. & Barrenetxea Ayesta. [Párrafo añadido el 16 de Marzo de 2007] García Landa. Contextos Educativos.edu/epaa/v11n46. .9-20. M. Rosell León. Vol.1 [citado 08 Enero 2007].htm . [Párrafo añadido el 16 de Marzo de 2007] González Pérez. no.es/departamentos/filologia_inglesa/garciala/bibliography. Salud Publica Mex.pdf . [online].udec. http://epaa. Disponible en http://bvs. Un metamodelo OLAP para la evaluación de ambientes tel. 2. Ciencias Pedagógicas.index-f. Osvaldo. 2005.

http://www.es/RELIEVE Dirección Language / Español (Title. Consultado en (poner fecha). Desde los tests hasta la investigación evaluativa actual. Catedrático del área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Zaragoza. Investigación evaluativa. Buscar otros artículos de este autor en Scholar Google ARTICLE RECORD / FICHA DEL ARTÍCULO Escudero. Es miembro de la Comisión de Coordinación Técnica del Plan de Calidad de las Universidades.es/RELIEVE/v9n1/RELIEVEv9n1_1. Métodos de Evaluación. Tomás (2003). Evaluación. of intense development of evaluation in education] Authors / Autores Tomás Escudero Escorza Review / Revista ELectrónica de Investigación y EValuación Educativa (RELIEVE). 27 ) publicación Abstract / Resumen This article presents a review and state of art about development in educational evaluation in the XXth century. Se analizan los principales propuestas teóricas planteadas. Test.es). Evaluation. [ From tests to current evaluative research. Publication Date: 2003 Fecha de Febr. n. Program Evaluation. Evaluation Research. 9. The main theoretical proposals are commented Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Evaluación de Programas Keywords Descriptores Institution / Universidad de Zaragoza (España) Institución Publication site / http://www.. Evaluación Formativa. Un siglo. n. v. Desde los tests hasta la investigación evaluativa actual. Un siglo.unizar.ABOUT THE AUTHORS / SOBRE LOS AUTORES Tomás Escudero Escorza (tescuder@posta. Revista Reference / Referencia Title / Título ELectrónica de Investigación y EValuación Educativa (RELIEVE). Evaluation Methods. v. 9. Tiene un gran número de trabajos y publicaciones sobre evaluación educativa. 1.uv. de intenso desarrollo de la evaluación en educación. particularmente sobre evaluación institucional. Formative Evaluation Summative Evaluation. de intenso desarrollo de la evaluación en educación. el XX. the XXth. Testing. abstract and keywords in english) Idioma Volumen 9. One century. el XX. Evaluación Sumativa. 1 Revista 1134-4032 ISSN Publication date / 2003 (Reception Date: 2003 January 10.htm.1 . n.uv.

es Programa de Estudio de Educación Básica Información General Evaluación La propuesta de evaluación de los aprendizajes en la primera Etapa de Educación Básica se enmarca dentro de los principios. [Principal] [La Revista] [Artículos publicados] [Publicar en RELIEVE] [Home Page] [ About us] [ Published Articles] [To publish in RELIEVE] Revista ELectrónica de Investigación y EValuación Educativa http://www. por cuanto ambos procesos se realizan simultáneamente en el aula y no de forma separada. iluminativo e integrado a los procesos de enseñanza y de aprendizaje. volumen. ARGUMENTACIÓN TEÓRICA En una sociedad convulsionada como la nuestra. propósitos y objetivos del Proyecto Educativo Educación Básica: "Reto. Compromiso y Transformación".es/RELIEVE email: relieve@uv.uv. De allí que la evaluación podrá verse como un proceso constructivo integrado al quehacer educativo. la cual es concebida como un proceso democrático. en el que se contemplan diversas dimensiones: evaluación del aprendizaje en los alumnos. respondiente. volume. y Modelo Curricular planteado. © Copyright 2002. RELIEVE. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE. la práctica pedagógica y el proyecto pedagógico de aula y plantel.© Copyright 2002. que ha provocado una ruptura ética en los individuos y desintegración de las comunidades. número y dirección electrónica del documento). negociado. está sustentada teóricamente en la cuarta generación de la evaluación. Reproduction and distribution of this articles it is authorized if the content is no modified and their origin is indicated (RELIEVE Journal. number and electronic address of the document). inmersa en una crisis de valores. se observa una educación ajena a este . el Plan de Acción del Ministerio de Educación. RELIEVE. Coll (1987) considera que el cómo evaluar va unido al cómo enseñar.

tanto la enseñanza como el aprendizaje cobran una nueva connotación: . El aprendizaje. depende de los procesos cognitivos estructurales cada vez más complejos que determinan las relaciones interpersonales entre el alumno y el docente.El aprendizaje es una actividad mental. concede al maestro . En este sentido. Por ello ambos procesos (enseñanza y aprendizaje) no pueden darse aisladamente sino de forma cohesionada e interactiva. a fin de favorecer una verdadera enseñanza y la construcción del saber por parte del niño. el objeto de conocimiento que constituye el contenido del saber y el profesor que enseña con el propósito de favorecer el aprendizaje de los alumnos. el saber. el hacer. . los alumnos y la comunidad. se identifica como la construcción interna del conocimiento donde subyace una actividad autoestructurante por parte del alumno cuya dinámica. autónoma e implica que el alumno esté en constante interacción con el objeto de conocimiento. así concebido. que plantea como finalidad proyectar. Esto supone el uso de nuevas estrategias y actividades que tomen en cuenta al niño como centro del saber. Nos encontrarnos con un alumno en capacidad de aprender una serie de aspectos que tienen que ver con su nivel de desarrollo. planificado y provocado por agentes externos. continua. así como con otros fuera de su alcance que puedan ser asimilados con la orientación del docente o por intermedio de otros compañeros de clase o de la comunidad donde vive el niño. el ser y la comunicación para lograr un cambio que permita superar los obstáculos y dificultades y poder encauzarlo con bases firmes hacia el nuevo milenio. orientar y dirigir las experiencias del trabajo reflexivo de los alumnos atendiendo a hechos y valores de sus culturas y de sus vidas. para avanzar en un proceso democrático dignificador de sus actores y cohesionador de sus comunidades. dinámica. al maestro como mediador y a la escuela en integración con su comunidad. El docente debe provocar y planificar las condiciones óptimas para que se produzcan los encuentros entre él. innovaciones en la Educación Básica que conducirán a redimensionar el proceso enseñanza aprendizaje como vía para la comprensión. Como lo afirma Coll (1990). personalizada. la actividad pedagógica deberá ser articulada entre el alumno que lleva a cabo su aprendizaje.La enseñanza es concebida como un proceso intencional.problema. intensiva. En este sentido la teoría de Vygotzky (1977 y 1979). según lo postulado por Piaget (1966 y 1975). Para cubrir tales exigencias se plantean.

(2) Organización de la enseñanza tomando en cuenta los conocimientos previos y estilos de aprendizaje en los alumnos y (3) La motivación como elemento importante para aprender. simultáneamente. como inherente a la condición social del sujeto El hombre desarrolla sus potencialidades genéticas realiza sus logros c culturales en función de la interacción con otros hombres. construir conocimientos y emprender tareas y (2) Poseedor de un acervo cultural que tenga continuidad en la escuela Las teorías anteriormente descritas centran su atención en el estudiante. La práctica pedagógica no puede ir separada de la práctica evaluativa. autoevalúa. El autor define estas tres condiciones básicas para que se produzca el aprendizaje: (1) Estructuración lógica de los materiales de enseñanza. son posibles en la medida en la que el sujeto que interactúa sea percibido como: (1) Dignificado en su capacidad para comprender. quien estará en capacidad de construir e integrar aprendizajes cada vez más complejos en función de la interacción y cooperación con los demás. Para ello. donde cada niño sea percibido como un ser diverso que avanza a su propio ritmo de acuerdo con su nivel de maduración. por lo que se debe propiciar en el aula un ambiente favorable para la discusión y confrontación de ideas. contrasta y logra cosas en un mismo curso de negociaciones. quien señala la importancia de los conocimientos previos de los alumnos en la adquisición de nuevas informaciones. por lo que tienen gran importancia en la práctica pedagógica y evaluativa. planifica y organiza situaciones significativas y pertinentes que promueven la participación democrática en el aula. Cabe destacar la teoría psicológica. propone. a través de un proceso interactivo que se origina entre docentes. alimentándose de esa interacción. verbal. su reflexión e interacción en los procesos de enseñanza y de aprendizaje. alumnos y objetos de conocimiento en el cual el maestro actúa como mediador del aprendizaje del alumno. significativa planteada por Ausubel (1977). con la naturaleza y. evalúa.un papel importante como mediador en el desarrollo de las estructuras mentales del alumno. La interacción y la comunicación. al considerar al aprendizaje como un proceso constructivo interno y personal. esto implica un aula que: . según el mismo autor. La significatividad reside en relacionar e integrar los nuevos conocimientos que el alumno adquiere con los que ya posee. construye aprendizajes. que toma en cuenta las estructuras mentales del que aprende. La necesidad comunicativa es planteada por Esté (1994).

analiza la interrelación del proceso de aprendizaje en el contexto donde se desarrolla. 1972) Es un modelo cualitativo que se fundamenta en dos ejes conceptuales: sistema de instrucción y el ambiente o entorno de aprendizaje. Evaluación iluminativa (Parlett y Hamilton. sociales.. ENFOQUE DE LA EVALUACIÓN Consecuentemente con las bases conceptuales del diseño del nivel antes enunciadas. que permita su libre actuación para que manifieste lo que él es y quiere ser y hacer. 3. Entre los modelos evaluativos que sirven de apoyo a la nueva corriente de evaluación planteada. 5. Invite al docente a observar y describir la evolución del aprendizaje de los alumnos (bloqueos. El ambiente de aprendizaje está representado por un conjunto de relaciones culturales.naturalístico. el proceso de la enseñanza por parte del docente. global. Evaluación respondiente (Etake.etnográfico . 1975) . narrativo. 2. a fin de ofrecer información pertinente y oportuna a cada uno de los participantes. Estimule la ayuda mutua y la cooperación. es decir. Se base en el derecho democrático que todos tienen a participar en la toma de decisiones y en el control y evaluación de procesos y resultados desarrollados a partir de tales decisiones. regresiones.1. La metodología de la evaluación cualitativa. y el aprendizaje por parte de los alumnos. para vincularlo con los resultados reflejados en el curriculum que se producen a corto. 2.. institucionales y psicológicas las cuales inciden en las normas. interpretaciones. actitudes. por cuanto. mediano y largo plazo. 4. se inserta la evaluación de los aprendizajes en la Educación Básica. de carácter descriptivo. progresos. aptitudes.. dentro del enfoque cualitativo . intereses y aspiraciones de quienes actúan en el proceso enseñanza aprendizaje. se destacan los siguientes: 1.). El sistema de instrucción está constituido por un conjunto de elementos que toma en cuenta y relaciona con el entorno socio-psicológico y material. opiniones y estilos de trabajo que tienen lugar en el aula. que pretende hacer de la escuela un lugar que valore y comprenda las consideraciones. Respete a cada niño como individuo. Incluya la planificación integrada al contexto y al proceso de evaluación. es comprensiva. Usa la investigación etnográfica.

Toma en cuenta la experiencia vivenciada de cada uno de los participantes. B. con el fin de responder a las necesidades de información y al nivel de conocimientos de quienes participan en el proceso. Así mismo. Evaluación negociada (Guba y Lincoln. en atención a sus logros y dificultades para aprender. Está en capacidad de negociar y generar consenso entre los participantes. invita al docente a reflexionar acerca de la didáctica y metodología de la enseñanza utilizadas. se agrupan para dar fundamento a la cuarta generación de la evaluación. F. reorienta y mejora el proyecto de aula y de la institución. . El rol del evaluador pasa a ser más dinámico. Concede mayor importancia al trabajo en equipo. 1976 y 1982) Postula el derecho del alumno y del docente de expresar sus puntos de vista y opiniones en el aula. A través de esta concepción evaluativa se propicia una relación ética y de respeto que toma en cuenta las diferencias individuales de los alumnos. Enfatiza el rol del docente evaluador como orientador que se ocupa de analizar y valorar el progreso del estudiante. Todos estos modelos evaluativos anteriormente descritos. C. a través de ciclos dinámicos de confrontación de ideas para tomar decisiones. 1989) Proponen en su modelo.El propósito principal del modelo es responder a los problemas que se confrontan en el aula. la escuela y la comunidad. orienta v hace reflexionar sobre todo el proceso educativo. el consenso entre los distintos agentes que actúan en el proceso de evaluación. Comunica. 3. por cuanto: A. a través del uso de las formas de participación de la evaluación como forma para transformar y modificar la práctica educativa. McDonald y Elliot. Participa y propicia actividades de interacción constructiva. Evaluación democrática (Stenhouse. D. Atiende las diferencias individuales. 4. descubriendo y ofreciendo un retrato completo y holístico de los procesos de enseñanza y de aprendizaje.

. J.Servir de instrumento de investigación y reflexión para proporcionar un potencial formativo a cada uno de los agentes que interactúan en el proceso educativo. tal y como suceden en la realidad sobre como aprende el estudiante y como el docente logra que aprenda más y mejor.interactivo . relaciones e influencias. la actividad del docente.Global: porque se pretende evaluar todos los componentes de la practica pedagógica. la evaluación centrada en procesos es la práctica evaluativa que más se ajusta al modelo planteado anteriormente.participativo: por cuanto se considera que el alumno va descubriendo y construyendo su aprendizaje a partir de experiencias previas. Planifica en atención a las necesidades de los alumnos y del contexto. las cuales son convalidadas y enriquecidas en el aula. por lo que deberá: . los materiales educativos. En tal sentido. La evaluación como parte de los procesos de enseñanza y de aprendizaje tiene como finalidad principal. cooperativo y democrático. despertar el interés hacia el mejoramiento del desarrollo de los alumnos.G. Informa a los alumnos y a sus representantes acerca del progreso habido durante el trabajo escolar. Todo esto conduce a conceptualizar el proceso evaluativo como: . . H. La evaluación recoge evidencias continuas. I. LA NECESIDAD DE LA PROPUESTA La aplicación de esta nueva forma de evaluación generará cambios en la práctica pedagógica. la cual constituye el elemento didáctico fundamental para promover la reforma necesaria en el mejoramiento del proceso educativo. tanto en lo general. como en lo particular. Delega funciones en un trabajo organizado. Redimensiona y reorienta su proyecto de aula y aporta esfuerzos para el alcance de las metas establecidas en el proyecto plantel. que permitan el mejoramiento continuo de quienes participan en los procesos de enseñanza y de aprendizaje.Constructivo . el Proyecto Curricular del Plantel y el Currículo Básico.

Contribuir a formar y afianzar los valores y actitudes.Fomentar relaciones democráticas y afectivas a través de actividades de cooperación que involucren la autoevaluación. la presente propuesta promueve situaciones específicas para integrar la evaluación a los procesos de enseñanza y de aprendizaje. EVALUACIÓN DEL APRENDIZAJE EN EL ALUMNO En atención a los planteamientos curriculares la evaluación de los aprendizajes se concibe como: Un proceso interactivo de valoración continua de los progresos de los alumnos. .Determinar el avance del aprendizaje de los alumnos en la adquisición de los tres tipos de contenidos. métodos y técnicas que contribuyan a mejorar la práctica pedagógica y a evitar conflictos y bloqueos en los alumnos. Desde esta perspectiva. coevaluación y heteroevaluación. que tonga en cuenta contenidos conceptuales.. evitando de esta manera la exclusión.Desarrollar en cada alumno sus capacidades del saber. el fracaso escolar y los profundos niveles de insatisfacción de docentes. . con el fin de mejorarlo y contribuir a la permanencia de los estudiantes en el sistema educativo. . aptitudes. a objeto de proporcionar un tratamiento más justo a los alumnos. como un espacio de reflexión conjunta donde los agentes educativos puedan compartir experiencias. fundamentado en objetivos de aprendizaje de etapa y los planteados por los docentes en el proyecto de aula.Proporcionar medios que permitan detectar dificultades en los procesos de enseñanza y de aprendizaje. la repitencia. del saber hacer y del ser. estrategias y criterios de evaluación. procedimentales y actitudinales y el nivel de evolución del estudiante. .Promover la autoafirmación personal como estímulo positivo para valorar progresos y esfuerzos. . padres y niños.Reconsiderar fines. ritmos y estilos de aprendizaje. .Incentivar el trabajo en equipo. actitudes. En este sentido tendrá como finalidad: .Detectar en los alumnos: intereses. . .

el proyecto de aula y en general todos los componentes del diseño curricular. así como entender y orientar el aprendizaje y la enseñanza.Identificar las limitaciones o dificultades que poseen los alumnos. que permita el intercambio de ideas sobre el trabajo y la responsabilidad que corresponde a cada uno en el proceso de aprendizaje.Conjugación de contenidos conceptuales. . para lo cual emplea diversas técnicas que permitan conocer y reflexionar acerca de las diferencias individuales y grupales. en el grupo. la organización del plantel. circunstancias y trabajo..Brindar al alumno oportunidades para aprender del acierto y del error y en general de la experiencia. el trabajo docente.Global. . tanto a nivel formal como lo no previsto en el currículo. por lo que se requiere de una comunicación abierta con él para comprender sus problemas. junto con el alumno. explicando sus progresos en todos los aspectos de su personalidad en relación con las circunstancias que lo rodean en la escuela. . para orientarlos hacia la consolidación de logros . . procedimentales y actitudinales.Evaluación conjunta e implícita en los procesos de enseñanza y de aprendizaje. centrada en la evolución y particularidades de cada alumno. en la familia y en su comunidad. PRINCIPIOS DE LA EVALUACIÓN INTEGRAL E INTEGRADA Entendida como: . porque la evaluación: a) Considera el proceso de aprendizaje del alumno como un todo. b) Pretende evaluar. lo cual contribuye al desarrollo de la metacognición.Proporcionar al docente información para mejorar y fortalecer su práctica pedagógica y la planificación que se desarrollará en el aula. es decir.Fortalecer la interacción entre el docente y el alumno. c) Aspira el conocimiento global del alumno como sujeto de aprendizaje.Individualizada. . la estrategia empleada. .

d) Conocimiento del alumno para comprender sus adquisiciones. b) Carácter cualitativo. obtener información sobre los conceptos y experiencias que el alumno posee. tome en cuenta las individuales de los alumnos y el contexto donde se produce el aprendizaje para reorientarlo. g) Consideración de la autoevaluación. coevaluación y heteroevaluación para el logro de una interacción constructiva de los participantes. descriptivo e interpretativo. posibilidades progresos y carencias.CONTINUA Centrada en el proceso. reflexiva e individualizada con retroalimentación constante.Explorativa: tiene como propósito. con el fin de proporcionarle la ayuda requerida. e) Incentivo de las funciones orientadora v motivadora de la evaluación. valorando reflexiva y permanentemente la actuación del alumno para la consecución de competencias expresadas en los objetivos generales de etapa que abarque todos los contenidos conceptuales. c) Acumulación de juicios basados en procedimientos formales e informales. . la evaluación contempla tres funciones: . atendiendo a criterios previamente establecidos y a su aplicación. La evaluación continua implica: a) Observación permanente. procedimentales y actitudinales. h) Aprovechamiento de logros anteriores en todo el proceso y al final del mismo. f) Información útil al alumno sobre su proceso de aprendizaje que le permita asumir la responsabilidad que le corresponde a su continuidad. FUNCIÓN En este sentido. para construir significativamente su propio aprendizaje y al mismo tiempo proporciona herramientas al docente para la planificación del proceso enseñanza aprendizaje. retroalimentarlo y mejorarlo.

que permitan evidenciar los progresos y las limitaciones que requieran una atención esmerada en beneficio del aprendizaje del estudiante. valores. disposición. y ser realizada fundamentalmente a través de procedimientos informales que permitan: a) Conocer los progresos de los alumnos. manifestaciones intelectuales y potencialidades entre otras. f) Planificar nuevas acciones educativas tomando en consideración los contenidos conceptuales. significación y utilidad de lo aprendido. c) El sentido.Formativa: Tiene como propósito observar. e) Acumular juicios descriptivos. investigar y reflexionar constantemente con el alumno su proceso de aprendizaje. d) Carencias. actitudes y aptitudes. g) Elaborar criterios para la promoción de los alumnos. d) Analizar con sentido crítico la participación en el trabajo tanto del alumno como del profesor. sentimientos. responsabilidad. e) Logros alcanzados después de un tiempo de aprendizaje. la madurez . . La evaluación de procesos tiene carácter dinámico y formativo. b) Cómo aprende: hechos. integración del grupo. conceptos. que permitan conocer el punto del cual parte y establecer necesidades previas. para iluminar lo que está ocurriendo y a la vez ofrecer retroalimentación y acciones necesarias para estimular y mejorar su aprendizaje. actitudes. procedimentales y actitudinales. debe estar estrechamente vinculada con las actividades de enseñanza y de aprendizaje.En tal sentido se debe explorar en el alumno: a) Disposiciones. incomprensiones y errores. para corregirlos y superarlos con el fin de garantizar el éxito en el aprendizaje. procedimentales y actitudinales adquiridos por los alumnos. c) Propiciar situaciones donde se manifiesten rasgos del alumno: hábitos de trabajo. representaciones y esquemas. tomando en cuenta los aspectos conceptuales. para continuar la labor educativa. dedicación. b) Determinar las causas de sus deficiencias y éxitos.

c) Proporcionar información relevante para promover al alumno. actitudes. Final: Cumple con la función administrativa de la evaluación. posibilidades y limitaciones de los alumnos y los criterios de evaluación establecidos previamente.Alumnos.Integración de juicios. habilidades y destrezas. para asumir la responsabilidad que les corresponde en la continuidad del proceso de aprendizaje y para que conozcan sus capacidades.Mantener una visión multidireccional. d) Proporcionar información a los: .Docentes. . . COOPERATIVA Concebida como una labor conjunta de todos los participantes para: . con ella se pretende: a) Recoger y analizar evidencias sobre los resultados obtenidos durante el proceso de aprendizaje. que determinan su crecimiento integral. aptitudes. comunicación e información constante. . tomando en consideración el conjunto de observaciones hechas durante el proceso sobre: consecución de objetivos educacionales. b) Determina el nivel de logro de competencias fijadas. acciones concretas para mejorar el aprendizaje. coevaluación y heteroevaluación como herramientas de la evaluación de procesos. Formas de participación .Flexibilizar la aplicación de criterios de evaluación que se seleccionen. h) Implementar las diferentes formas de participación de la evaluación: autoevaluación. en términos de criterios de evaluación previamente establecidos.Propiciar niveles de relación.del aprendiz. capacidades. . para otorgar una calificación basada en la acumulación de juicios descriptivos sobre cl proceso de aprendizaje del estudiante. aptitudes e intereses. perspectiva y apreciaciones con carácter deliberativo y negociado. capacidades e intereses para la resolución de la realidad.

preparación anterior. por cuanto identifica sus posibilidades y limitaciones para hacerlo consciente de los cambios necesarios para su propia actuación. . c) Estimula la retroalimentación constante de sí mismo y de otras personas para mejorar su actuación. dedicación. ritmo de trabajo y progreso en su desarrollo. c) Aporta soluciones para el mejoramiento individual y grupal. d) Opina sobre su actuación en el grupo. actitud frente a la materia. atendiendo a ciertos criterios previamente establecidos. así como su propio interés. e) Desarrolla su capacidad de líder. características y la variedad de causas de sus éxitos y fracasos. Mediante la autoevaluación el alumno: a) Emite juicios de valor sobre sí mismo en función de ciertos criterios o puntos de referencia. f) Evita errores y sus causas que le ayudarán a planear mejor la actividad. b) Analiza y describe sus actividades. b) Incrementa su participación. reflexión y crítica constructiva ante situaciones específicas de aprendizaje. Mediante la coevaluación el alumno: a) Determina los logros personales y grupales. d) Participa críticamente en la construcción de su aprendizaje. para decidir cual fue la causa del acierto y del error.AUTOEVALUACIÓN Es un proceso que permite el autodesarrollo del alumno. COEVALUACIÓN Es un proceso de valoración recíproca que realizan los alumnos sobre su propia actuación y la del grupo. e) Evalúa todo el proceso. atención. f) Desarrolla actitudes para la integración del grupo.

Esto significa que el docente al planificar debe incluir los elementos relacionados con la evaluación. con el objeto de lograr el mejoramiento y la calidad de su actuación. EL QUÉ EVALUAR Vendrá dado por los objetivos generales de grado. h) Posee libertad para emitir juicios valorativos acerca de otros porque es parte activa del proceso.g) Mejora su responsabilidad e identificación con el trabajo.Saca conclusiones sobre el progreso del alumno. una vez evidenciadas. alumno al final de la etapa. el con qué y el cúando evaluar. .. las competencias derivadas de los mismos y los criterios de evaluación establecidos para definir el logro alcanzado por los alumnos. los métodos de enseñanzas empleados y la participación y colaboración de los padres y representantes en el proceso educativo.). PLANIFICACIÓN DE LA EVALUACIÓN La planificación de la evaluación debe estar estrechamente vinculada con el proceso interactivo de la clase.. padres y representantes. en cada uno de estos grados debe aspirarse al logro de las competencias básicas. docente. los cuales permitirán. . Las competencias representan el nivel de desempeño que debe demostrar el. HETEROEVALUACIÓN Es un proceso de valoración recíproca que se realiza entre los agentes educativos (alumno.Acumula una serie de datos integrales acerca de la actuación del alumno. La primera Etapa de Educación Básica contempla tres grados. tales como: el qué. el cómo.Recoge e interpreta datos que evidencian el desarrollo del proceso educativo.. equipo de docentes. La heteroevaluación se fundamenta en una evaluación continua donde cada uno de los agentes: . tomar decisiones para: .

Permite establecer diferencias cualitativas y cuantitativas en logro de la misma. la costumbre o la rutina. . Para evaluar las competencias se deben establecer criterios e indicadores de logro. qué hace y cuáles son sus actitudes Es importante que el docente al evaluar tenga presente la consideración de estos aspectos (indicadores y criterios de la evaluación) a fin de evitar el azar. padres o representantes así como de tutorías de alumnos más avanzados.a) Nivelar o recuperar a los alumnos con la ayuda de docentes. la arbitrariedad e irracionalidad. es decir. convalidar lo que sabe. Indicador: es la señal que permite evidenciar el dominio de la competencia. c) Promover al alumno una vez que haya adquirido las competencias generales de la etapa. Criterio: implica la norma o recurso que permite evidenciar el nivel del logro de la competencia del alumno. a través de los cuales se podrá evidenciar los progresos alcanzados por los alumnos. b) Ubicar a los alumnos en un grado de acuerdo con las competencias logradas.

e) La utilización de distintas estrategias de evaluación: actividades. b) Las tareas donde se manifieste el grado de significación de lo aprendido en el desarrollo de la clase. c) Actividades continuas que proporcionen información sobre todo el proceso. En el siguiente cuadro se presenta una propuesta que permite visualizar cómo evaluar: . atendiendo el carácter dinámico de la evaluación. procedimental y actitudinal. funciones. d) Una gama diversa de actividades de evaluación que permitan la transferencia de lo aprendido a situaciones diferentes. formas de participación y diversas técnicas y procedimientos que permitan orientar el proceso de aprendizaje del alumno.EL COMO EVALUAR A través de: a) Situaciones relacionadas con lo enseñado que involucren lo conceptual.

b) Ser de fácil interpretación y manejo diario. c) Evitar en lo posible el sesgo cuantitativo.EL CON QUÉ EVALUAR Con instrumentos que además de aportar la información que se requiera. Entre algunos de los procedimientos e instrumentos de evaluación recomendables para la primera etapa de Educación Básica figuran: .alumno. que sean capaces de promover la interrelación docente . Se recomienda el empleo de instrumentos que se caractericen por: a) Recoger aspectos concretos y al mismo tiempo permitan la incorporación de otros no previstos.

.

Aoki (1991) expone las cuatro grandes orientaciones que comprende: 1.Orientación práctica. Profa. María Dolores García Fernández. limitaciones. El conocimiento científico se concibe más como algo tácito que explícito (House. la evaluación requiere que la información sea "objetiva científicamente". del progreso de su representado. Dra.Orientación emic. 3. intereses que permitan realizar el análisis del proceso. ritmos y estilos de aprendizaje. 4. de manera que puedan percibir cómo el estudiante ha evolucionado en su aprendizaje y cuáles han sido los progresos alcanzados. dependiente de una tradición empirista en las ciencias sociales. Así en cuanto a teorías del conocimiento las agrupa en dos grandes tendencias: Objetivismo y Subjetivismo. marcos u orientaciones sobre la evaluación. Desde una epistemología subjetiva la validez depende de "una llamada a la experiencia más que al método científico... 1980:252).Orientación crítico-hermenéutica. basada en observaciones permanentes sobre la actuación de cada alumno para determinar e interpretar sus progresos. . Será responsabilidad del plantel en atención a sus necesidades y al proyecto pedagógico de aula que decidirá la periodicidad o frecuencia de información a padres y representantes.. Asimismo se recomienda que esa información llegue tanto al representante como al alumno. para el subjetivismo depende de las experiencias acumuladas como base de la comprensión. GRANDES ORIENTACIONES EN LA EVALUACIÓN Hay diferentes enfoques.Orientación medios-fines. es decir que tanto los datos como los análisis realizados puedan ser reproducidos y verificados por otras personas competentes utilizando las mismas técnicas. La validez de una evaluación depende de los hechos replicables como base de la verdad. Para el objetivismo.. La evaluación tendrá carácter continuo. 2. PERSPECTIVAS DE LA EVALUACIÓN House (1980-1983) ha puesto de manifiesto que las diferentes perspectivas de evaluación son dependientes de diversas concepciones filosóficas. a través de los portafolios y registros descriptivos. Universidad de Córdoba. aptitudes.EL CÚANDO EVALUAR No se dispone de una fecha prevista para evaluar.

¿cuál de ellos implica menor coste y tiempo?. perspectivas. racionalizaciones e ideologías. certeza y predictibilida d.¿Qué efectivos y eficientes son los medios usados en conseguir los fines y objetivos curriculares?.. a partir de la teoría de los intereses cognoscitivos de Habermas: El Empírico-Analítico con la orientación medios-fines. Conocimiento crítico unido a la Descubrir las ideologías subyacentes al conocimiento y a la acción. 4.Dados unos currícula. imitada al campo de los hechos. En la orientación medios-fines nos interesa reflejar una orientación de la evaluación que puede ser caracterizada como técnica o instrumental. Fidelidad entre medios y fines. La creencia clave es la posibilidad de progreso.¿Cómo de bueno es el curriculum A comparado con el curriculum B en conseguir los fines dados?. "a partir de un horizonte de valores claramente articulado selecciona fines y organiza los medios apropiados teniendo en cuenta los efectos secundarios alternativos" (Habermas. Cualidad de la reflexión y de la acción Comprender las asunciones ocultas. contenido de los materiales curriculares y los métodos de enseñanza especificados?. el paradigma crítico. con referencia al criterio.. MEDIOS-FINES . ORIENTACIONES INTERESES CAMPO DE CONOCIMIENT O El control se refleja en valores de eficacia. generalizaciones.Cada una de ellas se corresponde con los grandes paradigmas que se han destacado. 2. leyes y teorías. 3. motivos. Basada en los objetivos... y la situacionalinterpretativa la subdivide en emic y crítico-hermenéutica. efectividad. tasación y consecución. Los intereses de los evaluadores que actúan con una orientación mediosfines dentro del paradigma cuantitativo reflejan cuestiones como las siguientes: 1. el críticoreflexivo con la orientación de la praxis paradigma cualitativo.¿Cuál es el grado de congruencia entre resultados pretendidos.¿Qué generalizaciones válidas pueden hacerse para todas las escuelas en una zona o distrito?. paradigma cuantitativo. Como acción instrumental. orientada al éxito con arreglo a fines. PRÁXICA Acción emancipatori a que mejora la condición humana. MODO DE EVALUACIÓN Medida de la discrepancia entre medios y fines. contenidos. 5. 1989:384). coste-beneficio.

. sus asunciones y enfoques?. se les sitúa en condiciones para liberarse o transformarlos.¿Cuál es la orientación subyacente en el curriculum A en términos de sus intereses fundamentales. Intuiciones dentro de las situaciones humanas únicas. como son las siguientes: 1. Cualidad de la existencia humana Conocimiento descriptivo.. 5. Por la explicitación de los supuestos ocultos o inconscientes de los afectados. las distorsiones que subyacen en la existencia humana.. Perspectiva etnomenológica. Búsqueda crítica de lo que significa ser humano. 6. 2. .acción. Los evaluadores práxicos están interesados en poner de manifiesto los intereses.¿Cuáles son las metáforas fundamentales que guía a los que desarrollan.¿)Cuál es el punto de vista implícito de los alumnos y del profesor que ayuda a los planificadores del currículum?. La realidad se entiende como socialmente construida. Este proceso reflexivo no pretende sólo poner de manifiesto estos supuestos. Concretado en el mundo vivido de la existencia. en la actitud moral de emanciparse de ellos. En lugar de una racionalidad de medios-fines. que difieren de la orientación técnica.¿Cuál es la cosmovisión que subyace al currículum? Este conjunto de intereses refleja una orientación en la evaluación vista desde una teoría crítica de la sociedad neomarxista. revelando las condiciones ideológicas que hacen posible el conocimiento. Por su parte. produciendo alienación. la orientación práxica toma un marco dialéctico entre acción práctica y reflexión crítica. CRÍTICOHERMENÉUTICA Perspectiva fenomenológicohermenéutica...A nivel más básico ¿a qué intereses sirve el currículum?. Revelación de los significados existenciales en la experiencia vivida. denso de la cultura. Sumario de modos de entender las orientaciones en evaluación.¿Cuál es el prejuicio básico de los editores o autores de los materiales y recursos prescritos o recomendados?. 3. sino entrar en un proceso de transformación de la realidad evaluada. la orientación práxica (crítico emancipadora)está interesada en otro tipo de cuestiones. EMIC Cualidad de vida cultural cotidiana.. 4.. etc. Reglas tácitas con que la gente vive en su vida diaria. implementan o evalúan el curriculum?. Perspectiva de estudios de casos etnográficos. asunciones. cosmovisiones. a lo que Paolo Freire llama Praxis.

y unir las estructuras de significado de la experiencia vivida. pretende comprender los valores.¿Cómo comprender la cualidad de un currículum en la microcultura de la clase?.¿Cómo viven la experiencia en esta clase?.. La mayoría de los evaluadores de esta orientación están interesados en la construcción social de la realidad desde un punto de vista antropológico o sociológico. 5.¿Cómo son experienciados los contenidos trabajados?.¿Cómo estos grupos ven la fuerza y debilidad de un currículum determinado?. . vivencias y experiencias que tienen los alumnos y profesores en la vida del aula.¿Cuál es la cualidad de las experiencias vividas de los profesores y alumnos?. 1.¿Cómo es la existencia de un profesor o alumno en esta clase?. 4. Más que una perspectiva "emic". sus esfuerzos se dirigen a clarificar. 2. padres y administradores)?)Qué valor tienen estas visiones? 3. para esto emplea situaciones de diálogo que puedan clarificar los motivos. 3. La orientación que Aoki llamada crítico-hermenéutica se interesa por las intuiciones en las experiencias humanas como vivencia. La cuestión más importante no es lo que se enseña.La orientación emic. Las cuestiones que preocupan a una evaluación desde esta perspectiva son: 1. 1991:103). La orientación crítico-hermenéutica está interesada "en la búsqueda de los significados ontológicos en la experiencia vivida de los alumnos.¿Cuáles son las reglas construidas por el grupo para un currículum determinado en esta clase?. administradores y padres" (Aoki. por tanto una evaluación con esta orientación pretende transcender la objetividad... las experiencias auténticas. profesores.¿De que modo estos grupos aprueban o desaprueban un currículum determinado?. 2.. sino cómo es vivido..¿De qué modo se corresponden pedagógicamente conjuntamente lo que los profesores hacen y enseñan?. por analogía con su empleo en antropología. le importa entrar profundamente en conversación intersubjetiva con la gente en una situación de evaluación.. creencias y actividades en su situación vivida por aquellos que están inmersos en la situación evaluada... profesores. 4.. y los significados comunes. 5. Estos intereses se centran en la existencia.. Los evaluadores están interesados en los patrones etnoculturales de la vida en las situaciones escolares.¿Cómo ven el currículum A varios grupos (alumnos. APROXIMACIONES TEÓRICAS EN LA EVALUACIÓN: MODELOS.

para mejorar el nivel de logro de los estudiantes. se interesa por saber qué está sucediendo. Para Eisner (1983) son fundamentales la inducción y la observación. Es por lo que no pretende formular leyes universales. en base al proceso y resultados de la evaluación. Esta nueva definición amplía las formas de evaluar y determinar la eficacia de los objetivos propuestos . B) Se realiza en un contexto de acción. basada en una imagen dualista (sujeto/objeto). Tanto la evaluación como la investigación. Este autor hace un recorrido por tres paradigmas fundamentales: cuantitativo. 2. Como es conocido el Comité sobre Estándares de Evaluación desarrollo una serie de ideas y normas en base a una definición de evaluación más amplia:"Investigación sistemática sobre el valor o mérito de algún objeto"(1981). qué ha sucedido y que significado tiene o ha tenido para diferentes grupos. se identifica la autoridad con el experto. sino comprender el significado que constituye socialmente.Proppe (1990) se basa en la definición de Stake y Dewey (1969) "desde una perspectiva amplia.. nos aporta muy poco sobre la calidad de los objetivos propuestos. Supone una representación narrativa de los descubrimientos del evaluador. La percepción es muy importante para el evaluador ya que así. Por tanto este enfoque se refiere a los resultados de un proyecto. programa etc.. Pero el énfasis de los resultados. está fundamentado en el positivismo. la eficacia y eficiencia. analizando la evaluación en cada uno de ellos. descubrimos la naturaleza y el valor de algo. Bajo este concepto se han realizado experiencias de evaluación con el objeto de controlar y evaluar los efectos del curriculum en las escuelas. Según Madans y Kellagham (1992) hay varios tipos de evaluación cualitativa: 1. El evaluador estudia los significados y significantes que se asignan a los sucesos por los actores. sino desde una visión interpretativa de lo subjetivo. La evaluación "acrítica" se fundamenta en el interés por el control. en el que la ciencia es el único camino de conocimiento y la realidad como el único objeto posible de conocimiento.La interpretativa. en un contexto social. puede captar . a) EL PARADIGMA CUANTITATIVO. Es positivista. Solo se pueden comprender los significados desde el punto de vista del actor.La artística. porque estos no se pueden entender desde criterios externos. C) Hay que tomar decisiones y se toman en determinados momentos. cualitativo y dialéctico. la evaluación es el descubrimiento de la naturaleza y el valor de algo" indicando algunas características comunes: A) Supone conocer el fenómeno a evaluar y determinar su valor. D) Es un proceso de aprendizaje. b) EL PARADIGMA CUALITATIVO.

3. la "crítica-emancipatoria" pretende generar conocimiento que ayude a las personas a hacerse conscientes de si mismas y a decidir con criterio personal. El evaluador se relaciona con la posibilidad de que todos los seres humanos se convierten en participantes en la "acción comunicativa". técnicas. metaevaluación. como la comunicación "sistemáticamente distorsionada" (Habermas. se propugna la acción. análisis de la comprensión del mundo. es importante establecer mecanismos para que el alumno tenga acceso a los datos y se cuide la confidencialidad y la privacidad de los mismos. Así pues. Pretende ofrecer una visión objetiva. La excelencia se identifica con competencia y esta con el poder de "poner en práctica conocimientos. Esto implica que se reduzca el rol de la evaluación como elemento de selección. El fundamento de la evaluación.. autoreflexión y autocomprensión. Por tanto. entonces. es valorar su excelencia. La excelencia para Perrenoud (1990) tiene que ver con los distintos ámbitos y tareas de la vida humana. 1987). con independencia del proceso o de las circunstancias. en un proceso dialéctico que transcienda la dualidad sujeto/objeto. La evaluación. la evaluación dialéctica es un proceso de recogida y ofrecimiento de información. Para Madans y Kellagham (1992). Los esquemas de evaluación deben poner énfasis en la mejora de la calidad del proceso de aprendizaje y las formas de motivación intrínseca. saber hacer. exigiendo una asimilación progresiva y un trabajo. está en el interés por el significado de la comunicación intersubjetiva entre los individuos y "sobre ellos" en una situación dada. Proppe (1990) señala que esta visión mantiene la lealtad al dualismo sujeto/objeto. el proceso de evaluación es un proceso de reflexión y autoreflexión. en forma de evaluación dialéctica. Comparte con el enfoque tradicional el enfoque de la orientación de la investigación hacia "un mundo real" externo a los individuos. debe ser el catalizador del diálogo. válida y fiable pro medio de la triangulación. por otro lado rechaza la posición positivista con respecto a que el mundo externo sea el único elemento que determina la visión que se debe tener de la realidad. que no todas pueden dominar con facilidad. pero cada hecho educativo debe ser entendido en su contexto y cultura. se muestra la evaluación formal de la excelencia escolar. Desde el paradigma crítico. supone una tarea de negociación para ayudar a construir significados y revelar los significados construidos. Esta evaluación se basa en el interés por la emancipación respecto a supuestos ocultos o condiciones humanas subyacentes. c) EL PARADIGMA CRÍTICO. en el que el evaluador se convierte en un auténtico agente de cambio. Desde este planteamiento. Juzgar el valor de algo.cualidades y relaciones que existen entre el profesor y el estudiante.La sistemática. Por otra parte. por ello. . más que en la certificación. pero también un proceso de diálogo.

Worthen y Sanders (1987) de "puntos de vista alternativos". 3. personalidad. Este tipo de evaluación informal. para determinar los valores. necesidades. Aoki (1991) de "orientaciones".Enfoques orientados a la gestión: Cuya principal preocupación es identificar y reunir las necesidades informativas para los gestores que han de tomar decisiones. ni registrada. para proporcionar fuentes de ideas y técnicas nuevas. Por eso es más conveniente hablar de modelos de evaluación.Enfoques naturalistas y orientados a la participación: Investigación e implantación de los participantes (o "afectados"). Este tipo de evaluación suele ser escrita y normalizada en cuanto a su forma. difusión y en cuanto a sus consecuencias referentes a promoción. ni negociada. hacen hincapié en la constitución de la evaluación como disciplina. que se integra en el flujo de las interacciones diarias.Enfoques orientados a los objetivos: Cuyo foco son los fines y objetivos específicos y en qué grado han sido conseguidos. 1. nos consta que la evaluación es "una práctica ampliamente rechazada por los alumnos y bastante molesta y engorrosa para muchos profesores". El análisis de la evaluación en la educación primaria nos lleva a una crítica del sistema de evaluación formal por calificaciones estableciendo diferentes niveles de excelencia sin saber muy bien cuales son los criterios que los guían.. 1987). materiales y recursos educativos. Scriven y House. 2. En nuestra opinión. dado que la búsqueda de la excelencia forma parte de la situación. etc.. de acción social. no hay paradigmas sustantivos propios de evaluación. no está codificada.Enfoques orientados al adversario: El foco central de la evaluación es la planificación de oposición de puntos de vista (pro y contra) de diferentes evaluadores. criterios y datos de la evaluación. que consiste en valorar el grado de dominio del curriculum. Perez Gómez (1983c) y Hopkins(1989:18) hablan de "modelos".La evaluación informal es constante en una clase. Clasificación de los distintos enfoques de evaluación (Worthen y Sanders. 4. y destacan el componente ético de la evaluación.. más ampliamente. en lugar de paradigmas. 6. 5. apoyo pedagógico y orientación. En cambio. recordar o de lo que debemos preocuparnos ". Es por lo que .. la evaluación formal. éstos son dependientes de grandes enfoques o paradigmas de la educación o. dos importantes filósofos de la ciencia. Gimeno (1992).Enfoques orientados a los expertos: Dependientes primariamente de las aplicaciones de profesionales expertos para juzgar los programas educativos.Enfoques orientados la consumidor: Evaluar los "productos" para proporcionar información a los consumidores para elegir entre curriculum alternativos... para servir como listas mentales con las que repensar lo que debemos considerar. . Worthen (1990) señala: "El valor de los modelos yace en su habilidad para ayudarnos a pensar. Fija oficialmente el nivel de excelencia reconocido a cada alumno. implica a la organización escolar.

B. añadiendo que la medida era la parte descriptiva de la evaluación y la explicación completaba el proceso de evaluación. Worthen y Sanders (1987:49 y ss. Fases de la evaluación: .) estiman que los diferentes planteamientos filosóficos sobre el conocimiento y los valores tienen su correspondiente implicación en los métodos. 3.Modelo de estudio de casos. Referido fundamentalmente a la evaluación de programas. Tyler diferenció medida y evaluación. al proponer una formulación precisa de objetivos como punto de referencia para la evaluación y la toma de decisiones.Model o de toma de decisiones (o político).Modelo iluminativo ( o antropológico). 6. son aquellos que proporcionan un conjunto de normas... Alkin y Ellet (1991).1989). 1991:2574). MODELOS CUANTITATIVOS: EL MODELO DE EVALUACIÓN POR OBJETIVOS.Investigación cuantitativa/cualitativa. Este método tuvo gran influencia al utilizar la medición. puesto que existen múltiples diferencias individuales entre los estudiantes. preceptos.. 2. 5.Modelo clásico (o agrícola-botánico). prohibiciones y líneas orientativas que determinan qué es una evaluación adecuada y el mejor modo de llevarla acabo.. Las bases del primer método sistemático de evaluación surgen a partir del modelo de Tyler. Los dos aspectos metodológicos más importantes para llevar a cabo estudios evaluativos son: A.La dificultad encontrada por los evaluadores al trabajar a través de límites disciplinares y metodológicos. "Los modelos preceptivos brindan marcos y estrategias más rigurosas para realizar evaluaciones..Desde el contexto inglés a Hopkins (1989) le parece bien distinguir seis modelos de evaluación: 1. mientras que los modelos descriptivos presentan una amplia gama de posibilidades válidas" (Alkin y ellet.. Tyler apuntó la necesidad de la evaluación. no basta con haber planificado correctamente para lograr unos resultados determinados. hay que descubrir hasta qué punto las experiencias de aprendizaje han logrado los efectos previstos (Nevo. ya que.. 4. adquiriendo un sentido de legitimación con el paralelismo de la investigación científica..Modelo del profesor como investigador. los ambientes en los que se desarrolla la enseñanza y la capacidad del docente para lograr los planes. 2) Modelos descriptivos: son aquellas descripciones o análisis sobre los modos de hacer la evaluación en la práctica. hablan de que los modelos de evaluación se pueden utilizar en dos sentidos: 1) Modelos preceptivos. según él.Modelo de investigación y Desarrollo (o de factoría industrial).

1985 y Sttuflebeam y Sinkfield.Proporcionar datos para la responsabilidad. Process. además. la función de la evaluación está en conceder valor a lo que se está evaluando. incluye en el modelo la técnica del grupo asesor para la evaluación de entradas. con sus principales cometidos. para comprobar que se han dado cambios y que pueden se imputados al currículum. el valor está en la medida en que . para poder juzgar su valor. con lo cual la evaluación debe tener otro alcance: se desplaza desde la valoración de los alumnos a la evaluación de programas.. que no evaluaba los objetivos. refiriéndose a los productos o el rendimiento como único criterio. Este modelo de Sttuflebeam (Sttuflebeam y Sinkfield. se basa en la necesidad de mejorar la práctica educativa. b) Modelo de evaluación libre de objetivos.Hacer modificaciones apropiadas en el currículum. Sin embargo Tyler no dio normas sobre cómo usar los datos de la evaluación. proporcionar estándares para saber cómo juzgar la discrepancia entre las medidas y los objetivos propuestos. 7. sin. Según el autor las funciones de la evaluación son: . 3. Product). 1989). y comparar con las necesidades de la gente a la que debe servir. Pero además esa realidad que se evalúa puede tener valor dentro de un contexto de uso o aplicación. Tyler entendió la evaluación como un proceso terminal.Servir la guía para la toma de decisiones. es decir.Determinación de los objetivos específicos de cada área de contenido. Por un lado. .Examinar los resultados para determinar la áreas del currículum más fuertes y más débiles. La evaluación orientada al perfeccionamiento de los sistemas. y no solo para los alumnos. 1989). que ignoraba los juicios sobre la dignidad y mérito. Imput. propuso objetivos para las condiciones contextuales y para la conducta del profesor. lo cual define Scriven como mérito.Desarrollar hipótesis y probarlas para explicar los patrones observados de consistencia o debilidad. Para Scriven (1978). . 6.1. MODELOS DE TRANSICIÓN HACIA LA EVALUACIÓN CUALITATIVA Stake (1967. a) El modelo CIPP (Context..Identificar situaciones en las que los estudiantes puedan demostrar la conducta expresada en los objetivos. y 1975.Aplicar los instrumentos. puede tener valor en si mismo. 4. en cuyo caso.. Se le criticó que su evaluación no es explicativa. obtener y proporcionar información útil para juzgar alternativas de decisión. 2.. Sttuflebeam. la evaluación es un proceso que implica descripción y juicio o valoración. valor libre de contexto.Examinar o desarrollar instrumentos capaces de probar cada objetivos.. según Guba y Lincoln. 5. Para ello es preciso diseñar. algo inherente e independiente de posibles aplicaciones. es decir.. dentro de un modelo pretest-postest. es decir.Promover la comprensión de los fenómenos implicados..

establecerá la diferencia entre evaluación formativa y sumativa. El objetivos de la evaluación sumativa es determinar el impacto o los resultados en el contexto en que se obtienen tales resultados. Audiencia: compañeros profesionales. que aumente la objetividad y los resultados deben hacerse públicos. según Scriven (Guba y Lincoln. adaptadores potenciales. es un valor extrínseco que el autor llama dignidad. Debido a esto Scriven. Fuente de estándares: panel de expertos Especifica el valor y el mérito en cada tipo de evaluación.p. La evaluación del mérito puede ser más homogénea. El objetivo de la evaluación formativa es refinar y mejorar los criterios y juicios sobre los aspectos intrínsecos de las realidades que están siendo evaluadas. en cuanto a las personas que juzgan debido a sus distintos indicadores de esos valores. Intención: certificado y justificación para uso local. pero también teniendo en cuenta el valor que tienen para varias audiencias. como muestra Bridges (1988) en la siguiente tabla donde se resumen las condiciones necesarias para ello. si se establecen los criterios de bondad. a la que se dirige la evaluación. es decir. Audiencia: equipo de adaptación local.50). Fuente de estándares: panel de expertos. Fuente de estándares: juicio sobre las necesidades locales SUMATIVA Intención: crítica. para Scriven. Además propondrá la evaluación libre de objetivos. aunque se tiende a una profesionalización de esta. en los referente a las estrategias de la difusión de programas de innovación. 1985. Además puede ayudar a los administradores a decidir si implantar a nivel general un currículum o programa o modificarlo. las relaciones entre tipos de evaluación y su objetivo: TIPO DE EVALUACIÓN FORMATIVA MÉRITO Intención: modificar y mejorar el diseño. Sin embargo la evaluación formativa es más propia de los profesionales que están tendiendo a una profesionalización de esta. evaluar el programa en sus efectos. La evaluación sumativa. Fuentes de estándares: juicios y valores del contexto local. VALOR Intención: ver las adecuación al contexto. Pero la determinación de la dignidad requiere una evaluación en el contexto en el que se realiza. si se juzga conforme a ellos. sin excluir que algún . porque el valor depende de la situación. debe realizarse por un experto. Audiencia: equipo que lo desarrolla.proporciona tales soluciones. evaluador externo. lo cual tienen sus efectos más importantes. Audiencia: los que toman decisiones locales. certificado y justificación. Sin embargo tanto el mérito como la dignidad son valores variables. al margen de los objetivos previstos. A continuación se muestra. según Guba y Lincoln.

HACIA MAYOR INDEPENDENCIA Y UN INFLUENCIA MENOS FORMATIVA Documentos escritos producidos después de haber realizado la práctica. escepticismo y oposición Diferencia entre una evaluación más formativa y una menos formativa (Bridges. El evaluador entrará en la discusión sobre estrategias alternativas. CRITERIOS HACIA UNA INFLUENCIA MÁS FORMATIVA Y MENOS INDEPENDIENTE Dialogo continuo formal o informal con los directores los que tomas decisiones. INFORMES VALORES STATUS DESCRIPCIÓN/PRESCRIP CIÓN CERCANÍA/DISTANCIA El evaluador tiene una posición de curiosidad imparcial. hipótesis. Preocupaciones y problemas de la audiencia. Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa. y la evaluación respondiente de Studie: Item comparativo Orientación Perspectiva de valor Bases el diseño de evaluación Evaluación preordenada Formal Única. El problema surge cuando se valoran los efectos sin criterios. de ahí que se evalué sin referencia a objetos. El evaluador describe. posibilidad de conflicto. y cuyo criterio serán las necesidades de los sujetos a los que se dirige el programa. Base común de valores compartidos entre evaluadores y los que desarrollan el programa. Evaluación respondiente Informal Pluralista. consensual Objetivos del programa. El evaluador tiene distintos valores que los que desarrollan el programa. A continuación se presenta un cuadro comparativo entre la evaluación preordenada. Se percibe al evaluador como en un status diferente y particular. analiza e informa solamente. según el modelo de Tyler. 1988). . MODELOS CUALITATIVOS: Dentro de ellos podemos destacar los siguientes: MODELOS NATURALISTAS Modelo de evaluación respondiente. o acciones recomendadas El evaluador desea la iniciativa para el éxito y siente alguna responsabilidad en este éxito.evaluador o momento de la evaluación determine el grado de consecución de los objetivos planteados.

Objetivos. Para poder emitir juicios correctos.Preconcepciones del evaluador. es un estadio típico. Métodos Comunicación. La forma del modelo quiere romper la idea de linealidad. . siendo mejor si en el análisis de dichos programas participan distintas personas que aportan visiones diferentes sobre un mismo problema. interpretación simbólica. periodismo y poesía. 1989. La evaluación respondiente (Stake. a menudo progresivos. Estos problemas deben utilizarse para discusiones. Una forma de identificar problemas es hablando con los implicados. bien será el existente o el propuesto. retratos. medida. 1975) es sensible a las necesidades e intereses de la audiencia. Feedback Paradigma Psicología experimental Comparación de las formas de evaluación preordenada y respondiente (Guba y Lincoln. y posteriormente servirán para organizar el plan de recogida de datos. Estimulado por los sujetos y las actividades.28). descripciones. las acciones correspondientes. comunicación holística. Modelos de contraposición Consiste en proponer evidencias sólidas en torno a los problemas para los que se toman decisiones sobre los programas. entrevistas. dudas y necesidades. por lo que la primera fase hace referencia a los problemas. Programa de actividades. Informal. y la búsqueda de soluciones. resultados. Continuamente está evolucionando. proporcionando modelos el programa. identificando variables y sus relaciones. negociaciones e interacciones. Owen propone algunos de los ámbitos de discusión que se basan en la investigación sobre "pros" y "contras": a) Para explorar los valores de un currículum. Informe escrito. sobre dominio. proporcionando experiencia variada. p. reacciones. Estimulador de los sujetos con visión de probar un funcionamiento crítico. habilidad. Antropología. El valor instrumental de la educación. Nunca. Subjetivos: observaciones. ya que la observación y la información deben ser continuas y estar presentes en todas las fases. a menudo oral. motivaciones o problemas de las personas en y alrededor de la evaluación. De la discusión puede surgir la clarificación. )Cuándo está completo el diseño?. Test. Formal: informes. Rol del evaluador Al comenzar la evaluación. Descripción narrativa. aptitud.

. directores y administradores. describiéndolos en términos de factores influyentes. g) Para tomar decisiones sobre todas estas cuestiones. y tratando de desvelar las relaciones entre las creencias y las prácticas. la evaluación judicial. Modelo de evaluación iluminativa Trata de comprender de forma amplia. c) Explicación. así como la observación. De ahí que proponga tres condiciones: a) Disponer de valores para juzgar sobre el mérito y la dignidad de un proceso educativo. Pueden utilizarse entrevistas. señalan tres etapas: a) Observación. cuestionarios y tests. Todo ello se hace entre de un marco de negociación cuya meta es facilitar la comprensión de los procesos por los propios participantes y servir de estímulo a su enriquecimiento en el plano personal y tanto como en el grupal. para Wolf. Por otra parte. quien no evalúa porque no tienen interés pro mejorar la cultura. abarcando todas las variables que afectan al resultado del programa. Se destapan los principios subyacentes de la organización del programa y se ven las posibles relaciones causa-efecto en sus operaciones. c) Preparación de los argumentos. pero marca la diferencia del conocimiento que obtiene el "entendimiento educativo"con el del antropólogo. d) Discusión ante la audiencia. a través de la inmersión en la realidad. así como el análisis de la información documental e históricas. la organización y las concepciones de los individuos. Un jurado deliberará sobre los argumentos presentados. Sttuflebeam y Sinkfield (1989). Eisner (1979). está compuesta de cuatro etapas: a) Proposición de problemas relativos a la evaluación de un programa. defiende el modelo de evaluación iluminativa. Dos elementos clave orientan esta tarea: los objetivos del programa y las entrevistas al personal implicado. Por ello no sólo cuentan los hechos sino también las interpretaciones de las personas implicadas. f) Para clarificar cuestiones en torno a los contratos de trabajo. d) Para revelar las distintas interpretaciones que distintos representantes hacen sobre los mimo datos. etapa de iluminación. b) Selección de problemas sobre la priorización de los vistos. c) Para estimar la congruencia entre una innovación y el sistema existente. Modelo de crítica artística Este modelo se centra en procesos educativos y está muy ligado con la formación del profesorado. los procesos curriculares innovadores tal como ocurre. Tarea de dos equipos evaluativos que deben reunir y analizar los datos convenientes. b) Investigación: Selección y planeamiento de cuestiones de manera coherente y sistemática sobre el programa en su contexto.b) Para seleccionar libros de texto. Tarea para un grupo de implicados representante de los diversos grupos. e) Para informar a los profesores.

los valores y las circunstancias. Los informes pertenece a la administración y la técnicas deben ser creíbles y eficaces. interpretativo. divulgar el conocimiento obtenido para hacerlo comprensible a otros. o valoración educativa según unos criterios. Reconoce la pluralidad de valores. MODELOS CRÍTICOS. El evaluador acepta los valores de la autoridad. También critica la idea del evaluador como "agente honesto". ofreciendo la información necesaria para conseguir sus objetivos políticos. distinguiendo tres tipos: a) Burocrática: Trabajos que sirven incondicionalmente alas agencias gubernamentales con poder para distribuir los recursos educativos. apreciación. Tiene la siguiente estructura: Descripción. iluminando las prioridades. Las base para una evaluación democrática debe se la perspectiva o la epistemología critica. * Interpretación. El evaluador se preocupa por determinar el valor educativo de su política y actuar como consejero. * Evaluación. La evaluación democrática. b) Autocráticos: Servicio condicional a las agencias con poder para distribuir los recursos. confidencialidad y accesibilidad. El rol del investigador es democratizar el conocimiento. McDonald (1983) piensa que las diferentes formas de evaluación responden a diferentes posiciones sobre la distribución del poder educativo. Basado en el derecho de sabe.* b) Poseer un conocimiento refinado. sin embargo creemos que está a medio camino entre los modelos prácticos y lo críticos. Se rige por los principios y la objetividad y la responsabilidad profesional. puesto que olvida que la actividad de evaluación está influenciada por los valores del propio . * Conclusión. es decir. cuyos conceptos claves son la negociación. Las técnicas de recogida de datos son accesibles a personas no especialistas. c) Tener crítica educativa. c) Democráticos: Servicio de información a la comunidad entera sobre las características del programa educativo. Emerge de un marco teórico fenomenológico. Las técnicas son científicas. Los informantes tienen el control sobre el uso de la información. que facilite la comprensión de los hechos en relación con los factores que influyen sobre ellos. Lakomski (1983) critica la evaluación democrática de McDonald porque no proporciona una respuesta política al problema de control. Los informes son burocráticos. científicos y públi cos. Es personal y exige desarrollo de la capacidad de percepción. generalización de la idea básica obtenida. que deja las cosas como están. que toma en consideración el factor político y el tema del control y del poder en la evaluación. A su juicio se debe a la aceptación de la perspectiva fenomenológica. para que otros vean y experimenten los contenidos a través de la forma. Su finalidad es proporcionar datos relevantes para los que tienen que tomar decisiones.

evaluador. e informar a la audiencia para dar pie al debate sobre el programa. aunque siempre hay elementos constrictores de la libertad e acción y circunstancias que están más allá del control de los participantes. Parece ser que se parte de la aceptación de que el pluralismo es la única posición válida. ya que a través de él se van cambiando las exigencias del programa en un proceso de debate crítico o conservación Para adoptar este principio es preciso partir de que la realidad es social. Se basa en el principio de autonomía moral y cooperación o responsabilidad compartida entre los patrocinadores del programa y los participantes. Lo que contradice el principio de construir reglas y criterios universalmente válidos para la aplicación de un programa. 2) Principio de autonomía y responsabilidad: Este principio implica a todos lo participantes (profesores. según el autor.. para identificar los factores contextuales e históricos que influyen y facilitan el análisis crítico de estos aspectos.). 5) Principio de la comunidad autocrítica: La evaluación debe refinar el debate crítico. 4) Principio de la pluralidad de perspectivas de valor: En la evaluación hay que tratar de determinar cuáles son las perspectiva más relevantes en el proyecto. no es más que un sofisticado relativismo en el que. p. se admite que no hay forma de establecer cuál de ellos es correcto porque todos ellos son igualmente válidos. Por lo cual será importante clarificar los criterios para una evaluación democrática. evaluadores. De ahí que la autocrítica sea la primera base para la evaluación. cuando.. y la evaluación independiente puede ayudar a aprovechar la autocrítica al programa allí donde el programa de la comunidad es difuso o dividido por la controversia. cuando los diferentes grupos no están de acuerdo o entran en conflicto de valores. 6) Principio de propiedad en la producción y distribución de información: Los argumentos y la información son un . histórica y culturalmente negociada. "Evaluación es el proceso de ordenación de la información de los argumentos que permiten participar en el debate crítico sobre un programa específico a individuos y a grupos interesados". Pero el hecho de que no haya valores absolutos no quiere decir que no haya criterios por los que lo evaluadores puedan juzgar lo que debe hacerse en cada situación. la evaluación externa contribuir al debate crítico pro acrecentar la conciencia de algunos intereses y valores relevante para el programa. Partiendo de la definición de Kemmis (1989. 3) Principio de comunidad de intereses: El evaluador deberá iluminar la extensión de los intereses comunes y de los conflictos entre valores e intereses de los participantes de la comunidad. existente dentro de la comunidad.119). La metaevaluación puede ayudar a mejora la calidad de la contribución el programa de evaluación. considera que un programa de evaluación sobre desarrollo curricular e innovación debe estar desarrollado por los siguientes principios: 1) Principio de la racionalidad como lo razonable: La tarea de la evaluación es iluminar el razonamiento que guía el desarrollo del programa. los cuales deberá descubrirse mediante la evaluación. patrocinadores. * Criterios para un evaluación democrática del currículum. sobre la naturaleza y la dignidad de un programa. Por ello es importante atender al proceso de negociación de los participantes.

Para este autor la investigación evaluativa es necesaria cuando: Los resultados que se quieren evaluar son complejos. Weis (1989). debe aportar conocimiento suficiente porque los que toman decisiones quieren y necesitan saber con qué grado de acierto está cumpliendo el programa los objetivos para los que se estableció. La investigación científica debe ser su modelo. . definido por un valor. producción y distribución de este proceso o de elaboración de información. ética y política. circunstancias y oportunidades de los que serán más estrechamente implicados en el programa. según Suchman (1967). orientar a conocer cuál es el nivel de consecución de alguna meta u objetivo existente de un programa. y si se debe continuar con él ampliarlo. Por ello la evaluación deberá hacer explícitos lo principios de procedimiento que gobierna la dirección. Suchman (1967) distinguió ente evaluación e investigación evaluativa. necesidades. difíciles de observar y constan de muchos elementos que reaccionan de diversas formas.aspecto importante de la evaluación porque su uso y abuso afecta a los participantes y a los observadores del programa en su vida social. Es decir. cambiarlo o retirarlo. definiéndola como aquella forma de evaluación que establece criterios claros y específicos para el éxito. Su característica fundamental. La finalidad es ayudar en la planificación. sino en relación a las preferencias. que la investigación pretende obtener conclusiones generando nuevo conocimiento. obligaciones. desarrollo y operatividad de los programas. Los supuestos básicos de la investigación evaluativa. y no debe realizarse con relación a la "lógica interna" del modelo de evaluación que se elija. 7) Principio de conveniencia: El diseño de evaluación no es una cuestión teórica o técnica sino práctica. Entendida la evaluación como el proceso de emitir juicio de valor. son: * La utilidad de los resultados debe ser el criterio fundamental del evaluador. y la investigación como la actividad científica que trata de aumentar la posibilidad de demostrar el valor de alguna actividad social. LA EVALUACIÓN COMO INVESTIGACIÓN. reducirlo. Se necesitan pruebas para convencer a otras persona acerca de la validez de las conclusiones. considera que la evaluación es una actividad orientada a determinar el valor de algo y. * * * * El estudio de casos en investigación curricular. Las decisiones que se derivan son importantes y caras.

y la evaluación de programas (educativos. (.Según Pérez Gómez (1983). realidad. innovadores o formativos). la evaluación de la innovación curricular.13) define el estudio de caso como un método de investigación que permite un estudio holístico y significativo de un acontecimiento o fenómeno contemporáneo dentro del contexto real en que se produce. LA EVALUACIÓN DEL CURRICULUM EL CAMPO DE LA EVALUACIÓN DEL CURRÍCULUM "Evaluación de curriculum" entendida como la evaluación de curriculum diseñado. Marcelo y Parrilla (1991) citan las siguientes: totalidad. Ying (1987. Walker (1989) considera el estudio de casos es el intento de investigar a través de la experiencia de los sujetos del estudio para ofrecérselo a los que son audiencia. sobre la vida de otros. al curriculum como resultado o producto. y de la investigación educativa". Nunca describe la realidad como es ahora. se entiende por estudio de casos el análisis de una instancia en acción. y/o como programa o contenido. Madaus y Kellagan (1992:147). En este sentido la evaluación legitima el curriculum a aprender/enseñar/seleccionar en un campo de conocimiento o disciplinar de una etapa educativa. Como ha destacado Kvale (1992:121-2). tras la revisión (histórica) del campo de la evaluación del curriculum. en el que es difícil establecer lo límites entre fenómeno y contexto. señalan que este es "un área compleja de estudio. por ejemplo. en un buen estudio sobre la . Por ejemplo. Dentro de la evaluación del currículum. confidencialidad y accesibilidad. se presenta como una perspectiva amplia. o con los alumnos sobre la enseñanza. la evaluación contribuye "la determinación de lo que son los conocimientos válidos de una disciplina. c) El estudio de casos es conservador. de lo que escribes.) Los conocimientos sobre una disciplina no sólo se transmiten en la enseñanza y se comprueban en los exámenes. materiales. así. el hablar cono profesores sobre sus sentimientos. p. ya que se hace un selección para entrevistar. a menudo incontrolada. con relaciones cercanas a la evaluación de programas. etc.. En ambos casos van unidas. Las características del estudio de caso son definidas por diversos autores. aparte de dimensiones internas del curriculum (contenidos. participación. particularidad. etc). hemos de incluir. sino el mismo examen contribuye a establecer los conocimientos válidos de una disciplina". a los test.. la observación de la enseñanza. y que requiere el uso de múltiples fuentes de evidencia. citado por Marcelo y Parrilla 1991. Madaus (1988). capta un instante en el tiempo y el espacio y lo detienen frente a la realidad cambiante. son medio des influir en la vida del centro. que es evaluado en el aprendizaje de los alumnos. para que te hablen. La evaluación del curriculum ha estado dominada por un cierto imperialismo de los test y estándares establecidos. Por esto. Shulman (1992) subraya como característica. b) El estudio de casos da una formación del mundo. negociación. Sin embargo el autor reflexiona sobre alguno problemas y los presenta como razones para no hacer el estudio de casos: a) El estudio de casos es una intervención. la entrevista. y a través de ellos se puede conseguir una visión clara de ello que sucede en la clase. que el estudio de casos refleja los problemas particulares de la enseñanza.

de igual manera. qué se aprende.. agencias patrocinadores. son diferentes en los modelos y fines. de un método de enseñanza. prioritariamente se centra en juzgar/valorar su éxito y resultados.El propósito de la evaluación del curriculum es juzgar el éxito o fracaso de un curriculum particular. sus potencialidades curriculares y sus procesos de desarrollo. Por otra parte podemos distinguir funcionalmente (Ariav. independientemente de sus resultados . sino los test quienes están determinando cada vez más que se enseña. porque según los diferentes modelos de evaluación se centrará en cuestiones diferentes y aplicará diferentes metodologías. están usando o van a usar en el futuro. distinta de la investigación curricular sobre evaluación en la medida en que no pretende proporcionar material para la discusión teórica. o de personal..La dirección de la evaluación del curriculum se puede dirigir a la administración educativa. 1988:83). 3. 2. métodos de la evaluación del currículum: 1. cifrando el primero en describir el posible valor educativo del currículo. y cómo se aprende"(Madaus. caracterizada por redefinir la unidad de evaluación dentro de un contexto más amplio y por focalizarse en las funciones . sino información útil para iluminar la práctica. propugnan una "evaluación social del curriculum". teniendo una función descriptiva más que prescriptiva. La evaluación puede dirigirse al uso de un material curricular específico. la toma de datos empíricos.Los métodos aplicados. profesores. al tiempo que puede proporcionar evidencias que puedan ser tomadas en cuenta para guiar la toma de decisiones (y en este aspecto guarda similaridad con la evaluación formativa).. y cubre un amplio rango de actividades curriculares (procesos y productos) que pueden ser objeto de evaluación. desarrollo e informe.La evaluación de la práctica curricular se dirige a lo que los profesores y alumno han utilizado.influencia de los test en la determinación del currículum.La evaluación del curriculum es dependiente de las múltiples perspectivas del curriculum existentes. Aquí igualmente se presenta un amplio espectro de modos y formas de evaluación Desde la perspectiva crítica Apple y Beyer (1983). y la orientación al diseño. cómo se enseña. mientras que la "evaluación del curriculum".. en su dimensión sumativa. King (1991). señala las siguientes características iniciales: 1. es dependiente de múltiples perspectivas filosóficas y metodológicas conjuntamente. Evidentemente esto es una generalización.1986) entre análisis del curriculum y evaluación del curriculum. 2.En segundo lugar. ha puesto de manifiesto cómo los test usurpan el papel del currículum en la definición de lo que hay que enseñar y cómo hacerlo: "No es currículum oficial. pero la asociación tradicional entre investigadores y evaluación ha motivado un énfasis en los test y medida. refiriéndose a la evaluación del curriculum en la práctica. contexto y situación investigada. alumnos. pues la suposiciones metodológicas suelen implicar concepciones del curriculum.. 3. comunidad escolar. La finalidad del análisis es describir y comprender una situación. Ariav (1986) señala los siguientes propósitos. como base para clarificar el campo..

a la propia Administración y. ya no se justifica reducir la tarea de evaluación exclusivamente al alumno y al proceso de enseñanza y aprendizaje. SENTIDO DE LA EVALUACIÓN En un documento del MEC (!994) sobre "Centros educativos y calidad de enseñanza". en suma. por la organización y funcionamiento del centro no escolar en el que aquélla se lleva a cabo. producción. No obstante. al menos. por la propia definición y desarrollo del currículo. ha proporcionado un conjunto de principios que deben regir un proceso de evaluación democrática en el desarrollo curricular.. todos ellos se convierten en objeto de evaluación" (MEC.sociales que cumplen el curriculum escolar. Kemmis (1986: 119). Por ello la evaluación del curriculum es incompleta si se limita a la "caja negra" de la escuela investigando lo que se enseña o las experiencias de los alumnos con los programas escolares. Así en el reciente documento a debate presentado por el MEC (1994) sobre "Centros educativos y calidad de enseñanza" se señala: "Al adoptar una concepción más compleja e interactiva del curriculo. más allá de la valoración de los aprendizajes adquiridos por los alumnos. Dado que las escuelas no son entidades aisladas. la evaluación alcanza actualmente a los centros educativos. al profesorado.Las interacciones cotidianas y regularidades de la vida escolar: Lo que se ha llamado "curriculum oculto" como modo en que se enseña y reproducen importantes valores y normas sobre trabajo. procedimientos y teorías fundamentales que los docentes utilizan para planificar. divorciadas del contesto social y de sus funciones de legitimación.El corpus formal del conocimiento escolar: El curriculum planificado.. al currículo. precisamente por los mismos problemas que tenía que resolver".Las perspectivas. organizar y evaluar lo que sucede en las escuelas. Parte de la siguiente definición de evaluación: . el campo de la evaluación del curriculum se ha ampliado considerablemente hasta poder abarcar otros campos. 2. Próximo a nosotros tenemos a House (1992). Los resultados de la educación vienen determinados por la actuación de los profesionales que en ella intervienen. necesitarían ser objeto de estudio en una evaluación social del curriculum (Apple y Beyer. la evaluación del curriculum debe ampliarse a estas funciones socioeconómicas. distribución y reproducción de las relaciones sociales. expresado en materiales curriculares y vivenciados por el profesor y los alumnos. Tres dominios. 1983: 430) para ver las conexiones entre el curriculum y las estructuras ideológicas y económicas: 1. se encuentra afectada hoy en día.. clase social. a todo el conjunto del sistema educativo". 1994:26). y por la actuación del aparato administrativo que debe proporcionar los recursos para el funcionamiento eficaz del sistema en su conjunto. afirma que: "La importancia actualmente cobrada por la evaluación educativa y el notable desarrollo de las funciones que le han sido atribuibles ha producido una ampliación paulatina de su ámbito de actuación. 3. que realizó una revisión de las tendencias actuales en evaluación y dice: "La evaluación. que constituyó su campo de intervención originario. en cuanto son dependientes del curriculum o influyen decisivamente en él (entorno escolar o apoyo externo). que fue inventada para solucionar nuestros problemas sociales. raza y género de nuestra sociedad. En consecuencia.

"Evaluación es el proceso de recoger información y argumentos que capaciten a los individuos y grupos interesados para participar en el debate crítico sobre un programa específico. Así definida la evaluación consiste en aprovechar y refinar los múltiples procesos de enjuiciamiento público y privado, no en substituirlos con tecnologías de valoración". CONCEPTUALIZACIÓN DE LA EVALUACIÓN. La evaluación tiene como objeto determinar el valor de una cosa, Worthen y Sanders (1987:24) definen la evaluación como "el acto de proporcionar juicios para determinar el valor (valía o mérito), sin minusvalorar por ello las importantes funciones que la evaluación tenga en la toma de decisiones y en las actividades políticas. En educación, la evaluación es la determinación formal de la cualidad, efectividad, o el valor de un programa, producto, proyecto, objetivo, o curriculum. La evaluación, para ello, utiliza métodos de investigación y de juicio, como: 1.- Determinar los estándares para juzgar la cualidad y decidir cuáles de ellos deben ser relativos o absolutos 2.- Recoger información relevante sobre los objetos de evaluación; y aplicar los estándares para determinar la cualidad. Gimeno (1992, p.338) define la evaluación como "proceso por medio del que alguna o varias características de un alumno, de un grupo de estudiantes, de un ambiente educativo, de objetivos educativos, de materiales, profesores, programas, etc., reciben la atención del que evalúa, se analizan y se valoran sus características y condiciones en función de unos criterios o puntos de referencia para emitir un juicio que sea relevante para la educación". En el artículo de Cronbach (1963), Presentó un cambio muy significativo en el que se elabora una propuesta sobre los tipos de decisiones en el uso de la evaluación: 1.- Mejora del curso/programa: Decidir qué material de instrucción y qué métodos son satisfactorios y en cuales es necesario introducir cambios. 2.- Decisiones sobre individuos: Identificar las necesidades del alumno, con el fin de planificar su aprendizaje, valorar sus méritos con fines de selección y agrupación, familiarizándose con sus propios progresos y deficiencias. 3.- Regulación administrativa: Juzgar la calidad del sistema escolar, la de los profesores individualmente considerados, etc. Cronbach plantea la necesidad de centrar la evaluación en el propio proceso de desarrollo de un curso, con el objeto de mejorar y evitar lagunas que al final del proceso no se pueden superar. Nevo (1989) llevó a cabo una revisión biliográfica sobre evaluación y señaló las dimensiones relevantes en la evaluación del curriculum: 1.- )Cómo se define la evaluación? La evaluación educativa es una sistemática descripción de los objetos educativos y/o su mérito o valor.

2.- )Cuáles son las funciones de la evaluación? Señalaremos cuatro funciones básicas en la evaluación educativa. 1.- Formativa (para desarrollar y mejorar). 2.- Sumativa (para selección, certificación, rendir cuentas). 3.- Sociopolítica (como motivación y soporte de apoyo público). 4.- Administrativa (para ejercer control y autoridad). Por otro lado Gimeno (1992) al referirse a la evaluación de la enseñanza, considera siete tipos de funciones que de hecho ejerce la evaluación: a) Definir los significados pedagógicos y sociales, o qué se entiende por excelencia escolar. Y a partir de la consecución de la excelencia o de niveles de excelencia, definir el significado social de términos y las realidades como la calidad de la educación, o el rendimiento, el éxito, el fracaso escolar, etc b) Funciones sociales. Dado que a través de las certificaciones se acreditan los niveles de competencia en función del grado de saber demostrado, sirve para la jerarquización de los puestos de trabajo y la selección de las personas que deben desempeñarlos. c) Poder de control. El profesor ejerce su poder, fundamentalmente a través de las calificaciones. Controla la conducta, y es una forma de compensación a la ausencia de liderazgo.

d) Funciones pedagógicas. También sirve a funciones con claro objetivo educativo, o de mejora, que son las que legitiman la existencia de la práctica de la evaluación.(creación de ambiente escolar, función diagnóstica, recursos para la individualización, afianzamiento del aprendizaje, orientación, pronóstico y ponderación del currículum y socialización profesional). e) Funciones con respecto a la organización escolar. Proporciona conocimiento para una ordenación del currículum y una organización de la práctica real de la enseñanza. f) Proyección psicológica. En la medida que repercute en la motivación, el autoconcepto y las actitudes hacia la escuela, etc.

g) Apoyo a la investigación. Es una fuente de información sobre el funcionamiento del sistema educativo, y la validez de los currículums. 3.- ¿Cuales son los objetos de la evaluación? Cualquier entidad puede ser evaluada, pero los objetos más frecuentes son: alumnos, personal administrativo y docente, curricula, materiales, programas proyectos, e instituciones o centros. No debe limitarse a alumnos y profesores, y es necesario identificar claramente el objeto de evaluación, ampliar el objeto de la evaluación, para que esta sea más explicativa.

A.- La evaluación de los alumnos En la evaluación de los alumnos considero dos formas: la evaluación por parte de la administración, y la evaluación por los profesores. a) La evaluación por parte de la administración se realiza generalmente mediante exámenes; esta ha sido la forma más utilizada en todos los países. Marsh (1992) considera que el problema de los exámenes hoy día se sitúa fundamentalmente a nivel de la enseñanza secundaria, pues aunque han sido muy utilizados en el siglo XX, sin embargo se está operando un cambio de manera que se han desplazado desde la primaria a la secundaria. b) La evaluación del alumno por los profesores Los profesores toman en cuenta la cantidad de información tanto al planificar como durante la tarea de instrucción (habilidad y logro, cuestiones sobre el sexo, participación en clase, autoconcepto, competencia social, independencia, conducta en clase, hábitos de trabajo,...) Pero el logro es lo más importante, de forma que hay evidencia de que el juicio sobre la capacidad, la motivación y el esfuerzo del estudiante dependen de su valoración del resultado. B.- Evaluación del profesor Es opinión pública, que la clave de la mejora de la educación está ligada al grado de calidad de los profesores, lo cual a llevado a la administración a tomar diferentes decisiones en torno al cambio para facilitar la mejora. de esta manera se ha visto en la necesidad de adoptar medidas para realizar una evaluación correcta. * Entrevista al profesor. Se ha usado en el pasado y es la piedra angular de las estrategias de evaluación más recientes. Test de competencia. Se usan para certificación inicial y para el contrato. Los profesores deberían demostrar competencia cognitiva como un prerrequisisto para poder enseñar. Medidas indirectas de la competencia del profesor. Esto no se refiere a características de la personalidad, sino a rasgos tales como el compromiso profesional que se expresa a través de actividades extraescolares, etc. Observación de clases. Supone observación directa del estilo del profesor en clase, durante la interacción con sus alumnos, y generalmente se completa con entrevistas. Se pueden usar instrumentos estandarizados de observación para facilitar los juicios de los observadores, como Weade y Evertson (1991) recomiendan, ya que la observación sistemática y deliberada, como una acción intencional enfocada a determinados propósitos, puede y debe ser planeada para poder obtener justamente la información que se necesita. Valoraciones de los estudiante. Se basa fundamentalmente en que: 1) los estudiantes saben cuando han sido motivados; 2) son los estudiantes los que van a cambiar la conducta; 3) ellos saben si el

*

*

*

*

¿A quién debe servir la evaluación? La evaluación debe ofrecer la información necesaria para todas las partes implicadas tanto las actuales como potenciales. 7. cuatro grupos de variables deben ser consideradas: los objetivos del objeto/aspecto a evaluar.¿¡Qué métodos de evaluación deben ser usados en la evaluación? .Coleccionar y analizar datos empíricos.. Evaluación del Claustro de profesores. como método de investigación. y sobre los aspectos organizativos. La autoevaluación puede promover autoreflexión y la motivación hacia el cambio y el desarrollo personal y profesional.. y desde luego no es útil una aproximación unidimensional para juzgar la competencia del profesor.Comunicar los hallazgos a las audiencias. en la práctica puede causas tensión.¿)Qué criterios se han de emplear para juzgar el mérito de un objeto? Al menos tendremos en cuenta los siguientes: Si responde a las necesidades identificadas de los actuales o potenciales clientes. * Revisión de compañeros. 3. 4. No olvidando que se deben emplear múltiples y variados criterios. debe incluir las tres actividades siguientes: 1. la existencia de otros objetivos no planteados. concluyeron que no hay un único método válido. 6. y la consecución de objetivos determinados para los objetos propuestos..profesor proporciona feed-back.¿Qué tipo de información debe ser recogida para cada objeto? Independientemente de los modelos de evaluación que condicionan esta dimensión. Es responsabilidad del evaluador/es delimitar a los afectados por una evaluación e identificar o proyectar la información necesaria.. 2. * Darling-Hammond y sus colaboradores (1989) después de revisar los procedimientos de evaluación del profesor. 5. Un profesor puede usar datos derivados de las otras técnicas y hacer juicios sobre su propia enseñanza. Aunque es una idea entusiasta. interesadas en el objeto de evaluación. El grado de consecución de normas y estándares. 8. 4) El reconocimiento de los estudiantes pude motivar la buena enseñanza. sus estrategias y planes.. su proceso de implementación. Unido a una estrecha interacción entre el evaluador y los destinatarios...¿Cómo se realiza el proceso de evaluación? En el proceso de evaluación. porque todos tienen sus riesgos .Centrarse en el problema de evaluación. En este proceso un comité de compañeros evalúa la enseñanza a través de un análisis de documentos. y sus resultados e impacto.. lo cual es un pilar de la profesionalización.

con pretensiones de generabilidad. que necesita de varios métodos de trabajo. utilidad y precisión. 4.Informal: Evaluar de un domo informal es una actividad específicamente humana. como los estudios de caso...Producto .La evaluación es una tarea compleja.Proceso: Otra distinción relevante en los estudios de evaluación es si se dirigen a los resultados de un programa. 6.Generalización: Si el estudio de un programa se hace como representativo de otros.Caso particular . 3. o defender la legitimidad de proporcionar un juicio sobre el programa evaluado.. categorizandolos en los siguientes: 1. Stake plantea sus dudas sobre la base en la práctica de la distinción.Respondente: Si la evaluación debe venir predeterminada por la observación de las actividades o por la realización de preocupaciones de los participantes en el programa .-Totalidad . 2.Formativa .-¿)Por medio de qué estándares debe juzgarse una evaluación? La evaluación debe lograr un equilibrio óptimo en el conjunto de estándares de: Utilidad (su uso y su práctica). 5.. 4.Preordenado . y Apropiada (ser realizada de modo legítimo y ético). La evaluación está más operacionalizada y menos personalizada. 3.Juicio: Priman los aspectos descriptivos y objetivos en la información proporcionada... suele requerir validez. credibilidad. Precisión (técnicamente adecuada). 2..Sumativa: Una de las distinciones más extendidas es si los estudios de evaluación se hacen durante el desarrollo del programa o cuando el programa ha finalizado.Formal .. o a sus procesos de desarrollo. o estudios de caso particulares.Un marco conceptual para integrar las capacidades mencionadas. o hacer estudios analíticos como las relaciones entre variables . utilizando de acuerdo con la naturaleza del problema el método de investigación que mejor se ajuste a la demanda solicitada. 7..¿Quién debe hacer la evaluación? La evaluación debe ser realizada por equipos de profesionales que posean: 1. Por otra parte tenemos a Stake (1986) que ha señalado las dimensiones más comunes para clasificar los diseños de evaluación..Habilidad para mantener relaciones humanas correctas con los individuos o grupos implicados en la evaluación.Descripción .. 9. Viabilidad (ser realista y prudente).Analítico: Tratar el programa como una totalidad holística. según el valor extremo del programa o su valor intrínseco.Una amplia competencia en metodología de investigación y otras técnicas de análisis de datos. 10.Comprensión del contexto social y del tema específico de evaluación.

el desarrollo no acaba nunca. Para un alumno hay un comienzo y un final. La evaluación formativa sirve para tomar decisiones sobre el desarrollo del programa.. en la evaluación sumativa la audiencia incluye a los potenciales consumidores (alumnos. Yo encuentro esta distinción trivial. El propio Lewy (1991: 2552-3) reconoce que "tras dos décadas de utilización de estos términos se ha producido poco consenso en lo que se refiere a sus rasgos distintivos". aquellos que lo financian. Por eso Stake (Worthen y Sanders. el mismo estudio pude ser considerado formativo por un cliente y sumativo por otro" (Lewy.Externa: Si la evaluación es realizada por personas implicadas en la institución responsable del programa o por externos. 1992:2552). diferenciar entre evaluación interna y externa: " En el campo de la evaluación los términos formativo y sumativo han llegado a ser cada vez más utilizados. Stufflebeam las ha llamado "evaluación proactiva" y "evaluación retroactiva". Esta posición influye en cómo es evaluado. Las audiencias en el caso de la evaluación formativa es el personal inmerso en el programa. EVALUACIÓN FORMATIVA Y SUMATIVA Siguiendo a Cronbach. pero para el profesor. mientras que en la sumativa las decisiones conciernen sobre si continuar con el programa o darlo por finalizado. como términos más adecuados. Se diferencian. interpretado y negociado.discretas. Por otra parte. en un principio por las audiencias a quién van dirigidas y el uso que se hace de la información. etc. Por eso Scriven resaltó que no hay diferencias lógicas o metodológicas entre la evaluación formativa y sumativa. Acercándose a Stake. El supuesto básico la evaluación formativa es que los agentes utilizan o podrán usar la información obtenida para el estudio que realizan. en la práctica no funciona así (una evaluación formativa puede convertirse en una serie de pequeños informes. extenderlo o adoptarlo. programas Montessori. 1987: 36) propone. pueden indicar si una evaluación es formativa o sumativa. los términos han sido universalmente utilizados. Scriven en 1976. pues el propósito de ambas es examinar el valor de una entidad determinada. distinguiendo entre lo que se hace durante el desarrollo y aquello que se hace cuando el desarrollo ha terminado. Esta distinción es difícil en la práctica. el programa sigue funcionando. profesores y otros profesionales). distinguió entre roles o funciones que pude cumplir la evaluación "propongo la utilización de los términos evaluación formativa y sumativa para hacer referencia a estas dos funciones de la evaluación"). aunque la distinción entre formativa/sumativa es "superficialmente clara". Hopkins (1989:168) señala que.Interna . Lo que es importante es que hay diferencias entre lo que la "gente del programa" quiere conocer sobre el programa y lo que los "externos" quieren conocer". DIMENSIONES DE LA EVALUACIÓN FORMATIVA Y SUMATIVA. y Fernandez Perez (1994:781) los denomina "evaluación sobre el proceso" y "evaluación terminal". Para la mayoría de los programas educativos-cursos de correspondencia. Estos términos tienen un efecto dramático. "Solo el tiempo de realización. el público que la pide y la manera de usar los resultados. En el caso de la evaluación . 8. y unos informes sumativos pueden servir para promover el desarrollo). nunca acaba. y supervisores.

sin embargo en la evaluación sumativa el nivel deseado de generalización se escapa hacia operaciones con objetos similares. y la limitada difusión entre evaluadores y programas similares al estudiado. Dos características diferenciales entre la evaluación formativa y la sumativa las encontramos en el nivel deseado de generalización y el modo de aplicación. sujetos o grupos implicados y la iniciativa de la evaluación. De este modo está en crisis si lo que se debe evaluar es la consecución de los objetivos prefijados centrándose en los resultados. desarrollado autonomamente por un centro escolar. Scriven define de las siguientes formas las evaluaciones externas e internas: Evaluaciones internas son aquellas hechas por el personal del proyecto. informe interno.. . Desde una perspectiva que intente unir desarrollo curricular e investigación no tiene sentido separar el papel de desarrollador interno y evaluador externo. la acción conjunta del centro y su compromiso por la mejora escolar. La nueva evaluación equivale a investigar la naturaleza y los problemas de la innovación educativa y el perfeccionamiento de las escuelas" (Stenhouse. El modo de aplicación en la evaluación formativa se basa en el informe oral. tanto si son personal especializado. en el caso de la evaluación sumativa el modo de aplicación se basa en informes de evaluación para responsables de evaluación. que emplea como instrumento básico de mejora la evaluación formativa o autoevaluación. aunque referido a la evaluación del profesorado universitario. según los diferentes estándares de calidad. EVALUACIÓN INTERNA/EXTERNA Siguiendo la sugerencia de Stake. planificadores de la educación. Un evaluador externo es alguien que en alguna medida no forma parte del proyecto. pues como recuerda recientemente Nevo (1994: 94). En la evaluación formativa el nivel de generalización está limitado al contexto especifico evaluado. a veces. junto a la dimensión anterior se pude diferenciar entre evaluación interna (realizada por los que están trabajando en el programa) y externa (conducida por agentes externos). o para presentarla como una alternativa a la evaluación sumativa. ambos se fusionan: "En mi opinión el desarrollo del currículum debería tratarse como investigación educativa. medidos en términos cuantitativos.. modos de trabajo y "cultura". De modo similar al nuestro. y no un reformador. y que le sirva para defender su viabilidad frente a las escuelas tradicionales. o. se ha utilizado injustificadamente la evaluación formativa como excusa para evitar las demandas de rendir cuentas de resultados.autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. normalmente rendimientos académicos de los alumnos. No debemos caer en el error de oponerlas dicotomicamente. conferencia. revistas especializadas En la última década ha emergido con fuerza una perspectiva interpretativa de análisis de los significados. Aquel que desarrolló un curriculum debe ser un investigador. procesos. En la práctica un proyecto de innovación. lo que implica valorar los procesos. como si son externos a la parte encargada de producción/escritura/servicio del proyecto. Zabalza (1990b) contrapone la evaluación orientada al control a la evaluación orientada al desarrollo. más preferentemente . o alguien que en el caso del personal de evaluación es diferente del personal que está siendo evaluado.sumativa: "lo que funciona en un contexto sometido a unas condiciones debe operar de manera similar en otro contexto". 1984: 169). necesita también de una evaluación sumativa que le sirva para demostrar su mérito y valor.

Válida/fiable Limitada en el tiempo Normalmente extensa Administración. ¿Cuál es el grado de eficacia? Formas/roles Medida Frecuencia de datos Tamaño muestra Audiencia Principales cuestiones . Cuando se trata del currículum básico. potenciales consumidores o patrocinadores. Desarrollo y mejora del programa o curriculum Agentes Metodología Internos Cualitativa: Etnográfica y procesual. o de proyectos de innovación que desarrollan el currículum básico. Debe conocer cual es el nivel de la eficacia en la tarea encomendada al sistema educativo. Necesitan conocer los resultados que va teniendo su propia actividad y esfuerzo. por ello requiere crear cauces de participación y responsabilización apropiados para la toma de decisiones del currículum escolar. es preciso someterla a deliberación. Los alumnos. ¿Qué coste?. Los padres. Orientado en los procesos internos Evaluación formativa. Deben conocer qué valoración va obteniendo el aprendizaje de sus hijos en la escuela. Son los responsables de la evaluación inicial y continua de sus alumnos. Observación sistemática. b) c) d) DIMENSIONES DE LA EVALUACIÓN INTERNA/EXTERNA Dimensiones Propósito DESARROLLO/INTERNA Mejorar internamente el funcionamiento de un programa. ¿Qué necesidades tenemos?. sobre todo a efectos administrativos. la evaluación interna puede ser completada por la externa. Rosales (1990)ve la necesidad de implicar a diferentes grupos de personas: a) Los profesores. En cuanto a la evaluación de los aprendizajes del curriculum.También se plantea necesidad de una evaluación interna debido a que la evaluación del currículum forma parte de la cultura de la escuela. Centrado en los resultados. Evaluación sumativa Responsabilidad: Dar cuentas de los resultados Externos Cuantitativa: validez. ¿Qué resultados?. A menudo informal Frecuente/continua Normalmente pequeña. Test estandarizados o pruebas formales. Personas implicadas en el desarrollo del programa o currículum. ¿Cómo se está trabajando?. La sociedad. CONTROL/EXTERNA Certificar comparativamente la eficacia de un programa.

La tarea de hacer más formativa una evaluación se convierte en el problema de cómo el conocimiento producido en la evaluación es utilizado por los usuarios. El evaluador/es tiene distintos valores que los que desarrollan el programa. implicando una formación para aprender de la evaluación. Dimensiones principales de la evaluación (Reelaborado a partir de Worthen y Sanders..El personal escolar entiende mejor el significado de la evaluación mediante la distinción entre descripción y juicio. interesa cómo la evaluación puede servir para un desarrollo o mejora interna del aspecto o actividad evaluada (Hopkins.Los alumnos y sus resultados no deben ser el único objeto de la evaluación escolar. 4. Nevo (1994) expone las siguientes conclusiones extraídas: 1. Pero más allá de discriminaciones conceptuales. 1987:36). defiende que la evaluación basada en la escuela puede ser concebida como sinónima de "evaluación interna". o acciones Hacia una mayor independencia y una influencia menos formativa Documentos escritos producidos después de haber desarrollado la actividad práctica.. para proveer información en orden a planificar y mejorar. Como resultado de un Proyecto llevado a cabo en Israel para capacitar a los centros a hacer su propia evaluación. 1989). INFORMES VALORES STATUS DESCRIPCIÓN/ PRESCRIPCIÓN . La distinción entre evaluación interna y externa no tiene por qué implicar un juicio de valor sobre la superioridad o ventajas de una sobre otra. en combinación con la "evaluación externa". Criterios Hacia una influencia más formativa y menos independiente Diálogo continuo formal o informal con los gestores y los que toman decisiones Base común de valores compartidos entre evaluadores y los que desarrollan el programa Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa El evaluador entrará en la discusión sobre estrategias alternativas. Se percibe al evaluador como en un status diferente y particular.. y para proveer información para demostrar el rendimiento de cuentas o resultados.Los resultados o impactos no deben ser únicamente los aspectos a examinar cuando se evalúa un programa. así como para certificar y dar cuentas. Nevo (1994). 3. proyecto u otro objeto de evaluación dentro del centro escolar. analiza e informa.. y la externa para una evaluación sumativa. El evaluador sólo describe. aunque cada una pueda tener ventajas para ciertos propósitos: Evaluación interna para una evaluación formativa y para proveer feedback para la mejora.¿Cómo mejorar?. 2.La autoevaluación tiene que servir conjuntamente para una función formativa y sumativa.

Caracteres Limitacione s * Permanecer en un plano emic. * Mayor implicación de los usuarios. recogido en Hopkins. La evaluación de la mejora. evaluación y cambio son distintos. RELACIÓN ENTRE MEJORA ESCOLAR Y EVALUACIÓN. al tiempo que cada una se sitúa a un nivel superior del círculo y pueden conducir a otra. que no toda evaluación formativa implica un desarrollo organizativo del centro. pudo incluir la tradición Tyleriana de medida de resultados o "productos" para detectar aquellos aspectos. * Comunicar y utilizar los datos. * Mejora como adopción de propuestas externas. Cada una tiene sus propias implicaciones metodológicas y puede servir para cuestionar el papel de la evaluación en el proceso de mejora escolar. * Usar los datos para mejorar la práctica. Evaluación PARA la mejora "Evaluación formativa" Ayudar a introducir mejoras en la práctica * Evaluación durante el proceso. * Determinar el grado de implementación y factores que lo explican. * Autoevaluación del centro. y diferenciar. * Evaluación basada en objetivos. * No centrarse en los factores que constituyen el proceso de cambio mismo. y evaluación como mejora. en un programa educativo o curriculum. * Racionalidad instrumental de medios-fines. Holly y Hopkins (1988) han propuesto. en un primer plano. * Posible mecanismo de interiorización de responsabilidad. * Limitarse a como facilitar el cambio. dentro de una evaluación orientada a la mejora escolar. El avaluador toma una posición de curiosidad imparcial. * Perspectiva de "fidelidad". escepticismo u oposición. Aspectos Finalidad Evaluación COMO mejora La evaluación forma parte del proceso de desarrollo * El papel de evaluador y usuario se identifican. distinguir tres perspectiva sobre la relación entre mejora escolar y evaluación: evaluación de la mejora. Paradoja de la evaluación formativa (según Bridges. * Posible uso conservador por los centros. . 1989:168). con fines clarificadores.recomendadas COMPROMISO/ DISTANCIA El evaluador toma la iniciativa para el éxito y siente alguna responsabilidad en este éxito. sin transcender el contexto local. que no funcionan eficientemente de acuerdo con las expectativas prefijadas. evaluación para la mejora. Evaluación DE la mejora Medida de la consecución de los objetivos. La distinción tiene la virtualidad de romper con la oposición fácil entre evaluación sumativa y formativa.

negociador. y autorenovación"(Darling. proponiendo frente a tipos burocráticos o autocráticos. negociado. y otros sesgos desde los que se realiza la evaluación. identificándose los papeles de evaluador y usuario por medio de la autoevaluación escolar. el contexto de valoración se refiere a valores. actitudes. técnicas empleadas para demostrar los resultados extraídos. centros o profesores sólo puede legitimarse desde la orientación de ofrecer apoyos a la base para mejorar la enseñanza. En palabras de House (1973: 131) "La utilización de la metodología científica en el contexto de justificación nos permite justificar los resultados producidos en el 'contexto de valoración'". autocorrección. si no se entra en los propios mecanismos distorsionadores del pensamiento de los agentes sobre sus propias condiciones de trabajo. como primer paso para la reflexión conjunta sobre lo que se hace. y se discuta y reelabora entre los diferentes grupos de interés. que una política externa de evaluación de alumnos. desdeñando en parte los factores del proceso de cambio. Pero el control democrático por los agentes implicados en la metodología utilizada y de la información generada no deja de ser una propuesta moralista y/o piadosa. publicación. en todo proceso de evaluación dos contextos: el contexto de valoración y el de justificación. etc. confidencialidad y rendimiento de cuentas. el patrocinador y evaluadores en la elaboración de los informes de evaluación para contribuir a hacer un uso democrático: Independencia. del acceso a los datos y de la información. en estos casos. ideología. ha señalado un conjunto de Principios de procedimiento. que deberán seguir y respetar. por lo que su finalidad es cómo facilitar el cambio. McDonald (1976).. 1994: 26). se debería hacer o sería legítimo lograr. tanto los métodos aplicados. formales o no. que configuran la comunidad educativa".Hammond. Para House (1973:130) se pueden distinguir. sin reconocer un derecho especial a ningún grupo. una "evaluación democrática". Beltran y San Martín (1992: 67) la definen como "aquella en la que. aplicó un análisis político a la evaluación. LA PRÁCTICA EN LA EVALUACIÓN DEMOCRÁTICA. Una fase clave en la evaluación educativa es la diseminación de los resultado e informes evaluativos. agente de cambio y dinamizador. El evaluador externo adopta la posición de mediador.La evaluación como mejora se puede asimilar a la llamada "evaluación formativa". inserta en el propio desarrollo organizativo del centro. es decir se guía por un conjunto de valores contribuyendo a hacer explícito un dibujo más claro de la institución y de lo que significa su trabajo en el conjunto más amplio de las prácticas sociales. La evaluación democrática en las instituciones educativas se entiende como un servicio de información a toda la comunidad. es usada para ofrecer a los profesores informaciones prácticas sobre el aprendizaje de los alumnos y proveer información para que la comunidad escolar se comprometa en "un proceso recursivo de autoreflexión. confidencial y accesible a todos los implicados. La evaluación de la mejora implica que ésta tiene como fin explícito la mejora escolar. negociación del informe. Mientras que el contexto de justificación incluye todos los procedimientos científicos. desinterés. La evaluación. de hecho. y consecuentemente utilizados por los agentes . como la información generada en el proceso evaluador es abierta. influyen en sus cambiantes relaciones". como intento de introducir mejoras en la práctica docente. Darling-Hammond (1994) han argumentadon. para lo que utiliza metodologías e informes que puedan hacer accesible el conocimiento. McTaggart (1990). autocrítica. "Los evaluadores no solo viven en el mundo real de la política educativa.

(. inevitablemente. De hecho.. 1990). Más bien deben contribuir a enriquecer el discurso público de la comunidad educativa sobre el sistema educativo público: "Debe proveer información que capacite a los agentes educativos a reflexionar y hacer un mejor escrutinio de sus actividades"(Bryk y Hermanson. del proceso de enseñanza o de los alumnos)es obvio. un proceso político. ya que los profesores suelen hacerlo de forma secundaria. Por tanto Darling-Hammong (1994:25) propone un sistema de evaluación externa que potencie la igualdad y la mejora interna (1994: 25): "cambiar las formas y formatos de evaluación sin cambiar los modos en que la evaluación es usada no cambiará los resultados de la evaluación. dado que su preocupación principal es la evaluación del nivel de logro de los alumnos. produciendo una merma relevante en la interpretación y uso de la información. clientes y agentes proporcionando información para comprender y reflexionar sobre la situación. se diseñan y realizan para producir datos/juicios que serán usados con determinados fines por agentes/audiencias diversas. un uso ilustrado de la información: "proporcionar información para comprender los problemas y catalizar nuevas ideas". el modelo Tyleriano pretendía ser un instrumento para ayudar a los profesores a . Las evaluaciones formales (de los centros. Partiendo de que todo conocimiento es poder. el uso y la distribución de los informes de evaluación. la evaluación debe ser una parte integral para incentivar el diálogo entre los profesores y el desarrollo de la escuela". Desde esta perspectiva las evaluaciones en base a indicadores no deben pertenecer al uso privado de políticos o administradores educativos para ejercer más efecto sobre las escuelas. En cuanto a la distribución y uso por profesionales o administración. (Huberman y Cox. Bryk y Hermanson (1992). al revisar los sistemas de indicadores de evaluación como instrumentos necesarios para mejorar el sistema educativo. 1992: 466). señalan que estos. debemos incluir a los profesores en todas las fases del proceso y que la evaluación esté implicada en el curriculum y en las actividades de enseñanza. distribución y control de los informes de evaluación de centros. significativa y operacionalizada. han tenido un uso instrumental o "ingenieril". Debemos tener en cuenta los canales de comunicación y el contexto de trabajo ya que este. por lo que el evaluador debe preveer. debían servir para ilustrar a los patrocinadores. sin tener en cuenta los factores que afectan al procesamiento social de dicha información. Determinados principios éticos deben ser respetados por tanto en la producción. EVALUACIÓN FORMAL DEL CURRICULUM.)En orden a mejorar la educación. debemos clarificar al máximo. proponiendo ellos. Si queremos apoyar el aprendizaje de los alumnos. Como dice Kemmis (1986)): "La evaluación es. y poner los medios. Madaus y Kellaghan (1992) estiman necesaria una evaluación formal del currículum. que afecta la circulación de la información en una situación dada y tiene consecuencias vitales para los que la sufren".. por lo que más que dirigirse a la toma de decisiones. Inyectar nuevos conocimientos en una organización es un acto micropolítico. se ha observado que los análisis vienen a sugerir que casi nunca se hacen cambios en función de los resultados de la evaluación. La comunicación a los potenciales usuarios necesitan una información válida.sociales y educativos. programas o alumnos. los potenciales usos que se puedan hacer de los datos de la evaluación y del procesamiento de los mismos. se presenta como el filtro último para juzgar la pertinencia y adecuación de los resultados.

Objetivos específicos de las áreas curriculares o unidades didácticas: Trasladar los objetivos generales. 2. en relación con los restantes elementos. Stake distingue tres elementos sobre los que centrar el proceso de evaluación (antecedentes.. proceso y producto).Resultados: El fin último de la evaluación curricular es qué resultados producen en los alumnos los elementos anteriores. como señaló Tyler. El modelo CIPP... No todos los modelos dan el mismo énfasis. Seis componentes principales en la evaluación del curriculum (Madaus y Kellaghan.. con fuerte acento en Tyler y Taba.Materiales curriculares: El curriculum planificado se concreta en los materiales curriculares empleados. que recojo en el siguiente gráfico. como dice Taba. los procedimientos empleados y los resultados obtenidos. a las materias de enseñanza con objetivos específicos adaptados al contenido de los cursos y necesidades particulares de grupos de estudiantes. No obstante cabe una deliberación curricular sobre los contenidos (Walker). también la concepción educativa del centro y de la sociedad. 6. es preciso hacerlo como criterio necesarios de evaluación. si son guías para el desarrollo.Áreas de desarrollo de los sujetos: . . organización del centro.Contexto: Partir del contexto de desarrollo del curriculum. Zabalza (1987) hace una propuesta de evaluación comprhensiva del proceso de enseñanza/aprendizaje. Por otra parte silencian dimensiones como organización y estructuración del curriculum. señalando a modo de notas a pie de página otras versiones.. a través de los objetivos como elementos del curriculum. evaluación libre de objetivos (Scriven) u objetivos expresivos (Eisner). 4. 3. si desarrollan otros objetivos no pretendidos. necesidades e intereses). etc. que contempla todos los elementos y aspectos que presenta la enseñanza: 1. normalmente con metodologías cualitativas. Un conjunto de cuestiones pueden plantearse en la evaluación de los materiales: elementos que incluyen.Este contexto es relevante para los objetivos. a si deben evaluarse sólo en función de los objetivos explícitos o también de los no intencionados. etc.área cognitiva: conocimiento y habilidades mentales. destrezas. 1. naturaleza de la materia y psicología del aprendizaje.. acción conjunta del curriculum por el centro. input. Los elementos y forma de evaluación que proponen Madaus y Kellaghan. Madaus y Kellaghan (1992) proponen seis componentes fundamentales del curriculum que deben ser evaluados. por su dependencia con concepciones valorativas (educativas y sociales).Transacción y procesos: Los procesos y la interacción en clase deben ser evaluados. como las características de los alumnos (nivel cognoscitivo. rendimiento académico. pero también para evaluar la adecuación de los materiales. no dejan de ser obvios y tradicionales. 1992). no obstante.. A pesar de la variedad de aspectos o dominios y métodos. y resultados).evaluar el curriculum. recoge cuatro categorías (Contexto y evaluación de necesidades.Objetivos generales: Aunque es difícil definirlos y operativizarlos. 5. transacciones alumnos-profesor.

etc.evaluación sumativa y formativa.representatividad: que se recojan una muestra representativa de los contenidos-tareas trabajadas y de las operaciones puestas en juego.Situaciones controladas: las típicas situaciones artificiales en que se plantean tareas de papel y lápiz. 1987).área afectivo-emocional: satisfacción. Por tanto reducirse a tan sólo una técnica significa renunciar a la información que ella no puede darnos y que si podrían dar otro tipo de técnicas.sociogramas. etc.observación.. Operaciones mentales: .. nivel de adaptación. . 5.. .Situaciones naturales: las que surgen en la dinámica norma de una clase.área relacional social. . entrevistas. . 2.. . .Contenidos.. ajuste personal. . heteroevaluación y mixta o de triangulación. relaciones interpersonales.Situaciones en que se recoge la información: .autoevaluación.Modalidades de evaluación: .entrevistas.pruebas objetivas y tests. . 4. . ejercicios prácticos. en el recreo.Técnicas de evaluación: ..evaluación cuantitativa y cualitativa. de exámenes orales.evaluación individual y en grupo. . 3.(cada tipo de técnica se especializa en un tipo de información. . Componentes y aspectos de una evaluación comprehensiva (Zabalza. . Tareas. etc..significación: recogiendo aquellos aspectos más importantes o que han sido definidos como prioritarios. intereses. .evaluación del proceso y del producto.. etc.exámenes orales y escritos.

consiste en la "comprobación crítica del curriculum como hipótesis de acción educativa". revelar cómo algunas o todas las partes del programa deben alterarse o reemplazarse. se convierte en el contexto para promover el desarrollo curricular. LA EVALUACIÓN DEL CURRICULUM A TRAVÉS DE LA AUTOEVALUACIÓN La autoevaluación institucional. además. La evaluación del curriculum se centra en la revisión de los fundamentos y la práctica de las decisiones que los enseñantes adoptan en el centro con la colaboración de un asesor externo". De este modo. y a la propia organización de la escuela. organización y desarrollo del curriculum. puede deteriorarse con el tiempo. Una evaluación institucional se inscribe en un marco más amplio de la reconstrucción cultural de la escuela y de sus pautas de trabajo. la evaluación del curriculum como " la puesta en marcha de un proceso que exige por parte de quienes lo inician la voluntad de reflexionar sobre la práctica con el ánimo profesional de aprender de ella de forma constante. De acuerdo con el análisis de Martínez Bonafé (1988) los problemas a investigar se refieren al aprendizaje de los alumnos. y por lo tanto como un campo de investigación de la práctica profesional del profesor. Por ello la mayor parte de los estudios de evaluación del curriculum se refieren a una perspectiva de "fidelidad". Hernández (1990: 12) define. Este control debe. en el sentido que tales principios enmarcan". caracteriza la evaluación del desarrollo del currículum como "realizar una especie de reflexión. debe mantenerse un permanente seguimiento del control de calidad del programa. lo que se podría cambiar y consensuar planes de acción. El control de calidad debe hacerse mediante el estímulo a aquellas escuelas en las que el programa se implementa en forma adecuada y reforzando aquellas en que la implementación ha sido defectuosa. Pero en una perspectiva procesual es más difícil valorar cualitativamente el desarrollo curricular innovador. colegialidad y compromiso.La evaluación para Stenhouse. el control de la calidad puede conducir a la actualización de un programa viejo o al desarrollo de nuevos programas. a los materiales curriculares. como analiza Martínez Bonafé (1989:64). como estrategia de revisión y desarrollo de la mejora. significa que el centro escolar como conjunto genera procesos y formas de trabajo dirigidas a autorevisar lo que se hace cotidianamente. De este modo la evaluación. reivindicando la dimensión actual de autorevisión colegiada de la labor conjunta del centro. organizativo y profesional de los profesores. precisando a continuación que "los resultados de este tipo de evaluación tendrá la virtualidad de reorientarnos respecto a qué es lo que consideramos importante a nivel de principios curriculares y si estamos funcionando o no. a la enseñanza del profesor. desde esta perspectiva. en la práctica. como lo hace Lewy (1976: 36): "Un programa que se ha incorporado exitosamente dentro de un sistema educativo y ha tenido una calurosa acogida del profesorado. Zabalza (1987:289-90). El sentido de esta autoevaluación institucional del curriculum es la mejora de la propia institución escolar y de la calidad de enseñanza (evaluación formativa y . en que el proceso de autorevisión y reflexión crítica de la propia realidad. partiendo de los principios de justificación y desarrollo de los proyectos curriculares que estemos llevando a cabo. Para prevenir esto. Desde estas coordenadas se habla de un control de calidad de un programa. El deterioro total o parcial puede ocurrir en todo el sistema o solo en ciertas áreas o escuelas. nos permita analizar y valorar las líneas generales del proceso". se debe constituir un una investigación sobre el desarrollo del curriculum. entendiendo el curriculum como un problema práctico. a la estructuración. guiado por unos valores de cooperación. En una perspectiva de fidelidad podemos medir los resultados de un programa comparándolos con los objetivos del programa.

qué va sucediendo en la práctica con los acuerdos tomados. 1992b. necesidades.Autodiagnóstico: Identificación y análisis de necesidades: Revisar y valorar la realidad actual del centro (logros. en una búsqueda colegiada de soluciones. de respetar la profesionalidad del profesor. 2. generar alternativas. La evaluación del desarrollo curricular no es un apartado final ni un procedimiento formal o burocrático. se suelen utilizar un modelo flexible y contextual con estos procesos (Escudero. y emprender acciones de mejora en aquellos aspectos que se consideren prioritarios. Partiendo de una relación de compromiso institucional por la mejora de la educación. como ejes sobre los que articular la mejora escolar. generando conocimiento desde la propia práctica en deliberación con los compañeros. modificados o ampliados. ir haciendo un balance permanente para ver si los cambios deben ser mantenido.procesual). al tiempo que supone reivindicar una perspectiva dialógica del conocimiento primando el conocimiento local. previendo los recursos necesarios.- . inscrita en un compromiso por la mejora. Holly y Southworth. Se trata de revisar y diagnosticar el estado actual del Centro y su funcionamiento. se utiliza un modelo de "resolución de problemas" en que se genera desde dentro consenso para mejorar las dimensiones organizativas y didácticas del trabajo escolar. por parte del grupo de profesores. se compone y está relacionada con otros componentes. parte por reconocer/capacitar al Centro para hacer su propia evaluación. más que el control de resultados. clarificar las necesidades llegando a un entendimiento y priorizar ámbitos concretos de mejora. 1.- 4. autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. rendición de cuentas o fiscalización del funcionamiento del Centro (evaluación externa o sumativa). coordinada y reflexivamente.- 3. como han puesto de manifiesto. como alternativa al profesionalismo de expertos externo para evaluar la realidad escolar. que´efectos está teniendo. entre otros. sino un proceso dinámico de decisión y revisión en torno a cómo vamos a abordar los problemas. sino revisión permanente. actitud y competencia para aprender del contexto de trabajo. su capacidad para resolver colegiadamente los problemas y de tomar la reflexión y revisión de la práctica. Esto significa situar al profesorado con la disposición. Para esto es necesario promover la capacidad del centro para ponerlo en práctica. 1989). De este modo la finalidad y sentido en la autorevisión escolar no es primariamente evaluar la consecución de los objetivos prefijados encontrándose en los resultados normalmente rendimientos académicos de los alumnos sino. Holly y Hopkins (1988). Planificación para la acción y búsqueda de alternativas y recursos: En un segundo momento. más preferentemente. en que aspectos conviene corregir. etc. No obstante la autoevaluación institucional del centro escolar. para rectificar o modificar las líneas de trabajo planteadas y para reflexionar sobre ellas. La autoevaluación institucional. una vez definido el ámbito de mejora. Desarrollo o puesta en práctica: Analizar. problemas). como ejemplifica la siguiente figura. entraríamos en la elaboración conjunta de un plan de desarrollo de la escuela y. por medio de procesos de revisión conjunta de su práctica diaria y de la propia acción educativa del centro en los espacios discursivos del trabajo colectivo. frente a producido desde "fuera" por expertos evaluadores financiados por la Administración. En último extremo la autoevaluación se institucionaliza cuando un centro se acerca a una "comunidad de aprendizaje". No se debe entender como algo puntual o formalista. Evaluación como y para la mejora: Inserta "en espiral" en el propio proceso de desarrollo se autorevisa colegiadamente lo conseguido para generar nuevos problemas o prioridades y líneas de acción. o un a"escuela en desarrollo" o una "escuela evaluativa".

al menos. sitúa estos tres componentes en la evaluación de una innovación curricular: 1. Fullan (1985c:1212).e. pero los estudios de investigación de estas relaciones están en las primeras etapas de desarrollo y plantean algunas dificultades intrínsecas". RBE o DO. o basadas principalmente en el sujeto/profesor como individuo: P. No obstante. Casi la totalidad de los estudios examinados aisladamente uno u otro. como el propio proceso de planificación.Los factores que han afectado a la implementación. se pueden distinguir diferentes estrategias para llevar a cabo la evaluación.. debe suponer. dependientes cada una de diferentes perspectivas sobre el cambio educativo: 1. Como señala Fullan (1985c: 1212): "La mayoría de la literatura del campo no trata investigaciones que examinen las relaciones entre proceso de implementación y resultados. b) c) A su vez. desde una perspectiva procesual..e. el CBAM. La evaluación tanto del curriculum como de la innovación curricular. .- En sentido general los modelos y técnicas de evaluación de programas son trasladables a la evaluación de las innovaciones. exista tan poco referido a la evaluación de innovaciones. y El impacto de la implementación en el aprendizaje de los alumnos. como ha especificado Sttuflebeam en su modelo CIPP: a) Evaluación durante el proceso de planificación del curriculum. (por lo que es preciso) recurrir a la evaluación curricular y de programas para inferir modelos. 2.- Desde una perspectiva de proceso no sólo se debe examinar el desarrollo curricular a la luz de los objetivos de la innovación. estrategias.Fases en la autorevisión del centro escolar. como hicieron en este apartado González y Escudero (1987: 143-160). Evaluación durante el proceso de implementación. de los procesos de cambio.2. Estrategias basadas en la realidad institucional de los centros escolares: p. sino también qué otras consecuencias (no planificadas) ha tenido la innovación. y Evaluación a largo plazo. y el consecuente apoyo posterior. recursos e instrumentos". como dice De la Torre (1992: 953): "Resulta un tanto sorprendente que siendo tan amplia la literatura disponible sobre evaluación educativa y evaluación de programas. LA EVALUACIÓN EN LAS INNOVACIONES CURRICULARES En sentido amplio la evaluación del curriculum. tanto la adecuación/validez del "prototipo de diseño curricular". como proceso de investigación. en sus primeras formulaciones. 3. actitudes capacidad organizativa y otros resultados. Cuál es el estado actual del cambio en la práctica en un tiempo dado. forma parte de todo proceso de desarrollo curricular innovador.Estrategias de origen tecnológico para ver el grado de implementación y facilitar el desarrollo.

El CBAM suele usar un cuestionario (SOCQ) sobre los estadios/niveles de interés/implicación para obtener el perfil individual de las preocupaciones dominantes en la adopción y desarrollo de la innovación. Junto a los anteriores elementos. orientación.. Disposiciones favorables para utilizarla IV. Desde esta perspectiva procesual es muy importante incluir en el diseño de la evaluación los factores que han condicionado y explican el desarrollo de la innovación. preparación).A RUTINA III. Evalúa impacto e introduce cambios para mejorarlo o potenciar sus posibilidades No introduce casi cambios. 1987).. completados por la observación directa. no actúa Niveles de uso de la innovación.NO USUARIO Buscar información No conoce. Los niveles de interés permiten analizar la dimensión personal y afectiva del proceso de innovación.. observando la práctica docente de los profesores NIVELES DE USO USUARIOS VI.PREPARACIÓN NO USUARIOS I. Por eso mismo los diferencia en tres niveles (no uso. el CBAM emplea las "configuraciones de la ..B REFINAMIENTO IV. Además de la adopción en una innovación. Tener en cuenta estos últimos significa partir de las actitudes y conductas previas para una posterior adopción. vuelven a crear en algún otro punto del sistema educativo el mismo desequilibrio que pretendían corregir" (Unesco.USO MECÁNICO II. cualitativos. El modelo CBAM parte. diferenciando entre usuario y no usuario en la innovación. por medio de un conjunto de indicadores (conductuales) de cada uno de los siete niveles de uso. El modelo CBAM ("Concers Based Adoption Model") ha sido uno de los que específicamente ha pretendido convertirse en un modelo de evaluación del desarrollo de las innovaciones (Hord. según el grado de implementación. que permitan describir qué cambios introducidos en la práctica han resultado exitosos. entonces. y con ello como una estrategia para facilitar el desarrollo y gestión del cambio en los centros educativos..Desde esta misma perspectiva se emplean también procedimientos abiertos. Pobre coordinación. El comienzo del desarrollo del modelo presentado discrimina cinco tipos de usuarios. Y es que "ciertas reformas no producen efectos..ORIENTACIÓN 0. otras provocan efectos inesperados o incluso opuestos a las intenciones iniciales y otras. por su propia dinámica..INTEGRACIÓN INDICADORES Busca alternativas/opciones más efectivas. complementado por entrevistas y estudios longitudinales. al determinar los "niveles de uso de una innovación".. es necesario evaluar cómo está siendo desarrollada en las aulas. 1981:21). para lo que es necesario determinar los niveles de uso de la innovación.RENOVACIÓN V. Intenta colaborar/coordinar activamente con otros el uso de la innovación. tiene establecida una rutina de uso. Cambios menores para facilitar el uso.

Leithwood y Montgomery (1980). puede utilizarse con fines evaluativos. La evaluación diagnóstica del nivel de uso de una innovación permite determinar qué intervenciones (cuarto componente del modelo) son mejores por parte de los agentes de cambio. contenidos y estrategias.).C.2. por observación comparada lo que está pasando en la práctica (configuración de la innovación). como ya señalaba. podría identificar si las conductas del profesor en las distintas dimensiones de la innovación curricular han tenido cambios. con las siguientes fases y procesos: 1. Una evaluación formativa irá en la primera dirección. habría que reiniciar el ciclo para diagnosticar la situación.Evaluación: Detectar y valorar en qué medida se han ido superando los obstáculos identificados y se han realizado las metas del perfil de la innovación. por tener un amplio grado de "indeterminación curricular". elaborando un plan de formación del profesorado. con una orientación sumativa en la segunda. EVALUACIÓN DE PROGRAMAS . Revisar lo que se está haciendo en la práctica y el perfil o alcance de lo que plantea el modelo. 3. Por tanto además de las posibilidades del CBAM como diagnóstico. es que la mayoría de propuestas de innovación oficial carecen de dicho perfil. 1.) como lo ha percibido e interpretado el cambio por parte de los usuarios y las realizaciones que la innovación tiene en la práctica.3...1. Si no hubiese existido progreso. 2.Diseñar procedimientos para facilitar la disponibilidad de recursos y materiales curriculares que faciliten el desarrollo e implementación del cambio. materiales organización y estructuras) necesarias para superarlos. 2.1.Procedimientos para superar la ineficacia de estructuras organizativas y de control. aplicado en esta fase.innovación" (I. e irse acercando a una "plena" implementación. Un perfil preciso y definido de la innovación nos permite establecer. medios y recursos. Un segundo perfil del usuario. 1986). El problema para evaluar con este modelo. 2.2. necesarios para poder realizar una evaluación de la innovación en la práctica. se puede entrar en un análisis de los obstáculos y los apoyos (conocimientos y destrezas.Procedimientos para superar la carencia de conocimientos y destrezas que necesita el profesorado para desarrollar plenamente la innovación. 1.Diagnóstico de la situación: Se trata de identificar el perfil de la innovación para saber las metas necesarias para la implementación del curriculum propuesto. etc.Revisión de la discrepancia de la innovación..Identificación de obstáculos:Detectados los aspectos "discrepantes".Aplicación: Acciones dirigidas a superar los obstáculos. Según señalan Leithwood y Montgomery (1980) habría que llevar tres tipos de tareas: 2. metas y objetivos. en coincidencia en parte con el modelo CBAM y con un enfoque del cambio como resolución de problemas (Leithwood.. plantea una "estrategia técnica atenuada" de evaluación. Esto supone elaborar un perfil del usuario que sirva para medir las prácticas reales de los profesores en cada dimensión curricular.. así como el grado de desarrollo de la innovación. Así como el "perfil" de la innovación (presupuestos y asunciones básicas.

U2... La evaluación de un programa. que puede servir de guía general del tema UTILIDAD U1. U5..Derechos de los sujetos... P4. E3.. De los puntos fuertes y débiles del EXACTITUD E1. sin embargo. o responder a las demandas del cliente.Identificación de valores. entonces. por ejemplo. E6.. U4. Respetar la dignidad en los participantes.Documentación del programa.Evaluación completa y clara. Se debe revisar . P5. Reduciendo la desorganización mientras se obtiene información. P3.Según Worthen (1989) los propósitos de la evaluación de programas son los siguientes "a) contribuir a tomar decisiones sobre la implantación de un programa. Las obligaciones deben constar por escrito. coste-beneficio y crítica. la evaluación de programas ha estado muy orientada a maximizar la eficiencia y eficacia de las acciones del programa. Por su parte Talmage (1982:594) entiende que "tres propósitos aparecen frecuentemente en las definiciones de evaluación de programas: 1) Proporcionar juicios sobre el valor de un programa.Claridad del informe. consiste en establecer criterios que sirvan para juzgar la propia labor evaluativa del programa.Eficacia del coste.Análisis del contexto. Se deben respetar derechos de sujetos. y ver qué objetivos se han alcanzado.. E4.. recoger datos relativos a las variables o indicadores seleccionados. Clara y precisa.. se planifica como un proceso cíclico para valorar si el programa ha conseguido alcanzar los objetivos para los que se puso en marcha o ha dado lugar a otros efectos o resultados (positivo o no).Planifica la evaluación con antelación a las diferentes posiciones de los grupos de interés. E2. c) contribuir a tomar decisiones sobre las modificaciones de los programas. sociales y otros".. Talmage (1982).Procesamientos prácticos. Que incluya preguntas pertinentes sobre el programa.. Pero el papel clave que desempeñan los criterios y normas de valor en la evaluación de un programa. establecer unos indicadores.Identificación de la audiencia.Interacciones humanas.. E5. El evaluador debe ser competente. 1994).Información sistemática. F3.Descripción de propósitos y procedimientos.Acuerdos formales.. Al igual que la evaluación en general. No obstante. 2) Ayudar en la toma de decisiones responsables en política.. que posteriormente se han reeditado (The Joint Commitee on Standards for Educational Evaluation & Sanders.Información válida.Información fiable.Orientación del servicio.Credibilidad del evaluador. Describir perspectivas para interpretar hallazgos. se ha destacado la función de proporcionar información y elementos de juicio que contribuyan a establecer un cierto debate social sobre las acciones educativas. F2.Fuentes confiables de información.Viabilidad política. 1987).. 3) servir para una función política. E7.. e) obtener evidencias para oponerse a un programa. expansión o certificación. b) contribuir a tomar decisiones acerca de la continuidad.Por eso normalmente es necesario identificar los objetivos del programa y necesidades de los participantes.Amplitud y selección de la información. PROPIEDAD P1. P2. conforme aparecen en el siguiente cuadro. descriptiva. ecléctica. En los últimos tiempos. distingue cinco: experimentalista. juzgando el valor o el mérito en su consecución (Sttuflebeam y Shinkfield. U3. La información debe tener valor suficiente. d) obtener evidencias para ayudar a un programa . para juzgar su adecuación. en el llamado Joint Commitee on Standards for Educational Evaluation (1988).La evaluación debe servir a las necesidades de los participantes.. f) contribuir a comprender procesos básicos psicológicos. hay diferentes modalidades de evaluación de programas. juzgar la relación coste-beneficio. Los principios comúnmente aceptados han sido fijados por un colectivo de investigadores. Información importante del programa FACTIBILIDAD F1. Identificación de personas afectadas por la evaluación...

Análisis de la información cuantitativa. en principio.Análisis de la información cualitativa E10.. impresiones e interpretaciones subjetivas de la realidad. Realizaremos un estudio de las diferentes técnicas cualitativas y cuantitativas en la evaluación TÉCNICAS CUALITATIVAS. la línea de Kemmis y McTaggart (1992). Metodologicamente hoy se vive una situación plural.Conflicto de interés... las nuevas perspectivas no sustituyen a las anteriores sino que las complementan. a) Registros anecdóticos.Responsabilidad fiscal. Son muy importantes los hechos y contextos en relación a los incidentes relativos a un problema determinado.. U7.Revelación de hallazgos. E9. Las Normas de Evaluación de Programas (The Joint Committee on Standards For Evaluation & Sanders. Son técnicas de evaluación continua. Ory (1991) comenta que el aumento de estas técnicas de evaluación se debe a la ampliación del campo de la evaluación. b) Notas de campo. Por tanto se trata de técnicas de evaluación cualitativa.Impacto de la evaluación..Informe imparcial E12..Justificación de los gastos en recursos. Como señala Tejedor y otros (1993) "los cambios habidos en estos últimos años en las dos posturas básicas son los siguientes: (1) la postura tradicional entendía la evaluación como el empleo de métodos científicos para medir el desarrollo y los resultados de programas que luego se utilizaban para la toma de decisiones. Son aquellas que describen hechos. con una finalidad formativa..Metaevaluación.U6. Son informes longitudinales y descriptivos. . de lo que un alumno o grupo de alumnos dicen o hacen en determinadas situaciones a lo largo de un período de tiempo. P7. compleja que tiende a un mayor realismo. programa. Realizado con apertura y honradez. P6. E11.Oportunidad y difusión informe. 1994).Conclusiones justificadas. Los hallazgos se deben difundir entre los usuarios. Difusión y diseminación de los hallazgos.. Es por lo que partimos de las técnicas utilizadas por Kemmis y McTaggart (1992) en la investigación-acción.Planificar la evaluación para que penetre en los usuarios. que se usan tanto en enfoques interpretativos como críticos.. LAS TÉCNICAS EN LA EVALUACIÓN EN EL CURRICULUM. aunque con finalidades diferentes. en la cual se refleja la propia realidad. Hemos seguido. P8. sistemáticamente.. E8. de las audiencias y de los propósitos de la misma evaluación. (2) la segunda postura más actual entiende la evaluación como el conocimiento empírico del mérito o valor de las actividades y objetivos de un programa propuesto".

hipótesis.c) Descripción ecológica del comportamiento. d) Análisis de documentos. por ello ve necesaria la redacción de un diario en el contexto del Área Remota de Educación del Profesorado (RATE). como una exigencia profesional. programas y proyectos educativos del centro. Se registran todos los comportamientos observados para comprender la secuencia de los mismos. la de reflexionar sobre las propias prácticas docentes. interpretaciones. como biografías. que a la vez proporciona oportunidades de reflexión sobre esta acción y nuevos planes de acción consecutivos. circulares. planificar. etc. informes escolares. sentimientos. Es un medio de autonomía a través del desarrollo de la confianza en la utilización de la palabra escrita como guía para la acción. poner en práctica los planes y mantener registros que ayuden a valorar las prácticas. pero también refleja otros aspectos personales integrados en la misma. con el objetivo de analizar el funcionamiento interno del centro o de una parte del mismo. elabore y su finalidad y forma de analizarlo. Utilizado en un contexto evaluativo contribuye a desarrollar el proceso de autorreflexión. Es un vehículo para facilitar la relación de apoyo y de crítica. observaciones. A pesar de ser considerado como un documento para la reflexión personal sobre el desarrollo profesional. cuadro de horario. el diario. son consideradas como importantes por Zabalza (1991) para la investigación educativa y para analizar el pensamiento y los dilemas que se le presentan al profesor en la práctica. e) Diarios Se trata de analizar los informes personales cuyo contenido puede ser muy variado (preocupaciones. Es un componente dentro de un repertorio de métodos de evaluación. Para Schratz (1992). White (1985) considera. integrando en la medida de lo posible a los estudiantes con objetivo de introducirles y hacerles conscientes de los procesos de autoevaluación y contribuir en procesos de autoreflexión. archivos. folletos. informaciones del tablón de anuncios. * Según el autor se deben tener en cuenta los siguientes principios en la redacción de los diarios: . cartas.. debe servir para estimular la reflexión y la discusión colegiada. en el contexto de un proyecto de investigaciónacción de profesores universitarios. Se utilizan entre otros documentos importantes cartas. es un documento personal que se escribe para consignar pensamientos.. revistas o periódicos escolares. por el potencial que ofrece: * * * Es un mecanismo para explorar las prácticas. expresando la forma intelectual de vivir la experiencia. pudiendo ser potentes instrumentos de autocontrol del proceso de enseñanza (diario de profesores) o de aprendizaje (diario de alumnos y profesores). . trabajos de los estudiantes. reflexiones.. Su validez en investigación cualitativa depende del contexto en el que se utilice. explicaciones. historias de vida. Los diarios en el contexto de documentos personales. planificaciones de los profesores. impresiones y sentimientos sobre situaciones docentes. autobiografías.).

esto puede conseguirse estableciendo un enfoque previo al inicio de la redacción y procedimientos para el diálogo en el que se comparten los diarios. y cómo se relaciona este proceso con otros existentes en el mimo centro educativo. exámenes.- f) La carpeta de enseñanza. tanto de uno mismo como de los otros. sólo evalúa el progreso del estudiante. Se reservaran momentos especiales en el horario para compartir los diarios. proyectos. que se está utilizando en la Universidad de Stanford (Shulman. Explica el uso de la carpeta de enseñanza para explicar tres campos: Cómo planifica y enseña el profesor una parte del currículum. Sobre el cambio en las prácticas educativas en su contexto. y las relaciones entre estudiantes y profesores. 4. interrogantes. Para Shulman (1992) el portafolio es un documento físico que recoge las preguntas de los profesores y las respuestas reflexivas que van dando.66) distinguen cuatro tipos de reflexiones que deben constar en el diario de un proyecto de investigación-acción: 1. así como sobre los cambios que se vayan iniciando en la estructura organizativa formal. puede convertirse en un medio de evaluación colaborativa en cuanto que sirve para la reflexión del profesor.2. ya que considera que es una técnica que proporciona evidencia sobre el pensamiento y la práctica del profesor. 1992). Por tanto. La carpeta de enseñanza.a) b) c) d) e) El diario debe ser realizado por todos los participantes implicados en el proceso. g) Cuadernos. Sobre los cambios en los modos de participación del grupo en el proceso de investigación-acción mismo. para valorar la calidad de la enseñanza. autoevaluación del profesor. pero también para que otros comprendan el significado desde el punto de vista de los sujetos. se reservarán para ser escritos ininterrumpida y silenciosamente Debe compartirse con otros participantes todo aquello que se escriba. el conocimiento y la comprensión del profesor. y profundizar en el conocimiento y valoración de las prácticas de enseñanza por el análisis documental y la entrevista sobre ello. trabajos. y cómo crea un ambiente que favorece la enseñanza. Se tienen en cuenta el contexto. Kemmis y McTaggart (1992. es una técnica de investigación y evaluación educativa.3. Además contiene la observación directa del profesor en sus clase. esta técnica. preguntas. La redacción del diario requiere una estructura y un ambiente de apoyo. ensayos. Sobre los cambios en las relaciones sociales ente las personas integradas en su misma actividad. Los momentos especiales del curso. Athanasses (1991) utiliza este medio en la evaluación de la enseñanza de la lectura y escritura. así como sus reflexiones. el contenido. y en el que se contiene variedad de información que consta en documentos.Sobre el cambio en la utilización del lenguaje y sobre un discurso más coherente en relación con la preocupación temática que se estudia. con fines formativos. .p.

Sirven. y puede utilizarse para evaluar cierto aspectos e los procesos de enseñanza.. que exigen también respuestas escritas. se ha utilizado otra técnica denominada "carta abierta". y que además pueden consignarse en alguno forma de representación escrita o no. sobre todo si es diferente de otros profesores. motivación.aprendizaje. Es un medio de control del cual no se debe abusar en detrimento de otras actividades que pueden ser más enriquecedoras como observar. y sirve para evaluar la comprensión como los sentimientos. Schratz habla de otras técnicas como la del "minuto de escritura".. de conocimiento y autoevaluación de la enseñanza. y a su vez el profesor obtendría una visión más amplia de cada cuestión debido a estos comentarios subjetivos. reacciones. imaginar. discutir. opiniones y valores. la cual consiste en obtener. organización. el cuestionario es una de las técnicas más usadas y sencilla utilizadas en evaluación. y la valoración que se hace de ellos. para elaborar informes diarios de cada tema. como base para la reflexión. Dado que en la investigación de Schratz es muy importantes la comunicación y la evaluación en ambas direcciones. su debilidad se fundamenta en la limitación de las opciones para responder. j) Cuestionarios. Los estudiantes están muy motivados a dar sus propias opiniones. disciplina. Este procedimiento proporciona conocimiento sobre la comprensión de los estudiantes. idear. Se trata de una forma de comunicación. Para Schratz (1992). sobre todo si se presentan resultados. una respuesta rápida e individual de algunos aspectos del proceso de enseñanza-aprendizaje. h) Muestras de cuestiones tipo. Se componen de preguntas escritas. la cual ayudará al profesor a juzgar posteriores pasos en el enfoque dado.. en las que cada estudiante añade a la pregunta su propia interpretación. k) Entrevistas. pensar. por ello sería buena la idea de que los estudiantes pudieran escribir una corta explicación del por qué han tomado determinada opción. creencias. Se tratan de fichas en las que se registra información referente a distintos tipo de temas: actividades.Es el registro de actividades en determinados tiempos.. Puede servir para obtener más información o apoyo de los estudiantes. . analizar. sin embargo brinda una información más rica de la experiencia individual. abiertas o cerradas. Similar a un cuestionario abierto podemos encontrar el cuestionario de "completar frases". El problema de esta técnica es que ofrece dificultad en orden a estandarizar los resultados. en la que se pide a los estudiantes que respondan a dos preguntas: )Qué es lo más significativo que he aprendido hoy?.. )Cuál es la cuestión fundamental que me queda en la mente al terminar la clase?. Sirve de evaluación.. de forma sencilla y escrita. Otra técnica es la del "feedback inminente". Son recopilaciones de diversos materiales con un fin determinado. i) Archivos. Sin embargo. percibir.

y para analizar las categorías de respuestas se van consignando en la UVE. se graba. b) Estructuración de las preguntas. y desde las preguntas amplias a las detalladas. Novak y Gowin (1988) enfatizan en la importancia de la entrevista como instrumento de evaluación del aprendizaje significativo. estructuradas y semiestructuradas. una planificación cuidadosa de la entrevista. planificadas pero no estructuradas. y juicios de valor y trasferencia. sobre todo al comenzar. Novak y Gowin. también ayudan a conocer las actitudes y valores de los estudiantes y los procedimientos que utilizan para resolver la tarea. Una de las aportaciones de Piaget. . para facilitar la organización de conceptos y ejemplos de una instrucción posterior. En la planificación de una entrevista hay que tener en cuenta los siguientes elementos: a) Selección del contenido. y pedir explicaciones sobre lo que sucede. Este tipo de entrevista implica un mayor esfuerzo en la investigación evaluativa ya que se confrontan tres perspectivas. es decir. proponen categorizar los tipos de respuestas en válidas y erróneas. partir de la tarea que se está realizando. Posteriormente se entrevista al profesor y a los estudiantes. Basándose en la utilización que hizo Piaget de la entrevista para evaluar las capacidades cognitivas. e) Evaluación de las entrevistas. Se debe averiguar previamente qué sabe el alumno sobre un tema o cuerpo de conocimiento determinado. Por ello dan algunas reglas para ordenarlas. c) Selección de materiales auxiliares. de las que se solicitan explicaciones. Apoyan a la tarea. en la que un observador externo participa en la entrevista con fines evaluativos. así como las preguntas que hacen posible observar las regularidades en las respuestas de los niños. Se basa la entrevista en un mapa conceptual. Gowin observó que la UVE de evaluación contradice la teoría de los estadios de Piaget. el análisis de las entrevistas mediante la UVE. y son el punto de partida de las preguntas más útiles para averiguar la comprensión de los estudiantes. fue el haber ideado los hechos y objetivos específicos que usaba en las entrevistas. ya que en todos los estudiantes. Gowin (1988) propone otro sistema de categorías. El problema de este procedimiento es el excesivo tiempo que hay que dedicarle. según estos autores. proceder de lo fácil a lo difícil. Otro tipo de entrevista es la que Schratz (1992) denomina "entrevista triangular". pero suele aportar información sobre problemas específicos o áreas de interés. relación. se puede encontrar todo tipo de respuestas que pertenecen a las distintas categorías del pensamiento. Deben hacer referencia a cuestiones claves. d) Ordenación de las preguntas. incluidos los más pequeños.Las entrevistas pueden ser de varios tipos: no planificadas. La entrevista sirve para indagar qué conceptos han adquirido o poseen los estudiantes. Los autores no aconsejan la pregunta arbitraria. cómo pueden activarse conceptos y estructuras para resolver problemas. cuál es su estructura. Toda entrevista debería grabarse y analizarse mediante un sistema de categorías de conocimiento. recogiendo información sobre ciertos aspectos y problemas. de forma que se puede descubrir cómo funciona la mente del estudiante y qué teorías sostiene.

Útiles para registrar "incidentes críticos". q) Análisis de metáforas Revelan ideas y definiciones de los problemas que subyacen a los programas. Su problema es el largo tiempo que hay que dedicar para una transcripción completa. inputs y resultados. señalan cuatro categorías de comportamientos que pueden registrarse: comportamiento verbal del estudiante y del profesor. desarrollar actitudes sociales o mejorar las relaciones personales. m) Inventarios y listados de interacciones. Schratz (1992) comenta que la observación directa produces ansiedad en los profesores. Pueden servir para formar grupos de trabajo. Para crearlos se comienza por hacer declaraciones cortas de un problema para después centrar la atención sobre dos términos que representan un dilema. Se representa un visión global del programas en sus contexto con los procesos. Schratz (1992) utiliza esta técnica para el análisis de la interacción entre profesor y estudiantes. p) Observación de clases. aspectos de la actividad de la clase. Sin embargo sería útil la observación entre compañeros de forma regular. Técnica muy útil para la evaluación de los procesos de enseñanza-aprendizaje. o) Fotografías y diapositivas. y después se relacionan mediante palabras de enlace. s) Algoritmos relacionales. ñ) Grabaciones en vídeo. determinados productos. o de aspectos concretos. Por ello Kemmis y McTaggart consideran necesario un listado de interacciones para agilizar el análisis. de clases grabadas o de reuniones. para así compartir significados que ayuden al crecimiento continuo personal y profesional. r) Mapas conceptuales. y sus interrelaciones. Con este método se pretende averiguar qué individuos son apreciados o rechazados en un grupo. Sirven para registrar los datos de la observación. También sirven como referencia para entrevistas con los estudiantes. que pueden poner de manifiesto . Kemmis y McTaggart. o de parte. Facilita el registro de toda la clase. comportamiento no verbal del estudiante y del profesor n) Grabaciones en audio. Son útiles en reuniones de trabajo y para la interacción con el alumno en clase o en grupos.l) Métodos sociométricos. para analizarla posteriormente. y quienes se aprecian o rechazan mutuamente. También se ha utilizado en el análisis del pensamiento del profesor.

Sirven para diagnosticar lagunas. así como la expresividad y originalidad del alumno.la primacía de unos elementos frente a otros. a) Los exámenes escritos. etc. clarifica sus objetivos. c) * Características que deben reunir las pruebas. La prueba debe estar . Los exámenes suponen una importante experiencia de aprendizaje ya que obliga a revisar. que tienen lugar en determinados momentos del proceso de enseñanza/aprendizaje. A través de ellas se puede expresar el conocimiento obtenido. b) Se comprueba el aprendizaje del alumno mediante el diálogo con el profesor. para poder rendir y expresar el aprendizaje. o igualdad y complementariedad entre los dos conceptos. Ausbel (1983) consideraba que los exámenes tienen algunos valores positivos: a) A la vez que el profesor piensa qué debe ser objeto de examen. a) b) c) Pruebas de ensayo. TÉCNICAS CUANTITATIVAS. constar logros. alumnos. t) Recuadros de frases Se usan para comparar las visiones y descubrir los aspectos críticos del programa. cuantitativas. Para ello se encuadran las descripciones del programa hechas por distintas personas: director. No todos los exámenes se construyen sobre pruebas objetivas. lo cual le sirve de autoevaluación. de producción de determinadas obras o experimentos de laboratorio. durante y después. al mismo tiempo que comunica sus expectativas a los alumnos al indicarles cuáles son los aspectos fundamentales de la materia y que forma puede tener el examen. Pruebas objetivas de respuesta breve. Proporciona conocimiento de su tarea al profesor. 1990). Pruebas orales. aclara y consultar los conocimientos antes. profesores. En cuanto a la elaboración las cuestiones deben ser representativas del contenido que se pretende evaluar. Los estudiante aprenden a evaluar sus propios resultados a través de ellos. Pruebas formales de elaboración de respuestas. Test de rendimiento de los estudiantes. b) c) d) e) Tipos de pruebas escritas. Se basan en la comprobación del aprendizaje de contenidos disciplinares. Tienen un papel motivacional. sin embargo existe una tendencia a la cuantificación. Requieren mucho tiempo y un clima socioafectivo adecuada para que puedan suponer una situación de pensamiento y de trabajo intelectual adecuado. Se relacionan con la evaluación periódica y sumativa (Rosales.

Así las órdenes de evaluación especifican que "los profesores/as evaluarán los procesos de enseñanza y su propia práctica docente en relación con el desarrollo del currículo. Asimismo. - . se trata de comparar lo logrado con lo pretendido. La evaluación del aprendizaje de los alumnos se convierte en autorregulación del proceso de enseñanza. * * LA EVALUACIÓN DEL CURRICULUM EN LA REFORMA Algunas de las principales funciones y sentidos de la evaluación fueron ya recogidos en la L. La evaluación de la enseñanza se debe realizar en un triple nivel: evaluación del proceso de enseñanza y práctica docente. y en criterio de si es necesario reformular el diseño y programación realizado. En la medida que el lugar y la función de la evaluación en el propio Diseño Curricular sigue siendo el mismo (Escudero. evaluarán el Proyecto Curricular y las programaciones de aula emprendidos. 1990c). la relación entre la evaluación del proceso de aprendizaje y la evaluación del proceso de enseñanza. es decir. después de un período de indecisión sobre qué aspectos formales debían incluir los Proyectos curriculares de Etapa. Criterios generales sobre evaluación de los aprendizajes y promoción de los alumnos. de modo que permita tomar las decisiones para. Por lo que es dificil hacer una evaluación que permita juzgar si se han alcanzado los objetivos deseados".E. La finalidad de la evaluación. con una cierta novedad. Su aplicación puede tomar mediadas sobre la promoción de un alumno. En este sentido Zabalza (1987) habla de la influencia del contexto de aprendizaje que juega en la asociación de preguntas y respuestas. además de reconducir el proceso de aprendizaje.adecuadamente elegida a los fines planteados y la formulación debe ser clara. o con fines formativos. los datos y las condiciones en las que se han producido. Tyleriano :"¿Qué. es obtener (MEC. * En cuanto a la aplicación. adecuar el diseño y desarrollo de la programación. Los Reglamentos Orgánicos de los Centros (1993) determinan.1992b) "información que permita adecuar el proceso de enseñanza al progreso real en la construcción de aprendizajes de los alumnos".G. La corrección debe tener en cuenta qué aspectos y contenidos deben puntuarse y con qué prioridad. de 1970. En cuanto a la medición. del proceso de aprendizaje de los alumnos. en virtud de su desarrollo real y de su adecuación a las características específicas y las necesidades educativas de los alumnos y alumnas". cómo y cuando evaluar?. Por eso se plantea. que deberán incluir las siguientes decisiones relativas a la evaluación: La distribución de los objetivos. para tomar decisiones sobre la planificación y el desarrollo del currículum en los procesos siguientes. y del Proyecto curricular. el juicio de valor que emitimos sobre la calificación otorgada cuando se analizan los resultados y los procesos. contenidos y criterios de evaluación de las distintas áreas. es importante reducir el nivel de ansiedad de los alumnos a través de una información previa sobre el conocimientos de que la prueba va a consistir en aspectos importantes a los que ha dedicado tiempo y tareas suficientes. Por último se produce la evaluación.

qué núcleos de conocimientos humanos deben formar parte del currículo escolar de una determinada etapa/ciclo. se plantean dos cuestiones principales: 1) Selección de contenidos. Proceso de dinámica de trabajo conjunto. tanto en la selección. desde una triple perspectiva de criterios-guía: 1. en el apartado dedicado a los contenidos curriculares. Aspectos como la determinación del contenido.Perspectivas de proceso. si dicha selección debe basarse en los corpus disciplinares o incluir contenidos de otras fuentes necesarios para la vida cotidiana. distribución y equilibrio que se ha realizado de los contenidos. acuerdo/consenso por el que se ha llegado al documento o propuesta. del Ciclo respectivo o en cada unidad didáctica. compromiso. prescrito oficialmente o no.. LA EVALUACIÓN DE LOS DOCUMENTOS INSTITUCIONALES EN EL CENTRO. La secuenciación de contenidos interciclos e intraciclos se debe efectuar al triple nivel de Proyecto Curricular de Etapa. enunciados de tópicos. dependientes de la perspectiva adoptada. a nivel de diseño curricular. para sacar nuevas posibilidades. Grado en que está completa la "cubierta curricular" externa del currículo oficial: p. * * 2. Congruencia con los materiales curriculares ("libros de texto") utilizados. de acuerdo con lo señalado en este Proyecto Docente. orientaciones.- Criterios para evaluar y. me parece. Elaborada una determinada distribución y secuenciación de los contenidos del curriculo. En la evaluación del Proyecto Curricular se especifica que se evaluará "la validez de la secuenciación de los objetivos y contenidos por ciclos". distribución y secuenciación por ciclos. están cubiertos aparentemente todos los bloques temáticos. Grado en que ha empleado creativamente el potencial curricular del curriculo básico.Perspectiva de "fidelidad": * Grado de concordancia/fidelidad con los criterios. * * . no previstas en el curriculum oficial. en su caso. revisar los procesos de enseñanza y la práctica docente de los profesores. 2) Organización y secuenciación. una vez que se ha llevado a cabo una primera implementación y desarrollo práctico. se pueden analizar los criterios/indicadores para juzgar/evaluar la adecuación del "prototipo de diseño curricular" realizado. generando un currículo "propio". son dimensiones del problema de la selección del contenido curricular.e. etc. establecidos oficialmente para la elaboración de proyectos curriculares de centro. desarrollo o adaptación: * Grado de adaptación/variación de las prescripciones oficiales para lograr una adaptación mutua a la situación del contexto local del Centro.. En relación con la evaluación del contenido curricular en los Proyectos Curriculares.

etc.) son una mezcla de estos dos componentes: Teoría de la Elaboración y Psicología Constructivista. A modo de ejemplo. 1991: 20-23. delimitación de las ideas eje. * Secuencia los contenidos. b) El carácter de las relaciones entre profesores y alumnos y entre los mismos profesores. aplicables a la vida diaria y útiles. además del análisis específicos del Proyecto Curricular de Etapa. * Incluye. creo. 1992b: 36-41. MEC. Esta evaluación. INDICADORES DE EVALUACIÓN DEL CONTENIDO DEL PCC *Incluye los contenidos. * Recoge suficientes opciones de contenido. la consideración de los siguientes aspectos: a) La organización del Centro y el aprovechamiento de los recursos. según las orientaciones y normativa oficial. 1991: 45-50. El Proyecto Curricular de Etapa/Centro. para cada ciclo o curso de la etapa. La evaluación del proceso de enseñanza y de la práctica docente.3. al menos. en las diferentes áreas o materias.. resulta problemático aplicar en una lógica supervisora un conjunto de indicadores externos. Estos criterios son: Pertinencia con el desarrollo evolutivo y los aprendizajes previos del alumnado.Perspectiva "oficialista": * Los criterios de secuenciación de contenidos aducidos repetidamente en la literatura oficial (Del Carmen y Zabala. * Es coherente la secuenciación vertical de contenidos. 1992. para la elección por parte del alumnado VALORACIÓN 12345 12345 12345 12345 12345 12345 12345 12345 12345 12345 Indicadores de Evaluación del contenido en el Proyecto Curricular del Centro (Casanova. elección de un tipo de contenido como eje vertebrador de la secuencia. marcados legalmente como obligatorios. los criterios externos uniformados para evaluar el Proyecto curricular de Etapa se pueden ver los indicadores de evaluación que aparecen en la siguiente tabla. de manera que resultan: funcionales. deberá valorar todos y cada uno de los elementos que componen el propio Proyecto curricular. en su caso. * Adecua los contenidos a las características del entorno. deberá abordar. * Tiene en cuenta los contenidos que se trabajarán en la etapa posterior. para que pueda ser un instrumento válido para la práctica pedagógica. así como la . 1993). por áreas o materiales. * Tiene un cuenta los contenidos trabajados en la etapa anterior. al margen del proceso y realidad interna del Centro a que responda el Proyecto curricular. continuidad y progresión. Pueden. * Adecua los contenidos a las peculiaridades del alumnado. exige su evaluación por parte del Claustro de profesores. coherencia con la lógica de las disciplinas a las que pertenecen los contenidos de aprendizaje. interrelación y presencia de temas transversales. En cualquier caso. los contenidos transversales. significativos. * Es coherente la secuenciación horizontal de contenidos de las diferentes áreas o materias. ser empleados complementariamente indistintamente desde una perspectiva de fidelidad o de desarrollo. Del Carmen. equilibrio. por áreas o materias.

Nos fijaremos. EVALUACIÓN DE LOS CONTENIDOS La evaluación del grado de aprendizaje de contenidos curriculares impartidos. madres o tutores legales. para uniformarlas en función de esos mínimo. 1992). Claustro de Profesores. Departamentos y tutores d) La regularidad y claridad de la relación con los padres. además de señalar diversos campos de actuación en la enseñanza. éstas prácticamente desaparecen en su dimensión sustantiva. Por ello los "criterios de evaluación" se convierten en objetivos terminales en la práctica. al igual que sucede con las estrategias e instrumentos de evaluación más apropiados en cada caso" (Coll y otros. de perspectivas/juicios de los diferentes profesores. En analogía con la definición operacional de inteligencia (lo que es medido en los test). los procedimientos y las actitudes. más o menos mensurables. con un sentido formativo o continuo. se convierte en "institución creadora de conocimientos" (Kvale. algunos a procedimientos y casi ninguno a contenidos actitudinales. como objetivos que los alumnos tendrán que haber cubierto al final del proceso. el contenido curricular operativo para los alumnos es lo que es evaluado en los exámenes.convivencia de entre los alumnos. Por ahora. EVALUACIÓN DEL PROCESO DE APRENDIZAJE Los "criterios de evaluación" de Enseñanzas mínimas se refieren mayoritariamente a contenidos conceptuales. Con lo que hay una contradicción entre lo proclama de novedad o la Reforma que era hacer explícito el currículo oculto por medio de la dimensión de "normas. La distinción entre tres tipos de contenidos quiere indicar. lo que convierte la propuesta inicial de un currículo abierto y flexible de facto en currículo semicerrado. y cuando se intentan determinar los criterios de evaluación. 2) Que el proceso de evaluación esté integrado en el propio proceso de enseñanza-aprendizaje. aquí nos referimos sólo al primer sentido. y esa será la lectura que hará el profesorado (y las propias editoriales). prescriptivo. tal vez porque en su propósito de especificar criterios. en esta segunda dimensión . 1992:17). y 3) la labor de evaluación es conjunta del equipo de profesores: integración de juicios. c) La coordinación entre los órganos y personas responsables en el Centro de la planificación y desarrollo de la práctica docente: Equipo Directivo. . valores y normas presentan algunas diferencias sustanciales entre sí. siendo juzgada toda la labor educativa de modo integrado. que "las estrategias didácticas y los procesos psicológicos mediante los cuales se enseñan y se aprenden los hechos. actitudes y valores". que interacciona y suele ser dependiente con los contenidos planificados y trabajados en el aula. en los criterios de evaluación referidos a los contenidos comunes válidos de una disciplina. definiendo éstos el conocimiento válido en un campo disciplinar. en las actitudes no son fáciles de expresar. que deja poco margen a las potenciales interpretaciones y prácticas docentes divergentes del profesorado. Equipo Técnico de Coordinación Pedagógica. EVALUACIÓN INTEGRADA O DIFERENCIAL La evaluación integrada se debe entender con un doble sentido: 1) No separa aspectos conceptuales de los actitudinales. por la evaluación que se efectúa del aprendizaje de los alumnos. conceptos.

no obstante. * Uso y aplicación práctica en situaciones apropiadas. debiera significar que han de ser evaluados de manera global e integrada.Evaluación de contenidos conceptuales: La distinción entre conocimiento factual. tolerar. * Principios: Comprensión de relaciones entre conceptos o hechos. enumerar. etc.E" de 11 de noviembre). preferir. relación e integración. experimentar. * Observación sistemática en sus diversas variantes y situaciones. reproductivo y aislado. tanto en Primaria como en Secundaria Obligatoria. uso y aplicación) de un conjunto de habilidades y estrategias. etc. tipo de aprendizaje y formas de evaluación. cognitivo y comportamental. explicar. La Orden del MEC de 30 de octubre de 1992 ("B. manejar. Así haber situado formalmente el campo de las actitudes y valores como contenidos de toda enseñanza. la "apreciación sobre el grado de asimilación de los contenidos de las diferentes áreas o materias". * Definición. PROCEDIMIENTOS: Distintas acciones y estrategias para resolver objetivos o alcanzar metas. generalización. y los criterios para juzgar el nivel de aprendizaje alcanzado puede ser distinto. valores y normas * Componente afectivo. con estos presupuestos referirnos específicamente a cada tipo de contenido: 1. y no los resultados objetivos extrínsecos que se consiguen. Criterios y Formas de evaluación SABER: Conocer. Clases de contenidos. valorar. los que hacen "educativa" una actividad. . al mismo nivel que los restantes. SABER HACER: Elaborar. aplicar.Que los instrumentos y procesos de evaluación tengan que ser diferentes en cada tipo de contenido. * Conceptos: significativo. sobre los elementos básicos de los informes de evaluación. Tipo de aprendizaje * Hechos: memorísticos. * Predisposición a actuar de una determinada forma socialmente deseable. pretende ser relevante didácticamente por implicar distintos procesos de aprendizaje. son las cualidades. construir. Podemos. Interpretando de modo extremo lo anterior. * Conocimiento y utilización (funcionalidad. resumir. valores y principios intrínsecos al propio proceso educativo. destrezas o hábitos a las tareas o situaciones particulares.O. Clase de contenido CONCEPTUAL: Hechos conceptos y principios. analizar. etc. métodos. no debe significar en ningún caso que cada tipo de contenido tenga una evaluación diferenciada. ha diferenciado la evaluación de la adquisición de cada tipo de contenido en cinco grados para cada área. aceptar. identificación. exposición. planificar. Integración de acciones. contextualización. etc. respetar. apreciar. demostrar. recordar. categorización. conceptual y de principios. describir. puestos de manifiesto en la misma forma de llevar a cabo la acción. relacionar. EVALUACIÓN DE LOS CONTENIDOS Como señalo Stenhouse. entre otros elementos. VALORAR: Comportarse. especifica que el Informe de Evaluación Individualizado contendrá. sentir. etc. reglas. como ejemplo de lo que no debe hacerse. ACTITUDINAL: Actitudes.

y la adecuación de los criterios de evaluación/promoción. la coordinación y coherencia entre los profesores de cada ciclo. FUTURO DE LA EVALUACIÓN. . Aquellas evaluaciones que afecten al Proyecto curricular introduciendo algunos modificaciones deberán reflejarse en la Programación anual. cuyo formato específico se deja como decisión a los centros. y deberá ser aprobado por el Claustro. aunque el "saber cómo" suele presuponer el "saber que". el ambiente de aula y clase y la propia actuación personal. Su evaluación debe referirse a destrezas de distinto rango. 2. El plan para evaluar el proceso de enseñanza-aprendizaje se encomienda a un Equipo técnico la comisión Coordinación Pedagógica. la coordinación en el ciclo o interciclos. Solo si tenemos claro el sentido de la evaluación en este ámbito (por qué. que emitirán los profesores al término de cada curso académico en Primera y Secundaria Obligatoria. procedimentales y actitudinales de las diferentes áreas o materias". referida a tres aspectos fundamentales: el ambiente del aula. son inferidas a partir de acciones manifiestas. Evaluar estos contenidos actitudinales trae consigo dos problemas: uno técnico-metodológico y otro ético. cuya finalidad es servir de orientación para evaluación inicial del primer ciclo de educación primaria (en el caso de Infantil) o de los ciclos o etapas siguientes.Evaluación de procedimientos: Pretende incidir en que los alumnos aprendan a saber hacer y transferir funcionalmente a otros contextos las habilidades adquiridas.- LA DIFUSIÓN DE LA EVALUACIÓN: TIPOS DE INFORMES Se prescribe la realización de un Informe Anual y de un Informe de Evaluación Individualizado (IEI). incluye la "apreciación sobre el grado de asimilación de los contenidos conceptuales. para qué.estrategias de enseñanza y modos de evaluación. con que legitimidad) podríamos entrar en qué métodos o técnicas nos podrían ser útiles en este sentido. aparte de los destinados a las familias. Evaluación de los contenidos actitudinales: Las actitudes adquiridas no suelen ser directamente evaluables. diferente de abstracción. 3. desde estrategias cognitivas a la utilización de técnicas e instrumentos. Así un concepto no se puede evaluar igual si fuera un dato o un principio. Pero también el Claustro o el Consejo Escolar de Centro pueden tener la iniciativa de poner en marcha programas de evaluación sobre el funcionamiento del Centro educativo. En el ámbito del Ciclo y la Etapa el desarrollo de la programación o Proyecto curricular. y la calidad y regularidad de las relaciones con los padres. De acuerdo con la literatura oficial se aconseja que acerca de la práctica docente en el aula se deberá valorar el diseño y desarrollo de cada unidad didáctica. de manera que se garantice la continuidad del proceso de aprendizaje. El Informe de Evaluación Individualizado (IEI). pues suele implicar procesos de un nivel sino más alto. Esta evaluación debe efectuarse al comienzo de cada ciclo y al finalizar. EVALUACIÓN DE LOS PROCESOS DE ENSEÑANZA-APRENDIZAJE Como otro ámbito de la evaluación se pretende que los maestros y profesoras evalúen su propia práctica docente.

Eastmond (1991) defiende que en losa años 90 la evaluación se enfocará hacia la calidad. B) SOBRE LOS MÉTODOS EN LA EVALUACIÓN. y ya que los sistemas educativos hoy no son competitivos. porque a su juicio hacen demasiado hincapié en ser útiles para los que toman decisiones. que puedan tener en cuenta distintas variables para concebir programas teóricamente. En el año 1989. La mayoría de los modelos se desarrollaron en los años sesenta y setenta. ya que los métodos no están inherentemente ligados a un determinado paradigma. se desarrollarán sistema de evaluación con mecanismos para asegurar y promover la calidad. que hubiera dado lugar a nuevas visiones o modelos. porque son muchos los factores que influyen en el éxito de un determinado programa y no sólo éste. Sttuflebeam. E) SOBRE LOS AGENTES DE LA EVALUACIÓN. no es lo mismo usar métodos mixtos. Scriven. hay que hacer estudio de casos con métodos cualitativos. y algo importante será relacionar evaluación de programas y proyectos futuros. pero en adelante el énfasis deberá ponerse en el desarrollo del profesorado y en la mejora del currículum. C) EN CUANTO A LA FINALIDAD DE LA EVALUACIÓN. que. Weiss. De forma que Milburn (1992). dice que hay obras que tienen éxito si eliges a los participantes adecuados: Stake. los capítulos de cada uno de los autores aportan a la obra de McLaughlin y Phillips siguen mirando hacia adentro. pero además es el único medio para poder explora y descubrir si efectivamente trabajan de manera cualitativamente diferente. sin suponer un debate entre ellos. hacia sus posiciones. el conocimiento. Eisner. el trabajo de evaluación no termina con el informe de lo que sucede sino con la propuesta de estrategias de mejora. probablemente. Para los autores Greene y McClintock. Para determinados problemas sólo sirve la metodología cuantitativa. como los efectos des un programa de niños bisen dotados. Su argumento es que una sociedad creciente sofisticada valorará más la dimensión cualitativa como el primer elemento de competición. House. En caso singulares. aumentando. en nuestro país empezamos ahora a necesitar. para otros la cualitativa. y desarrollando alguno elementos de la práctica: instrumentos. etc. Igualmente. por otra parte. que un teoría mixta. . D) EN CUANTO AL OBJETO DE LA EVALUACIÓN. A) SOBRE EL MARCO TEÓRICODE LA EVALUACIÓN. a pesar de los pocos ejemplos prácticos de investigaciones que utilicen métodos mixtos. Es decir. en el año 1991.. técnicas. Greene y McClintock (1991)piensan que no se puede buscar la causa de la mejora de la educación en un programa de innovación curricular entendido como variable independiente. algunos autores revisan y hacen una reflexión debido a la petición de participación en la obra de House sobre evaluación. al hacer la recensión.. Por ello hay que tener en cuenta una variedad de perspectivas o aproximación a la evaluación desde enfoques mixtos.En los últimos años los teóricos de la evaluación se han dedicado a reflexionar. Ory (1991) hace una crítica a los programas de evaluación que se ha desarrollado durante los últimos veinticinco años. Clinkenbeard (1992) reflexiona sobre problemas educativos y tipos de programas.

pueden generarse nuevas asociaciones entre universidades. Pero en la empresa pública se confiará la evaluación a profesionales externos que puedan establecer comparaciones con otros programas similares. los profesores de los centros escolares pueden obtener experiencia en conducir trabajos de evaluación. centros escolares y la industria.Eastmond (1991) supone que en los próximos años se verá como natural la necesidad de evaluación interna dentro de las organizaciones. La Universidad puede proporcionar entrenamiento en técnicas de evaluación. y la industria puede proporcionar recursos y servir como canalizadora del cambio. En este sentido. Todos los grupos ganan por la interacción intelectual. La escuela pública puede proporcionar la prueba fehaciente del juicio sobre la realidad educativa. en apoyo de las nuevas tecnologías que emergen. .

Sign up to vote on this title
UsefulNot useful