Referencia: Reference

:
Escudero, Tomás (2003). Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista ELectrónica de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm. Consultado en (poner fecha).

This article in english version

(added March, 21th 2006)

Analysis / Análisis

Hits:

Visitas

DESDE LOS TESTS HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL. UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN (From tests to current evaluative research. One century, the XXth, of intense development of evaluation in education)
In format

po r
Tomás Escudero Escorza (tescuder@posta.unizar.es)

En formato

Article record About the authors Print this article

Ficha del artículo Sobre los autores Imprimir el artículo

Abstract
This article presents a review and state of art about development in educational evaluation in the XXth century. The main theoretical proposals are commented

Resumen
Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Se analizan los principales propuestas teóricas planteadas.

Keywords
Evaluation, Evaluation Research, Evaluation Methods; Formative Evaluation Summative Evaluation, Testing, Program Evaluation

Descriptores
Evaluación, Investigación evaluativa, Métodos de Evaluación, Evaluación Formativa, Evaluación Sumativa, Test, Evaluación de Programas

Introducción
En cualquier disciplina, la aproximación histórica suele ser una vía fundamental para comprender su concepción, estatus, funciones, ámbito, etc. Este hecho es especialmente evidente en el caso de la evaluación, pues se trata de una disciplina que ha sufrido profundas transformaciones conceptuales y funcionales a

lo largo de la historia y, sobre todo, a lo largo del siglo XX, en el que principalmente ubicamos nuestro análisis. En este sentido, la aproximación diacrónica al concepto resulta imprescindible.
Comments to this article Related articles: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

Comentar este artículo Artículos relacionados: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

El análisis la vamos a llevar a cabo basándonos en tres planteamientos que podríamos tachar de clásicos en la reciente literatura sobre el tema y que usamos indistintamente, aunque no tenemos la pretensión de ofrecer un planteamiento de síntesis, sino de utilización cabal de todos ellos, puesto que los tres planteamientos inciden sobre los mismos momentos y movimientos claves.

Un planteamiento, quizás el más utilizado en nuestro contexto (Mateo y otros, 1993; Hernández, 1993), es el que ofrecen Madaus, Scriven, Stufflebeam y otros autores, que en sus trabajos suelen establecer seis épocas, empezando su análisis desde el siglo XIX (Stufflebeam y Shinkfield, 1987; Madaus y otros, 1991). Nos hablan de: a) época de la reforma (1800-1900), b) época de la eficiencia y del «testing» (1900-1930), c) época de Tyler (1930-1945), d) época de la inocencia (1946-1956), e) época de la expansión (1957-1972) y f) época de la profesionalización (desde 1973), que enlaza con la situación actual. Otros autores como Cabrera (1986) y Salvador (1992) citan tres grandes épocas, tomando como punto de referencia central la figura de Tyler en el segundo cuarto del Siglo XX. A la época de Tyler se le denomina de nacimiento, a las anteriores de precedentes o antecedentes y a la posterior de desarrollo. Guba y sus colaboradores, sobre todo Yvonna Lyncoln, destacan distintas generaciones. Ahora estaríamos en la cuarta (Guba y Lincoln, 1989), que según ellos se apoya en el enfoque paradigmático constructivista y en las necesidades de los «stakeholders» (demandantes e implicados en la evaluación), como base para determinar la información que se necesita. La primera generación es la de la medición, que llega hasta el primer tercio de este siglo, la segunda es la de la descripción y la tercera la del juicio o valoración. Tras el análisis histórico, como complemento y como revisión de síntesis del mismo, ofrecemos un sucinto resumen de los enfoques evaluativos más relevantes, de los distintos modelos y planteamientos que, con mayor o menor fuerza, vienen a nuestra mente cuando intentamos acotar lo que es hoy en día la investigación evaluativa en educación

1. Precedentes: Antes de los «tests» y de la medición Desde la antigüedad se han venido creando y usando procedimientos instructivos en los que los profesores utilizaban referentes implícitos, sin una teoría explícita de evaluación, para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace más de tres mil años, para seleccionar a los altos funcionarios. Otros autores como Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se refiere a los exámenes de los profesores griegos y romanos. Pero según McReynold (1975), el tratado más importante de evaluación de la antigüedad es el Tetrabiblos, que se atribuye a Ptolomeo. También Cicerón y San Agustín introducen en sus escritos conceptos y planteamientos evaluadores. En la Edad Media se introducen los exámenes en los medios universitarios con carácter más formal. Hay que recordar los famosos exámenes orales públicos en presencia de tribunal, aunque sólo llegaban a los mismos los que contaban con el visto bueno de sus profesores, con lo que la posibilidad de fracaso era prácticamente inexistente. En el Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en su Examen de ingenios para las ciencias, defiende la observación como procedimiento básico de la evaluación (Rodríguez y otros, 1995). En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educación, se acentúa la necesidad de comprobación de los méritos individuales y las instituciones educativas van elaborando e introduciendo normas sobre la utilización de exámenes escritos (Gil, 1992). Entrado el siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación, tras la superación de exámenes (exámenes del Estado). Según Max Weber (Barbier, 1993), surge un sistema de exámenes de comprobación de una preparación específica, para satisfacer las necesidades de una nueva sociedad jerárquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a utilizar las primeras técnicas evaluativas del tipo «tests» escritos, que se extienden a las escuelas de Boston, y que inician el camino hacia referentes más objetivos y explícitos con relación a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todavía de una evaluación sustentada en un enfoque teórico, sino más bien, algo que responde a prácticas en buena medida rutinarias y con frecuencia basadas en instrumentos poco fiables. Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele señalar como la primera investigación evaluativa en educación (Mateo y otros, 1993). Se trataba de un análisis comparativo en escuelas americanas sobre el valor de la instrucción en el estudio de la ortografía, utilizando como criterio las puntuaciones obtenidas en los tests. 2. Los tests psicométricos En el contexto anterior, a finales del siglo XIX, se despierta un gran interés por la medición científica de las conductas humanas. Esto es algo que se enmarca en el movimiento renovador de la metodología de las ciencias humanas, al asumir el

pero no de los programas con los que se les había formado. olvidándose en gran medida la representatividad y congruencia con los objetivos educativos. sinónimo de evaluación educativa. que se define por características como las siguientes: • Medición y evaluación resultaban términos intercambiables. se desarrolla una actividad evaluativa intensa conocida como «testing». Consecuentemente con este estado de cosas. es decir. 1986). el hallazgo de puntuaciones diferenciales. se elaboraban para establecer discriminaciones individuales. c) El desarrollo de los métodos estadísticos que favorecía decisivamente la orientación métrica de la época (Nunnally. • El objetivo era detectar y establecer diferencias individuales. • Los tests de rendimiento. La actividad evaluativa se verá condicionada de forma decisiva por diversos factores que confluyen en dicho momento. siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los comienzos del siglo XX. de cálculo de Wood. En el campo educativo destacan algunos instrumentos de aquella época. 1978). de ortografía de Buckingan. para determinar la posición relativa del sujeto dentro de la norma grupal. Aparece la exigencia del rigor científico y de la objetividad en la medida de la conducta humana (Planchard. la experimentación. de redacción de Hillegas. apoyando la medición de las características de los individuos y las diferencias entre ellos. En palabras de Guba y Lincoln (1982). 1960) y se potencian las pruebas escritas como medio para combatir la subjetividad de los exámenes orales (Ahman y Cook. En Francia destacan los trabajos de . Ebel. Sin embargo. 1967). 1960. en este periodo entre finales del siglo XIX y principios del XX. fue en los tests psicológicos donde los esfuerzos tuvieron mayor impacto. En este sentido. los datos y los hechos como fuentes del conocimiento verdadero. Ahman y Cook. que apoyaban a la observación. b) La influencia de las teorías evolucionistas y los trabajos de Darwin. como la pedagogía experimental y la diferencial (Cabrera. 1967.positivismo de las ciencias físico-naturales. la evaluación y la medida tenían poca relación con los programas escolares. Los tests informaban algo sobre los alumnos. según sus conocimientos. de lectura de Thorndike y McCall y de aritmética de Wood y McCall (Planchard. En la práctica sólo se hablaba de medición. como las escalas de escritura de Ayres y Freeman. 1977). 1981). la evaluación recibe las mismas influencias que otras disciplinas pedagógicas relacionadas con procesos de medición. d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar unos mecanismos de acreditación y selección de alumnos. tales como: a) El florecimiento de las corrientes filosóficas positivistas y empíricas. Galton y Cattel. dentro del modelo del rasgo y atributo que caracterizaba las elaboraciones psicológicas de la época (Fernández Ballesteros.

Entre 1932 y 1940. como proveedor de instrumentos de medición. Tras la contienda. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas y d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección. Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa para lectoescritores y Beta para analfabetos) e inventarios de personalidad (Phillips. en algún caso. La década entre 1920 y 1930 marca el punto más alto del «testing». Como puede verse. Bonboir. 1972). Se criticaba. El papel del evaluador era técnico. 1968 y 1969. 1981). pues todavía existen textos y publicaciones que utilizan de manera indisoluble evaluación y medida (Gronlund. en manos de una interpretación totalmente personal del profesor. Ahora hablamos del Stanford-Binet. El nacimiento de la verdadera evaluación educativa: La gran reforma «tyleriana» Antes de que llegara la revolución promovida por Ralph W. Guba y Lincoln (1989) se refieren a esta evaluación como a la primera generación. Estas aplicaciones estandarizadas se acogen muy bien en los ámbitos educativos y McCall (1920) propone que los profesores construyan sus propias pruebas objetivas. expedientes académicos. muy en boga en el momento. incluso. uno de los tests más conocidos en la historia de la psicometría. incluso avanzados. para utilizar con grandes colectivos de estudiantes. Años más tarde. técnicas de repesca y tests. en último término. 1985). que puede legítimamente ser denominada como la generación de la medida. la mera evaluación psicológica. en su famoso . o la media de distintos correctores. superando desde el conductismo. Como solución se proponía: a) elaboración de taxonomías para formular objetivos. exámenes. esta primera generación permanece todavía viva. para no tener que confiar exclusivamente en las propuestas por especialistas externos. El fervor por el «testing» decreció a partir de los años cuarenta e. el divorcio entre lo enseñado y las metas de la instrucción. que supone un primer acercamiento a la verdadera evaluación educativa. después revisados por Terman en la Universidad de Stanford. Según estos autores. sobre tests de capacidades cognitivas. Tyler. con las necesidades de reclutamiento en la Primera Guerra Mundial. 3. sobre todo. b) diversificación de fuentes de información. en Francia se inicia en los años veinte una corriente independiente conocida como docimología (Pieron. La evaluación se dejaba. por ser el primero en dar una visión metódica de la misma. empezaron a surgir algunos movimientos hipercríticos con estas prácticas. Pero quien es tradicionalmente considerado como el padre de la evaluación educativa es Tyler (Joint Committee. los tests psicológicos se ponen al servicio de fines sociales. 1974). pues se idean multitud de tests estandarizados para medir toda clase de destrezas escolares con referentes objetivos externos y explícitos.Alfred Binet. basados en procedimientos de medida de la inteligencia. Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests psicológicos con el desarrollo de la estadística y del análisis factorial. se trata de criterios en buena medida vigentes actualmente y.

b) Determinación de las situaciones en las que se deben manifestar las conductas esperadas. teniendo en cuenta que deben marcar el desarrollo individual del alumno. en función de los resultados de los alumnos. 1989) y encajaba perfectamente en la racionalidad del análisis de la tarea que comenzaba a usarse con éxito en ámbitos educativos militares (Gagné. aunque sin desarrollar. exponiendo de manera clara su idea de «curriculum». es también un medio para informar sobre la eficacia del programa educacional y también de educación continua del profesor. 1982. por aquellos que utilizaron sus trabajos (Bloom y otros. porque supone un juicio de valor sobre la información recogida. padres y profesores. fácil de entender y aplicar (Guba y Lincoln. pero su función es más amplia que el hacer explícito este cambio a los propios alumnos. 1942). publicado dos años después (Smith y Tyler. A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de inmediato. algo que retomarán otros importantes evaluadores como Cronbach y Sufflebeam unos años después.Eight-Year Study of Secondary Education para la Progressive Education Association. e integrando en él su método sistemático de evaluación educativa. de la segunda generación de la evaluación. Esta evaluación ya no es una simple medición. 1982). 1967 y 1969). Guba y Lincoln. a la toma de decisiones sobre los aciertos o fracasos de la programación. d) Interpretación de los resultados de las pruebas. esta visión evaluativa global no fue suficientemente apreciada. Se trata. Para Tyler. las ideas de Tyler fueron muy bien acogidas por los especialistas en desarrollo curricular y por los profesores. plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. Su esquema era racional y se apoyaba en una tecnología clara. La obra de síntesis la publica unos años después (Tyler. 1950). El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos. c) Elección de instrumentos apropiados de evaluación. que deben ser cuidadosamente definidos en términos de conducta (Mager. la referencia central en la evaluación son los objetivos preestablecidos. los planteamientos de Tyler se extendieron con la Ley General de Educación de 1970. Se alude. 1971). En España. . e) Determinación de la fiabilidad y objetividad de las medidas. 1975. 1962). según Guba y Lincoln (1989). como el proceso surgido para determinar en qué medida han sido alcanzados los objetivos previamente establecidos (véase también Tyler. Desgraciadamente. House. ni explotada. pero dentro de un proceso socializador. El «currículum» viene delimitado por las cuatro cuestiones siguientes: a) ¿Qué objetivos se desean conseguir? b) ¿Con qué actividades se pueden alcanzar? c) ¿Cómo pueden organizarse eficazmente estas experiencias? d) ¿Cómo se puede comprobar si se alcanzan los objetivos? Y la buena evaluación precisa de las siguientes condiciones: a) Propuesta clara de objetivos.

1990) y aparecen las famosas taxonomías de los objetivos educativos (Bloom y otros.Tras la Segunda Guerra Mundial se produce un periodo de expansión y optimismo que Stufflebeam y Shinkfield (1987) no han dudado en calificar de «irresponsabilidad social». pero depende de su contenido. Fernández de Castro. En todo caso. antes de ponerse a evaluar. e) Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos. Lindquist. se . Krathwohl y otros. Medio siglo después de que Tyler revolucionara el mundo de la evaluación educativa. Para ello es necesaria una evaluación comprensiva de todos los aspectos significativos de su rendimiento. incluyendo el «portfolio». en abril de 1993. Unos meses antes. 1962. En rigor. Los actuales planteamientos de evaluaciones múltiples y alternativas deben ajustarse a este principio b) El propósito más importante en la evaluación de los alumnos es guiar su aprendizaje. Se escribe mucho de evaluación. Tyler murió el 18 de febrero de 1994. superados los noventa años de vida. se observa la fortaleza. la comparación de centros no es posible. 1970. entre otros. Se extienden mucho las instituciones y servicios educativos de todo tipo. Ralph W. 1956. Horowitz (1995) analiza el contenido y el significado de la citada entrevista. tras siete décadas de fructíferas aportaciones y servicios a la evaluación. sus ideas básicas. adecuada a las peculiaridades del alumno y el centro. hay que ser cauteloso ante la preponderancia de un solo procedimiento de evaluación. la aportación de la evaluación a la mejora de la enseñanza es escasa debido a la carencia de planes coherentes de acción. no basta con asegurarse que hacen regularmente el trabajo diario. en esta época. por el gran despilfarro consumista tras una época de recesión. se producen cantidad de tests estandarizados. una estudiante graduada de la Universidad de Stanford. 1973). por su incapacidad de abarcar todo el espectro de aspectos evaluables. coherencia y vigencia de su pensamiento. Popham y Baker. 1950. ayudarles a que aprendan. se avanza en la tecnología de la medición y en los principios estadísticos del diseño experimental (Gulliksen. Pamela Perfumo. 1964). 1953. Para ello. los siguientes aspectos en el pensamiento de Tyler al final de sus días: a) Necesidad de analizar cuidadosamente los propósitos de la evaluación. d) La verdadera evaluación debe ser idiosincrásica. a la investigación y a la educación en general. pero con escasa influencia en el perfeccionamiento de la labor instruccional. c) El «portfolio» es un instrumento valioso de evaluación. destacando. El verdadero desarrollo de las propuestas tylerianas vino después (Taba. Se trata de la etapa conocida como la de la inocencia (Madaus y otros. esto es. fue presentada el 16 de abril de 1993 en la Conferencia de la AERA que tuvo lugar en Atlanta. entrevistó a Tyler con el propósito de conocer su pensamiento acerca del actual desarrollo de la evaluación y de los temas controvertidos alrededor de la misma. Walberg y Haertel. Como acabamos de ver. Esta entrevista. convenientemente preparada. Sin embargo. convenientemente actualizadas. es necesario interaccionar con ellos de manera más frecuente y más informal. 1991).

Rutman. Para mejorar la situación y retomar la hegemonía científica y educativa. tras el lanzamiento del Sputnik por la URSS en 1957. Rodríguez y otros. relacionadas con la eficacia de los programas y el valor intrínseco de la evaluación para la mejora de la educación. ordenadores. sino orientada a incidir en los programas y en la práctica educativa global (Mateo y otros. y el objeto de valoración era el rendimiento de los mismos. y se estipuló que cada uno de los proyectos realizados con el apoyo económico federal debía ser anualmente evaluado. su enfoque y su última interpretación variará según el tipo de decisión buscada. 4.) y el de la enseñanza programada. Rutman y Mowbray. creándose una nueva evaluación no sólo de alumnos. Junto al desencanto de la escuela pública. como contribuyentes. Con esta ley se puso en marcha el primer programa significativo para la organización de la educación en el ámbito federal de los Estados Unidos. entre otras cosas porque se empezó a prestar interés por algunas de las llamadas de atención de Tyler. 1984).. Weiss. a fin de justificar subvenciones futuras.. En 1958 se promulga una nueva ley de defensa educativa que proporciona muchos programas y medios para evaluarlos. Este movimiento se vio también potenciado por el desarrollo de nuevos medios tecnológicos (audiovisuales. cabe señalar la recesión económica que caracteriza los finales años sesenta. sobre todo porque los rusos iban por delante en la carrera especial. El desarrollo de los sesenta Los años sesenta traerán nuevos aires a la evaluación educativa. 1983). 1976). fueron muchos los millones de dólares que desde los fondos públicos se destinaron a subvencionar nuevos programas educativos e iniciativas del personal de las escuelas públicas americanas encaminadas a mejorar la calidad de la enseñanza. 1980 y 1983. 1993. la era de la «Accountability». aunque ésta se centraba en los alumnos como sujeto que aprende. cuyas posibilidades educativas despertaron el interés entre los profesionales de la educación (Rosenthal. y los propios legisladores se preocupasen por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema escolar. y. 1983. Esta nueva dinámica en la que entra la evaluación. 1983. la década de los setenta. sobre todo. Ello hizo que la población civil.entroncan fácilmente en las corrientes más actuales de la evaluación educativa. de la rendición de cuentas (Popham. 1995). 1976. Rutman y Mowbray. (Popham. sus funciones. En 1964 se establece el Acta de educación primaria y secundaria (ESEA) y se crea el National Study Comitte on Evaluation. entra en escena un nuevo movimiento. 1981. . 1983). En esa época surge un cierto conflicto entre la sociedad americana y su sistema educativo. De la misma forma que la proliferación de programas sociales en la década anterior había impulsado la evaluación de programas en el área social. Stenhouse. 1984). Buena parte de culpa de este fuerte ímpetu evaluador americano se debió a la ya citada aprobación de la «Elementary and Secondary Act» (ESEA) en 1965 (Berk. Aparece un cierto desencanto con la escuela pública y crece la presión por la rendición de cuentas (MacDonald. A finales de los años sesenta. y como consecuencia de lo anterior. hace que. los años sesenta serán fructíferos en demanda de evaluación en el ámbito de la educación.

Como consecuencia de estos focos de influencia. Entre las objeciones a este tipo de estudios. La riqueza de ideas evaluativas expuestas en estos trabajos nos obligan a que. The methodology of evaluation. aunque en su línea de sugerencias. Estas reflexiones teóricas enriquecerán decisivamente el ámbito conceptual y metodológico de la evaluación. diera lugar a una oleada de protestas por parte del personal docente. Otra dimensión de la responsabilidad escolar nos la ofrece Popham (1980). lo que unido a la tremenda expansión de la evaluación de programas ocurrida durante estos años. De esta forma. profesor. de responsabilidad escolar. Cronbach abre el campo conceptual y funcional de la evaluación educativa mucho más allá del marco conceptual dado por Tyler. El sujeto directo de la evaluación siguió siendo el alumno. pero también todos aquellos factores que confluyen en el proceso educativo (el programa educativo en un sentido amplio. De hecho. y el de Scriven (1967). c) Poner en cuestión la necesidad de que los estudios evaluativos sean de tipo comparativo. entresacamos las sugerencias siguientes: a) Asociar el concepto de evaluación a la toma de decisiones. la legislación de muchos estados americanos instituyó la obligación de controlar el logro de los objetivos educativos y la adopción de medidas correctivas en caso negativo (MacDonald. por consiguiente. experiencias de aprendizaje. b) sobre los alumnos (necesidades y méritos finales) y c) acerca de la regulación administrativa sobre la calidad del sistema. Distingue el autor tres tipos de decisiones educativas a las cuales la evaluación sirve: a) sobre el perfeccionamiento del programa y de la instrucción. dará lugar al nacimiento de esa nueva modalidad de investigación aplicada que hoy denominamos como investigación evaluativa. Los grandes distritos escolares se dividieron en áreas geográficas más pequeñas. organización. funciones y metodología de la evaluación. las diferencias entre las . Es comprensible que. Del análisis que Cronbach del concepto. con un control ciudadano más directo sobre lo que ocurría en las escuelas. en el año 1973. con frecuencia. b) La evaluación que se usa para mejorar un programa mientras éste se está aplicando. etc. 1976. medios. y. etc. aunque brevemente. Como hitos de la época hay que destacar dos ensayos por su decisiva influencia: el artículo de Cronbach (1963). así como el propio producto educativo. cuando se refiere al movimiento de descentralización escolar durante los últimos años sesenta y principios de los setenta. se inicia durante esta época un periodo de reflexión y de ensayos teóricos con ánimo de clarificar la multidimensionalidad del proceso evaluativo. 1978). se amplió considerablemente el fenómeno de la evaluación educativa. Course improvement through evaluation. planteado así. el autor destaca el hecho de que. contribuye más al desarrollo de la educación que la evaluación usada para estimar el valor del producto de un programa ya concluido. este movimiento de rendición de cuentas. Como resultado de estas nuevas necesidades de la evaluación.que se asocia fundamentalmente a la responsabilidad del personal docente en el logro de objetivos educativos establecidos. nos refiramos a ellas.). profesores. contenidos. organización. Wilson y otros.

Cronbach aboga por unos criterios de comparación de tipo absoluto. reclamando la necesidad de una evaluación con referencia al criterio. Los cuestionarios. Si estas reflexiones de Cronbach fueron impactantes. ocupan un lugar importante en la evaluación. Así. c) Otra importante contribución de Scriven es la crítica al énfasis que la evaluación da a la consecución de objetivos previamente establecidos. las técnicas de evaluación no pueden limitarse a los tests de rendimiento. puesto que las diferencias entre los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas de los resultados. Estas funciones se relacionan con el uso que se hace de la información recogida. Propone el término de evaluación formativa para calificar aquel proceso de evaluación al servicio de un programa en desarrollo. d) Se ponen en cuestión los estudios a gran escala. el camino posterior seguido por los estudiantes que han participado en el programa. b) Scriven señala dos funciones distintas que puede adoptar la evaluación: la formativa y la sumativa. lo que el autor llama meta de la evaluación. supone en definitiva el proceso por el cual estimamos el valor de algo que se evalúa. bien controlados. que pueden usarse para comparar versiones alternativas de un programa. porque si los objetivos carecen de valor. f) Desde esta óptica. en contraste al casi exclusivo uso que se hacía de los tests como técnicas de recogida de información. El objetivo de la evaluación es invariante. las pruebas de ensayo. las entrevistas. y el término de evaluación sumativa para aquel proceso orientado a comprobar la eficacia del programa y tomar decisiones sobre su continuidad. e) Metodológicamente Cronbach propone que la evaluación debe incluir: 1) estudios de proceso –hechos que tienen lugar en el aula–. esto es. y las funciones de la evaluación en un contexto particular. no tiene ningún interés saber hasta qué punto se han conseguido. Destacamos a continuación las aportaciones más significativas: a) Se establece de forma tajante la diferencia entre la evaluación como actividad metodológica. la evaluación como actividad metodológica es esencialmente igual. la observación sistemática y no sistemática. según el autor. Sus fecundas distinciones terminológicas ampliaron enormemente el campo semántico de la evaluación. al defender la valoración con relación a unos objetivos bien definidos y no la comparación con otros grupos. no lo fueron menos las del ensayo de Scriven (1967). a la vez que clarificaron el quehacer evaluativo. Resalta la necesidad de que la evaluación debe incluir tanto la evaluación de los propios objetivos . con objeto de mejorarlo. así como otras referentes a las dificultades técnicas que en el marco educativo presentan los diseños comparativos.puntuaciones promedio entre-grupos son menores que las intra-grupos. 2) medidas de rendimiento y actitudes –cambios observados en los alumnos– y 3) estudios de seguimientos. sea lo que fuera lo que estemos evaluando. mientras que las funciones de la evaluación pueden ser enormemente variadas. Se defienden los estudios más analíticos.

como un contenido intrínseco en la evaluación. de extenderse en las décadas posteriores. no sólo por la estructura de valor que en ello subyace. Bloom y otros. a la que se referían preferentemente. 1967 y 1969. siendo unos objetivos bien formulados el mejor criterio para valorar este cambio. 1965. la juzga con relación a distintos criterios. el modelo evaluativo de Tyler se enriquecería mucho en estos años. 1969). 1968). 1963. se caracteriza por introducir la valoración. Esta distinción resulta muy importante a la hora de considerar el criterio a utilizar. el juicio. que presentan mayor dificultad de tratamiento operativo. 1964. Durante estos años sesenta aparecen muchas otras aportaciones que va perfilando una nueva concepción evaluativa. Admite con Cronbach los problemas técnicos que los estudios comparativos entrañan y la dificultad de explicar las diferencias entre programas. Glaser. mientras que en la evaluación extrínseca se valora el elemento por los efectos que produce en los alumnos. Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de evaluadores. 1971. la valora. 1963. según Guba y Lincoln (1989). Entre otras cosas aparecieron nuevas ideas sobre la evaluación de la interacción en el aula y sobre sus efectos en los logros de los alumnos (Baker. pero Scriven considera que la evaluación como opuesta a la mera descripción implica emitir un juicio sobre la superioridad o inferioridad de lo que se evalúa con respecto a sus competidores o alternativas. Lindvall. En una evaluación intrínseca se valora el elemento por sí mismo. e) Scriven adopta una posición contraria a Cronbach. sino también por centrar la valoración del aprendizaje en los productos más fácilmente mensurables. e incluso a resultados o efectos a largo plazo (Cronbach. con trabajos sobre los objetivos educativos que continuarían y perfeccionarían el camino emprendido en 1956 por Bloom y colaboradores (Mager. Ahora el evaluador no sólo analiza y describe la realidad. 1970. sino también a los efectos laterales o no pretendidos. Gagné 1971). A pesar de las voces críticas con la operativización de objetivos (Eisner. que terminará de desarrollarse y. Así mismo. pues en la evaluación intrínseca el criterio no se formula en términos de objetivos operativos. como dos formas diferentes de valorar un elemento de la enseñanza.como el determinar el grado en que éstos han sido alcanzados (Scriven. sino también en la evaluación orientada al sujeto. 1967). Atkin. 1962 y 1973. Popham. Se percibe que el núcleo conceptual de la evaluación lo constituye la valoración del cambio ocurrido en el alumno como efecto de una situación educativa sistemática. . incidiendo no sólo en estudios en la línea de la investigación evaluativa. Glaser. 1967. además. 1964. d) Clarificadora es también la distinción que hace Scriven entre evaluación intrínseca y evaluación extrínseca. en la línea de evaluación como «assessment» (Mateo. Estamos ante la tercera generación de la evaluación que. mientras que sí se hace en la evaluación extrínseca . Krathwohl y otros. se comienza a prestar atención no sólo a los resultados pretendidos. Scriven. y de que se prestaba escasa atención a los objetivos del dominio afectivo. a veces los más bajos en las taxonomías del dominio cognoscitivo. 1986). defendiendo el carácter comparativo que deben presentar los estudios de evaluación. Stake. 1973 y 1974). sobre todo.

los resultados obtenidos por otros sujetos o grupo de sujetos (Popham. Gronlund. señala para los primeros. Carreño. impulsado también por . Un nivel podemos calificarlo como la evaluación orientada hacia los individuos. Este último nivel.Stake (1967) propuso su modelo de evaluación. Su principal propósito es descubrir la efectividad. Así. The countenance model. 1977. la denominada evaluación de referencia criterial. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica. por consiguiente. La distinción introducida por Glaser (1963) entre mediciones referidas a normas y criterios tendrá eco al final de la década de los sesenta. trazar las líneas de su posible redefinición. otro objetivo como es el de valorar la eficacia de un programa. siendo irrelevantes. El otro nivel. 1973. 1970 y 1983. Stake se irá distanciando de sus posiciones iniciales. defiende la utilización de evaluadores externos para evitar todo tipo de tergiversación de los profesores muy implicados en los procesos instruccionales. Metfessell y Michael (1967) presentaron también un modelo de evaluación de la efectividad de un programa educativo en el cual. En las prácticas evaluativas de esta década de los sesenta se observan dos niveles de actuación. proponían la utilización de una lista comprensiva de criterios diversos que los evaluadores podrían tener en cuenta en el momento de la valoración y. que sigue la línea de Tyler. éxito o fracaso de un programa al compararlo con los objetivos propuestos y. además de los conocidos objetivos de describir la ejecución del sujeto y tomar decisiones sobre si domina o no domina un contenido. En sus sucesivas propuestas. no centrarse meramente en los conocimientos intelectuales alcanzados por los alumnos. matizando que la investigación científica es preferentemente teórica y. y posibilitar algunas bases para elaborar hipótesis acerca de las causas y los fallos en los resultados finales. así como la valoración de ese estatus por comparación con un estándar o criterio de realizaciones deseables. aún siguiendo el modelo básico de Tyler. al efecto de contraste. pero es más completo al considerar las discrepancias entre lo observado y lo esperado en los «antecedentes» y «transacciones». Mager. es el de la evaluación orientada a la toma de decisiones sobre el «instrumento» o «tratamiento» o «programa» educativo. Desde finales de los sesenta los especialistas se pronunciarán decisivamente a favor de la evaluación criterial. además. así. 1985). en cambio. en cuanto que es el tipo de evaluación que suministra una información real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de enseñanza previstos. por ejemplo. c) el conocimiento de si los resultados esperados son dispersos o concentrados y d) los métodos que han de emplearse para alcanzar los objetivos. El énfasis en los objetivos y su medida traerá también la necesidad de una nueva orientación a la evaluación. cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests referidos a la norma. la investigación evaluativa es siempre aplicada. Suchman. precisamente como resultado de las nuevas exigencias que a la evaluación educativa se le planteaban. fundamentalmente alumnos y profesores. Esta investigación evaluativa para Suchman debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo. b) el tiempo necesario para que se realice el cambio propuesto.

1980. Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas. y valorar así sus respectivas aportaciones en los terrenos conceptual y metodológico (Worthen y Sanders. tienden a clasificar estos modelos en dos grandes grupos. se diferencian más por destacar o enfatizar alguno o algunos de los componentes del proceso evaluativo y por la particular interpretación que a este proceso le dan. Estos enriquecerán considerablemente el vocabulario evaluativo. 1987. en función del tipo de trabajo y las circunstancias (Escudero. sino más bien como complementarios y que el estudio de los mismos (al menos aquellos que han resultado ser más prácticos) llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. 1973. De la Orden. a nuestro entender. 1992. Popham. más que de modelos. Desde los años setenta: La consolidación de la investigación evaluativa Si con algo se podría caracterizar las aportaciones teóricas que nos ofrecen los especialistas durante los años setenta es con la proliferación de toda clase de modelos evaluativos que inundan el mercado bibliográfico.la evaluación de programas en el ámbito social. Anderson y Ball. 5. cuantitativos y cualitativos. Cronbach. Para estos autores los objetivos propuestos siguen siendo el criterio fundamental de valoración. pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situación es mucho más rica en matices. 1982. y que algunos modelos pueden ser representativos de ellas. puesto que es cada evaluador el que termina construyendo su propio modelo en cada investigación evaluativa. y Mateo (1986) se refiere a la eclosión de modelos. modelos de evaluación que expresan la propia óptica del autor que los propone sobre qué es y cómo debe conducirse un proceso evaluativo. También son varios los autores (Lewy. Se trata. 1983. Nosotros. de una época caracterizada por la pluralidad conceptual y metodológica. En este movimiento de propuestas de modelos de evaluación cabe distinguir dos épocas con marcadas diferencias conceptuales y metodológicas. pero enfatizan la necesidad de aportar datos sobre la congruencia o discrepancia entre las pautas de . sin embargo. Stufflebeam y Shinkfield. Arnal y otros. será la base para la consolidación en el terreno educativo de la evaluación de programas y de la investigación evaluativa. 1994). Es desde esta perspectiva. Pérez (1983) y en alguna medida House (1989). 1976. 1993). considerados particularmente. como los diferentes modelos deben ser vistos. Algunos autores como Guba y Lincoln (1982). 1985) los que consideran los modelos no como excluyentes. en esta época destacan la propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). pero los diferentes modelos. que corresponden a los últimos años sesenta. las propuestas seguían la línea expuesta por Tyler en su planteamiento. Guba y Lincoln (1982) nos hablan de más de cuarenta modelos propuestos en estos años. Scriven. En una primera época. en algún momento nos hemos atrevido a hablar de enfoques modélicos. compartimos la idea de Popham (1980) de que algunos son demasiado complicados y otros utilizan una jerga bastante confusa. Además de los ya citados de Stake y Metfessell y Michael. por tanto. que ha venido a llamarse de “Consecución de Metas”.

I. La audiencia prioritaria de la evaluación en estos modelos no es quien debe tomar las decisiones. a) Diferentes conceptos de evaluación. a partir de la revisión de la literatura especializada. no encuentra una única respuesta a estas cuestiones. Ello explica que cuando Nevo (1983 y 1989) pretende realizar una conceptualización de la evaluación. Se trata de modelos que propugnan una evaluación de tipo etnográfica. La audiencia prioritaria son los propios participantes del programa.. Ejemplos notables de ellos son: probablemente el más famoso y utilizado de todos.P. Estos autores van más allá de la evaluación centrada en resultados finales. 1980. la Evaluación Iluminativa de Parlett y Hamilton (1977) y la Evaluación como crítica artística de Eisner (1985).E. conducen a una gran variedad de esquemas evaluativos reales utilizados por profesores. propuesto por Stufflebeam y colaboradores (1971) y el C. input. la Evaluación Democrática de MacDonald (1976). como en los modelos de consecución de metas. Pérez 1983). según las necesidades de las decisiones a las que sirven.S. atendiendo a los tópicos ¿qué es la evaluación? ¿qué funciones tiene? ¿cuál es el objeto de evaluación?. (toma sus siglas del Centro de la Universidad de California para el Estudio de la Evaluación) dirigido por Alkin (1969). 1977. inspectores y administradores públicos. Guba y Lincoln. y la evaluación para la toma de decisiones sobre los individuos de otra. Este resumen de modelos de la época de eclosión es suficiente para aproximarnos al amplio abanico conceptual teórico y metodológico que hoy se relaciona con la evaluación. 1986). Es fácilmente comprensible que las exigencias que plantea la evaluación de programas de una parte. En líneas generales. puesto que en sus propuestas suponen diferentes tipos de evaluación. House. como en los modelos orientados a la toma de decisiones. La aportación conceptual y metodológica de estos modelos es valorada positivamente entre la comunidad de evaluadores (Popham. de aquí que la metodología que consideran más adecuada es la propia de la antropología social (Parlett y Hamilton. Entre ellos destacan la Evaluación Responsable de Stake (1975 y 1976). A continuación destacamos los puntos mas sobresalientes de esta pluralidad conceptual. Una segunda época en la proliferación de modelos es la representada por los modelos alternativos. este segundo grupo de modelos evaluativos enfatiza el papel de la audiencia de la evaluación y de la relación del evaluador con ella. (contexto. ni el responsable de elaborar los currículos u objetivos. el C. La relación entre el evaluador y la audiencia en palabras de Guba y Lincoln (1982) debe ser «transaccional y fenomenológica». 1989). 1982. Diferentes concepciones que han dado lugar a una apertura y pluralidad conceptual en el ámbito de la evaluación en varios sentidos (Cabrera. proceso y producto). 1982. Guba y Lincoln..instrucción diseñadas y la ejecución de las mismas en la realidad del aula.P. directores. Por una parte existe la clásica definición dada por Tyler: la evaluación como el proceso de . Pero también es cierto que bajo esta diversidad subyacen diferentes concepciones teóricas y metodológicas sobre la evaluación. Otros modelos consideran el proceso de evaluación al servicio de las instancias que deben tomar decisiones. que con diferentes concepciones de la evaluación y de la metodología a seguir comienzan a aparecer en la segunda mitad de esta década de los setenta. a la que se adhieren Guba y Lincoln (1982).

obtener y proporcionar información relevante para juzgar decisiones alternativas. defendida por Alkin (1969). una clara identificación del objeto de evaluación es una importante parte en cualquier diseño de evaluación. b) Diferentes criterios. Las definiciones de evaluación que acentúan la determinación del «mérito» como objetivo de la evaluación. es retomado por Cronbach (1982). Guba y Lincoln (1982) refieren los términos de la comparación valorativa. De las definiciones apuntadas anteriormente se desprende que el criterio a utilizar para la valoración de la información también cambia. el concepto de evaluación de Scriven (1967). Desde la óptica de la consecución de metas. por otro. cualquier cosa puede ser objeto de evaluación y ésta no debería limitarse a estudiantes y profesores y. Se trata de modelos relacionados con la acreditación y el enjuiciamiento profesional (Popham. Desde la perspectiva de las decisiones y situados dentro de un contexto político. siendo el que toma las decisiones el responsable de su valoración. d) Pluralidad de objetos de evaluación. las necesidades. como el proceso de estimar el valor o el mérito de algo. 1980).determinar el grado de congruencia entre las realizaciones y los objetivos previamente establecidos. Como dice Nevo (1983 y 1989). existen dos conclusiones importantes que se obtienen de la revisión de la bibliografía sobre la evaluación. House. c) Pluralidad de procesos evaluativos dependiendo de la percepción teórica que sobre la evaluación se mantenga. abogan por que el criterio de valoración fundamental sean las necesidades contextuales en las que ésta se inserta. utilizan criterios estándares sobre los que los expertos o profesionales están de acuerdo. de un lado. 1977. Así. Guba y Lincoln (1982). representan diferentes propuestas para conducir una evaluación. Además. las características del objeto evaluado y. 1982. de otro. Stufflebeam y colaboradores. Los autores (Stake. Stufflebeam y otros (1971). 1975. MacDonald (1976) y Cronbach (1982). Los modelos de evaluación citados y otros más que pueden encontrarse en la bibliografía. Contrasta esta definición con aquella más amplia que se propugna desde los modelos orientados a la toma de decisiones: la evaluación como el proceso de determinar. a la que corresponden los modelos orientados hacia la consecución de metas. Parlett y Hamilton. y House (1989). una buena y operativa definición de los objetivos constituye el criterio fundamental. . expectativas y valores del grupo a los que les afecta o con los que se relaciona el objeto evaluado. Alkin y MacDonald llegan a sugerir incluso la no valoración de la información por parte del evaluador. 1983) que acentúan el proceso de evaluación al servicio de determinar el «valor» más que el «mérito» de la entidad u objeto evaluado. Guba y Lincoln. Por un lado. con objeto de señalar las diferencias que comportarían los juicios valorativos en caso de estimar el mérito (se vincularía a características intrínsecas de lo que se evalúa) o el valor (se vincularía al uso y aplicación que tendría para un contexto determinado).

sino valorar todos los efectos posibles. sino también sobre el proceso educativo. sino también afectivos (Anderson y Ball. 1983). apertura también en considerar no sólo resultados de tipo cognitivo. h) Pluralidad de audiencia de la evaluación y.e) Apertura. aparecen muchas nuevas revistas especializadas como Educational Evaluation and Policy Analysis. 1983). El anterior resumen recoge las aportaciones a la evaluación en los años setenta y ochenta. Weiss. en la que además de los innumerables modelos de los setenta. lógicamente. hasta informes muy estructurados (Anderson y Ball. no sólo en postgrados y programas de doctorado. informales. f) Pluralidad también reconocida de las funciones de la evaluación en el ámbito educativo. sino también en planes de estudio para titulaciones de primer y segundo ciclos. Guba y Lincoln (1989) ofrecen una alternativa evaluadora. Evaluation and Program Planning. lo que ha venido a llamarse evaluación interna vs. la época que se ha denominado época de la profesionalización (Stufflebeam y Skinkfield. La alternativa de Guba y Lincoln la denominan respondente y . Incluso Scriven (1973 y 1974) propone una evaluación en la que no se tenga en cuenta los objetivos pretendidos. de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos. 1983. Mateo y otros. pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores. Rutman. se profundizó en los planteamientos teóricos y prácticos y se consolidó la evaluación como investigación evaluativa en los términos antes definida. Evaluation News. 1984). No obstante. se fundan asociaciones científicas relacionadas con el desarrollo de la evaluación y las universidades empiezan a ofrecer cursos y programas de investigación evaluativa. 1993. Madaus y otros. 1991. 6. En este contexto.. una relación directa entre el evaluador y las diferentes audiencias de la evaluación es reconocida por la mayoría de los autores (Nevo. tras todo este desarrollo antes descrito. pluralidad en los informes de evaluación. i) Pluralidad metodológica.. Apertura también respecto a la recogida de información no sólo del producto final. 1983). Evaluation Review. g) Diferencias en el papel jugado por el evaluador. y añadiéndose otras de tipo sociopolítico y administrativas (Nevo. 1983. evaluación externa.. Por último. Desde informes narrativos. 1987. reconocida en general por todos los autores. sea pretendido o no. 1993). sino a los efectos posibles de un programa educativo. Studies in Evaluation. que viene definida en gran medida por la diversidad metodológica. Las cuestiones metodológicas surgen desde la dimensión de la evaluación como investigación evaluativa. una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista.. New Directions for Program Evaluation. que denominan cuarta generación. por consiguiente. recogiéndose la propuesta de Scriven entre evaluación formativa y sumativa. Y apertura en la consideración de diferentes resultados de corto y largo alcance. La cuarta generación según Guba y Lincoln A finales de los ochenta. tales como una visión gestora de la evaluación. Hernández.

8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y . 3) Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta. las preocupaciones y los asuntos de los implicados o responsables (stakeholders) sirven como foco organizativo de la evaluación (como base para determinar qué información se necesita). y la epistemología postmoderna del constructivismo (Russell y Willinsky. c) Son potenciales usuarios de la información resultante de la evaluación. d) Pueden ampliar y mejorar el rango de la evaluación. preocupaciones y asuntos de los implicados. que se lleva a cabo dentro de los planteamientos metodológicos del paradigma constructivista. 1997). El cambio paradigmático lo justifican estos autores porque: a) La metodología convencional no contempla la necesidad de identificar las demandas. c) No se tienen en cuenta suficientemente los factores contextuales. porque: a) Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados. e) Se produce una interacción positiva entre los distintos implicados. demandas y preocupaciones. 2) Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto. 7) Formar y hacer de mediador para un «forum» de implicados para la negociación. Las demandas. e) La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social.constructivista. que realizará secuencialmente o en paralelo. según Guba y Lincoln. La utilización de las demandas. de manera que se sientan protegidos ante tal riesgo. b) Los resultados pueden ser utilizados en su contra en diferentes sentidos. preocupaciones y asuntos de los implicados es necesaria. 4) Generar el máximo acuerdo posible acerca de dichas construcciones. 6) Recoger y proporcionar la información necesaria para la negociación. el evaluador es responsable de determinadas tareas. integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975). típica del positivismo. construyendo un proceso ordenado y sistemático de trabajo. sobre todo si están al margen del proceso. demandas y preocupaciones. d) No se proporcionan medios para valoraciones caso por caso. 5) Preparar una agenda para la negociación acerca de temas no consensuados. comprender y criticar las diferentes construcciones. Las responsabilidades básicas del evaluador de la cuarta generación son las siguientes: 1) Identificar todos los implicados con riesgo en la evaluación. Partiendo de estas premisas. b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación.

2) Organización para reciclar la investigación. preocupaciones y asuntos resueltos. 1987). • Selección y entrenamiento del equipo evaluador. • Listado de especificaciones técnicas. Establecimiento de prioridades en los temas no resueltos. 4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss. • Agentes. • Literatura profesional. • Documentos y registros. 1985). Cuando se habla de los pasos o fases de la evaluación en esta cuarta generación. • Garantía de acceso a registros y documentos. • Identificación del objeto de la evaluación. • Consecución de facilidades y acceso a la información (Lincoln y Guba. • Acuerdo con el cliente por el tipo de evaluación.de los de otros grupos (Stake. • Identificación del cliente o patrocinador de la evaluación. 1978. Glaser. • Breve descripción de la metodología a usar. 8) 9) Recogida de información. Zeller. con diferentes subfases en cada una de estas. 1985). • Círculos de otras audiencias. 1967. • Beneficiarios. La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicación de la naturaleza y características del paradigma constructivista en contraposición con las del positivista. 5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. Estos pasos son los siguientes: 1) Establecimiento de un contrato con un patrocinador o cliente. 7) . • Descripción del tipo de informe a elaborar. • Construcción ética del evaluador. 1982). sus proponentes citan doce pasos o fases. • Victimas. 6) Clasificación de las demandas. • Identificación de audiencias. • Propósito de la evaluación (Guba y Lincoln. 3) Identificación de las audiencias (Guba y Lincoln. Preparación de la agenda para la negociación. • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. 1982). Lincoln y Guba. 1986. • Observación. 9) Reciclar la evaluación siempre que queden asuntos pendientes de resolución.

1986). f) La evaluación es un proceso con resultados impredecibles. 11)Informes (Zeller. también de base constructivista. Sin embargo. pero estas deben ampliarse con destrezas para recoger e interpretar datos cualitativos . se retienen las características del evaluador fruto de las tres primeras generaciones. Para conseguir esto existen varias técnicas. 1987. El criterio de credibilidad es paralelo al de validez interna. 1986). de forma que la idea de isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas a ellas. esto es. transferencia. 1981). b) la observación persistente. los criterios deban ser acordes con el paradigma fundamentador (Morgan. Este análisis de la cuarta generación de podemos terminarlo con los rasgos con los que definen Guba y Lincoln a la evaluación: a) La evaluación es un proceso sociopolítico. Estos criterios incluyen los siguientes: a) imparcialidad. e) la subjetividad progresiva y f) el control de los miembros. justicia. 1983). se denominan así porque intentan ser paralelos a los criterios de rigor utilizados muchos años dentro del paradigma convencional. En el caso de la cuarta generación los criterios que se ofrecen son los de credibilidad. 1988). Pero estos dos tipos de criterios. Licoln y Guba. c) la evaluación es un proceso de enseñanza/aprendizaje. e) La evaluación es un proceso emergente. Los criterios paralelos. c) el contraste con colegas. aunque útiles. Otra manera de juzgar la calidad de la evaluación es el análisis dentro del propio proceso. d) el análisis de casos negativos (Kidder.10)Desarrollo de la negociación. se nos ofrecen tres enfoques que se denominan paralelo. Para juzgar la calidad de la evaluación. entre las que destacan las siguientes: a) el compromiso prolongado. la de analista y la de juez. c) autenticidad educativa. dependencia y confirmación (Lincoln y Guba. la de técnico. que defienden con más ahínco los criterios que denominan de autenticidad. La transferencia puede verse como paralela a la validez externa. no son del todo satisfactorios para Guba y Lincoln. d) autenticidad catalítica y e) autenticidad táctica (Lincoln y Guba. de confianza. g) La evaluación es un proceso que crea realidad. fiabilidad y objetividad. d) La evaluación es un proceso continuo. el ligado al proceso hermenéutico y el de autenticidad. recursivo y altamente divergente. la dependencia es paralela al criterio de fiabilidad y la confirmación puede verse como paralela a la objetividad. En esta evaluación. 12)Reciclado/revisión. b) La evaluación es un proceso conjunto de colaboración. a través de un proceso dialéctico. Estos criterios han sido validez interna y externa. b) autenticidad ontológica. algo que encaja con el paradigma hermenéutico.

el desarrollo de aproximaciones más pragmáticas de la conceptualización de Guba y Lincoln. y su derecho. 1998. incrementando la probabilidad de que la evaluación sirva para mejorar la enseñanza escolar. esto es. esto es. Sin embargo. Además. Nos estamos refiriendo a Daniel L. queremos recoger las recomendaciones que más recientemente nos viene ofreciendo una de las figuras señeras de este campo en la segunda mitad del siglo XX. pues es aplicable a muchas disciplinas diferentes y a muchos objetos diversos (Scriven. proponente del modelo CIPP (el más utilizado) a finales de los sesenta. con la de mediador de juicios. b) factible. El nuevo impulso alrededor de Stufflebeam Para terminar este recorrido analítico-histórico desde los primeros intentos de medición educativa hasta la actual investigación evaluativa en educación. no sólo ofrecemos una de las últimas aportaciones a la actual concepción de la investigación evaluativa en educación. centro auspiciado y financiado por el Departamento de Educación del gobierno americano. y d) segura y precisa a la hora de ofrecer información y juicios sobre el objeto de la evaluación. 1994. adecuada. que debe actuar de acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad. esto es. Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta generación para desarrollar formulaciones alternativas de práctica evaluadora entre los implicados. Recogiendo estas recomendaciones (Stufflebeam. 2000 y 2001). Stufflebeam (1994) nos . Se parte de los cuatro principios del Joint Committee (1981 y 1988).(Patton. proporcionar información a tiempo e influir. Para evaluar la educación en una sociedad moderna. la evaluación se ve como una «transdisciplina». tras analizar la cuarta generación de Guba y Lincoln. 1980). la implicación de todos desde el principio del proceso y. esto es. en las que se han ido integrando ideas de diversos evaluadores también notables. legítima. 7. por otra parte. estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas. c) apropiada. Stufflebeam invoca a la responsabilidad del evaluador. sino que completamos en buena medida la visión del panorama actual. ética y justa con los implicados. 1994). de la idea de que cualquier buen trabajo de investigación evaluativa debe ser: a) útil. además de la suya. adaptadas a las distintas realidades escolares. así como un papel más activo como evaluador en un contexto socio-político concreto. Stufflebeam. desde 1975 a 1988 presidente del «Joint Committee on Standars for Educational Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher Evaluation). emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. rico y plural. es también su deber. Esto requiere por parte del profesorado el reconocimiento de otras posiciones. debe suponer un esfuerzo razonable y debe ser políticamente viable. con la de historiador e iluminador. 1999.

incluso en el terreno formativo (Scriven. sobre todo significación. Scriven. 2) Las entidades educativas deben examinarse por su integración y servicio a los principios de la sociedad democrática. 1981 y 1988). etc. a partir del análisis de las prácticas pasadas y presentes es uno de los fundamentos de la investigación evaluativa. mérito tiene bastante equivalencia con el término calidad. instituciones educativas. Quizás uno de los retos que deben abordar los sistemas educativos es la definición más clara y precisa de estos deberes y responsabilidades. legitimidad y precisión (Joint Committee.dice que se deben tomar algunos criterios básicos de referencia como los siguientes: • Las necesidades educativas. debe relacionarse siempre con el conjunto de sus deberes. valor con el de relación coste-eficacia y significación con el de importancia. calidad y servicio para un contexto particular) (Guba y Lincoln. Hay que preguntarse si el sistema es justo y equitativo a la hora de proporcionar servicios educativos. 1991). La mejora de la calidad. • La factibilidad. el desarrollo de aspiraciones y la cobertura para todos los sectores de la comunidad (Kellagan. calidad respecto a criterios generales) como por su valor (valor extrínseco. 1982). etc. el compromiso y participación de los implicados y todo lo que hace que el esfuerzo educativo produzca el máximo de frutos posibles. como por su significación en la realidad del contexto en el que se ubica. 1994). etc. programas. el acceso a los mismos. 4) La evaluación de profesores. la adecuación y viabilidad de las normas legales. 1985). de manera que entender la diferencia entre dependencia del contexto y arbitrariedad es parte de la comprensión de la lógica de la evaluación. Tomando el referente de estos criterios y sus derivaciones. • La equidad. factibilidad. 3) Las entidades educativas deben ser valoradas tanto por su mérito (valor intrínseco. 1991a). la consecución de metas. dentro de una sociedad democrática (Nowakowski y otros. la evaluación es problemática. bienestar. • La excelencia como objetivo permanente de búsqueda. Estas recomendaciones son las siguientes: 1) Los planes de evaluación deben satisfacer los cuatro requerimientos de utilidad. en este caso. Hay que cuestionar la eficiencia en la utilización y distribución de recursos. Es necesario preguntarse si la educación que se proporciona cubre las necesidades de los estudiantes y de sus familias en todos los terrenos a la vista de los derechos básicos. Stufflebeam sumariza una serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y mejorar el sistema educativo. Sin ello. equidad. 1982. . Scriven (1998) nos señala que usando otras denominaciones habituales. 5) Los estudios evaluativos deben ser capaces de valorar hasta qué medida los profesores y las instituciones educativas son responsables y rinden cuentas del cumplimiento de sus deberes y obligaciones profesionales (Scriven. los tres conceptos son dependientes del contexto. responsabilidades y obligaciones profesionales o institucionales. En todo caso.

1991) 9) La evaluación del contexto (necesidades. y métodos tanto cuantitativos como cualitativos para recoger y analizar la información. 1987).. Joint Committee. para promover la autonomía de los mismos en la resolución de sus problemas. 12) La evaluación del producto es el medio para identificar los resultados buscados y no buscados en los participantes o afectados por el objeto evaluado. 1979. múltiples medidas de resultados. 1991) 10) La evaluación de las entradas (inputs) debe emplearse de manera prospectiva. Webster y otros. de participación de los implicados en el programa evaluado. La pluralidad y . porque no basta con emitir un juicio sobre el mérito o el valor de algo. Asimismo. proporcionando a los educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella (Madaus y otros.. 1991. Scriven.. en relación con las necesidades de los estudiantes (Madaus y otros. para localizar bien las metas y objetivos y definir prioridades. la evaluación del contexto debe utilizarse retrospectivamente. así como en la promoción de la aceptación y el uso de sus resultados (Chelimsky. Generalmente su interés es el cambio de cosas pequeñas. pues es difícil pensar que los responsables de una organización pongan en cuestión el fundamento y el sistema de poder de la misma. 1999). Se necesita una valoración prospectiva de los resultados para orientar el proceso y detectar zonas de necesidades. oportunidades. 1994) y de fundamento para la acción contra las discriminaciones sociales (Mertens.) debe emplearse de manera prospectiva. Se necesita una evaluación retrospectiva del producto para poder juzgar en conjunto el mérito y el valor del objeto evaluado (Scriven. 8) Se debe promover la autoevaluación profesional. 1998).6) Los estudios evaluativos deben proporcionar direcciones para la mejora. 7) Recogiendo los puntos anteriores. Webster y Edwards. La evaluación para el desarrollo (empowerment evaluation). problemas en un área. para asegurar el uso de un rango adecuado de enfoques según las necesidades y los planes. 11) La evaluación del proceso debe usarse de manera prospectiva para mejorar el plan de trabajo. es un procedimiento. 1991. 14) Los estudios evaluativos deben emplear múltiples perspectivas. Keefe. todo estudio evaluativo debe tener un componente formativo y otro sumativo. 1991. pero también la de que sea conservadora en su concepción. que defiende Fetterman (1994). criterios. Más aún. para juzgar bien el valor de los servicios y resultados educativos. 13) Los estudios evaluativos se deben apoyar en la comunicación y en la inclusión sustantiva y funcional de los implicados (stakeholders) con las cuestiones claves. 1993. 1988. Weiss (1998) nos alerta de que la evaluación participativa incrementa la probabilidad de que se utilicen los resultados de la evaluación. hallazgos e implicaciones de la evaluación. de base democrática. pero también de manera retrospectiva para juzgar hasta qué punto la calidad del proceso determina el por qué los resultados son de un nivel u otro (Stufflebean y Shinkfield. 1994). Stronge y Helm. los estudios evaluativos deben conceptualizarse y utilizarse sistemáticamente como parte del proceso de mejora educativa a largo plazo (Alkin y otros.

complejidad del fenómeno educativo hace necesario emplear enfoques múltiples y multidimensionales en los estudios evaluativos (Scriven, 1991) 15) Los estudios evaluativos deben ser evaluados, incluyendo metaevaluaciones formativas para mejorar su calidad y su uso y metaevaluaciones sumativas para ayudar a los usuarios en la interpretación de sus hallazgos y proporcionar sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988; Madaus y otros, 1991; Scriven, 1991; Stufflebeam, 2001). Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la teoría ética de que la bondad moral es objetiva e independiente de los sentimientos personales o meramente humanos. Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en análisis comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos resulta evidente que las concepciones de la investigación evaluativa son diversas, dependiendo del origen epistemológico desde el que se parte, pero apareciendo claros y contundentes algunos elementos comunes a todas las perspectivas como la contextualización, el servicio a la sociedad, la diversidad metodológica, la atención, respeto y participación de los implicados, etc., así como una mayor profesionalización de los evaluadores y una mayor institucionalización de los estudios (Worthen y Sanders, 1991). El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint Committee on Standards for Educational Evaluation con las posiciones de la corriente evaluadora denominada postmodernista, representada, además de por Guba y Lincoln, por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que existan razones para actitudes de escepticismo y frustración con las prácticas evaluadoras actuales, porque existen muchos ámbitos de aproximación y el desarrollo de estándares de evaluación es perfectamente compatible con la atención a los diversos implicados, valores, contextos sociales y métodos. Stufflebeam defiende una mayor colaboración en la mejora de las evaluaciones, estableciendo los estándares de manera participativa, pues cree que es posible la aproximación de planteamientos, con contribuciones importantes desde todos los puntos de vista. Weiss (1998) también toma posiciones parecidas cuando nos dice que las ideas constructivistas deben hacernos pensar más cuidadosamente al usar los resultados de las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya que interpretarlo en términos exclusivamente individuales, pues existen muchos elementos comunes entre las personas, los programas y las instituciones. 8. Para concluir: síntesis de enfoques modélicos y metodológicos de la evaluación y la última perspectiva de Scriven Tras este análisis del desarrollo de la evaluación a lo largo del Siglo XX, parece oportuno, a modo de síntesis y de conclusión, recoger y resaltar los que son considerados los principales modelos, planteamientos metodológicos, diseños, perspectivas y visiones de la evaluación en la actualidad. Su análisis, de manera compacta, es un complemento necesario para una visión como la histórica

que, por su linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada. Hemos visto que en la década de los setenta y en sus alrededores se produce una especie de eclosión de propuestas evaluativas, que tradicionalmente han venido siendo denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseños (Arnal y otros, 1992) de investigación evaluativa. Sabemos que existieron varias decenas de estas propuestas, pero muy concentradas en el tiempo, en la década citada. De hecho, el asunto de los propuestos modelos para la evaluación parece un tema prácticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o propuestas, salvo alguna excepción como vemos más adelante. A pesar de lo dicho, se sigue hablando de modelos, métodos y diseños en la literatura especializada, sobre todo buscando su clasificación de acuerdo con diversos criterios, origen paradigmático, propósito, metodología, etc. También en las clasificaciones, no sólo en los modelos, existe diversidad, lo que prueba que, además de dinamismo académico en el terreno de la investigación evaluativa, todavía existe cierta debilidad teórica al respecto. Nosotros ya hemos señalado con anterioridad (Escudero, 1993), que coincidimos con Nevo (1983 y 1989) en la apreciación de que muchos de los acercamientos a la conceptualización de la evaluación (por ejemplo, el modelo respondiente, el libre de metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que debería acarrear el citado concepto. Lo que un texto clásico en evaluación (Worthen y Sanders, 1973) denomina como «modelos contemporáneos de evaluación» (a los conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio Stake (1981) dice que sería mejor denominarlo como «persuasiones» mientras que House (1983) se refiere a «metáforas». Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse a concepción, enfoque o incluso método de evaluación. De Miguel (1989), por su parte, piensa que muchos de los llamados modelos solamente son descripciones de procesos o aproximaciones a programas de evaluación. DarlingHammond y otros (1989) utilizan el término «modelo» por costumbre, pero indican que no lo hacen en el sentido preciso que tiene el término en las ciencias sociales, esto es, apoyándose en una estructura de supuestos interrelacionales fundamentada teóricamente. Finalmente diremos que el propio autor del modelo CIPP, solamente utiliza esta denominación de manera sistemática para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando los términos de enfoque, método, etc., al referirse a los otros. Para nosotros, quizás sea el término enfoque evaluativo el más apropiado, aunque aceptemos seguir hablando de modelos y diseños por simple tradición académica. Nuestra idea es que a la hora de plantearnos una investigación evaluativa, no contamos todavía con unos pocos modelos bien fundamentados, definidos, estructurados y completos, entre los que elegir uno de ellos, pero sí tenemos distintos enfoques modélicos y un amplio soporte teórico y empírico, que permiten al evaluador ir respondiendo de manera bastante adecuada a las distintas cuestiones que le va planteando el proceso de investigación, ayudándole a configurar un plan global, un organigrama coherente, un «modelo»

científicamente robusto para llevar a cabo su evaluación (Escudero, 1993). ¿Cuáles son las cuestiones que hay que responder en este proceso de construcción modélica? Apoyándonos en las aportaciones de diferentes autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990), deben responderse y delimitar su respuesta al construir un modelo de investigación evaluativa, los aspectos siguientes: Objeto de la investigación evaluativa. 2) Propósito, objetivos. 3) Audiencias/implicados/clientela. 4) Énfasis/aspectos prioritarios o preferentes. 5) Criterios de mérito o valor. 6) Información a recoger. 7) Métodos de recogida de información. 8) Métodos de análisis. 9) Agentes del proceso. 10) Secuenciación del proceso. 11) Informes/utilización de resultados. 12) Límites de la evaluación. 13) Evaluación de la propia investigación evaluativa / metaevaluación. Para definir estos elementos hay que buscar, lógicamente, el apoyo de los diferentes enfoques modélicos, métodos, procedimientos, etc., que la investigación evaluativa ha desarrollado, sobre todo en las últimas décadas. Volviendo a los denominados modelos de los setenta y a sus clasificaciones, podemos recoger algunas de las aparecidas en la última década en nuestro entorno académico, apoyándose en distintos autores. Así, por ejemplo, Arnal y otros (1992) ofrecen una clasificación de lo que denominan diseños de la investigación evaluativa, revisando las de diversos autores (Patton, 1980; Guba y Lincoln, 1982; Pérez, 1983; Stufflebeam y Shinkfield, 1987). Esta clasificación es la siguiente : 1)

Tabla 1- Tipos de diseños de investigación educativa
Perspectiva Patton (1980) Objetivos Empírico-analítica Análisis sistemas Guba y Lincoln (1982) Objetivos Pérez (1983) Objetivos Análisis sistemas Método científico CIPP Susceptibles de complementarieda d Crítica artística Adversario UTOS UTOS Cronbach (1982) CIPP Crítica artística CIPP Crítica artística Stufflebeam y Shinkfield (1987) Objetivos Autores creadores Tyler (1950) Rivlin (1971) Rossi y otros (1979) Suchman (1967) Stufflebeam (1966) Eisner (1971) Contrapuesto Wolf (1974)

Wolf (1974) Finalidad evaluativa Análisis de necesidades del cliente Opiniones para decisión consensuada Paradigma dominante Mixto Contenido de evaluación Todos los efectos del programa Rol del evaluador Evaluador externo de necesidades del cliente Cualquier aspecto Árbitro externo del programa del debate Mixto . humanísticos y holísticos (mixtos). que ellos denominan conductivista-eficientistas. Una síntesis de estas clasificaciones es la siguiente: Tabla 2. Castillo y Gento (1995) ofrecen una clasificación de «métodos de evaluación» dentro de cada uno de los modelos (paradigmas). transacciones. resultados Centrados en logros de necesidades U (unidades de evaluación) T (tratamiento) O (operaciones) Técnico externo Técnico externo Técnico externo Técnico externo Tabla 3.Humanísticointerpretativa Respondente Respondente Respondente Respondente Stake (1975 Parlett y Iluminativo Iluminativo Iluminativo Hamilton (1977) Sin metas Sin metas Democrático Sin metas Scriven (1967) MacDonald (1976) Por su parte.Modelo conductista-eficientista Método/ autor Consecución objetivos Tyler (1940) CIPP Stufflebeam (1967) Figura (countenance) Stake (1967) CSE Alkin (1969) Planificación educativa Cronbach (1982) Finalidad evaluativa Medición logro objetivos Información para toma decisiones Valoración resultados y proceso Información para determinación de decisiones Valoración proceso y producto Paradigma dominante Cuantitativo Contenido de evaluación Resultados Rol del evaluador Técnico externo Mixto Mixto Mixto Mixto C (contexto) I (input) P (proceso) P (producto) Antecedentes.Modelo humanístico Método/ autor Atención al cliente Scriven (1973) Contraposición Owens (1973).

aunque no la hiciera explícita.Modelo holístico Método/ autor Evaluación respondente Stake (1976) Finalidad evaluativa Valoración de respuesta a necesidades de participantes Interpretación educativa para mejorarla Paradigma domiContenido de nante evaluación Cualitativo Resultado de debate total sobre programa Rol del evaluador Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Evaluación holística MacDonald (1976) Evaluación iluminativa Parlett y Hamilton (1977) Cualitativo Elementos que configuran la acción educativa Iluminación y comprensión de los componentes del programa Cualitativo Sistema de enseñanza y medio de aprendizaje También Scriven (1994) ofrece una clasificación de los «modelos anteriores». Esta posición es mantenida. previamente a introducir su perspectiva transdisciplinar que luego comentamos. A diferencia de Tyler. habitualmente el objetivo perseguido. La visión fuerte hacia la toma de decisiones (Visión A) concibe al evaluador investigando con el objetivo de llegar a conclusiones evaluativas que le ayuden al que debe tomar decisiones. A continuación comentamos sucintamente estas visiones y los «modelos» que se adscriben a ellas. las decisiones acerca de un programa deben basarse en el grado de coincidencia entre los objetivos y los resultados. Los que apoyan este enfoque se preocupan de si el programa alcanza sus objetivos. por Ralph Tyler y extensamente elaborada en el modelo CIPP (Stufflebeam y otros.Crítica artística Eisner (1981) Interpretación crítica de la acción educativa Cualitativo • • • • Contexto Procesos emergentes Relaciones de procesos Impacto en contexto Provocador externo de interpretaciones Tabla 4. pero van más allá. Según el planteamiento tyleriano. además de algunas más que denomina «exóticas» y que se mueven entre los modelos de jurisprudencia y de experto. es el criterio de evaluación. El cambio de los alumnos. 1971). Stufflebeam ofrece una perspectiva más amplia de los . cuestionándose si tales objetivos cubren las necesidades que deben cubrir. Este autor identifica seis visiones o enfoques alternativos en la fase «explosiva» de los modelos.

Esta posición es lógicamente popular entre los que piensan que la verdadera ciencia no debe o no puede entrar en cuestiones de juicios de valor. 1993).contenidos a evaluar. tomó posteriormente una dirección diferente. En cambio. los que participan de la visión A proceden de un paradigma diferente. tal como hemos visto al analizar la cuarta generación de la evaluación (Guba y Lincoln. probablemente debido a su conexión académica con la historia. es una especie de simulación de una evaluación. uno de los textos más utilizados de evaluación en el ámbito de las ciencias sociales (Rossi y Freeman. la educación comparada y la administración educativa. Hace unos años Alkin (1991) revisó sus planteamientos de dos décadas atrás. La visión débil hacia la toma de decisiones (Visión B) concibe al evaluador proporcionando información relevante para la toma de decisiones. pero es éste el que tiene que tomar las conclusiones evaluativas. la filosofía de la educación. toma preferentemente esta perspectiva . Guba. se deja constancia de que el objetivo primordial de la investigación evaluativa es la mejora. proceso (P) que hay que seguir hacia la meta y producto (P) que se obtiene. termina definiendo un Sistema de Información para la Gestión (Management Information System-MIS) para uso del que toma decisiones. rica. Scriven (1994) nos dice que Stufflebeam ha seguido desarrollando su perspectiva desde que desarrolló el CIPP. De hecho. sin un juicio por parte del evaluador acerca de esos valores o alguna referencia a otros. 1989). Las visiones B y C son las posiciones de los científicos entroncados con una concepción libre de valores de la ciencia. Las discrepancias son las divergencias con la secuencia de tareas proyectadas y la temporalización prevista. El modelo de Alkin se conoce como CES (Centro para el Estudio de la Evaluación). pero siguió sin incluir los términos de mérito. Sin embargo. que define a la evaluación como un proceso factual de recogida y generación de información al servicio del que toma las decisiones. en la que el evaluador . Esta visión y la anterior han sido el camino que ha permitido integrarse sin problemas en el «carro» de la investigación evaluativa a muchos científicos sociales. evaluación de la instrumentalización. Este modelo es muy cercano al control de programas en sentido convencional. planteando las siguientes fases: valoración de las necesidades y fijación del problema. La visión relativista (Visión C) también mantiene la distancia de las conclusiones evaluativas. pero no le obliga a emitir conclusiones evaluativas o críticas a los objetivos de los programas. Estos son las cuatro dimensiones que identifican su modelo. la toma de decisiones para la mejora de todas y cada una de las cuatro dimensiones antes citadas. inputs (I) elementos y recursos de partida. valor o valía. contexto (C) donde tiene lugar el programa o está la institución. pero usando el marco de valores de los clientes. completa (Visión D) es la que entiende la evaluación como una tarea etnográfica o periodística. pero no ofrece valoraciones al respecto Pero la forma más simple de la visión relativista (Visión C) es la desarrollada en el «modelo de discrepancia» de evaluación de Malcolm Provus (1971). La visión de la descripción fértil. evaluación de progresos y evaluación de resultados. planificación del programa. uno de sus colaboradores en tal empresa. Además. El representante teórico más genuino es Marv Alkin (1969).

responsables y audiencias. que parece más evaluativa. transacciones y resultados. . Este modelo sugiere la «atención al cliente» propuesta por Scriven (1973). 11) Esquema para la audiencia y 12) Reunión de informes formales. es tayleriano en cuanto a concepción evaluativa centrada en los objetivos planteados. Stake. resta importancia a la orientación sumativa de la evaluación (decisiones externas sobre los programas y rendición de cuentas). Esta gira en torno a los tres componentes. interactivo. como rostro o imagen total de la evaluación. Stake se aleja de la tradición tayleriana de preocupación por los objetivos y revisa su método de evaluación hacia un planteamiento que él califica como «respondente» (Stake. A mitad de los setenta. Se trata de una especie de versión naturalista de la visión B. holístico. 1967). lo que se aprueba y los juicios. El evaluador deberá interpretar las opiniones y diferencias de puntos de vista (Stecher y Davis. el sentido de las agujas del reloj. 2) Alcance del programa. enfatizando la comprensión. 8) Antecedentes. Según Stufflebeam y Shinkfield (1987). Cronbach (1980). poniendo la primera en las doce horas y siguiendo las siguientes fases. subjetivo y orientado al servicio. 1990) y presentar una amplia gama de opiniones o juicios. una de descripción y otra de juicio. que exige un método pluralista. La visión del proceso social (Visión E) que cristalizó hace algo más de dos décadas alrededor de un grupo de la Universidad de Stanford. El evaluador puede seguir las fases también en sentido contrario del reloj o en cualquier otro orden. fuerte. en lugar de presentar sus conclusiones personales. 10) Validación (confirmación). 1975 y 1975a). ni siquiera en el marco de los valores del cliente como en la visión relativista. las normas. antecedentes. Sus posiciones quedaban claramente establecidas en noventa y cinco tesis que han tenido una enorme difusión entre los evaluadores y los usuarios de la evaluación. En la primera se recogen de un lado las intenciones y de otro las observaciones y. elaborando dos matrices de datos. transacciones y resultados. 3) Panorama de actividades. en lo observable. 9) Desarrollo de temas. con la finalidad de ofrecer una visión completa y holística del programa y responder a los problemas y cuestiones reales que plantean los implicados. proponiendo el método de evaluación de la figura (Stake. en su primera etapa. en la segunda. la planificación y la mejora de los programas sociales a los que sirve.informa de lo que ve sin intentar emitir afirmaciones valorativas o inferir conclusiones evaluativas. jueces e instrumentos. 7) Observadores. flexible. Esta visión ha sido defendida por Robert Stake y muchos de los teóricos británicos. Stake (1975a) propone las fases del método a modo de las horas de un reloj. descripciones y estudio de casos. Se centra en la observación. valorando sus necesidades y expectativas. más que en la inferencia. para evitar el término rica. 4) Propósitos e intereses. Estas fases son las siguientes: 1) Hablar con los clientes. En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos de vista y buscar la confluencia de las diversas perspectivas. 6) Datos para investigar los problemas. este modelo hizo de Stake el líder de una nueva escuela de evaluación. lo que se cree que debe ser. De manera gráfica. 5) Cuestiones y problemas. dirigido por Lee J. asumiendo que los objetivos del programa pueden modificarse sobre la marcha. Recientemente se le ha denominado como visión de la descripción sólida. tiene algo de sabor relativista y a veces parece precursora de la visión de la cuarta generación.

• Contexto en el que tiene lugar el programa y su evaluación. Ya hemos visto anteriormente que esta visión rechaza una evaluación orientada a la búsqueda de calidad. mérito. descriptivo e interpretativo. se trata algo así como de un intermediario informativo (Scriven. La evaluación iluminativa (Parlett y Hamilton. 1980). valor.. • Tratamiento (T) de la evaluación. así como para la elaboración de conclusiones. etc. según Scriven. Schuman (1967) ofrece un diseño evaluativo basado en el método científico o. también denominada holística. con la pretensión de iluminar sobre un complejo rango de cuestiones que se dan de manera interactiva (Fernández. pero se distinguía sobre todo por su énfasis de las dimensiones más éticas y argumentales de la evaluación. discutible y no objetivo. Ernie House (1989). individuos o grupos participantes. Lo mismo le ocurre a todo trabajo análitico como el análisis filosófico. también marcó el entronque social de los programas. que el conocimiento científico de todo tipo es sospechoso. 1975 y 1981) plantea la evaluación en términos similares al proceso de crítica artística. y favorece la idea de que ello es el resultado de la construcción por individuos y la negociación de grupos. siendo mantenida por Guba y Lincoln (1989) y seguida por muchos evaluadores americanos y británicos. Esto significa. 1991). varios tratamientos y varias operaciones. un teórico y un práctico de la evaluación bastante independiente de corrientes en boga. Por ello. 1977) tiene un enfoque holístico. En una investigación evaluativa concreta se pueden dar varias unidades. • Operaciones (O) que lleva a cabo el evaluador para la recogida y análisis de datos. incluido el suyo. De esta revisión de Scriven quedan al margen algunas posiciones evaluativas tradicionalmente recogidas y tratadas por los analistas. puesto que frecuentemente los logros no previstos son más importantes que los que figuran en la planificación del programa. Owens (1973) y Wolf (1974 y 1975) proponen un método de contraposición o discusión que sobre un programa llevan a cabo dos grupos de evaluadores. La visión constructivista de la cuarta generación (Visión F) es la última de estas seis visiones que describe Scriven (1994). Así por ejemplo. . supone la participación colaborativa de los implicados. Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos: • Unidades (U) que son sometidas a evaluación. en alguna variación o adaptación del mismo. La evaluación democrática de MacDonald (1971 y 1976). quizás motivado por la ausencia de estas facetas en los planteamientos de Cronbach y sus colaboradores. El evaluador determina el valor o mérito del programa para informar a los usuarios. para proporcionar información pertinente a quienes toman decisiones. El propio Scriven (1967 y 1973) proponía hace años centrar la evaluación en la atención al cliente y no tanto en las metas previstas. Scriven apunta que el propio Guba ha sido siempre consciente de las potenciales «autocontradicciones» de su posición. partidarios y adversarios.En cuanto a los contenidos de la evaluación. Eisner (1971. se suele denominar a su enfoque como evaluación sin metas. al menos. dentro de un universo UTO de situaciones admisibles. en definitiva varios (uto).

que incluye la generalización de conceptos en el ámbito del conocimiento y la práctica. se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation Thesaurus. y que el bien común es la primacía de la evaluación. pues dice que es la más cercana de todas a la visión del sentido común. la perspectia transdisciplinar se orienta hacia el consumidor. Las investigaciones evaluativas se mueven desde niveles muy prácticos hasta el nivel conceptual. no justamente una visión general. representada fundamentalmente por el modelo CIPP de Stufflebeam y sus planteamientos. la investigación evaluativa es una disciplina que incluye sus propios contenidos y los de otras muchas disciplinas. Scriven (1994) analiza las seis visiones críticamente y se muestra más cercano a la visión A. que es la que tienen los evaluadores trabajando con sus programas.siendo el contraste de opiniones de los implicados el elemento evaluativo primordial. esta visión generalizada significa que: a) Los campos distintivos de aplicación de la disciplina son los programas. Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prácticas que resultan de ellas. No se trata de una orientación exclusiva hacia el consumidor. también se produce información valiosa para el gestor que decide y se pueden analizar los productos de un programa o institución a la vista de sus objetivos. sino que ve necesidad de hacerlo en la gran mayoría de las ocasiones. la gestión. y la metaevaluación de todo ello. los productos. la investigación evaluativa tiene dos componentes: el conjunto de campos de aplicación de la evaluación y el contenido de la propia disciplina. En tal sentido. d) Los distintos campos de la investigación evaluativa tienen muchos b) c) . de la misma manera que los médicos trabajan con los pacientes. los proyectos. 1991). más que hacia el gestor o intermediario. Scriven quiere extender esta visión con una visión o modelo que denomina transdisciplinar y que él califica como significativamente distinta de la aludida visión A y radicalmente diferente de las restantes. De manera más detallada. Esta visión es objetivista como la A y defiende que el evaluador determine el mérito o el valor del programa. la investigación evaluativa es mucho más que la evaluación de programas e incide en procesos. los rendimientos. el personal. En segundo lugar. Algo parecido a lo que ocurre a disciplinas como la estadística y la medición. En la perspectiva transdisciplinar. del personal o de los productos investigados. es transdisciplinar. Se trata también de una visión generalizada. la visión fuerte sobre la toma de decisiones. instituciones y otros muchos más objetos. pero sí la consideración primera del consumidor como justificación del programa. se debe establecer de manera explícita y defender la lógica utilizada en la inferencia de conclusiones evaluativas a partir de las premisas definicionales y factuales. independientemente del tipo y del estado general del paciente. A partir de aquí. En definitiva. haciéndolo lo mejor posible. Así mismo. Desde esta perspectiva. su preocupación por el análisis y mejora se extiende a muchas disciplinas. Esta posición no sólo ve legitimidad en la emisión de conclusiones evaluativas por parte del investigador.

Barbier. y Cook. Una crítica que podría hacerse a este planteamiento de Scriven está en el excesivo énfasis relativo de la orientación al cliente. Baltimore: The Hopkins University Press. y Latorre. Pensamos que esta orientación debe integrarse dentro de una orientación a los implicados. pero nos parece que la investigación evaluativa hoy en día tiene una orientación prioritaria más plural que la defendida por este autor. Barcelona: Labor Atkin. Evaluation theory development.. Behavioral Objectives in curriculum design: A cautionary note. consideramos desde una posición pragmática. 1. de personal. Berk. R.). pero sí tener un conocimiento cabal. Nosotros no tenemos unas posiciones contrarias a las otras visiones en la misma medida que las tiene Scriven y. Ca: Jossey-Bass. M. El cuarto elemento distintivo de la visión transdisciplinar de la evaluación es que se trata de una visión técnica. Evaluating Pupil Growth. (1969). 1996). 35. Evaluation and education at quarter century (pp. Del Rincon. probablemente. Review of Educational Research. Barcelona: Paidos. donde existen distintos tipos y distintas audiencias y. J. por supuesto. The Science Teacher. J. 39. D. (1992). M.: Allyn and Bacon Alkin. tienen muchos puntos en común. Ma. al usuario en sentido estricto. Referencias bibliográficas Ahman. Investigación educativa. M. Sin embargo. (1968). y la correcta ubicación en el proceso de muchas técnicas auxiliares en las que.. (1969). aportan algo útil para la comprensión conceptual y el desarrollo de la investigación evaluativa. etc. Principles of Tests Measurement. B. 2-7. 27-30. sino que. D. son los usuarios en el sentido de Scriven. La lógica de la síntesis de resultados. Evaluation Comment. La evaluación de programas. las consecuencias. Arnal. Boston. Alkin. de centros. tiene su propia metodología. (1983). 339-358. S. etc. Fundamentos y Metodología. 2. R. Baker.) (1981). La evaluación no sólo necesita el apoyo técnico de otras muchas disciplinas. S. Educational evaluation methodology: The state of the art. A. . coincide en gran medida con los planteamientos que de la misma hemos defendido en otros momentos (Escudero. J. A. (Ed. San Francisco. (1991). M. y Ball.. En M. Curriculum evaluation. además. Esta perspectiva transdisciplinar de la investigación evaluativa de Scriven (1994). Anderson. J.niveles de interconexión y solapamiento. y Phillips (Eds. S. The profession and practice of program evaluation. sí que pensamos que esta moderna visión de Scriven es sólida y coherente y ampliamente aceptada en la actualidad. M. Evaluation theory development: II. de hecho. no es necesario ser un gran especialista. La evaluación en los procesos de formación. (1967). Chicago: NSSE/ University of Chicago .91-112). L. (1993). una muy importante. que todas las visiones tienen puntos fuertes y que en todo caso. McLaughlin.

H. y Krathwohl. M. F. Eisner... A. TH. R. La evaluación en la educación secundaria. 7. L.Medina y L.F. S. (1977). T.) Educational Measurement. F..Blanco. En E.) New directions in educational evaluation (pp. B.H. (Ed. S. (1967).. 64. P. Dornbusch. (1970).203-253). y Gento. H. methods and institutional arrangements.R.C.S. Castillo. Chicago: Jossey-Bass. Buenos Aires: Guadalupe. McKay. L. S. (1986). Bloom. En R. Madrid: Anaya. J. Chelimsky. Dubois. San Francisco: Jossey-Bass. Handbook on formative and summative evaluation of student learning. R.. (1956). Buenos Aires: Troquel.. Hess. Carreño. 35-55. Boston: Allyn Bacon. D. Teacher evaluation in the organizational context: A review of the literature. Furst. P. Hill. (1985). Paris: PUF.M. London: The Falmer Press. Evaluación de programas educativos.133-137).S. A.. SR (1989). Cognitive domain. The role of experience in formulating theories of evaluation practice. Modelos de investigación sobre organizaciones educativas. (1982). House (Ed. Ebel. Bonboir. E. (1972). En A. B. Educational objectives: Help or hindrance?. DC: American Council on Education. D. Research for tomorrow's schools: Disciplined inquiry for education. E. Enfoques y principios teóricos de la evaluación. (1989). L. Revista de Investigación Educativa. Taxonomy of educational objectives Handbook I. (1994). y Weiner. L. L. (1963). M. S. F. R. (1969). Fundamentos de la medición educacional. Investigación evaluativo. Thorndike (Ed. A. (1971). Willar (Coord.. Proyecto docente sobre técnicas de medición y evaluación educativas. y Madaus G. Bloom. Phillips. 13.). R.. 672-683. Madrid: Editorial Universitas. J. Cabrera. (1977). J.R. W. Course improvement through evaluation.. Teachers College Record. 1. Essay examinations. E. y Suppes. S. New York: MacMillan.D. (1980). F. New York: McGraw-Hill. Y Madaus. (1971). Cronbach. W. Barcelona: Universidad de Barcelona.).. Hastings. Washington . Darling-Hammond. 21-56. Towards reform in program evaluation: Aims.25-69). (1975). B. & Pease. (1998).L. Cronbach. Investigación educativa.J.D. L. Hambron. De Miguel. M. Wise.. centros y profesores (pp.C. E. A History of Psychological Testing. Diccionario de Ciencias de la Educación (pp. AE. Modelos de evaluación de programas educativos. La Docimologie. Mexico: Trillas. Cronbach. Bloom.. D. J. Cronbach. Walker. New York: Davis. W. S. Salamanca: Amasú Ediciones. Hornick. S. American Journal of Evaluation 19. S. Engelhaut. Coffman. Designing evaluations of educational and social programs. The School . Evaluación del aprendizaje. Hastings. En Arturo De la Orden. (1995). J. De La Orden.

Instructional technology and the measurement of learning outcomes: some questions. R. (1981). Chicago: AERA. R. J. D. A. W. E. Theoretical sensitivity. Gronlund. Madrid: Cincel.I Carrobles. (1991). (1994).Review. Evaluation Practice. El sistema educativo de la Compañía de Jesús. (1978). Medina (Coord. G. Las condiciones del aprendizaje. Madrid: UPCO. T. Eisner. (1971). Washington: National Education Association. Eisner.) (1965). San Francisco: Jossey Bass Publishers. S.: Sage Publications Gullicksen. (1996). (1985). E. Glaser. Teaching machines and programmed learning. En R. . (1973). Eisner. Teoría y métodos de evaluación. R. W. E. New York: McMillan. Fernández de Castro. 519-521. School Review. S. (1950). E. (1981). (Ed. W. (1969. Evaluación conductual. (1975). M. (1982). Fetterman. Eisner. Actas de las III Jornadas Nacionales de Didáctica Universitaria «Evaluación y Desarrollo Profesional» (pp. Las Palmas: Servicio de Publicaciones. The methodology of qualitative evaluation: the case of educational connoisseurship and educational criticism. Ca: Stanford University . 1-18). Madrid: Aguilar. Y. R.). Eisner. Proyecto docente e investigador. Mill Valley. Effective evaluation. La «Ratio Studiorum». Emerging models for educational evaluation. y J. London: The Falmer Press. Stanford. Fernández. G. New York: MacMillan. 15. (1985). 2. Enfoques modélicos en la evaluación de la enseñanza universitaria. 75. Madrid: Ediciones Pirámide. (1993). La evaluación de la calidad docente. Universidad de Las Palmas.). Gil. Escudero. G. (1989). Popham (Ed. L. y Strauss. T. Stanford. Instructional and expressive educational objectives: their formulation and use in curriculum. B. Fourth Generation Evaluation. E. The discovery of grounded theory. J. E. Criterion-referenced measurement. E. Ca. Glaser. Glaser.). R. B. Madrid: CSIC. Fernández Ballesteros. y Lincoln. Guba. The perceptive eye: Toward the reformation of educational evaluation. 1. 18. En A. (1963). The art of educational evaluation. W. Y. New York: Wiley Hambleton. Newbury Park. H. American Psychologists. G. Chicago: Aldine. Measurement and evaluation in teaching. Fernández. E. 1-15. N. E. y Lincoln. (1992). (1971). (1985). Guba.En Encyclopedia of Educational Research. Escudero. K. (Dir. Gagne. En J. Theory of mental tests. Glaser. Ca: Stanford Evaluation Consortion. Ca: Sociology Press. La enseñanza programada. Perspectivas históricas de la evaluación conductual. Instructional objectives (pp. (1967). M.A. 5-59). Zaragoza: Universidad de Zaragoza. 250-260. Empowerment evaluation.

La evaluación educativa. New Orleans. Educational Evaluation: Theory and Practice. L. R. London: Jessica Kingsley Publishers. Joint Committee on Standards for Educational Evaluation (1981. Newbury Park. 68-75. 55-67. Macdonald. y. Naturalistic inquiry. New Cork: Davis McKay. (1953). R. y Guba. (1981). Lincoln. B. R. E. (1986). En House. House. Evaluation Models. Manual de evaluación formativa del currículo. F. S. J. D. E. S. B. Ca. E. (1988). y otros (1991). Kellaghan.: Houghton Mifflin Company. 10. Bogotá: Universidad Pontificia Javierana. Hernández. The evaluation of the Humanities Curriculum Project: a holistic approach. (1994). M. C. Philosophy of evaluation. Paper presented at the American Educational Research Association. Taxonomy of educational objectives. Beverly Hills. Naturalistic evaluation. (1982). B. Joint Committee on Standards for Educational Evaluation (1988). en D. CA. San Francisco: Jossey-Bass. Horowitz.: Sage. R. Viewpoints on Educational . H. (1995). G. 125136. (1985).. En B. But is it rigorous? Trustworthiness and authenticity in naturalistic evaluation. Newbury Park. (1971). Murcia. (1993). (Ed. The personnel evaluation standards. y Masia. 3. Keefe. (1983). E. Pittsburg: University of Pittsburgh Press. A 75-year legacy on assessment: Reflections from an interview with Ralph W. How we think about evaluation.). R. Lindquist. (1989). S. Defining educational objectives. London: McMillan.: McGraw-Hill. y Guba. B. Kidder. R. D. LA. 89. y. E.) (1964). CA: Sage. Worthington. y Guba. Boston. Ca. Lewy. R. Scientific inquiry and the social sciences.). Design and Analysis of Experiments in Psychology and Education. Madaus.) (1989). projects.B. A. Collins. Krathwohl. R. Proyecto docente e investigador. Evaluating higher education. Lincoln. (1976). Evaluation and the control of education. Kogan. Ohio: Charles A. School evaluation using the CASE-IMS model and improvement process. Worthen y J. y. 163-169.: Jossey-Bass House.: Sage.S. Blomm. Lincoln. New York. Macdonald. Evaluation at the local level.) (1976). T.. G. Ma. Handbook II: Affective domain. Tawney (Ed. Bogotá : Voluntad/Unesco. (Ed. 2.).. Brewer y B. (Eds. M. (1964). Evaluating with validity. En M. Standards for evaluations of educational programs. San Francisco. Sanders. Criteria for assessing naturalistic inquiries as products. F. G. En D. E. The Journal of Educational Research. Theory into Practice.1. E. Qualitative research and quasi-experimental frameworks. Tyler. (Ed. Curriculum evaluation today: trends and implications. F. Williams (Ed. Studies in Educational Evaluation. Lindvall. Jones Publishing Company. San Francisco: Jossey-Bass. B. G. (1983). E. 20. L. and materials.Hammond.

(1973). R. Mateo. Vocabulaire de la psychologie.: Sage Pérez. (1974). R. (1980). W. Palo Alto.). 931-943. H.). American Journal of Evaluation. México: Trillas. Beyond method. Beverly Hills. N. 1-14. (1999). Mary Anne Bunda. Qualitative Evaluation methods. Educational evaluation by adversery proceedings. Boston: Kluwer-Nijhoff . Gimeno y A. J. Owens. J. Nowalowski.. D. The conceptualization of educational evaluation: An analytical review of the literature. 15-29. (1983). Journal of Educational Research. Ca. Nevo. En E. (1962). La enseñanza: su teoría y su práctica (pp. A. A new kind of school examination.: Kluwer-Nijhoff Publishing. (1993). Preparing instructional objective. H. Modelos contemporáneos de evaluación. A paradigm involving multiple criterion measures for the evaluation of effectiveness of school programs.San Francisco: Jossey-Bass. (1989). D. . A. Barcelona: Universidad de Barcelona. (1986). La evaluación en el aula universitaria. Madrid: Universidad Complutense. Common School Journal. CA. W. (1983). Nevo. Jeri. Norris. Zaragoza: ICE-Universidad de Zaragoza. Advances in Psychological Assessment. (1845). Metaevaluación de necesidades educativas: Hacia un sistema de normas. A Handbook of Educational Variables. 7. Madrid: Akal Phillips. F. N. School Evaluation: The Politics and Process. Q.R. Ca: Sage. B. Proyecto docente e investigador. McReynold. Pieron. Beverly Hills. University of East Anglia .and Human Services Evaluation. III. En Hamilton D. En E. R. London : The Falmer Press. 53. 20. y otros (Eds. Inclusive evaluation: Implications of transformative theory for evaluation. Beyond the numbers game.: Fearon. M. London : Kogan Page/CARE. Parlett. Evaluation as illumination: A new approach to the study of innovative programmes. Boston Grammar and Writing Schools. (1975). House (Ed. En J. Review of Educational Research. Morgan. M. Evaluation in education. C. Martínez de Toda. Educational and Psychological Measurement. School of Education . Análisis de metas. C. (1991). (1977). London: MacMillan. January. Nunnally. Mager. (1978). Psychometric Theory. Mccall. Tesis doctoral. vol. T. M. Russell Working (1985). October. New directions in educational evaluation. M. Hingham . (1968). Mertens. R.). Mann. House (Comp. The conceptualization of educational evaluation: An analytical review of the literature. R. 19. y Michael. F. Understanding educational evaluation. G. (1973). P. (1967). 1. Ohio: Merril. y otros (1993). J. Paris: PUF. New York: McGraw Hill. D. (1983). (1920). Mager. Berkeley: McCutchan. J. 1. D. Columbus. Metfessel. Mass. S. 27. Patton. Mateo. Pérez. y Hamilton . 117-128. 426-449).

57-70. AERA Monograph 1. 3. (1971). (1976). Ca. Encyclopedia of Educational Evaluation. CA. W. Examens et Docimologie. American Journal of Evaluation 19. . 3. 147-166. Madrid: Anaya. R. (1969). Discrepancy evaluation.: McCutchan Publishing Co. W. Ca. Popham.C. Popham. y otros (1979). P. Fourth generation educational evaluation: The impact of a post-modern paradigm on school based evaluation. M. Provus. Ca.: Sage. NJ. Understanding program evaluation. J. Beverly Hills . Systematic Instruction. M. Planchard. E. Scriven. Evaluation Comment. Universidad de Cantabria. L. The methodology of evaluation. Paris.: Brookings Institute. En E. D. A. M. y Freeman. (1960). (pp. J. Proyecto docente. G. Russell. (1980). W. M. Evaluation research methods: A base guide. N. M. (1991. Evaluación basada en criterios. J. Rosenthal. En Perspectives of Curriculum Evaluation. PUF. (1993). En S. Evaluation history. Beverly Hills .: Center for Research on Educational Accountability and Teacher Evaluation. Problemas y técnicas de la evaluación educativa. M. Chicago : Rand McNally and Company. Minimalist theory: The least theory that practice require. Mi. J. Goal-free evaluation. Scriven.. N. Salvador. 187-199.: Sage. Aula Abierta Monografías 25. Ca. Evaluation as a discipline. Scriven. 20. Berkeley. 319-328). Rodríguez. L. Rossi. y otros (Eds.).Pieron. Rutman. Washington. (1998). For educational program improvement and assessment. T. (1980). Ca. Prose and cons about goal-free evaluation. Oviedo: ICE-Universidad de Oviedo. (1983). Englewood Cliffs. M. 1-4.: Sage. S.: Sage Scriven. J. (1994). L. Establishing instructional goals. Englewood Cliffs. 23. Evaluación de los aprendizajes. Studies in Educational Evaluation. L. B. (1992). Duties of the teacher. W. Popham. (1970). E. y Baker. y Mowbray.). J. H.. Scriven.(pp. San Francisco: Jossey Bass Publishers.: Prentice Hall. P. Studies in Educational Evaluation. Madrid: Ediciones Fas. (1973). 1. 39-83). Berkeley. Systematic thinking for social action. (1970). Anderson. E.) (1984). House (Ed. Evaluation: A Systematic Approach. Beverly Hills. School evaluation: The politics and process. La investigación pedagógica. H. Kalamazoo. Evaluation: A systematic approach. Rossi. M. (1991a). y otros (1995). Beverly Hills. Rivlin. Evaluation Thesaurus. (1997). Newbury Park .: Edgepress Scriven. Popham. (1967). Madrid: Magisterio Español. H. 1.: Sage. M. y Willinsky. The logic of evaluation. (Ed. Rutman. M. (1974). Ca. Scriven. Scriven. Ca. Inverness . (1983). (1971). H. A.: McCutchan.: Prentice Hall.

The applicability of selected evaluation models to evolving investigative designs. 2. 68. (1998). (1967). V. EG. L. M. L. E. (1975b). 19-22. D. D. Barcelona: Paidos/MEC. Stufflebeam. Studies in Educational Evaluation. E. R. Investigación y desarrollo del curriculum. (1991). Using profesional standards to legally and ethically release evaluation findings. y Shinkfield. Evaluación sistemática. Englewood Cliffs. 12. L. Sunberg. L. L. R. New York : Russell Sage Foundation. A depth study of the evaluation requeriment. E. 5. Introduction: Recommendations for improving evaluations in U. Ca: Sage. Newbury Park.J. Stacher. Evaluative Research: Principles and Practice in Public Service and Social Action Programs. Stake. Studies in Educational Evaluation. Merriman. y Helm.wmich. Studies in Educational Evaluation. (1977). Stenhouse. J. A. (1975a). Theory into Practice. Urbana: University of Illinois Press. (1990). J. 287-296. Suchman.edu/evalctr/checklists/ el 15 de Diciembre de 2002. 20. Stufflebeam. (2001). Illinois : F. 1. Quieting reform. D. R. D. Consultado en www. B. Studies in Educational Evaluation. WJ. (1987). D. Educational Evaluation and Decision-making. E. R. Stake. N. 3. 183-209. L. MM (1971). (1984). S. N. (1966). y Haver. Appraising and recording student progress. The metaevaluation imperative. (1942). 4. RL. D. Itasca. Stake. Evaluation News. Setting standars for educational evaluators. Evaluating the arts in education: A responsive approach. Guba.. Stufflebeam. New York: Harper & Row. Stufflebeam. W. D. Stufflebeam. University of Western Michigan. Newbury Park. Foley. E. Stake. R. Journal of Personnel Evaluation in Education. E. E. (1981). Evaluating professional support personnel in educational settings. How to Focus on Evaluation. 22. Program evaluation: particularly responsive evaluation. A theoretical stament of responsive evaluation. Guía teórica y práctica. (1999). 3. public schools. y Tyler. Stufflebeam. Peacock Publishing. 3. A. E. 25. N. L. Stufflebeam. Gephart. M. Stake. 121-134. 489-500. E. Ca. 148-152. R. R. Guidelines for developing evaluation checklists. y Davis. Hammond. L. A. Teacher College Record. Stufflebeam. 5. 325-334. American Journal of Evaluation. M.: . Stake. (1986). H. 523-540. 2 . Stronge. L. (1976). Ohio: Merril . (1967). D. Occasional Paper. Conflicts between standards-based and postmodernist evaluations: Toward rapprochement. The countenance of educational evaluation. WJ. 22. Smith.Smith. D.: Sage. Madrid: Morata. HO & Provus. D. L. Assessment of person. (1994). (2000). W.. 3-21. (1990). R. 16.

R. Worthington. y Sanders. . Phi Delta Kappa. (1993). New York: Teacher College Press. Thorndike. AERA Monograph Series Curriculum Evaluation. The International Encyclopedia of Educational Evaluation. (1987). R. / Este artículo ha sido citado en. R. 3-12. (1978). Walberg. H. (1962). D. (1950). Chicago: University of Chicago Press . C.fide. Investigación evaluativa.. The changing face of educational evaluation. H. Tyler. Trial by jury: a new evaluation method. Wolf. J. A. dissertation. Wilson (Ed. (1998). 185-187.) (1990). Tyler. y Almaguer. Revista de pedagogía pp. Indiana University. (Ed. R. Theory into Practice. Mendro.). Tyler.L. B. (1974). México: Trillas. Métodos para determinar la eficiencia de los programas de acción. new means. American Journal of Evaluation.9-16. A rethoric for naturalistic inquiry. Columbia University .O. Jones Publishing Company. Ohio: Charles a. R. 1. (1973). W. En J. W. Ph. W. T. C. (1975). C.. Changing concepts of educational evaluation. B. 57. J. G.. 113-137. Fernández Chávez. Studies in Educational Evaluation. Educational evaluation: New roles. An accountability system for school improvement. L. Stack (Comp. Effectiveness indices: A «value added» approach to measuring school effect.) (1969). D. H. J. Worthen. Wilson. 19. R. L. C (). La evaluación de los objetivos. R. Fundamentos psicológicos del aprendizaje y la enseñanza (pp. E. 4. The citizen as jurist: A new model of educational evaluation. Wolf.. Zeller. H. y Haertel. 1. (1967). M.. (Ed. J. Basic principles of curriculum and instruction. Citizen Action in Education. Construcción histórica del concepto de calidad de la educación. Theory and practice. (1991).pdf . R. En R. W.. (1994). R. Webster.. R. 1. W.). Taba. L. J. Weiss. An Introduction to the Theory of Mental and Social Measurements. Webster. Curriculum development. Atlanta.cl/revistas/documentos/Const. Have we learned anything new about the use of evaluation?. Perspectives of curriculum evaluation. 1. 549578). 21-33. y Edwards. New York: Harcourt Brace . Paper presented at the annual meeting (April) of the AERA. * Bustos. Weiss. Worthen. Oxford: Pergamon Press. N. R. GA. J. 20. R. A.. y Sanders. E.. Madrid: Anaya.[Párrafo añadido el 16 de Marzo de 2007] . P. TO KNOW MORE / PARA SABER MÁS This article has been cited in. (1904). Chicago: Rand McNally.Prentice Hall. XXX. (1983). E. Educational Evaluation: Theory and Practice. Chicago: University of Chicago Press . http://www.

48:229-235. Ignacio. [Párrafo añadido el 16 de Marzo de 2007] Peñaranda-Correa F. abr. Escobar-Paucar G. (2004). Gustavo (2006). Vol. Rosell León. Fac. Ing.scielo.htm . Salud Publica Mex.udec. p. [Párrafo añadido el 16 de Marzo de 2007] Torres Fernández.unirioja.Acimed.J. 179-199. Franklín..php?script=sci_arttext&pid=S071813372005000100002&lng=es&nrm=iso. (2006). Index Enferm Digital 2004.index-f. (2003).. Claves identificativas de la investigación evaluativa: análisis desde la práctica. A. Tarapacá. [Párrafo añadido el 16 de Marzo de 2007] Gámez Requena. La nueva concepción de la evaluación de aprendizajes en la educación de las ciencias de la salud. A. (2006).php.es/departamentos/filologia_inglesa/garciala/bibliography. Leal Labrada. Marín Milanés. Arango-Córdoba A. 11th online edition http://www.mx/salud/48/483_6.htm. Las tecnologías de la información y la comunicación y los indicadores de evaluación universitaria en España. Ciencias Pedagógicas. n. [Párrafo añadido el 19 de Mayo de 2004] * Cockbaine O. Disponible en http://www. [Párrafo añadido el 16 de Marzo de 2007] García Landa.P. 44-45. [Párrafo añadido el 16 de Marzo de 2007] Escudero. ISSN 0718-1337. Contextos Educativos. (2006). 2005. T (2005-2006). Usabilidad: la evaluación de los servicios en el entorno Web . Disponible en http://bvs.cu/revista/61/index . no. 3.Univ. José Ángel (2006).html .9-20.cu/revistas/aci/vol14_5_06/aci10506.pdf . vol. Revista de Educación en Ciencias de la Salud (RECS). 6 (1).* Cardona Rodríguez. .cl/ofem/recs/anteriores/vol312006/art3106a. http://www. Education Policy Analysis Archives.1 [citado 08 Enero 2007]. [Párrafo añadido el 16 de Marzo de 2007] * * * * * * * .asu.pdf. Yanelis. Análisis integral de las prácticas pedagógicas de un programa educativo en Colombia. Disponible en http://www2. Yelina y Kourí Cardellá. [Párrafo añadido el 16 de Marzo de 2007] González Pérez. http://www..C.sld.edu/epaa/v11n46. 11(46).com/indexenfermeria/44revista/44_articulo_51-55. C. Evaluación de los programas de promoción de la salud para inmigrantes. L.13. J. Bastidas-Acevedo M.rimed. Juan y Casas R.es/servicios/sp/ej/contextos/infos/2091397. Torres-Ospina JN. 8-9. Márquez. & Barrenetxea Ayesta. [Párrafo añadido el 16 de Marzo de 2007] Ortiz. Las investigaciones sobre evaluación educativa en Cuba. 14(5) . Yorbelis .insp. criticism and philology. [online].cl/scielo. A bibliography of literary theory. Disponible en la World Wide Web: http://www. M. Piedra Salomón. Osvaldo. http://cied. Rev. Un metamodelo OLAP para la evaluación de ambientes tel. . 2. http://epaa.unizar.

es/RELIEVE Dirección Language / Español (Title. de intenso desarrollo de la evaluación en educación. 27 ) publicación Abstract / Resumen This article presents a review and state of art about development in educational evaluation in the XXth century. Consultado en (poner fecha). Tiene un gran número de trabajos y publicaciones sobre evaluación educativa. Evaluación Formativa. Publication Date: 2003 Fecha de Febr. de intenso desarrollo de la evaluación en educación. 9. abstract and keywords in english) Idioma Volumen 9. Desde los tests hasta la investigación evaluativa actual.uv. Tomás (2003). the XXth.. The main theoretical proposals are commented Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Evaluación Sumativa. n. Desde los tests hasta la investigación evaluativa actual. Métodos de Evaluación. Investigación evaluativa.ABOUT THE AUTHORS / SOBRE LOS AUTORES Tomás Escudero Escorza (tescuder@posta. n. v. Buscar otros artículos de este autor en Scholar Google ARTICLE RECORD / FICHA DEL ARTÍCULO Escudero. [ From tests to current evaluative research.unizar. v.htm.es/RELIEVE/v9n1/RELIEVEv9n1_1. Evaluation Methods. Test. particularmente sobre evaluación institucional. 9. Es miembro de la Comisión de Coordinación Técnica del Plan de Calidad de las Universidades. Un siglo. 1. One century. Formative Evaluation Summative Evaluation. Revista Reference / Referencia Title / Título ELectrónica de Investigación y EValuación Educativa (RELIEVE).uv. el XX. 1 Revista 1134-4032 ISSN Publication date / 2003 (Reception Date: 2003 January 10. Evaluation. Se analizan los principales propuestas teóricas planteadas. Catedrático del área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Zaragoza. el XX. Evaluación de Programas Keywords Descriptores Institution / Universidad de Zaragoza (España) Institución Publication site / http://www. Un siglo. http://www. Evaluación. of intense development of evaluation in education] Authors / Autores Tomás Escudero Escorza Review / Revista ELectrónica de Investigación y EValuación Educativa (RELIEVE). Evaluation Research. Testing.1 . n.es). Program Evaluation.

respondiente. que ha provocado una ruptura ética en los individuos y desintegración de las comunidades. propósitos y objetivos del Proyecto Educativo Educación Básica: "Reto. inmersa en una crisis de valores. Reproduction and distribution of this articles it is authorized if the content is no modified and their origin is indicated (RELIEVE Journal. y Modelo Curricular planteado. está sustentada teóricamente en la cuarta generación de la evaluación. la práctica pedagógica y el proyecto pedagógico de aula y plantel. number and electronic address of the document). RELIEVE. el Plan de Acción del Ministerio de Educación. RELIEVE. Compromiso y Transformación".uv. volumen. por cuanto ambos procesos se realizan simultáneamente en el aula y no de forma separada. en el que se contemplan diversas dimensiones: evaluación del aprendizaje en los alumnos. Coll (1987) considera que el cómo evaluar va unido al cómo enseñar. iluminativo e integrado a los procesos de enseñanza y de aprendizaje. ARGUMENTACIÓN TEÓRICA En una sociedad convulsionada como la nuestra. número y dirección electrónica del documento). © Copyright 2002. volume. la cual es concebida como un proceso democrático. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE.es Programa de Estudio de Educación Básica Información General Evaluación La propuesta de evaluación de los aprendizajes en la primera Etapa de Educación Básica se enmarca dentro de los principios. De allí que la evaluación podrá verse como un proceso constructivo integrado al quehacer educativo. [Principal] [La Revista] [Artículos publicados] [Publicar en RELIEVE] [Home Page] [ About us] [ Published Articles] [To publish in RELIEVE] Revista ELectrónica de Investigación y EValuación Educativa http://www.© Copyright 2002. negociado.es/RELIEVE email: relieve@uv. se observa una educación ajena a este .

tanto la enseñanza como el aprendizaje cobran una nueva connotación: . el ser y la comunicación para lograr un cambio que permita superar los obstáculos y dificultades y poder encauzarlo con bases firmes hacia el nuevo milenio. El docente debe provocar y planificar las condiciones óptimas para que se produzcan los encuentros entre él. que plantea como finalidad proyectar. En este sentido. intensiva. orientar y dirigir las experiencias del trabajo reflexivo de los alumnos atendiendo a hechos y valores de sus culturas y de sus vidas. . continua. Por ello ambos procesos (enseñanza y aprendizaje) no pueden darse aisladamente sino de forma cohesionada e interactiva. los alumnos y la comunidad. En este sentido la teoría de Vygotzky (1977 y 1979). El aprendizaje. a fin de favorecer una verdadera enseñanza y la construcción del saber por parte del niño. así como con otros fuera de su alcance que puedan ser asimilados con la orientación del docente o por intermedio de otros compañeros de clase o de la comunidad donde vive el niño. Para cubrir tales exigencias se plantean. el hacer. para avanzar en un proceso democrático dignificador de sus actores y cohesionador de sus comunidades. así concebido. según lo postulado por Piaget (1966 y 1975).problema. personalizada. innovaciones en la Educación Básica que conducirán a redimensionar el proceso enseñanza aprendizaje como vía para la comprensión. depende de los procesos cognitivos estructurales cada vez más complejos que determinan las relaciones interpersonales entre el alumno y el docente. al maestro como mediador y a la escuela en integración con su comunidad. el objeto de conocimiento que constituye el contenido del saber y el profesor que enseña con el propósito de favorecer el aprendizaje de los alumnos. autónoma e implica que el alumno esté en constante interacción con el objeto de conocimiento. planificado y provocado por agentes externos. Esto supone el uso de nuevas estrategias y actividades que tomen en cuenta al niño como centro del saber. la actividad pedagógica deberá ser articulada entre el alumno que lleva a cabo su aprendizaje. Nos encontrarnos con un alumno en capacidad de aprender una serie de aspectos que tienen que ver con su nivel de desarrollo. dinámica. el saber. Como lo afirma Coll (1990). concede al maestro .El aprendizaje es una actividad mental. se identifica como la construcción interna del conocimiento donde subyace una actividad autoestructurante por parte del alumno cuya dinámica.La enseñanza es concebida como un proceso intencional.

como inherente a la condición social del sujeto El hombre desarrolla sus potencialidades genéticas realiza sus logros c culturales en función de la interacción con otros hombres. significativa planteada por Ausubel (1977). construir conocimientos y emprender tareas y (2) Poseedor de un acervo cultural que tenga continuidad en la escuela Las teorías anteriormente descritas centran su atención en el estudiante. su reflexión e interacción en los procesos de enseñanza y de aprendizaje. por lo que se debe propiciar en el aula un ambiente favorable para la discusión y confrontación de ideas. alimentándose de esa interacción. autoevalúa. que toma en cuenta las estructuras mentales del que aprende. propone. planifica y organiza situaciones significativas y pertinentes que promueven la participación democrática en el aula. simultáneamente. con la naturaleza y. por lo que tienen gran importancia en la práctica pedagógica y evaluativa. son posibles en la medida en la que el sujeto que interactúa sea percibido como: (1) Dignificado en su capacidad para comprender. a través de un proceso interactivo que se origina entre docentes. La necesidad comunicativa es planteada por Esté (1994). donde cada niño sea percibido como un ser diverso que avanza a su propio ritmo de acuerdo con su nivel de maduración. esto implica un aula que: . La significatividad reside en relacionar e integrar los nuevos conocimientos que el alumno adquiere con los que ya posee. al considerar al aprendizaje como un proceso constructivo interno y personal. evalúa. (2) Organización de la enseñanza tomando en cuenta los conocimientos previos y estilos de aprendizaje en los alumnos y (3) La motivación como elemento importante para aprender. quien señala la importancia de los conocimientos previos de los alumnos en la adquisición de nuevas informaciones. alumnos y objetos de conocimiento en el cual el maestro actúa como mediador del aprendizaje del alumno. El autor define estas tres condiciones básicas para que se produzca el aprendizaje: (1) Estructuración lógica de los materiales de enseñanza. construye aprendizajes. quien estará en capacidad de construir e integrar aprendizajes cada vez más complejos en función de la interacción y cooperación con los demás. Cabe destacar la teoría psicológica. La interacción y la comunicación.un papel importante como mediador en el desarrollo de las estructuras mentales del alumno. según el mismo autor. verbal. contrasta y logra cosas en un mismo curso de negociaciones. La práctica pedagógica no puede ir separada de la práctica evaluativa. Para ello.

Incluya la planificación integrada al contexto y al proceso de evaluación. analiza la interrelación del proceso de aprendizaje en el contexto donde se desarrolla. global. que permita su libre actuación para que manifieste lo que él es y quiere ser y hacer. se destacan los siguientes: 1. es decir.. Invite al docente a observar y describir la evolución del aprendizaje de los alumnos (bloqueos.. a fin de ofrecer información pertinente y oportuna a cada uno de los participantes. para vincularlo con los resultados reflejados en el curriculum que se producen a corto. regresiones. mediano y largo plazo.1. El sistema de instrucción está constituido por un conjunto de elementos que toma en cuenta y relaciona con el entorno socio-psicológico y material. el proceso de la enseñanza por parte del docente. que pretende hacer de la escuela un lugar que valore y comprenda las consideraciones. institucionales y psicológicas las cuales inciden en las normas. aptitudes. de carácter descriptivo. Evaluación respondiente (Etake. Estimule la ayuda mutua y la cooperación. 5. dentro del enfoque cualitativo . Usa la investigación etnográfica. interpretaciones. ENFOQUE DE LA EVALUACIÓN Consecuentemente con las bases conceptuales del diseño del nivel antes enunciadas. 2. 2. sociales. El ambiente de aprendizaje está representado por un conjunto de relaciones culturales.. y el aprendizaje por parte de los alumnos. actitudes.). 1975) . progresos. opiniones y estilos de trabajo que tienen lugar en el aula. 1972) Es un modelo cualitativo que se fundamenta en dos ejes conceptuales: sistema de instrucción y el ambiente o entorno de aprendizaje. se inserta la evaluación de los aprendizajes en la Educación Básica.etnográfico . 3. Evaluación iluminativa (Parlett y Hamilton. La metodología de la evaluación cualitativa. Se base en el derecho democrático que todos tienen a participar en la toma de decisiones y en el control y evaluación de procesos y resultados desarrollados a partir de tales decisiones. es comprensiva. por cuanto. narrativo. Entre los modelos evaluativos que sirven de apoyo a la nueva corriente de evaluación planteada. 4. intereses y aspiraciones de quienes actúan en el proceso enseñanza aprendizaje. Respete a cada niño como individuo.naturalístico.

en atención a sus logros y dificultades para aprender. Evaluación democrática (Stenhouse. Enfatiza el rol del docente evaluador como orientador que se ocupa de analizar y valorar el progreso del estudiante. Todos estos modelos evaluativos anteriormente descritos. la escuela y la comunidad. 1976 y 1982) Postula el derecho del alumno y del docente de expresar sus puntos de vista y opiniones en el aula. Concede mayor importancia al trabajo en equipo. Evaluación negociada (Guba y Lincoln. Participa y propicia actividades de interacción constructiva. Toma en cuenta la experiencia vivenciada de cada uno de los participantes. 4. descubriendo y ofreciendo un retrato completo y holístico de los procesos de enseñanza y de aprendizaje. orienta v hace reflexionar sobre todo el proceso educativo. reorienta y mejora el proyecto de aula y de la institución. a través del uso de las formas de participación de la evaluación como forma para transformar y modificar la práctica educativa. Está en capacidad de negociar y generar consenso entre los participantes. F. A través de esta concepción evaluativa se propicia una relación ética y de respeto que toma en cuenta las diferencias individuales de los alumnos. Atiende las diferencias individuales. Comunica. . a través de ciclos dinámicos de confrontación de ideas para tomar decisiones. por cuanto: A.El propósito principal del modelo es responder a los problemas que se confrontan en el aula. el consenso entre los distintos agentes que actúan en el proceso de evaluación. 3. B. C. 1989) Proponen en su modelo. invita al docente a reflexionar acerca de la didáctica y metodología de la enseñanza utilizadas. se agrupan para dar fundamento a la cuarta generación de la evaluación. con el fin de responder a las necesidades de información y al nivel de conocimientos de quienes participan en el proceso. Así mismo. El rol del evaluador pasa a ser más dinámico. McDonald y Elliot. D.

cooperativo y democrático.participativo: por cuanto se considera que el alumno va descubriendo y construyendo su aprendizaje a partir de experiencias previas. La evaluación como parte de los procesos de enseñanza y de aprendizaje tiene como finalidad principal. por lo que deberá: . . H. La evaluación recoge evidencias continuas. J. la actividad del docente.Global: porque se pretende evaluar todos los componentes de la practica pedagógica. el Proyecto Curricular del Plantel y el Currículo Básico. Todo esto conduce a conceptualizar el proceso evaluativo como: . las cuales son convalidadas y enriquecidas en el aula. Delega funciones en un trabajo organizado. que permitan el mejoramiento continuo de quienes participan en los procesos de enseñanza y de aprendizaje. como en lo particular. relaciones e influencias. los materiales educativos. tanto en lo general. Redimensiona y reorienta su proyecto de aula y aporta esfuerzos para el alcance de las metas establecidas en el proyecto plantel. LA NECESIDAD DE LA PROPUESTA La aplicación de esta nueva forma de evaluación generará cambios en la práctica pedagógica. Planifica en atención a las necesidades de los alumnos y del contexto.Servir de instrumento de investigación y reflexión para proporcionar un potencial formativo a cada uno de los agentes que interactúan en el proceso educativo. Informa a los alumnos y a sus representantes acerca del progreso habido durante el trabajo escolar.Constructivo . la evaluación centrada en procesos es la práctica evaluativa que más se ajusta al modelo planteado anteriormente.interactivo .G. . la cual constituye el elemento didáctico fundamental para promover la reforma necesaria en el mejoramiento del proceso educativo. I. despertar el interés hacia el mejoramiento del desarrollo de los alumnos. tal y como suceden en la realidad sobre como aprende el estudiante y como el docente logra que aprenda más y mejor. En tal sentido.

Desarrollar en cada alumno sus capacidades del saber.. métodos y técnicas que contribuyan a mejorar la práctica pedagógica y a evitar conflictos y bloqueos en los alumnos.Incentivar el trabajo en equipo. . el fracaso escolar y los profundos niveles de insatisfacción de docentes. fundamentado en objetivos de aprendizaje de etapa y los planteados por los docentes en el proyecto de aula. la repitencia.Detectar en los alumnos: intereses. . del saber hacer y del ser. aptitudes. Desde esta perspectiva. . coevaluación y heteroevaluación. como un espacio de reflexión conjunta donde los agentes educativos puedan compartir experiencias. actitudes. . EVALUACIÓN DEL APRENDIZAJE EN EL ALUMNO En atención a los planteamientos curriculares la evaluación de los aprendizajes se concibe como: Un proceso interactivo de valoración continua de los progresos de los alumnos. evitando de esta manera la exclusión.Reconsiderar fines. que tonga en cuenta contenidos conceptuales. con el fin de mejorarlo y contribuir a la permanencia de los estudiantes en el sistema educativo. ritmos y estilos de aprendizaje. a objeto de proporcionar un tratamiento más justo a los alumnos. procedimentales y actitudinales y el nivel de evolución del estudiante. En este sentido tendrá como finalidad: .Fomentar relaciones democráticas y afectivas a través de actividades de cooperación que involucren la autoevaluación. .Proporcionar medios que permitan detectar dificultades en los procesos de enseñanza y de aprendizaje. estrategias y criterios de evaluación. padres y niños. la presente propuesta promueve situaciones específicas para integrar la evaluación a los procesos de enseñanza y de aprendizaje.Contribuir a formar y afianzar los valores y actitudes. . . .Determinar el avance del aprendizaje de los alumnos en la adquisición de los tres tipos de contenidos.Promover la autoafirmación personal como estímulo positivo para valorar progresos y esfuerzos.

la organización del plantel.Global. . en el grupo.Identificar las limitaciones o dificultades que poseen los alumnos.Individualizada. por lo que se requiere de una comunicación abierta con él para comprender sus problemas.Evaluación conjunta e implícita en los procesos de enseñanza y de aprendizaje. en la familia y en su comunidad. explicando sus progresos en todos los aspectos de su personalidad en relación con las circunstancias que lo rodean en la escuela. para lo cual emplea diversas técnicas que permitan conocer y reflexionar acerca de las diferencias individuales y grupales. el proyecto de aula y en general todos los componentes del diseño curricular. c) Aspira el conocimiento global del alumno como sujeto de aprendizaje. .Conjugación de contenidos conceptuales. porque la evaluación: a) Considera el proceso de aprendizaje del alumno como un todo. . lo cual contribuye al desarrollo de la metacognición. circunstancias y trabajo. procedimentales y actitudinales..Brindar al alumno oportunidades para aprender del acierto y del error y en general de la experiencia. tanto a nivel formal como lo no previsto en el currículo. es decir. . la estrategia empleada. PRINCIPIOS DE LA EVALUACIÓN INTEGRAL E INTEGRADA Entendida como: . así como entender y orientar el aprendizaje y la enseñanza. el trabajo docente. para orientarlos hacia la consolidación de logros . . b) Pretende evaluar. junto con el alumno.Fortalecer la interacción entre el docente y el alumno. que permita el intercambio de ideas sobre el trabajo y la responsabilidad que corresponde a cada uno en el proceso de aprendizaje.Proporcionar al docente información para mejorar y fortalecer su práctica pedagógica y la planificación que se desarrollará en el aula. centrada en la evolución y particularidades de cada alumno. .

para construir significativamente su propio aprendizaje y al mismo tiempo proporciona herramientas al docente para la planificación del proceso enseñanza aprendizaje. e) Incentivo de las funciones orientadora v motivadora de la evaluación. tome en cuenta las individuales de los alumnos y el contexto donde se produce el aprendizaje para reorientarlo. FUNCIÓN En este sentido. procedimentales y actitudinales. valorando reflexiva y permanentemente la actuación del alumno para la consecución de competencias expresadas en los objetivos generales de etapa que abarque todos los contenidos conceptuales.CONTINUA Centrada en el proceso. h) Aprovechamiento de logros anteriores en todo el proceso y al final del mismo. la evaluación contempla tres funciones: . d) Conocimiento del alumno para comprender sus adquisiciones. descriptivo e interpretativo. reflexiva e individualizada con retroalimentación constante.Explorativa: tiene como propósito. posibilidades progresos y carencias. coevaluación y heteroevaluación para el logro de una interacción constructiva de los participantes. atendiendo a criterios previamente establecidos y a su aplicación. La evaluación continua implica: a) Observación permanente. . obtener información sobre los conceptos y experiencias que el alumno posee. c) Acumulación de juicios basados en procedimientos formales e informales. b) Carácter cualitativo. g) Consideración de la autoevaluación. con el fin de proporcionarle la ayuda requerida. f) Información útil al alumno sobre su proceso de aprendizaje que le permita asumir la responsabilidad que le corresponde a su continuidad. retroalimentarlo y mejorarlo.

Formativa: Tiene como propósito observar. b) Cómo aprende: hechos. c) El sentido. f) Planificar nuevas acciones educativas tomando en consideración los contenidos conceptuales. integración del grupo. dedicación. que permitan evidenciar los progresos y las limitaciones que requieran una atención esmerada en beneficio del aprendizaje del estudiante. que permitan conocer el punto del cual parte y establecer necesidades previas. responsabilidad. e) Logros alcanzados después de un tiempo de aprendizaje. valores. . la madurez . actitudes. d) Carencias.En tal sentido se debe explorar en el alumno: a) Disposiciones. e) Acumular juicios descriptivos. manifestaciones intelectuales y potencialidades entre otras. para corregirlos y superarlos con el fin de garantizar el éxito en el aprendizaje. para iluminar lo que está ocurriendo y a la vez ofrecer retroalimentación y acciones necesarias para estimular y mejorar su aprendizaje. tomando en cuenta los aspectos conceptuales. debe estar estrechamente vinculada con las actividades de enseñanza y de aprendizaje. sentimientos. y ser realizada fundamentalmente a través de procedimientos informales que permitan: a) Conocer los progresos de los alumnos. c) Propiciar situaciones donde se manifiesten rasgos del alumno: hábitos de trabajo. La evaluación de procesos tiene carácter dinámico y formativo. significación y utilidad de lo aprendido. para continuar la labor educativa. representaciones y esquemas. actitudes y aptitudes. g) Elaborar criterios para la promoción de los alumnos. investigar y reflexionar constantemente con el alumno su proceso de aprendizaje. disposición. conceptos. incomprensiones y errores. procedimentales y actitudinales. b) Determinar las causas de sus deficiencias y éxitos. d) Analizar con sentido crítico la participación en el trabajo tanto del alumno como del profesor. procedimentales y actitudinales adquiridos por los alumnos.

Docentes.Propiciar niveles de relación. d) Proporcionar información a los: . para asumir la responsabilidad que les corresponde en la continuidad del proceso de aprendizaje y para que conozcan sus capacidades. perspectiva y apreciaciones con carácter deliberativo y negociado. capacidades e intereses para la resolución de la realidad. . que determinan su crecimiento integral. comunicación e información constante. capacidades.del aprendiz. en términos de criterios de evaluación previamente establecidos. aptitudes e intereses. Final: Cumple con la función administrativa de la evaluación. actitudes. con ella se pretende: a) Recoger y analizar evidencias sobre los resultados obtenidos durante el proceso de aprendizaje.Alumnos. posibilidades y limitaciones de los alumnos y los criterios de evaluación establecidos previamente. acciones concretas para mejorar el aprendizaje. tomando en consideración el conjunto de observaciones hechas durante el proceso sobre: consecución de objetivos educacionales. Formas de participación . h) Implementar las diferentes formas de participación de la evaluación: autoevaluación. .Mantener una visión multidireccional.Integración de juicios. aptitudes. . b) Determina el nivel de logro de competencias fijadas. . coevaluación y heteroevaluación como herramientas de la evaluación de procesos.Flexibilizar la aplicación de criterios de evaluación que se seleccionen. c) Proporcionar información relevante para promover al alumno. para otorgar una calificación basada en la acumulación de juicios descriptivos sobre cl proceso de aprendizaje del estudiante. habilidades y destrezas. COOPERATIVA Concebida como una labor conjunta de todos los participantes para: .

así como su propio interés. ritmo de trabajo y progreso en su desarrollo. reflexión y crítica constructiva ante situaciones específicas de aprendizaje. f) Desarrolla actitudes para la integración del grupo. c) Aporta soluciones para el mejoramiento individual y grupal. características y la variedad de causas de sus éxitos y fracasos. e) Desarrolla su capacidad de líder. b) Analiza y describe sus actividades.AUTOEVALUACIÓN Es un proceso que permite el autodesarrollo del alumno. actitud frente a la materia. atención. d) Participa críticamente en la construcción de su aprendizaje. para decidir cual fue la causa del acierto y del error. c) Estimula la retroalimentación constante de sí mismo y de otras personas para mejorar su actuación. por cuanto identifica sus posibilidades y limitaciones para hacerlo consciente de los cambios necesarios para su propia actuación. e) Evalúa todo el proceso. f) Evita errores y sus causas que le ayudarán a planear mejor la actividad. . atendiendo a ciertos criterios previamente establecidos. Mediante la coevaluación el alumno: a) Determina los logros personales y grupales. Mediante la autoevaluación el alumno: a) Emite juicios de valor sobre sí mismo en función de ciertos criterios o puntos de referencia. preparación anterior. d) Opina sobre su actuación en el grupo. b) Incrementa su participación. dedicación. COEVALUACIÓN Es un proceso de valoración recíproca que realizan los alumnos sobre su propia actuación y la del grupo.

. el cómo. PLANIFICACIÓN DE LA EVALUACIÓN La planificación de la evaluación debe estar estrechamente vinculada con el proceso interactivo de la clase. tales como: el qué. alumno al final de la etapa.g) Mejora su responsabilidad e identificación con el trabajo. padres y representantes. una vez evidenciadas. La heteroevaluación se fundamenta en una evaluación continua donde cada uno de los agentes: . h) Posee libertad para emitir juicios valorativos acerca de otros porque es parte activa del proceso.).Acumula una serie de datos integrales acerca de la actuación del alumno. las competencias derivadas de los mismos y los criterios de evaluación establecidos para definir el logro alcanzado por los alumnos. docente.Recoge e interpreta datos que evidencian el desarrollo del proceso educativo. los cuales permitirán. Esto significa que el docente al planificar debe incluir los elementos relacionados con la evaluación. con el objeto de lograr el mejoramiento y la calidad de su actuación. en cada uno de estos grados debe aspirarse al logro de las competencias básicas. tomar decisiones para: . HETEROEVALUACIÓN Es un proceso de valoración recíproca que se realiza entre los agentes educativos (alumno. . Las competencias representan el nivel de desempeño que debe demostrar el.Saca conclusiones sobre el progreso del alumno. . equipo de docentes. EL QUÉ EVALUAR Vendrá dado por los objetivos generales de grado. los métodos de enseñanzas empleados y la participación y colaboración de los padres y representantes en el proceso educativo. La primera Etapa de Educación Básica contempla tres grados.. el con qué y el cúando evaluar..

qué hace y cuáles son sus actitudes Es importante que el docente al evaluar tenga presente la consideración de estos aspectos (indicadores y criterios de la evaluación) a fin de evitar el azar. es decir. . b) Ubicar a los alumnos en un grado de acuerdo con las competencias logradas. a través de los cuales se podrá evidenciar los progresos alcanzados por los alumnos. c) Promover al alumno una vez que haya adquirido las competencias generales de la etapa. la costumbre o la rutina. Indicador: es la señal que permite evidenciar el dominio de la competencia.a) Nivelar o recuperar a los alumnos con la ayuda de docentes. convalidar lo que sabe. Para evaluar las competencias se deben establecer criterios e indicadores de logro. padres o representantes así como de tutorías de alumnos más avanzados. la arbitrariedad e irracionalidad. Criterio: implica la norma o recurso que permite evidenciar el nivel del logro de la competencia del alumno. Permite establecer diferencias cualitativas y cuantitativas en logro de la misma.

e) La utilización de distintas estrategias de evaluación: actividades.EL COMO EVALUAR A través de: a) Situaciones relacionadas con lo enseñado que involucren lo conceptual. En el siguiente cuadro se presenta una propuesta que permite visualizar cómo evaluar: . formas de participación y diversas técnicas y procedimientos que permitan orientar el proceso de aprendizaje del alumno. funciones. procedimental y actitudinal. c) Actividades continuas que proporcionen información sobre todo el proceso. atendiendo el carácter dinámico de la evaluación. d) Una gama diversa de actividades de evaluación que permitan la transferencia de lo aprendido a situaciones diferentes. b) Las tareas donde se manifieste el grado de significación de lo aprendido en el desarrollo de la clase.

Se recomienda el empleo de instrumentos que se caractericen por: a) Recoger aspectos concretos y al mismo tiempo permitan la incorporación de otros no previstos. b) Ser de fácil interpretación y manejo diario.alumno.EL CON QUÉ EVALUAR Con instrumentos que además de aportar la información que se requiera. que sean capaces de promover la interrelación docente . c) Evitar en lo posible el sesgo cuantitativo. Entre algunos de los procedimientos e instrumentos de evaluación recomendables para la primera etapa de Educación Básica figuran: .

.

a través de los portafolios y registros descriptivos. Así en cuanto a teorías del conocimiento las agrupa en dos grandes tendencias: Objetivismo y Subjetivismo. del progreso de su representado. Profa. Asimismo se recomienda que esa información llegue tanto al representante como al alumno. La evaluación tendrá carácter continuo. intereses que permitan realizar el análisis del proceso. María Dolores García Fernández. La validez de una evaluación depende de los hechos replicables como base de la verdad.. es decir que tanto los datos como los análisis realizados puedan ser reproducidos y verificados por otras personas competentes utilizando las mismas técnicas.Orientación emic. marcos u orientaciones sobre la evaluación. la evaluación requiere que la información sea "objetiva científicamente". . de manera que puedan percibir cómo el estudiante ha evolucionado en su aprendizaje y cuáles han sido los progresos alcanzados.Orientación práctica. Dra. dependiente de una tradición empirista en las ciencias sociales. 4.. Universidad de Córdoba. limitaciones. Desde una epistemología subjetiva la validez depende de "una llamada a la experiencia más que al método científico. GRANDES ORIENTACIONES EN LA EVALUACIÓN Hay diferentes enfoques. ritmos y estilos de aprendizaje. aptitudes.Orientación crítico-hermenéutica.. PERSPECTIVAS DE LA EVALUACIÓN House (1980-1983) ha puesto de manifiesto que las diferentes perspectivas de evaluación son dependientes de diversas concepciones filosóficas. El conocimiento científico se concibe más como algo tácito que explícito (House. Aoki (1991) expone las cuatro grandes orientaciones que comprende: 1.EL CÚANDO EVALUAR No se dispone de una fecha prevista para evaluar.Orientación medios-fines.. Para el objetivismo. basada en observaciones permanentes sobre la actuación de cada alumno para determinar e interpretar sus progresos. 3. 2. para el subjetivismo depende de las experiencias acumuladas como base de la comprensión. Será responsabilidad del plantel en atención a sus necesidades y al proyecto pedagógico de aula que decidirá la periodicidad o frecuencia de información a padres y representantes. 1980:252).

. racionalizaciones e ideologías. 5.¿Cuál es el grado de congruencia entre resultados pretendidos. "a partir de un horizonte de valores claramente articulado selecciona fines y organiza los medios apropiados teniendo en cuenta los efectos secundarios alternativos" (Habermas.Dados unos currícula. certeza y predictibilida d. leyes y teorías. 2.¿Qué efectivos y eficientes son los medios usados en conseguir los fines y objetivos curriculares?. contenidos. En la orientación medios-fines nos interesa reflejar una orientación de la evaluación que puede ser caracterizada como técnica o instrumental. Fidelidad entre medios y fines. orientada al éxito con arreglo a fines. coste-beneficio. ¿cuál de ellos implica menor coste y tiempo?. tasación y consecución. PRÁXICA Acción emancipatori a que mejora la condición humana. 4. imitada al campo de los hechos. paradigma cuantitativo. ORIENTACIONES INTERESES CAMPO DE CONOCIMIENT O El control se refleja en valores de eficacia.. el paradigma crítico.¿Qué generalizaciones válidas pueden hacerse para todas las escuelas en una zona o distrito?. Conocimiento crítico unido a la Descubrir las ideologías subyacentes al conocimiento y a la acción.¿Cómo de bueno es el curriculum A comparado con el curriculum B en conseguir los fines dados?. y la situacionalinterpretativa la subdivide en emic y crítico-hermenéutica. efectividad. el críticoreflexivo con la orientación de la praxis paradigma cualitativo. Basada en los objetivos. 3. con referencia al criterio.. generalizaciones. contenido de los materiales curriculares y los métodos de enseñanza especificados?. MEDIOS-FINES . a partir de la teoría de los intereses cognoscitivos de Habermas: El Empírico-Analítico con la orientación medios-fines. MODO DE EVALUACIÓN Medida de la discrepancia entre medios y fines. motivos. perspectivas. La creencia clave es la posibilidad de progreso. 1989:384).Cada una de ellas se corresponde con los grandes paradigmas que se han destacado.. Los intereses de los evaluadores que actúan con una orientación mediosfines dentro del paradigma cuantitativo reflejan cuestiones como las siguientes: 1. Cualidad de la reflexión y de la acción Comprender las asunciones ocultas. Como acción instrumental.

denso de la cultura. en la actitud moral de emanciparse de ellos. Perspectiva etnomenológica. produciendo alienación. 6. CRÍTICOHERMENÉUTICA Perspectiva fenomenológicohermenéutica.¿Cuál es el prejuicio básico de los editores o autores de los materiales y recursos prescritos o recomendados?.. Perspectiva de estudios de casos etnográficos. En lugar de una racionalidad de medios-fines. Concretado en el mundo vivido de la existencia. la orientación práxica (crítico emancipadora)está interesada en otro tipo de cuestiones. implementan o evalúan el curriculum?. etc. Revelación de los significados existenciales en la experiencia vivida.A nivel más básico ¿a qué intereses sirve el currículum?. Los evaluadores práxicos están interesados en poner de manifiesto los intereses.. Sumario de modos de entender las orientaciones en evaluación. revelando las condiciones ideológicas que hacen posible el conocimiento. asunciones. cosmovisiones. que difieren de la orientación técnica. 5. sus asunciones y enfoques?.. EMIC Cualidad de vida cultural cotidiana. la orientación práxica toma un marco dialéctico entre acción práctica y reflexión crítica. como son las siguientes: 1. . 2.. Búsqueda crítica de lo que significa ser humano.. Reglas tácitas con que la gente vive en su vida diaria.. sino entrar en un proceso de transformación de la realidad evaluada. Por su parte. Cualidad de la existencia humana Conocimiento descriptivo.¿Cuál es la cosmovisión que subyace al currículum? Este conjunto de intereses refleja una orientación en la evaluación vista desde una teoría crítica de la sociedad neomarxista. a lo que Paolo Freire llama Praxis. las distorsiones que subyacen en la existencia humana. Este proceso reflexivo no pretende sólo poner de manifiesto estos supuestos. Por la explicitación de los supuestos ocultos o inconscientes de los afectados.acción. Intuiciones dentro de las situaciones humanas únicas. 4..¿)Cuál es el punto de vista implícito de los alumnos y del profesor que ayuda a los planificadores del currículum?. La realidad se entiende como socialmente construida. 3.¿Cuál es la orientación subyacente en el curriculum A en términos de sus intereses fundamentales.¿Cuáles son las metáforas fundamentales que guía a los que desarrollan. se les sitúa en condiciones para liberarse o transformarlos.

. 4. 2. 1. La mayoría de los evaluadores de esta orientación están interesados en la construcción social de la realidad desde un punto de vista antropológico o sociológico.. para esto emplea situaciones de diálogo que puedan clarificar los motivos.. y unir las estructuras de significado de la experiencia vivida. pretende comprender los valores. sus esfuerzos se dirigen a clarificar. APROXIMACIONES TEÓRICAS EN LA EVALUACIÓN: MODELOS. y los significados comunes. sino cómo es vivido.¿Cómo son experienciados los contenidos trabajados?.¿Cómo viven la experiencia en esta clase?. 1991:103). 5. Las cuestiones que preocupan a una evaluación desde esta perspectiva son: 1.¿Cómo comprender la cualidad de un currículum en la microcultura de la clase?. 5. . profesores. Estos intereses se centran en la existencia. La orientación crítico-hermenéutica está interesada "en la búsqueda de los significados ontológicos en la experiencia vivida de los alumnos.. por tanto una evaluación con esta orientación pretende transcender la objetividad.¿Cómo estos grupos ven la fuerza y debilidad de un currículum determinado?. profesores.La orientación emic.. Más que una perspectiva "emic". Los evaluadores están interesados en los patrones etnoculturales de la vida en las situaciones escolares.. vivencias y experiencias que tienen los alumnos y profesores en la vida del aula.¿Cuál es la cualidad de las experiencias vividas de los profesores y alumnos?. le importa entrar profundamente en conversación intersubjetiva con la gente en una situación de evaluación.¿De que modo estos grupos aprueban o desaprueban un currículum determinado?. administradores y padres" (Aoki. 2. las experiencias auténticas. creencias y actividades en su situación vivida por aquellos que están inmersos en la situación evaluada.. por analogía con su empleo en antropología.¿Cómo es la existencia de un profesor o alumno en esta clase?..¿Cuáles son las reglas construidas por el grupo para un currículum determinado en esta clase?. padres y administradores)?)Qué valor tienen estas visiones? 3.. La orientación que Aoki llamada crítico-hermenéutica se interesa por las intuiciones en las experiencias humanas como vivencia.¿Cómo ven el currículum A varios grupos (alumnos. La cuestión más importante no es lo que se enseña. 3..¿De qué modo se corresponden pedagógicamente conjuntamente lo que los profesores hacen y enseñan?. 4.

Por tanto este enfoque se refiere a los resultados de un proyecto. b) EL PARADIGMA CUALITATIVO. la evaluación es el descubrimiento de la naturaleza y el valor de algo" indicando algunas características comunes: A) Supone conocer el fenómeno a evaluar y determinar su valor. Supone una representación narrativa de los descubrimientos del evaluador. en un contexto social. basada en una imagen dualista (sujeto/objeto). Según Madans y Kellagham (1992) hay varios tipos de evaluación cualitativa: 1. La percepción es muy importante para el evaluador ya que así. B) Se realiza en un contexto de acción. la eficacia y eficiencia.. sino comprender el significado que constituye socialmente. en base al proceso y resultados de la evaluación. Para Eisner (1983) son fundamentales la inducción y la observación..Proppe (1990) se basa en la definición de Stake y Dewey (1969) "desde una perspectiva amplia. nos aporta muy poco sobre la calidad de los objetivos propuestos. C) Hay que tomar decisiones y se toman en determinados momentos. Como es conocido el Comité sobre Estándares de Evaluación desarrollo una serie de ideas y normas en base a una definición de evaluación más amplia:"Investigación sistemática sobre el valor o mérito de algún objeto"(1981). El evaluador estudia los significados y significantes que se asignan a los sucesos por los actores. D) Es un proceso de aprendizaje.La interpretativa. en el que la ciencia es el único camino de conocimiento y la realidad como el único objeto posible de conocimiento. para mejorar el nivel de logro de los estudiantes. Es positivista. Este autor hace un recorrido por tres paradigmas fundamentales: cuantitativo. programa etc. analizando la evaluación en cada uno de ellos. sino desde una visión interpretativa de lo subjetivo. La evaluación "acrítica" se fundamenta en el interés por el control. Bajo este concepto se han realizado experiencias de evaluación con el objeto de controlar y evaluar los efectos del curriculum en las escuelas. 2. Es por lo que no pretende formular leyes universales. qué ha sucedido y que significado tiene o ha tenido para diferentes grupos. está fundamentado en el positivismo. descubrimos la naturaleza y el valor de algo. puede captar . Esta nueva definición amplía las formas de evaluar y determinar la eficacia de los objetivos propuestos . porque estos no se pueden entender desde criterios externos. Pero el énfasis de los resultados. se identifica la autoridad con el experto. Tanto la evaluación como la investigación. Solo se pueden comprender los significados desde el punto de vista del actor.La artística. cualitativo y dialéctico. se interesa por saber qué está sucediendo. a) EL PARADIGMA CUANTITATIVO.

La sistemática. Desde el paradigma crítico. El evaluador se relaciona con la posibilidad de que todos los seres humanos se convierten en participantes en la "acción comunicativa". Por tanto. saber hacer. en forma de evaluación dialéctica. . Comparte con el enfoque tradicional el enfoque de la orientación de la investigación hacia "un mundo real" externo a los individuos. es importante establecer mecanismos para que el alumno tenga acceso a los datos y se cuide la confidencialidad y la privacidad de los mismos. c) EL PARADIGMA CRÍTICO. Juzgar el valor de algo. es valorar su excelencia. pero también un proceso de diálogo. La excelencia se identifica con competencia y esta con el poder de "poner en práctica conocimientos. supone una tarea de negociación para ayudar a construir significados y revelar los significados construidos. la evaluación dialéctica es un proceso de recogida y ofrecimiento de información. que no todas pueden dominar con facilidad. Esta evaluación se basa en el interés por la emancipación respecto a supuestos ocultos o condiciones humanas subyacentes. Por otra parte.. en un proceso dialéctico que transcienda la dualidad sujeto/objeto. Así pues. con independencia del proceso o de las circunstancias. por ello. técnicas. en el que el evaluador se convierte en un auténtico agente de cambio. metaevaluación. El fundamento de la evaluación. 3. autoreflexión y autocomprensión. la "crítica-emancipatoria" pretende generar conocimiento que ayude a las personas a hacerse conscientes de si mismas y a decidir con criterio personal. Los esquemas de evaluación deben poner énfasis en la mejora de la calidad del proceso de aprendizaje y las formas de motivación intrínseca.cualidades y relaciones que existen entre el profesor y el estudiante. válida y fiable pro medio de la triangulación. Desde este planteamiento. como la comunicación "sistemáticamente distorsionada" (Habermas. Proppe (1990) señala que esta visión mantiene la lealtad al dualismo sujeto/objeto. más que en la certificación. análisis de la comprensión del mundo. se propugna la acción. pero cada hecho educativo debe ser entendido en su contexto y cultura. Esto implica que se reduzca el rol de la evaluación como elemento de selección. por otro lado rechaza la posición positivista con respecto a que el mundo externo sea el único elemento que determina la visión que se debe tener de la realidad. entonces. Para Madans y Kellagham (1992). La excelencia para Perrenoud (1990) tiene que ver con los distintos ámbitos y tareas de la vida humana. La evaluación. 1987). Pretende ofrecer una visión objetiva. debe ser el catalizador del diálogo. exigiendo una asimilación progresiva y un trabajo. se muestra la evaluación formal de la excelencia escolar. está en el interés por el significado de la comunicación intersubjetiva entre los individuos y "sobre ellos" en una situación dada. el proceso de evaluación es un proceso de reflexión y autoreflexión.

la evaluación formal. no hay paradigmas sustantivos propios de evaluación. criterios y datos de la evaluación. 4.Enfoques orientados a los expertos: Dependientes primariamente de las aplicaciones de profesionales expertos para juzgar los programas educativos. de acción social. Worthen y Sanders (1987) de "puntos de vista alternativos". dado que la búsqueda de la excelencia forma parte de la situación. Este tipo de evaluación informal. .Enfoques orientados la consumidor: Evaluar los "productos" para proporcionar información a los consumidores para elegir entre curriculum alternativos. materiales y recursos educativos. ni negociada. necesidades. difusión y en cuanto a sus consecuencias referentes a promoción. nos consta que la evaluación es "una práctica ampliamente rechazada por los alumnos y bastante molesta y engorrosa para muchos profesores". para proporcionar fuentes de ideas y técnicas nuevas. Clasificación de los distintos enfoques de evaluación (Worthen y Sanders.. recordar o de lo que debemos preocuparnos ".Enfoques orientados a los objetivos: Cuyo foco son los fines y objetivos específicos y en qué grado han sido conseguidos. implica a la organización escolar. En nuestra opinión.. Este tipo de evaluación suele ser escrita y normalizada en cuanto a su forma. 6. Por eso es más conveniente hablar de modelos de evaluación. apoyo pedagógico y orientación. Aoki (1991) de "orientaciones". Es por lo que . El análisis de la evaluación en la educación primaria nos lleva a una crítica del sistema de evaluación formal por calificaciones estableciendo diferentes niveles de excelencia sin saber muy bien cuales son los criterios que los guían. Scriven y House. En cambio. Gimeno (1992). más ampliamente. que se integra en el flujo de las interacciones diarias. 3. para servir como listas mentales con las que repensar lo que debemos considerar. etc. Worthen (1990) señala: "El valor de los modelos yace en su habilidad para ayudarnos a pensar. y destacan el componente ético de la evaluación. para determinar los valores. 5. dos importantes filósofos de la ciencia. éstos son dependientes de grandes enfoques o paradigmas de la educación o. personalidad.La evaluación informal es constante en una clase. hacen hincapié en la constitución de la evaluación como disciplina. 1.Enfoques orientados a la gestión: Cuya principal preocupación es identificar y reunir las necesidades informativas para los gestores que han de tomar decisiones. 1987). no está codificada. ni registrada.Enfoques orientados al adversario: El foco central de la evaluación es la planificación de oposición de puntos de vista (pro y contra) de diferentes evaluadores. que consiste en valorar el grado de dominio del curriculum.Enfoques naturalistas y orientados a la participación: Investigación e implantación de los participantes (o "afectados"). 2. Perez Gómez (1983c) y Hopkins(1989:18) hablan de "modelos"... Fija oficialmente el nivel de excelencia reconocido a cada alumno... en lugar de paradigmas.

los ambientes en los que se desarrolla la enseñanza y la capacidad del docente para lograr los planes.. 4.Modelo de investigación y Desarrollo (o de factoría industrial). puesto que existen múltiples diferencias individuales entre los estudiantes. B. prohibiciones y líneas orientativas que determinan qué es una evaluación adecuada y el mejor modo de llevarla acabo. 6. Este método tuvo gran influencia al utilizar la medición. hay que descubrir hasta qué punto las experiencias de aprendizaje han logrado los efectos previstos (Nevo. adquiriendo un sentido de legitimación con el paralelismo de la investigación científica. 3.Model o de toma de decisiones (o político). Referido fundamentalmente a la evaluación de programas.. al proponer una formulación precisa de objetivos como punto de referencia para la evaluación y la toma de decisiones.Investigación cuantitativa/cualitativa...Modelo de estudio de casos. 5.Modelo clásico (o agrícola-botánico).Modelo del profesor como investigador.. añadiendo que la medida era la parte descriptiva de la evaluación y la explicación completaba el proceso de evaluación. preceptos..1989). 1991:2574). 2.La dificultad encontrada por los evaluadores al trabajar a través de límites disciplinares y metodológicos. Fases de la evaluación: . son aquellos que proporcionan un conjunto de normas. Worthen y Sanders (1987:49 y ss. Las bases del primer método sistemático de evaluación surgen a partir del modelo de Tyler. Alkin y Ellet (1991).. MODELOS CUANTITATIVOS: EL MODELO DE EVALUACIÓN POR OBJETIVOS. Tyler apuntó la necesidad de la evaluación. ya que.) estiman que los diferentes planteamientos filosóficos sobre el conocimiento y los valores tienen su correspondiente implicación en los métodos. Los dos aspectos metodológicos más importantes para llevar a cabo estudios evaluativos son: A.. Tyler diferenció medida y evaluación. hablan de que los modelos de evaluación se pueden utilizar en dos sentidos: 1) Modelos preceptivos. según él. "Los modelos preceptivos brindan marcos y estrategias más rigurosas para realizar evaluaciones. 2) Modelos descriptivos: son aquellas descripciones o análisis sobre los modos de hacer la evaluación en la práctica. no basta con haber planificado correctamente para lograr unos resultados determinados.Modelo iluminativo ( o antropológico). mientras que los modelos descriptivos presentan una amplia gama de posibilidades válidas" (Alkin y ellet.Desde el contexto inglés a Hopkins (1989) le parece bien distinguir seis modelos de evaluación: 1.

que ignoraba los juicios sobre la dignidad y mérito. Sttuflebeam. refiriéndose a los productos o el rendimiento como único criterio. 6. proporcionar estándares para saber cómo juzgar la discrepancia entre las medidas y los objetivos propuestos. Sin embargo Tyler no dio normas sobre cómo usar los datos de la evaluación.Servir la guía para la toma de decisiones. para comprobar que se han dado cambios y que pueden se imputados al currículum.Hacer modificaciones apropiadas en el currículum. b) Modelo de evaluación libre de objetivos... con sus principales cometidos. a) El modelo CIPP (Context. obtener y proporcionar información útil para juzgar alternativas de decisión. en cuyo caso. propuso objetivos para las condiciones contextuales y para la conducta del profesor. además. Imput. Para Scriven (1978).. lo cual define Scriven como mérito. 7. Product). incluye en el modelo la técnica del grupo asesor para la evaluación de entradas. con lo cual la evaluación debe tener otro alcance: se desplaza desde la valoración de los alumnos a la evaluación de programas. el valor está en la medida en que .1. es decir. según Guba y Lincoln. .Desarrollar hipótesis y probarlas para explicar los patrones observados de consistencia o debilidad. Según el autor las funciones de la evaluación son: . La evaluación orientada al perfeccionamiento de los sistemas..Examinar o desarrollar instrumentos capaces de probar cada objetivos. Para ello es preciso diseñar. 1989). para poder juzgar su valor. es decir. 3. es decir. y no solo para los alumnos.Proporcionar datos para la responsabilidad.Examinar los resultados para determinar la áreas del currículum más fuertes y más débiles. y comparar con las necesidades de la gente a la que debe servir.Identificar situaciones en las que los estudiantes puedan demostrar la conducta expresada en los objetivos. la evaluación es un proceso que implica descripción y juicio o valoración. Tyler entendió la evaluación como un proceso terminal. que no evaluaba los objetivos.. se basa en la necesidad de mejorar la práctica educativa.. Por un lado. Este modelo de Sttuflebeam (Sttuflebeam y Sinkfield. 5. MODELOS DE TRANSICIÓN HACIA LA EVALUACIÓN CUALITATIVA Stake (1967. Process. dentro de un modelo pretest-postest. puede tener valor en si mismo. 1989). y 1975.Determinación de los objetivos específicos de cada área de contenido. 4. la función de la evaluación está en conceder valor a lo que se está evaluando.Promover la comprensión de los fenómenos implicados. Se le criticó que su evaluación no es explicativa. sin. 2. algo inherente e independiente de posibles aplicaciones. 1985 y Sttuflebeam y Sinkfield.Aplicar los instrumentos. Pero además esa realidad que se evalúa puede tener valor dentro de un contexto de uso o aplicación.. valor libre de contexto. .

es decir. evaluar el programa en sus efectos. debe realizarse por un experto. Además puede ayudar a los administradores a decidir si implantar a nivel general un currículum o programa o modificarlo. Debido a esto Scriven. al margen de los objetivos previstos. como muestra Bridges (1988) en la siguiente tabla donde se resumen las condiciones necesarias para ello. Audiencia: equipo de adaptación local. Fuente de estándares: juicio sobre las necesidades locales SUMATIVA Intención: crítica. aunque se tiende a una profesionalización de esta. a la que se dirige la evaluación. La evaluación sumativa. para Scriven. 1985. sin excluir que algún . en los referente a las estrategias de la difusión de programas de innovación. A continuación se muestra. El objetivo de la evaluación formativa es refinar y mejorar los criterios y juicios sobre los aspectos intrínsecos de las realidades que están siendo evaluadas.p. según Scriven (Guba y Lincoln. Fuente de estándares: panel de expertos. las relaciones entre tipos de evaluación y su objetivo: TIPO DE EVALUACIÓN FORMATIVA MÉRITO Intención: modificar y mejorar el diseño. El objetivos de la evaluación sumativa es determinar el impacto o los resultados en el contexto en que se obtienen tales resultados. Además propondrá la evaluación libre de objetivos. adaptadores potenciales.50). es un valor extrínseco que el autor llama dignidad. Pero la determinación de la dignidad requiere una evaluación en el contexto en el que se realiza. establecerá la diferencia entre evaluación formativa y sumativa.proporciona tales soluciones. según Guba y Lincoln. Sin embargo la evaluación formativa es más propia de los profesionales que están tendiendo a una profesionalización de esta. Audiencia: equipo que lo desarrolla. Sin embargo tanto el mérito como la dignidad son valores variables. Audiencia: los que toman decisiones locales. en cuanto a las personas que juzgan debido a sus distintos indicadores de esos valores. Intención: certificado y justificación para uso local. lo cual tienen sus efectos más importantes. que aumente la objetividad y los resultados deben hacerse públicos. Fuentes de estándares: juicios y valores del contexto local. certificado y justificación. si se juzga conforme a ellos. Audiencia: compañeros profesionales. si se establecen los criterios de bondad. La evaluación del mérito puede ser más homogénea. evaluador externo. porque el valor depende de la situación. Fuente de estándares: panel de expertos Especifica el valor y el mérito en cada tipo de evaluación. VALOR Intención: ver las adecuación al contexto. pero también teniendo en cuenta el valor que tienen para varias audiencias.

El evaluador entrará en la discusión sobre estrategias alternativas. Se percibe al evaluador como en un status diferente y particular. de ahí que se evalué sin referencia a objetos. Preocupaciones y problemas de la audiencia. El problema surge cuando se valoran los efectos sin criterios. Base común de valores compartidos entre evaluadores y los que desarrollan el programa. HACIA MAYOR INDEPENDENCIA Y UN INFLUENCIA MENOS FORMATIVA Documentos escritos producidos después de haber realizado la práctica. 1988). El evaluador describe. . Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa. posibilidad de conflicto. MODELOS CUALITATIVOS: Dentro de ellos podemos destacar los siguientes: MODELOS NATURALISTAS Modelo de evaluación respondiente. INFORMES VALORES STATUS DESCRIPCIÓN/PRESCRIP CIÓN CERCANÍA/DISTANCIA El evaluador tiene una posición de curiosidad imparcial. CRITERIOS HACIA UNA INFLUENCIA MÁS FORMATIVA Y MENOS INDEPENDIENTE Dialogo continuo formal o informal con los directores los que tomas decisiones. hipótesis. Evaluación respondiente Informal Pluralista. A continuación se presenta un cuadro comparativo entre la evaluación preordenada. y la evaluación respondiente de Studie: Item comparativo Orientación Perspectiva de valor Bases el diseño de evaluación Evaluación preordenada Formal Única. o acciones recomendadas El evaluador desea la iniciativa para el éxito y siente alguna responsabilidad en este éxito. analiza e informa solamente. según el modelo de Tyler. y cuyo criterio serán las necesidades de los sujetos a los que se dirige el programa.evaluador o momento de la evaluación determine el grado de consecución de los objetivos planteados. El evaluador tiene distintos valores que los que desarrollan el programa. consensual Objetivos del programa. escepticismo y oposición Diferencia entre una evaluación más formativa y una menos formativa (Bridges.

Métodos Comunicación. y posteriormente servirán para organizar el plan de recogida de datos. siendo mejor si en el análisis de dichos programas participan distintas personas que aportan visiones diferentes sobre un mismo problema. dudas y necesidades. Nunca. Informe escrito. identificando variables y sus relaciones. sobre dominio. Estimulado por los sujetos y las actividades. Subjetivos: observaciones.Preconcepciones del evaluador. El valor instrumental de la educación. 1989. es un estadio típico. Programa de actividades. proporcionando experiencia variada. La forma del modelo quiere romper la idea de linealidad. motivaciones o problemas de las personas en y alrededor de la evaluación. Test. Informal. Modelos de contraposición Consiste en proponer evidencias sólidas en torno a los problemas para los que se toman decisiones sobre los programas. por lo que la primera fase hace referencia a los problemas. retratos. Rol del evaluador Al comenzar la evaluación. reacciones. periodismo y poesía. comunicación holística. a menudo oral. las acciones correspondientes. La evaluación respondiente (Stake. ya que la observación y la información deben ser continuas y estar presentes en todas las fases. habilidad. Continuamente está evolucionando. Owen propone algunos de los ámbitos de discusión que se basan en la investigación sobre "pros" y "contras": a) Para explorar los valores de un currículum. negociaciones e interacciones. Una forma de identificar problemas es hablando con los implicados. y la búsqueda de soluciones.28). Estimulador de los sujetos con visión de probar un funcionamiento crítico. Para poder emitir juicios correctos. bien será el existente o el propuesto. medida. De la discusión puede surgir la clarificación. resultados. p. 1975) es sensible a las necesidades e intereses de la audiencia. interpretación simbólica. )Cuándo está completo el diseño?. . Feedback Paradigma Psicología experimental Comparación de las formas de evaluación preordenada y respondiente (Guba y Lincoln. Formal: informes. Objetivos. aptitud. Antropología. proporcionando modelos el programa. Descripción narrativa. descripciones. entrevistas. a menudo progresivos. Estos problemas deben utilizarse para discusiones.

. c) Explicación. y tratando de desvelar las relaciones entre las creencias y las prácticas. la organización y las concepciones de los individuos. directores y administradores. De ahí que proponga tres condiciones: a) Disponer de valores para juzgar sobre el mérito y la dignidad de un proceso educativo. c) Para estimar la congruencia entre una innovación y el sistema existente. para Wolf. Se destapan los principios subyacentes de la organización del programa y se ven las posibles relaciones causa-efecto en sus operaciones. Todo ello se hace entre de un marco de negociación cuya meta es facilitar la comprensión de los procesos por los propios participantes y servir de estímulo a su enriquecimiento en el plano personal y tanto como en el grupal. Por otra parte. c) Preparación de los argumentos. f) Para clarificar cuestiones en torno a los contratos de trabajo. cuestionarios y tests. Dos elementos clave orientan esta tarea: los objetivos del programa y las entrevistas al personal implicado. los procesos curriculares innovadores tal como ocurre. d) Discusión ante la audiencia. la evaluación judicial. así como el análisis de la información documental e históricas. a través de la inmersión en la realidad. Pueden utilizarse entrevistas. Eisner (1979). abarcando todas las variables que afectan al resultado del programa. quien no evalúa porque no tienen interés pro mejorar la cultura. pero marca la diferencia del conocimiento que obtiene el "entendimiento educativo"con el del antropólogo. está compuesta de cuatro etapas: a) Proposición de problemas relativos a la evaluación de un programa. así como la observación. b) Investigación: Selección y planeamiento de cuestiones de manera coherente y sistemática sobre el programa en su contexto. describiéndolos en términos de factores influyentes. Sttuflebeam y Sinkfield (1989). g) Para tomar decisiones sobre todas estas cuestiones. d) Para revelar las distintas interpretaciones que distintos representantes hacen sobre los mimo datos. b) Selección de problemas sobre la priorización de los vistos. e) Para informar a los profesores. Tarea para un grupo de implicados representante de los diversos grupos.b) Para seleccionar libros de texto. Tarea de dos equipos evaluativos que deben reunir y analizar los datos convenientes. Un jurado deliberará sobre los argumentos presentados. Modelo de crítica artística Este modelo se centra en procesos educativos y está muy ligado con la formación del profesorado. señalan tres etapas: a) Observación. etapa de iluminación. Modelo de evaluación iluminativa Trata de comprender de forma amplia. defiende el modelo de evaluación iluminativa. Por ello no sólo cuentan los hechos sino también las interpretaciones de las personas implicadas.

Las técnicas son científicas. iluminando las prioridades. También critica la idea del evaluador como "agente honesto". * Interpretación. los valores y las circunstancias. Los informes pertenece a la administración y la técnicas deben ser creíbles y eficaces. Las base para una evaluación democrática debe se la perspectiva o la epistemología critica. El evaluador acepta los valores de la autoridad. Reconoce la pluralidad de valores. c) Democráticos: Servicio de información a la comunidad entera sobre las características del programa educativo. o valoración educativa según unos criterios. MODELOS CRÍTICOS. para que otros vean y experimenten los contenidos a través de la forma. Se rige por los principios y la objetividad y la responsabilidad profesional. divulgar el conocimiento obtenido para hacerlo comprensible a otros. Lakomski (1983) critica la evaluación democrática de McDonald porque no proporciona una respuesta política al problema de control. A su juicio se debe a la aceptación de la perspectiva fenomenológica. McDonald (1983) piensa que las diferentes formas de evaluación responden a diferentes posiciones sobre la distribución del poder educativo. Las técnicas de recogida de datos son accesibles a personas no especialistas. generalización de la idea básica obtenida. * Evaluación. cuyos conceptos claves son la negociación. sin embargo creemos que está a medio camino entre los modelos prácticos y lo críticos. que deja las cosas como están. Los informes son burocráticos. * Conclusión. La evaluación democrática. Es personal y exige desarrollo de la capacidad de percepción. es decir. b) Autocráticos: Servicio condicional a las agencias con poder para distribuir los recursos. c) Tener crítica educativa.* b) Poseer un conocimiento refinado. Basado en el derecho de sabe. interpretativo. Emerge de un marco teórico fenomenológico. que toma en consideración el factor político y el tema del control y del poder en la evaluación. ofreciendo la información necesaria para conseguir sus objetivos políticos. Su finalidad es proporcionar datos relevantes para los que tienen que tomar decisiones. El rol del investigador es democratizar el conocimiento. científicos y públi cos. confidencialidad y accesibilidad. Los informantes tienen el control sobre el uso de la información. distinguiendo tres tipos: a) Burocrática: Trabajos que sirven incondicionalmente alas agencias gubernamentales con poder para distribuir los recursos educativos. apreciación. puesto que olvida que la actividad de evaluación está influenciada por los valores del propio . El evaluador se preocupa por determinar el valor educativo de su política y actuar como consejero. Tiene la siguiente estructura: Descripción. que facilite la comprensión de los hechos en relación con los factores que influyen sobre ellos.

sobre la naturaleza y la dignidad de un programa. cuando. 4) Principio de la pluralidad de perspectivas de valor: En la evaluación hay que tratar de determinar cuáles son las perspectiva más relevantes en el proyecto. Lo que contradice el principio de construir reglas y criterios universalmente válidos para la aplicación de un programa. Partiendo de la definición de Kemmis (1989. De ahí que la autocrítica sea la primera base para la evaluación. e informar a la audiencia para dar pie al debate sobre el programa. ya que a través de él se van cambiando las exigencias del programa en un proceso de debate crítico o conservación Para adoptar este principio es preciso partir de que la realidad es social. 3) Principio de comunidad de intereses: El evaluador deberá iluminar la extensión de los intereses comunes y de los conflictos entre valores e intereses de los participantes de la comunidad. para identificar los factores contextuales e históricos que influyen y facilitan el análisis crítico de estos aspectos. evaluadores. Pero el hecho de que no haya valores absolutos no quiere decir que no haya criterios por los que lo evaluadores puedan juzgar lo que debe hacerse en cada situación. Por lo cual será importante clarificar los criterios para una evaluación democrática. y la evaluación independiente puede ayudar a aprovechar la autocrítica al programa allí donde el programa de la comunidad es difuso o dividido por la controversia. Por ello es importante atender al proceso de negociación de los participantes. según el autor. se admite que no hay forma de establecer cuál de ellos es correcto porque todos ellos son igualmente válidos. Parece ser que se parte de la aceptación de que el pluralismo es la única posición válida. p..evaluador. La metaevaluación puede ayudar a mejora la calidad de la contribución el programa de evaluación. histórica y culturalmente negociada. 5) Principio de la comunidad autocrítica: La evaluación debe refinar el debate crítico. no es más que un sofisticado relativismo en el que. aunque siempre hay elementos constrictores de la libertad e acción y circunstancias que están más allá del control de los participantes. considera que un programa de evaluación sobre desarrollo curricular e innovación debe estar desarrollado por los siguientes principios: 1) Principio de la racionalidad como lo razonable: La tarea de la evaluación es iluminar el razonamiento que guía el desarrollo del programa. existente dentro de la comunidad. los cuales deberá descubrirse mediante la evaluación. la evaluación externa contribuir al debate crítico pro acrecentar la conciencia de algunos intereses y valores relevante para el programa. 2) Principio de autonomía y responsabilidad: Este principio implica a todos lo participantes (profesores. patrocinadores.). * Criterios para un evaluación democrática del currículum.119). 6) Principio de propiedad en la producción y distribución de información: Los argumentos y la información son un . Se basa en el principio de autonomía moral y cooperación o responsabilidad compartida entre los patrocinadores del programa y los participantes. "Evaluación es el proceso de ordenación de la información de los argumentos que permiten participar en el debate crítico sobre un programa específico a individuos y a grupos interesados".. cuando los diferentes grupos no están de acuerdo o entran en conflicto de valores.

Por ello la evaluación deberá hacer explícitos lo principios de procedimiento que gobierna la dirección. La finalidad es ayudar en la planificación. sino en relación a las preferencias. reducirlo. orientar a conocer cuál es el nivel de consecución de alguna meta u objetivo existente de un programa. obligaciones. Se necesitan pruebas para convencer a otras persona acerca de la validez de las conclusiones. necesidades. Los supuestos básicos de la investigación evaluativa. Weis (1989). . difíciles de observar y constan de muchos elementos que reaccionan de diversas formas. circunstancias y oportunidades de los que serán más estrechamente implicados en el programa. según Suchman (1967). y si se debe continuar con él ampliarlo. * * * * El estudio de casos en investigación curricular. producción y distribución de este proceso o de elaboración de información. y la investigación como la actividad científica que trata de aumentar la posibilidad de demostrar el valor de alguna actividad social. cambiarlo o retirarlo. debe aportar conocimiento suficiente porque los que toman decisiones quieren y necesitan saber con qué grado de acierto está cumpliendo el programa los objetivos para los que se estableció. Es decir. considera que la evaluación es una actividad orientada a determinar el valor de algo y.aspecto importante de la evaluación porque su uso y abuso afecta a los participantes y a los observadores del programa en su vida social. Las decisiones que se derivan son importantes y caras. que la investigación pretende obtener conclusiones generando nuevo conocimiento. y no debe realizarse con relación a la "lógica interna" del modelo de evaluación que se elija. 7) Principio de conveniencia: El diseño de evaluación no es una cuestión teórica o técnica sino práctica. La investigación científica debe ser su modelo. Para este autor la investigación evaluativa es necesaria cuando: Los resultados que se quieren evaluar son complejos. Su característica fundamental. definido por un valor. definiéndola como aquella forma de evaluación que establece criterios claros y específicos para el éxito. son: * La utilidad de los resultados debe ser el criterio fundamental del evaluador. Suchman (1967) distinguió ente evaluación e investigación evaluativa. LA EVALUACIÓN COMO INVESTIGACIÓN. Entendida la evaluación como el proceso de emitir juicio de valor. ética y política. desarrollo y operatividad de los programas.

Como ha destacado Kvale (1992:121-2). por ejemplo. Nunca describe la realidad como es ahora. Walker (1989) considera el estudio de casos es el intento de investigar a través de la experiencia de los sujetos del estudio para ofrecérselo a los que son audiencia. y/o como programa o contenido. en el que es difícil establecer lo límites entre fenómeno y contexto. Por esto. la evaluación de la innovación curricular. Por ejemplo. sino el mismo examen contribuye a establecer los conocimientos válidos de una disciplina".13) define el estudio de caso como un método de investigación que permite un estudio holístico y significativo de un acontecimiento o fenómeno contemporáneo dentro del contexto real en que se produce. sobre la vida de otros. ya que se hace un selección para entrevistar. confidencialidad y accesibilidad. que es evaluado en el aprendizaje de los alumnos. LA EVALUACIÓN DEL CURRICULUM EL CAMPO DE LA EVALUACIÓN DEL CURRÍCULUM "Evaluación de curriculum" entendida como la evaluación de curriculum diseñado. La evaluación del curriculum ha estado dominada por un cierto imperialismo de los test y estándares establecidos. y la evaluación de programas (educativos.Según Pérez Gómez (1983). se entiende por estudio de casos el análisis de una instancia en acción. a menudo incontrolada. o con los alumnos sobre la enseñanza. Dentro de la evaluación del currículum. la evaluación contribuye "la determinación de lo que son los conocimientos válidos de una disciplina. participación. etc. hemos de incluir. y de la investigación educativa". para que te hablen. realidad. etc).. y que requiere el uso de múltiples fuentes de evidencia.. Shulman (1992) subraya como característica. se presenta como una perspectiva amplia. negociación. de lo que escribes. aparte de dimensiones internas del curriculum (contenidos. Marcelo y Parrilla (1991) citan las siguientes: totalidad. p. son medio des influir en la vida del centro. la observación de la enseñanza. capta un instante en el tiempo y el espacio y lo detienen frente a la realidad cambiante. al curriculum como resultado o producto. señalan que este es "un área compleja de estudio. En ambos casos van unidas. así. que el estudio de casos refleja los problemas particulares de la enseñanza. Sin embargo el autor reflexiona sobre alguno problemas y los presenta como razones para no hacer el estudio de casos: a) El estudio de casos es una intervención. (. con relaciones cercanas a la evaluación de programas. Ying (1987. el hablar cono profesores sobre sus sentimientos. c) El estudio de casos es conservador. Madaus (1988). innovadores o formativos). la entrevista. a los test. citado por Marcelo y Parrilla 1991. y a través de ellos se puede conseguir una visión clara de ello que sucede en la clase. En este sentido la evaluación legitima el curriculum a aprender/enseñar/seleccionar en un campo de conocimiento o disciplinar de una etapa educativa.) Los conocimientos sobre una disciplina no sólo se transmiten en la enseñanza y se comprueban en los exámenes. materiales. particularidad. Las características del estudio de caso son definidas por diversos autores. tras la revisión (histórica) del campo de la evaluación del curriculum. en un buen estudio sobre la . Madaus y Kellagan (1992:147). b) El estudio de casos da una formación del mundo.

propugnan una "evaluación social del curriculum". comunidad escolar. métodos de la evaluación del currículum: 1. 2. al tiempo que puede proporcionar evidencias que puedan ser tomadas en cuenta para guiar la toma de decisiones (y en este aspecto guarda similaridad con la evaluación formativa). pues la suposiciones metodológicas suelen implicar concepciones del curriculum. Ariav (1986) señala los siguientes propósitos. cifrando el primero en describir el posible valor educativo del currículo. pero la asociación tradicional entre investigadores y evaluación ha motivado un énfasis en los test y medida. la toma de datos empíricos. como base para clarificar el campo. 3.. King (1991). ha puesto de manifiesto cómo los test usurpan el papel del currículum en la definición de lo que hay que enseñar y cómo hacerlo: "No es currículum oficial. profesores. sus potencialidades curriculares y sus procesos de desarrollo.Los métodos aplicados. 2. porque según los diferentes modelos de evaluación se centrará en cuestiones diferentes y aplicará diferentes metodologías. desarrollo e informe. 3. o de personal.. distinta de la investigación curricular sobre evaluación en la medida en que no pretende proporcionar material para la discusión teórica. La evaluación puede dirigirse al uso de un material curricular específico. de igual manera.La evaluación de la práctica curricular se dirige a lo que los profesores y alumno han utilizado. caracterizada por redefinir la unidad de evaluación dentro de un contexto más amplio y por focalizarse en las funciones . sino información útil para iluminar la práctica. independientemente de sus resultados .La dirección de la evaluación del curriculum se puede dirigir a la administración educativa. y la orientación al diseño. La finalidad del análisis es describir y comprender una situación.En segundo lugar.. agencias patrocinadores.1986) entre análisis del curriculum y evaluación del curriculum. 1988:83).. señala las siguientes características iniciales: 1. sino los test quienes están determinando cada vez más que se enseña.. Evidentemente esto es una generalización. y cómo se aprende"(Madaus. teniendo una función descriptiva más que prescriptiva. Aquí igualmente se presenta un amplio espectro de modos y formas de evaluación Desde la perspectiva crítica Apple y Beyer (1983).La evaluación del curriculum es dependiente de las múltiples perspectivas del curriculum existentes. y cubre un amplio rango de actividades curriculares (procesos y productos) que pueden ser objeto de evaluación.El propósito de la evaluación del curriculum es juzgar el éxito o fracaso de un curriculum particular. están usando o van a usar en el futuro.influencia de los test en la determinación del currículum. prioritariamente se centra en juzgar/valorar su éxito y resultados. Por otra parte podemos distinguir funcionalmente (Ariav.. en su dimensión sumativa. mientras que la "evaluación del curriculum". de un método de enseñanza. contexto y situación investigada. refiriéndose a la evaluación del curriculum en la práctica. es dependiente de múltiples perspectivas filosóficas y metodológicas conjuntamente. cómo se enseña. son diferentes en los modelos y fines. qué se aprende. alumnos.

la evaluación del curriculum debe ampliarse a estas funciones socioeconómicas. producción. divorciadas del contesto social y de sus funciones de legitimación. Los resultados de la educación vienen determinados por la actuación de los profesionales que en ella intervienen. al menos. 2. Así en el reciente documento a debate presentado por el MEC (1994) sobre "Centros educativos y calidad de enseñanza" se señala: "Al adoptar una concepción más compleja e interactiva del curriculo. organizar y evaluar lo que sucede en las escuelas. al profesorado. que constituyó su campo de intervención originario. precisamente por los mismos problemas que tenía que resolver". expresado en materiales curriculares y vivenciados por el profesor y los alumnos. Tres dominios. No obstante. por la organización y funcionamiento del centro no escolar en el que aquélla se lleva a cabo. en cuanto son dependientes del curriculum o influyen decisivamente en él (entorno escolar o apoyo externo). se encuentra afectada hoy en día. más allá de la valoración de los aprendizajes adquiridos por los alumnos. que fue inventada para solucionar nuestros problemas sociales. Dado que las escuelas no son entidades aisladas. raza y género de nuestra sociedad.Las interacciones cotidianas y regularidades de la vida escolar: Lo que se ha llamado "curriculum oculto" como modo en que se enseña y reproducen importantes valores y normas sobre trabajo. al currículo. 1994:26). procedimientos y teorías fundamentales que los docentes utilizan para planificar.. a la propia Administración y. clase social.. Por ello la evaluación del curriculum es incompleta si se limita a la "caja negra" de la escuela investigando lo que se enseña o las experiencias de los alumnos con los programas escolares.sociales que cumplen el curriculum escolar. Próximo a nosotros tenemos a House (1992). 3. por la propia definición y desarrollo del currículo. que realizó una revisión de las tendencias actuales en evaluación y dice: "La evaluación. a todo el conjunto del sistema educativo".Las perspectivas. necesitarían ser objeto de estudio en una evaluación social del curriculum (Apple y Beyer. Parte de la siguiente definición de evaluación: . todos ellos se convierten en objeto de evaluación" (MEC. y por la actuación del aparato administrativo que debe proporcionar los recursos para el funcionamiento eficaz del sistema en su conjunto. Kemmis (1986: 119). el campo de la evaluación del curriculum se ha ampliado considerablemente hasta poder abarcar otros campos. 1983: 430) para ver las conexiones entre el curriculum y las estructuras ideológicas y económicas: 1. En consecuencia. afirma que: "La importancia actualmente cobrada por la evaluación educativa y el notable desarrollo de las funciones que le han sido atribuibles ha producido una ampliación paulatina de su ámbito de actuación. la evaluación alcanza actualmente a los centros educativos. distribución y reproducción de las relaciones sociales. SENTIDO DE LA EVALUACIÓN En un documento del MEC (!994) sobre "Centros educativos y calidad de enseñanza".El corpus formal del conocimiento escolar: El curriculum planificado. en suma. ha proporcionado un conjunto de principios que deben regir un proceso de evaluación democrática en el desarrollo curricular.. ya no se justifica reducir la tarea de evaluación exclusivamente al alumno y al proceso de enseñanza y aprendizaje.

"Evaluación es el proceso de recoger información y argumentos que capaciten a los individuos y grupos interesados para participar en el debate crítico sobre un programa específico. Así definida la evaluación consiste en aprovechar y refinar los múltiples procesos de enjuiciamiento público y privado, no en substituirlos con tecnologías de valoración". CONCEPTUALIZACIÓN DE LA EVALUACIÓN. La evaluación tiene como objeto determinar el valor de una cosa, Worthen y Sanders (1987:24) definen la evaluación como "el acto de proporcionar juicios para determinar el valor (valía o mérito), sin minusvalorar por ello las importantes funciones que la evaluación tenga en la toma de decisiones y en las actividades políticas. En educación, la evaluación es la determinación formal de la cualidad, efectividad, o el valor de un programa, producto, proyecto, objetivo, o curriculum. La evaluación, para ello, utiliza métodos de investigación y de juicio, como: 1.- Determinar los estándares para juzgar la cualidad y decidir cuáles de ellos deben ser relativos o absolutos 2.- Recoger información relevante sobre los objetos de evaluación; y aplicar los estándares para determinar la cualidad. Gimeno (1992, p.338) define la evaluación como "proceso por medio del que alguna o varias características de un alumno, de un grupo de estudiantes, de un ambiente educativo, de objetivos educativos, de materiales, profesores, programas, etc., reciben la atención del que evalúa, se analizan y se valoran sus características y condiciones en función de unos criterios o puntos de referencia para emitir un juicio que sea relevante para la educación". En el artículo de Cronbach (1963), Presentó un cambio muy significativo en el que se elabora una propuesta sobre los tipos de decisiones en el uso de la evaluación: 1.- Mejora del curso/programa: Decidir qué material de instrucción y qué métodos son satisfactorios y en cuales es necesario introducir cambios. 2.- Decisiones sobre individuos: Identificar las necesidades del alumno, con el fin de planificar su aprendizaje, valorar sus méritos con fines de selección y agrupación, familiarizándose con sus propios progresos y deficiencias. 3.- Regulación administrativa: Juzgar la calidad del sistema escolar, la de los profesores individualmente considerados, etc. Cronbach plantea la necesidad de centrar la evaluación en el propio proceso de desarrollo de un curso, con el objeto de mejorar y evitar lagunas que al final del proceso no se pueden superar. Nevo (1989) llevó a cabo una revisión biliográfica sobre evaluación y señaló las dimensiones relevantes en la evaluación del curriculum: 1.- )Cómo se define la evaluación? La evaluación educativa es una sistemática descripción de los objetos educativos y/o su mérito o valor.

2.- )Cuáles son las funciones de la evaluación? Señalaremos cuatro funciones básicas en la evaluación educativa. 1.- Formativa (para desarrollar y mejorar). 2.- Sumativa (para selección, certificación, rendir cuentas). 3.- Sociopolítica (como motivación y soporte de apoyo público). 4.- Administrativa (para ejercer control y autoridad). Por otro lado Gimeno (1992) al referirse a la evaluación de la enseñanza, considera siete tipos de funciones que de hecho ejerce la evaluación: a) Definir los significados pedagógicos y sociales, o qué se entiende por excelencia escolar. Y a partir de la consecución de la excelencia o de niveles de excelencia, definir el significado social de términos y las realidades como la calidad de la educación, o el rendimiento, el éxito, el fracaso escolar, etc b) Funciones sociales. Dado que a través de las certificaciones se acreditan los niveles de competencia en función del grado de saber demostrado, sirve para la jerarquización de los puestos de trabajo y la selección de las personas que deben desempeñarlos. c) Poder de control. El profesor ejerce su poder, fundamentalmente a través de las calificaciones. Controla la conducta, y es una forma de compensación a la ausencia de liderazgo.

d) Funciones pedagógicas. También sirve a funciones con claro objetivo educativo, o de mejora, que son las que legitiman la existencia de la práctica de la evaluación.(creación de ambiente escolar, función diagnóstica, recursos para la individualización, afianzamiento del aprendizaje, orientación, pronóstico y ponderación del currículum y socialización profesional). e) Funciones con respecto a la organización escolar. Proporciona conocimiento para una ordenación del currículum y una organización de la práctica real de la enseñanza. f) Proyección psicológica. En la medida que repercute en la motivación, el autoconcepto y las actitudes hacia la escuela, etc.

g) Apoyo a la investigación. Es una fuente de información sobre el funcionamiento del sistema educativo, y la validez de los currículums. 3.- ¿Cuales son los objetos de la evaluación? Cualquier entidad puede ser evaluada, pero los objetos más frecuentes son: alumnos, personal administrativo y docente, curricula, materiales, programas proyectos, e instituciones o centros. No debe limitarse a alumnos y profesores, y es necesario identificar claramente el objeto de evaluación, ampliar el objeto de la evaluación, para que esta sea más explicativa.

A.- La evaluación de los alumnos En la evaluación de los alumnos considero dos formas: la evaluación por parte de la administración, y la evaluación por los profesores. a) La evaluación por parte de la administración se realiza generalmente mediante exámenes; esta ha sido la forma más utilizada en todos los países. Marsh (1992) considera que el problema de los exámenes hoy día se sitúa fundamentalmente a nivel de la enseñanza secundaria, pues aunque han sido muy utilizados en el siglo XX, sin embargo se está operando un cambio de manera que se han desplazado desde la primaria a la secundaria. b) La evaluación del alumno por los profesores Los profesores toman en cuenta la cantidad de información tanto al planificar como durante la tarea de instrucción (habilidad y logro, cuestiones sobre el sexo, participación en clase, autoconcepto, competencia social, independencia, conducta en clase, hábitos de trabajo,...) Pero el logro es lo más importante, de forma que hay evidencia de que el juicio sobre la capacidad, la motivación y el esfuerzo del estudiante dependen de su valoración del resultado. B.- Evaluación del profesor Es opinión pública, que la clave de la mejora de la educación está ligada al grado de calidad de los profesores, lo cual a llevado a la administración a tomar diferentes decisiones en torno al cambio para facilitar la mejora. de esta manera se ha visto en la necesidad de adoptar medidas para realizar una evaluación correcta. * Entrevista al profesor. Se ha usado en el pasado y es la piedra angular de las estrategias de evaluación más recientes. Test de competencia. Se usan para certificación inicial y para el contrato. Los profesores deberían demostrar competencia cognitiva como un prerrequisisto para poder enseñar. Medidas indirectas de la competencia del profesor. Esto no se refiere a características de la personalidad, sino a rasgos tales como el compromiso profesional que se expresa a través de actividades extraescolares, etc. Observación de clases. Supone observación directa del estilo del profesor en clase, durante la interacción con sus alumnos, y generalmente se completa con entrevistas. Se pueden usar instrumentos estandarizados de observación para facilitar los juicios de los observadores, como Weade y Evertson (1991) recomiendan, ya que la observación sistemática y deliberada, como una acción intencional enfocada a determinados propósitos, puede y debe ser planeada para poder obtener justamente la información que se necesita. Valoraciones de los estudiante. Se basa fundamentalmente en que: 1) los estudiantes saben cuando han sido motivados; 2) son los estudiantes los que van a cambiar la conducta; 3) ellos saben si el

*

*

*

*

Evaluación del Claustro de profesores. La autoevaluación puede promover autoreflexión y la motivación hacia el cambio y el desarrollo personal y profesional. y desde luego no es útil una aproximación unidimensional para juzgar la competencia del profesor.Centrarse en el problema de evaluación. * Darling-Hammond y sus colaboradores (1989) después de revisar los procedimientos de evaluación del profesor.¿¡Qué métodos de evaluación deben ser usados en la evaluación? .. 8. 2. 6.¿A quién debe servir la evaluación? La evaluación debe ofrecer la información necesaria para todas las partes implicadas tanto las actuales como potenciales.. Aunque es una idea entusiasta. * Revisión de compañeros. 4) El reconocimiento de los estudiantes pude motivar la buena enseñanza. 3.¿Qué tipo de información debe ser recogida para cada objeto? Independientemente de los modelos de evaluación que condicionan esta dimensión.. No olvidando que se deben emplear múltiples y variados criterios. debe incluir las tres actividades siguientes: 1.. En este proceso un comité de compañeros evalúa la enseñanza a través de un análisis de documentos. 7. y sobre los aspectos organizativos.¿Cómo se realiza el proceso de evaluación? En el proceso de evaluación. sus estrategias y planes. su proceso de implementación. lo cual es un pilar de la profesionalización.¿)Qué criterios se han de emplear para juzgar el mérito de un objeto? Al menos tendremos en cuenta los siguientes: Si responde a las necesidades identificadas de los actuales o potenciales clientes. 4. Unido a una estrecha interacción entre el evaluador y los destinatarios. 5. y sus resultados e impacto. la existencia de otros objetivos no planteados. Es responsabilidad del evaluador/es delimitar a los afectados por una evaluación e identificar o proyectar la información necesaria.. Un profesor puede usar datos derivados de las otras técnicas y hacer juicios sobre su propia enseñanza.. El grado de consecución de normas y estándares. porque todos tienen sus riesgos .. en la práctica puede causas tensión. concluyeron que no hay un único método válido.Coleccionar y analizar datos empíricos.. y la consecución de objetivos determinados para los objetos propuestos.profesor proporciona feed-back. como método de investigación. cuatro grupos de variables deben ser consideradas: los objetivos del objeto/aspecto a evaluar.Comunicar los hallazgos a las audiencias. interesadas en el objeto de evaluación.

y Apropiada (ser realizada de modo legítimo y ético).Habilidad para mantener relaciones humanas correctas con los individuos o grupos implicados en la evaluación..Generalización: Si el estudio de un programa se hace como representativo de otros.Un marco conceptual para integrar las capacidades mencionadas.Respondente: Si la evaluación debe venir predeterminada por la observación de las actividades o por la realización de preocupaciones de los participantes en el programa . categorizandolos en los siguientes: 1.Descripción .La evaluación es una tarea compleja. o estudios de caso particulares. 9. según el valor extremo del programa o su valor intrínseco..Comprensión del contexto social y del tema específico de evaluación.Sumativa: Una de las distinciones más extendidas es si los estudios de evaluación se hacen durante el desarrollo del programa o cuando el programa ha finalizado.Formal . La evaluación está más operacionalizada y menos personalizada. credibilidad. 4. o a sus procesos de desarrollo.Preordenado . con pretensiones de generabilidad. suele requerir validez.. o hacer estudios analíticos como las relaciones entre variables .-Totalidad .. Viabilidad (ser realista y prudente).Analítico: Tratar el programa como una totalidad holística.¿Quién debe hacer la evaluación? La evaluación debe ser realizada por equipos de profesionales que posean: 1. que necesita de varios métodos de trabajo.Juicio: Priman los aspectos descriptivos y objetivos en la información proporcionada.Una amplia competencia en metodología de investigación y otras técnicas de análisis de datos. 6. 5. Por otra parte tenemos a Stake (1986) que ha señalado las dimensiones más comunes para clasificar los diseños de evaluación.Caso particular . como los estudios de caso.. 7.Proceso: Otra distinción relevante en los estudios de evaluación es si se dirigen a los resultados de un programa. 10.Formativa .Producto . 2. 3. o defender la legitimidad de proporcionar un juicio sobre el programa evaluado..Informal: Evaluar de un domo informal es una actividad específicamente humana. Precisión (técnicamente adecuada)....-¿)Por medio de qué estándares debe juzgarse una evaluación? La evaluación debe lograr un equilibrio óptimo en el conjunto de estándares de: Utilidad (su uso y su práctica). utilizando de acuerdo con la naturaleza del problema el método de investigación que mejor se ajuste a la demanda solicitada.. 3. Stake plantea sus dudas sobre la base en la práctica de la distinción. utilidad y precisión.. 4. 2.

distinguió entre roles o funciones que pude cumplir la evaluación "propongo la utilización de los términos evaluación formativa y sumativa para hacer referencia a estas dos funciones de la evaluación"). 1992:2552). Acercándose a Stake. La evaluación formativa sirve para tomar decisiones sobre el desarrollo del programa. pueden indicar si una evaluación es formativa o sumativa. Lo que es importante es que hay diferencias entre lo que la "gente del programa" quiere conocer sobre el programa y lo que los "externos" quieren conocer". el mismo estudio pude ser considerado formativo por un cliente y sumativo por otro" (Lewy. y supervisores. Scriven en 1976. el programa sigue funcionando.discretas. Por eso Stake (Worthen y Sanders. Esta distinción es difícil en la práctica. 8. como términos más adecuados. y Fernandez Perez (1994:781) los denomina "evaluación sobre el proceso" y "evaluación terminal".el desarrollo no acaba nunca. nunca acaba. diferenciar entre evaluación interna y externa: " En el campo de la evaluación los términos formativo y sumativo han llegado a ser cada vez más utilizados. y unos informes sumativos pueden servir para promover el desarrollo). El supuesto básico la evaluación formativa es que los agentes utilizan o podrán usar la información obtenida para el estudio que realizan. el público que la pide y la manera de usar los resultados. Stufflebeam las ha llamado "evaluación proactiva" y "evaluación retroactiva".Interna . Esta posición influye en cómo es evaluado. etc. los términos han sido universalmente utilizados. El propio Lewy (1991: 2552-3) reconoce que "tras dos décadas de utilización de estos términos se ha producido poco consenso en lo que se refiere a sus rasgos distintivos". Las audiencias en el caso de la evaluación formativa es el personal inmerso en el programa. pues el propósito de ambas es examinar el valor de una entidad determinada. Para la mayoría de los programas educativos-cursos de correspondencia. interpretado y negociado. 1987: 36) propone. Para un alumno hay un comienzo y un final. DIMENSIONES DE LA EVALUACIÓN FORMATIVA Y SUMATIVA. Estos términos tienen un efecto dramático. mientras que en la sumativa las decisiones conciernen sobre si continuar con el programa o darlo por finalizado.. aunque la distinción entre formativa/sumativa es "superficialmente clara". Yo encuentro esta distinción trivial. Hopkins (1989:168) señala que. Por otra parte. en un principio por las audiencias a quién van dirigidas y el uso que se hace de la información. "Solo el tiempo de realización. en la práctica no funciona así (una evaluación formativa puede convertirse en una serie de pequeños informes. EVALUACIÓN FORMATIVA Y SUMATIVA Siguiendo a Cronbach. extenderlo o adoptarlo.Externa: Si la evaluación es realizada por personas implicadas en la institución responsable del programa o por externos. En el caso de la evaluación . Por eso Scriven resaltó que no hay diferencias lógicas o metodológicas entre la evaluación formativa y sumativa. programas Montessori. distinguiendo entre lo que se hace durante el desarrollo y aquello que se hace cuando el desarrollo ha terminado. Se diferencian. aquellos que lo financian. en la evaluación sumativa la audiencia incluye a los potenciales consumidores (alumnos. profesores y otros profesionales). pero para el profesor.

o para presentarla como una alternativa a la evaluación sumativa. tanto si son personal especializado. De este modo está en crisis si lo que se debe evaluar es la consecución de los objetivos prefijados centrándose en los resultados. informe interno. la acción conjunta del centro y su compromiso por la mejora escolar. necesita también de una evaluación sumativa que le sirva para demostrar su mérito y valor. se ha utilizado injustificadamente la evaluación formativa como excusa para evitar las demandas de rendir cuentas de resultados. En la evaluación formativa el nivel de generalización está limitado al contexto especifico evaluado.. pues como recuerda recientemente Nevo (1994: 94). Desde una perspectiva que intente unir desarrollo curricular e investigación no tiene sentido separar el papel de desarrollador interno y evaluador externo. En la práctica un proyecto de innovación. sin embargo en la evaluación sumativa el nivel deseado de generalización se escapa hacia operaciones con objetos similares. y la limitada difusión entre evaluadores y programas similares al estudiado.autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. revistas especializadas En la última década ha emergido con fuerza una perspectiva interpretativa de análisis de los significados. EVALUACIÓN INTERNA/EXTERNA Siguiendo la sugerencia de Stake. o alguien que en el caso del personal de evaluación es diferente del personal que está siendo evaluado. más preferentemente . Zabalza (1990b) contrapone la evaluación orientada al control a la evaluación orientada al desarrollo. desarrollado autonomamente por un centro escolar. modos de trabajo y "cultura". o. procesos. aunque referido a la evaluación del profesorado universitario. De modo similar al nuestro. como si son externos a la parte encargada de producción/escritura/servicio del proyecto.. sujetos o grupos implicados y la iniciativa de la evaluación. normalmente rendimientos académicos de los alumnos. Un evaluador externo es alguien que en alguna medida no forma parte del proyecto. Dos características diferenciales entre la evaluación formativa y la sumativa las encontramos en el nivel deseado de generalización y el modo de aplicación. en el caso de la evaluación sumativa el modo de aplicación se basa en informes de evaluación para responsables de evaluación. La nueva evaluación equivale a investigar la naturaleza y los problemas de la innovación educativa y el perfeccionamiento de las escuelas" (Stenhouse. El modo de aplicación en la evaluación formativa se basa en el informe oral. planificadores de la educación. y no un reformador. Scriven define de las siguientes formas las evaluaciones externas e internas: Evaluaciones internas son aquellas hechas por el personal del proyecto. que emplea como instrumento básico de mejora la evaluación formativa o autoevaluación.sumativa: "lo que funciona en un contexto sometido a unas condiciones debe operar de manera similar en otro contexto". medidos en términos cuantitativos. según los diferentes estándares de calidad. ambos se fusionan: "En mi opinión el desarrollo del currículum debería tratarse como investigación educativa. junto a la dimensión anterior se pude diferenciar entre evaluación interna (realizada por los que están trabajando en el programa) y externa (conducida por agentes externos). No debemos caer en el error de oponerlas dicotomicamente. a veces. conferencia. y que le sirva para defender su viabilidad frente a las escuelas tradicionales. Aquel que desarrolló un curriculum debe ser un investigador. . lo que implica valorar los procesos. 1984: 169).

Son los responsables de la evaluación inicial y continua de sus alumnos. ¿Cómo se está trabajando?. la evaluación interna puede ser completada por la externa. ¿Cuál es el grado de eficacia? Formas/roles Medida Frecuencia de datos Tamaño muestra Audiencia Principales cuestiones . o de proyectos de innovación que desarrollan el currículum básico. Evaluación sumativa Responsabilidad: Dar cuentas de los resultados Externos Cuantitativa: validez. b) c) d) DIMENSIONES DE LA EVALUACIÓN INTERNA/EXTERNA Dimensiones Propósito DESARROLLO/INTERNA Mejorar internamente el funcionamiento de un programa. ¿Qué necesidades tenemos?. Los alumnos. A menudo informal Frecuente/continua Normalmente pequeña. Orientado en los procesos internos Evaluación formativa. Personas implicadas en el desarrollo del programa o currículum.También se plantea necesidad de una evaluación interna debido a que la evaluación del currículum forma parte de la cultura de la escuela. por ello requiere crear cauces de participación y responsabilización apropiados para la toma de decisiones del currículum escolar. ¿Qué resultados?. Centrado en los resultados. Debe conocer cual es el nivel de la eficacia en la tarea encomendada al sistema educativo. potenciales consumidores o patrocinadores. Cuando se trata del currículum básico. Test estandarizados o pruebas formales. sobre todo a efectos administrativos. Desarrollo y mejora del programa o curriculum Agentes Metodología Internos Cualitativa: Etnográfica y procesual. Rosales (1990)ve la necesidad de implicar a diferentes grupos de personas: a) Los profesores. Los padres. La sociedad. ¿Qué coste?. Válida/fiable Limitada en el tiempo Normalmente extensa Administración. Observación sistemática. es preciso someterla a deliberación. Deben conocer qué valoración va obteniendo el aprendizaje de sus hijos en la escuela. Necesitan conocer los resultados que va teniendo su propia actividad y esfuerzo. En cuanto a la evaluación de los aprendizajes del curriculum. CONTROL/EXTERNA Certificar comparativamente la eficacia de un programa.

1989).. aunque cada una pueda tener ventajas para ciertos propósitos: Evaluación interna para una evaluación formativa y para proveer feedback para la mejora.La autoevaluación tiene que servir conjuntamente para una función formativa y sumativa.¿Cómo mejorar?. Dimensiones principales de la evaluación (Reelaborado a partir de Worthen y Sanders.Los resultados o impactos no deben ser únicamente los aspectos a examinar cuando se evalúa un programa. en combinación con la "evaluación externa". El evaluador/es tiene distintos valores que los que desarrollan el programa. implicando una formación para aprender de la evaluación. La tarea de hacer más formativa una evaluación se convierte en el problema de cómo el conocimiento producido en la evaluación es utilizado por los usuarios. El evaluador sólo describe. 1987:36). interesa cómo la evaluación puede servir para un desarrollo o mejora interna del aspecto o actividad evaluada (Hopkins. Se percibe al evaluador como en un status diferente y particular. Criterios Hacia una influencia más formativa y menos independiente Diálogo continuo formal o informal con los gestores y los que toman decisiones Base común de valores compartidos entre evaluadores y los que desarrollan el programa Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa El evaluador entrará en la discusión sobre estrategias alternativas. y para proveer información para demostrar el rendimiento de cuentas o resultados. La distinción entre evaluación interna y externa no tiene por qué implicar un juicio de valor sobre la superioridad o ventajas de una sobre otra. 4. INFORMES VALORES STATUS DESCRIPCIÓN/ PRESCRIPCIÓN . analiza e informa. para proveer información en orden a planificar y mejorar. defiende que la evaluación basada en la escuela puede ser concebida como sinónima de "evaluación interna".Los alumnos y sus resultados no deben ser el único objeto de la evaluación escolar. Nevo (1994) expone las siguientes conclusiones extraídas: 1. Pero más allá de discriminaciones conceptuales.. Como resultado de un Proyecto llevado a cabo en Israel para capacitar a los centros a hacer su propia evaluación.. 2. así como para certificar y dar cuentas.. 3. Nevo (1994). y la externa para una evaluación sumativa. proyecto u otro objeto de evaluación dentro del centro escolar.El personal escolar entiende mejor el significado de la evaluación mediante la distinción entre descripción y juicio. o acciones Hacia una mayor independencia y una influencia menos formativa Documentos escritos producidos después de haber desarrollado la actividad práctica.

en un programa educativo o curriculum.recomendadas COMPROMISO/ DISTANCIA El evaluador toma la iniciativa para el éxito y siente alguna responsabilidad en este éxito. Caracteres Limitacione s * Permanecer en un plano emic. * Determinar el grado de implementación y factores que lo explican. * Limitarse a como facilitar el cambio. distinguir tres perspectiva sobre la relación entre mejora escolar y evaluación: evaluación de la mejora. * Usar los datos para mejorar la práctica. * Posible mecanismo de interiorización de responsabilidad. * Mayor implicación de los usuarios. pudo incluir la tradición Tyleriana de medida de resultados o "productos" para detectar aquellos aspectos. con fines clarificadores. que no toda evaluación formativa implica un desarrollo organizativo del centro. Holly y Hopkins (1988) han propuesto. y diferenciar. * Evaluación basada en objetivos. evaluación y cambio son distintos. al tiempo que cada una se sitúa a un nivel superior del círculo y pueden conducir a otra. * Racionalidad instrumental de medios-fines. * Comunicar y utilizar los datos. en un primer plano. * Mejora como adopción de propuestas externas. Evaluación DE la mejora Medida de la consecución de los objetivos. * Perspectiva de "fidelidad". que no funcionan eficientemente de acuerdo con las expectativas prefijadas. 1989:168). evaluación para la mejora. sin transcender el contexto local. La evaluación de la mejora. * Autoevaluación del centro. recogido en Hopkins. * No centrarse en los factores que constituyen el proceso de cambio mismo. . * Posible uso conservador por los centros. Evaluación PARA la mejora "Evaluación formativa" Ayudar a introducir mejoras en la práctica * Evaluación durante el proceso. El avaluador toma una posición de curiosidad imparcial. RELACIÓN ENTRE MEJORA ESCOLAR Y EVALUACIÓN. Paradoja de la evaluación formativa (según Bridges. La distinción tiene la virtualidad de romper con la oposición fácil entre evaluación sumativa y formativa. Cada una tiene sus propias implicaciones metodológicas y puede servir para cuestionar el papel de la evaluación en el proceso de mejora escolar. escepticismo u oposición. dentro de una evaluación orientada a la mejora escolar. y evaluación como mejora. Aspectos Finalidad Evaluación COMO mejora La evaluación forma parte del proceso de desarrollo * El papel de evaluador y usuario se identifican.

actitudes. La evaluación de la mejora implica que ésta tiene como fin explícito la mejora escolar. una "evaluación democrática". el patrocinador y evaluadores en la elaboración de los informes de evaluación para contribuir a hacer un uso democrático: Independencia. como la información generada en el proceso evaluador es abierta.. y autorenovación"(Darling. en todo proceso de evaluación dos contextos: el contexto de valoración y el de justificación. inserta en el propio desarrollo organizativo del centro. es decir se guía por un conjunto de valores contribuyendo a hacer explícito un dibujo más claro de la institución y de lo que significa su trabajo en el conjunto más amplio de las prácticas sociales. del acceso a los datos y de la información. Mientras que el contexto de justificación incluye todos los procedimientos científicos. Darling-Hammond (1994) han argumentadon. negociador. agente de cambio y dinamizador. formales o no. negociación del informe. En palabras de House (1973: 131) "La utilización de la metodología científica en el contexto de justificación nos permite justificar los resultados producidos en el 'contexto de valoración'". autocorrección. como primer paso para la reflexión conjunta sobre lo que se hace. etc. tanto los métodos aplicados. y otros sesgos desde los que se realiza la evaluación. que una política externa de evaluación de alumnos. sin reconocer un derecho especial a ningún grupo. "Los evaluadores no solo viven en el mundo real de la política educativa. técnicas empleadas para demostrar los resultados extraídos. que deberán seguir y respetar. para lo que utiliza metodologías e informes que puedan hacer accesible el conocimiento. El evaluador externo adopta la posición de mediador. confidencial y accesible a todos los implicados. La evaluación. ha señalado un conjunto de Principios de procedimiento. Pero el control democrático por los agentes implicados en la metodología utilizada y de la información generada no deja de ser una propuesta moralista y/o piadosa. de hecho. La evaluación democrática en las instituciones educativas se entiende como un servicio de información a toda la comunidad. desinterés.Hammond. y se discuta y reelabora entre los diferentes grupos de interés.La evaluación como mejora se puede asimilar a la llamada "evaluación formativa". McDonald (1976). publicación. LA PRÁCTICA EN LA EVALUACIÓN DEMOCRÁTICA. autocrítica. influyen en sus cambiantes relaciones". centros o profesores sólo puede legitimarse desde la orientación de ofrecer apoyos a la base para mejorar la enseñanza. se debería hacer o sería legítimo lograr. es usada para ofrecer a los profesores informaciones prácticas sobre el aprendizaje de los alumnos y proveer información para que la comunidad escolar se comprometa en "un proceso recursivo de autoreflexión. como intento de introducir mejoras en la práctica docente. Una fase clave en la evaluación educativa es la diseminación de los resultado e informes evaluativos. que configuran la comunidad educativa". McTaggart (1990). negociado. proponiendo frente a tipos burocráticos o autocráticos. desdeñando en parte los factores del proceso de cambio. Beltran y San Martín (1992: 67) la definen como "aquella en la que. identificándose los papeles de evaluador y usuario por medio de la autoevaluación escolar. aplicó un análisis político a la evaluación. por lo que su finalidad es cómo facilitar el cambio. 1994: 26). y consecuentemente utilizados por los agentes . confidencialidad y rendimiento de cuentas. el contexto de valoración se refiere a valores. ideología. Para House (1973:130) se pueden distinguir. si no se entra en los propios mecanismos distorsionadores del pensamiento de los agentes sobre sus propias condiciones de trabajo. en estos casos.

. han tenido un uso instrumental o "ingenieril". Madaus y Kellaghan (1992) estiman necesaria una evaluación formal del currículum. distribución y control de los informes de evaluación de centros. se presenta como el filtro último para juzgar la pertinencia y adecuación de los resultados. 1990). (. debían servir para ilustrar a los patrocinadores. EVALUACIÓN FORMAL DEL CURRICULUM. Las evaluaciones formales (de los centros. al revisar los sistemas de indicadores de evaluación como instrumentos necesarios para mejorar el sistema educativo. por lo que el evaluador debe preveer. se diseñan y realizan para producir datos/juicios que serán usados con determinados fines por agentes/audiencias diversas. Bryk y Hermanson (1992). debemos incluir a los profesores en todas las fases del proceso y que la evaluación esté implicada en el curriculum y en las actividades de enseñanza. En cuanto a la distribución y uso por profesionales o administración. inevitablemente. debemos clarificar al máximo. significativa y operacionalizada. los potenciales usos que se puedan hacer de los datos de la evaluación y del procesamiento de los mismos. proponiendo ellos. Debemos tener en cuenta los canales de comunicación y el contexto de trabajo ya que este. produciendo una merma relevante en la interpretación y uso de la información. del proceso de enseñanza o de los alumnos)es obvio. y poner los medios. señalan que estos. ya que los profesores suelen hacerlo de forma secundaria. (Huberman y Cox. se ha observado que los análisis vienen a sugerir que casi nunca se hacen cambios en función de los resultados de la evaluación. programas o alumnos. De hecho.)En orden a mejorar la educación. Como dice Kemmis (1986)): "La evaluación es. Por tanto Darling-Hammong (1994:25) propone un sistema de evaluación externa que potencie la igualdad y la mejora interna (1994: 25): "cambiar las formas y formatos de evaluación sin cambiar los modos en que la evaluación es usada no cambiará los resultados de la evaluación.. Si queremos apoyar el aprendizaje de los alumnos. el modelo Tyleriano pretendía ser un instrumento para ayudar a los profesores a . Partiendo de que todo conocimiento es poder. Más bien deben contribuir a enriquecer el discurso público de la comunidad educativa sobre el sistema educativo público: "Debe proveer información que capacite a los agentes educativos a reflexionar y hacer un mejor escrutinio de sus actividades"(Bryk y Hermanson. por lo que más que dirigirse a la toma de decisiones. un uso ilustrado de la información: "proporcionar información para comprender los problemas y catalizar nuevas ideas". que afecta la circulación de la información en una situación dada y tiene consecuencias vitales para los que la sufren". clientes y agentes proporcionando información para comprender y reflexionar sobre la situación. 1992: 466).sociales y educativos. Inyectar nuevos conocimientos en una organización es un acto micropolítico. dado que su preocupación principal es la evaluación del nivel de logro de los alumnos. sin tener en cuenta los factores que afectan al procesamiento social de dicha información. Determinados principios éticos deben ser respetados por tanto en la producción. la evaluación debe ser una parte integral para incentivar el diálogo entre los profesores y el desarrollo de la escuela". Desde esta perspectiva las evaluaciones en base a indicadores no deben pertenecer al uso privado de políticos o administradores educativos para ejercer más efecto sobre las escuelas. La comunicación a los potenciales usuarios necesitan una información válida. un proceso político. el uso y la distribución de los informes de evaluación.

2. No obstante cabe una deliberación curricular sobre los contenidos (Walker). etc.evaluar el curriculum. transacciones alumnos-profesor. pero también para evaluar la adecuación de los materiales. . Un conjunto de cuestiones pueden plantearse en la evaluación de los materiales: elementos que incluyen. a las materias de enseñanza con objetivos específicos adaptados al contenido de los cursos y necesidades particulares de grupos de estudiantes. que contempla todos los elementos y aspectos que presenta la enseñanza: 1.Este contexto es relevante para los objetivos. Los elementos y forma de evaluación que proponen Madaus y Kellaghan...Contexto: Partir del contexto de desarrollo del curriculum. input. si desarrollan otros objetivos no pretendidos.. los procedimientos empleados y los resultados obtenidos. necesidades e intereses)..área cognitiva: conocimiento y habilidades mentales..Objetivos específicos de las áreas curriculares o unidades didácticas: Trasladar los objetivos generales. 1992). rendimiento académico. recoge cuatro categorías (Contexto y evaluación de necesidades. No todos los modelos dan el mismo énfasis. 6. Zabalza (1987) hace una propuesta de evaluación comprhensiva del proceso de enseñanza/aprendizaje. proceso y producto). a través de los objetivos como elementos del curriculum. 4. como las características de los alumnos (nivel cognoscitivo. no dejan de ser obvios y tradicionales. que recojo en el siguiente gráfico. Stake distingue tres elementos sobre los que centrar el proceso de evaluación (antecedentes. 1. como señaló Tyler.. señalando a modo de notas a pie de página otras versiones. con fuerte acento en Tyler y Taba. acción conjunta del curriculum por el centro. también la concepción educativa del centro y de la sociedad. organización del centro.Materiales curriculares: El curriculum planificado se concreta en los materiales curriculares empleados. Madaus y Kellaghan (1992) proponen seis componentes fundamentales del curriculum que deben ser evaluados. El modelo CIPP. en relación con los restantes elementos. etc. normalmente con metodologías cualitativas. A pesar de la variedad de aspectos o dominios y métodos. a si deben evaluarse sólo en función de los objetivos explícitos o también de los no intencionados. como dice Taba. 5. si son guías para el desarrollo. por su dependencia con concepciones valorativas (educativas y sociales). naturaleza de la materia y psicología del aprendizaje. evaluación libre de objetivos (Scriven) u objetivos expresivos (Eisner). destrezas..Objetivos generales: Aunque es difícil definirlos y operativizarlos.Áreas de desarrollo de los sujetos: . Por otra parte silencian dimensiones como organización y estructuración del curriculum. no obstante. 3. es preciso hacerlo como criterio necesarios de evaluación.Transacción y procesos: Los procesos y la interacción en clase deben ser evaluados. Seis componentes principales en la evaluación del curriculum (Madaus y Kellaghan.Resultados: El fin último de la evaluación curricular es qué resultados producen en los alumnos los elementos anteriores. y resultados).

autoevaluación. de exámenes orales.Situaciones controladas: las típicas situaciones artificiales en que se plantean tareas de papel y lápiz. . .Situaciones naturales: las que surgen en la dinámica norma de una clase.sociogramas.área afectivo-emocional: satisfacción. .evaluación individual y en grupo.exámenes orales y escritos. . Por tanto reducirse a tan sólo una técnica significa renunciar a la información que ella no puede darnos y que si podrían dar otro tipo de técnicas.. intereses..evaluación cuantitativa y cualitativa. etc. etc.. 3. en el recreo...Técnicas de evaluación: . Operaciones mentales: . heteroevaluación y mixta o de triangulación. . 1987). entrevistas. nivel de adaptación.(cada tipo de técnica se especializa en un tipo de información. . 4.entrevistas.pruebas objetivas y tests.Modalidades de evaluación: .Contenidos. etc.representatividad: que se recojan una muestra representativa de los contenidos-tareas trabajadas y de las operaciones puestas en juego.significación: recogiendo aquellos aspectos más importantes o que han sido definidos como prioritarios. etc. 5.Situaciones en que se recoge la información: . 2. ajuste personal.observación. ejercicios prácticos.evaluación sumativa y formativa. Tareas.evaluación del proceso y del producto. ..área relacional social. . . . ... Componentes y aspectos de una evaluación comprehensiva (Zabalza. relaciones interpersonales. . .

Desde estas coordenadas se habla de un control de calidad de un programa.La evaluación para Stenhouse. De acuerdo con el análisis de Martínez Bonafé (1988) los problemas a investigar se refieren al aprendizaje de los alumnos. organización y desarrollo del curriculum. partiendo de los principios de justificación y desarrollo de los proyectos curriculares que estemos llevando a cabo. en que el proceso de autorevisión y reflexión crítica de la propia realidad. organizativo y profesional de los profesores. en la práctica. Este control debe. nos permita analizar y valorar las líneas generales del proceso". además. Pero en una perspectiva procesual es más difícil valorar cualitativamente el desarrollo curricular innovador. el control de la calidad puede conducir a la actualización de un programa viejo o al desarrollo de nuevos programas. y a la propia organización de la escuela. consiste en la "comprobación crítica del curriculum como hipótesis de acción educativa". puede deteriorarse con el tiempo. Hernández (1990: 12) define. y por lo tanto como un campo de investigación de la práctica profesional del profesor. desde esta perspectiva. lo que se podría cambiar y consensuar planes de acción. La evaluación del curriculum se centra en la revisión de los fundamentos y la práctica de las decisiones que los enseñantes adoptan en el centro con la colaboración de un asesor externo". como analiza Martínez Bonafé (1989:64). Para prevenir esto. Por ello la mayor parte de los estudios de evaluación del curriculum se refieren a una perspectiva de "fidelidad". En una perspectiva de fidelidad podemos medir los resultados de un programa comparándolos con los objetivos del programa. revelar cómo algunas o todas las partes del programa deben alterarse o reemplazarse. como lo hace Lewy (1976: 36): "Un programa que se ha incorporado exitosamente dentro de un sistema educativo y ha tenido una calurosa acogida del profesorado. se debe constituir un una investigación sobre el desarrollo del curriculum. significa que el centro escolar como conjunto genera procesos y formas de trabajo dirigidas a autorevisar lo que se hace cotidianamente. reivindicando la dimensión actual de autorevisión colegiada de la labor conjunta del centro. De este modo. Zabalza (1987:289-90). en el sentido que tales principios enmarcan". entendiendo el curriculum como un problema práctico. debe mantenerse un permanente seguimiento del control de calidad del programa. El deterioro total o parcial puede ocurrir en todo el sistema o solo en ciertas áreas o escuelas. colegialidad y compromiso. precisando a continuación que "los resultados de este tipo de evaluación tendrá la virtualidad de reorientarnos respecto a qué es lo que consideramos importante a nivel de principios curriculares y si estamos funcionando o no. como estrategia de revisión y desarrollo de la mejora. la evaluación del curriculum como " la puesta en marcha de un proceso que exige por parte de quienes lo inician la voluntad de reflexionar sobre la práctica con el ánimo profesional de aprender de ella de forma constante. El sentido de esta autoevaluación institucional del curriculum es la mejora de la propia institución escolar y de la calidad de enseñanza (evaluación formativa y . a la estructuración. a los materiales curriculares. se convierte en el contexto para promover el desarrollo curricular. El control de calidad debe hacerse mediante el estímulo a aquellas escuelas en las que el programa se implementa en forma adecuada y reforzando aquellas en que la implementación ha sido defectuosa. Una evaluación institucional se inscribe en un marco más amplio de la reconstrucción cultural de la escuela y de sus pautas de trabajo. De este modo la evaluación. a la enseñanza del profesor. LA EVALUACIÓN DEL CURRICULUM A TRAVÉS DE LA AUTOEVALUACIÓN La autoevaluación institucional. caracteriza la evaluación del desarrollo del currículum como "realizar una especie de reflexión. guiado por unos valores de cooperación.

como ejemplifica la siguiente figura. frente a producido desde "fuera" por expertos evaluadores financiados por la Administración. Partiendo de una relación de compromiso institucional por la mejora de la educación. 1989). entraríamos en la elaboración conjunta de un plan de desarrollo de la escuela y. No se debe entender como algo puntual o formalista. sino revisión permanente. La evaluación del desarrollo curricular no es un apartado final ni un procedimiento formal o burocrático. 1. ir haciendo un balance permanente para ver si los cambios deben ser mantenido. inscrita en un compromiso por la mejora. Desarrollo o puesta en práctica: Analizar. por parte del grupo de profesores. para rectificar o modificar las líneas de trabajo planteadas y para reflexionar sobre ellas. su capacidad para resolver colegiadamente los problemas y de tomar la reflexión y revisión de la práctica.procesual). Planificación para la acción y búsqueda de alternativas y recursos: En un segundo momento. como alternativa al profesionalismo de expertos externo para evaluar la realidad escolar. se utiliza un modelo de "resolución de problemas" en que se genera desde dentro consenso para mejorar las dimensiones organizativas y didácticas del trabajo escolar. al tiempo que supone reivindicar una perspectiva dialógica del conocimiento primando el conocimiento local. de respetar la profesionalidad del profesor. se suelen utilizar un modelo flexible y contextual con estos procesos (Escudero. se compone y está relacionada con otros componentes. clarificar las necesidades llegando a un entendimiento y priorizar ámbitos concretos de mejora. en que aspectos conviene corregir. generar alternativas. De este modo la finalidad y sentido en la autorevisión escolar no es primariamente evaluar la consecución de los objetivos prefijados encontrándose en los resultados normalmente rendimientos académicos de los alumnos sino. entre otros. Esto significa situar al profesorado con la disposición. o un a"escuela en desarrollo" o una "escuela evaluativa". La autoevaluación institucional. como han puesto de manifiesto. y emprender acciones de mejora en aquellos aspectos que se consideren prioritarios. más que el control de resultados. modificados o ampliados. en una búsqueda colegiada de soluciones.- 3. parte por reconocer/capacitar al Centro para hacer su propia evaluación. sino un proceso dinámico de decisión y revisión en torno a cómo vamos a abordar los problemas. generando conocimiento desde la propia práctica en deliberación con los compañeros. coordinada y reflexivamente.- 4. autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. 2. rendición de cuentas o fiscalización del funcionamiento del Centro (evaluación externa o sumativa). que´efectos está teniendo. necesidades. más preferentemente. No obstante la autoevaluación institucional del centro escolar. por medio de procesos de revisión conjunta de su práctica diaria y de la propia acción educativa del centro en los espacios discursivos del trabajo colectivo.- . una vez definido el ámbito de mejora. actitud y competencia para aprender del contexto de trabajo. previendo los recursos necesarios. 1992b. Para esto es necesario promover la capacidad del centro para ponerlo en práctica. como ejes sobre los que articular la mejora escolar.Autodiagnóstico: Identificación y análisis de necesidades: Revisar y valorar la realidad actual del centro (logros. Holly y Hopkins (1988). Evaluación como y para la mejora: Inserta "en espiral" en el propio proceso de desarrollo se autorevisa colegiadamente lo conseguido para generar nuevos problemas o prioridades y líneas de acción. En último extremo la autoevaluación se institucionaliza cuando un centro se acerca a una "comunidad de aprendizaje". Se trata de revisar y diagnosticar el estado actual del Centro y su funcionamiento. qué va sucediendo en la práctica con los acuerdos tomados. problemas). etc. Holly y Southworth.

2.- En sentido general los modelos y técnicas de evaluación de programas son trasladables a la evaluación de las innovaciones. sino también qué otras consecuencias (no planificadas) ha tenido la innovación.e. debe suponer. Estrategias basadas en la realidad institucional de los centros escolares: p. tanto la adecuación/validez del "prototipo de diseño curricular". forma parte de todo proceso de desarrollo curricular innovador. desde una perspectiva procesual. exista tan poco referido a la evaluación de innovaciones. RBE o DO. actitudes capacidad organizativa y otros resultados. dependientes cada una de diferentes perspectivas sobre el cambio educativo: 1. Evaluación durante el proceso de implementación. el CBAM. Como señala Fullan (1985c: 1212): "La mayoría de la literatura del campo no trata investigaciones que examinen las relaciones entre proceso de implementación y resultados. al menos.- Desde una perspectiva de proceso no sólo se debe examinar el desarrollo curricular a la luz de los objetivos de la innovación.2. se pueden distinguir diferentes estrategias para llevar a cabo la evaluación. en sus primeras formulaciones. LA EVALUACIÓN EN LAS INNOVACIONES CURRICULARES En sentido amplio la evaluación del curriculum. Casi la totalidad de los estudios examinados aisladamente uno u otro.Fases en la autorevisión del centro escolar. y el consecuente apoyo posterior. de los procesos de cambio. La evaluación tanto del curriculum como de la innovación curricular. 3. No obstante.. como dice De la Torre (1992: 953): "Resulta un tanto sorprendente que siendo tan amplia la literatura disponible sobre evaluación educativa y evaluación de programas. b) c) A su vez. y El impacto de la implementación en el aprendizaje de los alumnos. como hicieron en este apartado González y Escudero (1987: 143-160).e. estrategias.. Fullan (1985c:1212). Cuál es el estado actual del cambio en la práctica en un tiempo dado. sitúa estos tres componentes en la evaluación de una innovación curricular: 1. . como ha especificado Sttuflebeam en su modelo CIPP: a) Evaluación durante el proceso de planificación del curriculum.Estrategias de origen tecnológico para ver el grado de implementación y facilitar el desarrollo.Los factores que han afectado a la implementación. recursos e instrumentos". pero los estudios de investigación de estas relaciones están en las primeras etapas de desarrollo y plantean algunas dificultades intrínsecas". (por lo que es preciso) recurrir a la evaluación curricular y de programas para inferir modelos. y Evaluación a largo plazo. como proceso de investigación. o basadas principalmente en el sujeto/profesor como individuo: P. como el propio proceso de planificación.

Los niveles de interés permiten analizar la dimensión personal y afectiva del proceso de innovación.INTEGRACIÓN INDICADORES Busca alternativas/opciones más efectivas. Por eso mismo los diferencia en tres niveles (no uso. 1987). para lo que es necesario determinar los niveles de uso de la innovación. que permitan describir qué cambios introducidos en la práctica han resultado exitosos. El comienzo del desarrollo del modelo presentado discrimina cinco tipos de usuarios.. según el grado de implementación.RENOVACIÓN V.Desde esta misma perspectiva se emplean también procedimientos abiertos. otras provocan efectos inesperados o incluso opuestos a las intenciones iniciales y otras. por medio de un conjunto de indicadores (conductuales) de cada uno de los siete niveles de uso.. 1981:21).. completados por la observación directa.PREPARACIÓN NO USUARIOS I. El CBAM suele usar un cuestionario (SOCQ) sobre los estadios/niveles de interés/implicación para obtener el perfil individual de las preocupaciones dominantes en la adopción y desarrollo de la innovación. Cambios menores para facilitar el uso.NO USUARIO Buscar información No conoce. diferenciando entre usuario y no usuario en la innovación. Junto a los anteriores elementos. no actúa Niveles de uso de la innovación. observando la práctica docente de los profesores NIVELES DE USO USUARIOS VI. Tener en cuenta estos últimos significa partir de las actitudes y conductas previas para una posterior adopción. cualitativos. tiene establecida una rutina de uso.. Evalúa impacto e introduce cambios para mejorarlo o potenciar sus posibilidades No introduce casi cambios. orientación. vuelven a crear en algún otro punto del sistema educativo el mismo desequilibrio que pretendían corregir" (Unesco. Y es que "ciertas reformas no producen efectos. preparación).. es necesario evaluar cómo está siendo desarrollada en las aulas. complementado por entrevistas y estudios longitudinales. Además de la adopción en una innovación. entonces.. y con ello como una estrategia para facilitar el desarrollo y gestión del cambio en los centros educativos. Desde esta perspectiva procesual es muy importante incluir en el diseño de la evaluación los factores que han condicionado y explican el desarrollo de la innovación.ORIENTACIÓN 0. El modelo CBAM ("Concers Based Adoption Model") ha sido uno de los que específicamente ha pretendido convertirse en un modelo de evaluación del desarrollo de las innovaciones (Hord. el CBAM emplea las "configuraciones de la . al determinar los "niveles de uso de una innovación".. Pobre coordinación.B REFINAMIENTO IV. El modelo CBAM parte.. Intenta colaborar/coordinar activamente con otros el uso de la innovación. Disposiciones favorables para utilizarla IV.A RUTINA III.USO MECÁNICO II. por su propia dinámica.

La evaluación diagnóstica del nivel de uso de una innovación permite determinar qué intervenciones (cuarto componente del modelo) son mejores por parte de los agentes de cambio.. Una evaluación formativa irá en la primera dirección. así como el grado de desarrollo de la innovación. elaborando un plan de formación del profesorado. aplicado en esta fase. contenidos y estrategias.. materiales organización y estructuras) necesarias para superarlos. en coincidencia en parte con el modelo CBAM y con un enfoque del cambio como resolución de problemas (Leithwood.). con las siguientes fases y procesos: 1. por observación comparada lo que está pasando en la práctica (configuración de la innovación).Identificación de obstáculos:Detectados los aspectos "discrepantes". Según señalan Leithwood y Montgomery (1980) habría que llevar tres tipos de tareas: 2. con una orientación sumativa en la segunda. es que la mayoría de propuestas de innovación oficial carecen de dicho perfil. EVALUACIÓN DE PROGRAMAS . Así como el "perfil" de la innovación (presupuestos y asunciones básicas.Revisión de la discrepancia de la innovación. habría que reiniciar el ciclo para diagnosticar la situación. Un segundo perfil del usuario. 2..C. e irse acercando a una "plena" implementación.innovación" (I.) como lo ha percibido e interpretado el cambio por parte de los usuarios y las realizaciones que la innovación tiene en la práctica. 2. 1. por tener un amplio grado de "indeterminación curricular". Leithwood y Montgomery (1980). Si no hubiese existido progreso. Por tanto además de las posibilidades del CBAM como diagnóstico.. Un perfil preciso y definido de la innovación nos permite establecer. se puede entrar en un análisis de los obstáculos y los apoyos (conocimientos y destrezas. metas y objetivos. 2. medios y recursos.2.Procedimientos para superar la ineficacia de estructuras organizativas y de control. 1.Diagnóstico de la situación: Se trata de identificar el perfil de la innovación para saber las metas necesarias para la implementación del curriculum propuesto.Aplicación: Acciones dirigidas a superar los obstáculos. Revisar lo que se está haciendo en la práctica y el perfil o alcance de lo que plantea el modelo. Esto supone elaborar un perfil del usuario que sirva para medir las prácticas reales de los profesores en cada dimensión curricular.1.1.2.. 3. El problema para evaluar con este modelo.Diseñar procedimientos para facilitar la disponibilidad de recursos y materiales curriculares que faciliten el desarrollo e implementación del cambio.Evaluación: Detectar y valorar en qué medida se han ido superando los obstáculos identificados y se han realizado las metas del perfil de la innovación. como ya señalaba.Procedimientos para superar la carencia de conocimientos y destrezas que necesita el profesorado para desarrollar plenamente la innovación. puede utilizarse con fines evaluativos. 1986). necesarios para poder realizar una evaluación de la innovación en la práctica. plantea una "estrategia técnica atenuada" de evaluación.3. podría identificar si las conductas del profesor en las distintas dimensiones de la innovación curricular han tenido cambios. etc.

F3.. Respetar la dignidad en los participantes.Documentación del programa.Viabilidad política. Clara y precisa.Fuentes confiables de información.Amplitud y selección de la información. se ha destacado la función de proporcionar información y elementos de juicio que contribuyan a establecer un cierto debate social sobre las acciones educativas. Talmage (1982). la evaluación de programas ha estado muy orientada a maximizar la eficiencia y eficacia de las acciones del programa. E6. f) contribuir a comprender procesos básicos psicológicos.Información fiable. distingue cinco: experimentalista. c) contribuir a tomar decisiones sobre las modificaciones de los programas..Identificación de la audiencia. Reduciendo la desorganización mientras se obtiene información. U2. expansión o certificación. y ver qué objetivos se han alcanzado. d) obtener evidencias para ayudar a un programa . coste-beneficio y crítica. conforme aparecen en el siguiente cuadro. P2. juzgando el valor o el mérito en su consecución (Sttuflebeam y Shinkfield. De los puntos fuertes y débiles del EXACTITUD E1.Acuerdos formales. E2. Describir perspectivas para interpretar hallazgos. P5. 1994). U5. b) contribuir a tomar decisiones acerca de la continuidad....Procesamientos prácticos.. 2) Ayudar en la toma de decisiones responsables en política. entonces. juzgar la relación coste-beneficio..Información sistemática. Los principios comúnmente aceptados han sido fijados por un colectivo de investigadores.Descripción de propósitos y procedimientos. Identificación de personas afectadas por la evaluación. U3. Al igual que la evaluación en general. para juzgar su adecuación. La evaluación de un programa. Información importante del programa FACTIBILIDAD F1.Análisis del contexto. establecer unos indicadores. 3) servir para una función política. La información debe tener valor suficiente. recoger datos relativos a las variables o indicadores seleccionados. Las obligaciones deben constar por escrito.. que posteriormente se han reeditado (The Joint Commitee on Standards for Educational Evaluation & Sanders.. Por su parte Talmage (1982:594) entiende que "tres propósitos aparecen frecuentemente en las definiciones de evaluación de programas: 1) Proporcionar juicios sobre el valor de un programa. descriptiva. El evaluador debe ser competente.Planifica la evaluación con antelación a las diferentes posiciones de los grupos de interés. E5. ecléctica.La evaluación debe servir a las necesidades de los participantes. en el llamado Joint Commitee on Standards for Educational Evaluation (1988). PROPIEDAD P1. No obstante... o responder a las demandas del cliente..Interacciones humanas. F2. U4. P4.Identificación de valores...Eficacia del coste.. sociales y otros". se planifica como un proceso cíclico para valorar si el programa ha conseguido alcanzar los objetivos para los que se puso en marcha o ha dado lugar a otros efectos o resultados (positivo o no). E3.. consiste en establecer criterios que sirvan para juzgar la propia labor evaluativa del programa.Según Worthen (1989) los propósitos de la evaluación de programas son los siguientes "a) contribuir a tomar decisiones sobre la implantación de un programa.. e) obtener evidencias para oponerse a un programa.. Se deben respetar derechos de sujetos.Claridad del informe. E4. por ejemplo.Información válida. hay diferentes modalidades de evaluación de programas. En los últimos tiempos. Pero el papel clave que desempeñan los criterios y normas de valor en la evaluación de un programa.Derechos de los sujetos.. E7. P3..Evaluación completa y clara.Por eso normalmente es necesario identificar los objetivos del programa y necesidades de los participantes. 1987). sin embargo. Que incluya preguntas pertinentes sobre el programa.Orientación del servicio. Se debe revisar . que puede servir de guía general del tema UTILIDAD U1.Credibilidad del evaluador.

(2) la segunda postura más actual entiende la evaluación como el conocimiento empírico del mérito o valor de las actividades y objetivos de un programa propuesto".Análisis de la información cualitativa E10.. de lo que un alumno o grupo de alumnos dicen o hacen en determinadas situaciones a lo largo de un período de tiempo. P7.. Los hallazgos se deben difundir entre los usuarios.. E8. Como señala Tejedor y otros (1993) "los cambios habidos en estos últimos años en las dos posturas básicas son los siguientes: (1) la postura tradicional entendía la evaluación como el empleo de métodos científicos para medir el desarrollo y los resultados de programas que luego se utilizaban para la toma de decisiones. las nuevas perspectivas no sustituyen a las anteriores sino que las complementan.. P8. con una finalidad formativa. LAS TÉCNICAS EN LA EVALUACIÓN EN EL CURRICULUM. en la cual se refleja la propia realidad.. Es por lo que partimos de las técnicas utilizadas por Kemmis y McTaggart (1992) en la investigación-acción. programa..Conclusiones justificadas. E11.Oportunidad y difusión informe. E9.Responsabilidad fiscal. Son informes longitudinales y descriptivos.Revelación de hallazgos. de las audiencias y de los propósitos de la misma evaluación. Son muy importantes los hechos y contextos en relación a los incidentes relativos a un problema determinado. Son técnicas de evaluación continua. Son aquellas que describen hechos. 1994). la línea de Kemmis y McTaggart (1992). Ory (1991) comenta que el aumento de estas técnicas de evaluación se debe a la ampliación del campo de la evaluación. en principio... que se usan tanto en enfoques interpretativos como críticos. aunque con finalidades diferentes...Análisis de la información cuantitativa. Por tanto se trata de técnicas de evaluación cualitativa. Realizado con apertura y honradez. Metodologicamente hoy se vive una situación plural. b) Notas de campo.Justificación de los gastos en recursos. Difusión y diseminación de los hallazgos.Informe imparcial E12.U6. U7. compleja que tiende a un mayor realismo. Realizaremos un estudio de las diferentes técnicas cualitativas y cuantitativas en la evaluación TÉCNICAS CUALITATIVAS.Metaevaluación. P6.Planificar la evaluación para que penetre en los usuarios. impresiones e interpretaciones subjetivas de la realidad. Las Normas de Evaluación de Programas (The Joint Committee on Standards For Evaluation & Sanders.Conflicto de interés.Impacto de la evaluación. Hemos seguido. a) Registros anecdóticos. sistemáticamente. .

. planificaciones de los profesores.). . A pesar de ser considerado como un documento para la reflexión personal sobre el desarrollo profesional. informes escolares. la de reflexionar sobre las propias prácticas docentes. pero también refleja otros aspectos personales integrados en la misma. con el objetivo de analizar el funcionamiento interno del centro o de una parte del mismo. Es un vehículo para facilitar la relación de apoyo y de crítica. que a la vez proporciona oportunidades de reflexión sobre esta acción y nuevos planes de acción consecutivos. hipótesis. Es un componente dentro de un repertorio de métodos de evaluación. como biografías. pudiendo ser potentes instrumentos de autocontrol del proceso de enseñanza (diario de profesores) o de aprendizaje (diario de alumnos y profesores). planificar. Se registran todos los comportamientos observados para comprender la secuencia de los mismos.c) Descripción ecológica del comportamiento. informaciones del tablón de anuncios. Su validez en investigación cualitativa depende del contexto en el que se utilice. explicaciones. poner en práctica los planes y mantener registros que ayuden a valorar las prácticas. Los diarios en el contexto de documentos personales. es un documento personal que se escribe para consignar pensamientos. por el potencial que ofrece: * * * Es un mecanismo para explorar las prácticas. programas y proyectos educativos del centro. son consideradas como importantes por Zabalza (1991) para la investigación educativa y para analizar el pensamiento y los dilemas que se le presentan al profesor en la práctica. trabajos de los estudiantes. observaciones. expresando la forma intelectual de vivir la experiencia. Utilizado en un contexto evaluativo contribuye a desarrollar el proceso de autorreflexión. como una exigencia profesional. Es un medio de autonomía a través del desarrollo de la confianza en la utilización de la palabra escrita como guía para la acción. en el contexto de un proyecto de investigaciónacción de profesores universitarios. impresiones y sentimientos sobre situaciones docentes.. cartas. por ello ve necesaria la redacción de un diario en el contexto del Área Remota de Educación del Profesorado (RATE). archivos. historias de vida. Se utilizan entre otros documentos importantes cartas. cuadro de horario. Para Schratz (1992). sentimientos. revistas o periódicos escolares. reflexiones. White (1985) considera. integrando en la medida de lo posible a los estudiantes con objetivo de introducirles y hacerles conscientes de los procesos de autoevaluación y contribuir en procesos de autoreflexión. debe servir para estimular la reflexión y la discusión colegiada. d) Análisis de documentos. interpretaciones. autobiografías. el diario. elabore y su finalidad y forma de analizarlo. circulares. e) Diarios Se trata de analizar los informes personales cuyo contenido puede ser muy variado (preocupaciones.. folletos. * Según el autor se deben tener en cuenta los siguientes principios en la redacción de los diarios: . etc.

exámenes. ya que considera que es una técnica que proporciona evidencia sobre el pensamiento y la práctica del profesor. Para Shulman (1992) el portafolio es un documento físico que recoge las preguntas de los profesores y las respuestas reflexivas que van dando. 1992). tanto de uno mismo como de los otros. el conocimiento y la comprensión del profesor. con fines formativos. trabajos.2. Se reservaran momentos especiales en el horario para compartir los diarios. esta técnica. se reservarán para ser escritos ininterrumpida y silenciosamente Debe compartirse con otros participantes todo aquello que se escriba.Sobre el cambio en la utilización del lenguaje y sobre un discurso más coherente en relación con la preocupación temática que se estudia. ensayos. Sobre los cambios en las relaciones sociales ente las personas integradas en su misma actividad. g) Cuadernos. y las relaciones entre estudiantes y profesores. esto puede conseguirse estableciendo un enfoque previo al inicio de la redacción y procedimientos para el diálogo en el que se comparten los diarios. para valorar la calidad de la enseñanza. y cómo crea un ambiente que favorece la enseñanza. es una técnica de investigación y evaluación educativa. 4. . Sobre los cambios en los modos de participación del grupo en el proceso de investigación-acción mismo. Por tanto. Kemmis y McTaggart (1992. que se está utilizando en la Universidad de Stanford (Shulman. y en el que se contiene variedad de información que consta en documentos. y profundizar en el conocimiento y valoración de las prácticas de enseñanza por el análisis documental y la entrevista sobre ello. proyectos. así como sus reflexiones.3.a) b) c) d) e) El diario debe ser realizado por todos los participantes implicados en el proceso. Se tienen en cuenta el contexto. Los momentos especiales del curso. el contenido.- f) La carpeta de enseñanza. Explica el uso de la carpeta de enseñanza para explicar tres campos: Cómo planifica y enseña el profesor una parte del currículum.p. preguntas. sólo evalúa el progreso del estudiante. La redacción del diario requiere una estructura y un ambiente de apoyo. y cómo se relaciona este proceso con otros existentes en el mimo centro educativo. Athanasses (1991) utiliza este medio en la evaluación de la enseñanza de la lectura y escritura. La carpeta de enseñanza. autoevaluación del profesor.66) distinguen cuatro tipos de reflexiones que deben constar en el diario de un proyecto de investigación-acción: 1. pero también para que otros comprendan el significado desde el punto de vista de los sujetos. así como sobre los cambios que se vayan iniciando en la estructura organizativa formal. puede convertirse en un medio de evaluación colaborativa en cuanto que sirve para la reflexión del profesor. interrogantes. Además contiene la observación directa del profesor en sus clase. Sobre el cambio en las prácticas educativas en su contexto.

Se componen de preguntas escritas. de conocimiento y autoevaluación de la enseñanza. Se trata de una forma de comunicación... abiertas o cerradas.. Sin embargo. una respuesta rápida e individual de algunos aspectos del proceso de enseñanza-aprendizaje. . disciplina. se ha utilizado otra técnica denominada "carta abierta". Para Schratz (1992). imaginar. Este procedimiento proporciona conocimiento sobre la comprensión de los estudiantes. sobre todo si es diferente de otros profesores. y sirve para evaluar la comprensión como los sentimientos. la cual consiste en obtener. organización. Dado que en la investigación de Schratz es muy importantes la comunicación y la evaluación en ambas direcciones. Es un medio de control del cual no se debe abusar en detrimento de otras actividades que pueden ser más enriquecedoras como observar. como base para la reflexión. y a su vez el profesor obtendría una visión más amplia de cada cuestión debido a estos comentarios subjetivos. y puede utilizarse para evaluar cierto aspectos e los procesos de enseñanza. k) Entrevistas. sobre todo si se presentan resultados. percibir. analizar. Puede servir para obtener más información o apoyo de los estudiantes. )Cuál es la cuestión fundamental que me queda en la mente al terminar la clase?. Se tratan de fichas en las que se registra información referente a distintos tipo de temas: actividades. i) Archivos. Schratz habla de otras técnicas como la del "minuto de escritura".. idear. motivación. que exigen también respuestas escritas. por ello sería buena la idea de que los estudiantes pudieran escribir una corta explicación del por qué han tomado determinada opción. Sirve de evaluación.. Otra técnica es la del "feedback inminente". Los estudiantes están muy motivados a dar sus propias opiniones. en la que se pide a los estudiantes que respondan a dos preguntas: )Qué es lo más significativo que he aprendido hoy?. pensar. la cual ayudará al profesor a juzgar posteriores pasos en el enfoque dado. creencias. discutir.Es el registro de actividades en determinados tiempos. su debilidad se fundamenta en la limitación de las opciones para responder.. de forma sencilla y escrita. y que además pueden consignarse en alguno forma de representación escrita o no. en las que cada estudiante añade a la pregunta su propia interpretación. para elaborar informes diarios de cada tema. Son recopilaciones de diversos materiales con un fin determinado. sin embargo brinda una información más rica de la experiencia individual. el cuestionario es una de las técnicas más usadas y sencilla utilizadas en evaluación.Sirven. reacciones. h) Muestras de cuestiones tipo. El problema de esta técnica es que ofrece dificultad en orden a estandarizar los resultados. y la valoración que se hace de ellos. opiniones y valores.aprendizaje. Similar a un cuestionario abierto podemos encontrar el cuestionario de "completar frases". j) Cuestionarios.

En la planificación de una entrevista hay que tener en cuenta los siguientes elementos: a) Selección del contenido. y pedir explicaciones sobre lo que sucede. recogiendo información sobre ciertos aspectos y problemas. Este tipo de entrevista implica un mayor esfuerzo en la investigación evaluativa ya que se confrontan tres perspectivas. El problema de este procedimiento es el excesivo tiempo que hay que dedicarle. en la que un observador externo participa en la entrevista con fines evaluativos. fue el haber ideado los hechos y objetivos específicos que usaba en las entrevistas. y son el punto de partida de las preguntas más útiles para averiguar la comprensión de los estudiantes. según estos autores. Otro tipo de entrevista es la que Schratz (1992) denomina "entrevista triangular". sobre todo al comenzar. Novak y Gowin (1988) enfatizan en la importancia de la entrevista como instrumento de evaluación del aprendizaje significativo. Deben hacer referencia a cuestiones claves. d) Ordenación de las preguntas. para facilitar la organización de conceptos y ejemplos de una instrucción posterior. b) Estructuración de las preguntas. proceder de lo fácil a lo difícil. una planificación cuidadosa de la entrevista. Posteriormente se entrevista al profesor y a los estudiantes. estructuradas y semiestructuradas. ya que en todos los estudiantes. cuál es su estructura. Por ello dan algunas reglas para ordenarlas. el análisis de las entrevistas mediante la UVE. es decir. Novak y Gowin. Gowin (1988) propone otro sistema de categorías. se graba. Basándose en la utilización que hizo Piaget de la entrevista para evaluar las capacidades cognitivas. proponen categorizar los tipos de respuestas en válidas y erróneas. y para analizar las categorías de respuestas se van consignando en la UVE. Los autores no aconsejan la pregunta arbitraria. así como las preguntas que hacen posible observar las regularidades en las respuestas de los niños.Las entrevistas pueden ser de varios tipos: no planificadas. se puede encontrar todo tipo de respuestas que pertenecen a las distintas categorías del pensamiento. Toda entrevista debería grabarse y analizarse mediante un sistema de categorías de conocimiento. c) Selección de materiales auxiliares. La entrevista sirve para indagar qué conceptos han adquirido o poseen los estudiantes. planificadas pero no estructuradas. y desde las preguntas amplias a las detalladas. Se debe averiguar previamente qué sabe el alumno sobre un tema o cuerpo de conocimiento determinado. pero suele aportar información sobre problemas específicos o áreas de interés. . Se basa la entrevista en un mapa conceptual. y juicios de valor y trasferencia. partir de la tarea que se está realizando. relación. Gowin observó que la UVE de evaluación contradice la teoría de los estadios de Piaget. cómo pueden activarse conceptos y estructuras para resolver problemas. e) Evaluación de las entrevistas. también ayudan a conocer las actitudes y valores de los estudiantes y los procedimientos que utilizan para resolver la tarea. de forma que se puede descubrir cómo funciona la mente del estudiante y qué teorías sostiene. Apoyan a la tarea. incluidos los más pequeños. de las que se solicitan explicaciones. Una de las aportaciones de Piaget.

Schratz (1992) comenta que la observación directa produces ansiedad en los profesores. r) Mapas conceptuales. m) Inventarios y listados de interacciones. ñ) Grabaciones en vídeo. p) Observación de clases. para analizarla posteriormente.l) Métodos sociométricos. También sirven como referencia para entrevistas con los estudiantes. aspectos de la actividad de la clase. Su problema es el largo tiempo que hay que dedicar para una transcripción completa. También se ha utilizado en el análisis del pensamiento del profesor. Se representa un visión global del programas en sus contexto con los procesos. que pueden poner de manifiesto . q) Análisis de metáforas Revelan ideas y definiciones de los problemas que subyacen a los programas. Son útiles en reuniones de trabajo y para la interacción con el alumno en clase o en grupos. Pueden servir para formar grupos de trabajo. y quienes se aprecian o rechazan mutuamente. y después se relacionan mediante palabras de enlace. o de parte. determinados productos. Por ello Kemmis y McTaggart consideran necesario un listado de interacciones para agilizar el análisis. Para crearlos se comienza por hacer declaraciones cortas de un problema para después centrar la atención sobre dos términos que representan un dilema. para así compartir significados que ayuden al crecimiento continuo personal y profesional. o) Fotografías y diapositivas. de clases grabadas o de reuniones. Sin embargo sería útil la observación entre compañeros de forma regular. señalan cuatro categorías de comportamientos que pueden registrarse: comportamiento verbal del estudiante y del profesor. inputs y resultados. comportamiento no verbal del estudiante y del profesor n) Grabaciones en audio. y sus interrelaciones. Schratz (1992) utiliza esta técnica para el análisis de la interacción entre profesor y estudiantes. Técnica muy útil para la evaluación de los procesos de enseñanza-aprendizaje. s) Algoritmos relacionales. Kemmis y McTaggart. o de aspectos concretos. Facilita el registro de toda la clase. Útiles para registrar "incidentes críticos". Sirven para registrar los datos de la observación. desarrollar actitudes sociales o mejorar las relaciones personales. Con este método se pretende averiguar qué individuos son apreciados o rechazados en un grupo.

1990). al mismo tiempo que comunica sus expectativas a los alumnos al indicarles cuáles son los aspectos fundamentales de la materia y que forma puede tener el examen. No todos los exámenes se construyen sobre pruebas objetivas. cuantitativas. Los estudiante aprenden a evaluar sus propios resultados a través de ellos. b) Se comprueba el aprendizaje del alumno mediante el diálogo con el profesor. durante y después.la primacía de unos elementos frente a otros. Pruebas objetivas de respuesta breve. Los exámenes suponen una importante experiencia de aprendizaje ya que obliga a revisar. Para ello se encuadran las descripciones del programa hechas por distintas personas: director. Requieren mucho tiempo y un clima socioafectivo adecuada para que puedan suponer una situación de pensamiento y de trabajo intelectual adecuado. Tienen un papel motivacional. A través de ellas se puede expresar el conocimiento obtenido. o igualdad y complementariedad entre los dos conceptos. sin embargo existe una tendencia a la cuantificación. para poder rendir y expresar el aprendizaje. Test de rendimiento de los estudiantes. Se basan en la comprobación del aprendizaje de contenidos disciplinares. t) Recuadros de frases Se usan para comparar las visiones y descubrir los aspectos críticos del programa. Pruebas formales de elaboración de respuestas. de producción de determinadas obras o experimentos de laboratorio. alumnos. En cuanto a la elaboración las cuestiones deben ser representativas del contenido que se pretende evaluar. La prueba debe estar . Pruebas orales. Proporciona conocimiento de su tarea al profesor. b) c) d) e) Tipos de pruebas escritas. así como la expresividad y originalidad del alumno. TÉCNICAS CUANTITATIVAS. c) * Características que deben reunir las pruebas. que tienen lugar en determinados momentos del proceso de enseñanza/aprendizaje. Ausbel (1983) consideraba que los exámenes tienen algunos valores positivos: a) A la vez que el profesor piensa qué debe ser objeto de examen. constar logros. etc. a) b) c) Pruebas de ensayo. a) Los exámenes escritos. Se relacionan con la evaluación periódica y sumativa (Rosales. profesores. Sirven para diagnosticar lagunas. clarifica sus objetivos. aclara y consultar los conocimientos antes. lo cual le sirve de autoevaluación.

del proceso de aprendizaje de los alumnos. y en criterio de si es necesario reformular el diseño y programación realizado. los datos y las condiciones en las que se han producido. - . en virtud de su desarrollo real y de su adecuación a las características específicas y las necesidades educativas de los alumnos y alumnas". de 1970. de modo que permita tomar las decisiones para. es decir. Por eso se plantea. Tyleriano :"¿Qué.E. adecuar el diseño y desarrollo de la programación. y del Proyecto curricular. En este sentido Zabalza (1987) habla de la influencia del contexto de aprendizaje que juega en la asociación de preguntas y respuestas. Criterios generales sobre evaluación de los aprendizajes y promoción de los alumnos. o con fines formativos. además de reconducir el proceso de aprendizaje. Asimismo. La finalidad de la evaluación. con una cierta novedad. después de un período de indecisión sobre qué aspectos formales debían incluir los Proyectos curriculares de Etapa. cómo y cuando evaluar?. se trata de comparar lo logrado con lo pretendido. Así las órdenes de evaluación especifican que "los profesores/as evaluarán los procesos de enseñanza y su propia práctica docente en relación con el desarrollo del currículo. * En cuanto a la aplicación. evaluarán el Proyecto Curricular y las programaciones de aula emprendidos. La corrección debe tener en cuenta qué aspectos y contenidos deben puntuarse y con qué prioridad. * * LA EVALUACIÓN DEL CURRICULUM EN LA REFORMA Algunas de las principales funciones y sentidos de la evaluación fueron ya recogidos en la L. el juicio de valor que emitimos sobre la calificación otorgada cuando se analizan los resultados y los procesos.1992b) "información que permita adecuar el proceso de enseñanza al progreso real en la construcción de aprendizajes de los alumnos". Los Reglamentos Orgánicos de los Centros (1993) determinan. la relación entre la evaluación del proceso de aprendizaje y la evaluación del proceso de enseñanza. para tomar decisiones sobre la planificación y el desarrollo del currículum en los procesos siguientes. Por lo que es dificil hacer una evaluación que permita juzgar si se han alcanzado los objetivos deseados". es importante reducir el nivel de ansiedad de los alumnos a través de una información previa sobre el conocimientos de que la prueba va a consistir en aspectos importantes a los que ha dedicado tiempo y tareas suficientes. Su aplicación puede tomar mediadas sobre la promoción de un alumno. contenidos y criterios de evaluación de las distintas áreas.G. En cuanto a la medición. Por último se produce la evaluación. 1990c).adecuadamente elegida a los fines planteados y la formulación debe ser clara. La evaluación de la enseñanza se debe realizar en un triple nivel: evaluación del proceso de enseñanza y práctica docente. En la medida que el lugar y la función de la evaluación en el propio Diseño Curricular sigue siendo el mismo (Escudero. que deberán incluir las siguientes decisiones relativas a la evaluación: La distribución de los objetivos. La evaluación del aprendizaje de los alumnos se convierte en autorregulación del proceso de enseñanza. es obtener (MEC.

qué núcleos de conocimientos humanos deben formar parte del currículo escolar de una determinada etapa/ciclo. Elaborada una determinada distribución y secuenciación de los contenidos del curriculo. En relación con la evaluación del contenido curricular en los Proyectos Curriculares. Proceso de dinámica de trabajo conjunto.e. Grado en que ha empleado creativamente el potencial curricular del curriculo básico. Aspectos como la determinación del contenido. 2) Organización y secuenciación. distribución y secuenciación por ciclos. LA EVALUACIÓN DE LOS DOCUMENTOS INSTITUCIONALES EN EL CENTRO. generando un currículo "propio". enunciados de tópicos. desarrollo o adaptación: * Grado de adaptación/variación de las prescripciones oficiales para lograr una adaptación mutua a la situación del contexto local del Centro. Grado en que está completa la "cubierta curricular" externa del currículo oficial: p. una vez que se ha llevado a cabo una primera implementación y desarrollo práctico. dependientes de la perspectiva adoptada. compromiso.. tanto en la selección.Perspectivas de proceso. etc. me parece. están cubiertos aparentemente todos los bloques temáticos. si dicha selección debe basarse en los corpus disciplinares o incluir contenidos de otras fuentes necesarios para la vida cotidiana. * * . para sacar nuevas posibilidades. son dimensiones del problema de la selección del contenido curricular. acuerdo/consenso por el que se ha llegado al documento o propuesta. de acuerdo con lo señalado en este Proyecto Docente. del Ciclo respectivo o en cada unidad didáctica. orientaciones. En la evaluación del Proyecto Curricular se especifica que se evaluará "la validez de la secuenciación de los objetivos y contenidos por ciclos". no previstas en el curriculum oficial. prescrito oficialmente o no. revisar los procesos de enseñanza y la práctica docente de los profesores. desde una triple perspectiva de criterios-guía: 1. en su caso. La secuenciación de contenidos interciclos e intraciclos se debe efectuar al triple nivel de Proyecto Curricular de Etapa. establecidos oficialmente para la elaboración de proyectos curriculares de centro. se plantean dos cuestiones principales: 1) Selección de contenidos. en el apartado dedicado a los contenidos curriculares.Perspectiva de "fidelidad": * Grado de concordancia/fidelidad con los criterios. se pueden analizar los criterios/indicadores para juzgar/evaluar la adecuación del "prototipo de diseño curricular" realizado. a nivel de diseño curricular. Congruencia con los materiales curriculares ("libros de texto") utilizados.- Criterios para evaluar y.. * * 2. distribución y equilibrio que se ha realizado de los contenidos.

En cualquier caso.3. etc. para que pueda ser un instrumento válido para la práctica pedagógica. los criterios externos uniformados para evaluar el Proyecto curricular de Etapa se pueden ver los indicadores de evaluación que aparecen en la siguiente tabla. * Es coherente la secuenciación vertical de contenidos. interrelación y presencia de temas transversales. 1991: 20-23. delimitación de las ideas eje. deberá abordar. INDICADORES DE EVALUACIÓN DEL CONTENIDO DEL PCC *Incluye los contenidos. A modo de ejemplo. * Secuencia los contenidos. aplicables a la vida diaria y útiles. al menos. además del análisis específicos del Proyecto Curricular de Etapa. continuidad y progresión.. por áreas o materias. * Es coherente la secuenciación horizontal de contenidos de las diferentes áreas o materias. así como la .Perspectiva "oficialista": * Los criterios de secuenciación de contenidos aducidos repetidamente en la literatura oficial (Del Carmen y Zabala. resulta problemático aplicar en una lógica supervisora un conjunto de indicadores externos. La evaluación del proceso de enseñanza y de la práctica docente. El Proyecto Curricular de Etapa/Centro. * Recoge suficientes opciones de contenido. exige su evaluación por parte del Claustro de profesores. en su caso. Pueden. * Adecua los contenidos a las peculiaridades del alumnado. b) El carácter de las relaciones entre profesores y alumnos y entre los mismos profesores. equilibrio. al margen del proceso y realidad interna del Centro a que responda el Proyecto curricular. según las orientaciones y normativa oficial. marcados legalmente como obligatorios. Esta evaluación. en las diferentes áreas o materias.) son una mezcla de estos dos componentes: Teoría de la Elaboración y Psicología Constructivista. para cada ciclo o curso de la etapa. deberá valorar todos y cada uno de los elementos que componen el propio Proyecto curricular. elección de un tipo de contenido como eje vertebrador de la secuencia. ser empleados complementariamente indistintamente desde una perspectiva de fidelidad o de desarrollo. para la elección por parte del alumnado VALORACIÓN 12345 12345 12345 12345 12345 12345 12345 12345 12345 12345 Indicadores de Evaluación del contenido en el Proyecto Curricular del Centro (Casanova. significativos. por áreas o materiales. MEC. 1991: 45-50. * Tiene un cuenta los contenidos trabajados en la etapa anterior. 1992. * Adecua los contenidos a las características del entorno. la consideración de los siguientes aspectos: a) La organización del Centro y el aprovechamiento de los recursos. Estos criterios son: Pertinencia con el desarrollo evolutivo y los aprendizajes previos del alumnado. creo. 1993). * Incluye. * Tiene en cuenta los contenidos que se trabajarán en la etapa posterior. de manera que resultan: funcionales. coherencia con la lógica de las disciplinas a las que pertenecen los contenidos de aprendizaje. los contenidos transversales. 1992b: 36-41. Del Carmen.

Equipo Técnico de Coordinación Pedagógica. más o menos mensurables. se convierte en "institución creadora de conocimientos" (Kvale. en los criterios de evaluación referidos a los contenidos comunes válidos de una disciplina. el contenido curricular operativo para los alumnos es lo que es evaluado en los exámenes. aquí nos referimos sólo al primer sentido. conceptos. valores y normas presentan algunas diferencias sustanciales entre sí. éstas prácticamente desaparecen en su dimensión sustantiva. en las actitudes no son fáciles de expresar. La distinción entre tres tipos de contenidos quiere indicar. EVALUACIÓN INTEGRADA O DIFERENCIAL La evaluación integrada se debe entender con un doble sentido: 1) No separa aspectos conceptuales de los actitudinales. y 3) la labor de evaluación es conjunta del equipo de profesores: integración de juicios. y esa será la lectura que hará el profesorado (y las propias editoriales). EVALUACIÓN DEL PROCESO DE APRENDIZAJE Los "criterios de evaluación" de Enseñanzas mínimas se refieren mayoritariamente a contenidos conceptuales. para uniformarlas en función de esos mínimo. por la evaluación que se efectúa del aprendizaje de los alumnos. de perspectivas/juicios de los diferentes profesores. Por ahora. 1992:17). Con lo que hay una contradicción entre lo proclama de novedad o la Reforma que era hacer explícito el currículo oculto por medio de la dimensión de "normas. como objetivos que los alumnos tendrán que haber cubierto al final del proceso. y cuando se intentan determinar los criterios de evaluación. Claustro de Profesores. En analogía con la definición operacional de inteligencia (lo que es medido en los test). al igual que sucede con las estrategias e instrumentos de evaluación más apropiados en cada caso" (Coll y otros. además de señalar diversos campos de actuación en la enseñanza. Por ello los "criterios de evaluación" se convierten en objetivos terminales en la práctica. Departamentos y tutores d) La regularidad y claridad de la relación con los padres. EVALUACIÓN DE LOS CONTENIDOS La evaluación del grado de aprendizaje de contenidos curriculares impartidos. algunos a procedimientos y casi ninguno a contenidos actitudinales. que interacciona y suele ser dependiente con los contenidos planificados y trabajados en el aula. en esta segunda dimensión . siendo juzgada toda la labor educativa de modo integrado.convivencia de entre los alumnos. 2) Que el proceso de evaluación esté integrado en el propio proceso de enseñanza-aprendizaje. madres o tutores legales. actitudes y valores". tal vez porque en su propósito de especificar criterios. los procedimientos y las actitudes. que "las estrategias didácticas y los procesos psicológicos mediante los cuales se enseñan y se aprenden los hechos. c) La coordinación entre los órganos y personas responsables en el Centro de la planificación y desarrollo de la práctica docente: Equipo Directivo. lo que convierte la propuesta inicial de un currículo abierto y flexible de facto en currículo semicerrado. prescriptivo. Nos fijaremos. definiendo éstos el conocimiento válido en un campo disciplinar. . que deja poco margen a las potenciales interpretaciones y prácticas docentes divergentes del profesorado. 1992). con un sentido formativo o continuo.

. son las cualidades. cognitivo y comportamental. tolerar. apreciar. demostrar. relacionar. relación e integración. VALORAR: Comportarse. * Definición. no debe significar en ningún caso que cada tipo de contenido tenga una evaluación diferenciada.Que los instrumentos y procesos de evaluación tengan que ser diferentes en cada tipo de contenido. etc. experimentar. categorización. * Principios: Comprensión de relaciones entre conceptos o hechos. aceptar. la "apreciación sobre el grado de asimilación de los contenidos de las diferentes áreas o materias". resumir.Evaluación de contenidos conceptuales: La distinción entre conocimiento factual. Interpretando de modo extremo lo anterior. uso y aplicación) de un conjunto de habilidades y estrategias. como ejemplo de lo que no debe hacerse. etc. * Conocimiento y utilización (funcionalidad. describir. analizar. Tipo de aprendizaje * Hechos: memorísticos. Integración de acciones. al mismo nivel que los restantes. ha diferenciado la evaluación de la adquisición de cada tipo de contenido en cinco grados para cada área. PROCEDIMIENTOS: Distintas acciones y estrategias para resolver objetivos o alcanzar metas. valores y normas * Componente afectivo. con estos presupuestos referirnos específicamente a cada tipo de contenido: 1. * Conceptos: significativo. respetar. valorar. contextualización. y no los resultados objetivos extrínsecos que se consiguen. pretende ser relevante didácticamente por implicar distintos procesos de aprendizaje. manejar. etc. sentir. tanto en Primaria como en Secundaria Obligatoria.O. etc. * Predisposición a actuar de una determinada forma socialmente deseable. * Observación sistemática en sus diversas variantes y situaciones. no obstante. Así haber situado formalmente el campo de las actitudes y valores como contenidos de toda enseñanza. conceptual y de principios. La Orden del MEC de 30 de octubre de 1992 ("B. * Uso y aplicación práctica en situaciones apropiadas. los que hacen "educativa" una actividad. reglas. debiera significar que han de ser evaluados de manera global e integrada. Clase de contenido CONCEPTUAL: Hechos conceptos y principios. aplicar. Podemos. sobre los elementos básicos de los informes de evaluación. entre otros elementos. destrezas o hábitos a las tareas o situaciones particulares.E" de 11 de noviembre). puestos de manifiesto en la misma forma de llevar a cabo la acción. generalización. explicar. reproductivo y aislado. tipo de aprendizaje y formas de evaluación. ACTITUDINAL: Actitudes. y los criterios para juzgar el nivel de aprendizaje alcanzado puede ser distinto. preferir. recordar. Clases de contenidos. especifica que el Informe de Evaluación Individualizado contendrá. métodos. exposición. EVALUACIÓN DE LOS CONTENIDOS Como señalo Stenhouse. identificación. SABER HACER: Elaborar. construir. Criterios y Formas de evaluación SABER: Conocer. valores y principios intrínsecos al propio proceso educativo. planificar. enumerar. etc.

el ambiente de aula y clase y la propia actuación personal. Solo si tenemos claro el sentido de la evaluación en este ámbito (por qué. incluye la "apreciación sobre el grado de asimilación de los contenidos conceptuales. Evaluar estos contenidos actitudinales trae consigo dos problemas: uno técnico-metodológico y otro ético. referida a tres aspectos fundamentales: el ambiente del aula. cuyo formato específico se deja como decisión a los centros. El plan para evaluar el proceso de enseñanza-aprendizaje se encomienda a un Equipo técnico la comisión Coordinación Pedagógica. y la calidad y regularidad de las relaciones con los padres. EVALUACIÓN DE LOS PROCESOS DE ENSEÑANZA-APRENDIZAJE Como otro ámbito de la evaluación se pretende que los maestros y profesoras evalúen su propia práctica docente. procedimentales y actitudinales de las diferentes áreas o materias".Evaluación de procedimientos: Pretende incidir en que los alumnos aprendan a saber hacer y transferir funcionalmente a otros contextos las habilidades adquiridas. Así un concepto no se puede evaluar igual si fuera un dato o un principio. Aquellas evaluaciones que afecten al Proyecto curricular introduciendo algunos modificaciones deberán reflejarse en la Programación anual. Su evaluación debe referirse a destrezas de distinto rango. aparte de los destinados a las familias. de manera que se garantice la continuidad del proceso de aprendizaje. que emitirán los profesores al término de cada curso académico en Primera y Secundaria Obligatoria. Esta evaluación debe efectuarse al comienzo de cada ciclo y al finalizar. aunque el "saber cómo" suele presuponer el "saber que". la coordinación en el ciclo o interciclos. El Informe de Evaluación Individualizado (IEI).- LA DIFUSIÓN DE LA EVALUACIÓN: TIPOS DE INFORMES Se prescribe la realización de un Informe Anual y de un Informe de Evaluación Individualizado (IEI). la coordinación y coherencia entre los profesores de cada ciclo. . diferente de abstracción. desde estrategias cognitivas a la utilización de técnicas e instrumentos. 2. FUTURO DE LA EVALUACIÓN. De acuerdo con la literatura oficial se aconseja que acerca de la práctica docente en el aula se deberá valorar el diseño y desarrollo de cada unidad didáctica. Evaluación de los contenidos actitudinales: Las actitudes adquiridas no suelen ser directamente evaluables. 3. son inferidas a partir de acciones manifiestas.estrategias de enseñanza y modos de evaluación. y deberá ser aprobado por el Claustro. pues suele implicar procesos de un nivel sino más alto. y la adecuación de los criterios de evaluación/promoción. cuya finalidad es servir de orientación para evaluación inicial del primer ciclo de educación primaria (en el caso de Infantil) o de los ciclos o etapas siguientes. para qué. En el ámbito del Ciclo y la Etapa el desarrollo de la programación o Proyecto curricular. con que legitimidad) podríamos entrar en qué métodos o técnicas nos podrían ser útiles en este sentido. Pero también el Claustro o el Consejo Escolar de Centro pueden tener la iniciativa de poner en marcha programas de evaluación sobre el funcionamiento del Centro educativo.

los capítulos de cada uno de los autores aportan a la obra de McLaughlin y Phillips siguen mirando hacia adentro. probablemente. Clinkenbeard (1992) reflexiona sobre problemas educativos y tipos de programas. y desarrollando alguno elementos de la práctica: instrumentos. Greene y McClintock (1991)piensan que no se puede buscar la causa de la mejora de la educación en un programa de innovación curricular entendido como variable independiente. House. el conocimiento. dice que hay obras que tienen éxito si eliges a los participantes adecuados: Stake. que. De forma que Milburn (1992). como los efectos des un programa de niños bisen dotados. Para determinados problemas sólo sirve la metodología cuantitativa. Es decir. que hubiera dado lugar a nuevas visiones o modelos. Para los autores Greene y McClintock. A) SOBRE EL MARCO TEÓRICODE LA EVALUACIÓN. Scriven. el trabajo de evaluación no termina con el informe de lo que sucede sino con la propuesta de estrategias de mejora. no es lo mismo usar métodos mixtos. Igualmente. pero además es el único medio para poder explora y descubrir si efectivamente trabajan de manera cualitativamente diferente. Ory (1991) hace una crítica a los programas de evaluación que se ha desarrollado durante los últimos veinticinco años. que un teoría mixta. En el año 1989. . Eastmond (1991) defiende que en losa años 90 la evaluación se enfocará hacia la calidad. se desarrollarán sistema de evaluación con mecanismos para asegurar y promover la calidad. en el año 1991. en nuestro país empezamos ahora a necesitar. técnicas. C) EN CUANTO A LA FINALIDAD DE LA EVALUACIÓN.. Weiss. La mayoría de los modelos se desarrollaron en los años sesenta y setenta. etc. pero en adelante el énfasis deberá ponerse en el desarrollo del profesorado y en la mejora del currículum. hay que hacer estudio de casos con métodos cualitativos. Su argumento es que una sociedad creciente sofisticada valorará más la dimensión cualitativa como el primer elemento de competición. por otra parte. Por ello hay que tener en cuenta una variedad de perspectivas o aproximación a la evaluación desde enfoques mixtos. D) EN CUANTO AL OBJETO DE LA EVALUACIÓN..En los últimos años los teóricos de la evaluación se han dedicado a reflexionar. que puedan tener en cuenta distintas variables para concebir programas teóricamente. Sttuflebeam. al hacer la recensión. porque son muchos los factores que influyen en el éxito de un determinado programa y no sólo éste. sin suponer un debate entre ellos. porque a su juicio hacen demasiado hincapié en ser útiles para los que toman decisiones. para otros la cualitativa. En caso singulares. Eisner. E) SOBRE LOS AGENTES DE LA EVALUACIÓN. y ya que los sistemas educativos hoy no son competitivos. ya que los métodos no están inherentemente ligados a un determinado paradigma. algunos autores revisan y hacen una reflexión debido a la petición de participación en la obra de House sobre evaluación. aumentando. y algo importante será relacionar evaluación de programas y proyectos futuros. B) SOBRE LOS MÉTODOS EN LA EVALUACIÓN. a pesar de los pocos ejemplos prácticos de investigaciones que utilicen métodos mixtos. hacia sus posiciones.

en apoyo de las nuevas tecnologías que emergen. La Universidad puede proporcionar entrenamiento en técnicas de evaluación. La escuela pública puede proporcionar la prueba fehaciente del juicio sobre la realidad educativa.Eastmond (1991) supone que en los próximos años se verá como natural la necesidad de evaluación interna dentro de las organizaciones. centros escolares y la industria. y la industria puede proporcionar recursos y servir como canalizadora del cambio. . En este sentido. Todos los grupos ganan por la interacción intelectual. pueden generarse nuevas asociaciones entre universidades. los profesores de los centros escolares pueden obtener experiencia en conducir trabajos de evaluación. Pero en la empresa pública se confiará la evaluación a profesionales externos que puedan establecer comparaciones con otros programas similares.