Referencia: Reference

:
Escudero, Tomás (2003). Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista ELectrónica de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm. Consultado en (poner fecha).

This article in english version

(added March, 21th 2006)

Analysis / Análisis

Hits:

Visitas

DESDE LOS TESTS HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL. UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN (From tests to current evaluative research. One century, the XXth, of intense development of evaluation in education)
In format

po r
Tomás Escudero Escorza (tescuder@posta.unizar.es)

En formato

Article record About the authors Print this article

Ficha del artículo Sobre los autores Imprimir el artículo

Abstract
This article presents a review and state of art about development in educational evaluation in the XXth century. The main theoretical proposals are commented

Resumen
Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Se analizan los principales propuestas teóricas planteadas.

Keywords
Evaluation, Evaluation Research, Evaluation Methods; Formative Evaluation Summative Evaluation, Testing, Program Evaluation

Descriptores
Evaluación, Investigación evaluativa, Métodos de Evaluación, Evaluación Formativa, Evaluación Sumativa, Test, Evaluación de Programas

Introducción
En cualquier disciplina, la aproximación histórica suele ser una vía fundamental para comprender su concepción, estatus, funciones, ámbito, etc. Este hecho es especialmente evidente en el caso de la evaluación, pues se trata de una disciplina que ha sufrido profundas transformaciones conceptuales y funcionales a

lo largo de la historia y, sobre todo, a lo largo del siglo XX, en el que principalmente ubicamos nuestro análisis. En este sentido, la aproximación diacrónica al concepto resulta imprescindible.
Comments to this article Related articles: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

Comentar este artículo Artículos relacionados: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

El análisis la vamos a llevar a cabo basándonos en tres planteamientos que podríamos tachar de clásicos en la reciente literatura sobre el tema y que usamos indistintamente, aunque no tenemos la pretensión de ofrecer un planteamiento de síntesis, sino de utilización cabal de todos ellos, puesto que los tres planteamientos inciden sobre los mismos momentos y movimientos claves.

Un planteamiento, quizás el más utilizado en nuestro contexto (Mateo y otros, 1993; Hernández, 1993), es el que ofrecen Madaus, Scriven, Stufflebeam y otros autores, que en sus trabajos suelen establecer seis épocas, empezando su análisis desde el siglo XIX (Stufflebeam y Shinkfield, 1987; Madaus y otros, 1991). Nos hablan de: a) época de la reforma (1800-1900), b) época de la eficiencia y del «testing» (1900-1930), c) época de Tyler (1930-1945), d) época de la inocencia (1946-1956), e) época de la expansión (1957-1972) y f) época de la profesionalización (desde 1973), que enlaza con la situación actual. Otros autores como Cabrera (1986) y Salvador (1992) citan tres grandes épocas, tomando como punto de referencia central la figura de Tyler en el segundo cuarto del Siglo XX. A la época de Tyler se le denomina de nacimiento, a las anteriores de precedentes o antecedentes y a la posterior de desarrollo. Guba y sus colaboradores, sobre todo Yvonna Lyncoln, destacan distintas generaciones. Ahora estaríamos en la cuarta (Guba y Lincoln, 1989), que según ellos se apoya en el enfoque paradigmático constructivista y en las necesidades de los «stakeholders» (demandantes e implicados en la evaluación), como base para determinar la información que se necesita. La primera generación es la de la medición, que llega hasta el primer tercio de este siglo, la segunda es la de la descripción y la tercera la del juicio o valoración. Tras el análisis histórico, como complemento y como revisión de síntesis del mismo, ofrecemos un sucinto resumen de los enfoques evaluativos más relevantes, de los distintos modelos y planteamientos que, con mayor o menor fuerza, vienen a nuestra mente cuando intentamos acotar lo que es hoy en día la investigación evaluativa en educación

1. Precedentes: Antes de los «tests» y de la medición Desde la antigüedad se han venido creando y usando procedimientos instructivos en los que los profesores utilizaban referentes implícitos, sin una teoría explícita de evaluación, para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace más de tres mil años, para seleccionar a los altos funcionarios. Otros autores como Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se refiere a los exámenes de los profesores griegos y romanos. Pero según McReynold (1975), el tratado más importante de evaluación de la antigüedad es el Tetrabiblos, que se atribuye a Ptolomeo. También Cicerón y San Agustín introducen en sus escritos conceptos y planteamientos evaluadores. En la Edad Media se introducen los exámenes en los medios universitarios con carácter más formal. Hay que recordar los famosos exámenes orales públicos en presencia de tribunal, aunque sólo llegaban a los mismos los que contaban con el visto bueno de sus profesores, con lo que la posibilidad de fracaso era prácticamente inexistente. En el Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en su Examen de ingenios para las ciencias, defiende la observación como procedimiento básico de la evaluación (Rodríguez y otros, 1995). En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educación, se acentúa la necesidad de comprobación de los méritos individuales y las instituciones educativas van elaborando e introduciendo normas sobre la utilización de exámenes escritos (Gil, 1992). Entrado el siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación, tras la superación de exámenes (exámenes del Estado). Según Max Weber (Barbier, 1993), surge un sistema de exámenes de comprobación de una preparación específica, para satisfacer las necesidades de una nueva sociedad jerárquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a utilizar las primeras técnicas evaluativas del tipo «tests» escritos, que se extienden a las escuelas de Boston, y que inician el camino hacia referentes más objetivos y explícitos con relación a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todavía de una evaluación sustentada en un enfoque teórico, sino más bien, algo que responde a prácticas en buena medida rutinarias y con frecuencia basadas en instrumentos poco fiables. Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele señalar como la primera investigación evaluativa en educación (Mateo y otros, 1993). Se trataba de un análisis comparativo en escuelas americanas sobre el valor de la instrucción en el estudio de la ortografía, utilizando como criterio las puntuaciones obtenidas en los tests. 2. Los tests psicométricos En el contexto anterior, a finales del siglo XIX, se despierta un gran interés por la medición científica de las conductas humanas. Esto es algo que se enmarca en el movimiento renovador de la metodología de las ciencias humanas, al asumir el

1967). se elaboraban para establecer discriminaciones individuales. según sus conocimientos. b) La influencia de las teorías evolucionistas y los trabajos de Darwin. En la práctica sólo se hablaba de medición. de ortografía de Buckingan. 1986). se desarrolla una actividad evaluativa intensa conocida como «testing». 1977). 1960. olvidándose en gran medida la representatividad y congruencia con los objetivos educativos. la evaluación recibe las mismas influencias que otras disciplinas pedagógicas relacionadas con procesos de medición. Galton y Cattel. como la pedagogía experimental y la diferencial (Cabrera. los datos y los hechos como fuentes del conocimiento verdadero. 1981). como las escalas de escritura de Ayres y Freeman.positivismo de las ciencias físico-naturales. c) El desarrollo de los métodos estadísticos que favorecía decisivamente la orientación métrica de la época (Nunnally. 1967. 1978). de lectura de Thorndike y McCall y de aritmética de Wood y McCall (Planchard. es decir. el hallazgo de puntuaciones diferenciales. fue en los tests psicológicos donde los esfuerzos tuvieron mayor impacto. 1960) y se potencian las pruebas escritas como medio para combatir la subjetividad de los exámenes orales (Ahman y Cook. de redacción de Hillegas. En palabras de Guba y Lincoln (1982). Los tests informaban algo sobre los alumnos. sinónimo de evaluación educativa. Sin embargo. La actividad evaluativa se verá condicionada de forma decisiva por diversos factores que confluyen en dicho momento. En este sentido. tales como: a) El florecimiento de las corrientes filosóficas positivistas y empíricas. Consecuentemente con este estado de cosas. de cálculo de Wood. Ahman y Cook. En el campo educativo destacan algunos instrumentos de aquella época. siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los comienzos del siglo XX. dentro del modelo del rasgo y atributo que caracterizaba las elaboraciones psicológicas de la época (Fernández Ballesteros. la evaluación y la medida tenían poca relación con los programas escolares. Ebel. que se define por características como las siguientes: • Medición y evaluación resultaban términos intercambiables. d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar unos mecanismos de acreditación y selección de alumnos. la experimentación. En Francia destacan los trabajos de . en este periodo entre finales del siglo XIX y principios del XX. • Los tests de rendimiento. Aparece la exigencia del rigor científico y de la objetividad en la medida de la conducta humana (Planchard. para determinar la posición relativa del sujeto dentro de la norma grupal. pero no de los programas con los que se les había formado. que apoyaban a la observación. • El objetivo era detectar y establecer diferencias individuales. apoyando la medición de las características de los individuos y las diferencias entre ellos.

El papel del evaluador era técnico. El nacimiento de la verdadera evaluación educativa: La gran reforma «tyleriana» Antes de que llegara la revolución promovida por Ralph W. en último término. exámenes. 1972). Tyler. b) diversificación de fuentes de información. Como solución se proponía: a) elaboración de taxonomías para formular objetivos. Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests psicológicos con el desarrollo de la estadística y del análisis factorial. Años más tarde. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas y d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección. Entre 1932 y 1940. después revisados por Terman en la Universidad de Stanford. La década entre 1920 y 1930 marca el punto más alto del «testing». sobre tests de capacidades cognitivas. 1974). uno de los tests más conocidos en la historia de la psicometría. superando desde el conductismo. con las necesidades de reclutamiento en la Primera Guerra Mundial. La evaluación se dejaba. Ahora hablamos del Stanford-Binet. El fervor por el «testing» decreció a partir de los años cuarenta e. por ser el primero en dar una visión metódica de la misma. técnicas de repesca y tests. o la media de distintos correctores. Pero quien es tradicionalmente considerado como el padre de la evaluación educativa es Tyler (Joint Committee. pues todavía existen textos y publicaciones que utilizan de manera indisoluble evaluación y medida (Gronlund. muy en boga en el momento. Según estos autores. que puede legítimamente ser denominada como la generación de la medida. 3. se trata de criterios en buena medida vigentes actualmente y. 1981). en Francia se inicia en los años veinte una corriente independiente conocida como docimología (Pieron. 1985). en su famoso . que supone un primer acercamiento a la verdadera evaluación educativa.Alfred Binet. incluso avanzados. como proveedor de instrumentos de medición. Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa para lectoescritores y Beta para analfabetos) e inventarios de personalidad (Phillips. empezaron a surgir algunos movimientos hipercríticos con estas prácticas. sobre todo. esta primera generación permanece todavía viva. en manos de una interpretación totalmente personal del profesor. 1968 y 1969. la mera evaluación psicológica. pues se idean multitud de tests estandarizados para medir toda clase de destrezas escolares con referentes objetivos externos y explícitos. Se criticaba. basados en procedimientos de medida de la inteligencia. en algún caso. para utilizar con grandes colectivos de estudiantes. el divorcio entre lo enseñado y las metas de la instrucción. incluso. para no tener que confiar exclusivamente en las propuestas por especialistas externos. Tras la contienda. Guba y Lincoln (1989) se refieren a esta evaluación como a la primera generación. Como puede verse. Estas aplicaciones estandarizadas se acogen muy bien en los ámbitos educativos y McCall (1920) propone que los profesores construyan sus propias pruebas objetivas. los tests psicológicos se ponen al servicio de fines sociales. Bonboir. expedientes académicos.

. porque supone un juicio de valor sobre la información recogida. La obra de síntesis la publica unos años después (Tyler. algo que retomarán otros importantes evaluadores como Cronbach y Sufflebeam unos años después. Desgraciadamente. en función de los resultados de los alumnos. House. Se trata. fácil de entender y aplicar (Guba y Lincoln. padres y profesores. Para Tyler. b) Determinación de las situaciones en las que se deben manifestar las conductas esperadas. 1950). la referencia central en la evaluación son los objetivos preestablecidos. a la toma de decisiones sobre los aciertos o fracasos de la programación. El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos. 1975. teniendo en cuenta que deben marcar el desarrollo individual del alumno. publicado dos años después (Smith y Tyler. 1982. plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. 1942). como el proceso surgido para determinar en qué medida han sido alcanzados los objetivos previamente establecidos (véase también Tyler. 1971). según Guba y Lincoln (1989). Esta evaluación ya no es una simple medición. 1967 y 1969). En España. de la segunda generación de la evaluación. pero dentro de un proceso socializador. 1989) y encajaba perfectamente en la racionalidad del análisis de la tarea que comenzaba a usarse con éxito en ámbitos educativos militares (Gagné. pero su función es más amplia que el hacer explícito este cambio a los propios alumnos. c) Elección de instrumentos apropiados de evaluación. aunque sin desarrollar. 1982). Su esquema era racional y se apoyaba en una tecnología clara. exponiendo de manera clara su idea de «curriculum». que deben ser cuidadosamente definidos en términos de conducta (Mager. ni explotada. esta visión evaluativa global no fue suficientemente apreciada. A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de inmediato. es también un medio para informar sobre la eficacia del programa educacional y también de educación continua del profesor. El «currículum» viene delimitado por las cuatro cuestiones siguientes: a) ¿Qué objetivos se desean conseguir? b) ¿Con qué actividades se pueden alcanzar? c) ¿Cómo pueden organizarse eficazmente estas experiencias? d) ¿Cómo se puede comprobar si se alcanzan los objetivos? Y la buena evaluación precisa de las siguientes condiciones: a) Propuesta clara de objetivos.Eight-Year Study of Secondary Education para la Progressive Education Association. Se alude. las ideas de Tyler fueron muy bien acogidas por los especialistas en desarrollo curricular y por los profesores. por aquellos que utilizaron sus trabajos (Bloom y otros. Guba y Lincoln. e) Determinación de la fiabilidad y objetividad de las medidas. los planteamientos de Tyler se extendieron con la Ley General de Educación de 1970. e integrando en él su método sistemático de evaluación educativa. d) Interpretación de los resultados de las pruebas. 1962).

es necesario interaccionar con ellos de manera más frecuente y más informal. e) Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos. no basta con asegurarse que hacen regularmente el trabajo diario. En rigor. 1991). Krathwohl y otros. Se extienden mucho las instituciones y servicios educativos de todo tipo. Sin embargo. hay que ser cauteloso ante la preponderancia de un solo procedimiento de evaluación. en abril de 1993. adecuada a las peculiaridades del alumno y el centro. En todo caso. 1990) y aparecen las famosas taxonomías de los objetivos educativos (Bloom y otros. coherencia y vigencia de su pensamiento. pero con escasa influencia en el perfeccionamiento de la labor instruccional. Medio siglo después de que Tyler revolucionara el mundo de la evaluación educativa. en esta época. por su incapacidad de abarcar todo el espectro de aspectos evaluables. 1956. Walberg y Haertel. antes de ponerse a evaluar. la comparación de centros no es posible. El verdadero desarrollo de las propuestas tylerianas vino después (Taba. tras siete décadas de fructíferas aportaciones y servicios a la evaluación. entrevistó a Tyler con el propósito de conocer su pensamiento acerca del actual desarrollo de la evaluación y de los temas controvertidos alrededor de la misma. Horowitz (1995) analiza el contenido y el significado de la citada entrevista. 1950. Popham y Baker. se avanza en la tecnología de la medición y en los principios estadísticos del diseño experimental (Gulliksen. Fernández de Castro. Para ello. 1973). d) La verdadera evaluación debe ser idiosincrásica. Ralph W. destacando. Para ello es necesaria una evaluación comprensiva de todos los aspectos significativos de su rendimiento. se . pero depende de su contenido. entre otros. 1964). ayudarles a que aprendan. Lindquist. 1970. Como acabamos de ver. una estudiante graduada de la Universidad de Stanford. superados los noventa años de vida. los siguientes aspectos en el pensamiento de Tyler al final de sus días: a) Necesidad de analizar cuidadosamente los propósitos de la evaluación. esto es. Esta entrevista. 1953. convenientemente preparada. c) El «portfolio» es un instrumento valioso de evaluación. Tyler murió el 18 de febrero de 1994. incluyendo el «portfolio». se producen cantidad de tests estandarizados. fue presentada el 16 de abril de 1993 en la Conferencia de la AERA que tuvo lugar en Atlanta. Los actuales planteamientos de evaluaciones múltiples y alternativas deben ajustarse a este principio b) El propósito más importante en la evaluación de los alumnos es guiar su aprendizaje. Unos meses antes. por el gran despilfarro consumista tras una época de recesión. sus ideas básicas. 1962. Se escribe mucho de evaluación. a la investigación y a la educación en general. Se trata de la etapa conocida como la de la inocencia (Madaus y otros.Tras la Segunda Guerra Mundial se produce un periodo de expansión y optimismo que Stufflebeam y Shinkfield (1987) no han dudado en calificar de «irresponsabilidad social». Pamela Perfumo. la aportación de la evaluación a la mejora de la enseñanza es escasa debido a la carencia de planes coherentes de acción. convenientemente actualizadas. se observa la fortaleza.

Con esta ley se puso en marcha el primer programa significativo para la organización de la educación en el ámbito federal de los Estados Unidos. Aparece un cierto desencanto con la escuela pública y crece la presión por la rendición de cuentas (MacDonald. 1983). A finales de los años sesenta. 1976.entroncan fácilmente en las corrientes más actuales de la evaluación educativa. Rutman y Mowbray. Junto al desencanto de la escuela pública. De la misma forma que la proliferación de programas sociales en la década anterior había impulsado la evaluación de programas en el área social. Este movimiento se vio también potenciado por el desarrollo de nuevos medios tecnológicos (audiovisuales. a fin de justificar subvenciones futuras. ordenadores. El desarrollo de los sesenta Los años sesenta traerán nuevos aires a la evaluación educativa. aunque ésta se centraba en los alumnos como sujeto que aprende. 1983. 1995). entre otras cosas porque se empezó a prestar interés por algunas de las llamadas de atención de Tyler.. Para mejorar la situación y retomar la hegemonía científica y educativa. entra en escena un nuevo movimiento. 1984). Esta nueva dinámica en la que entra la evaluación. cabe señalar la recesión económica que caracteriza los finales años sesenta. y. 1993. 1983). En 1964 se establece el Acta de educación primaria y secundaria (ESEA) y se crea el National Study Comitte on Evaluation. fueron muchos los millones de dólares que desde los fondos públicos se destinaron a subvencionar nuevos programas educativos e iniciativas del personal de las escuelas públicas americanas encaminadas a mejorar la calidad de la enseñanza. tras el lanzamiento del Sputnik por la URSS en 1957. sino orientada a incidir en los programas y en la práctica educativa global (Mateo y otros. Rodríguez y otros. En esa época surge un cierto conflicto entre la sociedad americana y su sistema educativo. y el objeto de valoración era el rendimiento de los mismos. 1980 y 1983. de la rendición de cuentas (Popham. sobre todo. cuyas posibilidades educativas despertaron el interés entre los profesionales de la educación (Rosenthal. relacionadas con la eficacia de los programas y el valor intrínseco de la evaluación para la mejora de la educación. sobre todo porque los rusos iban por delante en la carrera especial.) y el de la enseñanza programada. como contribuyentes. 4. y como consecuencia de lo anterior. (Popham. sus funciones. En 1958 se promulga una nueva ley de defensa educativa que proporciona muchos programas y medios para evaluarlos. . y los propios legisladores se preocupasen por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema escolar. 1981. creándose una nueva evaluación no sólo de alumnos. Ello hizo que la población civil. su enfoque y su última interpretación variará según el tipo de decisión buscada. la década de los setenta. la era de la «Accountability». 1976). Rutman y Mowbray. hace que. 1984).. Buena parte de culpa de este fuerte ímpetu evaluador americano se debió a la ya citada aprobación de la «Elementary and Secondary Act» (ESEA) en 1965 (Berk. Stenhouse. los años sesenta serán fructíferos en demanda de evaluación en el ámbito de la educación. 1983. y se estipuló que cada uno de los proyectos realizados con el apoyo económico federal debía ser anualmente evaluado. Weiss. Rutman.

). en el año 1973. Wilson y otros. organización. medios. profesor. dará lugar al nacimiento de esa nueva modalidad de investigación aplicada que hoy denominamos como investigación evaluativa. The methodology of evaluation. Como consecuencia de estos focos de influencia. por consiguiente. lo que unido a la tremenda expansión de la evaluación de programas ocurrida durante estos años. contenidos. y el de Scriven (1967). El sujeto directo de la evaluación siguió siendo el alumno. b) sobre los alumnos (necesidades y méritos finales) y c) acerca de la regulación administrativa sobre la calidad del sistema. organización. con un control ciudadano más directo sobre lo que ocurría en las escuelas.que se asocia fundamentalmente a la responsabilidad del personal docente en el logro de objetivos educativos establecidos. entresacamos las sugerencias siguientes: a) Asociar el concepto de evaluación a la toma de decisiones. Como hitos de la época hay que destacar dos ensayos por su decisiva influencia: el artículo de Cronbach (1963). contribuye más al desarrollo de la educación que la evaluación usada para estimar el valor del producto de un programa ya concluido. diera lugar a una oleada de protestas por parte del personal docente. aunque brevemente. Entre las objeciones a este tipo de estudios. Del análisis que Cronbach del concepto. 1976. Estas reflexiones teóricas enriquecerán decisivamente el ámbito conceptual y metodológico de la evaluación. b) La evaluación que se usa para mejorar un programa mientras éste se está aplicando. 1978). Cronbach abre el campo conceptual y funcional de la evaluación educativa mucho más allá del marco conceptual dado por Tyler. Distingue el autor tres tipos de decisiones educativas a las cuales la evaluación sirve: a) sobre el perfeccionamiento del programa y de la instrucción. nos refiramos a ellas. cuando se refiere al movimiento de descentralización escolar durante los últimos años sesenta y principios de los setenta. Course improvement through evaluation. de responsabilidad escolar. Es comprensible que. La riqueza de ideas evaluativas expuestas en estos trabajos nos obligan a que. la legislación de muchos estados americanos instituyó la obligación de controlar el logro de los objetivos educativos y la adopción de medidas correctivas en caso negativo (MacDonald. De esta forma. etc. c) Poner en cuestión la necesidad de que los estudios evaluativos sean de tipo comparativo. planteado así. profesores. este movimiento de rendición de cuentas. experiencias de aprendizaje. se amplió considerablemente el fenómeno de la evaluación educativa. etc. funciones y metodología de la evaluación. aunque en su línea de sugerencias. el autor destaca el hecho de que. De hecho. Otra dimensión de la responsabilidad escolar nos la ofrece Popham (1980). Como resultado de estas nuevas necesidades de la evaluación. Los grandes distritos escolares se dividieron en áreas geográficas más pequeñas. y. pero también todos aquellos factores que confluyen en el proceso educativo (el programa educativo en un sentido amplio. con frecuencia. así como el propio producto educativo. se inicia durante esta época un periodo de reflexión y de ensayos teóricos con ánimo de clarificar la multidimensionalidad del proceso evaluativo. las diferencias entre las .

las técnicas de evaluación no pueden limitarse a los tests de rendimiento. reclamando la necesidad de una evaluación con referencia al criterio. Así. Los cuestionarios. Si estas reflexiones de Cronbach fueron impactantes. porque si los objetivos carecen de valor. al defender la valoración con relación a unos objetivos bien definidos y no la comparación con otros grupos.puntuaciones promedio entre-grupos son menores que las intra-grupos. no tiene ningún interés saber hasta qué punto se han conseguido. y las funciones de la evaluación en un contexto particular. f) Desde esta óptica. sea lo que fuera lo que estemos evaluando. en contraste al casi exclusivo uso que se hacía de los tests como técnicas de recogida de información. no lo fueron menos las del ensayo de Scriven (1967). mientras que las funciones de la evaluación pueden ser enormemente variadas. Sus fecundas distinciones terminológicas ampliaron enormemente el campo semántico de la evaluación. la evaluación como actividad metodológica es esencialmente igual. b) Scriven señala dos funciones distintas que puede adoptar la evaluación: la formativa y la sumativa. Propone el término de evaluación formativa para calificar aquel proceso de evaluación al servicio de un programa en desarrollo. bien controlados. Destacamos a continuación las aportaciones más significativas: a) Se establece de forma tajante la diferencia entre la evaluación como actividad metodológica. que pueden usarse para comparar versiones alternativas de un programa. ocupan un lugar importante en la evaluación. las entrevistas. esto es. con objeto de mejorarlo. lo que el autor llama meta de la evaluación. c) Otra importante contribución de Scriven es la crítica al énfasis que la evaluación da a la consecución de objetivos previamente establecidos. El objetivo de la evaluación es invariante. la observación sistemática y no sistemática. las pruebas de ensayo. a la vez que clarificaron el quehacer evaluativo. supone en definitiva el proceso por el cual estimamos el valor de algo que se evalúa. Estas funciones se relacionan con el uso que se hace de la información recogida. puesto que las diferencias entre los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas de los resultados. Cronbach aboga por unos criterios de comparación de tipo absoluto. d) Se ponen en cuestión los estudios a gran escala. Se defienden los estudios más analíticos. así como otras referentes a las dificultades técnicas que en el marco educativo presentan los diseños comparativos. Resalta la necesidad de que la evaluación debe incluir tanto la evaluación de los propios objetivos . el camino posterior seguido por los estudiantes que han participado en el programa. 2) medidas de rendimiento y actitudes –cambios observados en los alumnos– y 3) estudios de seguimientos. y el término de evaluación sumativa para aquel proceso orientado a comprobar la eficacia del programa y tomar decisiones sobre su continuidad. e) Metodológicamente Cronbach propone que la evaluación debe incluir: 1) estudios de proceso –hechos que tienen lugar en el aula–. según el autor.

se caracteriza por introducir la valoración. el juicio. Durante estos años sesenta aparecen muchas otras aportaciones que va perfilando una nueva concepción evaluativa. 1970. Glaser. En una evaluación intrínseca se valora el elemento por sí mismo. Esta distinción resulta muy importante a la hora de considerar el criterio a utilizar. Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de evaluadores. 1964. Se percibe que el núcleo conceptual de la evaluación lo constituye la valoración del cambio ocurrido en el alumno como efecto de una situación educativa sistemática. 1973 y 1974). Popham. siendo unos objetivos bien formulados el mejor criterio para valorar este cambio. e incluso a resultados o efectos a largo plazo (Cronbach. mientras que sí se hace en la evaluación extrínseca . se comienza a prestar atención no sólo a los resultados pretendidos. a la que se referían preferentemente. Admite con Cronbach los problemas técnicos que los estudios comparativos entrañan y la dificultad de explicar las diferencias entre programas. pero Scriven considera que la evaluación como opuesta a la mera descripción implica emitir un juicio sobre la superioridad o inferioridad de lo que se evalúa con respecto a sus competidores o alternativas. como un contenido intrínseco en la evaluación. Estamos ante la tercera generación de la evaluación que. según Guba y Lincoln (1989). Lindvall. Stake. 1971. además. y de que se prestaba escasa atención a los objetivos del dominio afectivo. 1967). sobre todo.como el determinar el grado en que éstos han sido alcanzados (Scriven. Entre otras cosas aparecieron nuevas ideas sobre la evaluación de la interacción en el aula y sobre sus efectos en los logros de los alumnos (Baker. e) Scriven adopta una posición contraria a Cronbach. incidiendo no sólo en estudios en la línea de la investigación evaluativa. 1963. 1967 y 1969. 1986). 1969). Bloom y otros. 1962 y 1973. que presentan mayor dificultad de tratamiento operativo. 1964. con trabajos sobre los objetivos educativos que continuarían y perfeccionarían el camino emprendido en 1956 por Bloom y colaboradores (Mager. pues en la evaluación intrínseca el criterio no se formula en términos de objetivos operativos. 1963. no sólo por la estructura de valor que en ello subyace. 1967. en la línea de evaluación como «assessment» (Mateo. mientras que en la evaluación extrínseca se valora el elemento por los efectos que produce en los alumnos. defendiendo el carácter comparativo que deben presentar los estudios de evaluación. la juzga con relación a distintos criterios. sino también en la evaluación orientada al sujeto. Glaser. 1968). Ahora el evaluador no sólo analiza y describe la realidad. . el modelo evaluativo de Tyler se enriquecería mucho en estos años. Krathwohl y otros. A pesar de las voces críticas con la operativización de objetivos (Eisner. Gagné 1971). 1965. a veces los más bajos en las taxonomías del dominio cognoscitivo. de extenderse en las décadas posteriores. como dos formas diferentes de valorar un elemento de la enseñanza. Así mismo. sino también a los efectos laterales o no pretendidos. Atkin. que terminará de desarrollarse y. d) Clarificadora es también la distinción que hace Scriven entre evaluación intrínseca y evaluación extrínseca. la valora. Scriven. sino también por centrar la valoración del aprendizaje en los productos más fácilmente mensurables.

Stake (1967) propuso su modelo de evaluación. Este último nivel. Carreño. así. El énfasis en los objetivos y su medida traerá también la necesidad de una nueva orientación a la evaluación. Así. no centrarse meramente en los conocimientos intelectuales alcanzados por los alumnos. además de los conocidos objetivos de describir la ejecución del sujeto y tomar decisiones sobre si domina o no domina un contenido. en cuanto que es el tipo de evaluación que suministra una información real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de enseñanza previstos. La distinción introducida por Glaser (1963) entre mediciones referidas a normas y criterios tendrá eco al final de la década de los sesenta. 1973. y posibilitar algunas bases para elaborar hipótesis acerca de las causas y los fallos en los resultados finales. impulsado también por . matizando que la investigación científica es preferentemente teórica y. cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests referidos a la norma. Suchman. b) el tiempo necesario para que se realice el cambio propuesto. Esta investigación evaluativa para Suchman debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo. además. por ejemplo. proponían la utilización de una lista comprensiva de criterios diversos que los evaluadores podrían tener en cuenta en el momento de la valoración y. El otro nivel. Gronlund. Un nivel podemos calificarlo como la evaluación orientada hacia los individuos. 1985). señala para los primeros. que sigue la línea de Tyler. los resultados obtenidos por otros sujetos o grupo de sujetos (Popham. 1970 y 1983. aún siguiendo el modelo básico de Tyler. Desde finales de los sesenta los especialistas se pronunciarán decisivamente a favor de la evaluación criterial. En las prácticas evaluativas de esta década de los sesenta se observan dos niveles de actuación. otro objetivo como es el de valorar la eficacia de un programa. fundamentalmente alumnos y profesores. éxito o fracaso de un programa al compararlo con los objetivos propuestos y. defiende la utilización de evaluadores externos para evitar todo tipo de tergiversación de los profesores muy implicados en los procesos instruccionales. la denominada evaluación de referencia criterial. 1977. trazar las líneas de su posible redefinición. al efecto de contraste. Stake se irá distanciando de sus posiciones iniciales. The countenance model. c) el conocimiento de si los resultados esperados son dispersos o concentrados y d) los métodos que han de emplearse para alcanzar los objetivos. Mager. pero es más completo al considerar las discrepancias entre lo observado y lo esperado en los «antecedentes» y «transacciones». en cambio. precisamente como resultado de las nuevas exigencias que a la evaluación educativa se le planteaban. Su principal propósito es descubrir la efectividad. es el de la evaluación orientada a la toma de decisiones sobre el «instrumento» o «tratamiento» o «programa» educativo. En sus sucesivas propuestas. siendo irrelevantes. así como la valoración de ese estatus por comparación con un estándar o criterio de realizaciones deseables. Metfessell y Michael (1967) presentaron también un modelo de evaluación de la efectividad de un programa educativo en el cual. por consiguiente. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica. la investigación evaluativa es siempre aplicada.

y Mateo (1986) se refiere a la eclosión de modelos. puesto que es cada evaluador el que termina construyendo su propio modelo en cada investigación evaluativa. las propuestas seguían la línea expuesta por Tyler en su planteamiento. como los diferentes modelos deben ser vistos. 1985) los que consideran los modelos no como excluyentes. será la base para la consolidación en el terreno educativo de la evaluación de programas y de la investigación evaluativa. tienden a clasificar estos modelos en dos grandes grupos. 1987. Stufflebeam y Shinkfield. cuantitativos y cualitativos. Guba y Lincoln (1982) nos hablan de más de cuarenta modelos propuestos en estos años. sino más bien como complementarios y que el estudio de los mismos (al menos aquellos que han resultado ser más prácticos) llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. que ha venido a llamarse de “Consecución de Metas”. Anderson y Ball. Scriven. pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situación es mucho más rica en matices. 1992. y que algunos modelos pueden ser representativos de ellas. en esta época destacan la propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). Cronbach. Desde los años setenta: La consolidación de la investigación evaluativa Si con algo se podría caracterizar las aportaciones teóricas que nos ofrecen los especialistas durante los años setenta es con la proliferación de toda clase de modelos evaluativos que inundan el mercado bibliográfico. Nosotros. Para estos autores los objetivos propuestos siguen siendo el criterio fundamental de valoración. de una época caracterizada por la pluralidad conceptual y metodológica. Algunos autores como Guba y Lincoln (1982). considerados particularmente. 1983. Además de los ya citados de Stake y Metfessell y Michael. Es desde esta perspectiva. 5. modelos de evaluación que expresan la propia óptica del autor que los propone sobre qué es y cómo debe conducirse un proceso evaluativo. Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas. pero enfatizan la necesidad de aportar datos sobre la congruencia o discrepancia entre las pautas de . pero los diferentes modelos. que corresponden a los últimos años sesenta. Arnal y otros.la evaluación de programas en el ámbito social. En este movimiento de propuestas de modelos de evaluación cabe distinguir dos épocas con marcadas diferencias conceptuales y metodológicas. más que de modelos. 1980. De la Orden. en algún momento nos hemos atrevido a hablar de enfoques modélicos. 1973. Se trata. Pérez (1983) y en alguna medida House (1989). 1982. Estos enriquecerán considerablemente el vocabulario evaluativo. 1976. 1993). También son varios los autores (Lewy. Popham. se diferencian más por destacar o enfatizar alguno o algunos de los componentes del proceso evaluativo y por la particular interpretación que a este proceso le dan. por tanto. y valorar así sus respectivas aportaciones en los terrenos conceptual y metodológico (Worthen y Sanders. compartimos la idea de Popham (1980) de que algunos son demasiado complicados y otros utilizan una jerga bastante confusa. En una primera época. a nuestro entender. en función del tipo de trabajo y las circunstancias (Escudero. 1994). sin embargo.

A continuación destacamos los puntos mas sobresalientes de esta pluralidad conceptual. según las necesidades de las decisiones a las que sirven. Guba y Lincoln. Entre ellos destacan la Evaluación Responsable de Stake (1975 y 1976). (contexto. La audiencia prioritaria son los propios participantes del programa..P. de aquí que la metodología que consideran más adecuada es la propia de la antropología social (Parlett y Hamilton. Pérez 1983). atendiendo a los tópicos ¿qué es la evaluación? ¿qué funciones tiene? ¿cuál es el objeto de evaluación?.I. directores. Una segunda época en la proliferación de modelos es la representada por los modelos alternativos. La aportación conceptual y metodológica de estos modelos es valorada positivamente entre la comunidad de evaluadores (Popham.. 1980. como en los modelos orientados a la toma de decisiones. La audiencia prioritaria de la evaluación en estos modelos no es quien debe tomar las decisiones. a) Diferentes conceptos de evaluación. este segundo grupo de modelos evaluativos enfatiza el papel de la audiencia de la evaluación y de la relación del evaluador con ella.S.instrucción diseñadas y la ejecución de las mismas en la realidad del aula. y la evaluación para la toma de decisiones sobre los individuos de otra. proceso y producto). Guba y Lincoln.P. ni el responsable de elaborar los currículos u objetivos. a la que se adhieren Guba y Lincoln (1982). La relación entre el evaluador y la audiencia en palabras de Guba y Lincoln (1982) debe ser «transaccional y fenomenológica». el C. puesto que en sus propuestas suponen diferentes tipos de evaluación. Por una parte existe la clásica definición dada por Tyler: la evaluación como el proceso de . Este resumen de modelos de la época de eclosión es suficiente para aproximarnos al amplio abanico conceptual teórico y metodológico que hoy se relaciona con la evaluación.E. House. 1989). Es fácilmente comprensible que las exigencias que plantea la evaluación de programas de una parte. conducen a una gran variedad de esquemas evaluativos reales utilizados por profesores. que con diferentes concepciones de la evaluación y de la metodología a seguir comienzan a aparecer en la segunda mitad de esta década de los setenta. la Evaluación Democrática de MacDonald (1976). 1982. En líneas generales. propuesto por Stufflebeam y colaboradores (1971) y el C. Pero también es cierto que bajo esta diversidad subyacen diferentes concepciones teóricas y metodológicas sobre la evaluación. input. no encuentra una única respuesta a estas cuestiones. como en los modelos de consecución de metas. 1977. Diferentes concepciones que han dado lugar a una apertura y pluralidad conceptual en el ámbito de la evaluación en varios sentidos (Cabrera. (toma sus siglas del Centro de la Universidad de California para el Estudio de la Evaluación) dirigido por Alkin (1969). a partir de la revisión de la literatura especializada. 1982. inspectores y administradores públicos. 1986). Se trata de modelos que propugnan una evaluación de tipo etnográfica. Ejemplos notables de ellos son: probablemente el más famoso y utilizado de todos. Ello explica que cuando Nevo (1983 y 1989) pretende realizar una conceptualización de la evaluación. Estos autores van más allá de la evaluación centrada en resultados finales. la Evaluación Iluminativa de Parlett y Hamilton (1977) y la Evaluación como crítica artística de Eisner (1985). Otros modelos consideran el proceso de evaluación al servicio de las instancias que deben tomar decisiones.

con objeto de señalar las diferencias que comportarían los juicios valorativos en caso de estimar el mérito (se vincularía a características intrínsecas de lo que se evalúa) o el valor (se vincularía al uso y aplicación que tendría para un contexto determinado). Las definiciones de evaluación que acentúan la determinación del «mérito» como objetivo de la evaluación. Se trata de modelos relacionados con la acreditación y el enjuiciamiento profesional (Popham. Guba y Lincoln. Desde la óptica de la consecución de metas. las características del objeto evaluado y. existen dos conclusiones importantes que se obtienen de la revisión de la bibliografía sobre la evaluación. Alkin y MacDonald llegan a sugerir incluso la no valoración de la información por parte del evaluador. es retomado por Cronbach (1982). Stufflebeam y colaboradores. Así. representan diferentes propuestas para conducir una evaluación. Guba y Lincoln (1982). cualquier cosa puede ser objeto de evaluación y ésta no debería limitarse a estudiantes y profesores y. Guba y Lincoln (1982) refieren los términos de la comparación valorativa. Como dice Nevo (1983 y 1989). de otro. d) Pluralidad de objetos de evaluación. una clara identificación del objeto de evaluación es una importante parte en cualquier diseño de evaluación. 1983) que acentúan el proceso de evaluación al servicio de determinar el «valor» más que el «mérito» de la entidad u objeto evaluado. MacDonald (1976) y Cronbach (1982). c) Pluralidad de procesos evaluativos dependiendo de la percepción teórica que sobre la evaluación se mantenga. 1982. . el concepto de evaluación de Scriven (1967). 1975.determinar el grado de congruencia entre las realizaciones y los objetivos previamente establecidos. 1980). defendida por Alkin (1969). de un lado. las necesidades. y House (1989). House. utilizan criterios estándares sobre los que los expertos o profesionales están de acuerdo. obtener y proporcionar información relevante para juzgar decisiones alternativas. abogan por que el criterio de valoración fundamental sean las necesidades contextuales en las que ésta se inserta. como el proceso de estimar el valor o el mérito de algo. De las definiciones apuntadas anteriormente se desprende que el criterio a utilizar para la valoración de la información también cambia. Parlett y Hamilton. Stufflebeam y otros (1971). a la que corresponden los modelos orientados hacia la consecución de metas. Además. siendo el que toma las decisiones el responsable de su valoración. Por un lado. una buena y operativa definición de los objetivos constituye el criterio fundamental. expectativas y valores del grupo a los que les afecta o con los que se relaciona el objeto evaluado. Los modelos de evaluación citados y otros más que pueden encontrarse en la bibliografía. b) Diferentes criterios. 1977. por otro. Desde la perspectiva de las decisiones y situados dentro de un contexto político. Los autores (Stake. Contrasta esta definición con aquella más amplia que se propugna desde los modelos orientados a la toma de decisiones: la evaluación como el proceso de determinar.

se fundan asociaciones científicas relacionadas con el desarrollo de la evaluación y las universidades empiezan a ofrecer cursos y programas de investigación evaluativa. Weiss. 1987. lo que ha venido a llamarse evaluación interna vs. tras todo este desarrollo antes descrito. una relación directa entre el evaluador y las diferentes audiencias de la evaluación es reconocida por la mayoría de los autores (Nevo. de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos. sino también sobre el proceso educativo. pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores.e) Apertura. lógicamente. evaluación externa.. 6. Por último. 1983). f) Pluralidad también reconocida de las funciones de la evaluación en el ámbito educativo. pluralidad en los informes de evaluación. reconocida en general por todos los autores. en la que además de los innumerables modelos de los setenta. Studies in Evaluation. 1983). apertura también en considerar no sólo resultados de tipo cognitivo. Mateo y otros. sino a los efectos posibles de un programa educativo. 1983. Rutman. 1983). 1993. hasta informes muy estructurados (Anderson y Ball. informales. Evaluation Review. se profundizó en los planteamientos teóricos y prácticos y se consolidó la evaluación como investigación evaluativa en los términos antes definida. y añadiéndose otras de tipo sociopolítico y administrativas (Nevo. Evaluation and Program Planning. New Directions for Program Evaluation. h) Pluralidad de audiencia de la evaluación y. tales como una visión gestora de la evaluación. una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista. El anterior resumen recoge las aportaciones a la evaluación en los años setenta y ochenta. por consiguiente. i) Pluralidad metodológica. En este contexto. aparecen muchas nuevas revistas especializadas como Educational Evaluation and Policy Analysis. Las cuestiones metodológicas surgen desde la dimensión de la evaluación como investigación evaluativa. recogiéndose la propuesta de Scriven entre evaluación formativa y sumativa. 1991.. la época que se ha denominado época de la profesionalización (Stufflebeam y Skinkfield. Madaus y otros. Y apertura en la consideración de diferentes resultados de corto y largo alcance. no sólo en postgrados y programas de doctorado. 1993). sea pretendido o no. Hernández. 1983. 1984).. Guba y Lincoln (1989) ofrecen una alternativa evaluadora.. sino valorar todos los efectos posibles. Desde informes narrativos. La cuarta generación según Guba y Lincoln A finales de los ochenta. La alternativa de Guba y Lincoln la denominan respondente y . Apertura también respecto a la recogida de información no sólo del producto final. sino también afectivos (Anderson y Ball. sino también en planes de estudio para titulaciones de primer y segundo ciclos. Evaluation News. Incluso Scriven (1973 y 1974) propone una evaluación en la que no se tenga en cuenta los objetivos pretendidos. que denominan cuarta generación. g) Diferencias en el papel jugado por el evaluador. que viene definida en gran medida por la diversidad metodológica. No obstante.

preocupaciones y asuntos de los implicados. porque: a) Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados. que realizará secuencialmente o en paralelo. comprender y criticar las diferentes construcciones. 7) Formar y hacer de mediador para un «forum» de implicados para la negociación. de manera que se sientan protegidos ante tal riesgo. b) Los resultados pueden ser utilizados en su contra en diferentes sentidos. 1997). según Guba y Lincoln. Las responsabilidades básicas del evaluador de la cuarta generación son las siguientes: 1) Identificar todos los implicados con riesgo en la evaluación. el evaluador es responsable de determinadas tareas. demandas y preocupaciones. típica del positivismo. construyendo un proceso ordenado y sistemático de trabajo. las preocupaciones y los asuntos de los implicados o responsables (stakeholders) sirven como foco organizativo de la evaluación (como base para determinar qué información se necesita). y la epistemología postmoderna del constructivismo (Russell y Willinsky. Las demandas. 6) Recoger y proporcionar la información necesaria para la negociación. demandas y preocupaciones. que se lleva a cabo dentro de los planteamientos metodológicos del paradigma constructivista. e) Se produce una interacción positiva entre los distintos implicados. La utilización de las demandas. 5) Preparar una agenda para la negociación acerca de temas no consensuados. c) No se tienen en cuenta suficientemente los factores contextuales. e) La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social. 3) Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta. preocupaciones y asuntos de los implicados es necesaria. d) No se proporcionan medios para valoraciones caso por caso. 2) Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto.constructivista. sobre todo si están al margen del proceso. b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación. c) Son potenciales usuarios de la información resultante de la evaluación. 4) Generar el máximo acuerdo posible acerca de dichas construcciones. d) Pueden ampliar y mejorar el rango de la evaluación. El cambio paradigmático lo justifican estos autores porque: a) La metodología convencional no contempla la necesidad de identificar las demandas. Partiendo de estas premisas. integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975). 8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y .

• Consecución de facilidades y acceso a la información (Lincoln y Guba. • Acuerdo con el cliente por el tipo de evaluación. • Agentes. 1985). • Literatura profesional. • Victimas. • Listado de especificaciones técnicas. 1987). Preparación de la agenda para la negociación. 5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. • Construcción ética del evaluador. 9) Reciclar la evaluación siempre que queden asuntos pendientes de resolución. 3) Identificación de las audiencias (Guba y Lincoln. • Descripción del tipo de informe a elaborar. 1967. Estos pasos son los siguientes: 1) Establecimiento de un contrato con un patrocinador o cliente. La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicación de la naturaleza y características del paradigma constructivista en contraposición con las del positivista. Lincoln y Guba. • Beneficiarios. 4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss. 1978. 8) 9) Recogida de información. 1982). • Propósito de la evaluación (Guba y Lincoln. 1986. Establecimiento de prioridades en los temas no resueltos. 2) Organización para reciclar la investigación. Glaser. 1985). • Breve descripción de la metodología a usar. • Identificación de audiencias. • Círculos de otras audiencias. • Garantía de acceso a registros y documentos. • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. sus proponentes citan doce pasos o fases. • Observación. 6) Clasificación de las demandas. preocupaciones y asuntos resueltos.de los de otros grupos (Stake. con diferentes subfases en cada una de estas. Zeller. • Identificación del cliente o patrocinador de la evaluación. • Selección y entrenamiento del equipo evaluador. 7) . • Documentos y registros. Cuando se habla de los pasos o fases de la evaluación en esta cuarta generación. 1982). • Identificación del objeto de la evaluación.

1988). recursivo y altamente divergente. c) autenticidad educativa. no son del todo satisfactorios para Guba y Lincoln. e) la subjetividad progresiva y f) el control de los miembros. b) la observación persistente. a través de un proceso dialéctico. también de base constructivista. Para conseguir esto existen varias técnicas. los criterios deban ser acordes con el paradigma fundamentador (Morgan. 1986). La transferencia puede verse como paralela a la validez externa. fiabilidad y objetividad. de forma que la idea de isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas a ellas. d) La evaluación es un proceso continuo. 1986). la de analista y la de juez. d) autenticidad catalítica y e) autenticidad táctica (Lincoln y Guba. esto es. el ligado al proceso hermenéutico y el de autenticidad. Pero estos dos tipos de criterios. c) la evaluación es un proceso de enseñanza/aprendizaje. la dependencia es paralela al criterio de fiabilidad y la confirmación puede verse como paralela a la objetividad. En esta evaluación. Estos criterios han sido validez interna y externa. 1981). b) autenticidad ontológica. aunque útiles. e) La evaluación es un proceso emergente. justicia. Para juzgar la calidad de la evaluación. 12)Reciclado/revisión. la de técnico. algo que encaja con el paradigma hermenéutico. se retienen las características del evaluador fruto de las tres primeras generaciones. El criterio de credibilidad es paralelo al de validez interna. d) el análisis de casos negativos (Kidder. dependencia y confirmación (Lincoln y Guba. 1987. g) La evaluación es un proceso que crea realidad. Otra manera de juzgar la calidad de la evaluación es el análisis dentro del propio proceso. 11)Informes (Zeller. 1983). f) La evaluación es un proceso con resultados impredecibles. b) La evaluación es un proceso conjunto de colaboración. se denominan así porque intentan ser paralelos a los criterios de rigor utilizados muchos años dentro del paradigma convencional. transferencia. Sin embargo. Licoln y Guba. pero estas deben ampliarse con destrezas para recoger e interpretar datos cualitativos . se nos ofrecen tres enfoques que se denominan paralelo. Los criterios paralelos. Este análisis de la cuarta generación de podemos terminarlo con los rasgos con los que definen Guba y Lincoln a la evaluación: a) La evaluación es un proceso sociopolítico. En el caso de la cuarta generación los criterios que se ofrecen son los de credibilidad. c) el contraste con colegas. entre las que destacan las siguientes: a) el compromiso prolongado.10)Desarrollo de la negociación. Estos criterios incluyen los siguientes: a) imparcialidad. de confianza. que defienden con más ahínco los criterios que denominan de autenticidad.

con la de historiador e iluminador. 1980). 2000 y 2001). es también su deber. Además. la evaluación se ve como una «transdisciplina». esto es. que debe actuar de acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad. adaptadas a las distintas realidades escolares. Esto requiere por parte del profesorado el reconocimiento de otras posiciones. la implicación de todos desde el principio del proceso y. Stufflebeam. debe suponer un esfuerzo razonable y debe ser políticamente viable. tras analizar la cuarta generación de Guba y Lincoln. 1994. b) factible. de la idea de que cualquier buen trabajo de investigación evaluativa debe ser: a) útil. ética y justa con los implicados. Stufflebeam invoca a la responsabilidad del evaluador. Sin embargo. y d) segura y precisa a la hora de ofrecer información y juicios sobre el objeto de la evaluación.(Patton. Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta generación para desarrollar formulaciones alternativas de práctica evaluadora entre los implicados. Stufflebeam (1994) nos . El nuevo impulso alrededor de Stufflebeam Para terminar este recorrido analítico-histórico desde los primeros intentos de medición educativa hasta la actual investigación evaluativa en educación. centro auspiciado y financiado por el Departamento de Educación del gobierno americano. esto es. proporcionar información a tiempo e influir. c) apropiada. proponente del modelo CIPP (el más utilizado) a finales de los sesenta. Para evaluar la educación en una sociedad moderna. así como un papel más activo como evaluador en un contexto socio-político concreto. rico y plural. esto es. el desarrollo de aproximaciones más pragmáticas de la conceptualización de Guba y Lincoln. queremos recoger las recomendaciones que más recientemente nos viene ofreciendo una de las figuras señeras de este campo en la segunda mitad del siglo XX. pues es aplicable a muchas disciplinas diferentes y a muchos objetos diversos (Scriven. no sólo ofrecemos una de las últimas aportaciones a la actual concepción de la investigación evaluativa en educación. 7. legítima. desde 1975 a 1988 presidente del «Joint Committee on Standars for Educational Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher Evaluation). además de la suya. estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas. sino que completamos en buena medida la visión del panorama actual. emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. incrementando la probabilidad de que la evaluación sirva para mejorar la enseñanza escolar. adecuada. por otra parte. 1999. con la de mediador de juicios. esto es. en las que se han ido integrando ideas de diversos evaluadores también notables. Nos estamos refiriendo a Daniel L. 1998. Recogiendo estas recomendaciones (Stufflebeam. y su derecho. 1994). Se parte de los cuatro principios del Joint Committee (1981 y 1988).

valor con el de relación coste-eficacia y significación con el de importancia. el acceso a los mismos. Quizás uno de los retos que deben abordar los sistemas educativos es la definición más clara y precisa de estos deberes y responsabilidades. debe relacionarse siempre con el conjunto de sus deberes. 3) Las entidades educativas deben ser valoradas tanto por su mérito (valor intrínseco. sobre todo significación. 1982. 1982). etc. etc. 1991). Tomando el referente de estos criterios y sus derivaciones. 4) La evaluación de profesores. mérito tiene bastante equivalencia con el término calidad. . instituciones educativas. el desarrollo de aspiraciones y la cobertura para todos los sectores de la comunidad (Kellagan. 2) Las entidades educativas deben examinarse por su integración y servicio a los principios de la sociedad democrática. Scriven. Stufflebeam sumariza una serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y mejorar el sistema educativo. programas. 1994). la evaluación es problemática. etc. equidad. En todo caso. como por su significación en la realidad del contexto en el que se ubica. 5) Los estudios evaluativos deben ser capaces de valorar hasta qué medida los profesores y las instituciones educativas son responsables y rinden cuentas del cumplimiento de sus deberes y obligaciones profesionales (Scriven. incluso en el terreno formativo (Scriven. legitimidad y precisión (Joint Committee. 1981 y 1988). en este caso. Scriven (1998) nos señala que usando otras denominaciones habituales. Hay que cuestionar la eficiencia en la utilización y distribución de recursos. los tres conceptos son dependientes del contexto. factibilidad. responsabilidades y obligaciones profesionales o institucionales. dentro de una sociedad democrática (Nowakowski y otros. la consecución de metas. Es necesario preguntarse si la educación que se proporciona cubre las necesidades de los estudiantes y de sus familias en todos los terrenos a la vista de los derechos básicos. Sin ello. de manera que entender la diferencia entre dependencia del contexto y arbitrariedad es parte de la comprensión de la lógica de la evaluación. calidad respecto a criterios generales) como por su valor (valor extrínseco. calidad y servicio para un contexto particular) (Guba y Lincoln. • La excelencia como objetivo permanente de búsqueda.dice que se deben tomar algunos criterios básicos de referencia como los siguientes: • Las necesidades educativas. Hay que preguntarse si el sistema es justo y equitativo a la hora de proporcionar servicios educativos. la adecuación y viabilidad de las normas legales. Estas recomendaciones son las siguientes: 1) Los planes de evaluación deben satisfacer los cuatro requerimientos de utilidad. • La factibilidad. el compromiso y participación de los implicados y todo lo que hace que el esfuerzo educativo produzca el máximo de frutos posibles. La mejora de la calidad. 1991a). bienestar. a partir del análisis de las prácticas pasadas y presentes es uno de los fundamentos de la investigación evaluativa. 1985). • La equidad.

para asegurar el uso de un rango adecuado de enfoques según las necesidades y los planes. 1991. hallazgos e implicaciones de la evaluación.. 1988.6) Los estudios evaluativos deben proporcionar direcciones para la mejora. los estudios evaluativos deben conceptualizarse y utilizarse sistemáticamente como parte del proceso de mejora educativa a largo plazo (Alkin y otros. 11) La evaluación del proceso debe usarse de manera prospectiva para mejorar el plan de trabajo. Asimismo. y métodos tanto cuantitativos como cualitativos para recoger y analizar la información.. Se necesita una valoración prospectiva de los resultados para orientar el proceso y detectar zonas de necesidades. La pluralidad y . así como en la promoción de la aceptación y el uso de sus resultados (Chelimsky. Stronge y Helm. 1979. 13) Los estudios evaluativos se deben apoyar en la comunicación y en la inclusión sustantiva y funcional de los implicados (stakeholders) con las cuestiones claves. para promover la autonomía de los mismos en la resolución de sus problemas. 1991) 10) La evaluación de las entradas (inputs) debe emplearse de manera prospectiva. pero también la de que sea conservadora en su concepción. para juzgar bien el valor de los servicios y resultados educativos. problemas en un área. 1993. 1994). de participación de los implicados en el programa evaluado. 1991. en relación con las necesidades de los estudiantes (Madaus y otros. 12) La evaluación del producto es el medio para identificar los resultados buscados y no buscados en los participantes o afectados por el objeto evaluado. porque no basta con emitir un juicio sobre el mérito o el valor de algo. Webster y otros. Webster y Edwards. Se necesita una evaluación retrospectiva del producto para poder juzgar en conjunto el mérito y el valor del objeto evaluado (Scriven. Scriven. 1991. 8) Se debe promover la autoevaluación profesional. 1999). Weiss (1998) nos alerta de que la evaluación participativa incrementa la probabilidad de que se utilicen los resultados de la evaluación. 1987). 1998). 1991) 9) La evaluación del contexto (necesidades. que defiende Fetterman (1994). Generalmente su interés es el cambio de cosas pequeñas. pero también de manera retrospectiva para juzgar hasta qué punto la calidad del proceso determina el por qué los resultados son de un nivel u otro (Stufflebean y Shinkfield. de base democrática. es un procedimiento.) debe emplearse de manera prospectiva. pues es difícil pensar que los responsables de una organización pongan en cuestión el fundamento y el sistema de poder de la misma. oportunidades. todo estudio evaluativo debe tener un componente formativo y otro sumativo. la evaluación del contexto debe utilizarse retrospectivamente. La evaluación para el desarrollo (empowerment evaluation). criterios. proporcionando a los educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella (Madaus y otros. Joint Committee. 14) Los estudios evaluativos deben emplear múltiples perspectivas. 1994) y de fundamento para la acción contra las discriminaciones sociales (Mertens. múltiples medidas de resultados.. Keefe. para localizar bien las metas y objetivos y definir prioridades. 7) Recogiendo los puntos anteriores. Más aún.

complejidad del fenómeno educativo hace necesario emplear enfoques múltiples y multidimensionales en los estudios evaluativos (Scriven, 1991) 15) Los estudios evaluativos deben ser evaluados, incluyendo metaevaluaciones formativas para mejorar su calidad y su uso y metaevaluaciones sumativas para ayudar a los usuarios en la interpretación de sus hallazgos y proporcionar sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988; Madaus y otros, 1991; Scriven, 1991; Stufflebeam, 2001). Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la teoría ética de que la bondad moral es objetiva e independiente de los sentimientos personales o meramente humanos. Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en análisis comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos resulta evidente que las concepciones de la investigación evaluativa son diversas, dependiendo del origen epistemológico desde el que se parte, pero apareciendo claros y contundentes algunos elementos comunes a todas las perspectivas como la contextualización, el servicio a la sociedad, la diversidad metodológica, la atención, respeto y participación de los implicados, etc., así como una mayor profesionalización de los evaluadores y una mayor institucionalización de los estudios (Worthen y Sanders, 1991). El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint Committee on Standards for Educational Evaluation con las posiciones de la corriente evaluadora denominada postmodernista, representada, además de por Guba y Lincoln, por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que existan razones para actitudes de escepticismo y frustración con las prácticas evaluadoras actuales, porque existen muchos ámbitos de aproximación y el desarrollo de estándares de evaluación es perfectamente compatible con la atención a los diversos implicados, valores, contextos sociales y métodos. Stufflebeam defiende una mayor colaboración en la mejora de las evaluaciones, estableciendo los estándares de manera participativa, pues cree que es posible la aproximación de planteamientos, con contribuciones importantes desde todos los puntos de vista. Weiss (1998) también toma posiciones parecidas cuando nos dice que las ideas constructivistas deben hacernos pensar más cuidadosamente al usar los resultados de las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya que interpretarlo en términos exclusivamente individuales, pues existen muchos elementos comunes entre las personas, los programas y las instituciones. 8. Para concluir: síntesis de enfoques modélicos y metodológicos de la evaluación y la última perspectiva de Scriven Tras este análisis del desarrollo de la evaluación a lo largo del Siglo XX, parece oportuno, a modo de síntesis y de conclusión, recoger y resaltar los que son considerados los principales modelos, planteamientos metodológicos, diseños, perspectivas y visiones de la evaluación en la actualidad. Su análisis, de manera compacta, es un complemento necesario para una visión como la histórica

que, por su linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada. Hemos visto que en la década de los setenta y en sus alrededores se produce una especie de eclosión de propuestas evaluativas, que tradicionalmente han venido siendo denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseños (Arnal y otros, 1992) de investigación evaluativa. Sabemos que existieron varias decenas de estas propuestas, pero muy concentradas en el tiempo, en la década citada. De hecho, el asunto de los propuestos modelos para la evaluación parece un tema prácticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o propuestas, salvo alguna excepción como vemos más adelante. A pesar de lo dicho, se sigue hablando de modelos, métodos y diseños en la literatura especializada, sobre todo buscando su clasificación de acuerdo con diversos criterios, origen paradigmático, propósito, metodología, etc. También en las clasificaciones, no sólo en los modelos, existe diversidad, lo que prueba que, además de dinamismo académico en el terreno de la investigación evaluativa, todavía existe cierta debilidad teórica al respecto. Nosotros ya hemos señalado con anterioridad (Escudero, 1993), que coincidimos con Nevo (1983 y 1989) en la apreciación de que muchos de los acercamientos a la conceptualización de la evaluación (por ejemplo, el modelo respondiente, el libre de metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que debería acarrear el citado concepto. Lo que un texto clásico en evaluación (Worthen y Sanders, 1973) denomina como «modelos contemporáneos de evaluación» (a los conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio Stake (1981) dice que sería mejor denominarlo como «persuasiones» mientras que House (1983) se refiere a «metáforas». Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse a concepción, enfoque o incluso método de evaluación. De Miguel (1989), por su parte, piensa que muchos de los llamados modelos solamente son descripciones de procesos o aproximaciones a programas de evaluación. DarlingHammond y otros (1989) utilizan el término «modelo» por costumbre, pero indican que no lo hacen en el sentido preciso que tiene el término en las ciencias sociales, esto es, apoyándose en una estructura de supuestos interrelacionales fundamentada teóricamente. Finalmente diremos que el propio autor del modelo CIPP, solamente utiliza esta denominación de manera sistemática para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando los términos de enfoque, método, etc., al referirse a los otros. Para nosotros, quizás sea el término enfoque evaluativo el más apropiado, aunque aceptemos seguir hablando de modelos y diseños por simple tradición académica. Nuestra idea es que a la hora de plantearnos una investigación evaluativa, no contamos todavía con unos pocos modelos bien fundamentados, definidos, estructurados y completos, entre los que elegir uno de ellos, pero sí tenemos distintos enfoques modélicos y un amplio soporte teórico y empírico, que permiten al evaluador ir respondiendo de manera bastante adecuada a las distintas cuestiones que le va planteando el proceso de investigación, ayudándole a configurar un plan global, un organigrama coherente, un «modelo»

científicamente robusto para llevar a cabo su evaluación (Escudero, 1993). ¿Cuáles son las cuestiones que hay que responder en este proceso de construcción modélica? Apoyándonos en las aportaciones de diferentes autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990), deben responderse y delimitar su respuesta al construir un modelo de investigación evaluativa, los aspectos siguientes: Objeto de la investigación evaluativa. 2) Propósito, objetivos. 3) Audiencias/implicados/clientela. 4) Énfasis/aspectos prioritarios o preferentes. 5) Criterios de mérito o valor. 6) Información a recoger. 7) Métodos de recogida de información. 8) Métodos de análisis. 9) Agentes del proceso. 10) Secuenciación del proceso. 11) Informes/utilización de resultados. 12) Límites de la evaluación. 13) Evaluación de la propia investigación evaluativa / metaevaluación. Para definir estos elementos hay que buscar, lógicamente, el apoyo de los diferentes enfoques modélicos, métodos, procedimientos, etc., que la investigación evaluativa ha desarrollado, sobre todo en las últimas décadas. Volviendo a los denominados modelos de los setenta y a sus clasificaciones, podemos recoger algunas de las aparecidas en la última década en nuestro entorno académico, apoyándose en distintos autores. Así, por ejemplo, Arnal y otros (1992) ofrecen una clasificación de lo que denominan diseños de la investigación evaluativa, revisando las de diversos autores (Patton, 1980; Guba y Lincoln, 1982; Pérez, 1983; Stufflebeam y Shinkfield, 1987). Esta clasificación es la siguiente : 1)

Tabla 1- Tipos de diseños de investigación educativa
Perspectiva Patton (1980) Objetivos Empírico-analítica Análisis sistemas Guba y Lincoln (1982) Objetivos Pérez (1983) Objetivos Análisis sistemas Método científico CIPP Susceptibles de complementarieda d Crítica artística Adversario UTOS UTOS Cronbach (1982) CIPP Crítica artística CIPP Crítica artística Stufflebeam y Shinkfield (1987) Objetivos Autores creadores Tyler (1950) Rivlin (1971) Rossi y otros (1979) Suchman (1967) Stufflebeam (1966) Eisner (1971) Contrapuesto Wolf (1974)

Humanísticointerpretativa Respondente Respondente Respondente Respondente Stake (1975 Parlett y Iluminativo Iluminativo Iluminativo Hamilton (1977) Sin metas Sin metas Democrático Sin metas Scriven (1967) MacDonald (1976) Por su parte. transacciones. que ellos denominan conductivista-eficientistas. resultados Centrados en logros de necesidades U (unidades de evaluación) T (tratamiento) O (operaciones) Técnico externo Técnico externo Técnico externo Técnico externo Tabla 3. Wolf (1974) Finalidad evaluativa Análisis de necesidades del cliente Opiniones para decisión consensuada Paradigma dominante Mixto Contenido de evaluación Todos los efectos del programa Rol del evaluador Evaluador externo de necesidades del cliente Cualquier aspecto Árbitro externo del programa del debate Mixto .Modelo conductista-eficientista Método/ autor Consecución objetivos Tyler (1940) CIPP Stufflebeam (1967) Figura (countenance) Stake (1967) CSE Alkin (1969) Planificación educativa Cronbach (1982) Finalidad evaluativa Medición logro objetivos Información para toma decisiones Valoración resultados y proceso Información para determinación de decisiones Valoración proceso y producto Paradigma dominante Cuantitativo Contenido de evaluación Resultados Rol del evaluador Técnico externo Mixto Mixto Mixto Mixto C (contexto) I (input) P (proceso) P (producto) Antecedentes. humanísticos y holísticos (mixtos). Una síntesis de estas clasificaciones es la siguiente: Tabla 2.Modelo humanístico Método/ autor Atención al cliente Scriven (1973) Contraposición Owens (1973). Castillo y Gento (1995) ofrecen una clasificación de «métodos de evaluación» dentro de cada uno de los modelos (paradigmas).

Stufflebeam ofrece una perspectiva más amplia de los . A continuación comentamos sucintamente estas visiones y los «modelos» que se adscriben a ellas. por Ralph Tyler y extensamente elaborada en el modelo CIPP (Stufflebeam y otros. El cambio de los alumnos. cuestionándose si tales objetivos cubren las necesidades que deben cubrir.Modelo holístico Método/ autor Evaluación respondente Stake (1976) Finalidad evaluativa Valoración de respuesta a necesidades de participantes Interpretación educativa para mejorarla Paradigma domiContenido de nante evaluación Cualitativo Resultado de debate total sobre programa Rol del evaluador Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Evaluación holística MacDonald (1976) Evaluación iluminativa Parlett y Hamilton (1977) Cualitativo Elementos que configuran la acción educativa Iluminación y comprensión de los componentes del programa Cualitativo Sistema de enseñanza y medio de aprendizaje También Scriven (1994) ofrece una clasificación de los «modelos anteriores». previamente a introducir su perspectiva transdisciplinar que luego comentamos. además de algunas más que denomina «exóticas» y que se mueven entre los modelos de jurisprudencia y de experto. Este autor identifica seis visiones o enfoques alternativos en la fase «explosiva» de los modelos. las decisiones acerca de un programa deben basarse en el grado de coincidencia entre los objetivos y los resultados.Crítica artística Eisner (1981) Interpretación crítica de la acción educativa Cualitativo • • • • Contexto Procesos emergentes Relaciones de procesos Impacto en contexto Provocador externo de interpretaciones Tabla 4. aunque no la hiciera explícita. La visión fuerte hacia la toma de decisiones (Visión A) concibe al evaluador investigando con el objetivo de llegar a conclusiones evaluativas que le ayuden al que debe tomar decisiones. 1971). Los que apoyan este enfoque se preocupan de si el programa alcanza sus objetivos. es el criterio de evaluación. Según el planteamiento tyleriano. pero van más allá. habitualmente el objetivo perseguido. A diferencia de Tyler. Esta posición es mantenida.

uno de los textos más utilizados de evaluación en el ámbito de las ciencias sociales (Rossi y Freeman. La visión de la descripción fértil.contenidos a evaluar. probablemente debido a su conexión académica con la historia. Sin embargo. pero no ofrece valoraciones al respecto Pero la forma más simple de la visión relativista (Visión C) es la desarrollada en el «modelo de discrepancia» de evaluación de Malcolm Provus (1971). 1989). evaluación de progresos y evaluación de resultados. planteando las siguientes fases: valoración de las necesidades y fijación del problema. Además. los que participan de la visión A proceden de un paradigma diferente. pero siguió sin incluir los términos de mérito. sin un juicio por parte del evaluador acerca de esos valores o alguna referencia a otros. Hace unos años Alkin (1991) revisó sus planteamientos de dos décadas atrás. proceso (P) que hay que seguir hacia la meta y producto (P) que se obtiene. completa (Visión D) es la que entiende la evaluación como una tarea etnográfica o periodística. la educación comparada y la administración educativa. tomó posteriormente una dirección diferente. contexto (C) donde tiene lugar el programa o está la institución. En cambio. Las visiones B y C son las posiciones de los científicos entroncados con una concepción libre de valores de la ciencia. La visión débil hacia la toma de decisiones (Visión B) concibe al evaluador proporcionando información relevante para la toma de decisiones. evaluación de la instrumentalización. Este modelo es muy cercano al control de programas en sentido convencional. pero es éste el que tiene que tomar las conclusiones evaluativas. uno de sus colaboradores en tal empresa. pero no le obliga a emitir conclusiones evaluativas o críticas a los objetivos de los programas. Las discrepancias son las divergencias con la secuencia de tareas proyectadas y la temporalización prevista. la toma de decisiones para la mejora de todas y cada una de las cuatro dimensiones antes citadas. valor o valía. se deja constancia de que el objetivo primordial de la investigación evaluativa es la mejora. planificación del programa. El representante teórico más genuino es Marv Alkin (1969). toma preferentemente esta perspectiva . que define a la evaluación como un proceso factual de recogida y generación de información al servicio del que toma las decisiones. inputs (I) elementos y recursos de partida. pero usando el marco de valores de los clientes. Estos son las cuatro dimensiones que identifican su modelo. La visión relativista (Visión C) también mantiene la distancia de las conclusiones evaluativas. De hecho. Guba. termina definiendo un Sistema de Información para la Gestión (Management Information System-MIS) para uso del que toma decisiones. Esta posición es lógicamente popular entre los que piensan que la verdadera ciencia no debe o no puede entrar en cuestiones de juicios de valor. tal como hemos visto al analizar la cuarta generación de la evaluación (Guba y Lincoln. es una especie de simulación de una evaluación. rica. Scriven (1994) nos dice que Stufflebeam ha seguido desarrollando su perspectiva desde que desarrolló el CIPP. El modelo de Alkin se conoce como CES (Centro para el Estudio de la Evaluación). en la que el evaluador . Esta visión y la anterior han sido el camino que ha permitido integrarse sin problemas en el «carro» de la investigación evaluativa a muchos científicos sociales. la filosofía de la educación. 1993).

una de descripción y otra de juicio. descripciones y estudio de casos. jueces e instrumentos. responsables y audiencias. holístico. enfatizando la comprensión. las normas. 1990) y presentar una amplia gama de opiniones o juicios. 9) Desarrollo de temas. poniendo la primera en las doce horas y siguiendo las siguientes fases. 2) Alcance del programa. el sentido de las agujas del reloj. De manera gráfica. ni siquiera en el marco de los valores del cliente como en la visión relativista. dirigido por Lee J. interactivo. la planificación y la mejora de los programas sociales a los que sirve. lo que se cree que debe ser. tiene algo de sabor relativista y a veces parece precursora de la visión de la cuarta generación. Se trata de una especie de versión naturalista de la visión B. para evitar el término rica. Esta visión ha sido defendida por Robert Stake y muchos de los teóricos británicos. Este modelo sugiere la «atención al cliente» propuesta por Scriven (1973). En la primera se recogen de un lado las intenciones y de otro las observaciones y. lo que se aprueba y los juicios. Estas fases son las siguientes: 1) Hablar con los clientes. 1967). que exige un método pluralista. Stake (1975a) propone las fases del método a modo de las horas de un reloj. elaborando dos matrices de datos. 7) Observadores. . Según Stufflebeam y Shinkfield (1987). Se centra en la observación. 11) Esquema para la audiencia y 12) Reunión de informes formales. este modelo hizo de Stake el líder de una nueva escuela de evaluación. proponiendo el método de evaluación de la figura (Stake. Stake. transacciones y resultados. valorando sus necesidades y expectativas. 1975 y 1975a). con la finalidad de ofrecer una visión completa y holística del programa y responder a los problemas y cuestiones reales que plantean los implicados. transacciones y resultados. que parece más evaluativa. Sus posiciones quedaban claramente establecidas en noventa y cinco tesis que han tenido una enorme difusión entre los evaluadores y los usuarios de la evaluación. El evaluador puede seguir las fases también en sentido contrario del reloj o en cualquier otro orden. como rostro o imagen total de la evaluación. El evaluador deberá interpretar las opiniones y diferencias de puntos de vista (Stecher y Davis. resta importancia a la orientación sumativa de la evaluación (decisiones externas sobre los programas y rendición de cuentas). En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos de vista y buscar la confluencia de las diversas perspectivas.informa de lo que ve sin intentar emitir afirmaciones valorativas o inferir conclusiones evaluativas. Recientemente se le ha denominado como visión de la descripción sólida. en lo observable. A mitad de los setenta. asumiendo que los objetivos del programa pueden modificarse sobre la marcha. en la segunda. fuerte. La visión del proceso social (Visión E) que cristalizó hace algo más de dos décadas alrededor de un grupo de la Universidad de Stanford. subjetivo y orientado al servicio. antecedentes. más que en la inferencia. 5) Cuestiones y problemas. es tayleriano en cuanto a concepción evaluativa centrada en los objetivos planteados. 4) Propósitos e intereses. en lugar de presentar sus conclusiones personales. 10) Validación (confirmación). Esta gira en torno a los tres componentes. 8) Antecedentes. 3) Panorama de actividades. flexible. en su primera etapa. Cronbach (1980). 6) Datos para investigar los problemas. Stake se aleja de la tradición tayleriana de preocupación por los objetivos y revisa su método de evaluación hacia un planteamiento que él califica como «respondente» (Stake.

La evaluación iluminativa (Parlett y Hamilton. varios tratamientos y varias operaciones. etc. se trata algo así como de un intermediario informativo (Scriven. Ya hemos visto anteriormente que esta visión rechaza una evaluación orientada a la búsqueda de calidad. • Tratamiento (T) de la evaluación. incluido el suyo. Schuman (1967) ofrece un diseño evaluativo basado en el método científico o. 1980). partidarios y adversarios. pero se distinguía sobre todo por su énfasis de las dimensiones más éticas y argumentales de la evaluación. En una investigación evaluativa concreta se pueden dar varias unidades. así como para la elaboración de conclusiones. De esta revisión de Scriven quedan al margen algunas posiciones evaluativas tradicionalmente recogidas y tratadas por los analistas. • Contexto en el que tiene lugar el programa y su evaluación. se suele denominar a su enfoque como evaluación sin metas. también denominada holística. para proporcionar información pertinente a quienes toman decisiones. discutible y no objetivo. 1975 y 1981) plantea la evaluación en términos similares al proceso de crítica artística. quizás motivado por la ausencia de estas facetas en los planteamientos de Cronbach y sus colaboradores. Esto significa. mérito. con la pretensión de iluminar sobre un complejo rango de cuestiones que se dan de manera interactiva (Fernández. y favorece la idea de que ello es el resultado de la construcción por individuos y la negociación de grupos. Ernie House (1989). El propio Scriven (1967 y 1973) proponía hace años centrar la evaluación en la atención al cliente y no tanto en las metas previstas. Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos: • Unidades (U) que son sometidas a evaluación. dentro de un universo UTO de situaciones admisibles. . al menos. Así por ejemplo. descriptivo e interpretativo. también marcó el entronque social de los programas. según Scriven. • Operaciones (O) que lleva a cabo el evaluador para la recogida y análisis de datos. El evaluador determina el valor o mérito del programa para informar a los usuarios.En cuanto a los contenidos de la evaluación. supone la participación colaborativa de los implicados. valor. individuos o grupos participantes. puesto que frecuentemente los logros no previstos son más importantes que los que figuran en la planificación del programa.. Lo mismo le ocurre a todo trabajo análitico como el análisis filosófico. La visión constructivista de la cuarta generación (Visión F) es la última de estas seis visiones que describe Scriven (1994). 1977) tiene un enfoque holístico. Por ello. un teórico y un práctico de la evaluación bastante independiente de corrientes en boga. que el conocimiento científico de todo tipo es sospechoso. Eisner (1971. siendo mantenida por Guba y Lincoln (1989) y seguida por muchos evaluadores americanos y británicos. 1991). Scriven apunta que el propio Guba ha sido siempre consciente de las potenciales «autocontradicciones» de su posición. La evaluación democrática de MacDonald (1971 y 1976). Owens (1973) y Wolf (1974 y 1975) proponen un método de contraposición o discusión que sobre un programa llevan a cabo dos grupos de evaluadores. en definitiva varios (uto). en alguna variación o adaptación del mismo.

la investigación evaluativa es mucho más que la evaluación de programas e incide en procesos. y la metaevaluación de todo ello. es transdisciplinar. se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation Thesaurus. Se trata también de una visión generalizada. En tal sentido. del personal o de los productos investigados. representada fundamentalmente por el modelo CIPP de Stufflebeam y sus planteamientos. Scriven quiere extender esta visión con una visión o modelo que denomina transdisciplinar y que él califica como significativamente distinta de la aludida visión A y radicalmente diferente de las restantes. En definitiva. d) Los distintos campos de la investigación evaluativa tienen muchos b) c) . los rendimientos. independientemente del tipo y del estado general del paciente. Esta visión es objetivista como la A y defiende que el evaluador determine el mérito o el valor del programa. su preocupación por el análisis y mejora se extiende a muchas disciplinas. la investigación evaluativa es una disciplina que incluye sus propios contenidos y los de otras muchas disciplinas. que es la que tienen los evaluadores trabajando con sus programas. de la misma manera que los médicos trabajan con los pacientes. A partir de aquí. Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prácticas que resultan de ellas. la perspectia transdisciplinar se orienta hacia el consumidor. instituciones y otros muchos más objetos. también se produce información valiosa para el gestor que decide y se pueden analizar los productos de un programa o institución a la vista de sus objetivos. 1991). Scriven (1994) analiza las seis visiones críticamente y se muestra más cercano a la visión A. los proyectos. no justamente una visión general. los productos. No se trata de una orientación exclusiva hacia el consumidor. más que hacia el gestor o intermediario. la investigación evaluativa tiene dos componentes: el conjunto de campos de aplicación de la evaluación y el contenido de la propia disciplina. Las investigaciones evaluativas se mueven desde niveles muy prácticos hasta el nivel conceptual. esta visión generalizada significa que: a) Los campos distintivos de aplicación de la disciplina son los programas. se debe establecer de manera explícita y defender la lógica utilizada en la inferencia de conclusiones evaluativas a partir de las premisas definicionales y factuales. Esta posición no sólo ve legitimidad en la emisión de conclusiones evaluativas por parte del investigador. el personal. En la perspectiva transdisciplinar. que incluye la generalización de conceptos en el ámbito del conocimiento y la práctica. la gestión. En segundo lugar. haciéndolo lo mejor posible. Así mismo. la visión fuerte sobre la toma de decisiones. sino que ve necesidad de hacerlo en la gran mayoría de las ocasiones. y que el bien común es la primacía de la evaluación. pero sí la consideración primera del consumidor como justificación del programa. pues dice que es la más cercana de todas a la visión del sentido común. Desde esta perspectiva. Algo parecido a lo que ocurre a disciplinas como la estadística y la medición.siendo el contraste de opiniones de los implicados el elemento evaluativo primordial. De manera más detallada.

S. de centros. McLaughlin. Anderson. Baker. Alkin. Berk. pero sí tener un conocimiento cabal. tienen muchos puntos en común. L. The Science Teacher. Barbier. M. Evaluation and education at quarter century (pp.niveles de interconexión y solapamiento. que todas las visiones tienen puntos fuertes y que en todo caso. donde existen distintos tipos y distintas audiencias y. R.: Allyn and Bacon Alkin. además. Fundamentos y Metodología. de personal. de hecho. (1983). 27-30. Ca: Jossey-Bass. (1967). J. M. J. J. La evaluación de programas. y Cook. Evaluation theory development. (1968). etc. Arnal. las consecuencias. Boston. etc.. Esta perspectiva transdisciplinar de la investigación evaluativa de Scriven (1994). La lógica de la síntesis de resultados. por supuesto. Behavioral Objectives in curriculum design: A cautionary note. The profession and practice of program evaluation. son los usuarios en el sentido de Scriven. A. y Phillips (Eds. (1969).). sino que. J. Principles of Tests Measurement. Nosotros no tenemos unas posiciones contrarias a las otras visiones en la misma medida que las tiene Scriven y. M. consideramos desde una posición pragmática. Barcelona: Paidos. pero nos parece que la investigación evaluativa hoy en día tiene una orientación prioritaria más plural que la defendida por este autor. San Francisco. Sin embargo. Evaluation Comment. (1993). Baltimore: The Hopkins University Press. 1. S. Investigación educativa. 1996). (1992). Evaluating Pupil Growth. (1969). Del Rincon. Pensamos que esta orientación debe integrarse dentro de una orientación a los implicados. 2. R.. Barcelona: Labor Atkin. M. (Ed. Curriculum evaluation. no es necesario ser un gran especialista. Review of Educational Research. 39. una muy importante. 339-358. y la correcta ubicación en el proceso de muchas técnicas auxiliares en las que. En M. . al usuario en sentido estricto. y Ball. La evaluación en los procesos de formación. D. (1991). El cuarto elemento distintivo de la visión transdisciplinar de la evaluación es que se trata de una visión técnica.91-112). D. La evaluación no sólo necesita el apoyo técnico de otras muchas disciplinas.. Chicago: NSSE/ University of Chicago . 35. B. Ma. coincide en gran medida con los planteamientos que de la misma hemos defendido en otros momentos (Escudero. S. Educational evaluation methodology: The state of the art. aportan algo útil para la comprensión conceptual y el desarrollo de la investigación evaluativa. Evaluation theory development: II. probablemente. Referencias bibliográficas Ahman. A. sí que pensamos que esta moderna visión de Scriven es sólida y coherente y ampliamente aceptada en la actualidad. tiene su propia metodología. M. y Latorre. 2-7. Una crítica que podría hacerse a este planteamiento de Scriven está en el excesivo énfasis relativo de la orientación al cliente.) (1981).

Buenos Aires: Troquel. L. F. Teachers College Record.133-137). Cronbach. E. P. Madrid: Editorial Universitas. Hastings.Medina y L. Taxonomy of educational objectives Handbook I. (1972). R. La evaluación en la educación secundaria. (1989). Madrid: Anaya. (1971). Bloom. D. W. L. McKay. (1963). Phillips. Revista de Investigación Educativa. B. (1975). H. Investigación evaluativo. (Ed.Blanco. 21-56. Towards reform in program evaluation: Aims. (1977).. 7. Salamanca: Amasú Ediciones.R.. Chicago: Jossey-Bass.D. W. (1956). H. y Weiner.. En Arturo De la Orden. Investigación educativa. Hastings. Barcelona: Universidad de Barcelona. Hambron. R. & Pease. The role of experience in formulating theories of evaluation practice. Hill. R. F.. A. F.F. Proyecto docente sobre técnicas de medición y evaluación educativas. Designing evaluations of educational and social programs. (1994). y Krathwohl.S. Cronbach. S. Bonboir. Course improvement through evaluation. M. L. Fundamentos de la medición educacional. L. Wise. Paris: PUF. Buenos Aires: Guadalupe. New York: Davis. S. En A. Coffman. En R. J. De La Orden. Hess. 672-683. Ebel. Hornick. E. Eisner. New York: MacMillan.D. methods and institutional arrangements. S. F. J. A. (1967).H. En E.. Cronbach. J. Darling-Hammond. y Suppes. D. (1995).. 1. A History of Psychological Testing. (1971).C. New York: McGraw-Hill. De Miguel.. Educational objectives: Help or hindrance?. Dornbusch. Washington . S. B. (1980).R. Thorndike (Ed.S. Modelos de investigación sobre organizaciones educativas. J. Furst.L.). San Francisco: Jossey-Bass. 35-55.. AE. Engelhaut. Castillo.J.C.25-69). Evaluación de programas educativos. S. Willar (Coord. L. T. Dubois.) New directions in educational evaluation (pp.203-253). R. Mexico: Trillas. B. (1977). Evaluación del aprendizaje. Essay examinations. Chelimsky. Enfoques y principios teóricos de la evaluación.) Educational Measurement. House (Ed.. (1986). Boston: Allyn Bacon. y Madaus G. La Docimologie.). DC: American Council on Education.. Modelos de evaluación de programas educativos. Bloom. A. American Journal of Evaluation 19. Bloom. (1982).M. Research for tomorrow's schools: Disciplined inquiry for education. SR (1989). Cronbach. Cabrera. centros y profesores (pp. M. (1970). 64. S. S. L. Cognitive domain. Diccionario de Ciencias de la Educación (pp.. Handbook on formative and summative evaluation of student learning. (1998). E. P. (1969). The School . y Gento. W. 13.. Walker. M. D. E. (1985). Y Madaus. Teacher evaluation in the organizational context: A review of the literature. Carreño. London: The Falmer Press.. TH. J. S.

Madrid: UPCO. Instructional and expressive educational objectives: their formulation and use in curriculum. D. 18. W. W. Eisner. (Ed. H. B.). G. Emerging models for educational evaluation. Eisner. 15. Eisner. Medina (Coord. Escudero. The discovery of grounded theory. T. (1989). y Lincoln. The perceptive eye: Toward the reformation of educational evaluation. Glaser. Actas de las III Jornadas Nacionales de Didáctica Universitaria «Evaluación y Desarrollo Profesional» (pp. E. En A. Theoretical sensitivity. R. Las Palmas: Servicio de Publicaciones. Stanford. London: The Falmer Press. Guba. (1981). Ca: Stanford University . J. Effective evaluation. Gagne. G. Universidad de Las Palmas. (1991). Fernández. 75. Y. (1985). Madrid: CSIC. (1978). En J. J. Teoría y métodos de evaluación. M. E.Review. (1992). G. y Lincoln. (1982). (Dir. Las condiciones del aprendizaje. E. y J. Madrid: Aguilar. M. (1963). Fourth Generation Evaluation. S. Zaragoza: Universidad de Zaragoza. Gil.En Encyclopedia of Educational Research. (1971). La «Ratio Studiorum». L. Theory of mental tests. Ca: Sociology Press. Escudero. Chicago: AERA.). (1994). New York: MacMillan. (1981).I Carrobles. E. Criterion-referenced measurement. E. New York: McMillan. San Francisco: Jossey Bass Publishers. Guba. Empowerment evaluation. (1950). K. Proyecto docente e investigador. School Review. 1-18). W. Perspectivas históricas de la evaluación conductual. El sistema educativo de la Compañía de Jesús.) (1965). (1996). R. Madrid: Cincel. . y Strauss. A. Ca. En R.A. Eisner. Eisner. B. Evaluación conductual. S. R. T. 1-15. Enfoques modélicos en la evaluación de la enseñanza universitaria. New York: Wiley Hambleton. Instructional objectives (pp. (1985). W. Glaser. (1985). Instructional technology and the measurement of learning outcomes: some questions. E. 1. Chicago: Aldine. Newbury Park. Stanford. G. The art of educational evaluation. R. Fernández Ballesteros. N. Mill Valley. Ca: Stanford Evaluation Consortion. 5-59). (1975). 2. Fetterman. Glaser. Measurement and evaluation in teaching. E. Washington: National Education Association. Fernández. 250-260. (1969. (1973). The methodology of qualitative evaluation: the case of educational connoisseurship and educational criticism. Fernández de Castro. R. 519-521. American Psychologists. (1967). La evaluación de la calidad docente. Evaluation Practice. (1993). Y. La enseñanza programada. Gronlund.). Teaching machines and programmed learning.: Sage Publications Gullicksen. E. Madrid: Ediciones Pirámide. Glaser. E. Popham (Ed. (1971).

Macdonald. Tawney (Ed. School evaluation using the CASE-IMS model and improvement process. D. 55-67. Standards for evaluations of educational programs.). (1964). San Francisco: Jossey-Bass. En D. R.: Sage. Lincoln. (1982). S. (1994). (1989). S. Evaluation Models. Tyler. Jones Publishing Company. E. R. Design and Analysis of Experiments in Psychology and Education. (1985). E. Worthen y J. The evaluation of the Humanities Curriculum Project: a holistic approach. y Guba. Keefe. Joint Committee on Standards for Educational Evaluation (1981. Bogotá: Universidad Pontificia Javierana. Kidder. Evaluation and the control of education. en D. (1993). Ohio: Charles A. A. Ca. Hernández. En House. Evaluation at the local level.). Sanders. Viewpoints on Educational . B. The personnel evaluation standards. Lincoln. Ma. CA: Sage. 20.: Jossey-Bass House. Collins. Williams (Ed. Krathwohl. La evaluación educativa. (1971). R. and materials. The Journal of Educational Research. Criteria for assessing naturalistic inquiries as products. y Guba. Murcia. G. Ca. R. M. B. y Guba. y. F. 3. Manual de evaluación formativa del currículo. Macdonald. Educational Evaluation: Theory and Practice. B. L. Worthington. R. y. (1981).: Sage. Newbury Park. Paper presented at the American Educational Research Association. Boston. En M. Blomm. Proyecto docente e investigador. London: McMillan. J. (1983). (Eds. (1983).1. projects. LA. CA. Lincoln. Kellaghan. 89.: McGraw-Hill. Theory into Practice. Curriculum evaluation today: trends and implications. Horowitz. G. F. y Masia. Kogan.). But is it rigorous? Trustworthiness and authenticity in naturalistic evaluation. y. Brewer y B. A 75-year legacy on assessment: Reflections from an interview with Ralph W. New York. B.) (1989). Pittsburg: University of Pittsburgh Press.. Philosophy of evaluation. C. (1976). New Orleans. E. R. Evaluating with validity. Taxonomy of educational objectives. y otros (1991). L.) (1976). M.. Qualitative research and quasi-experimental frameworks. 125136. Joint Committee on Standards for Educational Evaluation (1988). E. (Ed.B. G. San Francisco. R. E. House. F. Defining educational objectives. Beverly Hills. G. H.. S. 163-169. Lindvall. (1995). (1988). Studies in Educational Evaluation. 68-75. How we think about evaluation. Lewy. E.S. Handbook II: Affective domain. San Francisco: Jossey-Bass. T. (Ed. Naturalistic evaluation.Hammond. R. B. E.) (1964). (1986). Bogotá : Voluntad/Unesco. (Ed. 10. 2. Scientific inquiry and the social sciences. Evaluating higher education. D. E.: Houghton Mifflin Company. Lindquist. Naturalistic inquiry. New Cork: Davis McKay. Newbury Park. (1953). London: Jessica Kingsley Publishers. Madaus. En B.

D. C. y Michael. Beverly Hills. Norris. R.). N. (1983). En Hamilton D. 53. Metfessel. University of East Anglia . (1978).). Paris: PUF. Mary Anne Bunda. The conceptualization of educational evaluation: An analytical review of the literature. Beyond method. La evaluación en el aula universitaria. American Journal of Evaluation. y Hamilton . Palo Alto. School of Education . Mann. Ca. (1977). (1967). (1983). Preparing instructional objective. October. M. México: Trillas. P. y otros (Eds. Mager.and Human Services Evaluation. A paradigm involving multiple criterion measures for the evaluation of effectiveness of school programs. Nowalowski. R. Morgan. Barcelona: Universidad de Barcelona. School Evaluation: The Politics and Process. Berkeley: McCutchan.San Francisco: Jossey-Bass. Vocabulaire de la psychologie.. Inclusive evaluation: Implications of transformative theory for evaluation. D. Beverly Hills. 15-29. 1.: Sage Pérez. R. W. D. La enseñanza: su teoría y su práctica (pp. (1999). (1975). 931-943. Pieron. (1968). Hingham . En E. (1980). Mass. Modelos contemporáneos de evaluación. Evaluation in education. 117-128.: Kluwer-Nijhoff Publishing. H. January. W. 1-14. Educational evaluation by adversery proceedings. G. Nevo. En J. . Gimeno y A. Q. Journal of Educational Research. Columbus. H. CA. M. Madrid: Akal Phillips. Boston Grammar and Writing Schools. 20. Tesis doctoral. New directions in educational evaluation. Metaevaluación de necesidades educativas: Hacia un sistema de normas. S. (1986). The conceptualization of educational evaluation: An analytical review of the literature. London: MacMillan. A.R. Russell Working (1985).: Fearon. Qualitative Evaluation methods. Owens. Psychometric Theory. Jeri. (1991). Madrid: Universidad Complutense. Beyond the numbers game. (1989). Mateo. Patton. III. Advances in Psychological Assessment. (1962). (1974). Mager. Martínez de Toda. Zaragoza: ICE-Universidad de Zaragoza. y otros (1993). 426-449). F. Mateo. (1993). London : Kogan Page/CARE. (1973). (1983). Common School Journal. Boston: Kluwer-Nijhoff . 19. Educational and Psychological Measurement. Proyecto docente e investigador. J. Mccall. C. 27. T. Review of Educational Research. (1920). M.). En E. J. House (Ed. Nevo. 7. J. M. Parlett. A new kind of school examination. vol. Pérez. McReynold. R. B. Nunnally. A. Ohio: Merril. R. 1. Mertens. House (Comp. D. (1973). N. New York: McGraw Hill. London : The Falmer Press. A Handbook of Educational Variables. Evaluation as illumination: A new approach to the study of innovative programmes. (1845). J. F. Análisis de metas. Ca: Sage. Understanding educational evaluation.

Rutman. Scriven. (1993). M. Oviedo: ICE-Universidad de Oviedo. Newbury Park .). Beverly Hills . G. Universidad de Cantabria. Aula Abierta Monografías 25. Encyclopedia of Educational Evaluation. AERA Monograph 1. M. Rutman. 23. 1-4. En S. Russell. B. J. y Mowbray. (1960). (1997). (1998). J. H. J. Prose and cons about goal-free evaluation. Problemas y técnicas de la evaluación educativa. H.: Prentice Hall. (1967). Salvador. School evaluation: The politics and process. Popham. J. Rossi. y otros (1979).: McCutchan Publishing Co. W. N.Pieron. S.: Sage.: Prentice Hall. (1971). M. A. Fourth generation educational evaluation: The impact of a post-modern paradigm on school based evaluation. W. Ca. Rosenthal. y Baker. Washington. M.. y Willinsky. Popham. Scriven.: Sage. 3. P. Anderson.: Sage Scriven. 20. Berkeley.(pp. E. E. J. Beverly Hills. Englewood Cliffs. Ca. Goal-free evaluation. (1970). Beverly Hills . Popham. Rivlin. Englewood Cliffs. Establishing instructional goals. Scriven. Rossi. Madrid: Ediciones Fas. M. Ca. En Perspectives of Curriculum Evaluation. M. 1. Systematic Instruction. W.) (1984). 1. 57-70. American Journal of Evaluation 19. R. Berkeley.C. y otros (Eds. San Francisco: Jossey Bass Publishers. Planchard. Evaluation: A Systematic Approach. A. (Ed. P.: Sage. Evaluation history. Scriven. T. Evaluación basada en criterios. (1992). (1971). Ca. Madrid: Anaya.: Sage. La investigación pedagógica.: Brookings Institute. Examens et Docimologie. Kalamazoo. D. Evaluation as a discipline. Paris. (1974). Ca. Popham. CA. Ca.: McCutchan. 39-83). Evaluation Thesaurus. L. (1969). 147-166. y Freeman. Systematic thinking for social action. Chicago : Rand McNally and Company. L. (1970).: Center for Research on Educational Accountability and Teacher Evaluation. L. Discrepancy evaluation. Scriven. Evaluation research methods: A base guide. Ca. The methodology of evaluation. Beverly Hills. Minimalist theory: The least theory that practice require. (1991. Understanding program evaluation. Duties of the teacher. PUF. N. Proyecto docente. Studies in Educational Evaluation. (pp. Evaluation: A systematic approach. Provus. En E. J. M. y otros (1995). NJ. Rodríguez. (1973). M. Evaluación de los aprendizajes. 319-328). Mi. House (Ed. The logic of evaluation. (1983). H. (1991a). Studies in Educational Evaluation. L. W. Scriven. . (1976). (1980).: Edgepress Scriven. H..). (1980). (1983). Inverness . Madrid: Magisterio Español. 3. (1994). 187-199. For educational program improvement and assessment. E. Evaluation Comment. M. M.

L. Studies in Educational Evaluation. N. 12. Stufflebeam. 16. Conflicts between standards-based and postmodernist evaluations: Toward rapprochement. M. Quieting reform. (1990). Setting standars for educational evaluators. 523-540. R. R. Gephart. N. Stufflebeam. Stake. (1999). Using profesional standards to legally and ethically release evaluation findings. Program evaluation: particularly responsive evaluation. L. Consultado en www. D. Stake. 2. D. D. Smith. 287-296. R. D. Stacher. Appraising and recording student progress. J. 4. L. WJ. 3. Studies in Educational Evaluation. 22. Stufflebeam. Teacher College Record. 22. (1994). public schools. 325-334. V. Illinois : F. (1990).Smith. 5.: .edu/evalctr/checklists/ el 15 de Diciembre de 2002. A theoretical stament of responsive evaluation. H. A. D. A. R. Guidelines for developing evaluation checklists. Evaluating professional support personnel in educational settings. A depth study of the evaluation requeriment. B. WJ. L. Introduction: Recommendations for improving evaluations in U. Barcelona: Paidos/MEC. Suchman.wmich. Stufflebeam. E. (1942).: Sage. Assessment of person. 5. 121-134. L. M. University of Western Michigan. Foley. The metaevaluation imperative. (1981). E. y Davis. Newbury Park. 183-209. y Shinkfield. Peacock Publishing. New York : Russell Sage Foundation. (2001).. 3-21. Studies in Educational Evaluation. N. E. 3. Ca. 25. R. Guía teórica y práctica. (1987). Stufflebeam. (1986). (1975b). D.J. Stake. E. (1967). Evaluating the arts in education: A responsive approach. (1977). y Haver. R. Ca: Sage. Theory into Practice. Stake. (1976). E. E. M. (2000). Merriman. Investigación y desarrollo del curriculum. Itasca. Evaluación sistemática. Evaluative Research: Principles and Practice in Public Service and Social Action Programs. D. D. L. 68. R. E. 3. (1967). Stufflebeam. EG. Englewood Cliffs. Stufflebeam. The applicability of selected evaluation models to evolving investigative designs. W. (1998). Stake. (1984). 489-500.. Stufflebeam. (1991). Occasional Paper. D. Journal of Personnel Evaluation in Education. D. Madrid: Morata. L. Urbana: University of Illinois Press. R. L. y Tyler. Evaluation News. 148-152. 20. RL. (1975a). Stenhouse. 2 . 19-22. Stake. E. Guba. S. L. Sunberg. How to Focus on Evaluation. A. y Helm. 1. Educational Evaluation and Decision-making. Studies in Educational Evaluation. American Journal of Evaluation. E. W. Hammond. Ohio: Merril . The countenance of educational evaluation. Stronge. New York: Harper & Row. J. L. Newbury Park. MM (1971). HO & Provus. (1966).

57. J. W. L. TO KNOW MORE / PARA SABER MÁS This article has been cited in. Weiss. Chicago: University of Chicago Press . Ohio: Charles a. La evaluación de los objetivos. J. México: Trillas. A. W. (1962). H. Construcción histórica del concepto de calidad de la educación. (1975). 1. Theory into Practice. R.. (1904). P. Phi Delta Kappa. 20. New York: Harcourt Brace . T. Fundamentos psicológicos del aprendizaje y la enseñanza (pp. y Sanders. AERA Monograph Series Curriculum Evaluation. Zeller. (Ed. E. L. 113-137. Madrid: Anaya. Chicago: University of Chicago Press . Weiss. Wolf. (1967). Curriculum development. H. Worthen. XXX.. (1993). y Haertel. The International Encyclopedia of Educational Evaluation. dissertation. Chicago: Rand McNally. Wilson. W. R. / Este artículo ha sido citado en. Revista de pedagogía pp. New York: Teacher College Press. J. (1973). (1998).. The changing face of educational evaluation. An accountability system for school improvement. R. Studies in Educational Evaluation. J. y Sanders. R. 21-33. 1.).. E. Trial by jury: a new evaluation method. W. 19. Changing concepts of educational evaluation.). (1987). Paper presented at the annual meeting (April) of the AERA. (1991). R. (1994). G. * Bustos.. Thorndike. The citizen as jurist: A new model of educational evaluation. J. Webster. Métodos para determinar la eficiencia de los programas de acción. Educational Evaluation: Theory and Practice. 3-12. Stack (Comp. H. GA.. Atlanta. 1. Educational evaluation: New roles. Columbia University . 4.. (1978). Webster. W. E. Mendro. Tyler. . Effectiveness indices: A «value added» approach to measuring school effect. Indiana University. Jones Publishing Company. En J. J. Worthington. (1950). H.Prentice Hall. Taba. (1974). Tyler.pdf . Wolf. Wilson (Ed.. A rethoric for naturalistic inquiry.cl/revistas/documentos/Const. C.9-16. B. An Introduction to the Theory of Mental and Social Measurements.[Párrafo añadido el 16 de Marzo de 2007] . R. D. 549578). R. Walberg. R. Investigación evaluativa. Have we learned anything new about the use of evaluation?. Perspectives of curriculum evaluation. R. Worthen. C.) (1969). C. C ().. Tyler. Ph. D. En R. B. L. (Ed. 185-187. Citizen Action in Education. Theory and practice. Basic principles of curriculum and instruction. y Almaguer. 1. M. N. R.L. Oxford: Pergamon Press. R. A. American Journal of Evaluation. R. Fernández Chávez. y Edwards. (1983).O. http://www.fide. new means.) (1990).

(2006).cl/scielo. [Párrafo añadido el 16 de Marzo de 2007] González Pérez. [Párrafo añadido el 16 de Marzo de 2007] * * * * * * * . Arango-Córdoba A.htm . http://www.P.htm. Franklín.unirioja. [online]. Piedra Salomón. José Ángel (2006). http://www. Tarapacá. (2003)..edu/epaa/v11n46. [Párrafo añadido el 16 de Marzo de 2007] García Landa.cl/ofem/recs/anteriores/vol312006/art3106a. M. Claves identificativas de la investigación evaluativa: análisis desde la práctica.php?script=sci_arttext&pid=S071813372005000100002&lng=es&nrm=iso. Vol. 8-9. [Párrafo añadido el 16 de Marzo de 2007] Gámez Requena. (2004). Salud Publica Mex. Leal Labrada..php.rimed.es/servicios/sp/ej/contextos/infos/2091397.udec. Un metamodelo OLAP para la evaluación de ambientes tel. [Párrafo añadido el 16 de Marzo de 2007] Peñaranda-Correa F. Education Policy Analysis Archives. La nueva concepción de la evaluación de aprendizajes en la educación de las ciencias de la salud.13. L. 44-45. (2006). Bastidas-Acevedo M. http://epaa. J. Revista de Educación en Ciencias de la Salud (RECS). Márquez. C. Rev. A. Escobar-Paucar G. (2006). A bibliography of literary theory. 6 (1). . Usabilidad: la evaluación de los servicios en el entorno Web . . Contextos Educativos. 2. T (2005-2006). Disponible en http://www2.cu/revista/61/index .pdf .1 [citado 08 Enero 2007]. Ignacio. 48:229-235. 14(5) .mx/salud/48/483_6. Osvaldo.Univ. Gustavo (2006). 11(46). Ciencias Pedagógicas. [Párrafo añadido el 16 de Marzo de 2007] Escudero. 3.scielo. Yanelis.sld.pdf. 2005. Index Enferm Digital 2004.9-20.html . & Barrenetxea Ayesta. [Párrafo añadido el 16 de Marzo de 2007] Ortiz. vol.* Cardona Rodríguez. [Párrafo añadido el 16 de Marzo de 2007] Torres Fernández. Yorbelis .unizar. Las tecnologías de la información y la comunicación y los indicadores de evaluación universitaria en España. Yelina y Kourí Cardellá.es/departamentos/filologia_inglesa/garciala/bibliography. ISSN 0718-1337. Análisis integral de las prácticas pedagógicas de un programa educativo en Colombia. p. Marín Milanés.asu. Fac.insp. A.Acimed.J. abr. Rosell León. [Párrafo añadido el 19 de Mayo de 2004] * Cockbaine O. http://cied. Juan y Casas R. no. Ing. Disponible en http://www. Evaluación de los programas de promoción de la salud para inmigrantes. Las investigaciones sobre evaluación educativa en Cuba. 179-199.com/indexenfermeria/44revista/44_articulo_51-55. Torres-Ospina JN.index-f. Disponible en http://bvs.cu/revistas/aci/vol14_5_06/aci10506. Disponible en la World Wide Web: http://www.. n.C. 11th online edition http://www. criticism and philology.

el XX. of intense development of evaluation in education] Authors / Autores Tomás Escudero Escorza Review / Revista ELectrónica de Investigación y EValuación Educativa (RELIEVE). n.ABOUT THE AUTHORS / SOBRE LOS AUTORES Tomás Escudero Escorza (tescuder@posta. Program Evaluation.es). Publication Date: 2003 Fecha de Febr. Catedrático del área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Zaragoza. Investigación evaluativa.es/RELIEVE/v9n1/RELIEVEv9n1_1. Evaluation.es/RELIEVE Dirección Language / Español (Title. 9. Un siglo. n.htm.uv. particularmente sobre evaluación institucional. Consultado en (poner fecha). Desde los tests hasta la investigación evaluativa actual. Es miembro de la Comisión de Coordinación Técnica del Plan de Calidad de las Universidades. 1. Revista Reference / Referencia Title / Título ELectrónica de Investigación y EValuación Educativa (RELIEVE). Métodos de Evaluación.1 . Test. 1 Revista 1134-4032 ISSN Publication date / 2003 (Reception Date: 2003 January 10. Evaluación. Evaluation Methods. One century. Formative Evaluation Summative Evaluation. Evaluation Research. Tiene un gran número de trabajos y publicaciones sobre evaluación educativa. el XX. v. Buscar otros artículos de este autor en Scholar Google ARTICLE RECORD / FICHA DEL ARTÍCULO Escudero. de intenso desarrollo de la evaluación en educación. Se analizan los principales propuestas teóricas planteadas. n. 9. Evaluación Sumativa. the XXth. Un siglo. Testing. Evaluación de Programas Keywords Descriptores Institution / Universidad de Zaragoza (España) Institución Publication site / http://www.unizar. v. Evaluación Formativa. de intenso desarrollo de la evaluación en educación. 27 ) publicación Abstract / Resumen This article presents a review and state of art about development in educational evaluation in the XXth century.uv.. [ From tests to current evaluative research. Tomás (2003). http://www. The main theoretical proposals are commented Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. abstract and keywords in english) Idioma Volumen 9. Desde los tests hasta la investigación evaluativa actual.

número y dirección electrónica del documento). Coll (1987) considera que el cómo evaluar va unido al cómo enseñar. De allí que la evaluación podrá verse como un proceso constructivo integrado al quehacer educativo. por cuanto ambos procesos se realizan simultáneamente en el aula y no de forma separada. inmersa en una crisis de valores. el Plan de Acción del Ministerio de Educación.es Programa de Estudio de Educación Básica Información General Evaluación La propuesta de evaluación de los aprendizajes en la primera Etapa de Educación Básica se enmarca dentro de los principios. se observa una educación ajena a este . y Modelo Curricular planteado.© Copyright 2002. number and electronic address of the document). RELIEVE. la práctica pedagógica y el proyecto pedagógico de aula y plantel. Reproduction and distribution of this articles it is authorized if the content is no modified and their origin is indicated (RELIEVE Journal. ARGUMENTACIÓN TEÓRICA En una sociedad convulsionada como la nuestra. iluminativo e integrado a los procesos de enseñanza y de aprendizaje. negociado. volume. [Principal] [La Revista] [Artículos publicados] [Publicar en RELIEVE] [Home Page] [ About us] [ Published Articles] [To publish in RELIEVE] Revista ELectrónica de Investigación y EValuación Educativa http://www. volumen.es/RELIEVE email: relieve@uv. Compromiso y Transformación". Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE.uv. la cual es concebida como un proceso democrático. que ha provocado una ruptura ética en los individuos y desintegración de las comunidades. respondiente. está sustentada teóricamente en la cuarta generación de la evaluación. propósitos y objetivos del Proyecto Educativo Educación Básica: "Reto. en el que se contemplan diversas dimensiones: evaluación del aprendizaje en los alumnos. RELIEVE. © Copyright 2002.

. intensiva. El docente debe provocar y planificar las condiciones óptimas para que se produzcan los encuentros entre él. el objeto de conocimiento que constituye el contenido del saber y el profesor que enseña con el propósito de favorecer el aprendizaje de los alumnos. Esto supone el uso de nuevas estrategias y actividades que tomen en cuenta al niño como centro del saber. a fin de favorecer una verdadera enseñanza y la construcción del saber por parte del niño. autónoma e implica que el alumno esté en constante interacción con el objeto de conocimiento. al maestro como mediador y a la escuela en integración con su comunidad. continua. orientar y dirigir las experiencias del trabajo reflexivo de los alumnos atendiendo a hechos y valores de sus culturas y de sus vidas.problema.La enseñanza es concebida como un proceso intencional. según lo postulado por Piaget (1966 y 1975). En este sentido la teoría de Vygotzky (1977 y 1979). el saber. dinámica.El aprendizaje es una actividad mental. El aprendizaje. personalizada. así concebido. que plantea como finalidad proyectar. Para cubrir tales exigencias se plantean. planificado y provocado por agentes externos. los alumnos y la comunidad. Como lo afirma Coll (1990). así como con otros fuera de su alcance que puedan ser asimilados con la orientación del docente o por intermedio de otros compañeros de clase o de la comunidad donde vive el niño. para avanzar en un proceso democrático dignificador de sus actores y cohesionador de sus comunidades. el hacer. la actividad pedagógica deberá ser articulada entre el alumno que lleva a cabo su aprendizaje. depende de los procesos cognitivos estructurales cada vez más complejos que determinan las relaciones interpersonales entre el alumno y el docente. concede al maestro . innovaciones en la Educación Básica que conducirán a redimensionar el proceso enseñanza aprendizaje como vía para la comprensión. el ser y la comunicación para lograr un cambio que permita superar los obstáculos y dificultades y poder encauzarlo con bases firmes hacia el nuevo milenio. Por ello ambos procesos (enseñanza y aprendizaje) no pueden darse aisladamente sino de forma cohesionada e interactiva. En este sentido. tanto la enseñanza como el aprendizaje cobran una nueva connotación: . Nos encontrarnos con un alumno en capacidad de aprender una serie de aspectos que tienen que ver con su nivel de desarrollo. se identifica como la construcción interna del conocimiento donde subyace una actividad autoestructurante por parte del alumno cuya dinámica.

que toma en cuenta las estructuras mentales del que aprende. son posibles en la medida en la que el sujeto que interactúa sea percibido como: (1) Dignificado en su capacidad para comprender. según el mismo autor. su reflexión e interacción en los procesos de enseñanza y de aprendizaje. La interacción y la comunicación. donde cada niño sea percibido como un ser diverso que avanza a su propio ritmo de acuerdo con su nivel de maduración. planifica y organiza situaciones significativas y pertinentes que promueven la participación democrática en el aula. contrasta y logra cosas en un mismo curso de negociaciones. construir conocimientos y emprender tareas y (2) Poseedor de un acervo cultural que tenga continuidad en la escuela Las teorías anteriormente descritas centran su atención en el estudiante. Cabe destacar la teoría psicológica. por lo que tienen gran importancia en la práctica pedagógica y evaluativa. La práctica pedagógica no puede ir separada de la práctica evaluativa. por lo que se debe propiciar en el aula un ambiente favorable para la discusión y confrontación de ideas. propone. con la naturaleza y. El autor define estas tres condiciones básicas para que se produzca el aprendizaje: (1) Estructuración lógica de los materiales de enseñanza. como inherente a la condición social del sujeto El hombre desarrolla sus potencialidades genéticas realiza sus logros c culturales en función de la interacción con otros hombres. La necesidad comunicativa es planteada por Esté (1994). significativa planteada por Ausubel (1977). quien señala la importancia de los conocimientos previos de los alumnos en la adquisición de nuevas informaciones. evalúa. autoevalúa. verbal.un papel importante como mediador en el desarrollo de las estructuras mentales del alumno. construye aprendizajes. La significatividad reside en relacionar e integrar los nuevos conocimientos que el alumno adquiere con los que ya posee. (2) Organización de la enseñanza tomando en cuenta los conocimientos previos y estilos de aprendizaje en los alumnos y (3) La motivación como elemento importante para aprender. al considerar al aprendizaje como un proceso constructivo interno y personal. a través de un proceso interactivo que se origina entre docentes. quien estará en capacidad de construir e integrar aprendizajes cada vez más complejos en función de la interacción y cooperación con los demás. Para ello. alumnos y objetos de conocimiento en el cual el maestro actúa como mediador del aprendizaje del alumno. alimentándose de esa interacción. esto implica un aula que: . simultáneamente.

5. interpretaciones. para vincularlo con los resultados reflejados en el curriculum que se producen a corto.naturalístico.. se destacan los siguientes: 1. regresiones. Estimule la ayuda mutua y la cooperación. Usa la investigación etnográfica.). ENFOQUE DE LA EVALUACIÓN Consecuentemente con las bases conceptuales del diseño del nivel antes enunciadas. La metodología de la evaluación cualitativa. El sistema de instrucción está constituido por un conjunto de elementos que toma en cuenta y relaciona con el entorno socio-psicológico y material. 3.. narrativo. Se base en el derecho democrático que todos tienen a participar en la toma de decisiones y en el control y evaluación de procesos y resultados desarrollados a partir de tales decisiones. y el aprendizaje por parte de los alumnos. Invite al docente a observar y describir la evolución del aprendizaje de los alumnos (bloqueos. es comprensiva. se inserta la evaluación de los aprendizajes en la Educación Básica. Entre los modelos evaluativos que sirven de apoyo a la nueva corriente de evaluación planteada. institucionales y psicológicas las cuales inciden en las normas. intereses y aspiraciones de quienes actúan en el proceso enseñanza aprendizaje.1. de carácter descriptivo. global. el proceso de la enseñanza por parte del docente. mediano y largo plazo. 1972) Es un modelo cualitativo que se fundamenta en dos ejes conceptuales: sistema de instrucción y el ambiente o entorno de aprendizaje. 2.etnográfico . Evaluación respondiente (Etake. a fin de ofrecer información pertinente y oportuna a cada uno de los participantes. analiza la interrelación del proceso de aprendizaje en el contexto donde se desarrolla. Evaluación iluminativa (Parlett y Hamilton. 4.. Incluya la planificación integrada al contexto y al proceso de evaluación. El ambiente de aprendizaje está representado por un conjunto de relaciones culturales. aptitudes. Respete a cada niño como individuo. que pretende hacer de la escuela un lugar que valore y comprenda las consideraciones. dentro del enfoque cualitativo . opiniones y estilos de trabajo que tienen lugar en el aula. es decir. 1975) . que permita su libre actuación para que manifieste lo que él es y quiere ser y hacer. progresos. 2. actitudes. sociales. por cuanto.

C. Enfatiza el rol del docente evaluador como orientador que se ocupa de analizar y valorar el progreso del estudiante. el consenso entre los distintos agentes que actúan en el proceso de evaluación. la escuela y la comunidad. se agrupan para dar fundamento a la cuarta generación de la evaluación. orienta v hace reflexionar sobre todo el proceso educativo. Todos estos modelos evaluativos anteriormente descritos. El rol del evaluador pasa a ser más dinámico. Evaluación negociada (Guba y Lincoln. Participa y propicia actividades de interacción constructiva. Toma en cuenta la experiencia vivenciada de cada uno de los participantes. D. B. McDonald y Elliot. con el fin de responder a las necesidades de información y al nivel de conocimientos de quienes participan en el proceso. 1976 y 1982) Postula el derecho del alumno y del docente de expresar sus puntos de vista y opiniones en el aula. 4. . 3. Atiende las diferencias individuales. en atención a sus logros y dificultades para aprender. a través de ciclos dinámicos de confrontación de ideas para tomar decisiones. Concede mayor importancia al trabajo en equipo.El propósito principal del modelo es responder a los problemas que se confrontan en el aula. 1989) Proponen en su modelo. Evaluación democrática (Stenhouse. F. Así mismo. a través del uso de las formas de participación de la evaluación como forma para transformar y modificar la práctica educativa. A través de esta concepción evaluativa se propicia una relación ética y de respeto que toma en cuenta las diferencias individuales de los alumnos. invita al docente a reflexionar acerca de la didáctica y metodología de la enseñanza utilizadas. por cuanto: A. Comunica. reorienta y mejora el proyecto de aula y de la institución. Está en capacidad de negociar y generar consenso entre los participantes. descubriendo y ofreciendo un retrato completo y holístico de los procesos de enseñanza y de aprendizaje.

como en lo particular. tal y como suceden en la realidad sobre como aprende el estudiante y como el docente logra que aprenda más y mejor. . .Global: porque se pretende evaluar todos los componentes de la practica pedagógica. Delega funciones en un trabajo organizado. En tal sentido. la evaluación centrada en procesos es la práctica evaluativa que más se ajusta al modelo planteado anteriormente. La evaluación recoge evidencias continuas. Informa a los alumnos y a sus representantes acerca del progreso habido durante el trabajo escolar. La evaluación como parte de los procesos de enseñanza y de aprendizaje tiene como finalidad principal. los materiales educativos. el Proyecto Curricular del Plantel y el Currículo Básico. J.G. la cual constituye el elemento didáctico fundamental para promover la reforma necesaria en el mejoramiento del proceso educativo. por lo que deberá: . Todo esto conduce a conceptualizar el proceso evaluativo como: . H.interactivo . la actividad del docente. tanto en lo general.Servir de instrumento de investigación y reflexión para proporcionar un potencial formativo a cada uno de los agentes que interactúan en el proceso educativo.participativo: por cuanto se considera que el alumno va descubriendo y construyendo su aprendizaje a partir de experiencias previas. cooperativo y democrático. I. despertar el interés hacia el mejoramiento del desarrollo de los alumnos. que permitan el mejoramiento continuo de quienes participan en los procesos de enseñanza y de aprendizaje. las cuales son convalidadas y enriquecidas en el aula. LA NECESIDAD DE LA PROPUESTA La aplicación de esta nueva forma de evaluación generará cambios en la práctica pedagógica. relaciones e influencias. Redimensiona y reorienta su proyecto de aula y aporta esfuerzos para el alcance de las metas establecidas en el proyecto plantel.Constructivo . Planifica en atención a las necesidades de los alumnos y del contexto.

Contribuir a formar y afianzar los valores y actitudes. . procedimentales y actitudinales y el nivel de evolución del estudiante. la repitencia..Detectar en los alumnos: intereses. fundamentado en objetivos de aprendizaje de etapa y los planteados por los docentes en el proyecto de aula.Promover la autoafirmación personal como estímulo positivo para valorar progresos y esfuerzos.Incentivar el trabajo en equipo. . aptitudes. En este sentido tendrá como finalidad: . .Desarrollar en cada alumno sus capacidades del saber. . . ritmos y estilos de aprendizaje. con el fin de mejorarlo y contribuir a la permanencia de los estudiantes en el sistema educativo. . EVALUACIÓN DEL APRENDIZAJE EN EL ALUMNO En atención a los planteamientos curriculares la evaluación de los aprendizajes se concibe como: Un proceso interactivo de valoración continua de los progresos de los alumnos. el fracaso escolar y los profundos niveles de insatisfacción de docentes. la presente propuesta promueve situaciones específicas para integrar la evaluación a los procesos de enseñanza y de aprendizaje. a objeto de proporcionar un tratamiento más justo a los alumnos.Proporcionar medios que permitan detectar dificultades en los procesos de enseñanza y de aprendizaje. estrategias y criterios de evaluación. Desde esta perspectiva. padres y niños.Fomentar relaciones democráticas y afectivas a través de actividades de cooperación que involucren la autoevaluación. evitando de esta manera la exclusión. métodos y técnicas que contribuyan a mejorar la práctica pedagógica y a evitar conflictos y bloqueos en los alumnos. . coevaluación y heteroevaluación. del saber hacer y del ser.Determinar el avance del aprendizaje de los alumnos en la adquisición de los tres tipos de contenidos. como un espacio de reflexión conjunta donde los agentes educativos puedan compartir experiencias. . actitudes. que tonga en cuenta contenidos conceptuales.Reconsiderar fines.

la estrategia empleada.Proporcionar al docente información para mejorar y fortalecer su práctica pedagógica y la planificación que se desarrollará en el aula. tanto a nivel formal como lo no previsto en el currículo. la organización del plantel. porque la evaluación: a) Considera el proceso de aprendizaje del alumno como un todo. procedimentales y actitudinales. el trabajo docente.Fortalecer la interacción entre el docente y el alumno. junto con el alumno.Individualizada.Brindar al alumno oportunidades para aprender del acierto y del error y en general de la experiencia. b) Pretende evaluar. circunstancias y trabajo. PRINCIPIOS DE LA EVALUACIÓN INTEGRAL E INTEGRADA Entendida como: . para orientarlos hacia la consolidación de logros . ..Global.Evaluación conjunta e implícita en los procesos de enseñanza y de aprendizaje.Identificar las limitaciones o dificultades que poseen los alumnos. así como entender y orientar el aprendizaje y la enseñanza. por lo que se requiere de una comunicación abierta con él para comprender sus problemas. . en la familia y en su comunidad. en el grupo. c) Aspira el conocimiento global del alumno como sujeto de aprendizaje. el proyecto de aula y en general todos los componentes del diseño curricular.Conjugación de contenidos conceptuales. es decir. . . . lo cual contribuye al desarrollo de la metacognición. para lo cual emplea diversas técnicas que permitan conocer y reflexionar acerca de las diferencias individuales y grupales. que permita el intercambio de ideas sobre el trabajo y la responsabilidad que corresponde a cada uno en el proceso de aprendizaje. . explicando sus progresos en todos los aspectos de su personalidad en relación con las circunstancias que lo rodean en la escuela. centrada en la evolución y particularidades de cada alumno.

tome en cuenta las individuales de los alumnos y el contexto donde se produce el aprendizaje para reorientarlo. reflexiva e individualizada con retroalimentación constante. g) Consideración de la autoevaluación. f) Información útil al alumno sobre su proceso de aprendizaje que le permita asumir la responsabilidad que le corresponde a su continuidad. obtener información sobre los conceptos y experiencias que el alumno posee. d) Conocimiento del alumno para comprender sus adquisiciones. h) Aprovechamiento de logros anteriores en todo el proceso y al final del mismo.CONTINUA Centrada en el proceso. para construir significativamente su propio aprendizaje y al mismo tiempo proporciona herramientas al docente para la planificación del proceso enseñanza aprendizaje. la evaluación contempla tres funciones: . La evaluación continua implica: a) Observación permanente. c) Acumulación de juicios basados en procedimientos formales e informales. con el fin de proporcionarle la ayuda requerida. retroalimentarlo y mejorarlo. e) Incentivo de las funciones orientadora v motivadora de la evaluación.Explorativa: tiene como propósito. . FUNCIÓN En este sentido. descriptivo e interpretativo. coevaluación y heteroevaluación para el logro de una interacción constructiva de los participantes. valorando reflexiva y permanentemente la actuación del alumno para la consecución de competencias expresadas en los objetivos generales de etapa que abarque todos los contenidos conceptuales. b) Carácter cualitativo. posibilidades progresos y carencias. procedimentales y actitudinales. atendiendo a criterios previamente establecidos y a su aplicación.

b) Cómo aprende: hechos. para continuar la labor educativa. f) Planificar nuevas acciones educativas tomando en consideración los contenidos conceptuales. valores. para corregirlos y superarlos con el fin de garantizar el éxito en el aprendizaje. conceptos. tomando en cuenta los aspectos conceptuales. e) Logros alcanzados después de un tiempo de aprendizaje. d) Carencias. disposición. b) Determinar las causas de sus deficiencias y éxitos. y ser realizada fundamentalmente a través de procedimientos informales que permitan: a) Conocer los progresos de los alumnos. actitudes.En tal sentido se debe explorar en el alumno: a) Disposiciones. procedimentales y actitudinales. la madurez . que permitan evidenciar los progresos y las limitaciones que requieran una atención esmerada en beneficio del aprendizaje del estudiante. manifestaciones intelectuales y potencialidades entre otras. incomprensiones y errores.Formativa: Tiene como propósito observar. procedimentales y actitudinales adquiridos por los alumnos. significación y utilidad de lo aprendido. d) Analizar con sentido crítico la participación en el trabajo tanto del alumno como del profesor. c) El sentido. investigar y reflexionar constantemente con el alumno su proceso de aprendizaje. que permitan conocer el punto del cual parte y establecer necesidades previas. representaciones y esquemas. integración del grupo. e) Acumular juicios descriptivos. sentimientos. dedicación. actitudes y aptitudes. g) Elaborar criterios para la promoción de los alumnos. La evaluación de procesos tiene carácter dinámico y formativo. responsabilidad. para iluminar lo que está ocurriendo y a la vez ofrecer retroalimentación y acciones necesarias para estimular y mejorar su aprendizaje. c) Propiciar situaciones donde se manifiesten rasgos del alumno: hábitos de trabajo. debe estar estrechamente vinculada con las actividades de enseñanza y de aprendizaje. .

capacidades. d) Proporcionar información a los: .Alumnos. para otorgar una calificación basada en la acumulación de juicios descriptivos sobre cl proceso de aprendizaje del estudiante. h) Implementar las diferentes formas de participación de la evaluación: autoevaluación.Propiciar niveles de relación. c) Proporcionar información relevante para promover al alumno. actitudes. . Formas de participación .del aprendiz. . que determinan su crecimiento integral. aptitudes.Integración de juicios. posibilidades y limitaciones de los alumnos y los criterios de evaluación establecidos previamente. capacidades e intereses para la resolución de la realidad. comunicación e información constante. aptitudes e intereses. para asumir la responsabilidad que les corresponde en la continuidad del proceso de aprendizaje y para que conozcan sus capacidades. tomando en consideración el conjunto de observaciones hechas durante el proceso sobre: consecución de objetivos educacionales. habilidades y destrezas. con ella se pretende: a) Recoger y analizar evidencias sobre los resultados obtenidos durante el proceso de aprendizaje. en términos de criterios de evaluación previamente establecidos. . perspectiva y apreciaciones con carácter deliberativo y negociado.Mantener una visión multidireccional. .Docentes. coevaluación y heteroevaluación como herramientas de la evaluación de procesos. Final: Cumple con la función administrativa de la evaluación. acciones concretas para mejorar el aprendizaje. COOPERATIVA Concebida como una labor conjunta de todos los participantes para: .Flexibilizar la aplicación de criterios de evaluación que se seleccionen. b) Determina el nivel de logro de competencias fijadas.

b) Incrementa su participación. para decidir cual fue la causa del acierto y del error. ritmo de trabajo y progreso en su desarrollo. COEVALUACIÓN Es un proceso de valoración recíproca que realizan los alumnos sobre su propia actuación y la del grupo. c) Estimula la retroalimentación constante de sí mismo y de otras personas para mejorar su actuación. atención. . atendiendo a ciertos criterios previamente establecidos. características y la variedad de causas de sus éxitos y fracasos. actitud frente a la materia. d) Opina sobre su actuación en el grupo. c) Aporta soluciones para el mejoramiento individual y grupal. dedicación.AUTOEVALUACIÓN Es un proceso que permite el autodesarrollo del alumno. f) Evita errores y sus causas que le ayudarán a planear mejor la actividad. reflexión y crítica constructiva ante situaciones específicas de aprendizaje. f) Desarrolla actitudes para la integración del grupo. así como su propio interés. preparación anterior. e) Evalúa todo el proceso. e) Desarrolla su capacidad de líder. b) Analiza y describe sus actividades. d) Participa críticamente en la construcción de su aprendizaje. Mediante la autoevaluación el alumno: a) Emite juicios de valor sobre sí mismo en función de ciertos criterios o puntos de referencia. Mediante la coevaluación el alumno: a) Determina los logros personales y grupales. por cuanto identifica sus posibilidades y limitaciones para hacerlo consciente de los cambios necesarios para su propia actuación.

h) Posee libertad para emitir juicios valorativos acerca de otros porque es parte activa del proceso. tomar decisiones para: . . en cada uno de estos grados debe aspirarse al logro de las competencias básicas. tales como: el qué.. La primera Etapa de Educación Básica contempla tres grados. HETEROEVALUACIÓN Es un proceso de valoración recíproca que se realiza entre los agentes educativos (alumno. . los cuales permitirán. equipo de docentes.. PLANIFICACIÓN DE LA EVALUACIÓN La planificación de la evaluación debe estar estrechamente vinculada con el proceso interactivo de la clase.g) Mejora su responsabilidad e identificación con el trabajo.).Acumula una serie de datos integrales acerca de la actuación del alumno. padres y representantes. con el objeto de lograr el mejoramiento y la calidad de su actuación. alumno al final de la etapa.Recoge e interpreta datos que evidencian el desarrollo del proceso educativo. el cómo. Las competencias representan el nivel de desempeño que debe demostrar el. una vez evidenciadas. Esto significa que el docente al planificar debe incluir los elementos relacionados con la evaluación.Saca conclusiones sobre el progreso del alumno.. EL QUÉ EVALUAR Vendrá dado por los objetivos generales de grado. las competencias derivadas de los mismos y los criterios de evaluación establecidos para definir el logro alcanzado por los alumnos. los métodos de enseñanzas empleados y la participación y colaboración de los padres y representantes en el proceso educativo. docente. La heteroevaluación se fundamenta en una evaluación continua donde cada uno de los agentes: . el con qué y el cúando evaluar.

Para evaluar las competencias se deben establecer criterios e indicadores de logro. Indicador: es la señal que permite evidenciar el dominio de la competencia. la costumbre o la rutina.a) Nivelar o recuperar a los alumnos con la ayuda de docentes. . a través de los cuales se podrá evidenciar los progresos alcanzados por los alumnos. Criterio: implica la norma o recurso que permite evidenciar el nivel del logro de la competencia del alumno. la arbitrariedad e irracionalidad. Permite establecer diferencias cualitativas y cuantitativas en logro de la misma. es decir. convalidar lo que sabe. padres o representantes así como de tutorías de alumnos más avanzados. b) Ubicar a los alumnos en un grado de acuerdo con las competencias logradas. qué hace y cuáles son sus actitudes Es importante que el docente al evaluar tenga presente la consideración de estos aspectos (indicadores y criterios de la evaluación) a fin de evitar el azar. c) Promover al alumno una vez que haya adquirido las competencias generales de la etapa.

e) La utilización de distintas estrategias de evaluación: actividades. c) Actividades continuas que proporcionen información sobre todo el proceso. procedimental y actitudinal. d) Una gama diversa de actividades de evaluación que permitan la transferencia de lo aprendido a situaciones diferentes. b) Las tareas donde se manifieste el grado de significación de lo aprendido en el desarrollo de la clase. funciones. formas de participación y diversas técnicas y procedimientos que permitan orientar el proceso de aprendizaje del alumno.EL COMO EVALUAR A través de: a) Situaciones relacionadas con lo enseñado que involucren lo conceptual. atendiendo el carácter dinámico de la evaluación. En el siguiente cuadro se presenta una propuesta que permite visualizar cómo evaluar: .

b) Ser de fácil interpretación y manejo diario.alumno.EL CON QUÉ EVALUAR Con instrumentos que además de aportar la información que se requiera. que sean capaces de promover la interrelación docente . Entre algunos de los procedimientos e instrumentos de evaluación recomendables para la primera etapa de Educación Básica figuran: . Se recomienda el empleo de instrumentos que se caractericen por: a) Recoger aspectos concretos y al mismo tiempo permitan la incorporación de otros no previstos. c) Evitar en lo posible el sesgo cuantitativo.

.

. dependiente de una tradición empirista en las ciencias sociales. Así en cuanto a teorías del conocimiento las agrupa en dos grandes tendencias: Objetivismo y Subjetivismo. Asimismo se recomienda que esa información llegue tanto al representante como al alumno. Será responsabilidad del plantel en atención a sus necesidades y al proyecto pedagógico de aula que decidirá la periodicidad o frecuencia de información a padres y representantes. 4. La validez de una evaluación depende de los hechos replicables como base de la verdad. intereses que permitan realizar el análisis del proceso. GRANDES ORIENTACIONES EN LA EVALUACIÓN Hay diferentes enfoques.. es decir que tanto los datos como los análisis realizados puedan ser reproducidos y verificados por otras personas competentes utilizando las mismas técnicas. aptitudes. de manera que puedan percibir cómo el estudiante ha evolucionado en su aprendizaje y cuáles han sido los progresos alcanzados. a través de los portafolios y registros descriptivos. 2. basada en observaciones permanentes sobre la actuación de cada alumno para determinar e interpretar sus progresos. 3. Para el objetivismo.Orientación medios-fines. El conocimiento científico se concibe más como algo tácito que explícito (House. María Dolores García Fernández..Orientación práctica. del progreso de su representado.EL CÚANDO EVALUAR No se dispone de una fecha prevista para evaluar.Orientación emic. Aoki (1991) expone las cuatro grandes orientaciones que comprende: 1. 1980:252). marcos u orientaciones sobre la evaluación. la evaluación requiere que la información sea "objetiva científicamente".. Desde una epistemología subjetiva la validez depende de "una llamada a la experiencia más que al método científico. ritmos y estilos de aprendizaje. Profa. Dra.Orientación crítico-hermenéutica. Universidad de Córdoba. para el subjetivismo depende de las experiencias acumuladas como base de la comprensión. limitaciones. . PERSPECTIVAS DE LA EVALUACIÓN House (1980-1983) ha puesto de manifiesto que las diferentes perspectivas de evaluación son dependientes de diversas concepciones filosóficas. La evaluación tendrá carácter continuo.

el paradigma crítico. contenidos. efectividad. contenido de los materiales curriculares y los métodos de enseñanza especificados?. coste-beneficio. tasación y consecución. En la orientación medios-fines nos interesa reflejar una orientación de la evaluación que puede ser caracterizada como técnica o instrumental. ORIENTACIONES INTERESES CAMPO DE CONOCIMIENT O El control se refleja en valores de eficacia. perspectivas. 5. Conocimiento crítico unido a la Descubrir las ideologías subyacentes al conocimiento y a la acción. certeza y predictibilida d.. leyes y teorías. motivos. y la situacionalinterpretativa la subdivide en emic y crítico-hermenéutica.¿Cómo de bueno es el curriculum A comparado con el curriculum B en conseguir los fines dados?. Cualidad de la reflexión y de la acción Comprender las asunciones ocultas.. racionalizaciones e ideologías. ¿cuál de ellos implica menor coste y tiempo?. La creencia clave es la posibilidad de progreso. MODO DE EVALUACIÓN Medida de la discrepancia entre medios y fines. orientada al éxito con arreglo a fines. a partir de la teoría de los intereses cognoscitivos de Habermas: El Empírico-Analítico con la orientación medios-fines.. Los intereses de los evaluadores que actúan con una orientación mediosfines dentro del paradigma cuantitativo reflejan cuestiones como las siguientes: 1.. con referencia al criterio.¿Qué efectivos y eficientes son los medios usados en conseguir los fines y objetivos curriculares?. PRÁXICA Acción emancipatori a que mejora la condición humana. 1989:384). Fidelidad entre medios y fines. Basada en los objetivos. imitada al campo de los hechos.Dados unos currícula. 2. generalizaciones.¿Cuál es el grado de congruencia entre resultados pretendidos. Como acción instrumental. 4.¿Qué generalizaciones válidas pueden hacerse para todas las escuelas en una zona o distrito?. "a partir de un horizonte de valores claramente articulado selecciona fines y organiza los medios apropiados teniendo en cuenta los efectos secundarios alternativos" (Habermas. el críticoreflexivo con la orientación de la praxis paradigma cualitativo.Cada una de ellas se corresponde con los grandes paradigmas que se han destacado. paradigma cuantitativo. 3. MEDIOS-FINES .

En lugar de una racionalidad de medios-fines. etc. cosmovisiones.¿Cuál es el prejuicio básico de los editores o autores de los materiales y recursos prescritos o recomendados?.A nivel más básico ¿a qué intereses sirve el currículum?. La realidad se entiende como socialmente construida.. 3. las distorsiones que subyacen en la existencia humana. Intuiciones dentro de las situaciones humanas únicas. la orientación práxica toma un marco dialéctico entre acción práctica y reflexión crítica..acción. 4. que difieren de la orientación técnica.¿)Cuál es el punto de vista implícito de los alumnos y del profesor que ayuda a los planificadores del currículum?. Reglas tácitas con que la gente vive en su vida diaria. EMIC Cualidad de vida cultural cotidiana. CRÍTICOHERMENÉUTICA Perspectiva fenomenológicohermenéutica. la orientación práxica (crítico emancipadora)está interesada en otro tipo de cuestiones. Revelación de los significados existenciales en la experiencia vivida. produciendo alienación. 5. Perspectiva etnomenológica. como son las siguientes: 1. asunciones. Búsqueda crítica de lo que significa ser humano. .. Concretado en el mundo vivido de la existencia. Los evaluadores práxicos están interesados en poner de manifiesto los intereses. se les sitúa en condiciones para liberarse o transformarlos.. revelando las condiciones ideológicas que hacen posible el conocimiento.. Este proceso reflexivo no pretende sólo poner de manifiesto estos supuestos.¿Cuál es la orientación subyacente en el curriculum A en términos de sus intereses fundamentales. sino entrar en un proceso de transformación de la realidad evaluada. sus asunciones y enfoques?. 6. 2. implementan o evalúan el curriculum?.¿Cuál es la cosmovisión que subyace al currículum? Este conjunto de intereses refleja una orientación en la evaluación vista desde una teoría crítica de la sociedad neomarxista.¿Cuáles son las metáforas fundamentales que guía a los que desarrollan. en la actitud moral de emanciparse de ellos. Por la explicitación de los supuestos ocultos o inconscientes de los afectados. a lo que Paolo Freire llama Praxis. Perspectiva de estudios de casos etnográficos. denso de la cultura. Por su parte.. Cualidad de la existencia humana Conocimiento descriptivo.. Sumario de modos de entender las orientaciones en evaluación.

para esto emplea situaciones de diálogo que puedan clarificar los motivos.. . administradores y padres" (Aoki.¿Cómo son experienciados los contenidos trabajados?.. pretende comprender los valores.. profesores. creencias y actividades en su situación vivida por aquellos que están inmersos en la situación evaluada. 1991:103). padres y administradores)?)Qué valor tienen estas visiones? 3. las experiencias auténticas. Más que una perspectiva "emic".¿Cómo es la existencia de un profesor o alumno en esta clase?. 5. La cuestión más importante no es lo que se enseña. 2.¿Cómo viven la experiencia en esta clase?.¿Cuáles son las reglas construidas por el grupo para un currículum determinado en esta clase?. sino cómo es vivido.La orientación emic. Las cuestiones que preocupan a una evaluación desde esta perspectiva son: 1. La orientación crítico-hermenéutica está interesada "en la búsqueda de los significados ontológicos en la experiencia vivida de los alumnos. APROXIMACIONES TEÓRICAS EN LA EVALUACIÓN: MODELOS. por analogía con su empleo en antropología. Los evaluadores están interesados en los patrones etnoculturales de la vida en las situaciones escolares...¿Cómo ven el currículum A varios grupos (alumnos.¿Cuál es la cualidad de las experiencias vividas de los profesores y alumnos?. le importa entrar profundamente en conversación intersubjetiva con la gente en una situación de evaluación. 5. 4. 3.. 2..¿Cómo estos grupos ven la fuerza y debilidad de un currículum determinado?. La orientación que Aoki llamada crítico-hermenéutica se interesa por las intuiciones en las experiencias humanas como vivencia. por tanto una evaluación con esta orientación pretende transcender la objetividad. y unir las estructuras de significado de la experiencia vivida.. 4. Estos intereses se centran en la existencia.¿De qué modo se corresponden pedagógicamente conjuntamente lo que los profesores hacen y enseñan?. La mayoría de los evaluadores de esta orientación están interesados en la construcción social de la realidad desde un punto de vista antropológico o sociológico.. profesores. sus esfuerzos se dirigen a clarificar..¿De que modo estos grupos aprueban o desaprueban un currículum determinado?. 1.¿Cómo comprender la cualidad de un currículum en la microcultura de la clase?. vivencias y experiencias que tienen los alumnos y profesores en la vida del aula. y los significados comunes.

Solo se pueden comprender los significados desde el punto de vista del actor. Es por lo que no pretende formular leyes universales. a) EL PARADIGMA CUANTITATIVO. Bajo este concepto se han realizado experiencias de evaluación con el objeto de controlar y evaluar los efectos del curriculum en las escuelas. la eficacia y eficiencia. se identifica la autoridad con el experto. Es positivista. Esta nueva definición amplía las formas de evaluar y determinar la eficacia de los objetivos propuestos . porque estos no se pueden entender desde criterios externos. se interesa por saber qué está sucediendo.. Para Eisner (1983) son fundamentales la inducción y la observación. está fundamentado en el positivismo. sino desde una visión interpretativa de lo subjetivo. El evaluador estudia los significados y significantes que se asignan a los sucesos por los actores. Por tanto este enfoque se refiere a los resultados de un proyecto. La percepción es muy importante para el evaluador ya que así.Proppe (1990) se basa en la definición de Stake y Dewey (1969) "desde una perspectiva amplia. C) Hay que tomar decisiones y se toman en determinados momentos. Pero el énfasis de los resultados. nos aporta muy poco sobre la calidad de los objetivos propuestos. B) Se realiza en un contexto de acción. la evaluación es el descubrimiento de la naturaleza y el valor de algo" indicando algunas características comunes: A) Supone conocer el fenómeno a evaluar y determinar su valor. puede captar . Tanto la evaluación como la investigación. en el que la ciencia es el único camino de conocimiento y la realidad como el único objeto posible de conocimiento.La artística. para mejorar el nivel de logro de los estudiantes. Supone una representación narrativa de los descubrimientos del evaluador. basada en una imagen dualista (sujeto/objeto). cualitativo y dialéctico. sino comprender el significado que constituye socialmente. programa etc. qué ha sucedido y que significado tiene o ha tenido para diferentes grupos. en base al proceso y resultados de la evaluación. Como es conocido el Comité sobre Estándares de Evaluación desarrollo una serie de ideas y normas en base a una definición de evaluación más amplia:"Investigación sistemática sobre el valor o mérito de algún objeto"(1981). en un contexto social.La interpretativa.. analizando la evaluación en cada uno de ellos. descubrimos la naturaleza y el valor de algo. Este autor hace un recorrido por tres paradigmas fundamentales: cuantitativo. D) Es un proceso de aprendizaje. Según Madans y Kellagham (1992) hay varios tipos de evaluación cualitativa: 1. La evaluación "acrítica" se fundamenta en el interés por el control. b) EL PARADIGMA CUALITATIVO. 2.

Esta evaluación se basa en el interés por la emancipación respecto a supuestos ocultos o condiciones humanas subyacentes. pero cada hecho educativo debe ser entendido en su contexto y cultura. Por otra parte. la evaluación dialéctica es un proceso de recogida y ofrecimiento de información. Así pues. está en el interés por el significado de la comunicación intersubjetiva entre los individuos y "sobre ellos" en una situación dada. La excelencia para Perrenoud (1990) tiene que ver con los distintos ámbitos y tareas de la vida humana. pero también un proceso de diálogo. se propugna la acción. El fundamento de la evaluación. Para Madans y Kellagham (1992). c) EL PARADIGMA CRÍTICO. por ello. supone una tarea de negociación para ayudar a construir significados y revelar los significados construidos. válida y fiable pro medio de la triangulación. análisis de la comprensión del mundo.La sistemática. La evaluación. con independencia del proceso o de las circunstancias. autoreflexión y autocomprensión. Desde el paradigma crítico. por otro lado rechaza la posición positivista con respecto a que el mundo externo sea el único elemento que determina la visión que se debe tener de la realidad. Comparte con el enfoque tradicional el enfoque de la orientación de la investigación hacia "un mundo real" externo a los individuos. técnicas. metaevaluación. se muestra la evaluación formal de la excelencia escolar. 3. en un proceso dialéctico que transcienda la dualidad sujeto/objeto. Por tanto. Pretende ofrecer una visión objetiva. más que en la certificación. 1987). que no todas pueden dominar con facilidad. el proceso de evaluación es un proceso de reflexión y autoreflexión. Proppe (1990) señala que esta visión mantiene la lealtad al dualismo sujeto/objeto. Los esquemas de evaluación deben poner énfasis en la mejora de la calidad del proceso de aprendizaje y las formas de motivación intrínseca. debe ser el catalizador del diálogo. es importante establecer mecanismos para que el alumno tenga acceso a los datos y se cuide la confidencialidad y la privacidad de los mismos.cualidades y relaciones que existen entre el profesor y el estudiante. en forma de evaluación dialéctica. en el que el evaluador se convierte en un auténtico agente de cambio. Juzgar el valor de algo.. saber hacer. . es valorar su excelencia. entonces. La excelencia se identifica con competencia y esta con el poder de "poner en práctica conocimientos. Desde este planteamiento. exigiendo una asimilación progresiva y un trabajo. la "crítica-emancipatoria" pretende generar conocimiento que ayude a las personas a hacerse conscientes de si mismas y a decidir con criterio personal. El evaluador se relaciona con la posibilidad de que todos los seres humanos se convierten en participantes en la "acción comunicativa". Esto implica que se reduzca el rol de la evaluación como elemento de selección. como la comunicación "sistemáticamente distorsionada" (Habermas.

Worthen (1990) señala: "El valor de los modelos yace en su habilidad para ayudarnos a pensar.. ni negociada.La evaluación informal es constante en una clase. no hay paradigmas sustantivos propios de evaluación. ni registrada. Fija oficialmente el nivel de excelencia reconocido a cada alumno. criterios y datos de la evaluación. Gimeno (1992). nos consta que la evaluación es "una práctica ampliamente rechazada por los alumnos y bastante molesta y engorrosa para muchos profesores".Enfoques orientados la consumidor: Evaluar los "productos" para proporcionar información a los consumidores para elegir entre curriculum alternativos.. Perez Gómez (1983c) y Hopkins(1989:18) hablan de "modelos". 2.Enfoques naturalistas y orientados a la participación: Investigación e implantación de los participantes (o "afectados"). Es por lo que . para servir como listas mentales con las que repensar lo que debemos considerar.Enfoques orientados a la gestión: Cuya principal preocupación es identificar y reunir las necesidades informativas para los gestores que han de tomar decisiones. . Worthen y Sanders (1987) de "puntos de vista alternativos". Scriven y House. para determinar los valores. 3. la evaluación formal. dos importantes filósofos de la ciencia. 6. implica a la organización escolar. 1. En cambio. materiales y recursos educativos.. personalidad. Clasificación de los distintos enfoques de evaluación (Worthen y Sanders. no está codificada.Enfoques orientados a los objetivos: Cuyo foco son los fines y objetivos específicos y en qué grado han sido conseguidos.. que se integra en el flujo de las interacciones diarias. El análisis de la evaluación en la educación primaria nos lleva a una crítica del sistema de evaluación formal por calificaciones estableciendo diferentes niveles de excelencia sin saber muy bien cuales son los criterios que los guían. En nuestra opinión. dado que la búsqueda de la excelencia forma parte de la situación.Enfoques orientados a los expertos: Dependientes primariamente de las aplicaciones de profesionales expertos para juzgar los programas educativos. 1987). Este tipo de evaluación suele ser escrita y normalizada en cuanto a su forma... y destacan el componente ético de la evaluación. en lugar de paradigmas. etc.Enfoques orientados al adversario: El foco central de la evaluación es la planificación de oposición de puntos de vista (pro y contra) de diferentes evaluadores. apoyo pedagógico y orientación. para proporcionar fuentes de ideas y técnicas nuevas. 4. 5. recordar o de lo que debemos preocuparnos ". Aoki (1991) de "orientaciones". hacen hincapié en la constitución de la evaluación como disciplina. éstos son dependientes de grandes enfoques o paradigmas de la educación o. Por eso es más conveniente hablar de modelos de evaluación. que consiste en valorar el grado de dominio del curriculum. Este tipo de evaluación informal. difusión y en cuanto a sus consecuencias referentes a promoción. de acción social. necesidades. más ampliamente.

Tyler diferenció medida y evaluación.1989).) estiman que los diferentes planteamientos filosóficos sobre el conocimiento y los valores tienen su correspondiente implicación en los métodos. B.Modelo clásico (o agrícola-botánico). 2) Modelos descriptivos: son aquellas descripciones o análisis sobre los modos de hacer la evaluación en la práctica. los ambientes en los que se desarrolla la enseñanza y la capacidad del docente para lograr los planes. Los dos aspectos metodológicos más importantes para llevar a cabo estudios evaluativos son: A.Desde el contexto inglés a Hopkins (1989) le parece bien distinguir seis modelos de evaluación: 1. no basta con haber planificado correctamente para lograr unos resultados determinados. 5. Referido fundamentalmente a la evaluación de programas.. Fases de la evaluación: . puesto que existen múltiples diferencias individuales entre los estudiantes.. según él. "Los modelos preceptivos brindan marcos y estrategias más rigurosas para realizar evaluaciones.Model o de toma de decisiones (o político).. preceptos.Modelo de estudio de casos. 3. 6... añadiendo que la medida era la parte descriptiva de la evaluación y la explicación completaba el proceso de evaluación. hay que descubrir hasta qué punto las experiencias de aprendizaje han logrado los efectos previstos (Nevo.. 1991:2574).. Tyler apuntó la necesidad de la evaluación. 4.La dificultad encontrada por los evaluadores al trabajar a través de límites disciplinares y metodológicos. MODELOS CUANTITATIVOS: EL MODELO DE EVALUACIÓN POR OBJETIVOS. Alkin y Ellet (1991).Modelo iluminativo ( o antropológico).Investigación cuantitativa/cualitativa. hablan de que los modelos de evaluación se pueden utilizar en dos sentidos: 1) Modelos preceptivos. son aquellos que proporcionan un conjunto de normas. Este método tuvo gran influencia al utilizar la medición. mientras que los modelos descriptivos presentan una amplia gama de posibilidades válidas" (Alkin y ellet. 2. Worthen y Sanders (1987:49 y ss. al proponer una formulación precisa de objetivos como punto de referencia para la evaluación y la toma de decisiones. ya que.Modelo de investigación y Desarrollo (o de factoría industrial).. adquiriendo un sentido de legitimación con el paralelismo de la investigación científica.Modelo del profesor como investigador. prohibiciones y líneas orientativas que determinan qué es una evaluación adecuada y el mejor modo de llevarla acabo. Las bases del primer método sistemático de evaluación surgen a partir del modelo de Tyler.

b) Modelo de evaluación libre de objetivos.Servir la guía para la toma de decisiones. Para Scriven (1978). en cuyo caso. la evaluación es un proceso que implica descripción y juicio o valoración. Sttuflebeam. dentro de un modelo pretest-postest. . es decir. puede tener valor en si mismo. sin. es decir. Sin embargo Tyler no dio normas sobre cómo usar los datos de la evaluación. algo inherente e independiente de posibles aplicaciones.Promover la comprensión de los fenómenos implicados. 5. el valor está en la medida en que . 2. .. Según el autor las funciones de la evaluación son: .Examinar o desarrollar instrumentos capaces de probar cada objetivos. para comprobar que se han dado cambios y que pueden se imputados al currículum. y 1975. y no solo para los alumnos.Aplicar los instrumentos. la función de la evaluación está en conceder valor a lo que se está evaluando. obtener y proporcionar información útil para juzgar alternativas de decisión. es decir. además. refiriéndose a los productos o el rendimiento como único criterio. Process. lo cual define Scriven como mérito. Se le criticó que su evaluación no es explicativa. Por un lado. MODELOS DE TRANSICIÓN HACIA LA EVALUACIÓN CUALITATIVA Stake (1967. a) El modelo CIPP (Context. 4. propuso objetivos para las condiciones contextuales y para la conducta del profesor. 7. que ignoraba los juicios sobre la dignidad y mérito. que no evaluaba los objetivos. Para ello es preciso diseñar. Product). proporcionar estándares para saber cómo juzgar la discrepancia entre las medidas y los objetivos propuestos. incluye en el modelo la técnica del grupo asesor para la evaluación de entradas..Desarrollar hipótesis y probarlas para explicar los patrones observados de consistencia o debilidad.. 6.1..Hacer modificaciones apropiadas en el currículum. se basa en la necesidad de mejorar la práctica educativa. 1989). Pero además esa realidad que se evalúa puede tener valor dentro de un contexto de uso o aplicación. 3...Determinación de los objetivos específicos de cada área de contenido. según Guba y Lincoln. con lo cual la evaluación debe tener otro alcance: se desplaza desde la valoración de los alumnos a la evaluación de programas. y comparar con las necesidades de la gente a la que debe servir. La evaluación orientada al perfeccionamiento de los sistemas. 1985 y Sttuflebeam y Sinkfield. Tyler entendió la evaluación como un proceso terminal. Este modelo de Sttuflebeam (Sttuflebeam y Sinkfield..Proporcionar datos para la responsabilidad. 1989). valor libre de contexto. Imput.Examinar los resultados para determinar la áreas del currículum más fuertes y más débiles. para poder juzgar su valor.Identificar situaciones en las que los estudiantes puedan demostrar la conducta expresada en los objetivos. con sus principales cometidos.

1985. según Guba y Lincoln. según Scriven (Guba y Lincoln. a la que se dirige la evaluación. es decir. al margen de los objetivos previstos. Sin embargo tanto el mérito como la dignidad son valores variables. pero también teniendo en cuenta el valor que tienen para varias audiencias. porque el valor depende de la situación. que aumente la objetividad y los resultados deben hacerse públicos. debe realizarse por un experto. lo cual tienen sus efectos más importantes. Audiencia: equipo que lo desarrolla. Audiencia: los que toman decisiones locales. certificado y justificación. Además puede ayudar a los administradores a decidir si implantar a nivel general un currículum o programa o modificarlo. evaluador externo. La evaluación del mérito puede ser más homogénea. Intención: certificado y justificación para uso local. Audiencia: compañeros profesionales.50). Pero la determinación de la dignidad requiere una evaluación en el contexto en el que se realiza. Fuentes de estándares: juicios y valores del contexto local. las relaciones entre tipos de evaluación y su objetivo: TIPO DE EVALUACIÓN FORMATIVA MÉRITO Intención: modificar y mejorar el diseño. Fuente de estándares: juicio sobre las necesidades locales SUMATIVA Intención: crítica. Fuente de estándares: panel de expertos Especifica el valor y el mérito en cada tipo de evaluación. si se establecen los criterios de bondad. Debido a esto Scriven. adaptadores potenciales. establecerá la diferencia entre evaluación formativa y sumativa. en los referente a las estrategias de la difusión de programas de innovación. aunque se tiende a una profesionalización de esta. VALOR Intención: ver las adecuación al contexto. La evaluación sumativa. sin excluir que algún . Audiencia: equipo de adaptación local. El objetivos de la evaluación sumativa es determinar el impacto o los resultados en el contexto en que se obtienen tales resultados.p. si se juzga conforme a ellos. A continuación se muestra. Fuente de estándares: panel de expertos. evaluar el programa en sus efectos.proporciona tales soluciones. El objetivo de la evaluación formativa es refinar y mejorar los criterios y juicios sobre los aspectos intrínsecos de las realidades que están siendo evaluadas. es un valor extrínseco que el autor llama dignidad. como muestra Bridges (1988) en la siguiente tabla donde se resumen las condiciones necesarias para ello. Sin embargo la evaluación formativa es más propia de los profesionales que están tendiendo a una profesionalización de esta. en cuanto a las personas que juzgan debido a sus distintos indicadores de esos valores. Además propondrá la evaluación libre de objetivos. para Scriven.

. INFORMES VALORES STATUS DESCRIPCIÓN/PRESCRIP CIÓN CERCANÍA/DISTANCIA El evaluador tiene una posición de curiosidad imparcial. Preocupaciones y problemas de la audiencia. y la evaluación respondiente de Studie: Item comparativo Orientación Perspectiva de valor Bases el diseño de evaluación Evaluación preordenada Formal Única. Base común de valores compartidos entre evaluadores y los que desarrollan el programa. posibilidad de conflicto. analiza e informa solamente. Se percibe al evaluador como en un status diferente y particular. El evaluador tiene distintos valores que los que desarrollan el programa.evaluador o momento de la evaluación determine el grado de consecución de los objetivos planteados. A continuación se presenta un cuadro comparativo entre la evaluación preordenada. HACIA MAYOR INDEPENDENCIA Y UN INFLUENCIA MENOS FORMATIVA Documentos escritos producidos después de haber realizado la práctica. MODELOS CUALITATIVOS: Dentro de ellos podemos destacar los siguientes: MODELOS NATURALISTAS Modelo de evaluación respondiente. de ahí que se evalué sin referencia a objetos. consensual Objetivos del programa. 1988). escepticismo y oposición Diferencia entre una evaluación más formativa y una menos formativa (Bridges. Evaluación respondiente Informal Pluralista. El evaluador describe. El problema surge cuando se valoran los efectos sin criterios. según el modelo de Tyler. El evaluador entrará en la discusión sobre estrategias alternativas. o acciones recomendadas El evaluador desea la iniciativa para el éxito y siente alguna responsabilidad en este éxito. CRITERIOS HACIA UNA INFLUENCIA MÁS FORMATIVA Y MENOS INDEPENDIENTE Dialogo continuo formal o informal con los directores los que tomas decisiones. y cuyo criterio serán las necesidades de los sujetos a los que se dirige el programa. Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa. hipótesis.

Programa de actividades. Estimulador de los sujetos con visión de probar un funcionamiento crítico. Objetivos. y la búsqueda de soluciones. Para poder emitir juicios correctos. proporcionando modelos el programa. es un estadio típico. Owen propone algunos de los ámbitos de discusión que se basan en la investigación sobre "pros" y "contras": a) Para explorar los valores de un currículum. por lo que la primera fase hace referencia a los problemas. bien será el existente o el propuesto. Métodos Comunicación. El valor instrumental de la educación. periodismo y poesía. dudas y necesidades. identificando variables y sus relaciones. Continuamente está evolucionando. interpretación simbólica. Informal. Modelos de contraposición Consiste en proponer evidencias sólidas en torno a los problemas para los que se toman decisiones sobre los programas. las acciones correspondientes. habilidad. aptitud. Antropología. medida. a menudo progresivos. ya que la observación y la información deben ser continuas y estar presentes en todas las fases. Formal: informes. negociaciones e interacciones. resultados. reacciones. De la discusión puede surgir la clarificación. Descripción narrativa. . siendo mejor si en el análisis de dichos programas participan distintas personas que aportan visiones diferentes sobre un mismo problema. Informe escrito.28). Una forma de identificar problemas es hablando con los implicados.Preconcepciones del evaluador. La evaluación respondiente (Stake. y posteriormente servirán para organizar el plan de recogida de datos. entrevistas. 1989. motivaciones o problemas de las personas en y alrededor de la evaluación. La forma del modelo quiere romper la idea de linealidad. a menudo oral. 1975) es sensible a las necesidades e intereses de la audiencia. Test. Estos problemas deben utilizarse para discusiones. Subjetivos: observaciones. descripciones. retratos. comunicación holística. )Cuándo está completo el diseño?. p. Rol del evaluador Al comenzar la evaluación. Estimulado por los sujetos y las actividades. proporcionando experiencia variada. Nunca. sobre dominio. Feedback Paradigma Psicología experimental Comparación de las formas de evaluación preordenada y respondiente (Guba y Lincoln.

Por ello no sólo cuentan los hechos sino también las interpretaciones de las personas implicadas. abarcando todas las variables que afectan al resultado del programa. b) Investigación: Selección y planeamiento de cuestiones de manera coherente y sistemática sobre el programa en su contexto. señalan tres etapas: a) Observación. está compuesta de cuatro etapas: a) Proposición de problemas relativos a la evaluación de un programa. Un jurado deliberará sobre los argumentos presentados. los procesos curriculares innovadores tal como ocurre. Modelo de evaluación iluminativa Trata de comprender de forma amplia. Pueden utilizarse entrevistas. f) Para clarificar cuestiones en torno a los contratos de trabajo. Se destapan los principios subyacentes de la organización del programa y se ven las posibles relaciones causa-efecto en sus operaciones. c) Explicación. b) Selección de problemas sobre la priorización de los vistos. describiéndolos en términos de factores influyentes. y tratando de desvelar las relaciones entre las creencias y las prácticas. a través de la inmersión en la realidad. Todo ello se hace entre de un marco de negociación cuya meta es facilitar la comprensión de los procesos por los propios participantes y servir de estímulo a su enriquecimiento en el plano personal y tanto como en el grupal. directores y administradores. quien no evalúa porque no tienen interés pro mejorar la cultura. d) Para revelar las distintas interpretaciones que distintos representantes hacen sobre los mimo datos. Tarea de dos equipos evaluativos que deben reunir y analizar los datos convenientes. defiende el modelo de evaluación iluminativa. Modelo de crítica artística Este modelo se centra en procesos educativos y está muy ligado con la formación del profesorado. De ahí que proponga tres condiciones: a) Disponer de valores para juzgar sobre el mérito y la dignidad de un proceso educativo. g) Para tomar decisiones sobre todas estas cuestiones. e) Para informar a los profesores. así como la observación. Eisner (1979). así como el análisis de la información documental e históricas. la organización y las concepciones de los individuos. la evaluación judicial.b) Para seleccionar libros de texto. c) Para estimar la congruencia entre una innovación y el sistema existente. d) Discusión ante la audiencia. pero marca la diferencia del conocimiento que obtiene el "entendimiento educativo"con el del antropólogo. para Wolf. cuestionarios y tests. etapa de iluminación. c) Preparación de los argumentos. Dos elementos clave orientan esta tarea: los objetivos del programa y las entrevistas al personal implicado. Por otra parte. . Tarea para un grupo de implicados representante de los diversos grupos. Sttuflebeam y Sinkfield (1989).

que deja las cosas como están. También critica la idea del evaluador como "agente honesto". Es personal y exige desarrollo de la capacidad de percepción. apreciación. Se rige por los principios y la objetividad y la responsabilidad profesional. Tiene la siguiente estructura: Descripción. Los informes son burocráticos. es decir. El evaluador se preocupa por determinar el valor educativo de su política y actuar como consejero. El evaluador acepta los valores de la autoridad. Emerge de un marco teórico fenomenológico. A su juicio se debe a la aceptación de la perspectiva fenomenológica. McDonald (1983) piensa que las diferentes formas de evaluación responden a diferentes posiciones sobre la distribución del poder educativo. * Conclusión. Las técnicas de recogida de datos son accesibles a personas no especialistas. El rol del investigador es democratizar el conocimiento. cuyos conceptos claves son la negociación. interpretativo. MODELOS CRÍTICOS. Las técnicas son científicas. Basado en el derecho de sabe. * Interpretación. La evaluación democrática. confidencialidad y accesibilidad. distinguiendo tres tipos: a) Burocrática: Trabajos que sirven incondicionalmente alas agencias gubernamentales con poder para distribuir los recursos educativos. c) Democráticos: Servicio de información a la comunidad entera sobre las características del programa educativo. los valores y las circunstancias. generalización de la idea básica obtenida. iluminando las prioridades. que toma en consideración el factor político y el tema del control y del poder en la evaluación. * Evaluación. sin embargo creemos que está a medio camino entre los modelos prácticos y lo críticos. científicos y públi cos.* b) Poseer un conocimiento refinado. Los informes pertenece a la administración y la técnicas deben ser creíbles y eficaces. Su finalidad es proporcionar datos relevantes para los que tienen que tomar decisiones. que facilite la comprensión de los hechos en relación con los factores que influyen sobre ellos. puesto que olvida que la actividad de evaluación está influenciada por los valores del propio . para que otros vean y experimenten los contenidos a través de la forma. ofreciendo la información necesaria para conseguir sus objetivos políticos. Las base para una evaluación democrática debe se la perspectiva o la epistemología critica. Lakomski (1983) critica la evaluación democrática de McDonald porque no proporciona una respuesta política al problema de control. divulgar el conocimiento obtenido para hacerlo comprensible a otros. Los informantes tienen el control sobre el uso de la información. o valoración educativa según unos criterios. c) Tener crítica educativa. b) Autocráticos: Servicio condicional a las agencias con poder para distribuir los recursos. Reconoce la pluralidad de valores.

Partiendo de la definición de Kemmis (1989. Por ello es importante atender al proceso de negociación de los participantes. * Criterios para un evaluación democrática del currículum.. los cuales deberá descubrirse mediante la evaluación. Lo que contradice el principio de construir reglas y criterios universalmente válidos para la aplicación de un programa. p. histórica y culturalmente negociada. se admite que no hay forma de establecer cuál de ellos es correcto porque todos ellos son igualmente válidos. ya que a través de él se van cambiando las exigencias del programa en un proceso de debate crítico o conservación Para adoptar este principio es preciso partir de que la realidad es social. Parece ser que se parte de la aceptación de que el pluralismo es la única posición válida. cuando los diferentes grupos no están de acuerdo o entran en conflicto de valores. patrocinadores.). y la evaluación independiente puede ayudar a aprovechar la autocrítica al programa allí donde el programa de la comunidad es difuso o dividido por la controversia. existente dentro de la comunidad. 6) Principio de propiedad en la producción y distribución de información: Los argumentos y la información son un . aunque siempre hay elementos constrictores de la libertad e acción y circunstancias que están más allá del control de los participantes. evaluadores. no es más que un sofisticado relativismo en el que. e informar a la audiencia para dar pie al debate sobre el programa. Pero el hecho de que no haya valores absolutos no quiere decir que no haya criterios por los que lo evaluadores puedan juzgar lo que debe hacerse en cada situación. considera que un programa de evaluación sobre desarrollo curricular e innovación debe estar desarrollado por los siguientes principios: 1) Principio de la racionalidad como lo razonable: La tarea de la evaluación es iluminar el razonamiento que guía el desarrollo del programa. 4) Principio de la pluralidad de perspectivas de valor: En la evaluación hay que tratar de determinar cuáles son las perspectiva más relevantes en el proyecto. sobre la naturaleza y la dignidad de un programa. "Evaluación es el proceso de ordenación de la información de los argumentos que permiten participar en el debate crítico sobre un programa específico a individuos y a grupos interesados". 5) Principio de la comunidad autocrítica: La evaluación debe refinar el debate crítico. 3) Principio de comunidad de intereses: El evaluador deberá iluminar la extensión de los intereses comunes y de los conflictos entre valores e intereses de los participantes de la comunidad. para identificar los factores contextuales e históricos que influyen y facilitan el análisis crítico de estos aspectos.evaluador. De ahí que la autocrítica sea la primera base para la evaluación. según el autor. 2) Principio de autonomía y responsabilidad: Este principio implica a todos lo participantes (profesores. La metaevaluación puede ayudar a mejora la calidad de la contribución el programa de evaluación.. cuando. la evaluación externa contribuir al debate crítico pro acrecentar la conciencia de algunos intereses y valores relevante para el programa. Por lo cual será importante clarificar los criterios para una evaluación democrática. Se basa en el principio de autonomía moral y cooperación o responsabilidad compartida entre los patrocinadores del programa y los participantes.119).

necesidades. que la investigación pretende obtener conclusiones generando nuevo conocimiento. desarrollo y operatividad de los programas. Suchman (1967) distinguió ente evaluación e investigación evaluativa. Para este autor la investigación evaluativa es necesaria cuando: Los resultados que se quieren evaluar son complejos. cambiarlo o retirarlo. y la investigación como la actividad científica que trata de aumentar la posibilidad de demostrar el valor de alguna actividad social. 7) Principio de conveniencia: El diseño de evaluación no es una cuestión teórica o técnica sino práctica. sino en relación a las preferencias. La finalidad es ayudar en la planificación. definiéndola como aquella forma de evaluación que establece criterios claros y específicos para el éxito. Por ello la evaluación deberá hacer explícitos lo principios de procedimiento que gobierna la dirección. . son: * La utilidad de los resultados debe ser el criterio fundamental del evaluador. Weis (1989). definido por un valor. según Suchman (1967). Entendida la evaluación como el proceso de emitir juicio de valor. Se necesitan pruebas para convencer a otras persona acerca de la validez de las conclusiones. Es decir.aspecto importante de la evaluación porque su uso y abuso afecta a los participantes y a los observadores del programa en su vida social. Su característica fundamental. La investigación científica debe ser su modelo. * * * * El estudio de casos en investigación curricular. reducirlo. Las decisiones que se derivan son importantes y caras. orientar a conocer cuál es el nivel de consecución de alguna meta u objetivo existente de un programa. y si se debe continuar con él ampliarlo. producción y distribución de este proceso o de elaboración de información. y no debe realizarse con relación a la "lógica interna" del modelo de evaluación que se elija. circunstancias y oportunidades de los que serán más estrechamente implicados en el programa. ética y política. considera que la evaluación es una actividad orientada a determinar el valor de algo y. obligaciones. LA EVALUACIÓN COMO INVESTIGACIÓN. Los supuestos básicos de la investigación evaluativa. difíciles de observar y constan de muchos elementos que reaccionan de diversas formas. debe aportar conocimiento suficiente porque los que toman decisiones quieren y necesitan saber con qué grado de acierto está cumpliendo el programa los objetivos para los que se estableció.

capta un instante en el tiempo y el espacio y lo detienen frente a la realidad cambiante. LA EVALUACIÓN DEL CURRICULUM EL CAMPO DE LA EVALUACIÓN DEL CURRÍCULUM "Evaluación de curriculum" entendida como la evaluación de curriculum diseñado. y que requiere el uso de múltiples fuentes de evidencia. en un buen estudio sobre la . La evaluación del curriculum ha estado dominada por un cierto imperialismo de los test y estándares establecidos. la entrevista. En este sentido la evaluación legitima el curriculum a aprender/enseñar/seleccionar en un campo de conocimiento o disciplinar de una etapa educativa. Shulman (1992) subraya como característica. Las características del estudio de caso son definidas por diversos autores. se presenta como una perspectiva amplia.. sino el mismo examen contribuye a establecer los conocimientos válidos de una disciplina". señalan que este es "un área compleja de estudio. innovadores o formativos). particularidad. En ambos casos van unidas.. Ying (1987. citado por Marcelo y Parrilla 1991. realidad. a menudo incontrolada. tras la revisión (histórica) del campo de la evaluación del curriculum. al curriculum como resultado o producto. Sin embargo el autor reflexiona sobre alguno problemas y los presenta como razones para no hacer el estudio de casos: a) El estudio de casos es una intervención. Madaus y Kellagan (1992:147). Nunca describe la realidad como es ahora. sobre la vida de otros. Marcelo y Parrilla (1991) citan las siguientes: totalidad. aparte de dimensiones internas del curriculum (contenidos. negociación. y de la investigación educativa". ya que se hace un selección para entrevistar. son medio des influir en la vida del centro. con relaciones cercanas a la evaluación de programas. Walker (1989) considera el estudio de casos es el intento de investigar a través de la experiencia de los sujetos del estudio para ofrecérselo a los que son audiencia. c) El estudio de casos es conservador. así. o con los alumnos sobre la enseñanza. por ejemplo. etc. Por esto.13) define el estudio de caso como un método de investigación que permite un estudio holístico y significativo de un acontecimiento o fenómeno contemporáneo dentro del contexto real en que se produce. p. hemos de incluir. a los test. confidencialidad y accesibilidad. participación. en el que es difícil establecer lo límites entre fenómeno y contexto. y a través de ellos se puede conseguir una visión clara de ello que sucede en la clase. Dentro de la evaluación del currículum. Madaus (1988). para que te hablen. b) El estudio de casos da una formación del mundo. Por ejemplo. y la evaluación de programas (educativos.) Los conocimientos sobre una disciplina no sólo se transmiten en la enseñanza y se comprueban en los exámenes. Como ha destacado Kvale (1992:121-2). que es evaluado en el aprendizaje de los alumnos. etc). la evaluación de la innovación curricular. de lo que escribes.Según Pérez Gómez (1983). (. materiales. que el estudio de casos refleja los problemas particulares de la enseñanza. la observación de la enseñanza. se entiende por estudio de casos el análisis de una instancia en acción. y/o como programa o contenido. la evaluación contribuye "la determinación de lo que son los conocimientos válidos de una disciplina. el hablar cono profesores sobre sus sentimientos.

desarrollo e informe..Los métodos aplicados. independientemente de sus resultados . comunidad escolar.. como base para clarificar el campo. refiriéndose a la evaluación del curriculum en la práctica.influencia de los test en la determinación del currículum. sino información útil para iluminar la práctica. pero la asociación tradicional entre investigadores y evaluación ha motivado un énfasis en los test y medida.La evaluación del curriculum es dependiente de las múltiples perspectivas del curriculum existentes. al tiempo que puede proporcionar evidencias que puedan ser tomadas en cuenta para guiar la toma de decisiones (y en este aspecto guarda similaridad con la evaluación formativa). 3. 2. de igual manera. cómo se enseña. y la orientación al diseño. Ariav (1986) señala los siguientes propósitos. de un método de enseñanza. mientras que la "evaluación del curriculum".La evaluación de la práctica curricular se dirige a lo que los profesores y alumno han utilizado. caracterizada por redefinir la unidad de evaluación dentro de un contexto más amplio y por focalizarse en las funciones . señala las siguientes características iniciales: 1. pues la suposiciones metodológicas suelen implicar concepciones del curriculum. porque según los diferentes modelos de evaluación se centrará en cuestiones diferentes y aplicará diferentes metodologías. cifrando el primero en describir el posible valor educativo del currículo. propugnan una "evaluación social del curriculum". 3. King (1991).1986) entre análisis del curriculum y evaluación del curriculum. La evaluación puede dirigirse al uso de un material curricular específico. y cubre un amplio rango de actividades curriculares (procesos y productos) que pueden ser objeto de evaluación..En segundo lugar. alumnos. profesores. qué se aprende. es dependiente de múltiples perspectivas filosóficas y metodológicas conjuntamente. teniendo una función descriptiva más que prescriptiva. y cómo se aprende"(Madaus. o de personal. prioritariamente se centra en juzgar/valorar su éxito y resultados. 1988:83). sino los test quienes están determinando cada vez más que se enseña. están usando o van a usar en el futuro. sus potencialidades curriculares y sus procesos de desarrollo. Aquí igualmente se presenta un amplio espectro de modos y formas de evaluación Desde la perspectiva crítica Apple y Beyer (1983). Evidentemente esto es una generalización.La dirección de la evaluación del curriculum se puede dirigir a la administración educativa.El propósito de la evaluación del curriculum es juzgar el éxito o fracaso de un curriculum particular. la toma de datos empíricos.. La finalidad del análisis es describir y comprender una situación. Por otra parte podemos distinguir funcionalmente (Ariav. agencias patrocinadores. ha puesto de manifiesto cómo los test usurpan el papel del currículum en la definición de lo que hay que enseñar y cómo hacerlo: "No es currículum oficial. métodos de la evaluación del currículum: 1... son diferentes en los modelos y fines. contexto y situación investigada. en su dimensión sumativa. distinta de la investigación curricular sobre evaluación en la medida en que no pretende proporcionar material para la discusión teórica. 2.

por la propia definición y desarrollo del currículo.. procedimientos y teorías fundamentales que los docentes utilizan para planificar. la evaluación alcanza actualmente a los centros educativos. precisamente por los mismos problemas que tenía que resolver". expresado en materiales curriculares y vivenciados por el profesor y los alumnos. al menos. más allá de la valoración de los aprendizajes adquiridos por los alumnos. 1983: 430) para ver las conexiones entre el curriculum y las estructuras ideológicas y económicas: 1. 2. ya no se justifica reducir la tarea de evaluación exclusivamente al alumno y al proceso de enseñanza y aprendizaje. la evaluación del curriculum debe ampliarse a estas funciones socioeconómicas. todos ellos se convierten en objeto de evaluación" (MEC. en cuanto son dependientes del curriculum o influyen decisivamente en él (entorno escolar o apoyo externo). se encuentra afectada hoy en día. por la organización y funcionamiento del centro no escolar en el que aquélla se lleva a cabo. Tres dominios. afirma que: "La importancia actualmente cobrada por la evaluación educativa y el notable desarrollo de las funciones que le han sido atribuibles ha producido una ampliación paulatina de su ámbito de actuación.sociales que cumplen el curriculum escolar. necesitarían ser objeto de estudio en una evaluación social del curriculum (Apple y Beyer. Así en el reciente documento a debate presentado por el MEC (1994) sobre "Centros educativos y calidad de enseñanza" se señala: "Al adoptar una concepción más compleja e interactiva del curriculo. distribución y reproducción de las relaciones sociales. 1994:26). Kemmis (1986: 119). a todo el conjunto del sistema educativo". que constituyó su campo de intervención originario. divorciadas del contesto social y de sus funciones de legitimación. Parte de la siguiente definición de evaluación: . Los resultados de la educación vienen determinados por la actuación de los profesionales que en ella intervienen. raza y género de nuestra sociedad. y por la actuación del aparato administrativo que debe proporcionar los recursos para el funcionamiento eficaz del sistema en su conjunto. en suma.. No obstante. clase social. Próximo a nosotros tenemos a House (1992). organizar y evaluar lo que sucede en las escuelas.Las interacciones cotidianas y regularidades de la vida escolar: Lo que se ha llamado "curriculum oculto" como modo en que se enseña y reproducen importantes valores y normas sobre trabajo. al profesorado. que fue inventada para solucionar nuestros problemas sociales. SENTIDO DE LA EVALUACIÓN En un documento del MEC (!994) sobre "Centros educativos y calidad de enseñanza". ha proporcionado un conjunto de principios que deben regir un proceso de evaluación democrática en el desarrollo curricular. Por ello la evaluación del curriculum es incompleta si se limita a la "caja negra" de la escuela investigando lo que se enseña o las experiencias de los alumnos con los programas escolares. al currículo. producción. Dado que las escuelas no son entidades aisladas. En consecuencia. el campo de la evaluación del curriculum se ha ampliado considerablemente hasta poder abarcar otros campos.. a la propia Administración y. 3.Las perspectivas.El corpus formal del conocimiento escolar: El curriculum planificado. que realizó una revisión de las tendencias actuales en evaluación y dice: "La evaluación.

"Evaluación es el proceso de recoger información y argumentos que capaciten a los individuos y grupos interesados para participar en el debate crítico sobre un programa específico. Así definida la evaluación consiste en aprovechar y refinar los múltiples procesos de enjuiciamiento público y privado, no en substituirlos con tecnologías de valoración". CONCEPTUALIZACIÓN DE LA EVALUACIÓN. La evaluación tiene como objeto determinar el valor de una cosa, Worthen y Sanders (1987:24) definen la evaluación como "el acto de proporcionar juicios para determinar el valor (valía o mérito), sin minusvalorar por ello las importantes funciones que la evaluación tenga en la toma de decisiones y en las actividades políticas. En educación, la evaluación es la determinación formal de la cualidad, efectividad, o el valor de un programa, producto, proyecto, objetivo, o curriculum. La evaluación, para ello, utiliza métodos de investigación y de juicio, como: 1.- Determinar los estándares para juzgar la cualidad y decidir cuáles de ellos deben ser relativos o absolutos 2.- Recoger información relevante sobre los objetos de evaluación; y aplicar los estándares para determinar la cualidad. Gimeno (1992, p.338) define la evaluación como "proceso por medio del que alguna o varias características de un alumno, de un grupo de estudiantes, de un ambiente educativo, de objetivos educativos, de materiales, profesores, programas, etc., reciben la atención del que evalúa, se analizan y se valoran sus características y condiciones en función de unos criterios o puntos de referencia para emitir un juicio que sea relevante para la educación". En el artículo de Cronbach (1963), Presentó un cambio muy significativo en el que se elabora una propuesta sobre los tipos de decisiones en el uso de la evaluación: 1.- Mejora del curso/programa: Decidir qué material de instrucción y qué métodos son satisfactorios y en cuales es necesario introducir cambios. 2.- Decisiones sobre individuos: Identificar las necesidades del alumno, con el fin de planificar su aprendizaje, valorar sus méritos con fines de selección y agrupación, familiarizándose con sus propios progresos y deficiencias. 3.- Regulación administrativa: Juzgar la calidad del sistema escolar, la de los profesores individualmente considerados, etc. Cronbach plantea la necesidad de centrar la evaluación en el propio proceso de desarrollo de un curso, con el objeto de mejorar y evitar lagunas que al final del proceso no se pueden superar. Nevo (1989) llevó a cabo una revisión biliográfica sobre evaluación y señaló las dimensiones relevantes en la evaluación del curriculum: 1.- )Cómo se define la evaluación? La evaluación educativa es una sistemática descripción de los objetos educativos y/o su mérito o valor.

2.- )Cuáles son las funciones de la evaluación? Señalaremos cuatro funciones básicas en la evaluación educativa. 1.- Formativa (para desarrollar y mejorar). 2.- Sumativa (para selección, certificación, rendir cuentas). 3.- Sociopolítica (como motivación y soporte de apoyo público). 4.- Administrativa (para ejercer control y autoridad). Por otro lado Gimeno (1992) al referirse a la evaluación de la enseñanza, considera siete tipos de funciones que de hecho ejerce la evaluación: a) Definir los significados pedagógicos y sociales, o qué se entiende por excelencia escolar. Y a partir de la consecución de la excelencia o de niveles de excelencia, definir el significado social de términos y las realidades como la calidad de la educación, o el rendimiento, el éxito, el fracaso escolar, etc b) Funciones sociales. Dado que a través de las certificaciones se acreditan los niveles de competencia en función del grado de saber demostrado, sirve para la jerarquización de los puestos de trabajo y la selección de las personas que deben desempeñarlos. c) Poder de control. El profesor ejerce su poder, fundamentalmente a través de las calificaciones. Controla la conducta, y es una forma de compensación a la ausencia de liderazgo.

d) Funciones pedagógicas. También sirve a funciones con claro objetivo educativo, o de mejora, que son las que legitiman la existencia de la práctica de la evaluación.(creación de ambiente escolar, función diagnóstica, recursos para la individualización, afianzamiento del aprendizaje, orientación, pronóstico y ponderación del currículum y socialización profesional). e) Funciones con respecto a la organización escolar. Proporciona conocimiento para una ordenación del currículum y una organización de la práctica real de la enseñanza. f) Proyección psicológica. En la medida que repercute en la motivación, el autoconcepto y las actitudes hacia la escuela, etc.

g) Apoyo a la investigación. Es una fuente de información sobre el funcionamiento del sistema educativo, y la validez de los currículums. 3.- ¿Cuales son los objetos de la evaluación? Cualquier entidad puede ser evaluada, pero los objetos más frecuentes son: alumnos, personal administrativo y docente, curricula, materiales, programas proyectos, e instituciones o centros. No debe limitarse a alumnos y profesores, y es necesario identificar claramente el objeto de evaluación, ampliar el objeto de la evaluación, para que esta sea más explicativa.

A.- La evaluación de los alumnos En la evaluación de los alumnos considero dos formas: la evaluación por parte de la administración, y la evaluación por los profesores. a) La evaluación por parte de la administración se realiza generalmente mediante exámenes; esta ha sido la forma más utilizada en todos los países. Marsh (1992) considera que el problema de los exámenes hoy día se sitúa fundamentalmente a nivel de la enseñanza secundaria, pues aunque han sido muy utilizados en el siglo XX, sin embargo se está operando un cambio de manera que se han desplazado desde la primaria a la secundaria. b) La evaluación del alumno por los profesores Los profesores toman en cuenta la cantidad de información tanto al planificar como durante la tarea de instrucción (habilidad y logro, cuestiones sobre el sexo, participación en clase, autoconcepto, competencia social, independencia, conducta en clase, hábitos de trabajo,...) Pero el logro es lo más importante, de forma que hay evidencia de que el juicio sobre la capacidad, la motivación y el esfuerzo del estudiante dependen de su valoración del resultado. B.- Evaluación del profesor Es opinión pública, que la clave de la mejora de la educación está ligada al grado de calidad de los profesores, lo cual a llevado a la administración a tomar diferentes decisiones en torno al cambio para facilitar la mejora. de esta manera se ha visto en la necesidad de adoptar medidas para realizar una evaluación correcta. * Entrevista al profesor. Se ha usado en el pasado y es la piedra angular de las estrategias de evaluación más recientes. Test de competencia. Se usan para certificación inicial y para el contrato. Los profesores deberían demostrar competencia cognitiva como un prerrequisisto para poder enseñar. Medidas indirectas de la competencia del profesor. Esto no se refiere a características de la personalidad, sino a rasgos tales como el compromiso profesional que se expresa a través de actividades extraescolares, etc. Observación de clases. Supone observación directa del estilo del profesor en clase, durante la interacción con sus alumnos, y generalmente se completa con entrevistas. Se pueden usar instrumentos estandarizados de observación para facilitar los juicios de los observadores, como Weade y Evertson (1991) recomiendan, ya que la observación sistemática y deliberada, como una acción intencional enfocada a determinados propósitos, puede y debe ser planeada para poder obtener justamente la información que se necesita. Valoraciones de los estudiante. Se basa fundamentalmente en que: 1) los estudiantes saben cuando han sido motivados; 2) son los estudiantes los que van a cambiar la conducta; 3) ellos saben si el

*

*

*

*

y sobre los aspectos organizativos. * Revisión de compañeros. 4.¿)Qué criterios se han de emplear para juzgar el mérito de un objeto? Al menos tendremos en cuenta los siguientes: Si responde a las necesidades identificadas de los actuales o potenciales clientes.profesor proporciona feed-back..Comunicar los hallazgos a las audiencias. porque todos tienen sus riesgos . en la práctica puede causas tensión. Un profesor puede usar datos derivados de las otras técnicas y hacer juicios sobre su propia enseñanza.. No olvidando que se deben emplear múltiples y variados criterios... Es responsabilidad del evaluador/es delimitar a los afectados por una evaluación e identificar o proyectar la información necesaria. concluyeron que no hay un único método válido. 3.. * Darling-Hammond y sus colaboradores (1989) después de revisar los procedimientos de evaluación del profesor. 2. El grado de consecución de normas y estándares.Coleccionar y analizar datos empíricos. 6. y la consecución de objetivos determinados para los objetos propuestos. la existencia de otros objetivos no planteados.Centrarse en el problema de evaluación. lo cual es un pilar de la profesionalización.. interesadas en el objeto de evaluación. Unido a una estrecha interacción entre el evaluador y los destinatarios.¿Cómo se realiza el proceso de evaluación? En el proceso de evaluación. 7. cuatro grupos de variables deben ser consideradas: los objetivos del objeto/aspecto a evaluar. y desde luego no es útil una aproximación unidimensional para juzgar la competencia del profesor.¿A quién debe servir la evaluación? La evaluación debe ofrecer la información necesaria para todas las partes implicadas tanto las actuales como potenciales. sus estrategias y planes. 8. 5. 4) El reconocimiento de los estudiantes pude motivar la buena enseñanza. En este proceso un comité de compañeros evalúa la enseñanza a través de un análisis de documentos. debe incluir las tres actividades siguientes: 1. su proceso de implementación. y sus resultados e impacto.. Evaluación del Claustro de profesores.¿¡Qué métodos de evaluación deben ser usados en la evaluación? .¿Qué tipo de información debe ser recogida para cada objeto? Independientemente de los modelos de evaluación que condicionan esta dimensión. La autoevaluación puede promover autoreflexión y la motivación hacia el cambio y el desarrollo personal y profesional. como método de investigación. Aunque es una idea entusiasta..

como los estudios de caso. 4.Descripción .Habilidad para mantener relaciones humanas correctas con los individuos o grupos implicados en la evaluación. utilidad y precisión.Informal: Evaluar de un domo informal es una actividad específicamente humana..Formal . y Apropiada (ser realizada de modo legítimo y ético).Sumativa: Una de las distinciones más extendidas es si los estudios de evaluación se hacen durante el desarrollo del programa o cuando el programa ha finalizado.. 5.Juicio: Priman los aspectos descriptivos y objetivos en la información proporcionada.Una amplia competencia en metodología de investigación y otras técnicas de análisis de datos. 4. utilizando de acuerdo con la naturaleza del problema el método de investigación que mejor se ajuste a la demanda solicitada.Un marco conceptual para integrar las capacidades mencionadas.¿Quién debe hacer la evaluación? La evaluación debe ser realizada por equipos de profesionales que posean: 1. 2. Stake plantea sus dudas sobre la base en la práctica de la distinción. 10. 7.. categorizandolos en los siguientes: 1.-Totalidad .. con pretensiones de generabilidad. suele requerir validez. o hacer estudios analíticos como las relaciones entre variables . Viabilidad (ser realista y prudente).Respondente: Si la evaluación debe venir predeterminada por la observación de las actividades o por la realización de preocupaciones de los participantes en el programa . Precisión (técnicamente adecuada).. o estudios de caso particulares.Comprensión del contexto social y del tema específico de evaluación..Preordenado . 6.Caso particular ....Formativa . 3.Generalización: Si el estudio de un programa se hace como representativo de otros. o a sus procesos de desarrollo. Por otra parte tenemos a Stake (1986) que ha señalado las dimensiones más comunes para clasificar los diseños de evaluación.-¿)Por medio de qué estándares debe juzgarse una evaluación? La evaluación debe lograr un equilibrio óptimo en el conjunto de estándares de: Utilidad (su uso y su práctica). La evaluación está más operacionalizada y menos personalizada. que necesita de varios métodos de trabajo.Analítico: Tratar el programa como una totalidad holística. 3.. 9. o defender la legitimidad de proporcionar un juicio sobre el programa evaluado. 2.La evaluación es una tarea compleja.Producto .Proceso: Otra distinción relevante en los estudios de evaluación es si se dirigen a los resultados de un programa. según el valor extremo del programa o su valor intrínseco. credibilidad..

pueden indicar si una evaluación es formativa o sumativa. el programa sigue funcionando. DIMENSIONES DE LA EVALUACIÓN FORMATIVA Y SUMATIVA. Hopkins (1989:168) señala que. Lo que es importante es que hay diferencias entre lo que la "gente del programa" quiere conocer sobre el programa y lo que los "externos" quieren conocer". etc. El supuesto básico la evaluación formativa es que los agentes utilizan o podrán usar la información obtenida para el estudio que realizan. y unos informes sumativos pueden servir para promover el desarrollo). nunca acaba. profesores y otros profesionales). Acercándose a Stake. aunque la distinción entre formativa/sumativa es "superficialmente clara". el mismo estudio pude ser considerado formativo por un cliente y sumativo por otro" (Lewy. en un principio por las audiencias a quién van dirigidas y el uso que se hace de la información. en la evaluación sumativa la audiencia incluye a los potenciales consumidores (alumnos.discretas. distinguiendo entre lo que se hace durante el desarrollo y aquello que se hace cuando el desarrollo ha terminado. La evaluación formativa sirve para tomar decisiones sobre el desarrollo del programa. en la práctica no funciona así (una evaluación formativa puede convertirse en una serie de pequeños informes. Las audiencias en el caso de la evaluación formativa es el personal inmerso en el programa. como términos más adecuados. aquellos que lo financian.el desarrollo no acaba nunca. mientras que en la sumativa las decisiones conciernen sobre si continuar con el programa o darlo por finalizado. Por eso Scriven resaltó que no hay diferencias lógicas o metodológicas entre la evaluación formativa y sumativa. programas Montessori. Esta distinción es difícil en la práctica. diferenciar entre evaluación interna y externa: " En el campo de la evaluación los términos formativo y sumativo han llegado a ser cada vez más utilizados.Externa: Si la evaluación es realizada por personas implicadas en la institución responsable del programa o por externos. los términos han sido universalmente utilizados. Esta posición influye en cómo es evaluado. y supervisores. 1987: 36) propone.Interna . Se diferencian. "Solo el tiempo de realización. Stufflebeam las ha llamado "evaluación proactiva" y "evaluación retroactiva". Scriven en 1976. y Fernandez Perez (1994:781) los denomina "evaluación sobre el proceso" y "evaluación terminal". Para la mayoría de los programas educativos-cursos de correspondencia.. Por eso Stake (Worthen y Sanders. pues el propósito de ambas es examinar el valor de una entidad determinada. pero para el profesor. Yo encuentro esta distinción trivial. En el caso de la evaluación . el público que la pide y la manera de usar los resultados. distinguió entre roles o funciones que pude cumplir la evaluación "propongo la utilización de los términos evaluación formativa y sumativa para hacer referencia a estas dos funciones de la evaluación"). Por otra parte. Para un alumno hay un comienzo y un final. El propio Lewy (1991: 2552-3) reconoce que "tras dos décadas de utilización de estos términos se ha producido poco consenso en lo que se refiere a sus rasgos distintivos". Estos términos tienen un efecto dramático. EVALUACIÓN FORMATIVA Y SUMATIVA Siguiendo a Cronbach. extenderlo o adoptarlo. interpretado y negociado. 1992:2552). 8.

o. Desde una perspectiva que intente unir desarrollo curricular e investigación no tiene sentido separar el papel de desarrollador interno y evaluador externo. desarrollado autonomamente por un centro escolar. . sujetos o grupos implicados y la iniciativa de la evaluación. necesita también de una evaluación sumativa que le sirva para demostrar su mérito y valor. y la limitada difusión entre evaluadores y programas similares al estudiado. En la evaluación formativa el nivel de generalización está limitado al contexto especifico evaluado. y que le sirva para defender su viabilidad frente a las escuelas tradicionales. conferencia.. En la práctica un proyecto de innovación. y no un reformador. a veces. pues como recuerda recientemente Nevo (1994: 94). en el caso de la evaluación sumativa el modo de aplicación se basa en informes de evaluación para responsables de evaluación. según los diferentes estándares de calidad. aunque referido a la evaluación del profesorado universitario. No debemos caer en el error de oponerlas dicotomicamente. planificadores de la educación. EVALUACIÓN INTERNA/EXTERNA Siguiendo la sugerencia de Stake. La nueva evaluación equivale a investigar la naturaleza y los problemas de la innovación educativa y el perfeccionamiento de las escuelas" (Stenhouse. modos de trabajo y "cultura". más preferentemente . normalmente rendimientos académicos de los alumnos. o para presentarla como una alternativa a la evaluación sumativa. o alguien que en el caso del personal de evaluación es diferente del personal que está siendo evaluado. De modo similar al nuestro. De este modo está en crisis si lo que se debe evaluar es la consecución de los objetivos prefijados centrándose en los resultados.autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. lo que implica valorar los procesos. se ha utilizado injustificadamente la evaluación formativa como excusa para evitar las demandas de rendir cuentas de resultados. Un evaluador externo es alguien que en alguna medida no forma parte del proyecto. Aquel que desarrolló un curriculum debe ser un investigador. Dos características diferenciales entre la evaluación formativa y la sumativa las encontramos en el nivel deseado de generalización y el modo de aplicación. El modo de aplicación en la evaluación formativa se basa en el informe oral. como si son externos a la parte encargada de producción/escritura/servicio del proyecto. ambos se fusionan: "En mi opinión el desarrollo del currículum debería tratarse como investigación educativa. revistas especializadas En la última década ha emergido con fuerza una perspectiva interpretativa de análisis de los significados. 1984: 169). informe interno. Scriven define de las siguientes formas las evaluaciones externas e internas: Evaluaciones internas son aquellas hechas por el personal del proyecto. que emplea como instrumento básico de mejora la evaluación formativa o autoevaluación. la acción conjunta del centro y su compromiso por la mejora escolar. junto a la dimensión anterior se pude diferenciar entre evaluación interna (realizada por los que están trabajando en el programa) y externa (conducida por agentes externos).. Zabalza (1990b) contrapone la evaluación orientada al control a la evaluación orientada al desarrollo. tanto si son personal especializado.sumativa: "lo que funciona en un contexto sometido a unas condiciones debe operar de manera similar en otro contexto". procesos. sin embargo en la evaluación sumativa el nivel deseado de generalización se escapa hacia operaciones con objetos similares. medidos en términos cuantitativos.

por ello requiere crear cauces de participación y responsabilización apropiados para la toma de decisiones del currículum escolar. CONTROL/EXTERNA Certificar comparativamente la eficacia de un programa. o de proyectos de innovación que desarrollan el currículum básico. ¿Qué necesidades tenemos?. Evaluación sumativa Responsabilidad: Dar cuentas de los resultados Externos Cuantitativa: validez. Centrado en los resultados. Necesitan conocer los resultados que va teniendo su propia actividad y esfuerzo. Los alumnos.También se plantea necesidad de una evaluación interna debido a que la evaluación del currículum forma parte de la cultura de la escuela. Válida/fiable Limitada en el tiempo Normalmente extensa Administración. ¿Qué resultados?. Debe conocer cual es el nivel de la eficacia en la tarea encomendada al sistema educativo. ¿Qué coste?. A menudo informal Frecuente/continua Normalmente pequeña. La sociedad. Deben conocer qué valoración va obteniendo el aprendizaje de sus hijos en la escuela. Rosales (1990)ve la necesidad de implicar a diferentes grupos de personas: a) Los profesores. Test estandarizados o pruebas formales. es preciso someterla a deliberación. sobre todo a efectos administrativos. b) c) d) DIMENSIONES DE LA EVALUACIÓN INTERNA/EXTERNA Dimensiones Propósito DESARROLLO/INTERNA Mejorar internamente el funcionamiento de un programa. Desarrollo y mejora del programa o curriculum Agentes Metodología Internos Cualitativa: Etnográfica y procesual. Personas implicadas en el desarrollo del programa o currículum. Los padres. ¿Cómo se está trabajando?. En cuanto a la evaluación de los aprendizajes del curriculum. Observación sistemática. ¿Cuál es el grado de eficacia? Formas/roles Medida Frecuencia de datos Tamaño muestra Audiencia Principales cuestiones . Orientado en los procesos internos Evaluación formativa. Cuando se trata del currículum básico. potenciales consumidores o patrocinadores. Son los responsables de la evaluación inicial y continua de sus alumnos. la evaluación interna puede ser completada por la externa.

interesa cómo la evaluación puede servir para un desarrollo o mejora interna del aspecto o actividad evaluada (Hopkins.Los resultados o impactos no deben ser únicamente los aspectos a examinar cuando se evalúa un programa. La tarea de hacer más formativa una evaluación se convierte en el problema de cómo el conocimiento producido en la evaluación es utilizado por los usuarios. para proveer información en orden a planificar y mejorar. Nevo (1994).. 2.¿Cómo mejorar?. en combinación con la "evaluación externa". Dimensiones principales de la evaluación (Reelaborado a partir de Worthen y Sanders. 3..Los alumnos y sus resultados no deben ser el único objeto de la evaluación escolar. El evaluador sólo describe. aunque cada una pueda tener ventajas para ciertos propósitos: Evaluación interna para una evaluación formativa y para proveer feedback para la mejora. y la externa para una evaluación sumativa. Como resultado de un Proyecto llevado a cabo en Israel para capacitar a los centros a hacer su propia evaluación. así como para certificar y dar cuentas. El evaluador/es tiene distintos valores que los que desarrollan el programa. Nevo (1994) expone las siguientes conclusiones extraídas: 1.La autoevaluación tiene que servir conjuntamente para una función formativa y sumativa. o acciones Hacia una mayor independencia y una influencia menos formativa Documentos escritos producidos después de haber desarrollado la actividad práctica. implicando una formación para aprender de la evaluación. INFORMES VALORES STATUS DESCRIPCIÓN/ PRESCRIPCIÓN .. defiende que la evaluación basada en la escuela puede ser concebida como sinónima de "evaluación interna". 1989). proyecto u otro objeto de evaluación dentro del centro escolar. analiza e informa. 4. La distinción entre evaluación interna y externa no tiene por qué implicar un juicio de valor sobre la superioridad o ventajas de una sobre otra.. 1987:36). Se percibe al evaluador como en un status diferente y particular.El personal escolar entiende mejor el significado de la evaluación mediante la distinción entre descripción y juicio. y para proveer información para demostrar el rendimiento de cuentas o resultados. Criterios Hacia una influencia más formativa y menos independiente Diálogo continuo formal o informal con los gestores y los que toman decisiones Base común de valores compartidos entre evaluadores y los que desarrollan el programa Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa El evaluador entrará en la discusión sobre estrategias alternativas. Pero más allá de discriminaciones conceptuales.

* Racionalidad instrumental de medios-fines.recomendadas COMPROMISO/ DISTANCIA El evaluador toma la iniciativa para el éxito y siente alguna responsabilidad en este éxito. dentro de una evaluación orientada a la mejora escolar. en un primer plano. La evaluación de la mejora. en un programa educativo o curriculum. * Mejora como adopción de propuestas externas. Cada una tiene sus propias implicaciones metodológicas y puede servir para cuestionar el papel de la evaluación en el proceso de mejora escolar. Aspectos Finalidad Evaluación COMO mejora La evaluación forma parte del proceso de desarrollo * El papel de evaluador y usuario se identifican. escepticismo u oposición. El avaluador toma una posición de curiosidad imparcial. * Mayor implicación de los usuarios. que no funcionan eficientemente de acuerdo con las expectativas prefijadas. evaluación para la mejora. * Limitarse a como facilitar el cambio. y diferenciar. y evaluación como mejora. * Posible mecanismo de interiorización de responsabilidad. 1989:168). al tiempo que cada una se sitúa a un nivel superior del círculo y pueden conducir a otra. * No centrarse en los factores que constituyen el proceso de cambio mismo. * Evaluación basada en objetivos. que no toda evaluación formativa implica un desarrollo organizativo del centro. recogido en Hopkins. Evaluación DE la mejora Medida de la consecución de los objetivos. pudo incluir la tradición Tyleriana de medida de resultados o "productos" para detectar aquellos aspectos. con fines clarificadores. Holly y Hopkins (1988) han propuesto. . distinguir tres perspectiva sobre la relación entre mejora escolar y evaluación: evaluación de la mejora. * Autoevaluación del centro. RELACIÓN ENTRE MEJORA ESCOLAR Y EVALUACIÓN. * Comunicar y utilizar los datos. Paradoja de la evaluación formativa (según Bridges. * Posible uso conservador por los centros. * Determinar el grado de implementación y factores que lo explican. evaluación y cambio son distintos. La distinción tiene la virtualidad de romper con la oposición fácil entre evaluación sumativa y formativa. Caracteres Limitacione s * Permanecer en un plano emic. sin transcender el contexto local. * Usar los datos para mejorar la práctica. * Perspectiva de "fidelidad". Evaluación PARA la mejora "Evaluación formativa" Ayudar a introducir mejoras en la práctica * Evaluación durante el proceso.

técnicas empleadas para demostrar los resultados extraídos.. autocrítica. desdeñando en parte los factores del proceso de cambio. negociador. y autorenovación"(Darling. aplicó un análisis político a la evaluación. centros o profesores sólo puede legitimarse desde la orientación de ofrecer apoyos a la base para mejorar la enseñanza. desinterés. el patrocinador y evaluadores en la elaboración de los informes de evaluación para contribuir a hacer un uso democrático: Independencia. el contexto de valoración se refiere a valores. si no se entra en los propios mecanismos distorsionadores del pensamiento de los agentes sobre sus propias condiciones de trabajo. etc. tanto los métodos aplicados. identificándose los papeles de evaluador y usuario por medio de la autoevaluación escolar. La evaluación. Beltran y San Martín (1992: 67) la definen como "aquella en la que. sin reconocer un derecho especial a ningún grupo. ideología. En palabras de House (1973: 131) "La utilización de la metodología científica en el contexto de justificación nos permite justificar los resultados producidos en el 'contexto de valoración'". 1994: 26). es decir se guía por un conjunto de valores contribuyendo a hacer explícito un dibujo más claro de la institución y de lo que significa su trabajo en el conjunto más amplio de las prácticas sociales. actitudes. Pero el control democrático por los agentes implicados en la metodología utilizada y de la información generada no deja de ser una propuesta moralista y/o piadosa. McDonald (1976). en estos casos. y se discuta y reelabora entre los diferentes grupos de interés. influyen en sus cambiantes relaciones". Mientras que el contexto de justificación incluye todos los procedimientos científicos. formales o no. confidencialidad y rendimiento de cuentas. como primer paso para la reflexión conjunta sobre lo que se hace. como la información generada en el proceso evaluador es abierta. en todo proceso de evaluación dos contextos: el contexto de valoración y el de justificación. Darling-Hammond (1994) han argumentadon.Hammond. El evaluador externo adopta la posición de mediador. por lo que su finalidad es cómo facilitar el cambio. confidencial y accesible a todos los implicados. que configuran la comunidad educativa". Para House (1973:130) se pueden distinguir. La evaluación de la mejora implica que ésta tiene como fin explícito la mejora escolar. que una política externa de evaluación de alumnos. inserta en el propio desarrollo organizativo del centro. negociado. para lo que utiliza metodologías e informes que puedan hacer accesible el conocimiento. como intento de introducir mejoras en la práctica docente. del acceso a los datos y de la información. y consecuentemente utilizados por los agentes . ha señalado un conjunto de Principios de procedimiento. La evaluación democrática en las instituciones educativas se entiende como un servicio de información a toda la comunidad. "Los evaluadores no solo viven en el mundo real de la política educativa. agente de cambio y dinamizador. McTaggart (1990). una "evaluación democrática". autocorrección. y otros sesgos desde los que se realiza la evaluación. Una fase clave en la evaluación educativa es la diseminación de los resultado e informes evaluativos. de hecho. proponiendo frente a tipos burocráticos o autocráticos.La evaluación como mejora se puede asimilar a la llamada "evaluación formativa". que deberán seguir y respetar. negociación del informe. es usada para ofrecer a los profesores informaciones prácticas sobre el aprendizaje de los alumnos y proveer información para que la comunidad escolar se comprometa en "un proceso recursivo de autoreflexión. se debería hacer o sería legítimo lograr. publicación. LA PRÁCTICA EN LA EVALUACIÓN DEMOCRÁTICA.

sin tener en cuenta los factores que afectan al procesamiento social de dicha información. y poner los medios.sociales y educativos. EVALUACIÓN FORMAL DEL CURRICULUM.. la evaluación debe ser una parte integral para incentivar el diálogo entre los profesores y el desarrollo de la escuela". debemos incluir a los profesores en todas las fases del proceso y que la evaluación esté implicada en el curriculum y en las actividades de enseñanza. han tenido un uso instrumental o "ingenieril". debían servir para ilustrar a los patrocinadores. se ha observado que los análisis vienen a sugerir que casi nunca se hacen cambios en función de los resultados de la evaluación. Bryk y Hermanson (1992). el modelo Tyleriano pretendía ser un instrumento para ayudar a los profesores a . (. proponiendo ellos. clientes y agentes proporcionando información para comprender y reflexionar sobre la situación. Partiendo de que todo conocimiento es poder. que afecta la circulación de la información en una situación dada y tiene consecuencias vitales para los que la sufren". Por tanto Darling-Hammong (1994:25) propone un sistema de evaluación externa que potencie la igualdad y la mejora interna (1994: 25): "cambiar las formas y formatos de evaluación sin cambiar los modos en que la evaluación es usada no cambiará los resultados de la evaluación. un proceso político. 1992: 466). por lo que el evaluador debe preveer. del proceso de enseñanza o de los alumnos)es obvio. distribución y control de los informes de evaluación de centros. debemos clarificar al máximo. se presenta como el filtro último para juzgar la pertinencia y adecuación de los resultados. Desde esta perspectiva las evaluaciones en base a indicadores no deben pertenecer al uso privado de políticos o administradores educativos para ejercer más efecto sobre las escuelas. los potenciales usos que se puedan hacer de los datos de la evaluación y del procesamiento de los mismos. señalan que estos. significativa y operacionalizada. se diseñan y realizan para producir datos/juicios que serán usados con determinados fines por agentes/audiencias diversas. Debemos tener en cuenta los canales de comunicación y el contexto de trabajo ya que este. por lo que más que dirigirse a la toma de decisiones. La comunicación a los potenciales usuarios necesitan una información válida. un uso ilustrado de la información: "proporcionar información para comprender los problemas y catalizar nuevas ideas". ya que los profesores suelen hacerlo de forma secundaria. En cuanto a la distribución y uso por profesionales o administración. dado que su preocupación principal es la evaluación del nivel de logro de los alumnos. Madaus y Kellaghan (1992) estiman necesaria una evaluación formal del currículum. inevitablemente. 1990). (Huberman y Cox. De hecho. Determinados principios éticos deben ser respetados por tanto en la producción. produciendo una merma relevante en la interpretación y uso de la información. el uso y la distribución de los informes de evaluación. Si queremos apoyar el aprendizaje de los alumnos. Como dice Kemmis (1986)): "La evaluación es. programas o alumnos.)En orden a mejorar la educación. Las evaluaciones formales (de los centros. Más bien deben contribuir a enriquecer el discurso público de la comunidad educativa sobre el sistema educativo público: "Debe proveer información que capacite a los agentes educativos a reflexionar y hacer un mejor escrutinio de sus actividades"(Bryk y Hermanson. al revisar los sistemas de indicadores de evaluación como instrumentos necesarios para mejorar el sistema educativo.. Inyectar nuevos conocimientos en una organización es un acto micropolítico.

1992). naturaleza de la materia y psicología del aprendizaje. 1..Materiales curriculares: El curriculum planificado se concreta en los materiales curriculares empleados. El modelo CIPP. 2..evaluar el curriculum.. con fuerte acento en Tyler y Taba. no dejan de ser obvios y tradicionales.. a si deben evaluarse sólo en función de los objetivos explícitos o también de los no intencionados. organización del centro. también la concepción educativa del centro y de la sociedad.Este contexto es relevante para los objetivos. Stake distingue tres elementos sobre los que centrar el proceso de evaluación (antecedentes. proceso y producto). destrezas. por su dependencia con concepciones valorativas (educativas y sociales).Transacción y procesos: Los procesos y la interacción en clase deben ser evaluados. rendimiento académico.. Por otra parte silencian dimensiones como organización y estructuración del curriculum. pero también para evaluar la adecuación de los materiales. necesidades e intereses). en relación con los restantes elementos. como las características de los alumnos (nivel cognoscitivo. y resultados).Contexto: Partir del contexto de desarrollo del curriculum. los procedimientos empleados y los resultados obtenidos. input... No obstante cabe una deliberación curricular sobre los contenidos (Walker). recoge cuatro categorías (Contexto y evaluación de necesidades. a las materias de enseñanza con objetivos específicos adaptados al contenido de los cursos y necesidades particulares de grupos de estudiantes. acción conjunta del curriculum por el centro. que recojo en el siguiente gráfico. no obstante. 4. si desarrollan otros objetivos no pretendidos. como dice Taba. señalando a modo de notas a pie de página otras versiones. Los elementos y forma de evaluación que proponen Madaus y Kellaghan.Áreas de desarrollo de los sujetos: . Un conjunto de cuestiones pueden plantearse en la evaluación de los materiales: elementos que incluyen. evaluación libre de objetivos (Scriven) u objetivos expresivos (Eisner). 5. 3. Zabalza (1987) hace una propuesta de evaluación comprhensiva del proceso de enseñanza/aprendizaje.Objetivos generales: Aunque es difícil definirlos y operativizarlos. Madaus y Kellaghan (1992) proponen seis componentes fundamentales del curriculum que deben ser evaluados. etc. si son guías para el desarrollo. normalmente con metodologías cualitativas. A pesar de la variedad de aspectos o dominios y métodos. Seis componentes principales en la evaluación del curriculum (Madaus y Kellaghan. No todos los modelos dan el mismo énfasis.Resultados: El fin último de la evaluación curricular es qué resultados producen en los alumnos los elementos anteriores. a través de los objetivos como elementos del curriculum. 6.área cognitiva: conocimiento y habilidades mentales. etc. que contempla todos los elementos y aspectos que presenta la enseñanza: 1. . como señaló Tyler. transacciones alumnos-profesor.Objetivos específicos de las áreas curriculares o unidades didácticas: Trasladar los objetivos generales. es preciso hacerlo como criterio necesarios de evaluación.

..significación: recogiendo aquellos aspectos más importantes o que han sido definidos como prioritarios. . .exámenes orales y escritos. 4.evaluación sumativa y formativa.Técnicas de evaluación: . 5. etc. etc.evaluación cuantitativa y cualitativa. 1987). 3. Componentes y aspectos de una evaluación comprehensiva (Zabalza. intereses. .Modalidades de evaluación: . . .Contenidos. ajuste personal. Operaciones mentales: .observación.entrevistas.Situaciones naturales: las que surgen en la dinámica norma de una clase. .Situaciones en que se recoge la información: . .área afectivo-emocional: satisfacción..... etc.evaluación del proceso y del producto. . Tareas.área relacional social. Por tanto reducirse a tan sólo una técnica significa renunciar a la información que ella no puede darnos y que si podrían dar otro tipo de técnicas. .. relaciones interpersonales.sociogramas. . nivel de adaptación.evaluación individual y en grupo. entrevistas. .representatividad: que se recojan una muestra representativa de los contenidos-tareas trabajadas y de las operaciones puestas en juego. 2.(cada tipo de técnica se especializa en un tipo de información.pruebas objetivas y tests. etc. ..Situaciones controladas: las típicas situaciones artificiales en que se plantean tareas de papel y lápiz.. ejercicios prácticos. heteroevaluación y mixta o de triangulación. de exámenes orales.autoevaluación. en el recreo.

El deterioro total o parcial puede ocurrir en todo el sistema o solo en ciertas áreas o escuelas. desde esta perspectiva. Desde estas coordenadas se habla de un control de calidad de un programa. la evaluación del curriculum como " la puesta en marcha de un proceso que exige por parte de quienes lo inician la voluntad de reflexionar sobre la práctica con el ánimo profesional de aprender de ella de forma constante. en que el proceso de autorevisión y reflexión crítica de la propia realidad. consiste en la "comprobación crítica del curriculum como hipótesis de acción educativa". LA EVALUACIÓN DEL CURRICULUM A TRAVÉS DE LA AUTOEVALUACIÓN La autoevaluación institucional. en el sentido que tales principios enmarcan". entendiendo el curriculum como un problema práctico. De este modo. organización y desarrollo del curriculum. Zabalza (1987:289-90). además. en la práctica. y a la propia organización de la escuela. El control de calidad debe hacerse mediante el estímulo a aquellas escuelas en las que el programa se implementa en forma adecuada y reforzando aquellas en que la implementación ha sido defectuosa. De acuerdo con el análisis de Martínez Bonafé (1988) los problemas a investigar se refieren al aprendizaje de los alumnos. La evaluación del curriculum se centra en la revisión de los fundamentos y la práctica de las decisiones que los enseñantes adoptan en el centro con la colaboración de un asesor externo". organizativo y profesional de los profesores. revelar cómo algunas o todas las partes del programa deben alterarse o reemplazarse. como estrategia de revisión y desarrollo de la mejora. En una perspectiva de fidelidad podemos medir los resultados de un programa comparándolos con los objetivos del programa. como lo hace Lewy (1976: 36): "Un programa que se ha incorporado exitosamente dentro de un sistema educativo y ha tenido una calurosa acogida del profesorado. partiendo de los principios de justificación y desarrollo de los proyectos curriculares que estemos llevando a cabo. Para prevenir esto.La evaluación para Stenhouse. se convierte en el contexto para promover el desarrollo curricular. De este modo la evaluación. a los materiales curriculares. nos permita analizar y valorar las líneas generales del proceso". precisando a continuación que "los resultados de este tipo de evaluación tendrá la virtualidad de reorientarnos respecto a qué es lo que consideramos importante a nivel de principios curriculares y si estamos funcionando o no. como analiza Martínez Bonafé (1989:64). Pero en una perspectiva procesual es más difícil valorar cualitativamente el desarrollo curricular innovador. caracteriza la evaluación del desarrollo del currículum como "realizar una especie de reflexión. significa que el centro escolar como conjunto genera procesos y formas de trabajo dirigidas a autorevisar lo que se hace cotidianamente. se debe constituir un una investigación sobre el desarrollo del curriculum. Hernández (1990: 12) define. El sentido de esta autoevaluación institucional del curriculum es la mejora de la propia institución escolar y de la calidad de enseñanza (evaluación formativa y . reivindicando la dimensión actual de autorevisión colegiada de la labor conjunta del centro. a la enseñanza del profesor. el control de la calidad puede conducir a la actualización de un programa viejo o al desarrollo de nuevos programas. puede deteriorarse con el tiempo. lo que se podría cambiar y consensuar planes de acción. Una evaluación institucional se inscribe en un marco más amplio de la reconstrucción cultural de la escuela y de sus pautas de trabajo. y por lo tanto como un campo de investigación de la práctica profesional del profesor. guiado por unos valores de cooperación. Por ello la mayor parte de los estudios de evaluación del curriculum se refieren a una perspectiva de "fidelidad". a la estructuración. debe mantenerse un permanente seguimiento del control de calidad del programa. colegialidad y compromiso. Este control debe.

La autoevaluación institucional. al tiempo que supone reivindicar una perspectiva dialógica del conocimiento primando el conocimiento local. entre otros. necesidades. previendo los recursos necesarios. Planificación para la acción y búsqueda de alternativas y recursos: En un segundo momento. Para esto es necesario promover la capacidad del centro para ponerlo en práctica.Autodiagnóstico: Identificación y análisis de necesidades: Revisar y valorar la realidad actual del centro (logros. Holly y Hopkins (1988). La evaluación del desarrollo curricular no es un apartado final ni un procedimiento formal o burocrático. autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. Partiendo de una relación de compromiso institucional por la mejora de la educación.- 3. como ejemplifica la siguiente figura. una vez definido el ámbito de mejora. para rectificar o modificar las líneas de trabajo planteadas y para reflexionar sobre ellas.procesual). actitud y competencia para aprender del contexto de trabajo. coordinada y reflexivamente. generando conocimiento desde la propia práctica en deliberación con los compañeros. se compone y está relacionada con otros componentes. 1989). 1. Se trata de revisar y diagnosticar el estado actual del Centro y su funcionamiento. por medio de procesos de revisión conjunta de su práctica diaria y de la propia acción educativa del centro en los espacios discursivos del trabajo colectivo. entraríamos en la elaboración conjunta de un plan de desarrollo de la escuela y. Esto significa situar al profesorado con la disposición. por parte del grupo de profesores. de respetar la profesionalidad del profesor.- 4. problemas). como han puesto de manifiesto. De este modo la finalidad y sentido en la autorevisión escolar no es primariamente evaluar la consecución de los objetivos prefijados encontrándose en los resultados normalmente rendimientos académicos de los alumnos sino. No obstante la autoevaluación institucional del centro escolar. o un a"escuela en desarrollo" o una "escuela evaluativa". su capacidad para resolver colegiadamente los problemas y de tomar la reflexión y revisión de la práctica. en una búsqueda colegiada de soluciones. inscrita en un compromiso por la mejora. 1992b. No se debe entender como algo puntual o formalista. y emprender acciones de mejora en aquellos aspectos que se consideren prioritarios.- . En último extremo la autoevaluación se institucionaliza cuando un centro se acerca a una "comunidad de aprendizaje". se utiliza un modelo de "resolución de problemas" en que se genera desde dentro consenso para mejorar las dimensiones organizativas y didácticas del trabajo escolar. clarificar las necesidades llegando a un entendimiento y priorizar ámbitos concretos de mejora. sino un proceso dinámico de decisión y revisión en torno a cómo vamos a abordar los problemas. más que el control de resultados. 2. se suelen utilizar un modelo flexible y contextual con estos procesos (Escudero. sino revisión permanente. qué va sucediendo en la práctica con los acuerdos tomados. Desarrollo o puesta en práctica: Analizar. generar alternativas. Evaluación como y para la mejora: Inserta "en espiral" en el propio proceso de desarrollo se autorevisa colegiadamente lo conseguido para generar nuevos problemas o prioridades y líneas de acción. como ejes sobre los que articular la mejora escolar. como alternativa al profesionalismo de expertos externo para evaluar la realidad escolar. Holly y Southworth. frente a producido desde "fuera" por expertos evaluadores financiados por la Administración. más preferentemente. que´efectos está teniendo. modificados o ampliados. rendición de cuentas o fiscalización del funcionamiento del Centro (evaluación externa o sumativa). en que aspectos conviene corregir. ir haciendo un balance permanente para ver si los cambios deben ser mantenido. etc. parte por reconocer/capacitar al Centro para hacer su propia evaluación.

tanto la adecuación/validez del "prototipo de diseño curricular". Casi la totalidad de los estudios examinados aisladamente uno u otro. sitúa estos tres componentes en la evaluación de una innovación curricular: 1. forma parte de todo proceso de desarrollo curricular innovador. como dice De la Torre (1992: 953): "Resulta un tanto sorprendente que siendo tan amplia la literatura disponible sobre evaluación educativa y evaluación de programas. recursos e instrumentos". en sus primeras formulaciones. actitudes capacidad organizativa y otros resultados.. el CBAM. 3. y Evaluación a largo plazo.Los factores que han afectado a la implementación. 2.. como hicieron en este apartado González y Escudero (1987: 143-160).Fases en la autorevisión del centro escolar. Como señala Fullan (1985c: 1212): "La mayoría de la literatura del campo no trata investigaciones que examinen las relaciones entre proceso de implementación y resultados. y El impacto de la implementación en el aprendizaje de los alumnos. como ha especificado Sttuflebeam en su modelo CIPP: a) Evaluación durante el proceso de planificación del curriculum. Estrategias basadas en la realidad institucional de los centros escolares: p. o basadas principalmente en el sujeto/profesor como individuo: P. LA EVALUACIÓN EN LAS INNOVACIONES CURRICULARES En sentido amplio la evaluación del curriculum. se pueden distinguir diferentes estrategias para llevar a cabo la evaluación.e.e. dependientes cada una de diferentes perspectivas sobre el cambio educativo: 1. pero los estudios de investigación de estas relaciones están en las primeras etapas de desarrollo y plantean algunas dificultades intrínsecas". Evaluación durante el proceso de implementación.- Desde una perspectiva de proceso no sólo se debe examinar el desarrollo curricular a la luz de los objetivos de la innovación. exista tan poco referido a la evaluación de innovaciones.2. RBE o DO. y el consecuente apoyo posterior. b) c) A su vez. (por lo que es preciso) recurrir a la evaluación curricular y de programas para inferir modelos. de los procesos de cambio.Estrategias de origen tecnológico para ver el grado de implementación y facilitar el desarrollo. La evaluación tanto del curriculum como de la innovación curricular. como el propio proceso de planificación. No obstante. al menos. debe suponer. Fullan (1985c:1212). estrategias. . como proceso de investigación. Cuál es el estado actual del cambio en la práctica en un tiempo dado. sino también qué otras consecuencias (no planificadas) ha tenido la innovación. desde una perspectiva procesual.- En sentido general los modelos y técnicas de evaluación de programas son trasladables a la evaluación de las innovaciones.

USO MECÁNICO II. tiene establecida una rutina de uso. entonces. al determinar los "niveles de uso de una innovación". preparación).B REFINAMIENTO IV.NO USUARIO Buscar información No conoce. observando la práctica docente de los profesores NIVELES DE USO USUARIOS VI..A RUTINA III. y con ello como una estrategia para facilitar el desarrollo y gestión del cambio en los centros educativos.PREPARACIÓN NO USUARIOS I. por su propia dinámica. por medio de un conjunto de indicadores (conductuales) de cada uno de los siete niveles de uso. Disposiciones favorables para utilizarla IV. Tener en cuenta estos últimos significa partir de las actitudes y conductas previas para una posterior adopción. cualitativos. complementado por entrevistas y estudios longitudinales.INTEGRACIÓN INDICADORES Busca alternativas/opciones más efectivas. que permitan describir qué cambios introducidos en la práctica han resultado exitosos.Desde esta misma perspectiva se emplean también procedimientos abiertos. Junto a los anteriores elementos. orientación. para lo que es necesario determinar los niveles de uso de la innovación. otras provocan efectos inesperados o incluso opuestos a las intenciones iniciales y otras.. diferenciando entre usuario y no usuario en la innovación. El comienzo del desarrollo del modelo presentado discrimina cinco tipos de usuarios. Evalúa impacto e introduce cambios para mejorarlo o potenciar sus posibilidades No introduce casi cambios. Y es que "ciertas reformas no producen efectos. 1987). Desde esta perspectiva procesual es muy importante incluir en el diseño de la evaluación los factores que han condicionado y explican el desarrollo de la innovación.. 1981:21). El CBAM suele usar un cuestionario (SOCQ) sobre los estadios/niveles de interés/implicación para obtener el perfil individual de las preocupaciones dominantes en la adopción y desarrollo de la innovación... Además de la adopción en una innovación. El modelo CBAM ("Concers Based Adoption Model") ha sido uno de los que específicamente ha pretendido convertirse en un modelo de evaluación del desarrollo de las innovaciones (Hord. según el grado de implementación. Por eso mismo los diferencia en tres niveles (no uso.. El modelo CBAM parte. Los niveles de interés permiten analizar la dimensión personal y afectiva del proceso de innovación. el CBAM emplea las "configuraciones de la . Cambios menores para facilitar el uso.. vuelven a crear en algún otro punto del sistema educativo el mismo desequilibrio que pretendían corregir" (Unesco.RENOVACIÓN V.. es necesario evaluar cómo está siendo desarrollada en las aulas. Intenta colaborar/coordinar activamente con otros el uso de la innovación. Pobre coordinación. no actúa Niveles de uso de la innovación.ORIENTACIÓN 0. completados por la observación directa.

1. EVALUACIÓN DE PROGRAMAS . Revisar lo que se está haciendo en la práctica y el perfil o alcance de lo que plantea el modelo. 2. Un segundo perfil del usuario. así como el grado de desarrollo de la innovación. con una orientación sumativa en la segunda. medios y recursos.Procedimientos para superar la carencia de conocimientos y destrezas que necesita el profesorado para desarrollar plenamente la innovación. habría que reiniciar el ciclo para diagnosticar la situación..Identificación de obstáculos:Detectados los aspectos "discrepantes".3. 1986).. plantea una "estrategia técnica atenuada" de evaluación.2. 2.Revisión de la discrepancia de la innovación.Diagnóstico de la situación: Se trata de identificar el perfil de la innovación para saber las metas necesarias para la implementación del curriculum propuesto.) como lo ha percibido e interpretado el cambio por parte de los usuarios y las realizaciones que la innovación tiene en la práctica.. necesarios para poder realizar una evaluación de la innovación en la práctica. 3.Aplicación: Acciones dirigidas a superar los obstáculos. El problema para evaluar con este modelo. etc. se puede entrar en un análisis de los obstáculos y los apoyos (conocimientos y destrezas. aplicado en esta fase.innovación" (I. por observación comparada lo que está pasando en la práctica (configuración de la innovación). Así como el "perfil" de la innovación (presupuestos y asunciones básicas. elaborando un plan de formación del profesorado. metas y objetivos. 1. materiales organización y estructuras) necesarias para superarlos. La evaluación diagnóstica del nivel de uso de una innovación permite determinar qué intervenciones (cuarto componente del modelo) son mejores por parte de los agentes de cambio. con las siguientes fases y procesos: 1. Una evaluación formativa irá en la primera dirección. e irse acercando a una "plena" implementación.). contenidos y estrategias.Procedimientos para superar la ineficacia de estructuras organizativas y de control.2. 2. Si no hubiese existido progreso. puede utilizarse con fines evaluativos. Leithwood y Montgomery (1980). es que la mayoría de propuestas de innovación oficial carecen de dicho perfil.. Esto supone elaborar un perfil del usuario que sirva para medir las prácticas reales de los profesores en cada dimensión curricular.C. en coincidencia en parte con el modelo CBAM y con un enfoque del cambio como resolución de problemas (Leithwood.1. Según señalan Leithwood y Montgomery (1980) habría que llevar tres tipos de tareas: 2..Evaluación: Detectar y valorar en qué medida se han ido superando los obstáculos identificados y se han realizado las metas del perfil de la innovación. Por tanto además de las posibilidades del CBAM como diagnóstico. por tener un amplio grado de "indeterminación curricular".Diseñar procedimientos para facilitar la disponibilidad de recursos y materiales curriculares que faciliten el desarrollo e implementación del cambio. 1. podría identificar si las conductas del profesor en las distintas dimensiones de la innovación curricular han tenido cambios. como ya señalaba. Un perfil preciso y definido de la innovación nos permite establecer.

Planifica la evaluación con antelación a las diferentes posiciones de los grupos de interés.Evaluación completa y clara. P2. E7. 1987).Credibilidad del evaluador. descriptiva. E5. se planifica como un proceso cíclico para valorar si el programa ha conseguido alcanzar los objetivos para los que se puso en marcha o ha dado lugar a otros efectos o resultados (positivo o no).. Pero el papel clave que desempeñan los criterios y normas de valor en la evaluación de un programa. F2. juzgando el valor o el mérito en su consecución (Sttuflebeam y Shinkfield.. 2) Ayudar en la toma de decisiones responsables en política. que puede servir de guía general del tema UTILIDAD U1. No obstante.. El evaluador debe ser competente. Por su parte Talmage (1982:594) entiende que "tres propósitos aparecen frecuentemente en las definiciones de evaluación de programas: 1) Proporcionar juicios sobre el valor de un programa..Información sistemática.. Identificación de personas afectadas por la evaluación. entonces. distingue cinco: experimentalista.Fuentes confiables de información. c) contribuir a tomar decisiones sobre las modificaciones de los programas. P4.Amplitud y selección de la información. Al igual que la evaluación en general. ecléctica. PROPIEDAD P1. 1994). E6. Describir perspectivas para interpretar hallazgos. U4. sin embargo.. establecer unos indicadores.... La evaluación de un programa.Viabilidad política.Eficacia del coste.. juzgar la relación coste-beneficio. para juzgar su adecuación..Análisis del contexto.. F3.Orientación del servicio. Que incluya preguntas pertinentes sobre el programa.Documentación del programa. f) contribuir a comprender procesos básicos psicológicos.Según Worthen (1989) los propósitos de la evaluación de programas son los siguientes "a) contribuir a tomar decisiones sobre la implantación de un programa.. que posteriormente se han reeditado (The Joint Commitee on Standards for Educational Evaluation & Sanders. U5.Identificación de valores.Información fiable.Acuerdos formales. Respetar la dignidad en los participantes.Interacciones humanas. d) obtener evidencias para ayudar a un programa .Información válida.Descripción de propósitos y procedimientos.. se ha destacado la función de proporcionar información y elementos de juicio que contribuyan a establecer un cierto debate social sobre las acciones educativas.Procesamientos prácticos. La información debe tener valor suficiente.. De los puntos fuertes y débiles del EXACTITUD E1... E3. Información importante del programa FACTIBILIDAD F1. b) contribuir a tomar decisiones acerca de la continuidad.Identificación de la audiencia. coste-beneficio y crítica. Talmage (1982). por ejemplo. E2. e) obtener evidencias para oponerse a un programa. Se deben respetar derechos de sujetos. Los principios comúnmente aceptados han sido fijados por un colectivo de investigadores. Se debe revisar .Derechos de los sujetos. Las obligaciones deben constar por escrito. sociales y otros". En los últimos tiempos.. U2. conforme aparecen en el siguiente cuadro. E4. Clara y precisa.. la evaluación de programas ha estado muy orientada a maximizar la eficiencia y eficacia de las acciones del programa. Reduciendo la desorganización mientras se obtiene información. en el llamado Joint Commitee on Standards for Educational Evaluation (1988). P3.Claridad del informe.. recoger datos relativos a las variables o indicadores seleccionados. consiste en establecer criterios que sirvan para juzgar la propia labor evaluativa del programa. P5. y ver qué objetivos se han alcanzado. U3. expansión o certificación.La evaluación debe servir a las necesidades de los participantes. 3) servir para una función política. hay diferentes modalidades de evaluación de programas.Por eso normalmente es necesario identificar los objetivos del programa y necesidades de los participantes. o responder a las demandas del cliente.

Justificación de los gastos en recursos. sistemáticamente.Análisis de la información cuantitativa.Oportunidad y difusión informe. P7. 1994).Análisis de la información cualitativa E10. programa.Planificar la evaluación para que penetre en los usuarios.. LAS TÉCNICAS EN LA EVALUACIÓN EN EL CURRICULUM. Son muy importantes los hechos y contextos en relación a los incidentes relativos a un problema determinado. en la cual se refleja la propia realidad. a) Registros anecdóticos. con una finalidad formativa. b) Notas de campo. E8. la línea de Kemmis y McTaggart (1992). Difusión y diseminación de los hallazgos. . Hemos seguido. aunque con finalidades diferentes. de las audiencias y de los propósitos de la misma evaluación. E9... Realizaremos un estudio de las diferentes técnicas cualitativas y cuantitativas en la evaluación TÉCNICAS CUALITATIVAS. Son técnicas de evaluación continua.Impacto de la evaluación.Conclusiones justificadas. Los hallazgos se deben difundir entre los usuarios.. compleja que tiende a un mayor realismo. Las Normas de Evaluación de Programas (The Joint Committee on Standards For Evaluation & Sanders. Por tanto se trata de técnicas de evaluación cualitativa. que se usan tanto en enfoques interpretativos como críticos.Revelación de hallazgos. Ory (1991) comenta que el aumento de estas técnicas de evaluación se debe a la ampliación del campo de la evaluación..Responsabilidad fiscal. de lo que un alumno o grupo de alumnos dicen o hacen en determinadas situaciones a lo largo de un período de tiempo. Realizado con apertura y honradez. P8. E11. P6. U7.. Es por lo que partimos de las técnicas utilizadas por Kemmis y McTaggart (1992) en la investigación-acción.Informe imparcial E12. las nuevas perspectivas no sustituyen a las anteriores sino que las complementan. Como señala Tejedor y otros (1993) "los cambios habidos en estos últimos años en las dos posturas básicas son los siguientes: (1) la postura tradicional entendía la evaluación como el empleo de métodos científicos para medir el desarrollo y los resultados de programas que luego se utilizaban para la toma de decisiones. (2) la segunda postura más actual entiende la evaluación como el conocimiento empírico del mérito o valor de las actividades y objetivos de un programa propuesto". impresiones e interpretaciones subjetivas de la realidad. Son informes longitudinales y descriptivos.Conflicto de interés.U6. Metodologicamente hoy se vive una situación plural... en principio..Metaevaluación. Son aquellas que describen hechos..

por el potencial que ofrece: * * * Es un mecanismo para explorar las prácticas. Para Schratz (1992). Se registran todos los comportamientos observados para comprender la secuencia de los mismos.. la de reflexionar sobre las propias prácticas docentes. debe servir para estimular la reflexión y la discusión colegiada. Los diarios en el contexto de documentos personales. Se utilizan entre otros documentos importantes cartas. hipótesis. expresando la forma intelectual de vivir la experiencia. * Según el autor se deben tener en cuenta los siguientes principios en la redacción de los diarios: . cuadro de horario. reflexiones. interpretaciones. con el objetivo de analizar el funcionamiento interno del centro o de una parte del mismo. planificaciones de los profesores.. archivos. trabajos de los estudiantes. sentimientos. son consideradas como importantes por Zabalza (1991) para la investigación educativa y para analizar el pensamiento y los dilemas que se le presentan al profesor en la práctica. como biografías. historias de vida.c) Descripción ecológica del comportamiento. autobiografías.. . etc. d) Análisis de documentos. planificar. e) Diarios Se trata de analizar los informes personales cuyo contenido puede ser muy variado (preocupaciones. Utilizado en un contexto evaluativo contribuye a desarrollar el proceso de autorreflexión. revistas o periódicos escolares. integrando en la medida de lo posible a los estudiantes con objetivo de introducirles y hacerles conscientes de los procesos de autoevaluación y contribuir en procesos de autoreflexión. es un documento personal que se escribe para consignar pensamientos. pero también refleja otros aspectos personales integrados en la misma. en el contexto de un proyecto de investigaciónacción de profesores universitarios. que a la vez proporciona oportunidades de reflexión sobre esta acción y nuevos planes de acción consecutivos. informes escolares. pudiendo ser potentes instrumentos de autocontrol del proceso de enseñanza (diario de profesores) o de aprendizaje (diario de alumnos y profesores). Es un componente dentro de un repertorio de métodos de evaluación. el diario. Su validez en investigación cualitativa depende del contexto en el que se utilice. por ello ve necesaria la redacción de un diario en el contexto del Área Remota de Educación del Profesorado (RATE). poner en práctica los planes y mantener registros que ayuden a valorar las prácticas. folletos. cartas. circulares. como una exigencia profesional. Es un medio de autonomía a través del desarrollo de la confianza en la utilización de la palabra escrita como guía para la acción. White (1985) considera. elabore y su finalidad y forma de analizarlo.). impresiones y sentimientos sobre situaciones docentes. Es un vehículo para facilitar la relación de apoyo y de crítica. programas y proyectos educativos del centro. informaciones del tablón de anuncios. observaciones. A pesar de ser considerado como un documento para la reflexión personal sobre el desarrollo profesional. explicaciones.

así como sus reflexiones. el contenido. Para Shulman (1992) el portafolio es un documento físico que recoge las preguntas de los profesores y las respuestas reflexivas que van dando. La redacción del diario requiere una estructura y un ambiente de apoyo. Kemmis y McTaggart (1992. Además contiene la observación directa del profesor en sus clase. sólo evalúa el progreso del estudiante. el conocimiento y la comprensión del profesor. y cómo se relaciona este proceso con otros existentes en el mimo centro educativo. interrogantes.Sobre el cambio en la utilización del lenguaje y sobre un discurso más coherente en relación con la preocupación temática que se estudia. proyectos.3. con fines formativos. exámenes. ya que considera que es una técnica que proporciona evidencia sobre el pensamiento y la práctica del profesor. 1992).- f) La carpeta de enseñanza.a) b) c) d) e) El diario debe ser realizado por todos los participantes implicados en el proceso. es una técnica de investigación y evaluación educativa. y las relaciones entre estudiantes y profesores. así como sobre los cambios que se vayan iniciando en la estructura organizativa formal. La carpeta de enseñanza. y profundizar en el conocimiento y valoración de las prácticas de enseñanza por el análisis documental y la entrevista sobre ello. Explica el uso de la carpeta de enseñanza para explicar tres campos: Cómo planifica y enseña el profesor una parte del currículum. se reservarán para ser escritos ininterrumpida y silenciosamente Debe compartirse con otros participantes todo aquello que se escriba. esto puede conseguirse estableciendo un enfoque previo al inicio de la redacción y procedimientos para el diálogo en el que se comparten los diarios. para valorar la calidad de la enseñanza. preguntas. trabajos.2. 4. ensayos. Por tanto. tanto de uno mismo como de los otros. Se reservaran momentos especiales en el horario para compartir los diarios. g) Cuadernos. Sobre el cambio en las prácticas educativas en su contexto. y en el que se contiene variedad de información que consta en documentos. autoevaluación del profesor. pero también para que otros comprendan el significado desde el punto de vista de los sujetos. Se tienen en cuenta el contexto. Sobre los cambios en las relaciones sociales ente las personas integradas en su misma actividad. Athanasses (1991) utiliza este medio en la evaluación de la enseñanza de la lectura y escritura. puede convertirse en un medio de evaluación colaborativa en cuanto que sirve para la reflexión del profesor. que se está utilizando en la Universidad de Stanford (Shulman.66) distinguen cuatro tipos de reflexiones que deben constar en el diario de un proyecto de investigación-acción: 1.p. Sobre los cambios en los modos de participación del grupo en el proceso de investigación-acción mismo. Los momentos especiales del curso. esta técnica. y cómo crea un ambiente que favorece la enseñanza. .

. de conocimiento y autoevaluación de la enseñanza. Sirve de evaluación. sobre todo si es diferente de otros profesores. abiertas o cerradas.. y sirve para evaluar la comprensión como los sentimientos. organización. h) Muestras de cuestiones tipo.. Schratz habla de otras técnicas como la del "minuto de escritura". analizar. Se trata de una forma de comunicación. creencias. sobre todo si se presentan resultados. discutir. Se tratan de fichas en las que se registra información referente a distintos tipo de temas: actividades. y la valoración que se hace de ellos. Este procedimiento proporciona conocimiento sobre la comprensión de los estudiantes. . sin embargo brinda una información más rica de la experiencia individual. Otra técnica es la del "feedback inminente". en las que cada estudiante añade a la pregunta su propia interpretación. su debilidad se fundamenta en la limitación de las opciones para responder. Similar a un cuestionario abierto podemos encontrar el cuestionario de "completar frases". Se componen de preguntas escritas. pensar. k) Entrevistas. para elaborar informes diarios de cada tema. imaginar. la cual ayudará al profesor a juzgar posteriores pasos en el enfoque dado. el cuestionario es una de las técnicas más usadas y sencilla utilizadas en evaluación. opiniones y valores. la cual consiste en obtener. en la que se pide a los estudiantes que respondan a dos preguntas: )Qué es lo más significativo que he aprendido hoy?. idear. Dado que en la investigación de Schratz es muy importantes la comunicación y la evaluación en ambas direcciones. una respuesta rápida e individual de algunos aspectos del proceso de enseñanza-aprendizaje. Los estudiantes están muy motivados a dar sus propias opiniones. Es un medio de control del cual no se debe abusar en detrimento de otras actividades que pueden ser más enriquecedoras como observar. y a su vez el profesor obtendría una visión más amplia de cada cuestión debido a estos comentarios subjetivos. Para Schratz (1992). reacciones. motivación... )Cuál es la cuestión fundamental que me queda en la mente al terminar la clase?. que exigen también respuestas escritas. j) Cuestionarios. se ha utilizado otra técnica denominada "carta abierta". Puede servir para obtener más información o apoyo de los estudiantes. de forma sencilla y escrita. disciplina.Sirven. Son recopilaciones de diversos materiales con un fin determinado. El problema de esta técnica es que ofrece dificultad en orden a estandarizar los resultados.Es el registro de actividades en determinados tiempos. y puede utilizarse para evaluar cierto aspectos e los procesos de enseñanza. percibir. por ello sería buena la idea de que los estudiantes pudieran escribir una corta explicación del por qué han tomado determinada opción.aprendizaje. i) Archivos.. y que además pueden consignarse en alguno forma de representación escrita o no. como base para la reflexión. Sin embargo.

Otro tipo de entrevista es la que Schratz (1992) denomina "entrevista triangular". de las que se solicitan explicaciones. incluidos los más pequeños. y son el punto de partida de las preguntas más útiles para averiguar la comprensión de los estudiantes. Toda entrevista debería grabarse y analizarse mediante un sistema de categorías de conocimiento. para facilitar la organización de conceptos y ejemplos de una instrucción posterior. el análisis de las entrevistas mediante la UVE.Las entrevistas pueden ser de varios tipos: no planificadas. Una de las aportaciones de Piaget. Gowin observó que la UVE de evaluación contradice la teoría de los estadios de Piaget. también ayudan a conocer las actitudes y valores de los estudiantes y los procedimientos que utilizan para resolver la tarea. planificadas pero no estructuradas. Novak y Gowin. proceder de lo fácil a lo difícil. . fue el haber ideado los hechos y objetivos específicos que usaba en las entrevistas. Basándose en la utilización que hizo Piaget de la entrevista para evaluar las capacidades cognitivas. así como las preguntas que hacen posible observar las regularidades en las respuestas de los niños. Este tipo de entrevista implica un mayor esfuerzo en la investigación evaluativa ya que se confrontan tres perspectivas. La entrevista sirve para indagar qué conceptos han adquirido o poseen los estudiantes. en la que un observador externo participa en la entrevista con fines evaluativos. se puede encontrar todo tipo de respuestas que pertenecen a las distintas categorías del pensamiento. Novak y Gowin (1988) enfatizan en la importancia de la entrevista como instrumento de evaluación del aprendizaje significativo. ya que en todos los estudiantes. cómo pueden activarse conceptos y estructuras para resolver problemas. se graba. es decir. y pedir explicaciones sobre lo que sucede. b) Estructuración de las preguntas. estructuradas y semiestructuradas. Gowin (1988) propone otro sistema de categorías. proponen categorizar los tipos de respuestas en válidas y erróneas. Se basa la entrevista en un mapa conceptual. El problema de este procedimiento es el excesivo tiempo que hay que dedicarle. y desde las preguntas amplias a las detalladas. Los autores no aconsejan la pregunta arbitraria. relación. y para analizar las categorías de respuestas se van consignando en la UVE. Se debe averiguar previamente qué sabe el alumno sobre un tema o cuerpo de conocimiento determinado. según estos autores. partir de la tarea que se está realizando. sobre todo al comenzar. En la planificación de una entrevista hay que tener en cuenta los siguientes elementos: a) Selección del contenido. pero suele aportar información sobre problemas específicos o áreas de interés. recogiendo información sobre ciertos aspectos y problemas. Deben hacer referencia a cuestiones claves. de forma que se puede descubrir cómo funciona la mente del estudiante y qué teorías sostiene. y juicios de valor y trasferencia. Apoyan a la tarea. c) Selección de materiales auxiliares. una planificación cuidadosa de la entrevista. d) Ordenación de las preguntas. Por ello dan algunas reglas para ordenarlas. Posteriormente se entrevista al profesor y a los estudiantes. e) Evaluación de las entrevistas. cuál es su estructura.

señalan cuatro categorías de comportamientos que pueden registrarse: comportamiento verbal del estudiante y del profesor. Schratz (1992) utiliza esta técnica para el análisis de la interacción entre profesor y estudiantes. Técnica muy útil para la evaluación de los procesos de enseñanza-aprendizaje. y quienes se aprecian o rechazan mutuamente. para analizarla posteriormente. y sus interrelaciones. desarrollar actitudes sociales o mejorar las relaciones personales. y después se relacionan mediante palabras de enlace. Se representa un visión global del programas en sus contexto con los procesos.l) Métodos sociométricos. Kemmis y McTaggart. Por ello Kemmis y McTaggart consideran necesario un listado de interacciones para agilizar el análisis. p) Observación de clases. comportamiento no verbal del estudiante y del profesor n) Grabaciones en audio. de clases grabadas o de reuniones. Sirven para registrar los datos de la observación. ñ) Grabaciones en vídeo. q) Análisis de metáforas Revelan ideas y definiciones de los problemas que subyacen a los programas. Su problema es el largo tiempo que hay que dedicar para una transcripción completa. Pueden servir para formar grupos de trabajo. o de parte. Con este método se pretende averiguar qué individuos son apreciados o rechazados en un grupo. que pueden poner de manifiesto . determinados productos. para así compartir significados que ayuden al crecimiento continuo personal y profesional. Sin embargo sería útil la observación entre compañeros de forma regular. inputs y resultados. También sirven como referencia para entrevistas con los estudiantes. Para crearlos se comienza por hacer declaraciones cortas de un problema para después centrar la atención sobre dos términos que representan un dilema. Schratz (1992) comenta que la observación directa produces ansiedad en los profesores. También se ha utilizado en el análisis del pensamiento del profesor. aspectos de la actividad de la clase. s) Algoritmos relacionales. o) Fotografías y diapositivas. o de aspectos concretos. m) Inventarios y listados de interacciones. r) Mapas conceptuales. Útiles para registrar "incidentes críticos". Facilita el registro de toda la clase. Son útiles en reuniones de trabajo y para la interacción con el alumno en clase o en grupos.

b) c) d) e) Tipos de pruebas escritas.la primacía de unos elementos frente a otros. Sirven para diagnosticar lagunas. A través de ellas se puede expresar el conocimiento obtenido. b) Se comprueba el aprendizaje del alumno mediante el diálogo con el profesor. t) Recuadros de frases Se usan para comparar las visiones y descubrir los aspectos críticos del programa. TÉCNICAS CUANTITATIVAS. Pruebas orales. durante y después. clarifica sus objetivos. a) b) c) Pruebas de ensayo. o igualdad y complementariedad entre los dos conceptos. de producción de determinadas obras o experimentos de laboratorio. alumnos. a) Los exámenes escritos. Para ello se encuadran las descripciones del programa hechas por distintas personas: director. aclara y consultar los conocimientos antes. Tienen un papel motivacional. Se basan en la comprobación del aprendizaje de contenidos disciplinares. Pruebas formales de elaboración de respuestas. lo cual le sirve de autoevaluación. Proporciona conocimiento de su tarea al profesor. En cuanto a la elaboración las cuestiones deben ser representativas del contenido que se pretende evaluar. Los exámenes suponen una importante experiencia de aprendizaje ya que obliga a revisar. Test de rendimiento de los estudiantes. Se relacionan con la evaluación periódica y sumativa (Rosales. que tienen lugar en determinados momentos del proceso de enseñanza/aprendizaje. Requieren mucho tiempo y un clima socioafectivo adecuada para que puedan suponer una situación de pensamiento y de trabajo intelectual adecuado. Los estudiante aprenden a evaluar sus propios resultados a través de ellos. al mismo tiempo que comunica sus expectativas a los alumnos al indicarles cuáles son los aspectos fundamentales de la materia y que forma puede tener el examen. así como la expresividad y originalidad del alumno. Pruebas objetivas de respuesta breve. c) * Características que deben reunir las pruebas. No todos los exámenes se construyen sobre pruebas objetivas. para poder rendir y expresar el aprendizaje. La prueba debe estar . cuantitativas. Ausbel (1983) consideraba que los exámenes tienen algunos valores positivos: a) A la vez que el profesor piensa qué debe ser objeto de examen. 1990). constar logros. etc. profesores. sin embargo existe una tendencia a la cuantificación.

En este sentido Zabalza (1987) habla de la influencia del contexto de aprendizaje que juega en la asociación de preguntas y respuestas. se trata de comparar lo logrado con lo pretendido. Así las órdenes de evaluación especifican que "los profesores/as evaluarán los procesos de enseñanza y su propia práctica docente en relación con el desarrollo del currículo. de modo que permita tomar las decisiones para. que deberán incluir las siguientes decisiones relativas a la evaluación: La distribución de los objetivos. y en criterio de si es necesario reformular el diseño y programación realizado. - . o con fines formativos. el juicio de valor que emitimos sobre la calificación otorgada cuando se analizan los resultados y los procesos. Por lo que es dificil hacer una evaluación que permita juzgar si se han alcanzado los objetivos deseados". La evaluación de la enseñanza se debe realizar en un triple nivel: evaluación del proceso de enseñanza y práctica docente. Por eso se plantea. La evaluación del aprendizaje de los alumnos se convierte en autorregulación del proceso de enseñanza. Tyleriano :"¿Qué. En cuanto a la medición.E. * * LA EVALUACIÓN DEL CURRICULUM EN LA REFORMA Algunas de las principales funciones y sentidos de la evaluación fueron ya recogidos en la L. adecuar el diseño y desarrollo de la programación. después de un período de indecisión sobre qué aspectos formales debían incluir los Proyectos curriculares de Etapa. es obtener (MEC. Por último se produce la evaluación. y del Proyecto curricular. la relación entre la evaluación del proceso de aprendizaje y la evaluación del proceso de enseñanza. en virtud de su desarrollo real y de su adecuación a las características específicas y las necesidades educativas de los alumnos y alumnas". Los Reglamentos Orgánicos de los Centros (1993) determinan.adecuadamente elegida a los fines planteados y la formulación debe ser clara. * En cuanto a la aplicación.G. los datos y las condiciones en las que se han producido. además de reconducir el proceso de aprendizaje. Su aplicación puede tomar mediadas sobre la promoción de un alumno. En la medida que el lugar y la función de la evaluación en el propio Diseño Curricular sigue siendo el mismo (Escudero. para tomar decisiones sobre la planificación y el desarrollo del currículum en los procesos siguientes. 1990c). con una cierta novedad. de 1970. contenidos y criterios de evaluación de las distintas áreas.1992b) "información que permita adecuar el proceso de enseñanza al progreso real en la construcción de aprendizajes de los alumnos". La corrección debe tener en cuenta qué aspectos y contenidos deben puntuarse y con qué prioridad. evaluarán el Proyecto Curricular y las programaciones de aula emprendidos. La finalidad de la evaluación. Criterios generales sobre evaluación de los aprendizajes y promoción de los alumnos. Asimismo. cómo y cuando evaluar?. es importante reducir el nivel de ansiedad de los alumnos a través de una información previa sobre el conocimientos de que la prueba va a consistir en aspectos importantes a los que ha dedicado tiempo y tareas suficientes. del proceso de aprendizaje de los alumnos. es decir.

acuerdo/consenso por el que se ha llegado al documento o propuesta. generando un currículo "propio". En relación con la evaluación del contenido curricular en los Proyectos Curriculares. a nivel de diseño curricular. etc. Congruencia con los materiales curriculares ("libros de texto") utilizados. qué núcleos de conocimientos humanos deben formar parte del currículo escolar de una determinada etapa/ciclo. revisar los procesos de enseñanza y la práctica docente de los profesores. del Ciclo respectivo o en cada unidad didáctica. para sacar nuevas posibilidades. La secuenciación de contenidos interciclos e intraciclos se debe efectuar al triple nivel de Proyecto Curricular de Etapa. Grado en que ha empleado creativamente el potencial curricular del curriculo básico. distribución y secuenciación por ciclos. dependientes de la perspectiva adoptada. LA EVALUACIÓN DE LOS DOCUMENTOS INSTITUCIONALES EN EL CENTRO. desde una triple perspectiva de criterios-guía: 1.Perspectivas de proceso. distribución y equilibrio que se ha realizado de los contenidos. prescrito oficialmente o no. compromiso. en su caso.. tanto en la selección. una vez que se ha llevado a cabo una primera implementación y desarrollo práctico. en el apartado dedicado a los contenidos curriculares. enunciados de tópicos. se plantean dos cuestiones principales: 1) Selección de contenidos. están cubiertos aparentemente todos los bloques temáticos. 2) Organización y secuenciación. de acuerdo con lo señalado en este Proyecto Docente. Proceso de dinámica de trabajo conjunto. son dimensiones del problema de la selección del contenido curricular. Grado en que está completa la "cubierta curricular" externa del currículo oficial: p. desarrollo o adaptación: * Grado de adaptación/variación de las prescripciones oficiales para lograr una adaptación mutua a la situación del contexto local del Centro. En la evaluación del Proyecto Curricular se especifica que se evaluará "la validez de la secuenciación de los objetivos y contenidos por ciclos". * * 2.e.. Elaborada una determinada distribución y secuenciación de los contenidos del curriculo.Perspectiva de "fidelidad": * Grado de concordancia/fidelidad con los criterios. orientaciones. Aspectos como la determinación del contenido.- Criterios para evaluar y. se pueden analizar los criterios/indicadores para juzgar/evaluar la adecuación del "prototipo de diseño curricular" realizado. establecidos oficialmente para la elaboración de proyectos curriculares de centro. no previstas en el curriculum oficial. si dicha selección debe basarse en los corpus disciplinares o incluir contenidos de otras fuentes necesarios para la vida cotidiana. me parece. * * .

la consideración de los siguientes aspectos: a) La organización del Centro y el aprovechamiento de los recursos. delimitación de las ideas eje. * Tiene un cuenta los contenidos trabajados en la etapa anterior. al menos. * Secuencia los contenidos. El Proyecto Curricular de Etapa/Centro. * Es coherente la secuenciación vertical de contenidos. Estos criterios son: Pertinencia con el desarrollo evolutivo y los aprendizajes previos del alumnado. interrelación y presencia de temas transversales. MEC.3. para la elección por parte del alumnado VALORACIÓN 12345 12345 12345 12345 12345 12345 12345 12345 12345 12345 Indicadores de Evaluación del contenido en el Proyecto Curricular del Centro (Casanova. * Incluye.. * Es coherente la secuenciación horizontal de contenidos de las diferentes áreas o materias. al margen del proceso y realidad interna del Centro a que responda el Proyecto curricular. creo. en las diferentes áreas o materias. para que pueda ser un instrumento válido para la práctica pedagógica. etc. b) El carácter de las relaciones entre profesores y alumnos y entre los mismos profesores. La evaluación del proceso de enseñanza y de la práctica docente.Perspectiva "oficialista": * Los criterios de secuenciación de contenidos aducidos repetidamente en la literatura oficial (Del Carmen y Zabala. 1993). deberá valorar todos y cada uno de los elementos que componen el propio Proyecto curricular. aplicables a la vida diaria y útiles. los contenidos transversales. por áreas o materias. significativos. así como la . ser empleados complementariamente indistintamente desde una perspectiva de fidelidad o de desarrollo. continuidad y progresión. equilibrio. los criterios externos uniformados para evaluar el Proyecto curricular de Etapa se pueden ver los indicadores de evaluación que aparecen en la siguiente tabla. coherencia con la lógica de las disciplinas a las que pertenecen los contenidos de aprendizaje. además del análisis específicos del Proyecto Curricular de Etapa. En cualquier caso. por áreas o materiales. Esta evaluación. * Adecua los contenidos a las peculiaridades del alumnado. A modo de ejemplo. resulta problemático aplicar en una lógica supervisora un conjunto de indicadores externos. de manera que resultan: funcionales.) son una mezcla de estos dos componentes: Teoría de la Elaboración y Psicología Constructivista. en su caso. 1991: 45-50. deberá abordar. * Tiene en cuenta los contenidos que se trabajarán en la etapa posterior. según las orientaciones y normativa oficial. elección de un tipo de contenido como eje vertebrador de la secuencia. * Recoge suficientes opciones de contenido. * Adecua los contenidos a las características del entorno. 1991: 20-23. 1992. marcados legalmente como obligatorios. 1992b: 36-41. Del Carmen. INDICADORES DE EVALUACIÓN DEL CONTENIDO DEL PCC *Incluye los contenidos. Pueden. para cada ciclo o curso de la etapa. exige su evaluación por parte del Claustro de profesores.

1992). Con lo que hay una contradicción entre lo proclama de novedad o la Reforma que era hacer explícito el currículo oculto por medio de la dimensión de "normas. actitudes y valores". se convierte en "institución creadora de conocimientos" (Kvale. Por ello los "criterios de evaluación" se convierten en objetivos terminales en la práctica. Departamentos y tutores d) La regularidad y claridad de la relación con los padres. 2) Que el proceso de evaluación esté integrado en el propio proceso de enseñanza-aprendizaje. y 3) la labor de evaluación es conjunta del equipo de profesores: integración de juicios. más o menos mensurables. los procedimientos y las actitudes. 1992:17). en esta segunda dimensión . el contenido curricular operativo para los alumnos es lo que es evaluado en los exámenes. Nos fijaremos. que interacciona y suele ser dependiente con los contenidos planificados y trabajados en el aula. que "las estrategias didácticas y los procesos psicológicos mediante los cuales se enseñan y se aprenden los hechos. La distinción entre tres tipos de contenidos quiere indicar. con un sentido formativo o continuo. madres o tutores legales. prescriptivo. definiendo éstos el conocimiento válido en un campo disciplinar. EVALUACIÓN INTEGRADA O DIFERENCIAL La evaluación integrada se debe entender con un doble sentido: 1) No separa aspectos conceptuales de los actitudinales. En analogía con la definición operacional de inteligencia (lo que es medido en los test). en los criterios de evaluación referidos a los contenidos comunes válidos de una disciplina. para uniformarlas en función de esos mínimo.convivencia de entre los alumnos. tal vez porque en su propósito de especificar criterios. y esa será la lectura que hará el profesorado (y las propias editoriales). conceptos. . siendo juzgada toda la labor educativa de modo integrado. algunos a procedimientos y casi ninguno a contenidos actitudinales. que deja poco margen a las potenciales interpretaciones y prácticas docentes divergentes del profesorado. Equipo Técnico de Coordinación Pedagógica. de perspectivas/juicios de los diferentes profesores. lo que convierte la propuesta inicial de un currículo abierto y flexible de facto en currículo semicerrado. éstas prácticamente desaparecen en su dimensión sustantiva. como objetivos que los alumnos tendrán que haber cubierto al final del proceso. y cuando se intentan determinar los criterios de evaluación. EVALUACIÓN DEL PROCESO DE APRENDIZAJE Los "criterios de evaluación" de Enseñanzas mínimas se refieren mayoritariamente a contenidos conceptuales. además de señalar diversos campos de actuación en la enseñanza. EVALUACIÓN DE LOS CONTENIDOS La evaluación del grado de aprendizaje de contenidos curriculares impartidos. valores y normas presentan algunas diferencias sustanciales entre sí. al igual que sucede con las estrategias e instrumentos de evaluación más apropiados en cada caso" (Coll y otros. por la evaluación que se efectúa del aprendizaje de los alumnos. c) La coordinación entre los órganos y personas responsables en el Centro de la planificación y desarrollo de la práctica docente: Equipo Directivo. en las actitudes no son fáciles de expresar. Claustro de Profesores. Por ahora. aquí nos referimos sólo al primer sentido.

identificación. recordar. reproductivo y aislado. la "apreciación sobre el grado de asimilación de los contenidos de las diferentes áreas o materias". como ejemplo de lo que no debe hacerse. pretende ser relevante didácticamente por implicar distintos procesos de aprendizaje. aceptar. puestos de manifiesto en la misma forma de llevar a cabo la acción. analizar. etc. apreciar. SABER HACER: Elaborar. experimentar. y no los resultados objetivos extrínsecos que se consiguen. exposición.O. resumir. Así haber situado formalmente el campo de las actitudes y valores como contenidos de toda enseñanza. categorización. etc.E" de 11 de noviembre). especifica que el Informe de Evaluación Individualizado contendrá. * Predisposición a actuar de una determinada forma socialmente deseable. generalización. Integración de acciones. etc. Clases de contenidos. valorar. entre otros elementos. ha diferenciado la evaluación de la adquisición de cada tipo de contenido en cinco grados para cada área. debiera significar que han de ser evaluados de manera global e integrada. respetar. valores y principios intrínsecos al propio proceso educativo. son las cualidades. cognitivo y comportamental. demostrar. etc.Que los instrumentos y procesos de evaluación tengan que ser diferentes en cada tipo de contenido. construir.Evaluación de contenidos conceptuales: La distinción entre conocimiento factual. tipo de aprendizaje y formas de evaluación. y los criterios para juzgar el nivel de aprendizaje alcanzado puede ser distinto. sobre los elementos básicos de los informes de evaluación. preferir. * Uso y aplicación práctica en situaciones apropiadas. VALORAR: Comportarse. explicar. ACTITUDINAL: Actitudes. conceptual y de principios. Podemos. valores y normas * Componente afectivo. Clase de contenido CONCEPTUAL: Hechos conceptos y principios. * Observación sistemática en sus diversas variantes y situaciones. La Orden del MEC de 30 de octubre de 1992 ("B. enumerar. describir. Interpretando de modo extremo lo anterior. manejar. métodos. PROCEDIMIENTOS: Distintas acciones y estrategias para resolver objetivos o alcanzar metas. tolerar. destrezas o hábitos a las tareas o situaciones particulares. relacionar. Criterios y Formas de evaluación SABER: Conocer. tanto en Primaria como en Secundaria Obligatoria. uso y aplicación) de un conjunto de habilidades y estrategias. reglas. etc. sentir. aplicar. * Conocimiento y utilización (funcionalidad. al mismo nivel que los restantes. con estos presupuestos referirnos específicamente a cada tipo de contenido: 1. los que hacen "educativa" una actividad. Tipo de aprendizaje * Hechos: memorísticos. planificar. contextualización. * Conceptos: significativo. EVALUACIÓN DE LOS CONTENIDOS Como señalo Stenhouse. no obstante. * Principios: Comprensión de relaciones entre conceptos o hechos. * Definición. no debe significar en ningún caso que cada tipo de contenido tenga una evaluación diferenciada. . relación e integración.

Su evaluación debe referirse a destrezas de distinto rango. la coordinación y coherencia entre los profesores de cada ciclo. diferente de abstracción. desde estrategias cognitivas a la utilización de técnicas e instrumentos. y la adecuación de los criterios de evaluación/promoción. . Pero también el Claustro o el Consejo Escolar de Centro pueden tener la iniciativa de poner en marcha programas de evaluación sobre el funcionamiento del Centro educativo. la coordinación en el ciclo o interciclos. Evaluar estos contenidos actitudinales trae consigo dos problemas: uno técnico-metodológico y otro ético. pues suele implicar procesos de un nivel sino más alto. De acuerdo con la literatura oficial se aconseja que acerca de la práctica docente en el aula se deberá valorar el diseño y desarrollo de cada unidad didáctica. que emitirán los profesores al término de cada curso académico en Primera y Secundaria Obligatoria. Esta evaluación debe efectuarse al comienzo de cada ciclo y al finalizar.estrategias de enseñanza y modos de evaluación. El Informe de Evaluación Individualizado (IEI). y la calidad y regularidad de las relaciones con los padres. son inferidas a partir de acciones manifiestas. incluye la "apreciación sobre el grado de asimilación de los contenidos conceptuales. cuyo formato específico se deja como decisión a los centros. con que legitimidad) podríamos entrar en qué métodos o técnicas nos podrían ser útiles en este sentido. Aquellas evaluaciones que afecten al Proyecto curricular introduciendo algunos modificaciones deberán reflejarse en la Programación anual. Evaluación de los contenidos actitudinales: Las actitudes adquiridas no suelen ser directamente evaluables. el ambiente de aula y clase y la propia actuación personal. 2. Solo si tenemos claro el sentido de la evaluación en este ámbito (por qué. procedimentales y actitudinales de las diferentes áreas o materias". de manera que se garantice la continuidad del proceso de aprendizaje. En el ámbito del Ciclo y la Etapa el desarrollo de la programación o Proyecto curricular. aparte de los destinados a las familias. FUTURO DE LA EVALUACIÓN. 3. para qué. Así un concepto no se puede evaluar igual si fuera un dato o un principio. El plan para evaluar el proceso de enseñanza-aprendizaje se encomienda a un Equipo técnico la comisión Coordinación Pedagógica. referida a tres aspectos fundamentales: el ambiente del aula. y deberá ser aprobado por el Claustro.- LA DIFUSIÓN DE LA EVALUACIÓN: TIPOS DE INFORMES Se prescribe la realización de un Informe Anual y de un Informe de Evaluación Individualizado (IEI).Evaluación de procedimientos: Pretende incidir en que los alumnos aprendan a saber hacer y transferir funcionalmente a otros contextos las habilidades adquiridas. aunque el "saber cómo" suele presuponer el "saber que". cuya finalidad es servir de orientación para evaluación inicial del primer ciclo de educación primaria (en el caso de Infantil) o de los ciclos o etapas siguientes. EVALUACIÓN DE LOS PROCESOS DE ENSEÑANZA-APRENDIZAJE Como otro ámbito de la evaluación se pretende que los maestros y profesoras evalúen su propia práctica docente.

hay que hacer estudio de casos con métodos cualitativos. que hubiera dado lugar a nuevas visiones o modelos. al hacer la recensión.. D) EN CUANTO AL OBJETO DE LA EVALUACIÓN. porque a su juicio hacen demasiado hincapié en ser útiles para los que toman decisiones. Es decir. E) SOBRE LOS AGENTES DE LA EVALUACIÓN. pero en adelante el énfasis deberá ponerse en el desarrollo del profesorado y en la mejora del currículum. Su argumento es que una sociedad creciente sofisticada valorará más la dimensión cualitativa como el primer elemento de competición.. Scriven. técnicas.En los últimos años los teóricos de la evaluación se han dedicado a reflexionar. . que un teoría mixta. en el año 1991. etc. el trabajo de evaluación no termina con el informe de lo que sucede sino con la propuesta de estrategias de mejora. A) SOBRE EL MARCO TEÓRICODE LA EVALUACIÓN. el conocimiento. los capítulos de cada uno de los autores aportan a la obra de McLaughlin y Phillips siguen mirando hacia adentro. probablemente. Por ello hay que tener en cuenta una variedad de perspectivas o aproximación a la evaluación desde enfoques mixtos. hacia sus posiciones. que puedan tener en cuenta distintas variables para concebir programas teóricamente. no es lo mismo usar métodos mixtos. Ory (1991) hace una crítica a los programas de evaluación que se ha desarrollado durante los últimos veinticinco años. De forma que Milburn (1992). Greene y McClintock (1991)piensan que no se puede buscar la causa de la mejora de la educación en un programa de innovación curricular entendido como variable independiente. House. En el año 1989. y desarrollando alguno elementos de la práctica: instrumentos. sin suponer un debate entre ellos. C) EN CUANTO A LA FINALIDAD DE LA EVALUACIÓN. para otros la cualitativa. por otra parte. Para los autores Greene y McClintock. pero además es el único medio para poder explora y descubrir si efectivamente trabajan de manera cualitativamente diferente. y algo importante será relacionar evaluación de programas y proyectos futuros. porque son muchos los factores que influyen en el éxito de un determinado programa y no sólo éste. en nuestro país empezamos ahora a necesitar. Eisner. Para determinados problemas sólo sirve la metodología cuantitativa. Sttuflebeam. ya que los métodos no están inherentemente ligados a un determinado paradigma. y ya que los sistemas educativos hoy no son competitivos. algunos autores revisan y hacen una reflexión debido a la petición de participación en la obra de House sobre evaluación. Clinkenbeard (1992) reflexiona sobre problemas educativos y tipos de programas. se desarrollarán sistema de evaluación con mecanismos para asegurar y promover la calidad. aumentando. que. Igualmente. a pesar de los pocos ejemplos prácticos de investigaciones que utilicen métodos mixtos. Eastmond (1991) defiende que en losa años 90 la evaluación se enfocará hacia la calidad. B) SOBRE LOS MÉTODOS EN LA EVALUACIÓN. La mayoría de los modelos se desarrollaron en los años sesenta y setenta. como los efectos des un programa de niños bisen dotados. Weiss. dice que hay obras que tienen éxito si eliges a los participantes adecuados: Stake. En caso singulares.

pueden generarse nuevas asociaciones entre universidades. . en apoyo de las nuevas tecnologías que emergen.Eastmond (1991) supone que en los próximos años se verá como natural la necesidad de evaluación interna dentro de las organizaciones. La Universidad puede proporcionar entrenamiento en técnicas de evaluación. Pero en la empresa pública se confiará la evaluación a profesionales externos que puedan establecer comparaciones con otros programas similares. centros escolares y la industria. Todos los grupos ganan por la interacción intelectual. En este sentido. La escuela pública puede proporcionar la prueba fehaciente del juicio sobre la realidad educativa. los profesores de los centros escolares pueden obtener experiencia en conducir trabajos de evaluación. y la industria puede proporcionar recursos y servir como canalizadora del cambio.

Sign up to vote on this title
UsefulNot useful