P. 1
Modelo Iluminativo de La Evaluacion

Modelo Iluminativo de La Evaluacion

|Views: 2.798|Likes:
Publicado porthebestami01

More info:

Published by: thebestami01 on May 05, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

08/13/2013

pdf

text

original

Referencia: Reference

:
Escudero, Tomás (2003). Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista ELectrónica de Investigación y EValuación Educativa, v. 9, n. 1. http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm. Consultado en (poner fecha).

This article in english version

(added March, 21th 2006)

Analysis / Análisis

Hits:

Visitas

DESDE LOS TESTS HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL. UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN (From tests to current evaluative research. One century, the XXth, of intense development of evaluation in education)
In format

po r
Tomás Escudero Escorza (tescuder@posta.unizar.es)

En formato

Article record About the authors Print this article

Ficha del artículo Sobre los autores Imprimir el artículo

Abstract
This article presents a review and state of art about development in educational evaluation in the XXth century. The main theoretical proposals are commented

Resumen
Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Se analizan los principales propuestas teóricas planteadas.

Keywords
Evaluation, Evaluation Research, Evaluation Methods; Formative Evaluation Summative Evaluation, Testing, Program Evaluation

Descriptores
Evaluación, Investigación evaluativa, Métodos de Evaluación, Evaluación Formativa, Evaluación Sumativa, Test, Evaluación de Programas

Introducción
En cualquier disciplina, la aproximación histórica suele ser una vía fundamental para comprender su concepción, estatus, funciones, ámbito, etc. Este hecho es especialmente evidente en el caso de la evaluación, pues se trata de una disciplina que ha sufrido profundas transformaciones conceptuales y funcionales a

lo largo de la historia y, sobre todo, a lo largo del siglo XX, en el que principalmente ubicamos nuestro análisis. En este sentido, la aproximación diacrónica al concepto resulta imprescindible.
Comments to this article Related articles: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

Comentar este artículo Artículos relacionados: de la Orden et al. (1997). Desarrollo y validación de un modelo de calidad universitaria como base para su evaluación. Volume 9, n 1

El análisis la vamos a llevar a cabo basándonos en tres planteamientos que podríamos tachar de clásicos en la reciente literatura sobre el tema y que usamos indistintamente, aunque no tenemos la pretensión de ofrecer un planteamiento de síntesis, sino de utilización cabal de todos ellos, puesto que los tres planteamientos inciden sobre los mismos momentos y movimientos claves.

Un planteamiento, quizás el más utilizado en nuestro contexto (Mateo y otros, 1993; Hernández, 1993), es el que ofrecen Madaus, Scriven, Stufflebeam y otros autores, que en sus trabajos suelen establecer seis épocas, empezando su análisis desde el siglo XIX (Stufflebeam y Shinkfield, 1987; Madaus y otros, 1991). Nos hablan de: a) época de la reforma (1800-1900), b) época de la eficiencia y del «testing» (1900-1930), c) época de Tyler (1930-1945), d) época de la inocencia (1946-1956), e) época de la expansión (1957-1972) y f) época de la profesionalización (desde 1973), que enlaza con la situación actual. Otros autores como Cabrera (1986) y Salvador (1992) citan tres grandes épocas, tomando como punto de referencia central la figura de Tyler en el segundo cuarto del Siglo XX. A la época de Tyler se le denomina de nacimiento, a las anteriores de precedentes o antecedentes y a la posterior de desarrollo. Guba y sus colaboradores, sobre todo Yvonna Lyncoln, destacan distintas generaciones. Ahora estaríamos en la cuarta (Guba y Lincoln, 1989), que según ellos se apoya en el enfoque paradigmático constructivista y en las necesidades de los «stakeholders» (demandantes e implicados en la evaluación), como base para determinar la información que se necesita. La primera generación es la de la medición, que llega hasta el primer tercio de este siglo, la segunda es la de la descripción y la tercera la del juicio o valoración. Tras el análisis histórico, como complemento y como revisión de síntesis del mismo, ofrecemos un sucinto resumen de los enfoques evaluativos más relevantes, de los distintos modelos y planteamientos que, con mayor o menor fuerza, vienen a nuestra mente cuando intentamos acotar lo que es hoy en día la investigación evaluativa en educación

1. Precedentes: Antes de los «tests» y de la medición Desde la antigüedad se han venido creando y usando procedimientos instructivos en los que los profesores utilizaban referentes implícitos, sin una teoría explícita de evaluación, para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace más de tres mil años, para seleccionar a los altos funcionarios. Otros autores como Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se refiere a los exámenes de los profesores griegos y romanos. Pero según McReynold (1975), el tratado más importante de evaluación de la antigüedad es el Tetrabiblos, que se atribuye a Ptolomeo. También Cicerón y San Agustín introducen en sus escritos conceptos y planteamientos evaluadores. En la Edad Media se introducen los exámenes en los medios universitarios con carácter más formal. Hay que recordar los famosos exámenes orales públicos en presencia de tribunal, aunque sólo llegaban a los mismos los que contaban con el visto bueno de sus profesores, con lo que la posibilidad de fracaso era prácticamente inexistente. En el Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en su Examen de ingenios para las ciencias, defiende la observación como procedimiento básico de la evaluación (Rodríguez y otros, 1995). En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educación, se acentúa la necesidad de comprobación de los méritos individuales y las instituciones educativas van elaborando e introduciendo normas sobre la utilización de exámenes escritos (Gil, 1992). Entrado el siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación, tras la superación de exámenes (exámenes del Estado). Según Max Weber (Barbier, 1993), surge un sistema de exámenes de comprobación de una preparación específica, para satisfacer las necesidades de una nueva sociedad jerárquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a utilizar las primeras técnicas evaluativas del tipo «tests» escritos, que se extienden a las escuelas de Boston, y que inician el camino hacia referentes más objetivos y explícitos con relación a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todavía de una evaluación sustentada en un enfoque teórico, sino más bien, algo que responde a prácticas en buena medida rutinarias y con frecuencia basadas en instrumentos poco fiables. Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele señalar como la primera investigación evaluativa en educación (Mateo y otros, 1993). Se trataba de un análisis comparativo en escuelas americanas sobre el valor de la instrucción en el estudio de la ortografía, utilizando como criterio las puntuaciones obtenidas en los tests. 2. Los tests psicométricos En el contexto anterior, a finales del siglo XIX, se despierta un gran interés por la medición científica de las conductas humanas. Esto es algo que se enmarca en el movimiento renovador de la metodología de las ciencias humanas, al asumir el

dentro del modelo del rasgo y atributo que caracterizaba las elaboraciones psicológicas de la época (Fernández Ballesteros. se elaboraban para establecer discriminaciones individuales. En este sentido. 1960. En Francia destacan los trabajos de . Los tests informaban algo sobre los alumnos. 1978). En la práctica sólo se hablaba de medición. de ortografía de Buckingan. de cálculo de Wood. Ebel. • Los tests de rendimiento. según sus conocimientos. En el campo educativo destacan algunos instrumentos de aquella época. c) El desarrollo de los métodos estadísticos que favorecía decisivamente la orientación métrica de la época (Nunnally. tales como: a) El florecimiento de las corrientes filosóficas positivistas y empíricas. la evaluación recibe las mismas influencias que otras disciplinas pedagógicas relacionadas con procesos de medición. de redacción de Hillegas. para determinar la posición relativa del sujeto dentro de la norma grupal. 1986). 1967. 1960) y se potencian las pruebas escritas como medio para combatir la subjetividad de los exámenes orales (Ahman y Cook. apoyando la medición de las características de los individuos y las diferencias entre ellos. Consecuentemente con este estado de cosas. La actividad evaluativa se verá condicionada de forma decisiva por diversos factores que confluyen en dicho momento. es decir. • El objetivo era detectar y establecer diferencias individuales. Sin embargo. la experimentación. los datos y los hechos como fuentes del conocimiento verdadero. En palabras de Guba y Lincoln (1982). fue en los tests psicológicos donde los esfuerzos tuvieron mayor impacto. el hallazgo de puntuaciones diferenciales. como la pedagogía experimental y la diferencial (Cabrera. Galton y Cattel. b) La influencia de las teorías evolucionistas y los trabajos de Darwin. en este periodo entre finales del siglo XIX y principios del XX. olvidándose en gran medida la representatividad y congruencia con los objetivos educativos. pero no de los programas con los que se les había formado.positivismo de las ciencias físico-naturales. que se define por características como las siguientes: • Medición y evaluación resultaban términos intercambiables. que apoyaban a la observación. se desarrolla una actividad evaluativa intensa conocida como «testing». 1967). 1981). la evaluación y la medida tenían poca relación con los programas escolares. de lectura de Thorndike y McCall y de aritmética de Wood y McCall (Planchard. como las escalas de escritura de Ayres y Freeman. 1977). d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar unos mecanismos de acreditación y selección de alumnos. siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los comienzos del siglo XX. Aparece la exigencia del rigor científico y de la objetividad en la medida de la conducta humana (Planchard. sinónimo de evaluación educativa. Ahman y Cook.

esta primera generación permanece todavía viva. exámenes. con las necesidades de reclutamiento en la Primera Guerra Mundial. después revisados por Terman en la Universidad de Stanford. Según estos autores. como proveedor de instrumentos de medición. que supone un primer acercamiento a la verdadera evaluación educativa. pues todavía existen textos y publicaciones que utilizan de manera indisoluble evaluación y medida (Gronlund. por ser el primero en dar una visión metódica de la misma.Alfred Binet. expedientes académicos. La década entre 1920 y 1930 marca el punto más alto del «testing». la mera evaluación psicológica. El fervor por el «testing» decreció a partir de los años cuarenta e. el divorcio entre lo enseñado y las metas de la instrucción. Ahora hablamos del Stanford-Binet. Tyler. Entre 1932 y 1940. muy en boga en el momento. Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests psicológicos con el desarrollo de la estadística y del análisis factorial. sobre tests de capacidades cognitivas. 1974). 1972). El papel del evaluador era técnico. Como solución se proponía: a) elaboración de taxonomías para formular objetivos. c) unificación de criterios de corrección a partir del acuerdo entre los correctores de las pruebas y d) revisión de los juicios de valoración mediante procedimientos tales como la doble corrección. Como puede verse. o la media de distintos correctores. sobre todo. Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa para lectoescritores y Beta para analfabetos) e inventarios de personalidad (Phillips. pues se idean multitud de tests estandarizados para medir toda clase de destrezas escolares con referentes objetivos externos y explícitos. se trata de criterios en buena medida vigentes actualmente y. superando desde el conductismo. para utilizar con grandes colectivos de estudiantes. Se criticaba. basados en procedimientos de medida de la inteligencia. 1985). uno de los tests más conocidos en la historia de la psicometría. los tests psicológicos se ponen al servicio de fines sociales. en su famoso . que puede legítimamente ser denominada como la generación de la medida. El nacimiento de la verdadera evaluación educativa: La gran reforma «tyleriana» Antes de que llegara la revolución promovida por Ralph W. 1968 y 1969. 3. Estas aplicaciones estandarizadas se acogen muy bien en los ámbitos educativos y McCall (1920) propone que los profesores construyan sus propias pruebas objetivas. en manos de una interpretación totalmente personal del profesor. empezaron a surgir algunos movimientos hipercríticos con estas prácticas. en Francia se inicia en los años veinte una corriente independiente conocida como docimología (Pieron. La evaluación se dejaba. Tras la contienda. Guba y Lincoln (1989) se refieren a esta evaluación como a la primera generación. en algún caso. Años más tarde. en último término. técnicas de repesca y tests. incluso avanzados. Bonboir. 1981). b) diversificación de fuentes de información. incluso. para no tener que confiar exclusivamente en las propuestas por especialistas externos. Pero quien es tradicionalmente considerado como el padre de la evaluación educativa es Tyler (Joint Committee.

. En España. pero su función es más amplia que el hacer explícito este cambio a los propios alumnos. Desgraciadamente. 1942). publicado dos años después (Smith y Tyler. El «currículum» viene delimitado por las cuatro cuestiones siguientes: a) ¿Qué objetivos se desean conseguir? b) ¿Con qué actividades se pueden alcanzar? c) ¿Cómo pueden organizarse eficazmente estas experiencias? d) ¿Cómo se puede comprobar si se alcanzan los objetivos? Y la buena evaluación precisa de las siguientes condiciones: a) Propuesta clara de objetivos. 1967 y 1969). 1971). La obra de síntesis la publica unos años después (Tyler. según Guba y Lincoln (1989). 1982). en función de los resultados de los alumnos. es también un medio para informar sobre la eficacia del programa educacional y también de educación continua del profesor. 1982. padres y profesores. de la segunda generación de la evaluación. e) Determinación de la fiabilidad y objetividad de las medidas. House. plantea la necesidad de una evaluación científica que sirva para perfeccionar la calidad de la educación. las ideas de Tyler fueron muy bien acogidas por los especialistas en desarrollo curricular y por los profesores. algo que retomarán otros importantes evaluadores como Cronbach y Sufflebeam unos años después. El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos. Para Tyler. porque supone un juicio de valor sobre la información recogida. 1989) y encajaba perfectamente en la racionalidad del análisis de la tarea que comenzaba a usarse con éxito en ámbitos educativos militares (Gagné. 1950). Su esquema era racional y se apoyaba en una tecnología clara. aunque sin desarrollar. Se alude. ni explotada. c) Elección de instrumentos apropiados de evaluación. d) Interpretación de los resultados de las pruebas. los planteamientos de Tyler se extendieron con la Ley General de Educación de 1970. 1975. A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de inmediato. Se trata. pero dentro de un proceso socializador. fácil de entender y aplicar (Guba y Lincoln. b) Determinación de las situaciones en las que se deben manifestar las conductas esperadas. por aquellos que utilizaron sus trabajos (Bloom y otros. Esta evaluación ya no es una simple medición. como el proceso surgido para determinar en qué medida han sido alcanzados los objetivos previamente establecidos (véase también Tyler. teniendo en cuenta que deben marcar el desarrollo individual del alumno. a la toma de decisiones sobre los aciertos o fracasos de la programación. esta visión evaluativa global no fue suficientemente apreciada. e integrando en él su método sistemático de evaluación educativa. que deben ser cuidadosamente definidos en términos de conducta (Mager. la referencia central en la evaluación son los objetivos preestablecidos. 1962). exponiendo de manera clara su idea de «curriculum». Guba y Lincoln.Eight-Year Study of Secondary Education para la Progressive Education Association.

antes de ponerse a evaluar. pero con escasa influencia en el perfeccionamiento de la labor instruccional. 1973). Sin embargo. Como acabamos de ver. se . Lindquist. destacando. hay que ser cauteloso ante la preponderancia de un solo procedimiento de evaluación. se producen cantidad de tests estandarizados. e) Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos. entre otros. 1991). ayudarles a que aprendan. los siguientes aspectos en el pensamiento de Tyler al final de sus días: a) Necesidad de analizar cuidadosamente los propósitos de la evaluación. una estudiante graduada de la Universidad de Stanford. Los actuales planteamientos de evaluaciones múltiples y alternativas deben ajustarse a este principio b) El propósito más importante en la evaluación de los alumnos es guiar su aprendizaje. tras siete décadas de fructíferas aportaciones y servicios a la evaluación. Para ello. 1956. Para ello es necesaria una evaluación comprensiva de todos los aspectos significativos de su rendimiento. Medio siglo después de que Tyler revolucionara el mundo de la evaluación educativa. adecuada a las peculiaridades del alumno y el centro. 1962. se observa la fortaleza. En rigor. en esta época. es necesario interaccionar con ellos de manera más frecuente y más informal. la comparación de centros no es posible. en abril de 1993. la aportación de la evaluación a la mejora de la enseñanza es escasa debido a la carencia de planes coherentes de acción. Pamela Perfumo. Esta entrevista. Tyler murió el 18 de febrero de 1994. En todo caso. Fernández de Castro. Se escribe mucho de evaluación. Se trata de la etapa conocida como la de la inocencia (Madaus y otros. 1990) y aparecen las famosas taxonomías de los objetivos educativos (Bloom y otros. coherencia y vigencia de su pensamiento. convenientemente preparada. 1953. sus ideas básicas. 1964). 1950. Se extienden mucho las instituciones y servicios educativos de todo tipo. fue presentada el 16 de abril de 1993 en la Conferencia de la AERA que tuvo lugar en Atlanta. pero depende de su contenido. Ralph W. d) La verdadera evaluación debe ser idiosincrásica. a la investigación y a la educación en general. incluyendo el «portfolio». entrevistó a Tyler con el propósito de conocer su pensamiento acerca del actual desarrollo de la evaluación y de los temas controvertidos alrededor de la misma. convenientemente actualizadas. c) El «portfolio» es un instrumento valioso de evaluación. superados los noventa años de vida. Krathwohl y otros. por su incapacidad de abarcar todo el espectro de aspectos evaluables. esto es. Walberg y Haertel. 1970. se avanza en la tecnología de la medición y en los principios estadísticos del diseño experimental (Gulliksen. Unos meses antes. Horowitz (1995) analiza el contenido y el significado de la citada entrevista.Tras la Segunda Guerra Mundial se produce un periodo de expansión y optimismo que Stufflebeam y Shinkfield (1987) no han dudado en calificar de «irresponsabilidad social». Popham y Baker. por el gran despilfarro consumista tras una época de recesión. El verdadero desarrollo de las propuestas tylerianas vino después (Taba. no basta con asegurarse que hacen regularmente el trabajo diario.

Rutman y Mowbray. cabe señalar la recesión económica que caracteriza los finales años sesenta. entre otras cosas porque se empezó a prestar interés por algunas de las llamadas de atención de Tyler. 1984). entra en escena un nuevo movimiento. su enfoque y su última interpretación variará según el tipo de decisión buscada. Aparece un cierto desencanto con la escuela pública y crece la presión por la rendición de cuentas (MacDonald. creándose una nueva evaluación no sólo de alumnos.entroncan fácilmente en las corrientes más actuales de la evaluación educativa. 1980 y 1983. Junto al desencanto de la escuela pública. 4. Weiss. Ello hizo que la población civil. 1983. A finales de los años sesenta. la era de la «Accountability». sino orientada a incidir en los programas y en la práctica educativa global (Mateo y otros. cuyas posibilidades educativas despertaron el interés entre los profesionales de la educación (Rosenthal. Stenhouse. Rutman. . De la misma forma que la proliferación de programas sociales en la década anterior había impulsado la evaluación de programas en el área social. de la rendición de cuentas (Popham. sobre todo porque los rusos iban por delante en la carrera especial. Rodríguez y otros. 1983. 1976.. 1995). como contribuyentes. la década de los setenta.. y los propios legisladores se preocupasen por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema escolar. Buena parte de culpa de este fuerte ímpetu evaluador americano se debió a la ya citada aprobación de la «Elementary and Secondary Act» (ESEA) en 1965 (Berk. El desarrollo de los sesenta Los años sesenta traerán nuevos aires a la evaluación educativa. tras el lanzamiento del Sputnik por la URSS en 1957. (Popham. En esa época surge un cierto conflicto entre la sociedad americana y su sistema educativo. y el objeto de valoración era el rendimiento de los mismos. 1983). Esta nueva dinámica en la que entra la evaluación. sobre todo. y como consecuencia de lo anterior. y se estipuló que cada uno de los proyectos realizados con el apoyo económico federal debía ser anualmente evaluado. fueron muchos los millones de dólares que desde los fondos públicos se destinaron a subvencionar nuevos programas educativos e iniciativas del personal de las escuelas públicas americanas encaminadas a mejorar la calidad de la enseñanza. En 1958 se promulga una nueva ley de defensa educativa que proporciona muchos programas y medios para evaluarlos. 1981. ordenadores. a fin de justificar subvenciones futuras.) y el de la enseñanza programada. 1993. Rutman y Mowbray. y. Para mejorar la situación y retomar la hegemonía científica y educativa. los años sesenta serán fructíferos en demanda de evaluación en el ámbito de la educación. relacionadas con la eficacia de los programas y el valor intrínseco de la evaluación para la mejora de la educación. aunque ésta se centraba en los alumnos como sujeto que aprende. sus funciones. Este movimiento se vio también potenciado por el desarrollo de nuevos medios tecnológicos (audiovisuales. 1983). hace que. En 1964 se establece el Acta de educación primaria y secundaria (ESEA) y se crea el National Study Comitte on Evaluation. Con esta ley se puso en marcha el primer programa significativo para la organización de la educación en el ámbito federal de los Estados Unidos. 1984). 1976).

profesores. se amplió considerablemente el fenómeno de la evaluación educativa. diera lugar a una oleada de protestas por parte del personal docente. entresacamos las sugerencias siguientes: a) Asociar el concepto de evaluación a la toma de decisiones. Es comprensible que. y. b) La evaluación que se usa para mejorar un programa mientras éste se está aplicando. The methodology of evaluation. experiencias de aprendizaje. Como consecuencia de estos focos de influencia. Estas reflexiones teóricas enriquecerán decisivamente el ámbito conceptual y metodológico de la evaluación. en el año 1973. este movimiento de rendición de cuentas. planteado así. funciones y metodología de la evaluación. Del análisis que Cronbach del concepto. por consiguiente. 1978). Cronbach abre el campo conceptual y funcional de la evaluación educativa mucho más allá del marco conceptual dado por Tyler. lo que unido a la tremenda expansión de la evaluación de programas ocurrida durante estos años. el autor destaca el hecho de que. El sujeto directo de la evaluación siguió siendo el alumno. b) sobre los alumnos (necesidades y méritos finales) y c) acerca de la regulación administrativa sobre la calidad del sistema. la legislación de muchos estados americanos instituyó la obligación de controlar el logro de los objetivos educativos y la adopción de medidas correctivas en caso negativo (MacDonald. 1976.que se asocia fundamentalmente a la responsabilidad del personal docente en el logro de objetivos educativos establecidos. La riqueza de ideas evaluativas expuestas en estos trabajos nos obligan a que. etc. y el de Scriven (1967). con frecuencia. pero también todos aquellos factores que confluyen en el proceso educativo (el programa educativo en un sentido amplio. de responsabilidad escolar. cuando se refiere al movimiento de descentralización escolar durante los últimos años sesenta y principios de los setenta. c) Poner en cuestión la necesidad de que los estudios evaluativos sean de tipo comparativo. profesor. se inicia durante esta época un periodo de reflexión y de ensayos teóricos con ánimo de clarificar la multidimensionalidad del proceso evaluativo. De esta forma. organización. aunque brevemente. Los grandes distritos escolares se dividieron en áreas geográficas más pequeñas. contenidos. aunque en su línea de sugerencias. etc. Como hitos de la época hay que destacar dos ensayos por su decisiva influencia: el artículo de Cronbach (1963). Distingue el autor tres tipos de decisiones educativas a las cuales la evaluación sirve: a) sobre el perfeccionamiento del programa y de la instrucción. Como resultado de estas nuevas necesidades de la evaluación. organización. contribuye más al desarrollo de la educación que la evaluación usada para estimar el valor del producto de un programa ya concluido. Otra dimensión de la responsabilidad escolar nos la ofrece Popham (1980). las diferencias entre las . así como el propio producto educativo.). Wilson y otros. nos refiramos a ellas. con un control ciudadano más directo sobre lo que ocurría en las escuelas. medios. Course improvement through evaluation. De hecho. dará lugar al nacimiento de esa nueva modalidad de investigación aplicada que hoy denominamos como investigación evaluativa. Entre las objeciones a este tipo de estudios.

a la vez que clarificaron el quehacer evaluativo. bien controlados. porque si los objetivos carecen de valor. con objeto de mejorarlo. ocupan un lugar importante en la evaluación. Propone el término de evaluación formativa para calificar aquel proceso de evaluación al servicio de un programa en desarrollo. El objetivo de la evaluación es invariante. Destacamos a continuación las aportaciones más significativas: a) Se establece de forma tajante la diferencia entre la evaluación como actividad metodológica.puntuaciones promedio entre-grupos son menores que las intra-grupos. d) Se ponen en cuestión los estudios a gran escala. las técnicas de evaluación no pueden limitarse a los tests de rendimiento. Resalta la necesidad de que la evaluación debe incluir tanto la evaluación de los propios objetivos . Sus fecundas distinciones terminológicas ampliaron enormemente el campo semántico de la evaluación. lo que el autor llama meta de la evaluación. Los cuestionarios. reclamando la necesidad de una evaluación con referencia al criterio. Se defienden los estudios más analíticos. 2) medidas de rendimiento y actitudes –cambios observados en los alumnos– y 3) estudios de seguimientos. al defender la valoración con relación a unos objetivos bien definidos y no la comparación con otros grupos. el camino posterior seguido por los estudiantes que han participado en el programa. f) Desde esta óptica. esto es. c) Otra importante contribución de Scriven es la crítica al énfasis que la evaluación da a la consecución de objetivos previamente establecidos. e) Metodológicamente Cronbach propone que la evaluación debe incluir: 1) estudios de proceso –hechos que tienen lugar en el aula–. la evaluación como actividad metodológica es esencialmente igual. Cronbach aboga por unos criterios de comparación de tipo absoluto. en contraste al casi exclusivo uso que se hacía de los tests como técnicas de recogida de información. que pueden usarse para comparar versiones alternativas de un programa. no lo fueron menos las del ensayo de Scriven (1967). y el término de evaluación sumativa para aquel proceso orientado a comprobar la eficacia del programa y tomar decisiones sobre su continuidad. b) Scriven señala dos funciones distintas que puede adoptar la evaluación: la formativa y la sumativa. no tiene ningún interés saber hasta qué punto se han conseguido. y las funciones de la evaluación en un contexto particular. Si estas reflexiones de Cronbach fueron impactantes. la observación sistemática y no sistemática. puesto que las diferencias entre los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas de los resultados. Así. así como otras referentes a las dificultades técnicas que en el marco educativo presentan los diseños comparativos. según el autor. sea lo que fuera lo que estemos evaluando. mientras que las funciones de la evaluación pueden ser enormemente variadas. las pruebas de ensayo. Estas funciones se relacionan con el uso que se hace de la información recogida. las entrevistas. supone en definitiva el proceso por el cual estimamos el valor de algo que se evalúa.

que terminará de desarrollarse y. a veces los más bajos en las taxonomías del dominio cognoscitivo. Stake. 1964. 1986). en la línea de evaluación como «assessment» (Mateo. Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de evaluadores. 1962 y 1973. la valora. sino también a los efectos laterales o no pretendidos. 1971. d) Clarificadora es también la distinción que hace Scriven entre evaluación intrínseca y evaluación extrínseca. no sólo por la estructura de valor que en ello subyace. se caracteriza por introducir la valoración. Glaser. y de que se prestaba escasa atención a los objetivos del dominio afectivo. Scriven. 1967 y 1969. se comienza a prestar atención no sólo a los resultados pretendidos. . Se percibe que el núcleo conceptual de la evaluación lo constituye la valoración del cambio ocurrido en el alumno como efecto de una situación educativa sistemática. incidiendo no sólo en estudios en la línea de la investigación evaluativa. e incluso a resultados o efectos a largo plazo (Cronbach. Atkin. Entre otras cosas aparecieron nuevas ideas sobre la evaluación de la interacción en el aula y sobre sus efectos en los logros de los alumnos (Baker. 1967). siendo unos objetivos bien formulados el mejor criterio para valorar este cambio. que presentan mayor dificultad de tratamiento operativo. Glaser. 1968). Bloom y otros. como dos formas diferentes de valorar un elemento de la enseñanza. Así mismo. según Guba y Lincoln (1989). A pesar de las voces críticas con la operativización de objetivos (Eisner. 1965. En una evaluación intrínseca se valora el elemento por sí mismo. Gagné 1971). e) Scriven adopta una posición contraria a Cronbach. pues en la evaluación intrínseca el criterio no se formula en términos de objetivos operativos. a la que se referían preferentemente. Krathwohl y otros. mientras que en la evaluación extrínseca se valora el elemento por los efectos que produce en los alumnos. de extenderse en las décadas posteriores. 1964. Admite con Cronbach los problemas técnicos que los estudios comparativos entrañan y la dificultad de explicar las diferencias entre programas. Popham. sino también por centrar la valoración del aprendizaje en los productos más fácilmente mensurables. 1963. como un contenido intrínseco en la evaluación. 1963. la juzga con relación a distintos criterios. el modelo evaluativo de Tyler se enriquecería mucho en estos años.como el determinar el grado en que éstos han sido alcanzados (Scriven. Durante estos años sesenta aparecen muchas otras aportaciones que va perfilando una nueva concepción evaluativa. 1970. mientras que sí se hace en la evaluación extrínseca . Esta distinción resulta muy importante a la hora de considerar el criterio a utilizar. Estamos ante la tercera generación de la evaluación que. defendiendo el carácter comparativo que deben presentar los estudios de evaluación. 1973 y 1974). 1969). el juicio. además. Ahora el evaluador no sólo analiza y describe la realidad. pero Scriven considera que la evaluación como opuesta a la mera descripción implica emitir un juicio sobre la superioridad o inferioridad de lo que se evalúa con respecto a sus competidores o alternativas. Lindvall. sino también en la evaluación orientada al sujeto. 1967. sobre todo. con trabajos sobre los objetivos educativos que continuarían y perfeccionarían el camino emprendido en 1956 por Bloom y colaboradores (Mager.

1973. en cuanto que es el tipo de evaluación que suministra una información real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de enseñanza previstos. defiende la utilización de evaluadores externos para evitar todo tipo de tergiversación de los profesores muy implicados en los procesos instruccionales. cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests referidos a la norma. es el de la evaluación orientada a la toma de decisiones sobre el «instrumento» o «tratamiento» o «programa» educativo. 1985). Mager. La distinción introducida por Glaser (1963) entre mediciones referidas a normas y criterios tendrá eco al final de la década de los sesenta. El énfasis en los objetivos y su medida traerá también la necesidad de una nueva orientación a la evaluación. El otro nivel. precisamente como resultado de las nuevas exigencias que a la evaluación educativa se le planteaban. en cambio. así como la valoración de ese estatus por comparación con un estándar o criterio de realizaciones deseables. Un nivel podemos calificarlo como la evaluación orientada hacia los individuos. además. que sigue la línea de Tyler.Stake (1967) propuso su modelo de evaluación. por ejemplo. otro objetivo como es el de valorar la eficacia de un programa. Esta investigación evaluativa para Suchman debe tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo. señala para los primeros. al efecto de contraste. pero es más completo al considerar las discrepancias entre lo observado y lo esperado en los «antecedentes» y «transacciones». además de los conocidos objetivos de describir la ejecución del sujeto y tomar decisiones sobre si domina o no domina un contenido. b) el tiempo necesario para que se realice el cambio propuesto. la denominada evaluación de referencia criterial. y posibilitar algunas bases para elaborar hipótesis acerca de las causas y los fallos en los resultados finales. éxito o fracaso de un programa al compararlo con los objetivos propuestos y. The countenance model. impulsado también por . la investigación evaluativa es siempre aplicada. así. por consiguiente. En las prácticas evaluativas de esta década de los sesenta se observan dos niveles de actuación. Metfessell y Michael (1967) presentaron también un modelo de evaluación de la efectividad de un programa educativo en el cual. En sus sucesivas propuestas. matizando que la investigación científica es preferentemente teórica y. Stake se irá distanciando de sus posiciones iniciales. Así. c) el conocimiento de si los resultados esperados son dispersos o concentrados y d) los métodos que han de emplearse para alcanzar los objetivos. Su principal propósito es descubrir la efectividad. trazar las líneas de su posible redefinición. Desde finales de los sesenta los especialistas se pronunciarán decisivamente a favor de la evaluación criterial. Suchman (1967) profundiza en la convicción de que la evaluación debe basarse en datos objetivos que sean analizados con metodología científica. Este último nivel. proponían la utilización de una lista comprensiva de criterios diversos que los evaluadores podrían tener en cuenta en el momento de la valoración y. los resultados obtenidos por otros sujetos o grupo de sujetos (Popham. 1970 y 1983. siendo irrelevantes. no centrarse meramente en los conocimientos intelectuales alcanzados por los alumnos. fundamentalmente alumnos y profesores. Gronlund. Suchman. aún siguiendo el modelo básico de Tyler. Carreño. 1977.

y que algunos modelos pueden ser representativos de ellas. como los diferentes modelos deben ser vistos. en esta época destacan la propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). y Mateo (1986) se refiere a la eclosión de modelos. las propuestas seguían la línea expuesta por Tyler en su planteamiento. Arnal y otros. sino más bien como complementarios y que el estudio de los mismos (al menos aquellos que han resultado ser más prácticos) llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. Estos enriquecerán considerablemente el vocabulario evaluativo. 1993). De la Orden. 1980. pero los diferentes modelos. en función del tipo de trabajo y las circunstancias (Escudero. y valorar así sus respectivas aportaciones en los terrenos conceptual y metodológico (Worthen y Sanders. modelos de evaluación que expresan la propia óptica del autor que los propone sobre qué es y cómo debe conducirse un proceso evaluativo. Stufflebeam y Shinkfield. será la base para la consolidación en el terreno educativo de la evaluación de programas y de la investigación evaluativa. Pérez (1983) y en alguna medida House (1989). 1973. Anderson y Ball. pero enfatizan la necesidad de aportar datos sobre la congruencia o discrepancia entre las pautas de . de una época caracterizada por la pluralidad conceptual y metodológica. puesto que es cada evaluador el que termina construyendo su propio modelo en cada investigación evaluativa. Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas. Guba y Lincoln (1982) nos hablan de más de cuarenta modelos propuestos en estos años. Algunos autores como Guba y Lincoln (1982). pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situación es mucho más rica en matices. En una primera época. Además de los ya citados de Stake y Metfessell y Michael. Es desde esta perspectiva. cuantitativos y cualitativos. tienden a clasificar estos modelos en dos grandes grupos. Popham. Nosotros. 1985) los que consideran los modelos no como excluyentes. También son varios los autores (Lewy. en algún momento nos hemos atrevido a hablar de enfoques modélicos. 1992. considerados particularmente. Se trata. En este movimiento de propuestas de modelos de evaluación cabe distinguir dos épocas con marcadas diferencias conceptuales y metodológicas. 1976. más que de modelos. por tanto. 1982. 1983. Desde los años setenta: La consolidación de la investigación evaluativa Si con algo se podría caracterizar las aportaciones teóricas que nos ofrecen los especialistas durante los años setenta es con la proliferación de toda clase de modelos evaluativos que inundan el mercado bibliográfico. 5. a nuestro entender. que ha venido a llamarse de “Consecución de Metas”. 1994). Cronbach. Para estos autores los objetivos propuestos siguen siendo el criterio fundamental de valoración. sin embargo. 1987. Scriven. se diferencian más por destacar o enfatizar alguno o algunos de los componentes del proceso evaluativo y por la particular interpretación que a este proceso le dan.la evaluación de programas en el ámbito social. compartimos la idea de Popham (1980) de que algunos son demasiado complicados y otros utilizan una jerga bastante confusa. que corresponden a los últimos años sesenta.

a la que se adhieren Guba y Lincoln (1982). Es fácilmente comprensible que las exigencias que plantea la evaluación de programas de una parte. directores. 1982. la Evaluación Democrática de MacDonald (1976). el C. propuesto por Stufflebeam y colaboradores (1971) y el C. (contexto. Pero también es cierto que bajo esta diversidad subyacen diferentes concepciones teóricas y metodológicas sobre la evaluación. como en los modelos orientados a la toma de decisiones. Otros modelos consideran el proceso de evaluación al servicio de las instancias que deben tomar decisiones. ni el responsable de elaborar los currículos u objetivos. Ello explica que cuando Nevo (1983 y 1989) pretende realizar una conceptualización de la evaluación. conducen a una gran variedad de esquemas evaluativos reales utilizados por profesores. La aportación conceptual y metodológica de estos modelos es valorada positivamente entre la comunidad de evaluadores (Popham. input. atendiendo a los tópicos ¿qué es la evaluación? ¿qué funciones tiene? ¿cuál es el objeto de evaluación?. puesto que en sus propuestas suponen diferentes tipos de evaluación. a partir de la revisión de la literatura especializada. de aquí que la metodología que consideran más adecuada es la propia de la antropología social (Parlett y Hamilton. y la evaluación para la toma de decisiones sobre los individuos de otra..I. En líneas generales. 1982. Una segunda época en la proliferación de modelos es la representada por los modelos alternativos. House. proceso y producto). Guba y Lincoln. Pérez 1983). Ejemplos notables de ellos son: probablemente el más famoso y utilizado de todos. Diferentes concepciones que han dado lugar a una apertura y pluralidad conceptual en el ámbito de la evaluación en varios sentidos (Cabrera. Por una parte existe la clásica definición dada por Tyler: la evaluación como el proceso de . 1989). Este resumen de modelos de la época de eclosión es suficiente para aproximarnos al amplio abanico conceptual teórico y metodológico que hoy se relaciona con la evaluación. este segundo grupo de modelos evaluativos enfatiza el papel de la audiencia de la evaluación y de la relación del evaluador con ella. no encuentra una única respuesta a estas cuestiones.. (toma sus siglas del Centro de la Universidad de California para el Estudio de la Evaluación) dirigido por Alkin (1969). la Evaluación Iluminativa de Parlett y Hamilton (1977) y la Evaluación como crítica artística de Eisner (1985). La audiencia prioritaria de la evaluación en estos modelos no es quien debe tomar las decisiones.P. según las necesidades de las decisiones a las que sirven. inspectores y administradores públicos. Se trata de modelos que propugnan una evaluación de tipo etnográfica. A continuación destacamos los puntos mas sobresalientes de esta pluralidad conceptual. Guba y Lincoln. Entre ellos destacan la Evaluación Responsable de Stake (1975 y 1976). La relación entre el evaluador y la audiencia en palabras de Guba y Lincoln (1982) debe ser «transaccional y fenomenológica». 1977. a) Diferentes conceptos de evaluación. 1980. como en los modelos de consecución de metas. que con diferentes concepciones de la evaluación y de la metodología a seguir comienzan a aparecer en la segunda mitad de esta década de los setenta.S. 1986). La audiencia prioritaria son los propios participantes del programa. Estos autores van más allá de la evaluación centrada en resultados finales.instrucción diseñadas y la ejecución de las mismas en la realidad del aula.P.E.

Además. de otro. siendo el que toma las decisiones el responsable de su valoración. es retomado por Cronbach (1982). Desde la óptica de la consecución de metas. Stufflebeam y otros (1971). 1980). Contrasta esta definición con aquella más amplia que se propugna desde los modelos orientados a la toma de decisiones: la evaluación como el proceso de determinar. Guba y Lincoln (1982) refieren los términos de la comparación valorativa. las necesidades. Desde la perspectiva de las decisiones y situados dentro de un contexto político. de un lado. 1983) que acentúan el proceso de evaluación al servicio de determinar el «valor» más que el «mérito» de la entidad u objeto evaluado. MacDonald (1976) y Cronbach (1982). las características del objeto evaluado y. Así. una clara identificación del objeto de evaluación es una importante parte en cualquier diseño de evaluación. . Los modelos de evaluación citados y otros más que pueden encontrarse en la bibliografía. 1975. 1977. defendida por Alkin (1969). cualquier cosa puede ser objeto de evaluación y ésta no debería limitarse a estudiantes y profesores y. d) Pluralidad de objetos de evaluación. 1982. Parlett y Hamilton. House. y House (1989). Stufflebeam y colaboradores. existen dos conclusiones importantes que se obtienen de la revisión de la bibliografía sobre la evaluación. b) Diferentes criterios. utilizan criterios estándares sobre los que los expertos o profesionales están de acuerdo. Por un lado. expectativas y valores del grupo a los que les afecta o con los que se relaciona el objeto evaluado. representan diferentes propuestas para conducir una evaluación. Como dice Nevo (1983 y 1989). una buena y operativa definición de los objetivos constituye el criterio fundamental. Guba y Lincoln (1982). a la que corresponden los modelos orientados hacia la consecución de metas. por otro. Las definiciones de evaluación que acentúan la determinación del «mérito» como objetivo de la evaluación. obtener y proporcionar información relevante para juzgar decisiones alternativas. De las definiciones apuntadas anteriormente se desprende que el criterio a utilizar para la valoración de la información también cambia. c) Pluralidad de procesos evaluativos dependiendo de la percepción teórica que sobre la evaluación se mantenga. Guba y Lincoln. abogan por que el criterio de valoración fundamental sean las necesidades contextuales en las que ésta se inserta. como el proceso de estimar el valor o el mérito de algo.determinar el grado de congruencia entre las realizaciones y los objetivos previamente establecidos. con objeto de señalar las diferencias que comportarían los juicios valorativos en caso de estimar el mérito (se vincularía a características intrínsecas de lo que se evalúa) o el valor (se vincularía al uso y aplicación que tendría para un contexto determinado). Los autores (Stake. Se trata de modelos relacionados con la acreditación y el enjuiciamiento profesional (Popham. Alkin y MacDonald llegan a sugerir incluso la no valoración de la información por parte del evaluador. el concepto de evaluación de Scriven (1967).

hasta informes muy estructurados (Anderson y Ball. pretendiendo superar lo que según estos autores son deficiencias de las tres generaciones anteriores. por consiguiente. se fundan asociaciones científicas relacionadas con el desarrollo de la evaluación y las universidades empiezan a ofrecer cursos y programas de investigación evaluativa. Weiss. Evaluation and Program Planning. de la información necesaria en un proceso evaluativo para dar cabida no sólo a los resultados pretendidos. Mateo y otros. una escasa atención al pluralismo de valores y un excesivo apego al paradigma positivista. reconocida en general por todos los autores. sino también en planes de estudio para titulaciones de primer y segundo ciclos. New Directions for Program Evaluation. f) Pluralidad también reconocida de las funciones de la evaluación en el ámbito educativo. pluralidad en los informes de evaluación. lógicamente. informales. no sólo en postgrados y programas de doctorado. Apertura también respecto a la recogida de información no sólo del producto final. 1983. Guba y Lincoln (1989) ofrecen una alternativa evaluadora. Evaluation News.. Las cuestiones metodológicas surgen desde la dimensión de la evaluación como investigación evaluativa. que viene definida en gran medida por la diversidad metodológica. Evaluation Review. aparecen muchas nuevas revistas especializadas como Educational Evaluation and Policy Analysis. 1984). 1983).e) Apertura. Incluso Scriven (1973 y 1974) propone una evaluación en la que no se tenga en cuenta los objetivos pretendidos. i) Pluralidad metodológica. lo que ha venido a llamarse evaluación interna vs. No obstante. 1983). sino también sobre el proceso educativo. g) Diferencias en el papel jugado por el evaluador. sino valorar todos los efectos posibles. sea pretendido o no. apertura también en considerar no sólo resultados de tipo cognitivo. 1983. la época que se ha denominado época de la profesionalización (Stufflebeam y Skinkfield. Rutman... evaluación externa. Hernández. que denominan cuarta generación. 1993). El anterior resumen recoge las aportaciones a la evaluación en los años setenta y ochenta. 6. En este contexto. tras todo este desarrollo antes descrito. 1991.. Desde informes narrativos. tales como una visión gestora de la evaluación. se profundizó en los planteamientos teóricos y prácticos y se consolidó la evaluación como investigación evaluativa en los términos antes definida. 1987. una relación directa entre el evaluador y las diferentes audiencias de la evaluación es reconocida por la mayoría de los autores (Nevo. 1983). La cuarta generación según Guba y Lincoln A finales de los ochenta. Madaus y otros. h) Pluralidad de audiencia de la evaluación y. sino también afectivos (Anderson y Ball. Studies in Evaluation. sino a los efectos posibles de un programa educativo. y añadiéndose otras de tipo sociopolítico y administrativas (Nevo. La alternativa de Guba y Lincoln la denominan respondente y . en la que además de los innumerables modelos de los setenta. Y apertura en la consideración de diferentes resultados de corto y largo alcance. recogiéndose la propuesta de Scriven entre evaluación formativa y sumativa. Por último. 1993.

6) Recoger y proporcionar la información necesaria para la negociación. preocupaciones y asuntos de los implicados. demandas y preocupaciones. El cambio paradigmático lo justifican estos autores porque: a) La metodología convencional no contempla la necesidad de identificar las demandas. e) Se produce una interacción positiva entre los distintos implicados. e) La supuesta neutralidad de la metodología convencional es de dudosa utilidad cuando se buscan juicios de valor acerca de un objeto social. Las demandas. c) Son potenciales usuarios de la información resultante de la evaluación. 2) Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respecto. 3) Proporcionar un contexto y una metodología hermenéutica para poder tener en cuenta. La utilización de las demandas. c) No se tienen en cuenta suficientemente los factores contextuales.constructivista. que realizará secuencialmente o en paralelo. preocupaciones y asuntos de los implicados es necesaria. 8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y . d) Pueden ampliar y mejorar el rango de la evaluación. típica del positivismo. las preocupaciones y los asuntos de los implicados o responsables (stakeholders) sirven como foco organizativo de la evaluación (como base para determinar qué información se necesita). d) No se proporcionan medios para valoraciones caso por caso. que se lleva a cabo dentro de los planteamientos metodológicos del paradigma constructivista. 7) Formar y hacer de mediador para un «forum» de implicados para la negociación. el evaluador es responsable de determinadas tareas. según Guba y Lincoln. de manera que se sientan protegidos ante tal riesgo. y la epistemología postmoderna del constructivismo (Russell y Willinsky. 4) Generar el máximo acuerdo posible acerca de dichas construcciones. b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento más que de verificación. Partiendo de estas premisas. porque: a) Son grupos de riesgo ante la evaluación y sus problemas deben ser convenientemente contemplados. b) Los resultados pueden ser utilizados en su contra en diferentes sentidos. 1997). sobre todo si están al margen del proceso. integrando de alguna manera el enfoque respondente propuesto en primer lugar por Stake (1975). 5) Preparar una agenda para la negociación acerca de temas no consensuados. demandas y preocupaciones. Las responsabilidades básicas del evaluador de la cuarta generación son las siguientes: 1) Identificar todos los implicados con riesgo en la evaluación. construyendo un proceso ordenado y sistemático de trabajo. comprender y criticar las diferentes construcciones.

con diferentes subfases en cada una de estas. 1985). sus proponentes citan doce pasos o fases. • Documentos y registros. • Consecución de facilidades y acceso a la información (Lincoln y Guba. 1985). • Victimas. • Identificación de audiencias. preocupaciones y asuntos resueltos. • Propósito de la evaluación (Guba y Lincoln. 7) . Cuando se habla de los pasos o fases de la evaluación en esta cuarta generación. Preparación de la agenda para la negociación. • Literatura profesional. • Identificación del cliente o patrocinador de la evaluación. Establecimiento de prioridades en los temas no resueltos. • Construcción ética del evaluador. Lincoln y Guba. La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicación de la naturaleza y características del paradigma constructivista en contraposición con las del positivista. 9) Reciclar la evaluación siempre que queden asuntos pendientes de resolución.de los de otros grupos (Stake. Glaser. 1967. • Descripción del tipo de informe a elaborar. 1978. 1982). 1982). • Acuerdo con el cliente por el tipo de evaluación. Estos pasos son los siguientes: 1) Establecimiento de un contrato con un patrocinador o cliente. 1987). Zeller. • Identificación del objeto de la evaluación. • Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea posible. • Observación. 2) Organización para reciclar la investigación. • Beneficiarios. 1986. • Garantía de acceso a registros y documentos. • Breve descripción de la metodología a usar. 3) Identificación de las audiencias (Guba y Lincoln. 4) Desarrollo de construcciones conjuntas dentro de cada grupo o audiencia (Glaser y Strauss. • Círculos de otras audiencias. • Selección y entrenamiento del equipo evaluador. • Listado de especificaciones técnicas. 6) Clasificación de las demandas. 8) 9) Recogida de información. 5) Contraste y desarrollo de las construcciones conjuntas de las audiencias. • Agentes.

Los criterios paralelos. la dependencia es paralela al criterio de fiabilidad y la confirmación puede verse como paralela a la objetividad. b) autenticidad ontológica. a través de un proceso dialéctico. La transferencia puede verse como paralela a la validez externa. 11)Informes (Zeller. esto es. también de base constructivista. 1981). 1983). de confianza. se nos ofrecen tres enfoques que se denominan paralelo. que defienden con más ahínco los criterios que denominan de autenticidad. pero estas deben ampliarse con destrezas para recoger e interpretar datos cualitativos . Estos criterios han sido validez interna y externa. d) autenticidad catalítica y e) autenticidad táctica (Lincoln y Guba. e) la subjetividad progresiva y f) el control de los miembros. recursivo y altamente divergente. d) La evaluación es un proceso continuo. b) La evaluación es un proceso conjunto de colaboración. 1986). aunque útiles. Otra manera de juzgar la calidad de la evaluación es el análisis dentro del propio proceso. 12)Reciclado/revisión. Licoln y Guba. 1987. fiabilidad y objetividad. los criterios deban ser acordes con el paradigma fundamentador (Morgan. c) la evaluación es un proceso de enseñanza/aprendizaje. Para juzgar la calidad de la evaluación. se retienen las características del evaluador fruto de las tres primeras generaciones. Para conseguir esto existen varias técnicas. En esta evaluación. b) la observación persistente. entre las que destacan las siguientes: a) el compromiso prolongado. 1986). transferencia. f) La evaluación es un proceso con resultados impredecibles. g) La evaluación es un proceso que crea realidad. c) autenticidad educativa. 1988). el ligado al proceso hermenéutico y el de autenticidad. justicia. e) La evaluación es un proceso emergente. no son del todo satisfactorios para Guba y Lincoln. la de analista y la de juez. Pero estos dos tipos de criterios. Estos criterios incluyen los siguientes: a) imparcialidad. de forma que la idea de isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas a ellas. Este análisis de la cuarta generación de podemos terminarlo con los rasgos con los que definen Guba y Lincoln a la evaluación: a) La evaluación es un proceso sociopolítico. d) el análisis de casos negativos (Kidder. algo que encaja con el paradigma hermenéutico. c) el contraste con colegas. El criterio de credibilidad es paralelo al de validez interna.10)Desarrollo de la negociación. En el caso de la cuarta generación los criterios que se ofrecen son los de credibilidad. la de técnico. se denominan así porque intentan ser paralelos a los criterios de rigor utilizados muchos años dentro del paradigma convencional. dependencia y confirmación (Lincoln y Guba. Sin embargo.

el desarrollo de aproximaciones más pragmáticas de la conceptualización de Guba y Lincoln. desde 1975 a 1988 presidente del «Joint Committee on Standars for Educational Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher Evaluation). 7. adaptadas a las distintas realidades escolares. Stufflebeam. estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas. Stufflebeam (1994) nos . queremos recoger las recomendaciones que más recientemente nos viene ofreciendo una de las figuras señeras de este campo en la segunda mitad del siglo XX. por otra parte. 1998. con la de mediador de juicios. 1994. Esto requiere por parte del profesorado el reconocimiento de otras posiciones. debe suponer un esfuerzo razonable y debe ser políticamente viable. Stufflebeam invoca a la responsabilidad del evaluador. esto es. esto es. esto es. sino que completamos en buena medida la visión del panorama actual. Se parte de los cuatro principios del Joint Committee (1981 y 1988). centro auspiciado y financiado por el Departamento de Educación del gobierno americano. legítima. y d) segura y precisa a la hora de ofrecer información y juicios sobre el objeto de la evaluación. Sin embargo. c) apropiada. Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta generación para desarrollar formulaciones alternativas de práctica evaluadora entre los implicados. Además. proponente del modelo CIPP (el más utilizado) a finales de los sesenta. El nuevo impulso alrededor de Stufflebeam Para terminar este recorrido analítico-histórico desde los primeros intentos de medición educativa hasta la actual investigación evaluativa en educación. la evaluación se ve como una «transdisciplina». adecuada. y su derecho. no sólo ofrecemos una de las últimas aportaciones a la actual concepción de la investigación evaluativa en educación. ética y justa con los implicados. b) factible. con la de historiador e iluminador. 1999. 1980). tras analizar la cuarta generación de Guba y Lincoln. incrementando la probabilidad de que la evaluación sirva para mejorar la enseñanza escolar. de la idea de que cualquier buen trabajo de investigación evaluativa debe ser: a) útil. emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. así como un papel más activo como evaluador en un contexto socio-político concreto. pues es aplicable a muchas disciplinas diferentes y a muchos objetos diversos (Scriven. Para evaluar la educación en una sociedad moderna. 2000 y 2001). Recogiendo estas recomendaciones (Stufflebeam. en las que se han ido integrando ideas de diversos evaluadores también notables. la implicación de todos desde el principio del proceso y. rico y plural. que debe actuar de acuerdo a principios aceptados por la sociedad y a criterios de profesionalidad.(Patton. además de la suya. proporcionar información a tiempo e influir. esto es. 1994). Nos estamos refiriendo a Daniel L. es también su deber.

de manera que entender la diferencia entre dependencia del contexto y arbitrariedad es parte de la comprensión de la lógica de la evaluación. la evaluación es problemática. calidad y servicio para un contexto particular) (Guba y Lincoln. el compromiso y participación de los implicados y todo lo que hace que el esfuerzo educativo produzca el máximo de frutos posibles. • La factibilidad. Tomando el referente de estos criterios y sus derivaciones. Scriven (1998) nos señala que usando otras denominaciones habituales. 1985). calidad respecto a criterios generales) como por su valor (valor extrínseco. etc. como por su significación en la realidad del contexto en el que se ubica. el acceso a los mismos. legitimidad y precisión (Joint Committee. 1991). • La equidad. incluso en el terreno formativo (Scriven. la consecución de metas. En todo caso. instituciones educativas. los tres conceptos son dependientes del contexto. Estas recomendaciones son las siguientes: 1) Los planes de evaluación deben satisfacer los cuatro requerimientos de utilidad. factibilidad. Stufflebeam sumariza una serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y mejorar el sistema educativo. 1982. 1991a). La mejora de la calidad. bienestar. etc. a partir del análisis de las prácticas pasadas y presentes es uno de los fundamentos de la investigación evaluativa. sobre todo significación. mérito tiene bastante equivalencia con el término calidad. responsabilidades y obligaciones profesionales o institucionales. 5) Los estudios evaluativos deben ser capaces de valorar hasta qué medida los profesores y las instituciones educativas son responsables y rinden cuentas del cumplimiento de sus deberes y obligaciones profesionales (Scriven. programas. valor con el de relación coste-eficacia y significación con el de importancia. equidad. Scriven. Hay que cuestionar la eficiencia en la utilización y distribución de recursos. etc. . 1982). debe relacionarse siempre con el conjunto de sus deberes. 2) Las entidades educativas deben examinarse por su integración y servicio a los principios de la sociedad democrática.dice que se deben tomar algunos criterios básicos de referencia como los siguientes: • Las necesidades educativas. Es necesario preguntarse si la educación que se proporciona cubre las necesidades de los estudiantes y de sus familias en todos los terrenos a la vista de los derechos básicos. dentro de una sociedad democrática (Nowakowski y otros. el desarrollo de aspiraciones y la cobertura para todos los sectores de la comunidad (Kellagan. Quizás uno de los retos que deben abordar los sistemas educativos es la definición más clara y precisa de estos deberes y responsabilidades. 3) Las entidades educativas deben ser valoradas tanto por su mérito (valor intrínseco. Sin ello. la adecuación y viabilidad de las normas legales. en este caso. 1994). • La excelencia como objetivo permanente de búsqueda. Hay que preguntarse si el sistema es justo y equitativo a la hora de proporcionar servicios educativos. 1981 y 1988). 4) La evaluación de profesores.

La pluralidad y . 1991. de participación de los implicados en el programa evaluado. Webster y Edwards. pues es difícil pensar que los responsables de una organización pongan en cuestión el fundamento y el sistema de poder de la misma. proporcionando a los educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella (Madaus y otros. 7) Recogiendo los puntos anteriores. que defiende Fetterman (1994). de base democrática. 1994). 1998). para juzgar bien el valor de los servicios y resultados educativos. 1994) y de fundamento para la acción contra las discriminaciones sociales (Mertens. oportunidades. 1993. para asegurar el uso de un rango adecuado de enfoques según las necesidades y los planes. 8) Se debe promover la autoevaluación profesional. 1991. 1991. 1988. Stronge y Helm. Joint Committee. Asimismo. para localizar bien las metas y objetivos y definir prioridades. 12) La evaluación del producto es el medio para identificar los resultados buscados y no buscados en los participantes o afectados por el objeto evaluado. 1991) 10) La evaluación de las entradas (inputs) debe emplearse de manera prospectiva. en relación con las necesidades de los estudiantes (Madaus y otros. porque no basta con emitir un juicio sobre el mérito o el valor de algo. 1991) 9) La evaluación del contexto (necesidades. múltiples medidas de resultados. la evaluación del contexto debe utilizarse retrospectivamente. 14) Los estudios evaluativos deben emplear múltiples perspectivas. problemas en un área. criterios.. Más aún.. para promover la autonomía de los mismos en la resolución de sus problemas. 13) Los estudios evaluativos se deben apoyar en la comunicación y en la inclusión sustantiva y funcional de los implicados (stakeholders) con las cuestiones claves. y métodos tanto cuantitativos como cualitativos para recoger y analizar la información. La evaluación para el desarrollo (empowerment evaluation). todo estudio evaluativo debe tener un componente formativo y otro sumativo. Scriven. 1979. los estudios evaluativos deben conceptualizarse y utilizarse sistemáticamente como parte del proceso de mejora educativa a largo plazo (Alkin y otros. 1999). Keefe.6) Los estudios evaluativos deben proporcionar direcciones para la mejora.) debe emplearse de manera prospectiva. así como en la promoción de la aceptación y el uso de sus resultados (Chelimsky. Weiss (1998) nos alerta de que la evaluación participativa incrementa la probabilidad de que se utilicen los resultados de la evaluación. Webster y otros. pero también la de que sea conservadora en su concepción. 1987). Se necesita una evaluación retrospectiva del producto para poder juzgar en conjunto el mérito y el valor del objeto evaluado (Scriven. es un procedimiento. pero también de manera retrospectiva para juzgar hasta qué punto la calidad del proceso determina el por qué los resultados son de un nivel u otro (Stufflebean y Shinkfield.. 11) La evaluación del proceso debe usarse de manera prospectiva para mejorar el plan de trabajo. Generalmente su interés es el cambio de cosas pequeñas. Se necesita una valoración prospectiva de los resultados para orientar el proceso y detectar zonas de necesidades. hallazgos e implicaciones de la evaluación.

complejidad del fenómeno educativo hace necesario emplear enfoques múltiples y multidimensionales en los estudios evaluativos (Scriven, 1991) 15) Los estudios evaluativos deben ser evaluados, incluyendo metaevaluaciones formativas para mejorar su calidad y su uso y metaevaluaciones sumativas para ayudar a los usuarios en la interpretación de sus hallazgos y proporcionar sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988; Madaus y otros, 1991; Scriven, 1991; Stufflebeam, 2001). Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la teoría ética de que la bondad moral es objetiva e independiente de los sentimientos personales o meramente humanos. Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en análisis comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos resulta evidente que las concepciones de la investigación evaluativa son diversas, dependiendo del origen epistemológico desde el que se parte, pero apareciendo claros y contundentes algunos elementos comunes a todas las perspectivas como la contextualización, el servicio a la sociedad, la diversidad metodológica, la atención, respeto y participación de los implicados, etc., así como una mayor profesionalización de los evaluadores y una mayor institucionalización de los estudios (Worthen y Sanders, 1991). El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint Committee on Standards for Educational Evaluation con las posiciones de la corriente evaluadora denominada postmodernista, representada, además de por Guba y Lincoln, por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que existan razones para actitudes de escepticismo y frustración con las prácticas evaluadoras actuales, porque existen muchos ámbitos de aproximación y el desarrollo de estándares de evaluación es perfectamente compatible con la atención a los diversos implicados, valores, contextos sociales y métodos. Stufflebeam defiende una mayor colaboración en la mejora de las evaluaciones, estableciendo los estándares de manera participativa, pues cree que es posible la aproximación de planteamientos, con contribuciones importantes desde todos los puntos de vista. Weiss (1998) también toma posiciones parecidas cuando nos dice que las ideas constructivistas deben hacernos pensar más cuidadosamente al usar los resultados de las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya que interpretarlo en términos exclusivamente individuales, pues existen muchos elementos comunes entre las personas, los programas y las instituciones. 8. Para concluir: síntesis de enfoques modélicos y metodológicos de la evaluación y la última perspectiva de Scriven Tras este análisis del desarrollo de la evaluación a lo largo del Siglo XX, parece oportuno, a modo de síntesis y de conclusión, recoger y resaltar los que son considerados los principales modelos, planteamientos metodológicos, diseños, perspectivas y visiones de la evaluación en la actualidad. Su análisis, de manera compacta, es un complemento necesario para una visión como la histórica

que, por su linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada. Hemos visto que en la década de los setenta y en sus alrededores se produce una especie de eclosión de propuestas evaluativas, que tradicionalmente han venido siendo denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseños (Arnal y otros, 1992) de investigación evaluativa. Sabemos que existieron varias decenas de estas propuestas, pero muy concentradas en el tiempo, en la década citada. De hecho, el asunto de los propuestos modelos para la evaluación parece un tema prácticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o propuestas, salvo alguna excepción como vemos más adelante. A pesar de lo dicho, se sigue hablando de modelos, métodos y diseños en la literatura especializada, sobre todo buscando su clasificación de acuerdo con diversos criterios, origen paradigmático, propósito, metodología, etc. También en las clasificaciones, no sólo en los modelos, existe diversidad, lo que prueba que, además de dinamismo académico en el terreno de la investigación evaluativa, todavía existe cierta debilidad teórica al respecto. Nosotros ya hemos señalado con anterioridad (Escudero, 1993), que coincidimos con Nevo (1983 y 1989) en la apreciación de que muchos de los acercamientos a la conceptualización de la evaluación (por ejemplo, el modelo respondiente, el libre de metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que debería acarrear el citado concepto. Lo que un texto clásico en evaluación (Worthen y Sanders, 1973) denomina como «modelos contemporáneos de evaluación» (a los conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio Stake (1981) dice que sería mejor denominarlo como «persuasiones» mientras que House (1983) se refiere a «metáforas». Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse a concepción, enfoque o incluso método de evaluación. De Miguel (1989), por su parte, piensa que muchos de los llamados modelos solamente son descripciones de procesos o aproximaciones a programas de evaluación. DarlingHammond y otros (1989) utilizan el término «modelo» por costumbre, pero indican que no lo hacen en el sentido preciso que tiene el término en las ciencias sociales, esto es, apoyándose en una estructura de supuestos interrelacionales fundamentada teóricamente. Finalmente diremos que el propio autor del modelo CIPP, solamente utiliza esta denominación de manera sistemática para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando los términos de enfoque, método, etc., al referirse a los otros. Para nosotros, quizás sea el término enfoque evaluativo el más apropiado, aunque aceptemos seguir hablando de modelos y diseños por simple tradición académica. Nuestra idea es que a la hora de plantearnos una investigación evaluativa, no contamos todavía con unos pocos modelos bien fundamentados, definidos, estructurados y completos, entre los que elegir uno de ellos, pero sí tenemos distintos enfoques modélicos y un amplio soporte teórico y empírico, que permiten al evaluador ir respondiendo de manera bastante adecuada a las distintas cuestiones que le va planteando el proceso de investigación, ayudándole a configurar un plan global, un organigrama coherente, un «modelo»

científicamente robusto para llevar a cabo su evaluación (Escudero, 1993). ¿Cuáles son las cuestiones que hay que responder en este proceso de construcción modélica? Apoyándonos en las aportaciones de diferentes autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990), deben responderse y delimitar su respuesta al construir un modelo de investigación evaluativa, los aspectos siguientes: Objeto de la investigación evaluativa. 2) Propósito, objetivos. 3) Audiencias/implicados/clientela. 4) Énfasis/aspectos prioritarios o preferentes. 5) Criterios de mérito o valor. 6) Información a recoger. 7) Métodos de recogida de información. 8) Métodos de análisis. 9) Agentes del proceso. 10) Secuenciación del proceso. 11) Informes/utilización de resultados. 12) Límites de la evaluación. 13) Evaluación de la propia investigación evaluativa / metaevaluación. Para definir estos elementos hay que buscar, lógicamente, el apoyo de los diferentes enfoques modélicos, métodos, procedimientos, etc., que la investigación evaluativa ha desarrollado, sobre todo en las últimas décadas. Volviendo a los denominados modelos de los setenta y a sus clasificaciones, podemos recoger algunas de las aparecidas en la última década en nuestro entorno académico, apoyándose en distintos autores. Así, por ejemplo, Arnal y otros (1992) ofrecen una clasificación de lo que denominan diseños de la investigación evaluativa, revisando las de diversos autores (Patton, 1980; Guba y Lincoln, 1982; Pérez, 1983; Stufflebeam y Shinkfield, 1987). Esta clasificación es la siguiente : 1)

Tabla 1- Tipos de diseños de investigación educativa
Perspectiva Patton (1980) Objetivos Empírico-analítica Análisis sistemas Guba y Lincoln (1982) Objetivos Pérez (1983) Objetivos Análisis sistemas Método científico CIPP Susceptibles de complementarieda d Crítica artística Adversario UTOS UTOS Cronbach (1982) CIPP Crítica artística CIPP Crítica artística Stufflebeam y Shinkfield (1987) Objetivos Autores creadores Tyler (1950) Rivlin (1971) Rossi y otros (1979) Suchman (1967) Stufflebeam (1966) Eisner (1971) Contrapuesto Wolf (1974)

que ellos denominan conductivista-eficientistas. Castillo y Gento (1995) ofrecen una clasificación de «métodos de evaluación» dentro de cada uno de los modelos (paradigmas). Una síntesis de estas clasificaciones es la siguiente: Tabla 2. humanísticos y holísticos (mixtos).Modelo conductista-eficientista Método/ autor Consecución objetivos Tyler (1940) CIPP Stufflebeam (1967) Figura (countenance) Stake (1967) CSE Alkin (1969) Planificación educativa Cronbach (1982) Finalidad evaluativa Medición logro objetivos Información para toma decisiones Valoración resultados y proceso Información para determinación de decisiones Valoración proceso y producto Paradigma dominante Cuantitativo Contenido de evaluación Resultados Rol del evaluador Técnico externo Mixto Mixto Mixto Mixto C (contexto) I (input) P (proceso) P (producto) Antecedentes.Modelo humanístico Método/ autor Atención al cliente Scriven (1973) Contraposición Owens (1973). transacciones.Humanísticointerpretativa Respondente Respondente Respondente Respondente Stake (1975 Parlett y Iluminativo Iluminativo Iluminativo Hamilton (1977) Sin metas Sin metas Democrático Sin metas Scriven (1967) MacDonald (1976) Por su parte. Wolf (1974) Finalidad evaluativa Análisis de necesidades del cliente Opiniones para decisión consensuada Paradigma dominante Mixto Contenido de evaluación Todos los efectos del programa Rol del evaluador Evaluador externo de necesidades del cliente Cualquier aspecto Árbitro externo del programa del debate Mixto . resultados Centrados en logros de necesidades U (unidades de evaluación) T (tratamiento) O (operaciones) Técnico externo Técnico externo Técnico externo Técnico externo Tabla 3.

pero van más allá. A continuación comentamos sucintamente estas visiones y los «modelos» que se adscriben a ellas. Esta posición es mantenida. 1971). A diferencia de Tyler. Según el planteamiento tyleriano. Los que apoyan este enfoque se preocupan de si el programa alcanza sus objetivos.Modelo holístico Método/ autor Evaluación respondente Stake (1976) Finalidad evaluativa Valoración de respuesta a necesidades de participantes Interpretación educativa para mejorarla Paradigma domiContenido de nante evaluación Cualitativo Resultado de debate total sobre programa Rol del evaluador Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Promotor externo de la interpretación por los implicados Evaluación holística MacDonald (1976) Evaluación iluminativa Parlett y Hamilton (1977) Cualitativo Elementos que configuran la acción educativa Iluminación y comprensión de los componentes del programa Cualitativo Sistema de enseñanza y medio de aprendizaje También Scriven (1994) ofrece una clasificación de los «modelos anteriores». habitualmente el objetivo perseguido. Este autor identifica seis visiones o enfoques alternativos en la fase «explosiva» de los modelos. El cambio de los alumnos. las decisiones acerca de un programa deben basarse en el grado de coincidencia entre los objetivos y los resultados. Stufflebeam ofrece una perspectiva más amplia de los . es el criterio de evaluación.Crítica artística Eisner (1981) Interpretación crítica de la acción educativa Cualitativo • • • • Contexto Procesos emergentes Relaciones de procesos Impacto en contexto Provocador externo de interpretaciones Tabla 4. aunque no la hiciera explícita. cuestionándose si tales objetivos cubren las necesidades que deben cubrir. previamente a introducir su perspectiva transdisciplinar que luego comentamos. La visión fuerte hacia la toma de decisiones (Visión A) concibe al evaluador investigando con el objetivo de llegar a conclusiones evaluativas que le ayuden al que debe tomar decisiones. por Ralph Tyler y extensamente elaborada en el modelo CIPP (Stufflebeam y otros. además de algunas más que denomina «exóticas» y que se mueven entre los modelos de jurisprudencia y de experto.

Las discrepancias son las divergencias con la secuencia de tareas proyectadas y la temporalización prevista. los que participan de la visión A proceden de un paradigma diferente. Este modelo es muy cercano al control de programas en sentido convencional. es una especie de simulación de una evaluación. La visión débil hacia la toma de decisiones (Visión B) concibe al evaluador proporcionando información relevante para la toma de decisiones. toma preferentemente esta perspectiva . Hace unos años Alkin (1991) revisó sus planteamientos de dos décadas atrás. se deja constancia de que el objetivo primordial de la investigación evaluativa es la mejora. El modelo de Alkin se conoce como CES (Centro para el Estudio de la Evaluación). Esta posición es lógicamente popular entre los que piensan que la verdadera ciencia no debe o no puede entrar en cuestiones de juicios de valor. que define a la evaluación como un proceso factual de recogida y generación de información al servicio del que toma las decisiones. El representante teórico más genuino es Marv Alkin (1969). pero no le obliga a emitir conclusiones evaluativas o críticas a los objetivos de los programas. planteando las siguientes fases: valoración de las necesidades y fijación del problema. De hecho. 1989). termina definiendo un Sistema de Información para la Gestión (Management Information System-MIS) para uso del que toma decisiones. 1993). la filosofía de la educación. la toma de decisiones para la mejora de todas y cada una de las cuatro dimensiones antes citadas. tal como hemos visto al analizar la cuarta generación de la evaluación (Guba y Lincoln. La visión relativista (Visión C) también mantiene la distancia de las conclusiones evaluativas. pero no ofrece valoraciones al respecto Pero la forma más simple de la visión relativista (Visión C) es la desarrollada en el «modelo de discrepancia» de evaluación de Malcolm Provus (1971).contenidos a evaluar. inputs (I) elementos y recursos de partida. La visión de la descripción fértil. completa (Visión D) es la que entiende la evaluación como una tarea etnográfica o periodística. contexto (C) donde tiene lugar el programa o está la institución. Scriven (1994) nos dice que Stufflebeam ha seguido desarrollando su perspectiva desde que desarrolló el CIPP. pero es éste el que tiene que tomar las conclusiones evaluativas. Esta visión y la anterior han sido el camino que ha permitido integrarse sin problemas en el «carro» de la investigación evaluativa a muchos científicos sociales. en la que el evaluador . uno de los textos más utilizados de evaluación en el ámbito de las ciencias sociales (Rossi y Freeman. Estos son las cuatro dimensiones que identifican su modelo. planificación del programa. proceso (P) que hay que seguir hacia la meta y producto (P) que se obtiene. probablemente debido a su conexión académica con la historia. evaluación de progresos y evaluación de resultados. Guba. Las visiones B y C son las posiciones de los científicos entroncados con una concepción libre de valores de la ciencia. evaluación de la instrumentalización. En cambio. la educación comparada y la administración educativa. valor o valía. tomó posteriormente una dirección diferente. uno de sus colaboradores en tal empresa. sin un juicio por parte del evaluador acerca de esos valores o alguna referencia a otros. pero usando el marco de valores de los clientes. Además. pero siguió sin incluir los términos de mérito. rica. Sin embargo.

3) Panorama de actividades. lo que se cree que debe ser. 5) Cuestiones y problemas. 8) Antecedentes. más que en la inferencia. 9) Desarrollo de temas. en lugar de presentar sus conclusiones personales. Estas fases son las siguientes: 1) Hablar con los clientes. interactivo. El evaluador puede seguir las fases también en sentido contrario del reloj o en cualquier otro orden. El evaluador deberá interpretar las opiniones y diferencias de puntos de vista (Stecher y Davis. este modelo hizo de Stake el líder de una nueva escuela de evaluación. valorando sus necesidades y expectativas. en la segunda. descripciones y estudio de casos. Cronbach (1980). Se centra en la observación. responsables y audiencias. 4) Propósitos e intereses. para evitar el término rica. Stake se aleja de la tradición tayleriana de preocupación por los objetivos y revisa su método de evaluación hacia un planteamiento que él califica como «respondente» (Stake. ni siquiera en el marco de los valores del cliente como en la visión relativista. Se trata de una especie de versión naturalista de la visión B. transacciones y resultados. poniendo la primera en las doce horas y siguiendo las siguientes fases. como rostro o imagen total de la evaluación. Stake. que exige un método pluralista. . asumiendo que los objetivos del programa pueden modificarse sobre la marcha. en lo observable. La visión del proceso social (Visión E) que cristalizó hace algo más de dos décadas alrededor de un grupo de la Universidad de Stanford. la planificación y la mejora de los programas sociales a los que sirve. jueces e instrumentos. elaborando dos matrices de datos. holístico. lo que se aprueba y los juicios. con la finalidad de ofrecer una visión completa y holística del programa y responder a los problemas y cuestiones reales que plantean los implicados. 7) Observadores. en su primera etapa.informa de lo que ve sin intentar emitir afirmaciones valorativas o inferir conclusiones evaluativas. antecedentes. transacciones y resultados. En la primera se recogen de un lado las intenciones y de otro las observaciones y. Esta gira en torno a los tres componentes. proponiendo el método de evaluación de la figura (Stake. enfatizando la comprensión. 1975 y 1975a). Recientemente se le ha denominado como visión de la descripción sólida. dirigido por Lee J. 1990) y presentar una amplia gama de opiniones o juicios. 10) Validación (confirmación). tiene algo de sabor relativista y a veces parece precursora de la visión de la cuarta generación. el sentido de las agujas del reloj. 2) Alcance del programa. las normas. En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos de vista y buscar la confluencia de las diversas perspectivas. Esta visión ha sido defendida por Robert Stake y muchos de los teóricos británicos. Según Stufflebeam y Shinkfield (1987). es tayleriano en cuanto a concepción evaluativa centrada en los objetivos planteados. De manera gráfica. fuerte. 1967). 11) Esquema para la audiencia y 12) Reunión de informes formales. resta importancia a la orientación sumativa de la evaluación (decisiones externas sobre los programas y rendición de cuentas). A mitad de los setenta. Stake (1975a) propone las fases del método a modo de las horas de un reloj. Este modelo sugiere la «atención al cliente» propuesta por Scriven (1973). Sus posiciones quedaban claramente establecidas en noventa y cinco tesis que han tenido una enorme difusión entre los evaluadores y los usuarios de la evaluación. subjetivo y orientado al servicio. 6) Datos para investigar los problemas. flexible. una de descripción y otra de juicio. que parece más evaluativa.

siendo mantenida por Guba y Lincoln (1989) y seguida por muchos evaluadores americanos y británicos. etc. De esta revisión de Scriven quedan al margen algunas posiciones evaluativas tradicionalmente recogidas y tratadas por los analistas. incluido el suyo. al menos. Por ello. dentro de un universo UTO de situaciones admisibles.En cuanto a los contenidos de la evaluación. El evaluador determina el valor o mérito del programa para informar a los usuarios. • Operaciones (O) que lleva a cabo el evaluador para la recogida y análisis de datos.. se trata algo así como de un intermediario informativo (Scriven. supone la participación colaborativa de los implicados. se suele denominar a su enfoque como evaluación sin metas. discutible y no objetivo. en definitiva varios (uto). y favorece la idea de que ello es el resultado de la construcción por individuos y la negociación de grupos. 1977) tiene un enfoque holístico. que el conocimiento científico de todo tipo es sospechoso. 1975 y 1981) plantea la evaluación en términos similares al proceso de crítica artística. Ernie House (1989). En una investigación evaluativa concreta se pueden dar varias unidades. Owens (1973) y Wolf (1974 y 1975) proponen un método de contraposición o discusión que sobre un programa llevan a cabo dos grupos de evaluadores. Ya hemos visto anteriormente que esta visión rechaza una evaluación orientada a la búsqueda de calidad. así como para la elaboración de conclusiones. Así por ejemplo. El propio Scriven (1967 y 1973) proponía hace años centrar la evaluación en la atención al cliente y no tanto en las metas previstas. Schuman (1967) ofrece un diseño evaluativo basado en el método científico o. partidarios y adversarios. para proporcionar información pertinente a quienes toman decisiones. un teórico y un práctico de la evaluación bastante independiente de corrientes en boga. con la pretensión de iluminar sobre un complejo rango de cuestiones que se dan de manera interactiva (Fernández. • Contexto en el que tiene lugar el programa y su evaluación. también marcó el entronque social de los programas. pero se distinguía sobre todo por su énfasis de las dimensiones más éticas y argumentales de la evaluación. varios tratamientos y varias operaciones. 1991). Eisner (1971. . • Tratamiento (T) de la evaluación. Esto significa. mérito. Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos: • Unidades (U) que son sometidas a evaluación. Lo mismo le ocurre a todo trabajo análitico como el análisis filosófico. La evaluación iluminativa (Parlett y Hamilton. La evaluación democrática de MacDonald (1971 y 1976). La visión constructivista de la cuarta generación (Visión F) es la última de estas seis visiones que describe Scriven (1994). individuos o grupos participantes. descriptivo e interpretativo. también denominada holística. en alguna variación o adaptación del mismo. puesto que frecuentemente los logros no previstos son más importantes que los que figuran en la planificación del programa. quizás motivado por la ausencia de estas facetas en los planteamientos de Cronbach y sus colaboradores. según Scriven. 1980). valor. Scriven apunta que el propio Guba ha sido siempre consciente de las potenciales «autocontradicciones» de su posición.

siendo el contraste de opiniones de los implicados el elemento evaluativo primordial. sino que ve necesidad de hacerlo en la gran mayoría de las ocasiones. instituciones y otros muchos más objetos. En la perspectiva transdisciplinar. pero sí la consideración primera del consumidor como justificación del programa. el personal. la investigación evaluativa es una disciplina que incluye sus propios contenidos y los de otras muchas disciplinas. d) Los distintos campos de la investigación evaluativa tienen muchos b) c) . se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation Thesaurus. la investigación evaluativa tiene dos componentes: el conjunto de campos de aplicación de la evaluación y el contenido de la propia disciplina. esta visión generalizada significa que: a) Los campos distintivos de aplicación de la disciplina son los programas. los rendimientos. y la metaevaluación de todo ello. es transdisciplinar. Se trata también de una visión generalizada. Esta visión es objetivista como la A y defiende que el evaluador determine el mérito o el valor del programa. la visión fuerte sobre la toma de decisiones. su preocupación por el análisis y mejora se extiende a muchas disciplinas. Esta posición no sólo ve legitimidad en la emisión de conclusiones evaluativas por parte del investigador. no justamente una visión general. del personal o de los productos investigados. Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prácticas que resultan de ellas. Las investigaciones evaluativas se mueven desde niveles muy prácticos hasta el nivel conceptual. Scriven (1994) analiza las seis visiones críticamente y se muestra más cercano a la visión A. la perspectia transdisciplinar se orienta hacia el consumidor. los productos. En segundo lugar. más que hacia el gestor o intermediario. también se produce información valiosa para el gestor que decide y se pueden analizar los productos de un programa o institución a la vista de sus objetivos. y que el bien común es la primacía de la evaluación. se debe establecer de manera explícita y defender la lógica utilizada en la inferencia de conclusiones evaluativas a partir de las premisas definicionales y factuales. representada fundamentalmente por el modelo CIPP de Stufflebeam y sus planteamientos. En definitiva. De manera más detallada. pues dice que es la más cercana de todas a la visión del sentido común. los proyectos. independientemente del tipo y del estado general del paciente. la gestión. de la misma manera que los médicos trabajan con los pacientes. Así mismo. que incluye la generalización de conceptos en el ámbito del conocimiento y la práctica. Scriven quiere extender esta visión con una visión o modelo que denomina transdisciplinar y que él califica como significativamente distinta de la aludida visión A y radicalmente diferente de las restantes. En tal sentido. A partir de aquí. Desde esta perspectiva. haciéndolo lo mejor posible. que es la que tienen los evaluadores trabajando con sus programas. 1991). Algo parecido a lo que ocurre a disciplinas como la estadística y la medición. la investigación evaluativa es mucho más que la evaluación de programas e incide en procesos. No se trata de una orientación exclusiva hacia el consumidor.

(1991). tiene su propia metodología. . Baker.). M. (1967). J. M. y Cook. (Ed. (1993). 39.91-112). 27-30. A. Behavioral Objectives in curriculum design: A cautionary note. Boston. (1992). Ca: Jossey-Bass. 1. de hecho. no es necesario ser un gran especialista. Anderson. La evaluación no sólo necesita el apoyo técnico de otras muchas disciplinas. Investigación educativa. Baltimore: The Hopkins University Press. La lógica de la síntesis de resultados. al usuario en sentido estricto. consideramos desde una posición pragmática. A. Berk. Esta perspectiva transdisciplinar de la investigación evaluativa de Scriven (1994). Evaluation theory development. Evaluation Comment. Evaluation and education at quarter century (pp. Arnal.. Barcelona: Labor Atkin. Nosotros no tenemos unas posiciones contrarias a las otras visiones en la misma medida que las tiene Scriven y. y la correcta ubicación en el proceso de muchas técnicas auxiliares en las que.) (1981). R. probablemente. Barbier. pero sí tener un conocimiento cabal. La evaluación en los procesos de formación. 2-7. Referencias bibliográficas Ahman. etc. Barcelona: Paidos. aportan algo útil para la comprensión conceptual y el desarrollo de la investigación evaluativa. 35. J. Review of Educational Research. por supuesto. una muy importante. 1996). San Francisco. Educational evaluation methodology: The state of the art. R. Chicago: NSSE/ University of Chicago . Una crítica que podría hacerse a este planteamiento de Scriven está en el excesivo énfasis relativo de la orientación al cliente. donde existen distintos tipos y distintas audiencias y. Curriculum evaluation. Evaluating Pupil Growth. 339-358. S. las consecuencias. (1968).. S. Alkin. (1983). etc. El cuarto elemento distintivo de la visión transdisciplinar de la evaluación es que se trata de una visión técnica. de personal. Pensamos que esta orientación debe integrarse dentro de una orientación a los implicados. D. tienen muchos puntos en común. M. 2. En M. y Latorre. Evaluation theory development: II. The profession and practice of program evaluation. sí que pensamos que esta moderna visión de Scriven es sólida y coherente y ampliamente aceptada en la actualidad. J. coincide en gran medida con los planteamientos que de la misma hemos defendido en otros momentos (Escudero. y Phillips (Eds. M. S. que todas las visiones tienen puntos fuertes y que en todo caso. Principles of Tests Measurement. Fundamentos y Metodología. (1969). L. B. The Science Teacher. McLaughlin. pero nos parece que la investigación evaluativa hoy en día tiene una orientación prioritaria más plural que la defendida por este autor. Ma. (1969).. J. La evaluación de programas. además. M. sino que.: Allyn and Bacon Alkin.niveles de interconexión y solapamiento. y Ball. Sin embargo. son los usuarios en el sentido de Scriven. Del Rincon. D. de centros.

H. Salamanca: Amasú Ediciones. (1989). En A.. Eisner. Engelhaut. London: The Falmer Press. Modelos de evaluación de programas educativos.R. methods and institutional arrangements. Educational objectives: Help or hindrance?. E. Enfoques y principios teóricos de la evaluación. La Docimologie. Research for tomorrow's schools: Disciplined inquiry for education. M. S. Barcelona: Universidad de Barcelona. E. TH. J. En Arturo De la Orden. Hess. Bonboir. Modelos de investigación sobre organizaciones educativas. Washington . Bloom. J. Boston: Allyn Bacon. The School .C.. D. Proyecto docente sobre técnicas de medición y evaluación educativas. Carreño. Madrid: Anaya.F. A.133-137). (1994). J. L.) Educational Measurement. (1971). SR (1989). Fundamentos de la medición educacional.D. Ebel. American Journal of Evaluation 19. Teacher evaluation in the organizational context: A review of the literature. F. D. centros y profesores (pp.Medina y L. (1977). (1975). W. Evaluación del aprendizaje. B. Taxonomy of educational objectives Handbook I. F. 64. Investigación educativa. & Pease. R..J.S. Handbook on formative and summative evaluation of student learning.. Darling-Hammond. P. (1969). B. R.. Chelimsky. L. L. Wise. H.. (1967). Evaluación de programas educativos.203-253). B. Castillo. New York: McGraw-Hill.. Bloom. Thorndike (Ed. y Suppes. L. y Weiner. DC: American Council on Education. 7. A. D. A. S. T. L.Blanco. Dornbusch. De Miguel.. S. (1986). y Madaus G.) New directions in educational evaluation (pp. J. 672-683. (1985). W. Chicago: Jossey-Bass. Diccionario de Ciencias de la Educación (pp.. Cronbach. Hastings. R. Coffman. E. F. Hastings. AE.L. Mexico: Trillas. En R.. (1970). Cabrera.25-69). Hambron. S. (1995). (1971). L. (1963). Hornick. E.C. Essay examinations.D. (Ed. Cronbach. W. S. Y Madaus. Towards reform in program evaluation: Aims. (1980). 35-55. S. P.S. 13. Madrid: Editorial Universitas. Paris: PUF. Buenos Aires: Troquel. F. S. Teachers College Record. La evaluación en la educación secundaria. Phillips.. Furst. New York: Davis. Willar (Coord. S. Cronbach. M. Course improvement through evaluation. (1956). House (Ed. R.R. Investigación evaluativo. (1982). Bloom. McKay. Hill.. A History of Psychological Testing. Cronbach. y Krathwohl. (1998). Dubois. M. Designing evaluations of educational and social programs.). 21-56. San Francisco: Jossey-Bass. The role of experience in formulating theories of evaluation practice. Walker. Cognitive domain. J. (1977). New York: MacMillan. y Gento. (1972). 1. En E. De La Orden. H.). Buenos Aires: Guadalupe. Revista de Investigación Educativa..M.

y Lincoln. E. Eisner. (1963). (1971). New York: MacMillan. Newbury Park. La «Ratio Studiorum». S. Instructional technology and the measurement of learning outcomes: some questions. Eisner. Medina (Coord. M. Actas de las III Jornadas Nacionales de Didáctica Universitaria «Evaluación y Desarrollo Profesional» (pp. W. J. Stanford. T. B. (1978). H. Stanford. San Francisco: Jossey Bass Publishers. (1967). (Dir. Fernández. Measurement and evaluation in teaching. Glaser. (1993). New York: McMillan. American Psychologists. (1985). Madrid: Ediciones Pirámide. Ca: Stanford University . Teoría y métodos de evaluación. Gronlund. Glaser. Teaching machines and programmed learning.I Carrobles. (1981). Instructional objectives (pp. The perceptive eye: Toward the reformation of educational evaluation. Washington: National Education Association. Eisner. (1971). Fetterman. Escudero. W. Guba. 250-260. (Ed. Emerging models for educational evaluation. G. Escudero. Instructional and expressive educational objectives: their formulation and use in curriculum. Evaluación conductual. L.En Encyclopedia of Educational Research. Ca: Stanford Evaluation Consortion. K. New York: Wiley Hambleton. Chicago: Aldine. E. Las condiciones del aprendizaje. (1969. 1. E. The methodology of qualitative evaluation: the case of educational connoisseurship and educational criticism. The art of educational evaluation. En J. El sistema educativo de la Compañía de Jesús. Fernández de Castro. Popham (Ed. R. G. Criterion-referenced measurement. Empowerment evaluation. La enseñanza programada. En R. 1-18).Review. Fourth Generation Evaluation. y Strauss. Guba. Perspectivas históricas de la evaluación conductual. (1950). 18. G. W. (1973). (1989). Madrid: UPCO. Las Palmas: Servicio de Publicaciones. y Lincoln.). En A. Enfoques modélicos en la evaluación de la enseñanza universitaria. London: The Falmer Press. Madrid: CSIC. Effective evaluation. Madrid: Cincel. T. The discovery of grounded theory. Ca.). Ca: Sociology Press. 1-15. Chicago: AERA.). Eisner. Fernández Ballesteros. Y. 5-59). Glaser. R. Mill Valley. E. (1975).) (1965). S. Fernández. R. La evaluación de la calidad docente. M. y J. E. (1991). J. N. 15.: Sage Publications Gullicksen. E. E. W. (1985). E. Madrid: Aguilar. R. 2. A. (1992). (1985). E. 519-521.A. (1996). Theoretical sensitivity. 75. Evaluation Practice. Y. B. R. Zaragoza: Universidad de Zaragoza. Gagne. Glaser. (1981). Universidad de Las Palmas. . G. Theory of mental tests. Proyecto docente e investigador. School Review. (1982). D. (1994). Eisner. Gil.

Tyler. G. CA: Sage. Defining educational objectives. Theory into Practice. R. E. (Eds.). Lincoln. y. Williams (Ed. House. G. (1988). Scientific inquiry and the social sciences. Philosophy of evaluation. Newbury Park. (1994). London: Jessica Kingsley Publishers. D. Joint Committee on Standards for Educational Evaluation (1981. H. B.: McGraw-Hill. School evaluation using the CASE-IMS model and improvement process. G. E. Ma. Educational Evaluation: Theory and Practice.) (1964). Evaluating with validity. Blomm.: Houghton Mifflin Company. Madaus. 89. But is it rigorous? Trustworthiness and authenticity in naturalistic evaluation. 3. Pittsburg: University of Pittsburgh Press. B. Proyecto docente e investigador. Keefe. (1981). J. Boston. Horowitz. y.Hammond. B. R. Taxonomy of educational objectives. Ohio: Charles A. M. Manual de evaluación formativa del currículo.) (1989). Paper presented at the American Educational Research Association. Lindquist. G. B. L. y Guba. Qualitative research and quasi-experimental frameworks. Collins. Beverly Hills. New Orleans. and materials. C. (1971). F. 10. y Guba. B. F. En D. Newbury Park. Viewpoints on Educational . London: McMillan. Kidder. Ca. R. En House. The evaluation of the Humanities Curriculum Project: a holistic approach. En B. (Ed. (1983). (1989). Design and Analysis of Experiments in Psychology and Education.. (1976). Criteria for assessing naturalistic inquiries as products. R. San Francisco: Jossey-Bass. projects.). (1982). Naturalistic evaluation. S. Evaluation at the local level. Joint Committee on Standards for Educational Evaluation (1988). F. 20. San Francisco. How we think about evaluation. Sanders. Evaluation and the control of education. The Journal of Educational Research. Naturalistic inquiry. M.: Sage.. 2. San Francisco: Jossey-Bass. R. (1986). Evaluation Models. Jones Publishing Company. Lewy. (1964).B. Kogan. Handbook II: Affective domain. Brewer y B. Lindvall. Krathwohl. (1983). La evaluación educativa. y otros (1991).) (1976). (1985). T. (1953). Curriculum evaluation today: trends and implications. Hernández. R. The personnel evaluation standards. Standards for evaluations of educational programs. 163-169. A. Worthen y J. en D. (Ed. CA. Ca. y Guba. Murcia. R. LA. A 75-year legacy on assessment: Reflections from an interview with Ralph W. E. R. (1993). S.: Jossey-Bass House. D. Kellaghan. (Ed. Evaluating higher education. y Masia. New York. S. E. Studies in Educational Evaluation. New Cork: Davis McKay. Bogotá : Voluntad/Unesco. E. Lincoln. (1995). y. E. Tawney (Ed. Worthington. 55-67. E.. L. 125136. Macdonald.: Sage.). 68-75. Bogotá: Universidad Pontificia Javierana. Lincoln. En M. Macdonald. E.1.S.

Patton. F. Proyecto docente e investigador. Barcelona: Universidad de Barcelona. Gimeno y A. R. y Hamilton . R. Vocabulaire de la psychologie. D. D.). y Michael. London : Kogan Page/CARE. N. D. A. American Journal of Evaluation. Mccall. Evaluation in education. 1. 15-29. (1973). Zaragoza: ICE-Universidad de Zaragoza. (1991). La evaluación en el aula universitaria. P. (1973). (1978). Educational evaluation by adversery proceedings. (1986). C. Boston: Kluwer-Nijhoff .R. Hingham . F. 19. H. (1980). Nevo. New York: McGraw Hill. Beyond method.: Fearon. Mertens. University of East Anglia . Mateo. Parlett. A new kind of school examination. (1989). Metfessel. Palo Alto. Mateo. Metaevaluación de necesidades educativas: Hacia un sistema de normas. (1845). London: MacMillan. J. y otros (Eds. Ohio: Merril. Mager. Review of Educational Research. S. Qualitative Evaluation methods. R. The conceptualization of educational evaluation: An analytical review of the literature. Mann. Pérez. Modelos contemporáneos de evaluación. J. Ca. October. J. M. McReynold.: Kluwer-Nijhoff Publishing. Mass. J. Nunnally. En E.San Francisco: Jossey-Bass. House (Comp. Understanding educational evaluation. The conceptualization of educational evaluation: An analytical review of the literature. B. Tesis doctoral. Q. Análisis de metas. Ca: Sage.: Sage Pérez.). January. C. Russell Working (1985). H. La enseñanza: su teoría y su práctica (pp. (1977). vol. Boston Grammar and Writing Schools. Preparing instructional objective. Norris. M. 117-128. (1967). III. House (Ed. New directions in educational evaluation. Beverly Hills. 426-449). Jeri. (1920). W. W. A Handbook of Educational Variables. Inclusive evaluation: Implications of transformative theory for evaluation. A. Madrid: Akal Phillips. 20. N. Paris: PUF. Madrid: Universidad Complutense. London : The Falmer Press. (1999). Common School Journal.). Advances in Psychological Assessment. R. (1983). Mager. En J. D. Owens. Berkeley: McCutchan. G. Martínez de Toda. . R. Educational and Psychological Measurement. (1993). (1968). y otros (1993). En E. (1983). (1974). 1-14. Pieron. M. 931-943. Beyond the numbers game.. A paradigm involving multiple criterion measures for the evaluation of effectiveness of school programs. Morgan. Psychometric Theory. Beverly Hills. México: Trillas. Journal of Educational Research. Nowalowski. 27. Columbus. (1962). 1. CA. School of Education . Nevo. En Hamilton D. (1975). T. School Evaluation: The Politics and Process. Evaluation as illumination: A new approach to the study of innovative programmes. 7. (1983).and Human Services Evaluation. Mary Anne Bunda. 53. M.

Goal-free evaluation. Chicago : Rand McNally and Company. Ca. Prose and cons about goal-free evaluation.: Prentice Hall. Berkeley.Pieron. Rossi. American Journal of Evaluation 19. L. House (Ed. 57-70. Madrid: Ediciones Fas.. . Studies in Educational Evaluation. Scriven.: Center for Research on Educational Accountability and Teacher Evaluation. 3. Newbury Park . Popham. Scriven. J. (1992).) (1984). Rutman. A. L. Fourth generation educational evaluation: The impact of a post-modern paradigm on school based evaluation. Minimalist theory: The least theory that practice require. P. 319-328). Popham. En S. y Willinsky. Oviedo: ICE-Universidad de Oviedo. H. M. Rosenthal. San Francisco: Jossey Bass Publishers. H.: Sage. 1. J. 187-199. Examens et Docimologie. Scriven. y otros (1995). M. En Perspectives of Curriculum Evaluation. CA. The logic of evaluation. Scriven. Beverly Hills. (1974). (1973). 147-166. 1. Paris. Anderson. (1969). (1993). 23. R. y Baker. M. M. Ca. Englewood Cliffs. Aula Abierta Monografías 25. Beverly Hills . Problemas y técnicas de la evaluación educativa. E. Ca. NJ. N. Evaluación basada en criterios. A. Planchard. J. y otros (1979).: Brookings Institute. M. Evaluation research methods: A base guide. (1994). M. La investigación pedagógica. For educational program improvement and assessment. Provus. (1983). J. Ca. Englewood Cliffs.C.. Evaluation: A systematic approach. E. (1960). M.). Salvador. Rossi. (Ed. Understanding program evaluation. Evaluation: A Systematic Approach. (1998). (pp. Kalamazoo. H. W. (1997). 1-4. Rodríguez.). Popham. H. Establishing instructional goals. Ca. E. Popham. L. Scriven. (1971). W. Mi. Proyecto docente. M. Evaluation Thesaurus. 3. The methodology of evaluation. Studies in Educational Evaluation. Discrepancy evaluation. (1970). (1976). (1991. L. y Mowbray. Encyclopedia of Educational Evaluation.: McCutchan. Inverness . Rivlin. (1980). T. J. PUF.: Sage Scriven. (1983). Systematic thinking for social action. Madrid: Magisterio Español. Systematic Instruction. Scriven. P. y otros (Eds. Evaluación de los aprendizajes.: Sage. Ca. J. N. En E. (1980). Beverly Hills. (1991a). Berkeley. Evaluation history. 20. Evaluation Comment.: Sage. S. y Freeman.: Sage.: McCutchan Publishing Co. W. 39-83). Rutman. M. G. Evaluation as a discipline. Washington. AERA Monograph 1. M. (1970). Madrid: Anaya.: Prentice Hall. W.: Edgepress Scriven. D. School evaluation: The politics and process.(pp. (1967). Duties of the teacher. Universidad de Cantabria. Beverly Hills . Russell. B. Ca. (1971).

: Sage. American Journal of Evaluation. 2 . Stufflebeam. Setting standars for educational evaluators. E. y Davis. (1976). (1977). public schools. D. (1994). y Haver. W. M. D. A theoretical stament of responsive evaluation. Using profesional standards to legally and ethically release evaluation findings. J. 68. Stake. 183-209. Stake. (1990).J. (2001). 22. (1942). New York: Harper & Row. S. N.edu/evalctr/checklists/ el 15 de Diciembre de 2002. M. Consultado en www. (1981). Foley. (1998). 121-134. A depth study of the evaluation requeriment. 19-22. 2. Stacher. The metaevaluation imperative. Guía teórica y práctica. D. University of Western Michigan. 5. Stufflebeam. Guba. Assessment of person. H. The countenance of educational evaluation. E. (1984). D.. RL. (1986). A. R. Stufflebeam. 4. Stufflebeam. Studies in Educational Evaluation. (1966). y Tyler.wmich. A. Illinois : F. E. y Shinkfield. L. HO & Provus. Peacock Publishing. Program evaluation: particularly responsive evaluation. Ca: Sage. J. E. (1987). 20. R. M. Studies in Educational Evaluation. Hammond. L. y Helm. Stake. 148-152. (1967). V. R. (1990). Evaluating the arts in education: A responsive approach. R. Itasca. Evaluación sistemática. How to Focus on Evaluation. E. (1975b). Occasional Paper. E. 489-500. Evaluative Research: Principles and Practice in Public Service and Social Action Programs. Gephart. D. E. L. A. Stufflebeam. R. 287-296. WJ. L.: . L. D. Sunberg. D. D. 25. 523-540. 325-334. EG. Introduction: Recommendations for improving evaluations in U. Ca. Quieting reform. WJ. L. Stake. L. Conflicts between standards-based and postmodernist evaluations: Toward rapprochement. (1991). Journal of Personnel Evaluation in Education.Smith. (1999). 22. Newbury Park. Educational Evaluation and Decision-making. B. Stronge. (1967). Theory into Practice. 12. Guidelines for developing evaluation checklists.. Suchman. Studies in Educational Evaluation. Studies in Educational Evaluation. (2000). 1. Appraising and recording student progress. 16. L. 3. 3. Smith. Madrid: Morata. Investigación y desarrollo del curriculum. Merriman. Stufflebeam. E. 3. E. L. Urbana: University of Illinois Press. Evaluating professional support personnel in educational settings. Stufflebeam. Evaluation News. MM (1971). Newbury Park. Stufflebeam. Stenhouse. Teacher College Record. Stake. New York : Russell Sage Foundation. R. R. R. (1975a). D. Englewood Cliffs. 3-21. 5. Barcelona: Paidos/MEC. Stake. D. The applicability of selected evaluation models to evolving investigative designs. L. N. W. N. Ohio: Merril .

R.). (1962). Have we learned anything new about the use of evaluation?. T. Theory and practice. J. Fundamentos psicológicos del aprendizaje y la enseñanza (pp.fide.pdf . Chicago: Rand McNally. y Sanders. American Journal of Evaluation. Fernández Chávez. En R.). Worthington. Métodos para determinar la eficiencia de los programas de acción. W. D. Phi Delta Kappa. y Edwards. L. W. Studies in Educational Evaluation. R. M. New York: Harcourt Brace . Mendro. 549578). Curriculum development. N. Trial by jury: a new evaluation method. R. GA. Chicago: University of Chicago Press . TO KNOW MORE / PARA SABER MÁS This article has been cited in. 21-33. En J. G. . The International Encyclopedia of Educational Evaluation. B. R. H. Tyler.. Ohio: Charles a. Webster. Webster. (1987). D. C. Theory into Practice. Atlanta. (1967). C. H. P. An Introduction to the Theory of Mental and Social Measurements. (1991). Wolf.Prentice Hall. R. 20. Weiss. J. Oxford: Pergamon Press. R. The citizen as jurist: A new model of educational evaluation. Basic principles of curriculum and instruction. B.) (1969). R. Effectiveness indices: A «value added» approach to measuring school effect. R. Tyler. J. C. A. Indiana University. (1978). W. Wilson (Ed. 185-187.. R. Taba.O. R. (1950). W. / Este artículo ha sido citado en. y Sanders. W. 1. L. E. Worthen. E. New York: Teacher College Press. La evaluación de los objetivos.. (1904). Revista de pedagogía pp. J.. y Almaguer. AERA Monograph Series Curriculum Evaluation. A rethoric for naturalistic inquiry.L. (1973). Columbia University . Investigación evaluativa. J. Perspectives of curriculum evaluation. México: Trillas.) (1990). y Haertel. E. Ph.. 4. Wilson. Wolf. Educational Evaluation: Theory and Practice. 1. 1. Chicago: University of Chicago Press . Zeller.. (Ed. R. dissertation. Changing concepts of educational evaluation. C (). Tyler. (1975). 1. Educational evaluation: New roles. Thorndike. H. Madrid: Anaya.9-16.. L. new means. An accountability system for school improvement. The changing face of educational evaluation. R. (Ed. Weiss. (1998). 19. J.. (1994). Construcción histórica del concepto de calidad de la educación.[Párrafo añadido el 16 de Marzo de 2007] . * Bustos. Paper presented at the annual meeting (April) of the AERA. 113-137. Citizen Action in Education. Jones Publishing Company. (1993).cl/revistas/documentos/Const. Worthen.. XXX. http://www. Walberg. 57. H. 3-12. A. (1983). Stack (Comp. (1974).

Rosell León. Yanelis.scielo. http://epaa. .php. Salud Publica Mex. Ignacio. Análisis integral de las prácticas pedagógicas de un programa educativo en Colombia. [Párrafo añadido el 16 de Marzo de 2007] González Pérez. http://www. Un metamodelo OLAP para la evaluación de ambientes tel.unirioja. Disponible en http://www. M. 2. (2006).pdf. http://www.htm..unizar. Tarapacá.pdf . http://cied. no. José Ángel (2006). Disponible en la World Wide Web: http://www. [Párrafo añadido el 16 de Marzo de 2007] García Landa.udec. [Párrafo añadido el 16 de Marzo de 2007] Torres Fernández. C. Piedra Salomón.es/servicios/sp/ej/contextos/infos/2091397. Contextos Educativos.9-20. 2005. Vol. 6 (1). A. Las investigaciones sobre evaluación educativa en Cuba.html .C.cu/revistas/aci/vol14_5_06/aci10506.htm .insp. Index Enferm Digital 2004. Gustavo (2006). . [Párrafo añadido el 16 de Marzo de 2007] * * * * * * * .php?script=sci_arttext&pid=S071813372005000100002&lng=es&nrm=iso. Escobar-Paucar G. Fac. Usabilidad: la evaluación de los servicios en el entorno Web .* Cardona Rodríguez. [Párrafo añadido el 16 de Marzo de 2007] Peñaranda-Correa F.P. Education Policy Analysis Archives. 3. Yorbelis .es/departamentos/filologia_inglesa/garciala/bibliography.. A. Yelina y Kourí Cardellá.. Ciencias Pedagógicas.J.cu/revista/61/index . p. ISSN 0718-1337. Las tecnologías de la información y la comunicación y los indicadores de evaluación universitaria en España. Rev. Arango-Córdoba A. J.edu/epaa/v11n46. Torres-Ospina JN. 8-9. Franklín. [Párrafo añadido el 16 de Marzo de 2007] Ortiz. Juan y Casas R. T (2005-2006).Acimed. (2004). n. Ing. Disponible en http://www2.cl/scielo. 14(5) .index-f.13. Evaluación de los programas de promoción de la salud para inmigrantes. (2006).Univ. abr.asu. Márquez. A bibliography of literary theory. 11(46).sld. [online]. Marín Milanés. & Barrenetxea Ayesta. [Párrafo añadido el 16 de Marzo de 2007] Gámez Requena.rimed. [Párrafo añadido el 19 de Mayo de 2004] * Cockbaine O. [Párrafo añadido el 16 de Marzo de 2007] Escudero. (2006). Revista de Educación en Ciencias de la Salud (RECS).com/indexenfermeria/44revista/44_articulo_51-55. Osvaldo. Disponible en http://bvs. 48:229-235. Leal Labrada. Bastidas-Acevedo M. (2003).mx/salud/48/483_6. 44-45.cl/ofem/recs/anteriores/vol312006/art3106a. vol. criticism and philology. 179-199. L. La nueva concepción de la evaluación de aprendizajes en la educación de las ciencias de la salud.1 [citado 08 Enero 2007]. Claves identificativas de la investigación evaluativa: análisis desde la práctica. 11th online edition http://www.

es/RELIEVE/v9n1/RELIEVEv9n1_1.es/RELIEVE Dirección Language / Español (Title.htm. Es miembro de la Comisión de Coordinación Técnica del Plan de Calidad de las Universidades. Evaluation Methods.uv. Evaluation. Formative Evaluation Summative Evaluation. Se analizan los principales propuestas teóricas planteadas. Métodos de Evaluación. The main theoretical proposals are commented Este artículo presenta una revisión crítica del desarrollo histórico que ha tenido el ámbito de la evaluación educativa durante todo el siglo XX. Desde los tests hasta la investigación evaluativa actual. of intense development of evaluation in education] Authors / Autores Tomás Escudero Escorza Review / Revista ELectrónica de Investigación y EValuación Educativa (RELIEVE). el XX. particularmente sobre evaluación institucional. 1 Revista 1134-4032 ISSN Publication date / 2003 (Reception Date: 2003 January 10. de intenso desarrollo de la evaluación en educación. Evaluación de Programas Keywords Descriptores Institution / Universidad de Zaragoza (España) Institución Publication site / http://www. el XX. One century. Desde los tests hasta la investigación evaluativa actual.unizar. Buscar otros artículos de este autor en Scholar Google ARTICLE RECORD / FICHA DEL ARTÍCULO Escudero. Investigación evaluativa.uv. Evaluation Research. http://www. 27 ) publicación Abstract / Resumen This article presents a review and state of art about development in educational evaluation in the XXth century. 9. Evaluación. 9. de intenso desarrollo de la evaluación en educación..es). Evaluación Sumativa. Tomás (2003). Program Evaluation. 1. Consultado en (poner fecha). Tiene un gran número de trabajos y publicaciones sobre evaluación educativa. Catedrático del área de Métodos de Investigación y Diagnóstico en Educación de la Universidad de Zaragoza. Un siglo. n. n. [ From tests to current evaluative research.ABOUT THE AUTHORS / SOBRE LOS AUTORES Tomás Escudero Escorza (tescuder@posta. abstract and keywords in english) Idioma Volumen 9. n. Evaluación Formativa. Publication Date: 2003 Fecha de Febr. v. v. Revista Reference / Referencia Title / Título ELectrónica de Investigación y EValuación Educativa (RELIEVE). the XXth.1 . Test. Un siglo. Testing.

number and electronic address of the document). propósitos y objetivos del Proyecto Educativo Educación Básica: "Reto.es/RELIEVE email: relieve@uv. volume. De allí que la evaluación podrá verse como un proceso constructivo integrado al quehacer educativo. número y dirección electrónica del documento). Compromiso y Transformación".uv. RELIEVE. © Copyright 2002. ARGUMENTACIÓN TEÓRICA En una sociedad convulsionada como la nuestra. volumen. [Principal] [La Revista] [Artículos publicados] [Publicar en RELIEVE] [Home Page] [ About us] [ Published Articles] [To publish in RELIEVE] Revista ELectrónica de Investigación y EValuación Educativa http://www. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el contenido y se indique su origen (RELIEVE. el Plan de Acción del Ministerio de Educación. negociado. Coll (1987) considera que el cómo evaluar va unido al cómo enseñar. iluminativo e integrado a los procesos de enseñanza y de aprendizaje. y Modelo Curricular planteado.© Copyright 2002.es Programa de Estudio de Educación Básica Información General Evaluación La propuesta de evaluación de los aprendizajes en la primera Etapa de Educación Básica se enmarca dentro de los principios. se observa una educación ajena a este . por cuanto ambos procesos se realizan simultáneamente en el aula y no de forma separada. inmersa en una crisis de valores. en el que se contemplan diversas dimensiones: evaluación del aprendizaje en los alumnos. que ha provocado una ruptura ética en los individuos y desintegración de las comunidades. la práctica pedagógica y el proyecto pedagógico de aula y plantel. está sustentada teóricamente en la cuarta generación de la evaluación. RELIEVE. respondiente. Reproduction and distribution of this articles it is authorized if the content is no modified and their origin is indicated (RELIEVE Journal. la cual es concebida como un proceso democrático.

el saber. autónoma e implica que el alumno esté en constante interacción con el objeto de conocimiento. orientar y dirigir las experiencias del trabajo reflexivo de los alumnos atendiendo a hechos y valores de sus culturas y de sus vidas. al maestro como mediador y a la escuela en integración con su comunidad. Esto supone el uso de nuevas estrategias y actividades que tomen en cuenta al niño como centro del saber.El aprendizaje es una actividad mental. Por ello ambos procesos (enseñanza y aprendizaje) no pueden darse aisladamente sino de forma cohesionada e interactiva. innovaciones en la Educación Básica que conducirán a redimensionar el proceso enseñanza aprendizaje como vía para la comprensión. así como con otros fuera de su alcance que puedan ser asimilados con la orientación del docente o por intermedio de otros compañeros de clase o de la comunidad donde vive el niño. Para cubrir tales exigencias se plantean. que plantea como finalidad proyectar. En este sentido la teoría de Vygotzky (1977 y 1979). En este sentido. continua. Nos encontrarnos con un alumno en capacidad de aprender una serie de aspectos que tienen que ver con su nivel de desarrollo.La enseñanza es concebida como un proceso intencional. personalizada. el hacer. la actividad pedagógica deberá ser articulada entre el alumno que lleva a cabo su aprendizaje. El docente debe provocar y planificar las condiciones óptimas para que se produzcan los encuentros entre él. se identifica como la construcción interna del conocimiento donde subyace una actividad autoestructurante por parte del alumno cuya dinámica. Como lo afirma Coll (1990). depende de los procesos cognitivos estructurales cada vez más complejos que determinan las relaciones interpersonales entre el alumno y el docente. dinámica. intensiva. El aprendizaje. a fin de favorecer una verdadera enseñanza y la construcción del saber por parte del niño.problema. planificado y provocado por agentes externos. tanto la enseñanza como el aprendizaje cobran una nueva connotación: . los alumnos y la comunidad. para avanzar en un proceso democrático dignificador de sus actores y cohesionador de sus comunidades. . concede al maestro . el objeto de conocimiento que constituye el contenido del saber y el profesor que enseña con el propósito de favorecer el aprendizaje de los alumnos. según lo postulado por Piaget (1966 y 1975). el ser y la comunicación para lograr un cambio que permita superar los obstáculos y dificultades y poder encauzarlo con bases firmes hacia el nuevo milenio. así concebido.

planifica y organiza situaciones significativas y pertinentes que promueven la participación democrática en el aula. su reflexión e interacción en los procesos de enseñanza y de aprendizaje. según el mismo autor. propone. Cabe destacar la teoría psicológica. construir conocimientos y emprender tareas y (2) Poseedor de un acervo cultural que tenga continuidad en la escuela Las teorías anteriormente descritas centran su atención en el estudiante. quien estará en capacidad de construir e integrar aprendizajes cada vez más complejos en función de la interacción y cooperación con los demás. alumnos y objetos de conocimiento en el cual el maestro actúa como mediador del aprendizaje del alumno. que toma en cuenta las estructuras mentales del que aprende. simultáneamente. a través de un proceso interactivo que se origina entre docentes. contrasta y logra cosas en un mismo curso de negociaciones. donde cada niño sea percibido como un ser diverso que avanza a su propio ritmo de acuerdo con su nivel de maduración. autoevalúa. verbal. con la naturaleza y. alimentándose de esa interacción. La práctica pedagógica no puede ir separada de la práctica evaluativa. La significatividad reside en relacionar e integrar los nuevos conocimientos que el alumno adquiere con los que ya posee. significativa planteada por Ausubel (1977). evalúa. quien señala la importancia de los conocimientos previos de los alumnos en la adquisición de nuevas informaciones. al considerar al aprendizaje como un proceso constructivo interno y personal. son posibles en la medida en la que el sujeto que interactúa sea percibido como: (1) Dignificado en su capacidad para comprender. construye aprendizajes. El autor define estas tres condiciones básicas para que se produzca el aprendizaje: (1) Estructuración lógica de los materiales de enseñanza. por lo que se debe propiciar en el aula un ambiente favorable para la discusión y confrontación de ideas.un papel importante como mediador en el desarrollo de las estructuras mentales del alumno. esto implica un aula que: . como inherente a la condición social del sujeto El hombre desarrolla sus potencialidades genéticas realiza sus logros c culturales en función de la interacción con otros hombres. La necesidad comunicativa es planteada por Esté (1994). La interacción y la comunicación. (2) Organización de la enseñanza tomando en cuenta los conocimientos previos y estilos de aprendizaje en los alumnos y (3) La motivación como elemento importante para aprender. por lo que tienen gran importancia en la práctica pedagógica y evaluativa. Para ello.

La metodología de la evaluación cualitativa. 1972) Es un modelo cualitativo que se fundamenta en dos ejes conceptuales: sistema de instrucción y el ambiente o entorno de aprendizaje. Estimule la ayuda mutua y la cooperación. por cuanto.naturalístico. 2. es comprensiva. para vincularlo con los resultados reflejados en el curriculum que se producen a corto. Incluya la planificación integrada al contexto y al proceso de evaluación. Entre los modelos evaluativos que sirven de apoyo a la nueva corriente de evaluación planteada. que permita su libre actuación para que manifieste lo que él es y quiere ser y hacer. institucionales y psicológicas las cuales inciden en las normas. Evaluación iluminativa (Parlett y Hamilton. Se base en el derecho democrático que todos tienen a participar en la toma de decisiones y en el control y evaluación de procesos y resultados desarrollados a partir de tales decisiones.. ENFOQUE DE LA EVALUACIÓN Consecuentemente con las bases conceptuales del diseño del nivel antes enunciadas. Invite al docente a observar y describir la evolución del aprendizaje de los alumnos (bloqueos. actitudes. 3. que pretende hacer de la escuela un lugar que valore y comprenda las consideraciones. el proceso de la enseñanza por parte del docente. mediano y largo plazo. regresiones. de carácter descriptivo. Evaluación respondiente (Etake. a fin de ofrecer información pertinente y oportuna a cada uno de los participantes. aptitudes. Respete a cada niño como individuo. es decir.etnográfico . El ambiente de aprendizaje está representado por un conjunto de relaciones culturales... analiza la interrelación del proceso de aprendizaje en el contexto donde se desarrolla. 2. sociales. intereses y aspiraciones de quienes actúan en el proceso enseñanza aprendizaje. 5. dentro del enfoque cualitativo . 4.1. global. progresos. opiniones y estilos de trabajo que tienen lugar en el aula. narrativo. se inserta la evaluación de los aprendizajes en la Educación Básica. Usa la investigación etnográfica. 1975) . El sistema de instrucción está constituido por un conjunto de elementos que toma en cuenta y relaciona con el entorno socio-psicológico y material. interpretaciones. se destacan los siguientes: 1.). y el aprendizaje por parte de los alumnos.

por cuanto: A. Evaluación negociada (Guba y Lincoln. reorienta y mejora el proyecto de aula y de la institución. Toma en cuenta la experiencia vivenciada de cada uno de los participantes. descubriendo y ofreciendo un retrato completo y holístico de los procesos de enseñanza y de aprendizaje. Así mismo. Evaluación democrática (Stenhouse. 4. F. A través de esta concepción evaluativa se propicia una relación ética y de respeto que toma en cuenta las diferencias individuales de los alumnos. Enfatiza el rol del docente evaluador como orientador que se ocupa de analizar y valorar el progreso del estudiante. 3. B. D. Todos estos modelos evaluativos anteriormente descritos. . a través de ciclos dinámicos de confrontación de ideas para tomar decisiones.El propósito principal del modelo es responder a los problemas que se confrontan en el aula. C. a través del uso de las formas de participación de la evaluación como forma para transformar y modificar la práctica educativa. el consenso entre los distintos agentes que actúan en el proceso de evaluación. Está en capacidad de negociar y generar consenso entre los participantes. El rol del evaluador pasa a ser más dinámico. 1976 y 1982) Postula el derecho del alumno y del docente de expresar sus puntos de vista y opiniones en el aula. con el fin de responder a las necesidades de información y al nivel de conocimientos de quienes participan en el proceso. la escuela y la comunidad. Comunica. invita al docente a reflexionar acerca de la didáctica y metodología de la enseñanza utilizadas. se agrupan para dar fundamento a la cuarta generación de la evaluación. McDonald y Elliot. Concede mayor importancia al trabajo en equipo. orienta v hace reflexionar sobre todo el proceso educativo. en atención a sus logros y dificultades para aprender. 1989) Proponen en su modelo. Participa y propicia actividades de interacción constructiva. Atiende las diferencias individuales.

como en lo particular. relaciones e influencias. la actividad del docente. que permitan el mejoramiento continuo de quienes participan en los procesos de enseñanza y de aprendizaje. J.Constructivo . H.Global: porque se pretende evaluar todos los componentes de la practica pedagógica. Planifica en atención a las necesidades de los alumnos y del contexto. LA NECESIDAD DE LA PROPUESTA La aplicación de esta nueva forma de evaluación generará cambios en la práctica pedagógica.Servir de instrumento de investigación y reflexión para proporcionar un potencial formativo a cada uno de los agentes que interactúan en el proceso educativo.G. la cual constituye el elemento didáctico fundamental para promover la reforma necesaria en el mejoramiento del proceso educativo. el Proyecto Curricular del Plantel y el Currículo Básico. Informa a los alumnos y a sus representantes acerca del progreso habido durante el trabajo escolar. . Delega funciones en un trabajo organizado. . por lo que deberá: . Redimensiona y reorienta su proyecto de aula y aporta esfuerzos para el alcance de las metas establecidas en el proyecto plantel. los materiales educativos.participativo: por cuanto se considera que el alumno va descubriendo y construyendo su aprendizaje a partir de experiencias previas. tanto en lo general. I. despertar el interés hacia el mejoramiento del desarrollo de los alumnos. las cuales son convalidadas y enriquecidas en el aula. tal y como suceden en la realidad sobre como aprende el estudiante y como el docente logra que aprenda más y mejor. La evaluación como parte de los procesos de enseñanza y de aprendizaje tiene como finalidad principal.interactivo . En tal sentido. La evaluación recoge evidencias continuas. Todo esto conduce a conceptualizar el proceso evaluativo como: . la evaluación centrada en procesos es la práctica evaluativa que más se ajusta al modelo planteado anteriormente. cooperativo y democrático.

Fomentar relaciones democráticas y afectivas a través de actividades de cooperación que involucren la autoevaluación.Promover la autoafirmación personal como estímulo positivo para valorar progresos y esfuerzos. estrategias y criterios de evaluación.Incentivar el trabajo en equipo. el fracaso escolar y los profundos niveles de insatisfacción de docentes. la presente propuesta promueve situaciones específicas para integrar la evaluación a los procesos de enseñanza y de aprendizaje. evitando de esta manera la exclusión. ritmos y estilos de aprendizaje. con el fin de mejorarlo y contribuir a la permanencia de los estudiantes en el sistema educativo.Determinar el avance del aprendizaje de los alumnos en la adquisición de los tres tipos de contenidos. . . procedimentales y actitudinales y el nivel de evolución del estudiante. coevaluación y heteroevaluación. EVALUACIÓN DEL APRENDIZAJE EN EL ALUMNO En atención a los planteamientos curriculares la evaluación de los aprendizajes se concibe como: Un proceso interactivo de valoración continua de los progresos de los alumnos.Proporcionar medios que permitan detectar dificultades en los procesos de enseñanza y de aprendizaje. . Desde esta perspectiva. . . la repitencia. métodos y técnicas que contribuyan a mejorar la práctica pedagógica y a evitar conflictos y bloqueos en los alumnos. . a objeto de proporcionar un tratamiento más justo a los alumnos.Contribuir a formar y afianzar los valores y actitudes. como un espacio de reflexión conjunta donde los agentes educativos puedan compartir experiencias.Reconsiderar fines. actitudes. que tonga en cuenta contenidos conceptuales. padres y niños. aptitudes. . En este sentido tendrá como finalidad: .Desarrollar en cada alumno sus capacidades del saber. del saber hacer y del ser. .Detectar en los alumnos: intereses.. fundamentado en objetivos de aprendizaje de etapa y los planteados por los docentes en el proyecto de aula.

Global. procedimentales y actitudinales.Proporcionar al docente información para mejorar y fortalecer su práctica pedagógica y la planificación que se desarrollará en el aula. b) Pretende evaluar. la organización del plantel.Evaluación conjunta e implícita en los procesos de enseñanza y de aprendizaje. .Fortalecer la interacción entre el docente y el alumno. .. que permita el intercambio de ideas sobre el trabajo y la responsabilidad que corresponde a cada uno en el proceso de aprendizaje. centrada en la evolución y particularidades de cada alumno.Brindar al alumno oportunidades para aprender del acierto y del error y en general de la experiencia. en la familia y en su comunidad. así como entender y orientar el aprendizaje y la enseñanza. junto con el alumno. por lo que se requiere de una comunicación abierta con él para comprender sus problemas. para lo cual emplea diversas técnicas que permitan conocer y reflexionar acerca de las diferencias individuales y grupales. . en el grupo. c) Aspira el conocimiento global del alumno como sujeto de aprendizaje. . el proyecto de aula y en general todos los componentes del diseño curricular. explicando sus progresos en todos los aspectos de su personalidad en relación con las circunstancias que lo rodean en la escuela. porque la evaluación: a) Considera el proceso de aprendizaje del alumno como un todo. .Conjugación de contenidos conceptuales. es decir. la estrategia empleada. PRINCIPIOS DE LA EVALUACIÓN INTEGRAL E INTEGRADA Entendida como: .Individualizada. . tanto a nivel formal como lo no previsto en el currículo. el trabajo docente. lo cual contribuye al desarrollo de la metacognición. para orientarlos hacia la consolidación de logros .Identificar las limitaciones o dificultades que poseen los alumnos. circunstancias y trabajo.

descriptivo e interpretativo. La evaluación continua implica: a) Observación permanente. procedimentales y actitudinales.Explorativa: tiene como propósito. obtener información sobre los conceptos y experiencias que el alumno posee. valorando reflexiva y permanentemente la actuación del alumno para la consecución de competencias expresadas en los objetivos generales de etapa que abarque todos los contenidos conceptuales. b) Carácter cualitativo. reflexiva e individualizada con retroalimentación constante. e) Incentivo de las funciones orientadora v motivadora de la evaluación. atendiendo a criterios previamente establecidos y a su aplicación. tome en cuenta las individuales de los alumnos y el contexto donde se produce el aprendizaje para reorientarlo. f) Información útil al alumno sobre su proceso de aprendizaje que le permita asumir la responsabilidad que le corresponde a su continuidad.CONTINUA Centrada en el proceso. para construir significativamente su propio aprendizaje y al mismo tiempo proporciona herramientas al docente para la planificación del proceso enseñanza aprendizaje. h) Aprovechamiento de logros anteriores en todo el proceso y al final del mismo. d) Conocimiento del alumno para comprender sus adquisiciones. posibilidades progresos y carencias. . c) Acumulación de juicios basados en procedimientos formales e informales. coevaluación y heteroevaluación para el logro de una interacción constructiva de los participantes. g) Consideración de la autoevaluación. con el fin de proporcionarle la ayuda requerida. FUNCIÓN En este sentido. la evaluación contempla tres funciones: . retroalimentarlo y mejorarlo.

d) Analizar con sentido crítico la participación en el trabajo tanto del alumno como del profesor. significación y utilidad de lo aprendido. investigar y reflexionar constantemente con el alumno su proceso de aprendizaje. b) Cómo aprende: hechos. e) Acumular juicios descriptivos. representaciones y esquemas. integración del grupo. .En tal sentido se debe explorar en el alumno: a) Disposiciones. y ser realizada fundamentalmente a través de procedimientos informales que permitan: a) Conocer los progresos de los alumnos. procedimentales y actitudinales. incomprensiones y errores. la madurez . sentimientos. valores. disposición. La evaluación de procesos tiene carácter dinámico y formativo. para corregirlos y superarlos con el fin de garantizar el éxito en el aprendizaje. tomando en cuenta los aspectos conceptuales. e) Logros alcanzados después de un tiempo de aprendizaje.Formativa: Tiene como propósito observar. d) Carencias. que permitan conocer el punto del cual parte y establecer necesidades previas. procedimentales y actitudinales adquiridos por los alumnos. responsabilidad. c) Propiciar situaciones donde se manifiesten rasgos del alumno: hábitos de trabajo. b) Determinar las causas de sus deficiencias y éxitos. conceptos. que permitan evidenciar los progresos y las limitaciones que requieran una atención esmerada en beneficio del aprendizaje del estudiante. para iluminar lo que está ocurriendo y a la vez ofrecer retroalimentación y acciones necesarias para estimular y mejorar su aprendizaje. dedicación. actitudes y aptitudes. debe estar estrechamente vinculada con las actividades de enseñanza y de aprendizaje. f) Planificar nuevas acciones educativas tomando en consideración los contenidos conceptuales. actitudes. c) El sentido. g) Elaborar criterios para la promoción de los alumnos. manifestaciones intelectuales y potencialidades entre otras. para continuar la labor educativa.

tomando en consideración el conjunto de observaciones hechas durante el proceso sobre: consecución de objetivos educacionales. c) Proporcionar información relevante para promover al alumno.Integración de juicios.Alumnos. con ella se pretende: a) Recoger y analizar evidencias sobre los resultados obtenidos durante el proceso de aprendizaje. COOPERATIVA Concebida como una labor conjunta de todos los participantes para: . comunicación e información constante. . coevaluación y heteroevaluación como herramientas de la evaluación de procesos.Mantener una visión multidireccional. actitudes.del aprendiz. aptitudes.Flexibilizar la aplicación de criterios de evaluación que se seleccionen. capacidades. posibilidades y limitaciones de los alumnos y los criterios de evaluación establecidos previamente. d) Proporcionar información a los: . . Final: Cumple con la función administrativa de la evaluación.Docentes. acciones concretas para mejorar el aprendizaje. para otorgar una calificación basada en la acumulación de juicios descriptivos sobre cl proceso de aprendizaje del estudiante. b) Determina el nivel de logro de competencias fijadas.Propiciar niveles de relación. en términos de criterios de evaluación previamente establecidos. que determinan su crecimiento integral. perspectiva y apreciaciones con carácter deliberativo y negociado. para asumir la responsabilidad que les corresponde en la continuidad del proceso de aprendizaje y para que conozcan sus capacidades. . aptitudes e intereses. habilidades y destrezas. capacidades e intereses para la resolución de la realidad. h) Implementar las diferentes formas de participación de la evaluación: autoevaluación. . Formas de participación .

así como su propio interés. c) Aporta soluciones para el mejoramiento individual y grupal. d) Participa críticamente en la construcción de su aprendizaje. d) Opina sobre su actuación en el grupo. Mediante la autoevaluación el alumno: a) Emite juicios de valor sobre sí mismo en función de ciertos criterios o puntos de referencia. f) Desarrolla actitudes para la integración del grupo.AUTOEVALUACIÓN Es un proceso que permite el autodesarrollo del alumno. COEVALUACIÓN Es un proceso de valoración recíproca que realizan los alumnos sobre su propia actuación y la del grupo. e) Evalúa todo el proceso. características y la variedad de causas de sus éxitos y fracasos. b) Incrementa su participación. dedicación. c) Estimula la retroalimentación constante de sí mismo y de otras personas para mejorar su actuación. Mediante la coevaluación el alumno: a) Determina los logros personales y grupales. . ritmo de trabajo y progreso en su desarrollo. atención. preparación anterior. f) Evita errores y sus causas que le ayudarán a planear mejor la actividad. reflexión y crítica constructiva ante situaciones específicas de aprendizaje. por cuanto identifica sus posibilidades y limitaciones para hacerlo consciente de los cambios necesarios para su propia actuación. e) Desarrolla su capacidad de líder. actitud frente a la materia. para decidir cual fue la causa del acierto y del error. atendiendo a ciertos criterios previamente establecidos. b) Analiza y describe sus actividades.

Esto significa que el docente al planificar debe incluir los elementos relacionados con la evaluación.Recoge e interpreta datos que evidencian el desarrollo del proceso educativo. con el objeto de lograr el mejoramiento y la calidad de su actuación. La primera Etapa de Educación Básica contempla tres grados.. el con qué y el cúando evaluar.. los métodos de enseñanzas empleados y la participación y colaboración de los padres y representantes en el proceso educativo. tales como: el qué. tomar decisiones para: .. las competencias derivadas de los mismos y los criterios de evaluación establecidos para definir el logro alcanzado por los alumnos. . en cada uno de estos grados debe aspirarse al logro de las competencias básicas. equipo de docentes.Acumula una serie de datos integrales acerca de la actuación del alumno. alumno al final de la etapa.). EL QUÉ EVALUAR Vendrá dado por los objetivos generales de grado.g) Mejora su responsabilidad e identificación con el trabajo. docente.Saca conclusiones sobre el progreso del alumno. La heteroevaluación se fundamenta en una evaluación continua donde cada uno de los agentes: . el cómo. . padres y representantes. los cuales permitirán. h) Posee libertad para emitir juicios valorativos acerca de otros porque es parte activa del proceso. Las competencias representan el nivel de desempeño que debe demostrar el. una vez evidenciadas. HETEROEVALUACIÓN Es un proceso de valoración recíproca que se realiza entre los agentes educativos (alumno. PLANIFICACIÓN DE LA EVALUACIÓN La planificación de la evaluación debe estar estrechamente vinculada con el proceso interactivo de la clase.

b) Ubicar a los alumnos en un grado de acuerdo con las competencias logradas. . convalidar lo que sabe. a través de los cuales se podrá evidenciar los progresos alcanzados por los alumnos. la costumbre o la rutina. es decir. padres o representantes así como de tutorías de alumnos más avanzados. c) Promover al alumno una vez que haya adquirido las competencias generales de la etapa. Indicador: es la señal que permite evidenciar el dominio de la competencia. Para evaluar las competencias se deben establecer criterios e indicadores de logro.a) Nivelar o recuperar a los alumnos con la ayuda de docentes. qué hace y cuáles son sus actitudes Es importante que el docente al evaluar tenga presente la consideración de estos aspectos (indicadores y criterios de la evaluación) a fin de evitar el azar. la arbitrariedad e irracionalidad. Permite establecer diferencias cualitativas y cuantitativas en logro de la misma. Criterio: implica la norma o recurso que permite evidenciar el nivel del logro de la competencia del alumno.

EL COMO EVALUAR A través de: a) Situaciones relacionadas con lo enseñado que involucren lo conceptual. formas de participación y diversas técnicas y procedimientos que permitan orientar el proceso de aprendizaje del alumno. d) Una gama diversa de actividades de evaluación que permitan la transferencia de lo aprendido a situaciones diferentes. funciones. c) Actividades continuas que proporcionen información sobre todo el proceso. procedimental y actitudinal. b) Las tareas donde se manifieste el grado de significación de lo aprendido en el desarrollo de la clase. e) La utilización de distintas estrategias de evaluación: actividades. atendiendo el carácter dinámico de la evaluación. En el siguiente cuadro se presenta una propuesta que permite visualizar cómo evaluar: .

b) Ser de fácil interpretación y manejo diario.alumno. Se recomienda el empleo de instrumentos que se caractericen por: a) Recoger aspectos concretos y al mismo tiempo permitan la incorporación de otros no previstos. que sean capaces de promover la interrelación docente . Entre algunos de los procedimientos e instrumentos de evaluación recomendables para la primera etapa de Educación Básica figuran: . c) Evitar en lo posible el sesgo cuantitativo.EL CON QUÉ EVALUAR Con instrumentos que además de aportar la información que se requiera.

.

Profa. marcos u orientaciones sobre la evaluación. a través de los portafolios y registros descriptivos. Universidad de Córdoba. del progreso de su representado. 3.Orientación medios-fines. Asimismo se recomienda que esa información llegue tanto al representante como al alumno.Orientación emic. 1980:252). 4. Aoki (1991) expone las cuatro grandes orientaciones que comprende: 1. para el subjetivismo depende de las experiencias acumuladas como base de la comprensión. La validez de una evaluación depende de los hechos replicables como base de la verdad. PERSPECTIVAS DE LA EVALUACIÓN House (1980-1983) ha puesto de manifiesto que las diferentes perspectivas de evaluación son dependientes de diversas concepciones filosóficas.EL CÚANDO EVALUAR No se dispone de una fecha prevista para evaluar. aptitudes. limitaciones. María Dolores García Fernández.. es decir que tanto los datos como los análisis realizados puedan ser reproducidos y verificados por otras personas competentes utilizando las mismas técnicas. ritmos y estilos de aprendizaje. de manera que puedan percibir cómo el estudiante ha evolucionado en su aprendizaje y cuáles han sido los progresos alcanzados. Para el objetivismo. 2. intereses que permitan realizar el análisis del proceso. Así en cuanto a teorías del conocimiento las agrupa en dos grandes tendencias: Objetivismo y Subjetivismo. basada en observaciones permanentes sobre la actuación de cada alumno para determinar e interpretar sus progresos. .Orientación crítico-hermenéutica.. GRANDES ORIENTACIONES EN LA EVALUACIÓN Hay diferentes enfoques. la evaluación requiere que la información sea "objetiva científicamente". La evaluación tendrá carácter continuo.. Será responsabilidad del plantel en atención a sus necesidades y al proyecto pedagógico de aula que decidirá la periodicidad o frecuencia de información a padres y representantes.. El conocimiento científico se concibe más como algo tácito que explícito (House. dependiente de una tradición empirista en las ciencias sociales. Desde una epistemología subjetiva la validez depende de "una llamada a la experiencia más que al método científico. Dra.Orientación práctica.

. generalizaciones. con referencia al criterio.¿Qué generalizaciones válidas pueden hacerse para todas las escuelas en una zona o distrito?. perspectivas. 5.¿Cuál es el grado de congruencia entre resultados pretendidos. Como acción instrumental.¿Qué efectivos y eficientes son los medios usados en conseguir los fines y objetivos curriculares?. imitada al campo de los hechos. Basada en los objetivos. motivos.. certeza y predictibilida d. La creencia clave es la posibilidad de progreso. a partir de la teoría de los intereses cognoscitivos de Habermas: El Empírico-Analítico con la orientación medios-fines.. "a partir de un horizonte de valores claramente articulado selecciona fines y organiza los medios apropiados teniendo en cuenta los efectos secundarios alternativos" (Habermas.Cada una de ellas se corresponde con los grandes paradigmas que se han destacado. efectividad. 1989:384).Dados unos currícula. contenidos.. MODO DE EVALUACIÓN Medida de la discrepancia entre medios y fines. contenido de los materiales curriculares y los métodos de enseñanza especificados?. coste-beneficio. 2. Los intereses de los evaluadores que actúan con una orientación mediosfines dentro del paradigma cuantitativo reflejan cuestiones como las siguientes: 1. racionalizaciones e ideologías. tasación y consecución. MEDIOS-FINES . PRÁXICA Acción emancipatori a que mejora la condición humana. paradigma cuantitativo. 4. Fidelidad entre medios y fines. el paradigma crítico. orientada al éxito con arreglo a fines. Cualidad de la reflexión y de la acción Comprender las asunciones ocultas. leyes y teorías. y la situacionalinterpretativa la subdivide en emic y crítico-hermenéutica. ORIENTACIONES INTERESES CAMPO DE CONOCIMIENT O El control se refleja en valores de eficacia. el críticoreflexivo con la orientación de la praxis paradigma cualitativo. ¿cuál de ellos implica menor coste y tiempo?. Conocimiento crítico unido a la Descubrir las ideologías subyacentes al conocimiento y a la acción. En la orientación medios-fines nos interesa reflejar una orientación de la evaluación que puede ser caracterizada como técnica o instrumental.¿Cómo de bueno es el curriculum A comparado con el curriculum B en conseguir los fines dados?. 3.

revelando las condiciones ideológicas que hacen posible el conocimiento. 4. etc. 5. Los evaluadores práxicos están interesados en poner de manifiesto los intereses. Por la explicitación de los supuestos ocultos o inconscientes de los afectados. que difieren de la orientación técnica. EMIC Cualidad de vida cultural cotidiana.¿Cuál es el prejuicio básico de los editores o autores de los materiales y recursos prescritos o recomendados?.acción. Reglas tácitas con que la gente vive en su vida diaria. CRÍTICOHERMENÉUTICA Perspectiva fenomenológicohermenéutica.. denso de la cultura.¿Cuáles son las metáforas fundamentales que guía a los que desarrollan. En lugar de una racionalidad de medios-fines. Concretado en el mundo vivido de la existencia. a lo que Paolo Freire llama Praxis.A nivel más básico ¿a qué intereses sirve el currículum?. se les sitúa en condiciones para liberarse o transformarlos.. 6. Intuiciones dentro de las situaciones humanas únicas.¿)Cuál es el punto de vista implícito de los alumnos y del profesor que ayuda a los planificadores del currículum?. sino entrar en un proceso de transformación de la realidad evaluada. la orientación práxica toma un marco dialéctico entre acción práctica y reflexión crítica. asunciones.. la orientación práxica (crítico emancipadora)está interesada en otro tipo de cuestiones. 2. cosmovisiones.. Perspectiva etnomenológica. Por su parte. Este proceso reflexivo no pretende sólo poner de manifiesto estos supuestos. sus asunciones y enfoques?. La realidad se entiende como socialmente construida. como son las siguientes: 1. Búsqueda crítica de lo que significa ser humano. Sumario de modos de entender las orientaciones en evaluación. .. Perspectiva de estudios de casos etnográficos. las distorsiones que subyacen en la existencia humana. produciendo alienación. Cualidad de la existencia humana Conocimiento descriptivo. 3. implementan o evalúan el curriculum?... Revelación de los significados existenciales en la experiencia vivida.¿Cuál es la orientación subyacente en el curriculum A en términos de sus intereses fundamentales.¿Cuál es la cosmovisión que subyace al currículum? Este conjunto de intereses refleja una orientación en la evaluación vista desde una teoría crítica de la sociedad neomarxista. en la actitud moral de emanciparse de ellos.

4..¿Cómo son experienciados los contenidos trabajados?. profesores.¿Cómo es la existencia de un profesor o alumno en esta clase?. por analogía con su empleo en antropología. La mayoría de los evaluadores de esta orientación están interesados en la construcción social de la realidad desde un punto de vista antropológico o sociológico.¿Cuáles son las reglas construidas por el grupo para un currículum determinado en esta clase?. 2.¿De qué modo se corresponden pedagógicamente conjuntamente lo que los profesores hacen y enseñan?.. vivencias y experiencias que tienen los alumnos y profesores en la vida del aula. para esto emplea situaciones de diálogo que puedan clarificar los motivos. sus esfuerzos se dirigen a clarificar. La orientación que Aoki llamada crítico-hermenéutica se interesa por las intuiciones en las experiencias humanas como vivencia.. 1991:103). le importa entrar profundamente en conversación intersubjetiva con la gente en una situación de evaluación.. 2.¿Cómo comprender la cualidad de un currículum en la microcultura de la clase?.¿Cómo ven el currículum A varios grupos (alumnos. Estos intereses se centran en la existencia.. y unir las estructuras de significado de la experiencia vivida. La cuestión más importante no es lo que se enseña. 1. administradores y padres" (Aoki. Más que una perspectiva "emic".¿Cómo viven la experiencia en esta clase?.. padres y administradores)?)Qué valor tienen estas visiones? 3.¿Cuál es la cualidad de las experiencias vividas de los profesores y alumnos?. pretende comprender los valores. 4. 3. Los evaluadores están interesados en los patrones etnoculturales de la vida en las situaciones escolares. .. creencias y actividades en su situación vivida por aquellos que están inmersos en la situación evaluada..La orientación emic.¿Cómo estos grupos ven la fuerza y debilidad de un currículum determinado?. las experiencias auténticas. 5. 5.¿De que modo estos grupos aprueban o desaprueban un currículum determinado?. por tanto una evaluación con esta orientación pretende transcender la objetividad. APROXIMACIONES TEÓRICAS EN LA EVALUACIÓN: MODELOS.. y los significados comunes. sino cómo es vivido.. profesores. La orientación crítico-hermenéutica está interesada "en la búsqueda de los significados ontológicos en la experiencia vivida de los alumnos. Las cuestiones que preocupan a una evaluación desde esta perspectiva son: 1.

Por tanto este enfoque se refiere a los resultados de un proyecto. La percepción es muy importante para el evaluador ya que así. sino desde una visión interpretativa de lo subjetivo. en el que la ciencia es el único camino de conocimiento y la realidad como el único objeto posible de conocimiento.La interpretativa. Es por lo que no pretende formular leyes universales. en un contexto social. la evaluación es el descubrimiento de la naturaleza y el valor de algo" indicando algunas características comunes: A) Supone conocer el fenómeno a evaluar y determinar su valor. cualitativo y dialéctico. b) EL PARADIGMA CUALITATIVO. La evaluación "acrítica" se fundamenta en el interés por el control. Este autor hace un recorrido por tres paradigmas fundamentales: cuantitativo. se identifica la autoridad con el experto. la eficacia y eficiencia. B) Se realiza en un contexto de acción. puede captar . qué ha sucedido y que significado tiene o ha tenido para diferentes grupos. se interesa por saber qué está sucediendo. porque estos no se pueden entender desde criterios externos. nos aporta muy poco sobre la calidad de los objetivos propuestos. 2. para mejorar el nivel de logro de los estudiantes. Tanto la evaluación como la investigación.. en base al proceso y resultados de la evaluación. basada en una imagen dualista (sujeto/objeto). Pero el énfasis de los resultados.Proppe (1990) se basa en la definición de Stake y Dewey (1969) "desde una perspectiva amplia. está fundamentado en el positivismo. Según Madans y Kellagham (1992) hay varios tipos de evaluación cualitativa: 1. Como es conocido el Comité sobre Estándares de Evaluación desarrollo una serie de ideas y normas en base a una definición de evaluación más amplia:"Investigación sistemática sobre el valor o mérito de algún objeto"(1981).. El evaluador estudia los significados y significantes que se asignan a los sucesos por los actores. analizando la evaluación en cada uno de ellos. Es positivista. programa etc. C) Hay que tomar decisiones y se toman en determinados momentos. Para Eisner (1983) son fundamentales la inducción y la observación.La artística. Supone una representación narrativa de los descubrimientos del evaluador. Bajo este concepto se han realizado experiencias de evaluación con el objeto de controlar y evaluar los efectos del curriculum en las escuelas. descubrimos la naturaleza y el valor de algo. D) Es un proceso de aprendizaje. sino comprender el significado que constituye socialmente. a) EL PARADIGMA CUANTITATIVO. Solo se pueden comprender los significados desde el punto de vista del actor. Esta nueva definición amplía las formas de evaluar y determinar la eficacia de los objetivos propuestos .

se propugna la acción. saber hacer. se muestra la evaluación formal de la excelencia escolar. válida y fiable pro medio de la triangulación. en el que el evaluador se convierte en un auténtico agente de cambio. pero cada hecho educativo debe ser entendido en su contexto y cultura. está en el interés por el significado de la comunicación intersubjetiva entre los individuos y "sobre ellos" en una situación dada. técnicas. Esto implica que se reduzca el rol de la evaluación como elemento de selección. la evaluación dialéctica es un proceso de recogida y ofrecimiento de información. como la comunicación "sistemáticamente distorsionada" (Habermas. debe ser el catalizador del diálogo. pero también un proceso de diálogo.cualidades y relaciones que existen entre el profesor y el estudiante. Así pues. Juzgar el valor de algo. c) EL PARADIGMA CRÍTICO. Por tanto. La excelencia para Perrenoud (1990) tiene que ver con los distintos ámbitos y tareas de la vida humana. La evaluación. . Desde este planteamiento. es importante establecer mecanismos para que el alumno tenga acceso a los datos y se cuide la confidencialidad y la privacidad de los mismos. El evaluador se relaciona con la posibilidad de que todos los seres humanos se convierten en participantes en la "acción comunicativa". Por otra parte. autoreflexión y autocomprensión. más que en la certificación. exigiendo una asimilación progresiva y un trabajo. entonces. por ello. El fundamento de la evaluación. el proceso de evaluación es un proceso de reflexión y autoreflexión. supone una tarea de negociación para ayudar a construir significados y revelar los significados construidos. Pretende ofrecer una visión objetiva. análisis de la comprensión del mundo.. 1987). con independencia del proceso o de las circunstancias. Comparte con el enfoque tradicional el enfoque de la orientación de la investigación hacia "un mundo real" externo a los individuos. Proppe (1990) señala que esta visión mantiene la lealtad al dualismo sujeto/objeto. 3. que no todas pueden dominar con facilidad. Los esquemas de evaluación deben poner énfasis en la mejora de la calidad del proceso de aprendizaje y las formas de motivación intrínseca. Desde el paradigma crítico. es valorar su excelencia. por otro lado rechaza la posición positivista con respecto a que el mundo externo sea el único elemento que determina la visión que se debe tener de la realidad. Esta evaluación se basa en el interés por la emancipación respecto a supuestos ocultos o condiciones humanas subyacentes. La excelencia se identifica con competencia y esta con el poder de "poner en práctica conocimientos. la "crítica-emancipatoria" pretende generar conocimiento que ayude a las personas a hacerse conscientes de si mismas y a decidir con criterio personal.La sistemática. en forma de evaluación dialéctica. Para Madans y Kellagham (1992). metaevaluación. en un proceso dialéctico que transcienda la dualidad sujeto/objeto.

etc. de acción social. la evaluación formal. éstos son dependientes de grandes enfoques o paradigmas de la educación o. 1987).Enfoques orientados a los objetivos: Cuyo foco son los fines y objetivos específicos y en qué grado han sido conseguidos. 1.Enfoques orientados al adversario: El foco central de la evaluación es la planificación de oposición de puntos de vista (pro y contra) de diferentes evaluadores. Aoki (1991) de "orientaciones". no hay paradigmas sustantivos propios de evaluación. Clasificación de los distintos enfoques de evaluación (Worthen y Sanders.. 5. En nuestra opinión. . Worthen (1990) señala: "El valor de los modelos yace en su habilidad para ayudarnos a pensar. dado que la búsqueda de la excelencia forma parte de la situación. hacen hincapié en la constitución de la evaluación como disciplina. para determinar los valores. apoyo pedagógico y orientación.Enfoques naturalistas y orientados a la participación: Investigación e implantación de los participantes (o "afectados"). 6. recordar o de lo que debemos preocuparnos ".. Es por lo que .. Gimeno (1992). necesidades.. personalidad.Enfoques orientados la consumidor: Evaluar los "productos" para proporcionar información a los consumidores para elegir entre curriculum alternativos. implica a la organización escolar. dos importantes filósofos de la ciencia. Este tipo de evaluación suele ser escrita y normalizada en cuanto a su forma. ni negociada.Enfoques orientados a la gestión: Cuya principal preocupación es identificar y reunir las necesidades informativas para los gestores que han de tomar decisiones. Este tipo de evaluación informal. que se integra en el flujo de las interacciones diarias. Por eso es más conveniente hablar de modelos de evaluación. El análisis de la evaluación en la educación primaria nos lleva a una crítica del sistema de evaluación formal por calificaciones estableciendo diferentes niveles de excelencia sin saber muy bien cuales son los criterios que los guían. más ampliamente.La evaluación informal es constante en una clase. y destacan el componente ético de la evaluación. Scriven y House. nos consta que la evaluación es "una práctica ampliamente rechazada por los alumnos y bastante molesta y engorrosa para muchos profesores". 4. criterios y datos de la evaluación. 2. para servir como listas mentales con las que repensar lo que debemos considerar. materiales y recursos educativos. Worthen y Sanders (1987) de "puntos de vista alternativos". ni registrada. En cambio. 3. en lugar de paradigmas.Enfoques orientados a los expertos: Dependientes primariamente de las aplicaciones de profesionales expertos para juzgar los programas educativos. Fija oficialmente el nivel de excelencia reconocido a cada alumno. que consiste en valorar el grado de dominio del curriculum. para proporcionar fuentes de ideas y técnicas nuevas... Perez Gómez (1983c) y Hopkins(1989:18) hablan de "modelos". no está codificada. difusión y en cuanto a sus consecuencias referentes a promoción.

hablan de que los modelos de evaluación se pueden utilizar en dos sentidos: 1) Modelos preceptivos. añadiendo que la medida era la parte descriptiva de la evaluación y la explicación completaba el proceso de evaluación. MODELOS CUANTITATIVOS: EL MODELO DE EVALUACIÓN POR OBJETIVOS.) estiman que los diferentes planteamientos filosóficos sobre el conocimiento y los valores tienen su correspondiente implicación en los métodos. son aquellos que proporcionan un conjunto de normas.... 4. Los dos aspectos metodológicos más importantes para llevar a cabo estudios evaluativos son: A..Desde el contexto inglés a Hopkins (1989) le parece bien distinguir seis modelos de evaluación: 1. 2) Modelos descriptivos: son aquellas descripciones o análisis sobre los modos de hacer la evaluación en la práctica. 2. Alkin y Ellet (1991).Modelo de estudio de casos. 3. mientras que los modelos descriptivos presentan una amplia gama de posibilidades válidas" (Alkin y ellet. 5. "Los modelos preceptivos brindan marcos y estrategias más rigurosas para realizar evaluaciones. prohibiciones y líneas orientativas que determinan qué es una evaluación adecuada y el mejor modo de llevarla acabo.Modelo de investigación y Desarrollo (o de factoría industrial). Tyler diferenció medida y evaluación.La dificultad encontrada por los evaluadores al trabajar a través de límites disciplinares y metodológicos. Referido fundamentalmente a la evaluación de programas. hay que descubrir hasta qué punto las experiencias de aprendizaje han logrado los efectos previstos (Nevo. según él.. los ambientes en los que se desarrolla la enseñanza y la capacidad del docente para lograr los planes.Model o de toma de decisiones (o político). Las bases del primer método sistemático de evaluación surgen a partir del modelo de Tyler.Modelo clásico (o agrícola-botánico). no basta con haber planificado correctamente para lograr unos resultados determinados. B.Modelo del profesor como investigador.. Fases de la evaluación: . ya que.1989). 6. adquiriendo un sentido de legitimación con el paralelismo de la investigación científica. al proponer una formulación precisa de objetivos como punto de referencia para la evaluación y la toma de decisiones. Este método tuvo gran influencia al utilizar la medición.Investigación cuantitativa/cualitativa. preceptos. 1991:2574).Modelo iluminativo ( o antropológico). puesto que existen múltiples diferencias individuales entre los estudiantes.. Worthen y Sanders (1987:49 y ss.. Tyler apuntó la necesidad de la evaluación.

Imput. Sttuflebeam. valor libre de contexto. 1985 y Sttuflebeam y Sinkfield. en cuyo caso. . La evaluación orientada al perfeccionamiento de los sistemas.Proporcionar datos para la responsabilidad.. además.1.Identificar situaciones en las que los estudiantes puedan demostrar la conducta expresada en los objetivos. puede tener valor en si mismo. según Guba y Lincoln.Hacer modificaciones apropiadas en el currículum. Este modelo de Sttuflebeam (Sttuflebeam y Sinkfield. dentro de un modelo pretest-postest. la evaluación es un proceso que implica descripción y juicio o valoración.Examinar los resultados para determinar la áreas del currículum más fuertes y más débiles. incluye en el modelo la técnica del grupo asesor para la evaluación de entradas. para poder juzgar su valor. 7. Para ello es preciso diseñar. 4.Desarrollar hipótesis y probarlas para explicar los patrones observados de consistencia o debilidad. Se le criticó que su evaluación no es explicativa. Por un lado. proporcionar estándares para saber cómo juzgar la discrepancia entre las medidas y los objetivos propuestos. 5. y 1975. Process. obtener y proporcionar información útil para juzgar alternativas de decisión.Aplicar los instrumentos. propuso objetivos para las condiciones contextuales y para la conducta del profesor. con lo cual la evaluación debe tener otro alcance: se desplaza desde la valoración de los alumnos a la evaluación de programas. es decir. Tyler entendió la evaluación como un proceso terminal. refiriéndose a los productos o el rendimiento como único criterio. Según el autor las funciones de la evaluación son: . Pero además esa realidad que se evalúa puede tener valor dentro de un contexto de uso o aplicación. algo inherente e independiente de posibles aplicaciones. 6. para comprobar que se han dado cambios y que pueden se imputados al currículum. el valor está en la medida en que . con sus principales cometidos.. la función de la evaluación está en conceder valor a lo que se está evaluando. es decir. 1989).Determinación de los objetivos específicos de cada área de contenido. 3.. b) Modelo de evaluación libre de objetivos.. Sin embargo Tyler no dio normas sobre cómo usar los datos de la evaluación. 1989). lo cual define Scriven como mérito.. Para Scriven (1978). a) El modelo CIPP (Context. 2. que no evaluaba los objetivos. y comparar con las necesidades de la gente a la que debe servir.Promover la comprensión de los fenómenos implicados.. Product). es decir. se basa en la necesidad de mejorar la práctica educativa.Examinar o desarrollar instrumentos capaces de probar cada objetivos. ..Servir la guía para la toma de decisiones. MODELOS DE TRANSICIÓN HACIA LA EVALUACIÓN CUALITATIVA Stake (1967. que ignoraba los juicios sobre la dignidad y mérito. y no solo para los alumnos. sin.

a la que se dirige la evaluación. evaluador externo. al margen de los objetivos previstos. evaluar el programa en sus efectos. Audiencia: equipo que lo desarrolla. establecerá la diferencia entre evaluación formativa y sumativa. Sin embargo tanto el mérito como la dignidad son valores variables. Intención: certificado y justificación para uso local. si se juzga conforme a ellos. Debido a esto Scriven. debe realizarse por un experto. que aumente la objetividad y los resultados deben hacerse públicos. pero también teniendo en cuenta el valor que tienen para varias audiencias. La evaluación del mérito puede ser más homogénea. Además puede ayudar a los administradores a decidir si implantar a nivel general un currículum o programa o modificarlo. en los referente a las estrategias de la difusión de programas de innovación.50). como muestra Bridges (1988) en la siguiente tabla donde se resumen las condiciones necesarias para ello. según Scriven (Guba y Lincoln. Fuente de estándares: juicio sobre las necesidades locales SUMATIVA Intención: crítica. lo cual tienen sus efectos más importantes. El objetivos de la evaluación sumativa es determinar el impacto o los resultados en el contexto en que se obtienen tales resultados. en cuanto a las personas que juzgan debido a sus distintos indicadores de esos valores. 1985. Audiencia: los que toman decisiones locales. es decir. las relaciones entre tipos de evaluación y su objetivo: TIPO DE EVALUACIÓN FORMATIVA MÉRITO Intención: modificar y mejorar el diseño. La evaluación sumativa. Audiencia: equipo de adaptación local. VALOR Intención: ver las adecuación al contexto. Audiencia: compañeros profesionales.proporciona tales soluciones.p. es un valor extrínseco que el autor llama dignidad. A continuación se muestra. adaptadores potenciales. El objetivo de la evaluación formativa es refinar y mejorar los criterios y juicios sobre los aspectos intrínsecos de las realidades que están siendo evaluadas. según Guba y Lincoln. Fuente de estándares: panel de expertos. certificado y justificación. Fuentes de estándares: juicios y valores del contexto local. sin excluir que algún . porque el valor depende de la situación. Además propondrá la evaluación libre de objetivos. aunque se tiende a una profesionalización de esta. para Scriven. Sin embargo la evaluación formativa es más propia de los profesionales que están tendiendo a una profesionalización de esta. si se establecen los criterios de bondad. Pero la determinación de la dignidad requiere una evaluación en el contexto en el que se realiza. Fuente de estándares: panel de expertos Especifica el valor y el mérito en cada tipo de evaluación.

posibilidad de conflicto. Base común de valores compartidos entre evaluadores y los que desarrollan el programa. Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa. hipótesis. El evaluador tiene distintos valores que los que desarrollan el programa. Evaluación respondiente Informal Pluralista. A continuación se presenta un cuadro comparativo entre la evaluación preordenada. analiza e informa solamente.evaluador o momento de la evaluación determine el grado de consecución de los objetivos planteados. consensual Objetivos del programa. CRITERIOS HACIA UNA INFLUENCIA MÁS FORMATIVA Y MENOS INDEPENDIENTE Dialogo continuo formal o informal con los directores los que tomas decisiones. y la evaluación respondiente de Studie: Item comparativo Orientación Perspectiva de valor Bases el diseño de evaluación Evaluación preordenada Formal Única. El evaluador describe. escepticismo y oposición Diferencia entre una evaluación más formativa y una menos formativa (Bridges. INFORMES VALORES STATUS DESCRIPCIÓN/PRESCRIP CIÓN CERCANÍA/DISTANCIA El evaluador tiene una posición de curiosidad imparcial. El problema surge cuando se valoran los efectos sin criterios. o acciones recomendadas El evaluador desea la iniciativa para el éxito y siente alguna responsabilidad en este éxito. de ahí que se evalué sin referencia a objetos. HACIA MAYOR INDEPENDENCIA Y UN INFLUENCIA MENOS FORMATIVA Documentos escritos producidos después de haber realizado la práctica. Se percibe al evaluador como en un status diferente y particular. 1988). MODELOS CUALITATIVOS: Dentro de ellos podemos destacar los siguientes: MODELOS NATURALISTAS Modelo de evaluación respondiente. y cuyo criterio serán las necesidades de los sujetos a los que se dirige el programa. según el modelo de Tyler. El evaluador entrará en la discusión sobre estrategias alternativas. . Preocupaciones y problemas de la audiencia.

a menudo progresivos. y posteriormente servirán para organizar el plan de recogida de datos. resultados. Rol del evaluador Al comenzar la evaluación. Objetivos. Estimulado por los sujetos y las actividades. proporcionando modelos el programa. a menudo oral. Métodos Comunicación. Formal: informes. . La forma del modelo quiere romper la idea de linealidad.28). De la discusión puede surgir la clarificación. Informal. retratos. Para poder emitir juicios correctos.Preconcepciones del evaluador. las acciones correspondientes. es un estadio típico. por lo que la primera fase hace referencia a los problemas. Estos problemas deben utilizarse para discusiones. Continuamente está evolucionando. Subjetivos: observaciones. Informe escrito. aptitud. Test. 1975) es sensible a las necesidades e intereses de la audiencia. La evaluación respondiente (Stake. Nunca. entrevistas. negociaciones e interacciones. Descripción narrativa. Feedback Paradigma Psicología experimental Comparación de las formas de evaluación preordenada y respondiente (Guba y Lincoln. p. proporcionando experiencia variada. sobre dominio. motivaciones o problemas de las personas en y alrededor de la evaluación. 1989. Una forma de identificar problemas es hablando con los implicados. habilidad. )Cuándo está completo el diseño?. El valor instrumental de la educación. ya que la observación y la información deben ser continuas y estar presentes en todas las fases. bien será el existente o el propuesto. Antropología. Owen propone algunos de los ámbitos de discusión que se basan en la investigación sobre "pros" y "contras": a) Para explorar los valores de un currículum. descripciones. Modelos de contraposición Consiste en proponer evidencias sólidas en torno a los problemas para los que se toman decisiones sobre los programas. periodismo y poesía. Estimulador de los sujetos con visión de probar un funcionamiento crítico. Programa de actividades. medida. siendo mejor si en el análisis de dichos programas participan distintas personas que aportan visiones diferentes sobre un mismo problema. dudas y necesidades. reacciones. y la búsqueda de soluciones. identificando variables y sus relaciones. interpretación simbólica. comunicación holística.

Modelo de crítica artística Este modelo se centra en procesos educativos y está muy ligado con la formación del profesorado. e) Para informar a los profesores. d) Discusión ante la audiencia. Se destapan los principios subyacentes de la organización del programa y se ven las posibles relaciones causa-efecto en sus operaciones. Por otra parte. d) Para revelar las distintas interpretaciones que distintos representantes hacen sobre los mimo datos. Modelo de evaluación iluminativa Trata de comprender de forma amplia. c) Para estimar la congruencia entre una innovación y el sistema existente. Dos elementos clave orientan esta tarea: los objetivos del programa y las entrevistas al personal implicado. directores y administradores. la organización y las concepciones de los individuos. etapa de iluminación. . está compuesta de cuatro etapas: a) Proposición de problemas relativos a la evaluación de un programa. Tarea de dos equipos evaluativos que deben reunir y analizar los datos convenientes. Pueden utilizarse entrevistas. señalan tres etapas: a) Observación. describiéndolos en términos de factores influyentes. quien no evalúa porque no tienen interés pro mejorar la cultura. Eisner (1979). abarcando todas las variables que afectan al resultado del programa. cuestionarios y tests. g) Para tomar decisiones sobre todas estas cuestiones. pero marca la diferencia del conocimiento que obtiene el "entendimiento educativo"con el del antropólogo. Tarea para un grupo de implicados representante de los diversos grupos. los procesos curriculares innovadores tal como ocurre. b) Selección de problemas sobre la priorización de los vistos. Todo ello se hace entre de un marco de negociación cuya meta es facilitar la comprensión de los procesos por los propios participantes y servir de estímulo a su enriquecimiento en el plano personal y tanto como en el grupal. Sttuflebeam y Sinkfield (1989).b) Para seleccionar libros de texto. así como el análisis de la información documental e históricas. y tratando de desvelar las relaciones entre las creencias y las prácticas. f) Para clarificar cuestiones en torno a los contratos de trabajo. defiende el modelo de evaluación iluminativa. Por ello no sólo cuentan los hechos sino también las interpretaciones de las personas implicadas. c) Explicación. para Wolf. De ahí que proponga tres condiciones: a) Disponer de valores para juzgar sobre el mérito y la dignidad de un proceso educativo. la evaluación judicial. b) Investigación: Selección y planeamiento de cuestiones de manera coherente y sistemática sobre el programa en su contexto. así como la observación. a través de la inmersión en la realidad. Un jurado deliberará sobre los argumentos presentados. c) Preparación de los argumentos.

* Interpretación. apreciación. que toma en consideración el factor político y el tema del control y del poder en la evaluación. Las técnicas son científicas. que facilite la comprensión de los hechos en relación con los factores que influyen sobre ellos. Los informes son burocráticos. A su juicio se debe a la aceptación de la perspectiva fenomenológica. Las técnicas de recogida de datos son accesibles a personas no especialistas. Su finalidad es proporcionar datos relevantes para los que tienen que tomar decisiones. Las base para una evaluación democrática debe se la perspectiva o la epistemología critica. Basado en el derecho de sabe. ofreciendo la información necesaria para conseguir sus objetivos políticos. para que otros vean y experimenten los contenidos a través de la forma. generalización de la idea básica obtenida. divulgar el conocimiento obtenido para hacerlo comprensible a otros. Los informantes tienen el control sobre el uso de la información. El evaluador se preocupa por determinar el valor educativo de su política y actuar como consejero. Lakomski (1983) critica la evaluación democrática de McDonald porque no proporciona una respuesta política al problema de control. También critica la idea del evaluador como "agente honesto". Es personal y exige desarrollo de la capacidad de percepción. sin embargo creemos que está a medio camino entre los modelos prácticos y lo críticos. cuyos conceptos claves son la negociación. Reconoce la pluralidad de valores. Se rige por los principios y la objetividad y la responsabilidad profesional. c) Democráticos: Servicio de información a la comunidad entera sobre las características del programa educativo. que deja las cosas como están. McDonald (1983) piensa que las diferentes formas de evaluación responden a diferentes posiciones sobre la distribución del poder educativo. científicos y públi cos. iluminando las prioridades. b) Autocráticos: Servicio condicional a las agencias con poder para distribuir los recursos. La evaluación democrática. los valores y las circunstancias. distinguiendo tres tipos: a) Burocrática: Trabajos que sirven incondicionalmente alas agencias gubernamentales con poder para distribuir los recursos educativos. es decir. puesto que olvida que la actividad de evaluación está influenciada por los valores del propio . Tiene la siguiente estructura: Descripción. c) Tener crítica educativa. * Evaluación. confidencialidad y accesibilidad. Los informes pertenece a la administración y la técnicas deben ser creíbles y eficaces. * Conclusión. MODELOS CRÍTICOS. Emerge de un marco teórico fenomenológico. interpretativo.* b) Poseer un conocimiento refinado. El rol del investigador es democratizar el conocimiento. El evaluador acepta los valores de la autoridad. o valoración educativa según unos criterios.

e informar a la audiencia para dar pie al debate sobre el programa. ya que a través de él se van cambiando las exigencias del programa en un proceso de debate crítico o conservación Para adoptar este principio es preciso partir de que la realidad es social. 4) Principio de la pluralidad de perspectivas de valor: En la evaluación hay que tratar de determinar cuáles son las perspectiva más relevantes en el proyecto. La metaevaluación puede ayudar a mejora la calidad de la contribución el programa de evaluación. histórica y culturalmente negociada. considera que un programa de evaluación sobre desarrollo curricular e innovación debe estar desarrollado por los siguientes principios: 1) Principio de la racionalidad como lo razonable: La tarea de la evaluación es iluminar el razonamiento que guía el desarrollo del programa. los cuales deberá descubrirse mediante la evaluación.. Parece ser que se parte de la aceptación de que el pluralismo es la única posición válida. * Criterios para un evaluación democrática del currículum. Lo que contradice el principio de construir reglas y criterios universalmente válidos para la aplicación de un programa. 6) Principio de propiedad en la producción y distribución de información: Los argumentos y la información son un . para identificar los factores contextuales e históricos que influyen y facilitan el análisis crítico de estos aspectos. 3) Principio de comunidad de intereses: El evaluador deberá iluminar la extensión de los intereses comunes y de los conflictos entre valores e intereses de los participantes de la comunidad. p.). existente dentro de la comunidad. no es más que un sofisticado relativismo en el que. la evaluación externa contribuir al debate crítico pro acrecentar la conciencia de algunos intereses y valores relevante para el programa. Se basa en el principio de autonomía moral y cooperación o responsabilidad compartida entre los patrocinadores del programa y los participantes. Pero el hecho de que no haya valores absolutos no quiere decir que no haya criterios por los que lo evaluadores puedan juzgar lo que debe hacerse en cada situación. De ahí que la autocrítica sea la primera base para la evaluación. y la evaluación independiente puede ayudar a aprovechar la autocrítica al programa allí donde el programa de la comunidad es difuso o dividido por la controversia. según el autor. 5) Principio de la comunidad autocrítica: La evaluación debe refinar el debate crítico. patrocinadores.. Partiendo de la definición de Kemmis (1989. 2) Principio de autonomía y responsabilidad: Este principio implica a todos lo participantes (profesores.evaluador. Por ello es importante atender al proceso de negociación de los participantes. sobre la naturaleza y la dignidad de un programa. evaluadores. cuando. cuando los diferentes grupos no están de acuerdo o entran en conflicto de valores. Por lo cual será importante clarificar los criterios para una evaluación democrática.119). "Evaluación es el proceso de ordenación de la información de los argumentos que permiten participar en el debate crítico sobre un programa específico a individuos y a grupos interesados". se admite que no hay forma de establecer cuál de ellos es correcto porque todos ellos son igualmente válidos. aunque siempre hay elementos constrictores de la libertad e acción y circunstancias que están más allá del control de los participantes.

debe aportar conocimiento suficiente porque los que toman decisiones quieren y necesitan saber con qué grado de acierto está cumpliendo el programa los objetivos para los que se estableció. que la investigación pretende obtener conclusiones generando nuevo conocimiento. Suchman (1967) distinguió ente evaluación e investigación evaluativa. considera que la evaluación es una actividad orientada a determinar el valor de algo y. y si se debe continuar con él ampliarlo. y no debe realizarse con relación a la "lógica interna" del modelo de evaluación que se elija. son: * La utilidad de los resultados debe ser el criterio fundamental del evaluador. cambiarlo o retirarlo. Entendida la evaluación como el proceso de emitir juicio de valor. definido por un valor. obligaciones. reducirlo. . LA EVALUACIÓN COMO INVESTIGACIÓN. Por ello la evaluación deberá hacer explícitos lo principios de procedimiento que gobierna la dirección. orientar a conocer cuál es el nivel de consecución de alguna meta u objetivo existente de un programa. producción y distribución de este proceso o de elaboración de información. y la investigación como la actividad científica que trata de aumentar la posibilidad de demostrar el valor de alguna actividad social. La investigación científica debe ser su modelo. Su característica fundamental.aspecto importante de la evaluación porque su uso y abuso afecta a los participantes y a los observadores del programa en su vida social. Los supuestos básicos de la investigación evaluativa. desarrollo y operatividad de los programas. difíciles de observar y constan de muchos elementos que reaccionan de diversas formas. según Suchman (1967). La finalidad es ayudar en la planificación. Se necesitan pruebas para convencer a otras persona acerca de la validez de las conclusiones. Las decisiones que se derivan son importantes y caras. ética y política. Es decir. Para este autor la investigación evaluativa es necesaria cuando: Los resultados que se quieren evaluar son complejos. Weis (1989). definiéndola como aquella forma de evaluación que establece criterios claros y específicos para el éxito. circunstancias y oportunidades de los que serán más estrechamente implicados en el programa. sino en relación a las preferencias. * * * * El estudio de casos en investigación curricular. necesidades. 7) Principio de conveniencia: El diseño de evaluación no es una cuestión teórica o técnica sino práctica.

y/o como programa o contenido. en un buen estudio sobre la . tras la revisión (histórica) del campo de la evaluación del curriculum. y de la investigación educativa". al curriculum como resultado o producto. a los test. señalan que este es "un área compleja de estudio. Marcelo y Parrilla (1991) citan las siguientes: totalidad. hemos de incluir. por ejemplo. que es evaluado en el aprendizaje de los alumnos. en el que es difícil establecer lo límites entre fenómeno y contexto. de lo que escribes. la evaluación contribuye "la determinación de lo que son los conocimientos válidos de una disciplina. Como ha destacado Kvale (1992:121-2). ya que se hace un selección para entrevistar. a menudo incontrolada. que el estudio de casos refleja los problemas particulares de la enseñanza. negociación. b) El estudio de casos da una formación del mundo. confidencialidad y accesibilidad. c) El estudio de casos es conservador. sino el mismo examen contribuye a establecer los conocimientos válidos de una disciplina". citado por Marcelo y Parrilla 1991. etc. aparte de dimensiones internas del curriculum (contenidos.) Los conocimientos sobre una disciplina no sólo se transmiten en la enseñanza y se comprueban en los exámenes. la entrevista. con relaciones cercanas a la evaluación de programas. Madaus y Kellagan (1992:147). sobre la vida de otros. innovadores o formativos). particularidad. En este sentido la evaluación legitima el curriculum a aprender/enseñar/seleccionar en un campo de conocimiento o disciplinar de una etapa educativa. o con los alumnos sobre la enseñanza. materiales.. para que te hablen. (.13) define el estudio de caso como un método de investigación que permite un estudio holístico y significativo de un acontecimiento o fenómeno contemporáneo dentro del contexto real en que se produce. la evaluación de la innovación curricular. y que requiere el uso de múltiples fuentes de evidencia. Nunca describe la realidad como es ahora. participación. Ying (1987. En ambos casos van unidas.Según Pérez Gómez (1983). se presenta como una perspectiva amplia. p. y a través de ellos se puede conseguir una visión clara de ello que sucede en la clase. Madaus (1988). Por ejemplo. La evaluación del curriculum ha estado dominada por un cierto imperialismo de los test y estándares establecidos. etc). realidad. se entiende por estudio de casos el análisis de una instancia en acción. capta un instante en el tiempo y el espacio y lo detienen frente a la realidad cambiante. Walker (1989) considera el estudio de casos es el intento de investigar a través de la experiencia de los sujetos del estudio para ofrecérselo a los que son audiencia.. Shulman (1992) subraya como característica. la observación de la enseñanza. así. son medio des influir en la vida del centro. Sin embargo el autor reflexiona sobre alguno problemas y los presenta como razones para no hacer el estudio de casos: a) El estudio de casos es una intervención. el hablar cono profesores sobre sus sentimientos. Dentro de la evaluación del currículum. y la evaluación de programas (educativos. Por esto. LA EVALUACIÓN DEL CURRICULUM EL CAMPO DE LA EVALUACIÓN DEL CURRÍCULUM "Evaluación de curriculum" entendida como la evaluación de curriculum diseñado. Las características del estudio de caso son definidas por diversos autores.

profesores. de igual manera. King (1991). y cubre un amplio rango de actividades curriculares (procesos y productos) que pueden ser objeto de evaluación. métodos de la evaluación del currículum: 1. al tiempo que puede proporcionar evidencias que puedan ser tomadas en cuenta para guiar la toma de decisiones (y en este aspecto guarda similaridad con la evaluación formativa).La evaluación del curriculum es dependiente de las múltiples perspectivas del curriculum existentes. independientemente de sus resultados . Por otra parte podemos distinguir funcionalmente (Ariav.. qué se aprende. caracterizada por redefinir la unidad de evaluación dentro de un contexto más amplio y por focalizarse en las funciones . cómo se enseña. ha puesto de manifiesto cómo los test usurpan el papel del currículum en la definición de lo que hay que enseñar y cómo hacerlo: "No es currículum oficial. 3. distinta de la investigación curricular sobre evaluación en la medida en que no pretende proporcionar material para la discusión teórica.Los métodos aplicados. sino los test quienes están determinando cada vez más que se enseña. propugnan una "evaluación social del curriculum". 2. en su dimensión sumativa. están usando o van a usar en el futuro. pero la asociación tradicional entre investigadores y evaluación ha motivado un énfasis en los test y medida. desarrollo e informe. pues la suposiciones metodológicas suelen implicar concepciones del curriculum. La finalidad del análisis es describir y comprender una situación. 2. como base para clarificar el campo. Evidentemente esto es una generalización..La evaluación de la práctica curricular se dirige a lo que los profesores y alumno han utilizado.El propósito de la evaluación del curriculum es juzgar el éxito o fracaso de un curriculum particular... y cómo se aprende"(Madaus.. de un método de enseñanza. refiriéndose a la evaluación del curriculum en la práctica. 3. contexto y situación investigada.En segundo lugar. agencias patrocinadores. señala las siguientes características iniciales: 1. sino información útil para iluminar la práctica. son diferentes en los modelos y fines. comunidad escolar. o de personal.1986) entre análisis del curriculum y evaluación del curriculum. 1988:83).influencia de los test en la determinación del currículum. mientras que la "evaluación del curriculum".. Aquí igualmente se presenta un amplio espectro de modos y formas de evaluación Desde la perspectiva crítica Apple y Beyer (1983). es dependiente de múltiples perspectivas filosóficas y metodológicas conjuntamente. Ariav (1986) señala los siguientes propósitos. porque según los diferentes modelos de evaluación se centrará en cuestiones diferentes y aplicará diferentes metodologías. la toma de datos empíricos.La dirección de la evaluación del curriculum se puede dirigir a la administración educativa. prioritariamente se centra en juzgar/valorar su éxito y resultados. La evaluación puede dirigirse al uso de un material curricular específico. cifrando el primero en describir el posible valor educativo del currículo. alumnos. y la orientación al diseño. teniendo una función descriptiva más que prescriptiva. sus potencialidades curriculares y sus procesos de desarrollo.

expresado en materiales curriculares y vivenciados por el profesor y los alumnos. y por la actuación del aparato administrativo que debe proporcionar los recursos para el funcionamiento eficaz del sistema en su conjunto.. Tres dominios. divorciadas del contesto social y de sus funciones de legitimación. el campo de la evaluación del curriculum se ha ampliado considerablemente hasta poder abarcar otros campos. raza y género de nuestra sociedad. que realizó una revisión de las tendencias actuales en evaluación y dice: "La evaluación. a todo el conjunto del sistema educativo". en cuanto son dependientes del curriculum o influyen decisivamente en él (entorno escolar o apoyo externo). la evaluación alcanza actualmente a los centros educativos. clase social. Dado que las escuelas no son entidades aisladas. procedimientos y teorías fundamentales que los docentes utilizan para planificar. más allá de la valoración de los aprendizajes adquiridos por los alumnos. necesitarían ser objeto de estudio en una evaluación social del curriculum (Apple y Beyer. 1983: 430) para ver las conexiones entre el curriculum y las estructuras ideológicas y económicas: 1. Kemmis (1986: 119).. se encuentra afectada hoy en día. que constituyó su campo de intervención originario. al profesorado.sociales que cumplen el curriculum escolar.. afirma que: "La importancia actualmente cobrada por la evaluación educativa y el notable desarrollo de las funciones que le han sido atribuibles ha producido una ampliación paulatina de su ámbito de actuación.Las interacciones cotidianas y regularidades de la vida escolar: Lo que se ha llamado "curriculum oculto" como modo en que se enseña y reproducen importantes valores y normas sobre trabajo. todos ellos se convierten en objeto de evaluación" (MEC. 1994:26). precisamente por los mismos problemas que tenía que resolver".Las perspectivas. a la propia Administración y. En consecuencia. distribución y reproducción de las relaciones sociales. Próximo a nosotros tenemos a House (1992). que fue inventada para solucionar nuestros problemas sociales. producción. ya no se justifica reducir la tarea de evaluación exclusivamente al alumno y al proceso de enseñanza y aprendizaje. Parte de la siguiente definición de evaluación: . al currículo. Los resultados de la educación vienen determinados por la actuación de los profesionales que en ella intervienen. por la propia definición y desarrollo del currículo. No obstante. SENTIDO DE LA EVALUACIÓN En un documento del MEC (!994) sobre "Centros educativos y calidad de enseñanza". 3. organizar y evaluar lo que sucede en las escuelas. 2. Así en el reciente documento a debate presentado por el MEC (1994) sobre "Centros educativos y calidad de enseñanza" se señala: "Al adoptar una concepción más compleja e interactiva del curriculo.El corpus formal del conocimiento escolar: El curriculum planificado. Por ello la evaluación del curriculum es incompleta si se limita a la "caja negra" de la escuela investigando lo que se enseña o las experiencias de los alumnos con los programas escolares. ha proporcionado un conjunto de principios que deben regir un proceso de evaluación democrática en el desarrollo curricular. la evaluación del curriculum debe ampliarse a estas funciones socioeconómicas. en suma. al menos. por la organización y funcionamiento del centro no escolar en el que aquélla se lleva a cabo.

"Evaluación es el proceso de recoger información y argumentos que capaciten a los individuos y grupos interesados para participar en el debate crítico sobre un programa específico. Así definida la evaluación consiste en aprovechar y refinar los múltiples procesos de enjuiciamiento público y privado, no en substituirlos con tecnologías de valoración". CONCEPTUALIZACIÓN DE LA EVALUACIÓN. La evaluación tiene como objeto determinar el valor de una cosa, Worthen y Sanders (1987:24) definen la evaluación como "el acto de proporcionar juicios para determinar el valor (valía o mérito), sin minusvalorar por ello las importantes funciones que la evaluación tenga en la toma de decisiones y en las actividades políticas. En educación, la evaluación es la determinación formal de la cualidad, efectividad, o el valor de un programa, producto, proyecto, objetivo, o curriculum. La evaluación, para ello, utiliza métodos de investigación y de juicio, como: 1.- Determinar los estándares para juzgar la cualidad y decidir cuáles de ellos deben ser relativos o absolutos 2.- Recoger información relevante sobre los objetos de evaluación; y aplicar los estándares para determinar la cualidad. Gimeno (1992, p.338) define la evaluación como "proceso por medio del que alguna o varias características de un alumno, de un grupo de estudiantes, de un ambiente educativo, de objetivos educativos, de materiales, profesores, programas, etc., reciben la atención del que evalúa, se analizan y se valoran sus características y condiciones en función de unos criterios o puntos de referencia para emitir un juicio que sea relevante para la educación". En el artículo de Cronbach (1963), Presentó un cambio muy significativo en el que se elabora una propuesta sobre los tipos de decisiones en el uso de la evaluación: 1.- Mejora del curso/programa: Decidir qué material de instrucción y qué métodos son satisfactorios y en cuales es necesario introducir cambios. 2.- Decisiones sobre individuos: Identificar las necesidades del alumno, con el fin de planificar su aprendizaje, valorar sus méritos con fines de selección y agrupación, familiarizándose con sus propios progresos y deficiencias. 3.- Regulación administrativa: Juzgar la calidad del sistema escolar, la de los profesores individualmente considerados, etc. Cronbach plantea la necesidad de centrar la evaluación en el propio proceso de desarrollo de un curso, con el objeto de mejorar y evitar lagunas que al final del proceso no se pueden superar. Nevo (1989) llevó a cabo una revisión biliográfica sobre evaluación y señaló las dimensiones relevantes en la evaluación del curriculum: 1.- )Cómo se define la evaluación? La evaluación educativa es una sistemática descripción de los objetos educativos y/o su mérito o valor.

2.- )Cuáles son las funciones de la evaluación? Señalaremos cuatro funciones básicas en la evaluación educativa. 1.- Formativa (para desarrollar y mejorar). 2.- Sumativa (para selección, certificación, rendir cuentas). 3.- Sociopolítica (como motivación y soporte de apoyo público). 4.- Administrativa (para ejercer control y autoridad). Por otro lado Gimeno (1992) al referirse a la evaluación de la enseñanza, considera siete tipos de funciones que de hecho ejerce la evaluación: a) Definir los significados pedagógicos y sociales, o qué se entiende por excelencia escolar. Y a partir de la consecución de la excelencia o de niveles de excelencia, definir el significado social de términos y las realidades como la calidad de la educación, o el rendimiento, el éxito, el fracaso escolar, etc b) Funciones sociales. Dado que a través de las certificaciones se acreditan los niveles de competencia en función del grado de saber demostrado, sirve para la jerarquización de los puestos de trabajo y la selección de las personas que deben desempeñarlos. c) Poder de control. El profesor ejerce su poder, fundamentalmente a través de las calificaciones. Controla la conducta, y es una forma de compensación a la ausencia de liderazgo.

d) Funciones pedagógicas. También sirve a funciones con claro objetivo educativo, o de mejora, que son las que legitiman la existencia de la práctica de la evaluación.(creación de ambiente escolar, función diagnóstica, recursos para la individualización, afianzamiento del aprendizaje, orientación, pronóstico y ponderación del currículum y socialización profesional). e) Funciones con respecto a la organización escolar. Proporciona conocimiento para una ordenación del currículum y una organización de la práctica real de la enseñanza. f) Proyección psicológica. En la medida que repercute en la motivación, el autoconcepto y las actitudes hacia la escuela, etc.

g) Apoyo a la investigación. Es una fuente de información sobre el funcionamiento del sistema educativo, y la validez de los currículums. 3.- ¿Cuales son los objetos de la evaluación? Cualquier entidad puede ser evaluada, pero los objetos más frecuentes son: alumnos, personal administrativo y docente, curricula, materiales, programas proyectos, e instituciones o centros. No debe limitarse a alumnos y profesores, y es necesario identificar claramente el objeto de evaluación, ampliar el objeto de la evaluación, para que esta sea más explicativa.

A.- La evaluación de los alumnos En la evaluación de los alumnos considero dos formas: la evaluación por parte de la administración, y la evaluación por los profesores. a) La evaluación por parte de la administración se realiza generalmente mediante exámenes; esta ha sido la forma más utilizada en todos los países. Marsh (1992) considera que el problema de los exámenes hoy día se sitúa fundamentalmente a nivel de la enseñanza secundaria, pues aunque han sido muy utilizados en el siglo XX, sin embargo se está operando un cambio de manera que se han desplazado desde la primaria a la secundaria. b) La evaluación del alumno por los profesores Los profesores toman en cuenta la cantidad de información tanto al planificar como durante la tarea de instrucción (habilidad y logro, cuestiones sobre el sexo, participación en clase, autoconcepto, competencia social, independencia, conducta en clase, hábitos de trabajo,...) Pero el logro es lo más importante, de forma que hay evidencia de que el juicio sobre la capacidad, la motivación y el esfuerzo del estudiante dependen de su valoración del resultado. B.- Evaluación del profesor Es opinión pública, que la clave de la mejora de la educación está ligada al grado de calidad de los profesores, lo cual a llevado a la administración a tomar diferentes decisiones en torno al cambio para facilitar la mejora. de esta manera se ha visto en la necesidad de adoptar medidas para realizar una evaluación correcta. * Entrevista al profesor. Se ha usado en el pasado y es la piedra angular de las estrategias de evaluación más recientes. Test de competencia. Se usan para certificación inicial y para el contrato. Los profesores deberían demostrar competencia cognitiva como un prerrequisisto para poder enseñar. Medidas indirectas de la competencia del profesor. Esto no se refiere a características de la personalidad, sino a rasgos tales como el compromiso profesional que se expresa a través de actividades extraescolares, etc. Observación de clases. Supone observación directa del estilo del profesor en clase, durante la interacción con sus alumnos, y generalmente se completa con entrevistas. Se pueden usar instrumentos estandarizados de observación para facilitar los juicios de los observadores, como Weade y Evertson (1991) recomiendan, ya que la observación sistemática y deliberada, como una acción intencional enfocada a determinados propósitos, puede y debe ser planeada para poder obtener justamente la información que se necesita. Valoraciones de los estudiante. Se basa fundamentalmente en que: 1) los estudiantes saben cuando han sido motivados; 2) son los estudiantes los que van a cambiar la conducta; 3) ellos saben si el

*

*

*

*

y sus resultados e impacto.. la existencia de otros objetivos no planteados.. * Darling-Hammond y sus colaboradores (1989) después de revisar los procedimientos de evaluación del profesor. Unido a una estrecha interacción entre el evaluador y los destinatarios. No olvidando que se deben emplear múltiples y variados criterios. 8.¿¡Qué métodos de evaluación deben ser usados en la evaluación? . El grado de consecución de normas y estándares. y sobre los aspectos organizativos. Es responsabilidad del evaluador/es delimitar a los afectados por una evaluación e identificar o proyectar la información necesaria. en la práctica puede causas tensión. 7. su proceso de implementación.. y desde luego no es útil una aproximación unidimensional para juzgar la competencia del profesor.. Un profesor puede usar datos derivados de las otras técnicas y hacer juicios sobre su propia enseñanza. como método de investigación. 2. 4) El reconocimiento de los estudiantes pude motivar la buena enseñanza. y la consecución de objetivos determinados para los objetos propuestos. 5..profesor proporciona feed-back.¿A quién debe servir la evaluación? La evaluación debe ofrecer la información necesaria para todas las partes implicadas tanto las actuales como potenciales. 3..¿)Qué criterios se han de emplear para juzgar el mérito de un objeto? Al menos tendremos en cuenta los siguientes: Si responde a las necesidades identificadas de los actuales o potenciales clientes.Centrarse en el problema de evaluación. Aunque es una idea entusiasta. Evaluación del Claustro de profesores. 6. interesadas en el objeto de evaluación. lo cual es un pilar de la profesionalización.. porque todos tienen sus riesgos .Comunicar los hallazgos a las audiencias. cuatro grupos de variables deben ser consideradas: los objetivos del objeto/aspecto a evaluar. debe incluir las tres actividades siguientes: 1.¿Cómo se realiza el proceso de evaluación? En el proceso de evaluación. En este proceso un comité de compañeros evalúa la enseñanza a través de un análisis de documentos. 4. La autoevaluación puede promover autoreflexión y la motivación hacia el cambio y el desarrollo personal y profesional. concluyeron que no hay un único método válido.. * Revisión de compañeros. sus estrategias y planes.¿Qué tipo de información debe ser recogida para cada objeto? Independientemente de los modelos de evaluación que condicionan esta dimensión.Coleccionar y analizar datos empíricos.

Preordenado . utilidad y precisión. 4.Caso particular .. 6.Formativa .Formal .. 10.. como los estudios de caso. 2.Generalización: Si el estudio de un programa se hace como representativo de otros.Sumativa: Una de las distinciones más extendidas es si los estudios de evaluación se hacen durante el desarrollo del programa o cuando el programa ha finalizado. o a sus procesos de desarrollo.Respondente: Si la evaluación debe venir predeterminada por la observación de las actividades o por la realización de preocupaciones de los participantes en el programa .Un marco conceptual para integrar las capacidades mencionadas. y Apropiada (ser realizada de modo legítimo y ético). que necesita de varios métodos de trabajo.Una amplia competencia en metodología de investigación y otras técnicas de análisis de datos. suele requerir validez...La evaluación es una tarea compleja. 4. 9. Stake plantea sus dudas sobre la base en la práctica de la distinción...Comprensión del contexto social y del tema específico de evaluación. credibilidad.-Totalidad . 5.Juicio: Priman los aspectos descriptivos y objetivos en la información proporcionada. 2. Por otra parte tenemos a Stake (1986) que ha señalado las dimensiones más comunes para clasificar los diseños de evaluación.. 3.Producto . Viabilidad (ser realista y prudente).¿Quién debe hacer la evaluación? La evaluación debe ser realizada por equipos de profesionales que posean: 1..Habilidad para mantener relaciones humanas correctas con los individuos o grupos implicados en la evaluación. categorizandolos en los siguientes: 1. o hacer estudios analíticos como las relaciones entre variables . utilizando de acuerdo con la naturaleza del problema el método de investigación que mejor se ajuste a la demanda solicitada. según el valor extremo del programa o su valor intrínseco.-¿)Por medio de qué estándares debe juzgarse una evaluación? La evaluación debe lograr un equilibrio óptimo en el conjunto de estándares de: Utilidad (su uso y su práctica). o defender la legitimidad de proporcionar un juicio sobre el programa evaluado. 7.Informal: Evaluar de un domo informal es una actividad específicamente humana.Proceso: Otra distinción relevante en los estudios de evaluación es si se dirigen a los resultados de un programa.Descripción . 3. La evaluación está más operacionalizada y menos personalizada. Precisión (técnicamente adecuada).Analítico: Tratar el programa como una totalidad holística. o estudios de caso particulares... con pretensiones de generabilidad.

nunca acaba. Yo encuentro esta distinción trivial. El propio Lewy (1991: 2552-3) reconoce que "tras dos décadas de utilización de estos términos se ha producido poco consenso en lo que se refiere a sus rasgos distintivos". en la evaluación sumativa la audiencia incluye a los potenciales consumidores (alumnos. extenderlo o adoptarlo. Hopkins (1989:168) señala que.el desarrollo no acaba nunca. DIMENSIONES DE LA EVALUACIÓN FORMATIVA Y SUMATIVA. aquellos que lo financian. Estos términos tienen un efecto dramático. etc. Scriven en 1976. mientras que en la sumativa las decisiones conciernen sobre si continuar con el programa o darlo por finalizado. el público que la pide y la manera de usar los resultados. profesores y otros profesionales).. y unos informes sumativos pueden servir para promover el desarrollo). pues el propósito de ambas es examinar el valor de una entidad determinada. Por eso Stake (Worthen y Sanders. Para un alumno hay un comienzo y un final. "Solo el tiempo de realización. en la práctica no funciona así (una evaluación formativa puede convertirse en una serie de pequeños informes. distinguió entre roles o funciones que pude cumplir la evaluación "propongo la utilización de los términos evaluación formativa y sumativa para hacer referencia a estas dos funciones de la evaluación").Externa: Si la evaluación es realizada por personas implicadas en la institución responsable del programa o por externos. Stufflebeam las ha llamado "evaluación proactiva" y "evaluación retroactiva". 1992:2552). Las audiencias en el caso de la evaluación formativa es el personal inmerso en el programa. interpretado y negociado. Acercándose a Stake. Por eso Scriven resaltó que no hay diferencias lógicas o metodológicas entre la evaluación formativa y sumativa. Se diferencian. pero para el profesor. programas Montessori. en un principio por las audiencias a quién van dirigidas y el uso que se hace de la información. pueden indicar si una evaluación es formativa o sumativa. los términos han sido universalmente utilizados. y supervisores. el mismo estudio pude ser considerado formativo por un cliente y sumativo por otro" (Lewy. distinguiendo entre lo que se hace durante el desarrollo y aquello que se hace cuando el desarrollo ha terminado. Para la mayoría de los programas educativos-cursos de correspondencia.discretas. En el caso de la evaluación . El supuesto básico la evaluación formativa es que los agentes utilizan o podrán usar la información obtenida para el estudio que realizan.Interna . Esta posición influye en cómo es evaluado. 8. diferenciar entre evaluación interna y externa: " En el campo de la evaluación los términos formativo y sumativo han llegado a ser cada vez más utilizados. Lo que es importante es que hay diferencias entre lo que la "gente del programa" quiere conocer sobre el programa y lo que los "externos" quieren conocer". 1987: 36) propone. como términos más adecuados. el programa sigue funcionando. Esta distinción es difícil en la práctica. y Fernandez Perez (1994:781) los denomina "evaluación sobre el proceso" y "evaluación terminal". EVALUACIÓN FORMATIVA Y SUMATIVA Siguiendo a Cronbach. Por otra parte. La evaluación formativa sirve para tomar decisiones sobre el desarrollo del programa. aunque la distinción entre formativa/sumativa es "superficialmente clara".

o. informe interno. planificadores de la educación. la acción conjunta del centro y su compromiso por la mejora escolar. Dos características diferenciales entre la evaluación formativa y la sumativa las encontramos en el nivel deseado de generalización y el modo de aplicación. De este modo está en crisis si lo que se debe evaluar es la consecución de los objetivos prefijados centrándose en los resultados. necesita también de una evaluación sumativa que le sirva para demostrar su mérito y valor. más preferentemente . En la práctica un proyecto de innovación. normalmente rendimientos académicos de los alumnos. desarrollado autonomamente por un centro escolar. en el caso de la evaluación sumativa el modo de aplicación se basa en informes de evaluación para responsables de evaluación. revistas especializadas En la última década ha emergido con fuerza una perspectiva interpretativa de análisis de los significados. tanto si son personal especializado. De modo similar al nuestro. Aquel que desarrolló un curriculum debe ser un investigador. y la limitada difusión entre evaluadores y programas similares al estudiado. y no un reformador. junto a la dimensión anterior se pude diferenciar entre evaluación interna (realizada por los que están trabajando en el programa) y externa (conducida por agentes externos). se ha utilizado injustificadamente la evaluación formativa como excusa para evitar las demandas de rendir cuentas de resultados.. ambos se fusionan: "En mi opinión el desarrollo del currículum debería tratarse como investigación educativa. aunque referido a la evaluación del profesorado universitario. Scriven define de las siguientes formas las evaluaciones externas e internas: Evaluaciones internas son aquellas hechas por el personal del proyecto. y que le sirva para defender su viabilidad frente a las escuelas tradicionales. o alguien que en el caso del personal de evaluación es diferente del personal que está siendo evaluado. Un evaluador externo es alguien que en alguna medida no forma parte del proyecto. La nueva evaluación equivale a investigar la naturaleza y los problemas de la innovación educativa y el perfeccionamiento de las escuelas" (Stenhouse. No debemos caer en el error de oponerlas dicotomicamente. EVALUACIÓN INTERNA/EXTERNA Siguiendo la sugerencia de Stake. El modo de aplicación en la evaluación formativa se basa en el informe oral. medidos en términos cuantitativos. . conferencia. En la evaluación formativa el nivel de generalización está limitado al contexto especifico evaluado.autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. modos de trabajo y "cultura". que emplea como instrumento básico de mejora la evaluación formativa o autoevaluación. a veces. Zabalza (1990b) contrapone la evaluación orientada al control a la evaluación orientada al desarrollo. sin embargo en la evaluación sumativa el nivel deseado de generalización se escapa hacia operaciones con objetos similares. Desde una perspectiva que intente unir desarrollo curricular e investigación no tiene sentido separar el papel de desarrollador interno y evaluador externo. pues como recuerda recientemente Nevo (1994: 94). procesos. sujetos o grupos implicados y la iniciativa de la evaluación.. lo que implica valorar los procesos. o para presentarla como una alternativa a la evaluación sumativa. según los diferentes estándares de calidad.sumativa: "lo que funciona en un contexto sometido a unas condiciones debe operar de manera similar en otro contexto". como si son externos a la parte encargada de producción/escritura/servicio del proyecto. 1984: 169).

Necesitan conocer los resultados que va teniendo su propia actividad y esfuerzo. Desarrollo y mejora del programa o curriculum Agentes Metodología Internos Cualitativa: Etnográfica y procesual. Orientado en los procesos internos Evaluación formativa. Evaluación sumativa Responsabilidad: Dar cuentas de los resultados Externos Cuantitativa: validez. potenciales consumidores o patrocinadores. ¿Qué resultados?. Son los responsables de la evaluación inicial y continua de sus alumnos. Test estandarizados o pruebas formales. Observación sistemática. Centrado en los resultados. o de proyectos de innovación que desarrollan el currículum básico. es preciso someterla a deliberación. ¿Cómo se está trabajando?. Válida/fiable Limitada en el tiempo Normalmente extensa Administración. ¿Qué necesidades tenemos?. ¿Cuál es el grado de eficacia? Formas/roles Medida Frecuencia de datos Tamaño muestra Audiencia Principales cuestiones . ¿Qué coste?.También se plantea necesidad de una evaluación interna debido a que la evaluación del currículum forma parte de la cultura de la escuela. Cuando se trata del currículum básico. En cuanto a la evaluación de los aprendizajes del curriculum. Los padres. Deben conocer qué valoración va obteniendo el aprendizaje de sus hijos en la escuela. la evaluación interna puede ser completada por la externa. Debe conocer cual es el nivel de la eficacia en la tarea encomendada al sistema educativo. Los alumnos. CONTROL/EXTERNA Certificar comparativamente la eficacia de un programa. b) c) d) DIMENSIONES DE LA EVALUACIÓN INTERNA/EXTERNA Dimensiones Propósito DESARROLLO/INTERNA Mejorar internamente el funcionamiento de un programa. Personas implicadas en el desarrollo del programa o currículum. sobre todo a efectos administrativos. Rosales (1990)ve la necesidad de implicar a diferentes grupos de personas: a) Los profesores. La sociedad. A menudo informal Frecuente/continua Normalmente pequeña. por ello requiere crear cauces de participación y responsabilización apropiados para la toma de decisiones del currículum escolar.

Los resultados o impactos no deben ser únicamente los aspectos a examinar cuando se evalúa un programa.. Nevo (1994) expone las siguientes conclusiones extraídas: 1.Los alumnos y sus resultados no deben ser el único objeto de la evaluación escolar. Dimensiones principales de la evaluación (Reelaborado a partir de Worthen y Sanders. interesa cómo la evaluación puede servir para un desarrollo o mejora interna del aspecto o actividad evaluada (Hopkins.La autoevaluación tiene que servir conjuntamente para una función formativa y sumativa. o acciones Hacia una mayor independencia y una influencia menos formativa Documentos escritos producidos después de haber desarrollado la actividad práctica.¿Cómo mejorar?. 2. 1989). para proveer información en orden a planificar y mejorar. en combinación con la "evaluación externa". analiza e informa. 4. Como resultado de un Proyecto llevado a cabo en Israel para capacitar a los centros a hacer su propia evaluación. y para proveer información para demostrar el rendimiento de cuentas o resultados.. La distinción entre evaluación interna y externa no tiene por qué implicar un juicio de valor sobre la superioridad o ventajas de una sobre otra. Se percibe al evaluador como en un status diferente y particular. Criterios Hacia una influencia más formativa y menos independiente Diálogo continuo formal o informal con los gestores y los que toman decisiones Base común de valores compartidos entre evaluadores y los que desarrollan el programa Se percibe al evaluador en un status más o menos igual que los que desarrollan el programa El evaluador entrará en la discusión sobre estrategias alternativas. y la externa para una evaluación sumativa. aunque cada una pueda tener ventajas para ciertos propósitos: Evaluación interna para una evaluación formativa y para proveer feedback para la mejora. proyecto u otro objeto de evaluación dentro del centro escolar. La tarea de hacer más formativa una evaluación se convierte en el problema de cómo el conocimiento producido en la evaluación es utilizado por los usuarios. INFORMES VALORES STATUS DESCRIPCIÓN/ PRESCRIPCIÓN . El evaluador sólo describe.. El evaluador/es tiene distintos valores que los que desarrollan el programa. defiende que la evaluación basada en la escuela puede ser concebida como sinónima de "evaluación interna". 1987:36). 3. así como para certificar y dar cuentas.. implicando una formación para aprender de la evaluación.El personal escolar entiende mejor el significado de la evaluación mediante la distinción entre descripción y juicio. Pero más allá de discriminaciones conceptuales. Nevo (1994).

evaluación y cambio son distintos. Aspectos Finalidad Evaluación COMO mejora La evaluación forma parte del proceso de desarrollo * El papel de evaluador y usuario se identifican. al tiempo que cada una se sitúa a un nivel superior del círculo y pueden conducir a otra. * Determinar el grado de implementación y factores que lo explican. El avaluador toma una posición de curiosidad imparcial. * Mayor implicación de los usuarios. en un primer plano. * Posible uso conservador por los centros. evaluación para la mejora. que no toda evaluación formativa implica un desarrollo organizativo del centro. recogido en Hopkins. Evaluación DE la mejora Medida de la consecución de los objetivos. Cada una tiene sus propias implicaciones metodológicas y puede servir para cuestionar el papel de la evaluación en el proceso de mejora escolar. en un programa educativo o curriculum. y evaluación como mejora. * Limitarse a como facilitar el cambio. * Autoevaluación del centro. La evaluación de la mejora. * Mejora como adopción de propuestas externas. Paradoja de la evaluación formativa (según Bridges. Evaluación PARA la mejora "Evaluación formativa" Ayudar a introducir mejoras en la práctica * Evaluación durante el proceso.recomendadas COMPROMISO/ DISTANCIA El evaluador toma la iniciativa para el éxito y siente alguna responsabilidad en este éxito. * Usar los datos para mejorar la práctica. dentro de una evaluación orientada a la mejora escolar. que no funcionan eficientemente de acuerdo con las expectativas prefijadas. escepticismo u oposición. pudo incluir la tradición Tyleriana de medida de resultados o "productos" para detectar aquellos aspectos. con fines clarificadores. y diferenciar. distinguir tres perspectiva sobre la relación entre mejora escolar y evaluación: evaluación de la mejora. * Evaluación basada en objetivos. * No centrarse en los factores que constituyen el proceso de cambio mismo. Caracteres Limitacione s * Permanecer en un plano emic. RELACIÓN ENTRE MEJORA ESCOLAR Y EVALUACIÓN. La distinción tiene la virtualidad de romper con la oposición fácil entre evaluación sumativa y formativa. * Comunicar y utilizar los datos. sin transcender el contexto local. Holly y Hopkins (1988) han propuesto. * Racionalidad instrumental de medios-fines. 1989:168). * Perspectiva de "fidelidad". * Posible mecanismo de interiorización de responsabilidad. .

de hecho. que deberán seguir y respetar. por lo que su finalidad es cómo facilitar el cambio. La evaluación democrática en las instituciones educativas se entiende como un servicio de información a toda la comunidad. formales o no. Mientras que el contexto de justificación incluye todos los procedimientos científicos. aplicó un análisis político a la evaluación. que una política externa de evaluación de alumnos. negociación del informe. y autorenovación"(Darling. confidencialidad y rendimiento de cuentas. La evaluación de la mejora implica que ésta tiene como fin explícito la mejora escolar. agente de cambio y dinamizador. autocrítica. identificándose los papeles de evaluador y usuario por medio de la autoevaluación escolar. es usada para ofrecer a los profesores informaciones prácticas sobre el aprendizaje de los alumnos y proveer información para que la comunidad escolar se comprometa en "un proceso recursivo de autoreflexión. inserta en el propio desarrollo organizativo del centro. Una fase clave en la evaluación educativa es la diseminación de los resultado e informes evaluativos. ha señalado un conjunto de Principios de procedimiento. negociador. en estos casos. influyen en sus cambiantes relaciones". y consecuentemente utilizados por los agentes . que configuran la comunidad educativa". se debería hacer o sería legítimo lograr. técnicas empleadas para demostrar los resultados extraídos. La evaluación. etc. una "evaluación democrática". proponiendo frente a tipos burocráticos o autocráticos. centros o profesores sólo puede legitimarse desde la orientación de ofrecer apoyos a la base para mejorar la enseñanza. como primer paso para la reflexión conjunta sobre lo que se hace. McDonald (1976).Hammond. para lo que utiliza metodologías e informes que puedan hacer accesible el conocimiento. tanto los métodos aplicados. desinterés. en todo proceso de evaluación dos contextos: el contexto de valoración y el de justificación. LA PRÁCTICA EN LA EVALUACIÓN DEMOCRÁTICA. si no se entra en los propios mecanismos distorsionadores del pensamiento de los agentes sobre sus propias condiciones de trabajo. El evaluador externo adopta la posición de mediador. como la información generada en el proceso evaluador es abierta. Beltran y San Martín (1992: 67) la definen como "aquella en la que. Para House (1973:130) se pueden distinguir. McTaggart (1990). confidencial y accesible a todos los implicados. negociado. desdeñando en parte los factores del proceso de cambio.. autocorrección. ideología. como intento de introducir mejoras en la práctica docente. el patrocinador y evaluadores en la elaboración de los informes de evaluación para contribuir a hacer un uso democrático: Independencia. Darling-Hammond (1994) han argumentadon. es decir se guía por un conjunto de valores contribuyendo a hacer explícito un dibujo más claro de la institución y de lo que significa su trabajo en el conjunto más amplio de las prácticas sociales. el contexto de valoración se refiere a valores. "Los evaluadores no solo viven en el mundo real de la política educativa. y otros sesgos desde los que se realiza la evaluación. publicación. y se discuta y reelabora entre los diferentes grupos de interés. Pero el control democrático por los agentes implicados en la metodología utilizada y de la información generada no deja de ser una propuesta moralista y/o piadosa. 1994: 26). del acceso a los datos y de la información.La evaluación como mejora se puede asimilar a la llamada "evaluación formativa". actitudes. En palabras de House (1973: 131) "La utilización de la metodología científica en el contexto de justificación nos permite justificar los resultados producidos en el 'contexto de valoración'". sin reconocer un derecho especial a ningún grupo.

al revisar los sistemas de indicadores de evaluación como instrumentos necesarios para mejorar el sistema educativo. 1990). por lo que el evaluador debe preveer. y poner los medios. debemos clarificar al máximo. (Huberman y Cox.sociales y educativos. debemos incluir a los profesores en todas las fases del proceso y que la evaluación esté implicada en el curriculum y en las actividades de enseñanza. Desde esta perspectiva las evaluaciones en base a indicadores no deben pertenecer al uso privado de políticos o administradores educativos para ejercer más efecto sobre las escuelas.. La comunicación a los potenciales usuarios necesitan una información válida. los potenciales usos que se puedan hacer de los datos de la evaluación y del procesamiento de los mismos. clientes y agentes proporcionando información para comprender y reflexionar sobre la situación. 1992: 466). se presenta como el filtro último para juzgar la pertinencia y adecuación de los resultados. Partiendo de que todo conocimiento es poder. EVALUACIÓN FORMAL DEL CURRICULUM. señalan que estos. sin tener en cuenta los factores que afectan al procesamiento social de dicha información. han tenido un uso instrumental o "ingenieril". inevitablemente. (.)En orden a mejorar la educación. Determinados principios éticos deben ser respetados por tanto en la producción. Bryk y Hermanson (1992). un uso ilustrado de la información: "proporcionar información para comprender los problemas y catalizar nuevas ideas". el uso y la distribución de los informes de evaluación. la evaluación debe ser una parte integral para incentivar el diálogo entre los profesores y el desarrollo de la escuela". del proceso de enseñanza o de los alumnos)es obvio. Debemos tener en cuenta los canales de comunicación y el contexto de trabajo ya que este. En cuanto a la distribución y uso por profesionales o administración. se ha observado que los análisis vienen a sugerir que casi nunca se hacen cambios en función de los resultados de la evaluación. Las evaluaciones formales (de los centros. Más bien deben contribuir a enriquecer el discurso público de la comunidad educativa sobre el sistema educativo público: "Debe proveer información que capacite a los agentes educativos a reflexionar y hacer un mejor escrutinio de sus actividades"(Bryk y Hermanson. que afecta la circulación de la información en una situación dada y tiene consecuencias vitales para los que la sufren".. por lo que más que dirigirse a la toma de decisiones. dado que su preocupación principal es la evaluación del nivel de logro de los alumnos. De hecho. se diseñan y realizan para producir datos/juicios que serán usados con determinados fines por agentes/audiencias diversas. proponiendo ellos. Inyectar nuevos conocimientos en una organización es un acto micropolítico. produciendo una merma relevante en la interpretación y uso de la información. debían servir para ilustrar a los patrocinadores. significativa y operacionalizada. el modelo Tyleriano pretendía ser un instrumento para ayudar a los profesores a . Como dice Kemmis (1986)): "La evaluación es. distribución y control de los informes de evaluación de centros. un proceso político. programas o alumnos. Por tanto Darling-Hammong (1994:25) propone un sistema de evaluación externa que potencie la igualdad y la mejora interna (1994: 25): "cambiar las formas y formatos de evaluación sin cambiar los modos en que la evaluación es usada no cambiará los resultados de la evaluación. Si queremos apoyar el aprendizaje de los alumnos. Madaus y Kellaghan (1992) estiman necesaria una evaluación formal del currículum. ya que los profesores suelen hacerlo de forma secundaria.

5.Áreas de desarrollo de los sujetos: . Un conjunto de cuestiones pueden plantearse en la evaluación de los materiales: elementos que incluyen. Por otra parte silencian dimensiones como organización y estructuración del curriculum. organización del centro. Zabalza (1987) hace una propuesta de evaluación comprhensiva del proceso de enseñanza/aprendizaje. 1... a través de los objetivos como elementos del curriculum. los procedimientos empleados y los resultados obtenidos. No todos los modelos dan el mismo énfasis.Este contexto es relevante para los objetivos.Transacción y procesos: Los procesos y la interacción en clase deben ser evaluados. No obstante cabe una deliberación curricular sobre los contenidos (Walker).Objetivos específicos de las áreas curriculares o unidades didácticas: Trasladar los objetivos generales. por su dependencia con concepciones valorativas (educativas y sociales).. que recojo en el siguiente gráfico. normalmente con metodologías cualitativas. también la concepción educativa del centro y de la sociedad. transacciones alumnos-profesor. etc. A pesar de la variedad de aspectos o dominios y métodos. 6. 1992). no dejan de ser obvios y tradicionales. etc. como señaló Tyler.. y resultados). si desarrollan otros objetivos no pretendidos. . necesidades e intereses). naturaleza de la materia y psicología del aprendizaje. input. recoge cuatro categorías (Contexto y evaluación de necesidades. 3.Objetivos generales: Aunque es difícil definirlos y operativizarlos. que contempla todos los elementos y aspectos que presenta la enseñanza: 1. rendimiento académico. destrezas.. evaluación libre de objetivos (Scriven) u objetivos expresivos (Eisner). si son guías para el desarrollo. 2. pero también para evaluar la adecuación de los materiales. a si deben evaluarse sólo en función de los objetivos explícitos o también de los no intencionados.Resultados: El fin último de la evaluación curricular es qué resultados producen en los alumnos los elementos anteriores.área cognitiva: conocimiento y habilidades mentales. no obstante. proceso y producto).. 4. El modelo CIPP. señalando a modo de notas a pie de página otras versiones.Contexto: Partir del contexto de desarrollo del curriculum. en relación con los restantes elementos. a las materias de enseñanza con objetivos específicos adaptados al contenido de los cursos y necesidades particulares de grupos de estudiantes.evaluar el curriculum. Madaus y Kellaghan (1992) proponen seis componentes fundamentales del curriculum que deben ser evaluados.. es preciso hacerlo como criterio necesarios de evaluación.Materiales curriculares: El curriculum planificado se concreta en los materiales curriculares empleados. como dice Taba. como las características de los alumnos (nivel cognoscitivo. Seis componentes principales en la evaluación del curriculum (Madaus y Kellaghan. con fuerte acento en Tyler y Taba. acción conjunta del curriculum por el centro. Stake distingue tres elementos sobre los que centrar el proceso de evaluación (antecedentes. Los elementos y forma de evaluación que proponen Madaus y Kellaghan.

etc.evaluación cuantitativa y cualitativa.Situaciones controladas: las típicas situaciones artificiales en que se plantean tareas de papel y lápiz. nivel de adaptación.entrevistas. ejercicios prácticos. Operaciones mentales: ..pruebas objetivas y tests..observación. etc. Por tanto reducirse a tan sólo una técnica significa renunciar a la información que ella no puede darnos y que si podrían dar otro tipo de técnicas. en el recreo. .Contenidos.significación: recogiendo aquellos aspectos más importantes o que han sido definidos como prioritarios.(cada tipo de técnica se especializa en un tipo de información. . etc. ... entrevistas.. intereses.evaluación del proceso y del producto. . heteroevaluación y mixta o de triangulación.Técnicas de evaluación: . . . 3..exámenes orales y escritos.Modalidades de evaluación: .Situaciones en que se recoge la información: . . 5. etc. 2. relaciones interpersonales. .Situaciones naturales: las que surgen en la dinámica norma de una clase.área afectivo-emocional: satisfacción. . ..autoevaluación.evaluación sumativa y formativa..evaluación individual y en grupo.sociogramas.representatividad: que se recojan una muestra representativa de los contenidos-tareas trabajadas y de las operaciones puestas en juego. 1987). .área relacional social. 4. Tareas. de exámenes orales. . . ajuste personal. Componentes y aspectos de una evaluación comprehensiva (Zabalza.

Este control debe. se convierte en el contexto para promover el desarrollo curricular. en la práctica. a la estructuración. revelar cómo algunas o todas las partes del programa deben alterarse o reemplazarse. Una evaluación institucional se inscribe en un marco más amplio de la reconstrucción cultural de la escuela y de sus pautas de trabajo. y a la propia organización de la escuela. Por ello la mayor parte de los estudios de evaluación del curriculum se refieren a una perspectiva de "fidelidad". puede deteriorarse con el tiempo. La evaluación del curriculum se centra en la revisión de los fundamentos y la práctica de las decisiones que los enseñantes adoptan en el centro con la colaboración de un asesor externo". se debe constituir un una investigación sobre el desarrollo del curriculum. organizativo y profesional de los profesores. De este modo. consiste en la "comprobación crítica del curriculum como hipótesis de acción educativa". En una perspectiva de fidelidad podemos medir los resultados de un programa comparándolos con los objetivos del programa. El sentido de esta autoevaluación institucional del curriculum es la mejora de la propia institución escolar y de la calidad de enseñanza (evaluación formativa y . la evaluación del curriculum como " la puesta en marcha de un proceso que exige por parte de quienes lo inician la voluntad de reflexionar sobre la práctica con el ánimo profesional de aprender de ella de forma constante. en que el proceso de autorevisión y reflexión crítica de la propia realidad. reivindicando la dimensión actual de autorevisión colegiada de la labor conjunta del centro. Hernández (1990: 12) define. significa que el centro escolar como conjunto genera procesos y formas de trabajo dirigidas a autorevisar lo que se hace cotidianamente. organización y desarrollo del curriculum. en el sentido que tales principios enmarcan". guiado por unos valores de cooperación. El deterioro total o parcial puede ocurrir en todo el sistema o solo en ciertas áreas o escuelas. y por lo tanto como un campo de investigación de la práctica profesional del profesor. a los materiales curriculares. precisando a continuación que "los resultados de este tipo de evaluación tendrá la virtualidad de reorientarnos respecto a qué es lo que consideramos importante a nivel de principios curriculares y si estamos funcionando o no. LA EVALUACIÓN DEL CURRICULUM A TRAVÉS DE LA AUTOEVALUACIÓN La autoevaluación institucional. Pero en una perspectiva procesual es más difícil valorar cualitativamente el desarrollo curricular innovador. como analiza Martínez Bonafé (1989:64). colegialidad y compromiso. Zabalza (1987:289-90). De este modo la evaluación. De acuerdo con el análisis de Martínez Bonafé (1988) los problemas a investigar se refieren al aprendizaje de los alumnos. el control de la calidad puede conducir a la actualización de un programa viejo o al desarrollo de nuevos programas. lo que se podría cambiar y consensuar planes de acción. a la enseñanza del profesor. entendiendo el curriculum como un problema práctico. El control de calidad debe hacerse mediante el estímulo a aquellas escuelas en las que el programa se implementa en forma adecuada y reforzando aquellas en que la implementación ha sido defectuosa. como lo hace Lewy (1976: 36): "Un programa que se ha incorporado exitosamente dentro de un sistema educativo y ha tenido una calurosa acogida del profesorado.La evaluación para Stenhouse. caracteriza la evaluación del desarrollo del currículum como "realizar una especie de reflexión. nos permita analizar y valorar las líneas generales del proceso". Para prevenir esto. desde esta perspectiva. como estrategia de revisión y desarrollo de la mejora. debe mantenerse un permanente seguimiento del control de calidad del programa. además. partiendo de los principios de justificación y desarrollo de los proyectos curriculares que estemos llevando a cabo. Desde estas coordenadas se habla de un control de calidad de un programa.

- . al tiempo que supone reivindicar una perspectiva dialógica del conocimiento primando el conocimiento local. por medio de procesos de revisión conjunta de su práctica diaria y de la propia acción educativa del centro en los espacios discursivos del trabajo colectivo. generar alternativas. coordinada y reflexivamente. Evaluación como y para la mejora: Inserta "en espiral" en el propio proceso de desarrollo se autorevisa colegiadamente lo conseguido para generar nuevos problemas o prioridades y líneas de acción. una vez definido el ámbito de mejora. 1. inscrita en un compromiso por la mejora. 2. modificados o ampliados. Para esto es necesario promover la capacidad del centro para ponerlo en práctica.procesual). se suelen utilizar un modelo flexible y contextual con estos procesos (Escudero. clarificar las necesidades llegando a un entendimiento y priorizar ámbitos concretos de mejora. en una búsqueda colegiada de soluciones. 1989). se compone y está relacionada con otros componentes. parte por reconocer/capacitar al Centro para hacer su propia evaluación. se utiliza un modelo de "resolución de problemas" en que se genera desde dentro consenso para mejorar las dimensiones organizativas y didácticas del trabajo escolar. frente a producido desde "fuera" por expertos evaluadores financiados por la Administración. etc.Autodiagnóstico: Identificación y análisis de necesidades: Revisar y valorar la realidad actual del centro (logros. entraríamos en la elaboración conjunta de un plan de desarrollo de la escuela y. La autoevaluación institucional. más que el control de resultados. sino un proceso dinámico de decisión y revisión en torno a cómo vamos a abordar los problemas. y emprender acciones de mejora en aquellos aspectos que se consideren prioritarios. Se trata de revisar y diagnosticar el estado actual del Centro y su funcionamiento. de respetar la profesionalidad del profesor. por parte del grupo de profesores. ir haciendo un balance permanente para ver si los cambios deben ser mantenido. que´efectos está teniendo.- 4. La evaluación del desarrollo curricular no es un apartado final ni un procedimiento formal o burocrático. En último extremo la autoevaluación se institucionaliza cuando un centro se acerca a una "comunidad de aprendizaje". como ejes sobre los que articular la mejora escolar. rendición de cuentas o fiscalización del funcionamiento del Centro (evaluación externa o sumativa).- 3. sino revisión permanente. problemas). No obstante la autoevaluación institucional del centro escolar. generando conocimiento desde la propia práctica en deliberación con los compañeros. autodiagnosticar los elementos disfuncionales y necesidades como paso previo para la mejora escolar. De este modo la finalidad y sentido en la autorevisión escolar no es primariamente evaluar la consecución de los objetivos prefijados encontrándose en los resultados normalmente rendimientos académicos de los alumnos sino. Desarrollo o puesta en práctica: Analizar. en que aspectos conviene corregir. o un a"escuela en desarrollo" o una "escuela evaluativa". actitud y competencia para aprender del contexto de trabajo. para rectificar o modificar las líneas de trabajo planteadas y para reflexionar sobre ellas. Planificación para la acción y búsqueda de alternativas y recursos: En un segundo momento. entre otros. más preferentemente. No se debe entender como algo puntual o formalista. como alternativa al profesionalismo de expertos externo para evaluar la realidad escolar. como ejemplifica la siguiente figura. su capacidad para resolver colegiadamente los problemas y de tomar la reflexión y revisión de la práctica. Holly y Hopkins (1988). Partiendo de una relación de compromiso institucional por la mejora de la educación. 1992b. Holly y Southworth. como han puesto de manifiesto. Esto significa situar al profesorado con la disposición. previendo los recursos necesarios. necesidades. qué va sucediendo en la práctica con los acuerdos tomados.

2. b) c) A su vez. en sus primeras formulaciones. Cuál es el estado actual del cambio en la práctica en un tiempo dado. de los procesos de cambio. 3. o basadas principalmente en el sujeto/profesor como individuo: P. sino también qué otras consecuencias (no planificadas) ha tenido la innovación. (por lo que es preciso) recurrir a la evaluación curricular y de programas para inferir modelos. y Evaluación a largo plazo. dependientes cada una de diferentes perspectivas sobre el cambio educativo: 1.- En sentido general los modelos y técnicas de evaluación de programas son trasladables a la evaluación de las innovaciones.Los factores que han afectado a la implementación. Como señala Fullan (1985c: 1212): "La mayoría de la literatura del campo no trata investigaciones que examinen las relaciones entre proceso de implementación y resultados. como ha especificado Sttuflebeam en su modelo CIPP: a) Evaluación durante el proceso de planificación del curriculum.. estrategias. Estrategias basadas en la realidad institucional de los centros escolares: p. Evaluación durante el proceso de implementación. pero los estudios de investigación de estas relaciones están en las primeras etapas de desarrollo y plantean algunas dificultades intrínsecas". sitúa estos tres componentes en la evaluación de una innovación curricular: 1. debe suponer. como proceso de investigación.2. No obstante. .Fases en la autorevisión del centro escolar. al menos. Fullan (1985c:1212). como el propio proceso de planificación.. actitudes capacidad organizativa y otros resultados. La evaluación tanto del curriculum como de la innovación curricular. forma parte de todo proceso de desarrollo curricular innovador. y El impacto de la implementación en el aprendizaje de los alumnos. exista tan poco referido a la evaluación de innovaciones. desde una perspectiva procesual. el CBAM. Casi la totalidad de los estudios examinados aisladamente uno u otro. como dice De la Torre (1992: 953): "Resulta un tanto sorprendente que siendo tan amplia la literatura disponible sobre evaluación educativa y evaluación de programas. RBE o DO. se pueden distinguir diferentes estrategias para llevar a cabo la evaluación. como hicieron en este apartado González y Escudero (1987: 143-160).Estrategias de origen tecnológico para ver el grado de implementación y facilitar el desarrollo. tanto la adecuación/validez del "prototipo de diseño curricular".e. y el consecuente apoyo posterior.- Desde una perspectiva de proceso no sólo se debe examinar el desarrollo curricular a la luz de los objetivos de la innovación.e. LA EVALUACIÓN EN LAS INNOVACIONES CURRICULARES En sentido amplio la evaluación del curriculum. recursos e instrumentos".

vuelven a crear en algún otro punto del sistema educativo el mismo desequilibrio que pretendían corregir" (Unesco.. El CBAM suele usar un cuestionario (SOCQ) sobre los estadios/niveles de interés/implicación para obtener el perfil individual de las preocupaciones dominantes en la adopción y desarrollo de la innovación. completados por la observación directa. Además de la adopción en una innovación.ORIENTACIÓN 0. al determinar los "niveles de uso de una innovación". cualitativos. complementado por entrevistas y estudios longitudinales. Por eso mismo los diferencia en tres niveles (no uso. diferenciando entre usuario y no usuario en la innovación.. es necesario evaluar cómo está siendo desarrollada en las aulas. 1981:21). Intenta colaborar/coordinar activamente con otros el uso de la innovación. observando la práctica docente de los profesores NIVELES DE USO USUARIOS VI..B REFINAMIENTO IV. Desde esta perspectiva procesual es muy importante incluir en el diseño de la evaluación los factores que han condicionado y explican el desarrollo de la innovación. Junto a los anteriores elementos. Y es que "ciertas reformas no producen efectos. y con ello como una estrategia para facilitar el desarrollo y gestión del cambio en los centros educativos. preparación). 1987). El modelo CBAM parte. Los niveles de interés permiten analizar la dimensión personal y afectiva del proceso de innovación.A RUTINA III.. Pobre coordinación.. según el grado de implementación.NO USUARIO Buscar información No conoce. para lo que es necesario determinar los niveles de uso de la innovación. El modelo CBAM ("Concers Based Adoption Model") ha sido uno de los que específicamente ha pretendido convertirse en un modelo de evaluación del desarrollo de las innovaciones (Hord. por medio de un conjunto de indicadores (conductuales) de cada uno de los siete niveles de uso.USO MECÁNICO II. orientación. el CBAM emplea las "configuraciones de la . Evalúa impacto e introduce cambios para mejorarlo o potenciar sus posibilidades No introduce casi cambios. otras provocan efectos inesperados o incluso opuestos a las intenciones iniciales y otras. Tener en cuenta estos últimos significa partir de las actitudes y conductas previas para una posterior adopción. Disposiciones favorables para utilizarla IV.. por su propia dinámica.PREPARACIÓN NO USUARIOS I.. entonces.. no actúa Niveles de uso de la innovación.INTEGRACIÓN INDICADORES Busca alternativas/opciones más efectivas. tiene establecida una rutina de uso. que permitan describir qué cambios introducidos en la práctica han resultado exitosos. El comienzo del desarrollo del modelo presentado discrimina cinco tipos de usuarios.RENOVACIÓN V.Desde esta misma perspectiva se emplean también procedimientos abiertos. Cambios menores para facilitar el uso.

Esto supone elaborar un perfil del usuario que sirva para medir las prácticas reales de los profesores en cada dimensión curricular. 2.. EVALUACIÓN DE PROGRAMAS . metas y objetivos. El problema para evaluar con este modelo. e irse acercando a una "plena" implementación.Diseñar procedimientos para facilitar la disponibilidad de recursos y materiales curriculares que faciliten el desarrollo e implementación del cambio.Procedimientos para superar la carencia de conocimientos y destrezas que necesita el profesorado para desarrollar plenamente la innovación. contenidos y estrategias.2.Procedimientos para superar la ineficacia de estructuras organizativas y de control. Por tanto además de las posibilidades del CBAM como diagnóstico. aplicado en esta fase.. Un perfil preciso y definido de la innovación nos permite establecer. medios y recursos. plantea una "estrategia técnica atenuada" de evaluación. Revisar lo que se está haciendo en la práctica y el perfil o alcance de lo que plantea el modelo.Diagnóstico de la situación: Se trata de identificar el perfil de la innovación para saber las metas necesarias para la implementación del curriculum propuesto. puede utilizarse con fines evaluativos. podría identificar si las conductas del profesor en las distintas dimensiones de la innovación curricular han tenido cambios. como ya señalaba.1. es que la mayoría de propuestas de innovación oficial carecen de dicho perfil. Leithwood y Montgomery (1980). materiales organización y estructuras) necesarias para superarlos. La evaluación diagnóstica del nivel de uso de una innovación permite determinar qué intervenciones (cuarto componente del modelo) son mejores por parte de los agentes de cambio.1. Así como el "perfil" de la innovación (presupuestos y asunciones básicas..2. así como el grado de desarrollo de la innovación. 3.Evaluación: Detectar y valorar en qué medida se han ido superando los obstáculos identificados y se han realizado las metas del perfil de la innovación. 1.) como lo ha percibido e interpretado el cambio por parte de los usuarios y las realizaciones que la innovación tiene en la práctica.). con las siguientes fases y procesos: 1.3. en coincidencia en parte con el modelo CBAM y con un enfoque del cambio como resolución de problemas (Leithwood. 1986). 2. Una evaluación formativa irá en la primera dirección.Identificación de obstáculos:Detectados los aspectos "discrepantes".Revisión de la discrepancia de la innovación. por tener un amplio grado de "indeterminación curricular". necesarios para poder realizar una evaluación de la innovación en la práctica.innovación" (I. 1.Aplicación: Acciones dirigidas a superar los obstáculos. Si no hubiese existido progreso. se puede entrar en un análisis de los obstáculos y los apoyos (conocimientos y destrezas. etc.. elaborando un plan de formación del profesorado. Según señalan Leithwood y Montgomery (1980) habría que llevar tres tipos de tareas: 2. 2.C. habría que reiniciar el ciclo para diagnosticar la situación. Un segundo perfil del usuario. por observación comparada lo que está pasando en la práctica (configuración de la innovación).. con una orientación sumativa en la segunda.

Amplitud y selección de la información. U5. descriptiva.. F2..Información sistemática. ecléctica. 2) Ayudar en la toma de decisiones responsables en política. coste-beneficio y crítica. E5. Describir perspectivas para interpretar hallazgos.Por eso normalmente es necesario identificar los objetivos del programa y necesidades de los participantes. hay diferentes modalidades de evaluación de programas. Por su parte Talmage (1982:594) entiende que "tres propósitos aparecen frecuentemente en las definiciones de evaluación de programas: 1) Proporcionar juicios sobre el valor de un programa.Identificación de valores..Credibilidad del evaluador.. Reduciendo la desorganización mientras se obtiene información. No obstante.Procesamientos prácticos. en el llamado Joint Commitee on Standards for Educational Evaluation (1988).. b) contribuir a tomar decisiones acerca de la continuidad. d) obtener evidencias para ayudar a un programa . juzgar la relación coste-beneficio. distingue cinco: experimentalista.Claridad del informe.Documentación del programa. F3.. Que incluya preguntas pertinentes sobre el programa. se planifica como un proceso cíclico para valorar si el programa ha conseguido alcanzar los objetivos para los que se puso en marcha o ha dado lugar a otros efectos o resultados (positivo o no).Derechos de los sujetos. E6. expansión o certificación. 1994).La evaluación debe servir a las necesidades de los participantes.. consiste en establecer criterios que sirvan para juzgar la propia labor evaluativa del programa.Planifica la evaluación con antelación a las diferentes posiciones de los grupos de interés. que puede servir de guía general del tema UTILIDAD U1.. entonces. La evaluación de un programa.Orientación del servicio. Respetar la dignidad en los participantes. U4. P3. la evaluación de programas ha estado muy orientada a maximizar la eficiencia y eficacia de las acciones del programa. sociales y otros"..Descripción de propósitos y procedimientos. Talmage (1982).. f) contribuir a comprender procesos básicos psicológicos. E7... De los puntos fuertes y débiles del EXACTITUD E1. 3) servir para una función política.Evaluación completa y clara. Información importante del programa FACTIBILIDAD F1. P4. e) obtener evidencias para oponerse a un programa. U3. Se debe revisar . E4.Interacciones humanas. que posteriormente se han reeditado (The Joint Commitee on Standards for Educational Evaluation & Sanders.Viabilidad política... y ver qué objetivos se han alcanzado. La información debe tener valor suficiente.Información fiable.Identificación de la audiencia. c) contribuir a tomar decisiones sobre las modificaciones de los programas. P5. En los últimos tiempos. establecer unos indicadores.. U2. El evaluador debe ser competente. Se deben respetar derechos de sujetos. PROPIEDAD P1. Clara y precisa. para juzgar su adecuación. se ha destacado la función de proporcionar información y elementos de juicio que contribuyan a establecer un cierto debate social sobre las acciones educativas..Información válida. recoger datos relativos a las variables o indicadores seleccionados.Fuentes confiables de información. Los principios comúnmente aceptados han sido fijados por un colectivo de investigadores.. sin embargo. 1987)...Acuerdos formales. Identificación de personas afectadas por la evaluación. E2.Análisis del contexto. o responder a las demandas del cliente.Eficacia del coste. por ejemplo. Al igual que la evaluación en general. P2.. Las obligaciones deben constar por escrito. E3. juzgando el valor o el mérito en su consecución (Sttuflebeam y Shinkfield.Según Worthen (1989) los propósitos de la evaluación de programas son los siguientes "a) contribuir a tomar decisiones sobre la implantación de un programa. conforme aparecen en el siguiente cuadro. Pero el papel clave que desempeñan los criterios y normas de valor en la evaluación de un programa.

P8.. Realizaremos un estudio de las diferentes técnicas cualitativas y cuantitativas en la evaluación TÉCNICAS CUALITATIVAS. sistemáticamente. las nuevas perspectivas no sustituyen a las anteriores sino que las complementan..Informe imparcial E12. Son informes longitudinales y descriptivos. Son aquellas que describen hechos.Planificar la evaluación para que penetre en los usuarios.Impacto de la evaluación. Es por lo que partimos de las técnicas utilizadas por Kemmis y McTaggart (1992) en la investigación-acción. que se usan tanto en enfoques interpretativos como críticos. Los hallazgos se deben difundir entre los usuarios. LAS TÉCNICAS EN LA EVALUACIÓN EN EL CURRICULUM.. b) Notas de campo. Son muy importantes los hechos y contextos en relación a los incidentes relativos a un problema determinado.U6.. impresiones e interpretaciones subjetivas de la realidad. P7. Difusión y diseminación de los hallazgos. Por tanto se trata de técnicas de evaluación cualitativa...Análisis de la información cualitativa E10. en principio.Conflicto de interés.. a) Registros anecdóticos. Son técnicas de evaluación continua. .Revelación de hallazgos. Las Normas de Evaluación de Programas (The Joint Committee on Standards For Evaluation & Sanders.Responsabilidad fiscal. U7. Hemos seguido.. programa. con una finalidad formativa. E9. Realizado con apertura y honradez. E8. compleja que tiende a un mayor realismo. la línea de Kemmis y McTaggart (1992). Ory (1991) comenta que el aumento de estas técnicas de evaluación se debe a la ampliación del campo de la evaluación. de lo que un alumno o grupo de alumnos dicen o hacen en determinadas situaciones a lo largo de un período de tiempo.Metaevaluación.Conclusiones justificadas.Análisis de la información cuantitativa. P6. de las audiencias y de los propósitos de la misma evaluación.Oportunidad y difusión informe.. Metodologicamente hoy se vive una situación plural. (2) la segunda postura más actual entiende la evaluación como el conocimiento empírico del mérito o valor de las actividades y objetivos de un programa propuesto". 1994).. en la cual se refleja la propia realidad. Como señala Tejedor y otros (1993) "los cambios habidos en estos últimos años en las dos posturas básicas son los siguientes: (1) la postura tradicional entendía la evaluación como el empleo de métodos científicos para medir el desarrollo y los resultados de programas que luego se utilizaban para la toma de decisiones. E11.Justificación de los gastos en recursos. aunque con finalidades diferentes.

Se registran todos los comportamientos observados para comprender la secuencia de los mismos. historias de vida. programas y proyectos educativos del centro.. que a la vez proporciona oportunidades de reflexión sobre esta acción y nuevos planes de acción consecutivos. expresando la forma intelectual de vivir la experiencia.). reflexiones.c) Descripción ecológica del comportamiento. trabajos de los estudiantes. interpretaciones. Es un vehículo para facilitar la relación de apoyo y de crítica. debe servir para estimular la reflexión y la discusión colegiada. Su validez en investigación cualitativa depende del contexto en el que se utilice. autobiografías. cartas. Es un medio de autonomía a través del desarrollo de la confianza en la utilización de la palabra escrita como guía para la acción. d) Análisis de documentos. informaciones del tablón de anuncios. integrando en la medida de lo posible a los estudiantes con objetivo de introducirles y hacerles conscientes de los procesos de autoevaluación y contribuir en procesos de autoreflexión. como biografías. Los diarios en el contexto de documentos personales. Utilizado en un contexto evaluativo contribuye a desarrollar el proceso de autorreflexión. cuadro de horario. impresiones y sentimientos sobre situaciones docentes. observaciones. por el potencial que ofrece: * * * Es un mecanismo para explorar las prácticas. por ello ve necesaria la redacción de un diario en el contexto del Área Remota de Educación del Profesorado (RATE). planificar. etc. A pesar de ser considerado como un documento para la reflexión personal sobre el desarrollo profesional. la de reflexionar sobre las propias prácticas docentes. Se utilizan entre otros documentos importantes cartas. White (1985) considera. archivos. circulares. es un documento personal que se escribe para consignar pensamientos. Para Schratz (1992). . en el contexto de un proyecto de investigaciónacción de profesores universitarios. pero también refleja otros aspectos personales integrados en la misma. Es un componente dentro de un repertorio de métodos de evaluación. elabore y su finalidad y forma de analizarlo. el diario.. planificaciones de los profesores. folletos. informes escolares. pudiendo ser potentes instrumentos de autocontrol del proceso de enseñanza (diario de profesores) o de aprendizaje (diario de alumnos y profesores). revistas o periódicos escolares. como una exigencia profesional. hipótesis. con el objetivo de analizar el funcionamiento interno del centro o de una parte del mismo. poner en práctica los planes y mantener registros que ayuden a valorar las prácticas. son consideradas como importantes por Zabalza (1991) para la investigación educativa y para analizar el pensamiento y los dilemas que se le presentan al profesor en la práctica. sentimientos.. e) Diarios Se trata de analizar los informes personales cuyo contenido puede ser muy variado (preocupaciones. * Según el autor se deben tener en cuenta los siguientes principios en la redacción de los diarios: . explicaciones.

para valorar la calidad de la enseñanza.66) distinguen cuatro tipos de reflexiones que deben constar en el diario de un proyecto de investigación-acción: 1. es una técnica de investigación y evaluación educativa. preguntas. Para Shulman (1992) el portafolio es un documento físico que recoge las preguntas de los profesores y las respuestas reflexivas que van dando. y profundizar en el conocimiento y valoración de las prácticas de enseñanza por el análisis documental y la entrevista sobre ello. sólo evalúa el progreso del estudiante. con fines formativos. y en el que se contiene variedad de información que consta en documentos.Sobre el cambio en la utilización del lenguaje y sobre un discurso más coherente en relación con la preocupación temática que se estudia. proyectos. Sobre los cambios en los modos de participación del grupo en el proceso de investigación-acción mismo. así como sobre los cambios que se vayan iniciando en la estructura organizativa formal. g) Cuadernos. Explica el uso de la carpeta de enseñanza para explicar tres campos: Cómo planifica y enseña el profesor una parte del currículum. La redacción del diario requiere una estructura y un ambiente de apoyo. el contenido. el conocimiento y la comprensión del profesor. 4. Además contiene la observación directa del profesor en sus clase. interrogantes. y las relaciones entre estudiantes y profesores. esta técnica. 1992). y cómo crea un ambiente que favorece la enseñanza. Por tanto.2. Kemmis y McTaggart (1992. que se está utilizando en la Universidad de Stanford (Shulman. Se reservaran momentos especiales en el horario para compartir los diarios. se reservarán para ser escritos ininterrumpida y silenciosamente Debe compartirse con otros participantes todo aquello que se escriba. Athanasses (1991) utiliza este medio en la evaluación de la enseñanza de la lectura y escritura. exámenes. tanto de uno mismo como de los otros. La carpeta de enseñanza. ya que considera que es una técnica que proporciona evidencia sobre el pensamiento y la práctica del profesor. Sobre los cambios en las relaciones sociales ente las personas integradas en su misma actividad. esto puede conseguirse estableciendo un enfoque previo al inicio de la redacción y procedimientos para el diálogo en el que se comparten los diarios.a) b) c) d) e) El diario debe ser realizado por todos los participantes implicados en el proceso. ensayos. pero también para que otros comprendan el significado desde el punto de vista de los sujetos. puede convertirse en un medio de evaluación colaborativa en cuanto que sirve para la reflexión del profesor. así como sus reflexiones.3. . Los momentos especiales del curso. y cómo se relaciona este proceso con otros existentes en el mimo centro educativo. autoevaluación del profesor. trabajos. Sobre el cambio en las prácticas educativas en su contexto. Se tienen en cuenta el contexto.p.- f) La carpeta de enseñanza.

. analizar. Para Schratz (1992). Son recopilaciones de diversos materiales con un fin determinado. Este procedimiento proporciona conocimiento sobre la comprensión de los estudiantes. y a su vez el profesor obtendría una visión más amplia de cada cuestión debido a estos comentarios subjetivos. y puede utilizarse para evaluar cierto aspectos e los procesos de enseñanza. i) Archivos. discutir.. organización.Es el registro de actividades en determinados tiempos. idear. y sirve para evaluar la comprensión como los sentimientos. la cual ayudará al profesor a juzgar posteriores pasos en el enfoque dado. Schratz habla de otras técnicas como la del "minuto de escritura". Dado que en la investigación de Schratz es muy importantes la comunicación y la evaluación en ambas direcciones. El problema de esta técnica es que ofrece dificultad en orden a estandarizar los resultados. sobre todo si es diferente de otros profesores. Sirve de evaluación. por ello sería buena la idea de que los estudiantes pudieran escribir una corta explicación del por qué han tomado determinada opción. de conocimiento y autoevaluación de la enseñanza. el cuestionario es una de las técnicas más usadas y sencilla utilizadas en evaluación. Se trata de una forma de comunicación.. creencias. la cual consiste en obtener. como base para la reflexión. reacciones. )Cuál es la cuestión fundamental que me queda en la mente al terminar la clase?. en las que cada estudiante añade a la pregunta su propia interpretación. de forma sencilla y escrita. Se componen de preguntas escritas. motivación.. sobre todo si se presentan resultados. h) Muestras de cuestiones tipo. Similar a un cuestionario abierto podemos encontrar el cuestionario de "completar frases". sin embargo brinda una información más rica de la experiencia individual.. una respuesta rápida e individual de algunos aspectos del proceso de enseñanza-aprendizaje. . Se tratan de fichas en las que se registra información referente a distintos tipo de temas: actividades. Sin embargo. en la que se pide a los estudiantes que respondan a dos preguntas: )Qué es lo más significativo que he aprendido hoy?. para elaborar informes diarios de cada tema.aprendizaje. Los estudiantes están muy motivados a dar sus propias opiniones. que exigen también respuestas escritas. opiniones y valores. Es un medio de control del cual no se debe abusar en detrimento de otras actividades que pueden ser más enriquecedoras como observar. Puede servir para obtener más información o apoyo de los estudiantes. Otra técnica es la del "feedback inminente". pensar. y que además pueden consignarse en alguno forma de representación escrita o no.. disciplina. y la valoración que se hace de ellos.Sirven. abiertas o cerradas. su debilidad se fundamenta en la limitación de las opciones para responder. imaginar. j) Cuestionarios. percibir. k) Entrevistas. se ha utilizado otra técnica denominada "carta abierta".

es decir. proponen categorizar los tipos de respuestas en válidas y erróneas. Por ello dan algunas reglas para ordenarlas. en la que un observador externo participa en la entrevista con fines evaluativos. recogiendo información sobre ciertos aspectos y problemas. ya que en todos los estudiantes. y son el punto de partida de las preguntas más útiles para averiguar la comprensión de los estudiantes. Gowin observó que la UVE de evaluación contradice la teoría de los estadios de Piaget. Otro tipo de entrevista es la que Schratz (1992) denomina "entrevista triangular". partir de la tarea que se está realizando. En la planificación de una entrevista hay que tener en cuenta los siguientes elementos: a) Selección del contenido. . y juicios de valor y trasferencia. el análisis de las entrevistas mediante la UVE. Novak y Gowin. según estos autores. fue el haber ideado los hechos y objetivos específicos que usaba en las entrevistas. cómo pueden activarse conceptos y estructuras para resolver problemas. para facilitar la organización de conceptos y ejemplos de una instrucción posterior. también ayudan a conocer las actitudes y valores de los estudiantes y los procedimientos que utilizan para resolver la tarea. b) Estructuración de las preguntas. Gowin (1988) propone otro sistema de categorías. relación. Los autores no aconsejan la pregunta arbitraria. de forma que se puede descubrir cómo funciona la mente del estudiante y qué teorías sostiene. Se debe averiguar previamente qué sabe el alumno sobre un tema o cuerpo de conocimiento determinado. proceder de lo fácil a lo difícil. y pedir explicaciones sobre lo que sucede. El problema de este procedimiento es el excesivo tiempo que hay que dedicarle. e) Evaluación de las entrevistas. una planificación cuidadosa de la entrevista. así como las preguntas que hacen posible observar las regularidades en las respuestas de los niños. incluidos los más pequeños. estructuradas y semiestructuradas. de las que se solicitan explicaciones. Este tipo de entrevista implica un mayor esfuerzo en la investigación evaluativa ya que se confrontan tres perspectivas. se graba. Se basa la entrevista en un mapa conceptual. planificadas pero no estructuradas. pero suele aportar información sobre problemas específicos o áreas de interés. Una de las aportaciones de Piaget. Apoyan a la tarea. cuál es su estructura. Basándose en la utilización que hizo Piaget de la entrevista para evaluar las capacidades cognitivas. Toda entrevista debería grabarse y analizarse mediante un sistema de categorías de conocimiento. Deben hacer referencia a cuestiones claves. y desde las preguntas amplias a las detalladas. La entrevista sirve para indagar qué conceptos han adquirido o poseen los estudiantes. y para analizar las categorías de respuestas se van consignando en la UVE. d) Ordenación de las preguntas. se puede encontrar todo tipo de respuestas que pertenecen a las distintas categorías del pensamiento. c) Selección de materiales auxiliares. sobre todo al comenzar.Las entrevistas pueden ser de varios tipos: no planificadas. Novak y Gowin (1988) enfatizan en la importancia de la entrevista como instrumento de evaluación del aprendizaje significativo. Posteriormente se entrevista al profesor y a los estudiantes.

que pueden poner de manifiesto . s) Algoritmos relacionales. Con este método se pretende averiguar qué individuos son apreciados o rechazados en un grupo. Pueden servir para formar grupos de trabajo. y después se relacionan mediante palabras de enlace. También se ha utilizado en el análisis del pensamiento del profesor. para así compartir significados que ayuden al crecimiento continuo personal y profesional. inputs y resultados.l) Métodos sociométricos. o de aspectos concretos. Kemmis y McTaggart. Sirven para registrar los datos de la observación. Por ello Kemmis y McTaggart consideran necesario un listado de interacciones para agilizar el análisis. ñ) Grabaciones en vídeo. comportamiento no verbal del estudiante y del profesor n) Grabaciones en audio. de clases grabadas o de reuniones. Facilita el registro de toda la clase. q) Análisis de metáforas Revelan ideas y definiciones de los problemas que subyacen a los programas. determinados productos. desarrollar actitudes sociales o mejorar las relaciones personales. Para crearlos se comienza por hacer declaraciones cortas de un problema para después centrar la atención sobre dos términos que representan un dilema. Técnica muy útil para la evaluación de los procesos de enseñanza-aprendizaje. o de parte. Schratz (1992) utiliza esta técnica para el análisis de la interacción entre profesor y estudiantes. Sin embargo sería útil la observación entre compañeros de forma regular. o) Fotografías y diapositivas. y sus interrelaciones. aspectos de la actividad de la clase. m) Inventarios y listados de interacciones. También sirven como referencia para entrevistas con los estudiantes. para analizarla posteriormente. señalan cuatro categorías de comportamientos que pueden registrarse: comportamiento verbal del estudiante y del profesor. Útiles para registrar "incidentes críticos". r) Mapas conceptuales. Se representa un visión global del programas en sus contexto con los procesos. Su problema es el largo tiempo que hay que dedicar para una transcripción completa. p) Observación de clases. Son útiles en reuniones de trabajo y para la interacción con el alumno en clase o en grupos. y quienes se aprecian o rechazan mutuamente. Schratz (1992) comenta que la observación directa produces ansiedad en los profesores.

Para ello se encuadran las descripciones del programa hechas por distintas personas: director. a) b) c) Pruebas de ensayo. Tienen un papel motivacional. Test de rendimiento de los estudiantes. al mismo tiempo que comunica sus expectativas a los alumnos al indicarles cuáles son los aspectos fundamentales de la materia y que forma puede tener el examen. cuantitativas. alumnos. Pruebas objetivas de respuesta breve. Se basan en la comprobación del aprendizaje de contenidos disciplinares. A través de ellas se puede expresar el conocimiento obtenido. clarifica sus objetivos. Pruebas orales. Requieren mucho tiempo y un clima socioafectivo adecuada para que puedan suponer una situación de pensamiento y de trabajo intelectual adecuado. profesores. t) Recuadros de frases Se usan para comparar las visiones y descubrir los aspectos críticos del programa. lo cual le sirve de autoevaluación. Se relacionan con la evaluación periódica y sumativa (Rosales. Ausbel (1983) consideraba que los exámenes tienen algunos valores positivos: a) A la vez que el profesor piensa qué debe ser objeto de examen. c) * Características que deben reunir las pruebas. o igualdad y complementariedad entre los dos conceptos. Proporciona conocimiento de su tarea al profesor. Los exámenes suponen una importante experiencia de aprendizaje ya que obliga a revisar. b) Se comprueba el aprendizaje del alumno mediante el diálogo con el profesor. constar logros. No todos los exámenes se construyen sobre pruebas objetivas. 1990). etc. TÉCNICAS CUANTITATIVAS. de producción de determinadas obras o experimentos de laboratorio. Pruebas formales de elaboración de respuestas. Los estudiante aprenden a evaluar sus propios resultados a través de ellos. así como la expresividad y originalidad del alumno. que tienen lugar en determinados momentos del proceso de enseñanza/aprendizaje. aclara y consultar los conocimientos antes. La prueba debe estar . Sirven para diagnosticar lagunas. sin embargo existe una tendencia a la cuantificación. para poder rendir y expresar el aprendizaje. a) Los exámenes escritos. durante y después. En cuanto a la elaboración las cuestiones deben ser representativas del contenido que se pretende evaluar. b) c) d) e) Tipos de pruebas escritas.la primacía de unos elementos frente a otros.

Criterios generales sobre evaluación de los aprendizajes y promoción de los alumnos.adecuadamente elegida a los fines planteados y la formulación debe ser clara. La evaluación del aprendizaje de los alumnos se convierte en autorregulación del proceso de enseñanza. y en criterio de si es necesario reformular el diseño y programación realizado. para tomar decisiones sobre la planificación y el desarrollo del currículum en los procesos siguientes. La finalidad de la evaluación. En cuanto a la medición. 1990c). en virtud de su desarrollo real y de su adecuación a las características específicas y las necesidades educativas de los alumnos y alumnas". el juicio de valor que emitimos sobre la calificación otorgada cuando se analizan los resultados y los procesos. - .E. contenidos y criterios de evaluación de las distintas áreas.G. es decir. * En cuanto a la aplicación. evaluarán el Proyecto Curricular y las programaciones de aula emprendidos. Tyleriano :"¿Qué. adecuar el diseño y desarrollo de la programación. del proceso de aprendizaje de los alumnos. con una cierta novedad. * * LA EVALUACIÓN DEL CURRICULUM EN LA REFORMA Algunas de las principales funciones y sentidos de la evaluación fueron ya recogidos en la L. Por último se produce la evaluación. En la medida que el lugar y la función de la evaluación en el propio Diseño Curricular sigue siendo el mismo (Escudero. Por eso se plantea. y del Proyecto curricular. Así las órdenes de evaluación especifican que "los profesores/as evaluarán los procesos de enseñanza y su propia práctica docente en relación con el desarrollo del currículo. la relación entre la evaluación del proceso de aprendizaje y la evaluación del proceso de enseñanza. cómo y cuando evaluar?. se trata de comparar lo logrado con lo pretendido. de modo que permita tomar las decisiones para. de 1970. La corrección debe tener en cuenta qué aspectos y contenidos deben puntuarse y con qué prioridad. Su aplicación puede tomar mediadas sobre la promoción de un alumno. Asimismo. La evaluación de la enseñanza se debe realizar en un triple nivel: evaluación del proceso de enseñanza y práctica docente. después de un período de indecisión sobre qué aspectos formales debían incluir los Proyectos curriculares de Etapa.1992b) "información que permita adecuar el proceso de enseñanza al progreso real en la construcción de aprendizajes de los alumnos". es obtener (MEC. o con fines formativos. es importante reducir el nivel de ansiedad de los alumnos a través de una información previa sobre el conocimientos de que la prueba va a consistir en aspectos importantes a los que ha dedicado tiempo y tareas suficientes. En este sentido Zabalza (1987) habla de la influencia del contexto de aprendizaje que juega en la asociación de preguntas y respuestas. que deberán incluir las siguientes decisiones relativas a la evaluación: La distribución de los objetivos. los datos y las condiciones en las que se han producido. Los Reglamentos Orgánicos de los Centros (1993) determinan. Por lo que es dificil hacer una evaluación que permita juzgar si se han alcanzado los objetivos deseados". además de reconducir el proceso de aprendizaje.

del Ciclo respectivo o en cada unidad didáctica. compromiso.- Criterios para evaluar y. de acuerdo con lo señalado en este Proyecto Docente. etc. no previstas en el curriculum oficial.. Congruencia con los materiales curriculares ("libros de texto") utilizados. La secuenciación de contenidos interciclos e intraciclos se debe efectuar al triple nivel de Proyecto Curricular de Etapa. Elaborada una determinada distribución y secuenciación de los contenidos del curriculo. dependientes de la perspectiva adoptada.Perspectiva de "fidelidad": * Grado de concordancia/fidelidad con los criterios. Grado en que está completa la "cubierta curricular" externa del currículo oficial: p. qué núcleos de conocimientos humanos deben formar parte del currículo escolar de una determinada etapa/ciclo.e. en el apartado dedicado a los contenidos curriculares. distribución y secuenciación por ciclos. En relación con la evaluación del contenido curricular en los Proyectos Curriculares. están cubiertos aparentemente todos los bloques temáticos. si dicha selección debe basarse en los corpus disciplinares o incluir contenidos de otras fuentes necesarios para la vida cotidiana. generando un currículo "propio". revisar los procesos de enseñanza y la práctica docente de los profesores.Perspectivas de proceso. tanto en la selección. a nivel de diseño curricular. Grado en que ha empleado creativamente el potencial curricular del curriculo básico. desarrollo o adaptación: * Grado de adaptación/variación de las prescripciones oficiales para lograr una adaptación mutua a la situación del contexto local del Centro. me parece. 2) Organización y secuenciación. se plantean dos cuestiones principales: 1) Selección de contenidos. enunciados de tópicos. prescrito oficialmente o no.. se pueden analizar los criterios/indicadores para juzgar/evaluar la adecuación del "prototipo de diseño curricular" realizado. * * . una vez que se ha llevado a cabo una primera implementación y desarrollo práctico. En la evaluación del Proyecto Curricular se especifica que se evaluará "la validez de la secuenciación de los objetivos y contenidos por ciclos". * * 2. desde una triple perspectiva de criterios-guía: 1. LA EVALUACIÓN DE LOS DOCUMENTOS INSTITUCIONALES EN EL CENTRO. en su caso. para sacar nuevas posibilidades. son dimensiones del problema de la selección del contenido curricular. establecidos oficialmente para la elaboración de proyectos curriculares de centro. distribución y equilibrio que se ha realizado de los contenidos. orientaciones. acuerdo/consenso por el que se ha llegado al documento o propuesta. Proceso de dinámica de trabajo conjunto. Aspectos como la determinación del contenido.

A modo de ejemplo. al margen del proceso y realidad interna del Centro a que responda el Proyecto curricular. deberá abordar. MEC. La evaluación del proceso de enseñanza y de la práctica docente. delimitación de las ideas eje. en las diferentes áreas o materias. por áreas o materias. El Proyecto Curricular de Etapa/Centro. coherencia con la lógica de las disciplinas a las que pertenecen los contenidos de aprendizaje. * Es coherente la secuenciación vertical de contenidos. marcados legalmente como obligatorios. la consideración de los siguientes aspectos: a) La organización del Centro y el aprovechamiento de los recursos. continuidad y progresión. etc. elección de un tipo de contenido como eje vertebrador de la secuencia. ser empleados complementariamente indistintamente desde una perspectiva de fidelidad o de desarrollo. 1992. Estos criterios son: Pertinencia con el desarrollo evolutivo y los aprendizajes previos del alumnado. creo. Del Carmen. los criterios externos uniformados para evaluar el Proyecto curricular de Etapa se pueden ver los indicadores de evaluación que aparecen en la siguiente tabla. * Recoge suficientes opciones de contenido. Esta evaluación. * Secuencia los contenidos. * Tiene en cuenta los contenidos que se trabajarán en la etapa posterior.. INDICADORES DE EVALUACIÓN DEL CONTENIDO DEL PCC *Incluye los contenidos. equilibrio. deberá valorar todos y cada uno de los elementos que componen el propio Proyecto curricular. según las orientaciones y normativa oficial. significativos. * Adecua los contenidos a las peculiaridades del alumnado. 1991: 20-23. para que pueda ser un instrumento válido para la práctica pedagógica. por áreas o materiales. para la elección por parte del alumnado VALORACIÓN 12345 12345 12345 12345 12345 12345 12345 12345 12345 12345 Indicadores de Evaluación del contenido en el Proyecto Curricular del Centro (Casanova. 1993).) son una mezcla de estos dos componentes: Teoría de la Elaboración y Psicología Constructivista. * Adecua los contenidos a las características del entorno. interrelación y presencia de temas transversales. * Tiene un cuenta los contenidos trabajados en la etapa anterior. así como la . 1992b: 36-41. en su caso. de manera que resultan: funcionales. b) El carácter de las relaciones entre profesores y alumnos y entre los mismos profesores.Perspectiva "oficialista": * Los criterios de secuenciación de contenidos aducidos repetidamente en la literatura oficial (Del Carmen y Zabala. Pueden. para cada ciclo o curso de la etapa. * Incluye. exige su evaluación por parte del Claustro de profesores. * Es coherente la secuenciación horizontal de contenidos de las diferentes áreas o materias.3. los contenidos transversales. 1991: 45-50. además del análisis específicos del Proyecto Curricular de Etapa. al menos. aplicables a la vida diaria y útiles. resulta problemático aplicar en una lógica supervisora un conjunto de indicadores externos. En cualquier caso.

conceptos. además de señalar diversos campos de actuación en la enseñanza. en los criterios de evaluación referidos a los contenidos comunes válidos de una disciplina. EVALUACIÓN INTEGRADA O DIFERENCIAL La evaluación integrada se debe entender con un doble sentido: 1) No separa aspectos conceptuales de los actitudinales. Nos fijaremos. Por ahora. los procedimientos y las actitudes. el contenido curricular operativo para los alumnos es lo que es evaluado en los exámenes. se convierte en "institución creadora de conocimientos" (Kvale. 1992). 2) Que el proceso de evaluación esté integrado en el propio proceso de enseñanza-aprendizaje. éstas prácticamente desaparecen en su dimensión sustantiva. que "las estrategias didácticas y los procesos psicológicos mediante los cuales se enseñan y se aprenden los hechos. aquí nos referimos sólo al primer sentido. más o menos mensurables. EVALUACIÓN DEL PROCESO DE APRENDIZAJE Los "criterios de evaluación" de Enseñanzas mínimas se refieren mayoritariamente a contenidos conceptuales. que interacciona y suele ser dependiente con los contenidos planificados y trabajados en el aula. en esta segunda dimensión . prescriptivo. Por ello los "criterios de evaluación" se convierten en objetivos terminales en la práctica. por la evaluación que se efectúa del aprendizaje de los alumnos. La distinción entre tres tipos de contenidos quiere indicar. de perspectivas/juicios de los diferentes profesores. y esa será la lectura que hará el profesorado (y las propias editoriales). definiendo éstos el conocimiento válido en un campo disciplinar. que deja poco margen a las potenciales interpretaciones y prácticas docentes divergentes del profesorado. actitudes y valores". madres o tutores legales. valores y normas presentan algunas diferencias sustanciales entre sí. c) La coordinación entre los órganos y personas responsables en el Centro de la planificación y desarrollo de la práctica docente: Equipo Directivo. Con lo que hay una contradicción entre lo proclama de novedad o la Reforma que era hacer explícito el currículo oculto por medio de la dimensión de "normas. Departamentos y tutores d) La regularidad y claridad de la relación con los padres. siendo juzgada toda la labor educativa de modo integrado. 1992:17). algunos a procedimientos y casi ninguno a contenidos actitudinales. lo que convierte la propuesta inicial de un currículo abierto y flexible de facto en currículo semicerrado. EVALUACIÓN DE LOS CONTENIDOS La evaluación del grado de aprendizaje de contenidos curriculares impartidos. con un sentido formativo o continuo. y 3) la labor de evaluación es conjunta del equipo de profesores: integración de juicios. en las actitudes no son fáciles de expresar. tal vez porque en su propósito de especificar criterios. Equipo Técnico de Coordinación Pedagógica. y cuando se intentan determinar los criterios de evaluación. Claustro de Profesores. . En analogía con la definición operacional de inteligencia (lo que es medido en los test).convivencia de entre los alumnos. como objetivos que los alumnos tendrán que haber cubierto al final del proceso. al igual que sucede con las estrategias e instrumentos de evaluación más apropiados en cada caso" (Coll y otros. para uniformarlas en función de esos mínimo.

exposición. valores y normas * Componente afectivo. son las cualidades. valores y principios intrínsecos al propio proceso educativo.O. pretende ser relevante didácticamente por implicar distintos procesos de aprendizaje. Integración de acciones. y no los resultados objetivos extrínsecos que se consiguen. contextualización. cognitivo y comportamental. apreciar. La Orden del MEC de 30 de octubre de 1992 ("B. al mismo nivel que los restantes. Interpretando de modo extremo lo anterior. etc. puestos de manifiesto en la misma forma de llevar a cabo la acción. * Conocimiento y utilización (funcionalidad. preferir. no debe significar en ningún caso que cada tipo de contenido tenga una evaluación diferenciada. Tipo de aprendizaje * Hechos: memorísticos. conceptual y de principios. uso y aplicación) de un conjunto de habilidades y estrategias. los que hacen "educativa" una actividad. con estos presupuestos referirnos específicamente a cada tipo de contenido: 1.Evaluación de contenidos conceptuales: La distinción entre conocimiento factual. experimentar. tipo de aprendizaje y formas de evaluación. etc. valorar. explicar. la "apreciación sobre el grado de asimilación de los contenidos de las diferentes áreas o materias". ha diferenciado la evaluación de la adquisición de cada tipo de contenido en cinco grados para cada área. * Predisposición a actuar de una determinada forma socialmente deseable. etc. Clases de contenidos. etc. * Observación sistemática en sus diversas variantes y situaciones. analizar. reproductivo y aislado. generalización. etc. demostrar. * Uso y aplicación práctica en situaciones apropiadas. Podemos. entre otros elementos. no obstante. y los criterios para juzgar el nivel de aprendizaje alcanzado puede ser distinto. identificación. aceptar. categorización. enumerar. manejar. resumir. relación e integración. construir. especifica que el Informe de Evaluación Individualizado contendrá. PROCEDIMIENTOS: Distintas acciones y estrategias para resolver objetivos o alcanzar metas.Que los instrumentos y procesos de evaluación tengan que ser diferentes en cada tipo de contenido. describir. ACTITUDINAL: Actitudes. tolerar.E" de 11 de noviembre). VALORAR: Comportarse. * Conceptos: significativo. respetar. * Definición. SABER HACER: Elaborar. sobre los elementos básicos de los informes de evaluación. tanto en Primaria como en Secundaria Obligatoria. reglas. Criterios y Formas de evaluación SABER: Conocer. EVALUACIÓN DE LOS CONTENIDOS Como señalo Stenhouse. Así haber situado formalmente el campo de las actitudes y valores como contenidos de toda enseñanza. destrezas o hábitos a las tareas o situaciones particulares. . relacionar. * Principios: Comprensión de relaciones entre conceptos o hechos. métodos. como ejemplo de lo que no debe hacerse. Clase de contenido CONCEPTUAL: Hechos conceptos y principios. planificar. debiera significar que han de ser evaluados de manera global e integrada. aplicar. sentir. recordar.

que emitirán los profesores al término de cada curso académico en Primera y Secundaria Obligatoria. El plan para evaluar el proceso de enseñanza-aprendizaje se encomienda a un Equipo técnico la comisión Coordinación Pedagógica. son inferidas a partir de acciones manifiestas. Esta evaluación debe efectuarse al comienzo de cada ciclo y al finalizar. aparte de los destinados a las familias. cuya finalidad es servir de orientación para evaluación inicial del primer ciclo de educación primaria (en el caso de Infantil) o de los ciclos o etapas siguientes. de manera que se garantice la continuidad del proceso de aprendizaje. Pero también el Claustro o el Consejo Escolar de Centro pueden tener la iniciativa de poner en marcha programas de evaluación sobre el funcionamiento del Centro educativo.- LA DIFUSIÓN DE LA EVALUACIÓN: TIPOS DE INFORMES Se prescribe la realización de un Informe Anual y de un Informe de Evaluación Individualizado (IEI). el ambiente de aula y clase y la propia actuación personal. procedimentales y actitudinales de las diferentes áreas o materias". diferente de abstracción. EVALUACIÓN DE LOS PROCESOS DE ENSEÑANZA-APRENDIZAJE Como otro ámbito de la evaluación se pretende que los maestros y profesoras evalúen su propia práctica docente. con que legitimidad) podríamos entrar en qué métodos o técnicas nos podrían ser útiles en este sentido. 2.estrategias de enseñanza y modos de evaluación. FUTURO DE LA EVALUACIÓN. aunque el "saber cómo" suele presuponer el "saber que". Evaluación de los contenidos actitudinales: Las actitudes adquiridas no suelen ser directamente evaluables. Aquellas evaluaciones que afecten al Proyecto curricular introduciendo algunos modificaciones deberán reflejarse en la Programación anual. En el ámbito del Ciclo y la Etapa el desarrollo de la programación o Proyecto curricular. y la calidad y regularidad de las relaciones con los padres. y la adecuación de los criterios de evaluación/promoción. . cuyo formato específico se deja como decisión a los centros. El Informe de Evaluación Individualizado (IEI). desde estrategias cognitivas a la utilización de técnicas e instrumentos. De acuerdo con la literatura oficial se aconseja que acerca de la práctica docente en el aula se deberá valorar el diseño y desarrollo de cada unidad didáctica. Evaluar estos contenidos actitudinales trae consigo dos problemas: uno técnico-metodológico y otro ético. Así un concepto no se puede evaluar igual si fuera un dato o un principio. referida a tres aspectos fundamentales: el ambiente del aula. incluye la "apreciación sobre el grado de asimilación de los contenidos conceptuales. Su evaluación debe referirse a destrezas de distinto rango. 3. Solo si tenemos claro el sentido de la evaluación en este ámbito (por qué. para qué.Evaluación de procedimientos: Pretende incidir en que los alumnos aprendan a saber hacer y transferir funcionalmente a otros contextos las habilidades adquiridas. la coordinación en el ciclo o interciclos. la coordinación y coherencia entre los profesores de cada ciclo. pues suele implicar procesos de un nivel sino más alto. y deberá ser aprobado por el Claustro.

Eisner. Weiss. La mayoría de los modelos se desarrollaron en los años sesenta y setenta. En caso singulares. . al hacer la recensión. En el año 1989. pero además es el único medio para poder explora y descubrir si efectivamente trabajan de manera cualitativamente diferente. en nuestro país empezamos ahora a necesitar. el trabajo de evaluación no termina con el informe de lo que sucede sino con la propuesta de estrategias de mejora. Para los autores Greene y McClintock. Para determinados problemas sólo sirve la metodología cuantitativa.En los últimos años los teóricos de la evaluación se han dedicado a reflexionar. en el año 1991. Su argumento es que una sociedad creciente sofisticada valorará más la dimensión cualitativa como el primer elemento de competición. el conocimiento. como los efectos des un programa de niños bisen dotados. a pesar de los pocos ejemplos prácticos de investigaciones que utilicen métodos mixtos. por otra parte. no es lo mismo usar métodos mixtos. que hubiera dado lugar a nuevas visiones o modelos. porque son muchos los factores que influyen en el éxito de un determinado programa y no sólo éste. porque a su juicio hacen demasiado hincapié en ser útiles para los que toman decisiones. y desarrollando alguno elementos de la práctica: instrumentos. para otros la cualitativa. pero en adelante el énfasis deberá ponerse en el desarrollo del profesorado y en la mejora del currículum. Sttuflebeam. Por ello hay que tener en cuenta una variedad de perspectivas o aproximación a la evaluación desde enfoques mixtos. Eastmond (1991) defiende que en losa años 90 la evaluación se enfocará hacia la calidad. Scriven.. aumentando. D) EN CUANTO AL OBJETO DE LA EVALUACIÓN. que puedan tener en cuenta distintas variables para concebir programas teóricamente. E) SOBRE LOS AGENTES DE LA EVALUACIÓN. Clinkenbeard (1992) reflexiona sobre problemas educativos y tipos de programas. y algo importante será relacionar evaluación de programas y proyectos futuros. Igualmente. Greene y McClintock (1991)piensan que no se puede buscar la causa de la mejora de la educación en un programa de innovación curricular entendido como variable independiente. y ya que los sistemas educativos hoy no son competitivos. dice que hay obras que tienen éxito si eliges a los participantes adecuados: Stake. hay que hacer estudio de casos con métodos cualitativos. C) EN CUANTO A LA FINALIDAD DE LA EVALUACIÓN. ya que los métodos no están inherentemente ligados a un determinado paradigma. hacia sus posiciones. probablemente. Ory (1991) hace una crítica a los programas de evaluación que se ha desarrollado durante los últimos veinticinco años. Es decir. etc. que. sin suponer un debate entre ellos. se desarrollarán sistema de evaluación con mecanismos para asegurar y promover la calidad. algunos autores revisan y hacen una reflexión debido a la petición de participación en la obra de House sobre evaluación. A) SOBRE EL MARCO TEÓRICODE LA EVALUACIÓN. que un teoría mixta. los capítulos de cada uno de los autores aportan a la obra de McLaughlin y Phillips siguen mirando hacia adentro. House. B) SOBRE LOS MÉTODOS EN LA EVALUACIÓN.. De forma que Milburn (1992). técnicas.

centros escolares y la industria. y la industria puede proporcionar recursos y servir como canalizadora del cambio. La Universidad puede proporcionar entrenamiento en técnicas de evaluación. Todos los grupos ganan por la interacción intelectual. La escuela pública puede proporcionar la prueba fehaciente del juicio sobre la realidad educativa. pueden generarse nuevas asociaciones entre universidades. En este sentido. en apoyo de las nuevas tecnologías que emergen. los profesores de los centros escolares pueden obtener experiencia en conducir trabajos de evaluación. . Pero en la empresa pública se confiará la evaluación a profesionales externos que puedan establecer comparaciones con otros programas similares.Eastmond (1991) supone que en los próximos años se verá como natural la necesidad de evaluación interna dentro de las organizaciones.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->