Está en la página 1de 4

Tyler (1940-1950) -Modelo en los objetivos externos propuestos en el programa -Constatacin de la coincidencia o no de los resultados obtenidos al final de un p roceso

educativo con los objetivos (evaluacin como un fin o como un juicio) -Evaluacin: Proceso que termina en que grado han sido alcanzados los objetivos ed ucativos propuestos Cronbach (1963): -Evaluacin: Recoleccin y uso de la informacin para tomar desiciones sobre un progra ma educativo. -Instrumento bsico para la toma de desiciones. -Medio al servicio de la educacin con efecto retroalimentador sobre el objetivo e valuado. Scriven (1967): -Incluye en su definicin la necesidad de valorar el objeto evaluado. -Aade la ideologa del evaluador y el sistema de valores imperante en la sociedad ( riesgo subjetividad). -Importante: formulacin adecuada de indicadores de educacin. STAKE Robert Stake toma como referencia, en su estudio de la evaluacin del programa "Ci ties-in-Schools", el modelo que l mismo acu como "responsive evaluation". Aunque la traduccin exacta del trmino "responsive" al castellano es "sensible" generalmente se emplea la expresin de "evaluacin responsable" para referirse a este modelo. El autor apuesta porque en la evaluacin se integren las opiniones de todos aquellos que tienen un inters en el programa, los llamados "stakeholders", en definitiva, porque la evaluacin sea "sensible" a los deseos de los distintos destinatarios. Se decanta por los estudios evaluativos de carcter naturalista, en los que el obj etivo fundamental es la comprensin de la unicidad o singularidad del caso, no la bsqueda de conocimiento generalizable ni la elaboracin de teora. El modelo propuesto por Stake sigue la lnea de Tyler, pero es ms completo al consi derar las discrepancias entre lo observado y lo esperado en los antecedentes y t ransacciones, y facilitar algunas bases para elaborar hiptesis acerca de las caus as y los fallos en los resultados finales. A mitad de los setenta, este autor se aleja de la tradicin tayleriana de preocupacin por los objetivos y revisa su mtodo de evaluacin hacia un planteamiento que el lo denomina como respondante , asumiendo que los objetivos del programa pueden modificarse sobre la marcha. Este modelo hizo de Stake el lder de una nueva escuela de evaluacin. Las fases de este mtodo son: Hablar con los clientes, responsables y audiencias. Alcance del programa. Panorama de actividades. Propsitos e intereses. Cuestiones y problemas Datos para investigar problemas Observadores, jueces e instrumentos. Antecedentes, transacciones y resultados. Desarrollo de temas, descripciones y estudio de casos. Validacin. Esquema para la audiencia. Reunin de informes formales. Podemos entonces entender el modelo respondante como un modelo de corte subjetiv ista, que busca captar la singularidad de las situaciones concretas, intentando comprender y valorar los procesos y resultados de los programas; GUBA Y LINCOLN Autores como Guba y Lincoln sitan a la evaluacin en la "cuarta generacin" de su evo lucin, perodo que se caracteriza por la eclosin de modelos evaluadores (de los que identifican ms de cuarenta) con una variada pluralidad conceptual y riqueza de ma tices que giran alrededor de los modelos inspiradores; pretendiendo superar lo q ue segn estos autores son deficiencias de las tres generaciones anteriores. Esta alternativa fue denominada como respondante y constructivista, integrando el enf oque respondante propuesto por Stake (1975), y la epistemologa postmoderna del co

nstructivismo. Desde esta perspectiva, el evaluador es responsable de determinadas tareas, que ejecutar de manera secuenciada o en paralelo, construyendo un proceso ordenado y sistemtico de trabajo. Las responsabilidades bsicas del evaluador de la cuarta gen eracin son las siguientes: <!--[if !supportLists]--><!--[endif]-->Identificar todos los implicados con riesg o en la evaluacin. <!--[if !supportLists]--><!--[endif]-->Resaltar para cada grupo de implicados sus construcciones acerca de lo evaluado y sus demandas y preocupaciones al respect o. <!--[if !supportLists]--><!--[endif]-->Suministrar un contexto y una metodologa he rmenutica para poder tener en cuenta, comprender y criticar las distintas constru cciones, demandas y preocupaciones. <!--[if !supportLists]--><!--[endif]-->Generar el mximo acuerdo posible sobre esta s construcciones, demandas y preocupaciones. <!--[if !supportLists]--><!--[endif]-->Preparar una agenda para la negociacin sobr e de temas no consensuados. <!--[if !supportLists]--><!--[endif]-->Recoger y proporcionar la informacin necesa ria para la negociacin. <!--[if !supportLists]--><!--[endif]-->Formar y hacer de mediador para un forum de implicados para la negociacin. Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones relacionados con los intereses propios y de los de otro s grupos. <!--[if !supportLists]--><!--[endif]-->Reciclar la evaluacin siempre que queden as untos pendientes de resolucin. Podemos citar igualmente los rasgos con los que Guba y Lincoln definen la evalua cin: la evaluacin es un proceso sociopoltico; un proceso conjunto de colaboracin; un proceso de enseanza-aprendizaje; un proceso continuo, recursivo y altamente dive rgente; un proceso emergente; un proceso con resultados impredecibles y un proce so que crea realidad. En esta evaluacin, se retienen las caractersticas del evaluador fruto de las tres primeras generaciones, esto es, la de tcnico, la de analista y la de juez. Desde esta concepcin, la evaluacin debe constituirse en un proceso integrado donde confluyan factores personales, sociales, conceptales y prcticos. SUCHMAN Para E. Suchman (1967), la evaluacin es la constatacin del valor de una determinad a realidad o resultado. La define como el proceso para juzgar el mrito de alguna actividad y de esa manera, conocer los procesos aplicados y las estrategias que permiten su comprensin y redefinicin, en el caso de que sta ltima sea necesaria. Este autor profundiza en la conviccin de que la evaluacin debe basarse en datos ob jetivos que sean analizados con metodologa cientfica, matizando que la investigacin cientfica es preferentemente terica y, en cambio, la investigacin evaluativa es sie mpre aplicada. Su principal propsito es descubrir la efectividad, xito o fracaso d e un programa al compararlo con los objetivos propuestos y, as, trazar las lneas d e su posible redefinicin. Esta investigacin evaluativa debe tener en cuenta: a) La naturaleza del destinatario del objetivo y la del propio objetivo b) El tiempo necesario para que se realice el cambio propuesto c) El conocimiento de si los resultados esperados son dispersos o concentrados d) Los mtodos que han de emplearse para alcanzar los objetivos. Suchman, adems, defiende la utilizacin de evaluadores externos para evitar todo ti po de tergiversacin de los profesores muy implicados en los procesos instrucciona les. De acuerdo con Suchman, el objetivo principal de la evaluacin es descubrir la efe ctividad de un programa y para esto, se toma como base de comparacin sus objetivo s, a la luz de la relacin entre los objetivos y sus presuposiciones STUFFLEBEAM Daniel L. Stufflebeam define la evaluacin como ... el proceso de identificar, obte ner y proporcionar informacin til y descriptiva sobre el valor y el mrito de las me tas; la planificacin, la realizacin y el impacto de un objeto determinado, con el

fin de servir de gua para la toma de decisiones; solucionar los problemas de resp onsabilidad y promover la comprensin de los fenmenos implicados. As, los aspectos c laves del objeto que deben valorarse incluyen sus metas, su planificacin, su real izacin y su impacto . El modelo Stufflebeam es conocido como CIPP (Contexto, Imput, Proceso, y se cara cteriza por estar orientado a la toma de decisiones. As, la evaluacin se estructur a en funcin de las decisiones que se deben tomar. Este modelo organiza el proceso de la implementacin segn cuatro dimensiones y sus correlaciones: <!--[if !supportLists]--><!--[endif]-->Contexto: Esta dimensin se nutre de los dat os globales socioeconmicos y sociolaborales nacionales y locales, con nfasis espec ial en las polticas de empleo para jvenes. <!--[if !supportLists]--><!--[endif]-->Imput: Identifica y valora los recursos di sponibles (humanos, materiales y financieros) antes del programa; los objetivos y las estrategias planteadas segn los recursos disponibles; las estrategias imple mentadas; los recursos asignados y utilizados, el soporte normativo y las interv enciones realizadas. <!--[if !supportLists]--><!--[endif]-->Proceso: Incluye la interrelacin dinmica ent re las estructuras del programa y los diversos actores, generando un sistema vin cular: medio ambiente del programa . Se evala especialmente por tcnicas cualitativas. <!--[if !supportLists]--><!--[endif]-->Producto: Los productos (indicadores) se p ueden caracterizar segn: <!--[if !supportLists]--><!--[endif]-->Eficacia: medida de los logros en un tiemp o determinado. <!--[if !supportLists]--><!--[endif]-->Eficiencia: medida de los logros en un tie mpo determinado, segn los recursos utilizados. <!--[if !supportLists]--><!--[endif]-->Cobertura: proporcin entre los jvenes que ac cedieron al programa y el total de jvenes cadenciados y en situacin de desempleo. <!--[if !supportLists]--><!--[endif]-->Pertinencia: grado de satisfaccin de las ne cesidades especficas de los jvenes beneficiarios. <!--[if !supportLists]--><!--[endif]-->Adecuacin: correlacin entre los objetivos y los recursos disponibles. <!--[if !supportLists]--><!--[endif]-->Coherencia: grado de correspondencia entre los objetivos y los dispositivos. <!--[if !supportLists]--><!--[endif]-->Imputabilidad: medida de causalidad o de f uerte asociacin entre los dispositivos y los resultados Las cuatro dimensiones del modelo CIPP se relacionan con cuatro niveles de decis in: Decisiones de Programa, Decisiones de Planeacin, Decisiones de Implementacin, D ecisiones de Relevamiento. Stufflebeam invoca a la responsabilidad del evaluador, que debe actuar de acuerd o a principios aceptados por la sociedad y a criterios de profesionalidad, emiti r juicios sobre la calidad y el valor educativo del objeto evaluado y debe asist ir a los implicados en la interpretacin y utilizacin de su informacin y sus juicios . Sin embargo, es tambin su deber, y su derecho, estar al margen de la lucha y la responsabilidad poltica por la toma de decisiones y por las decisiones tomadas. De manera que, segn Stufflebeam, el propsito fundamental de la evaluacin no es demo strar sino perfeccionar. Lento, pero significativo a sido el proceso de cambio que ha sufrido el concepto de evaluacin. As de una evaluacin que juzgaba el valor de las cosas, se pas a una ms cuantitativa que asignaba un valor de medicin. Luego se ve a la evaluacin en funcin de un objeti vo determinado con anterioridad y tambin como un proceso de recoleccin de informac in til que facilite la toma de decisiones abarcando tanto el proceso como el resul tado del aprendizaje e involucrando al contexto como a los alumnos. Lo que se trato de decir, es que a travs de la incorporacin de diversos enfoques e ducativos, partiendo con el referido a normas que incluye el comportamiento de l os grupos-cursos y del referido a criterios que incluye el comportamiento indivi dual en funcin al objetivo diseado, se han tratado de cambiar por uno que construy a conocimientos, donde se aprecie claramente un aprendizaje importante. Debido a estas transformaciones, surgen diferencias que dificultan la incorporac in de un nuevo modelo de evaluacin entre los que creadores y los ejecutores, porqu

e estos ltimos, mantenan el concepto de evaluacin como una instancia separada del p roceso de enseanza aprendizaje, pero sin olvidar que la formacin profesional de lo s docentes de ese entonces, los separaba de dicha concepcin. Todo era diferente, enseanza grupal y de carcter reproductivo, a una enseanza perso nalizada y de carcter productivo. De una evaluacin grupal, con un solo instrumento evaluativo y enfocada al resultado, a una diferenciada que respeta las distinta s habilidades, a varias tcnicas evaluativas y que se enfoque a todo el proceso de la enseanza. El cambiar el estilo de evaluacin permanente se volva un gran dilema. Dejar las pru ebas escritas? Desde los inicios, las pruebas escritas han sido usadas para seleccionar, hacindo las un factor que discrimina. Pero a su vez, es un elemento respetado por los ag entes educativos, porque segn ellos, es la forma mas objetiva de medir el conocim iento. Lo que indica el rendimiento del estudiante es el nmero de respuestas correctas e n el puntaje de la prueba. Las habilidades estarn influenciadas por el grupo-curs o y el comportamiento frente a las caractersticas particulares de este instrument o; el nivel de dificultad y el de discriminacin. Con el nuevo enfoque, este instrumento se construira segn el objetivo educacional, as, el estudiante siempre tendra la misma activacin de la habilidad sin importar e l grupo donde se realiz la prueba. Esto se denomina invarianza y se cumple siempr e que los tems del instrumento midan una sola caracterstica de los evaluados, que existan experiencias educacionales parecidas y que dicho instrumento, en su apli cacin, no haya sido apresurado. A pesar de las teoras que rigen las pruebas, el que aplica la evaluacin, en este c aso el docente, tiene un rol indispensable, porque es este el que tiene que conf eccionar los instrumentos para varios grupos, por eso, la disconformidad actual con las pruebas escritas es cada vez mayor. Por esto, se buscan distintos instru mentos evaluativos que indiquen un aprendizaje significativo y duradero.

También podría gustarte