Está en la página 1de 18

TEORIAS DEL APRENDIZAJE

-Swenson-

CAPITULO 1: PRINCIPIOS FUNDAMENTALES Y ANTECEDENTES DEL CONDICIONAMIENTO


PAVLOVIANO.

Entre la psicología Rusa y la psicología que se elaboró en EEUU hay muchas similitudes.
Ambas ponen de relieve los factores ambientales de la conducta antes que los genéticos (innatos),
y probablemente ambas lo hayan hecho así en virtud de similares creencias sociopolíticas acerca
de la perfectibilidad del hombre.

Pavlov (1849-1936)

Se considera que la actividad mental humana representa una reacción a estímulos


ambientales en el mismo sentido en que el reflejo rotuliano es una reacción ante el estiramiento
de un tendón, o en que el ladrido del perro puede ser un reflejo desencadenado por la intrusión de
un extraño. Así, Pavlov vio toda la conducta como reflexiva y supuso que las mismas leyes básicas
gobernaban tanto la conducta humana como la animal.

Condicionamiento clásico.

El primer tipo de aprendizaje sometido a intensa investigación científica fue el que hoy
llamamos clásico, respondiente o pavloviano.
El experimento pavloviano prototípico es el siguiente: sobre una plataforma hay un perro,
se le pone carne en polvo en la boca y el animal saliva. Esta salivación es un reflejo hereditario.
Después se hace sonar una campana inmediatamente antes de poner la carne en polvo en la boda
del perro. Este procedimiento se repite varias veces. Entonces se hace sonar la campana sin
dársele al perro la carne en polvo. El perro vuelve a salivar. Esta salivación ante el sonido de la
campana es lo que Pavlov llamó primero “secreciones psíquicas”. Se dice, entonces, que el perro
ha sido condicionado para que salive al sonar la campana. Ese condicionamiento se opera como
consecuencia de una estrecha asociación entre dos señales: una que puede ser tanto innata, y
deber a esto su efectividad, como haber sido aprendida antes, y otra que es nueva. La primera
señal se llama estimulo incondicionado (EI), y la nueva, estimulo condicionado (EC).
Antes de que se haya producido cualquier condicionamiento, el animal responde al EI con
un reflejo apropiado. Tal es la causa por la cual el condicionamiento así se llama a veces
condicionamiento respondiente. Se supone que la causa por la cual un EI especifico provoca
siempre un reflejo particular reside en que aquella parte de la corteza cerebral activada por el EI
esta físicamente conectada por fibras nerviosas con la parte del cerebro que controla el reflejo.
Debido a que no hace falta condicionamiento alguno para que aparezca en respuesta al EI, este
reflejo se llama reflejo incondicionado (RI). La producción del reflejo por el EC está condicionada a
las repetidas asociaciones de ambas señales, este reflejo (o respuesta) se denomina reflejo
condicionado o condicional (RC).
Pavlov consideró que la función de proceso de condicionamiento tiene estrecho nexo con
la adaptación biológica. Para responder al mundo exterior, todo organismo necesita detectar y
contestar las señales de acción que emite este mundo exterior. Este sistema de estímulos o señales
ambientales (como la carne en polvo o la campana) fue denominado por Pavlov primer sistema de
señales.
El condicionamiento clásico es un tipo de aprendizaje que se opera cuando una señal
nueva (EC) es apareada con una señal (EI) que tiene la propiedad de provocar un reflejo (RI).
Después del apareamiento, también el EC adquiere la propiedad de provocar un reflejo (RC) más o
menos similar al RI.

Los reflejos: base fisiológica del condicionamiento clásico.

El punto esencial es que los reflejos son reacción predeterminadas a estímulos. Este punto
de vista determinista ha penetrado en la mayor parte de las posteriores teorías conexionistas sobre
el aprendizaje.
Los reflejos pueden clasificarse por orden de complejidad. Los reflejos pueden ser simples
o complejos.
Pavlov investigó además los que llamó reflejos inhibitorios (-), es decir, aquellos que
intervienen para defender otra actividad refleja. Al clasificar todos los reflejos como de índole
inhibitoria, o, por el contrario, excitarorios (+), también clasificó todos los estímulos según que
actuaran para propagar reflejos inhibitorios o excitatorios.

Según la teoría de Pavlov, las unidades básicas de la respuesta son los reflejos, provocados
por los estímulos. Estos pueden ser innatos o aprendidos, simples o complejos, y pueden suscitar
acciones o detener acciones en curso de ejecución.

Inhibición.

Pavlov considero que el proceso de inhibición es tan importante como el de la excitación.


Distinguió entre dos tipos básicos de inhibición: 1) inhibición externa e 2) inhibición interna.

Inhibición externa: puede ser ejemplificada por el importante tipo de reflejo no aprendido
de componentes inhibitorios, llamado reflejo de orientación (RO). Cualquier estimulo que
despierte el RO detiene toda la actividad en curso e infiere con la continuación del
condicionamiento previo. Esto a su vez prepara las cosas para que sobrevenga el nuevo
condicionamiento siguiente.

Inhibición interna: Pavlov supuso que los analizadores corticales distinguen de algún modo
entre los estímulos nuevos y/o importantes y los estímulos conocidos poco importantes. De este
proceso interno resulta la inhibición de las respuestas de atención (el RO) ante señales conocidas
poco importantes. Este proceso se denomina habituación. Los efectos inhibitorios de la
habituación pueden ser a su vez inhibidos por la aparición de un estímulo inhibitorio suave en el
ambiente. Este último proceso se llama desinhibición.
También se puede transferir la inhibición ante nuevos estímulos mediante el
condicionamiento. En la inhibición condicionada de este tipo, algo que antes era un EC o un EI
débil para un reflejo excitatorio puede llegar a inhibir ese reflejo si se lo aparea frecuentemente
con un fuerte EI inhibitorio. Este cambio de respuesta suscitado por un EC determinado también se
llama contracondicionamiento.
Según hemos visto, el condicionamiento inhibitorio supone el proceso activo de interferir
con la provocación de algunos reflejos.
Los reflejos inhibitorios son de dos tipos básicos: 1) los provocados por señales ext3ernas
que pueden tener eficacia sin aprendizaje (inhibición externa), y 2) los que exigen alguna suerte de
proceso de aprendizaje (inhibición interna).

Las etapas del condicionamiento y la extinción.

Según se dijo antes, el reflejo de orientación desempeña un papel vital en el


condicionamiento. No puede haber aprendizaje si no se presta antes atención al EC y al EI y
después se pone en marcha el proceso de ser condicionado. En consecuencia, la primera etapa de
ese proceso consiste en la aparición del RO y la habituación a éste. Sucedido ello, y después de
varios apareamientos más del EC y el EI, el EC se torna capaz de suscitar el reflejo (que ahora se
llama RC). Si se presenta varias veces seguidas el EC sin que lo siga el EI, el RC se desvanece. Este
proceso se denomina extinción experimental. Ello no significa, sin embargo, que el sujeto haya
olvidado la relación EC-EI o que haya vuelto a su estado anterior al condicionamiento. Si los
ensayos de extinción son seguidos por un periodo de descanso, al ser presentado de nuevo el EC
provocara otra vez efectivamente el RC, aunque por lo general no con la misma fuerza de antes.
Este fenómeno se llama recuperación espontanea.
La fuerza del condicionamiento puede depender también de la intensidad del EI original.
Cuanto más fuerte sea el EI, mayor será la probabilidad de que el aprendizaje resista a la extinción.

Para que haya condicionamiento, es preciso en primer término que sea provocado el RO y
que después sobrevenga habituación a éste. La presentación de un solo EC (extinción
experimental) determina que deje de provocar un RC. Sin embargo, después de un periodo de
descanso el EC recobrará espontáneamente algo de su capacidad para suscitar el RC.

Discriminación y generalización.

Además de aprender a responder a nuevas señales ambientales, el organismo debe


aprender a distinguir entre las señales que apuntan a distintos reflejos. Este proceso se denomina
discriminación, aunque Pavlov prefería el término diferenciación.
En el proceso de condicionamiento, un RC llegará a ser suscitado por estímulos similares en
alguna dimensión al EC original. La importancia de este fenómeno reside en que permite al
organismo responder a una gama de señales que pueden indicar el mismo EI que el EC del
entrenamiento. Este proceso recibe el nombre de generalización.

La discriminación y la generalización son dos procesos opuestos. La discriminación consiste


en distinguir los EC de otras señales. La generalización es la tendencia a responder a señales
similares a un EC casi como si fueran el EC mismo.

Tipos básicos de condicionamiento.

Se han identificado varios tipos de procedimiento de condicionamiento, que son: 1)


condicionamiento primario; 2) condicionamiento de defensa; 3) condicionamiento secundario; 4)
condicionamiento retrogrado; 5) condicionamiento de la huella y 6) condicionamiento temporal.
Efectos de las combinaciones de estímulos excitatorios e inhibitorios.

Cuando se presentan simultáneamente más de un EC, ese estimulo compuesto puede


tener propiedades distintas de las que posee cada uno de sus componentes. Las combinaciones de
estímulos poderosos a veces provocan una neurosis condicionada.

Del laboratorio a la vida real.

Pavlov explicó que los pensamientos verbales y el habla manifiesta, constituían un segundo
sistema de señales que operaba en forma muy parecida a como lo hacen las señales ambientales o
primer sistema de señales. Por consiguiente, en los seres humanos el significado de las palabras
llega a ser condicionado por una variedad de EIs ambientales y adquieren el poder de suscitar
reflejos. No solo poseemos un segundo sistema de señales (verbales), sino también un segundo
sistema de reflejos (palabras y pensamientos).

Pavlov procuró generalizar sus conclusiones al hombre. Consideraba que los hábitos
adquiridos por medio de la capacitación y la educación solo eran largas cadenas de reflejos
condicionados. Esas asociaciones, una vez aprendidas, podían ser provocadas automáticamente
mediante ECs adecuados, incluso contra nuestra voluntad.

Posiciones de Pavlov ante los principales problemas.

Naturaleza/crianza: Pavlov consideraba que muchos reflejos complejos, incluidos el de eludir las
restricciones (reflejo de libertad), el de autodefensa y el de orientación son innatos.

El cómo del aprendizaje: La base primaria de la formación de nuevos vínculos consiste en el


refuerzo de un EC por un EI.

El qué del aprendizaje: La unidad de aprendizaje que Pavlov examinó con mayor detalle fue la
formación de nuevas conexiones en la corteza cerebral entre los centros excitados por una señal
nueva (EC) y los que controlan las respuestas. Esta primera conexión supone en primer término la
formación de un vínculo entre el EI y el EC.
CAPITULO 2: ENFOQUES NORTEAMERICANOS DEL CONDICIONAMIENTO POR CONTIGUIDAD:
WATSON Y GUTHRIE.

El punto central de las teorías de la contigüidad formuladas por Watson y Guthrie es la


formación mecánica de hábitos por efecto de la asociación.

WATSON (1878-1958)

La conducta como criterio para medir el aprendizaje.

Watson sugirió que frente a los fenómenos mentales es simplemente imposible satisfacer
las exigencias de objetividad. Carente de datos objetivos, la psicología nunca podría llegar a ser
una verdadera ciencia. Por lo tanto, en beneficio de una posible ciencia psicológica era preciso
abandonar las mediciones de la mente. La conducta, en cambio, se presta para ser cuantificada y
medida objetivamente. La conducta proporciona datos verdaderos, científicamente aceptables.
La unidad básica del aprendizaje es el hábito, y el hábito se adquiere como consecuencia
del fortalecimiento de un nexo neural entre un estímulo y una respuesta.
A juicio de Watson, el aprendizaje de destrezas era una cuestión de eslabonar respuestas
musculares. Esos eslabones formaban entonces los hechos objetivos que int3ervenian entre los
estímulos ambientales y las respuestas.

¿Cómo aprendemos? La respuesta de Watson.

En primer término, Watson consideró todo aprendizaje como un condicionamiento de


hábitos. Segundo, pensó que solo dos leyes básicas bastaban para describir las condiciones en las
cuales se forman vínculos entre estímulos y respuestas. Su primera ley establece que la fuerza de
un vínculo depende del número de apareamientos (asociaciones) de estímulo y respuesta (ley de
frecuencia). La segunda ley sostiene que aquella respuesta dada inmediatamente después de un
estímulo determinado es la que tiene mayor probabilidad de aparearse con este estimulo (Ley de
proximidad temporal). Del apareamiento frecuente de señales o de respuestas y señales resulta un
condicionamiento efectivo. El apareamiento, asimismo, alcanzará su máxima eficiencia si ambos
son presentados casi al mismo tiempo.

La teoría de Watson se sustentó sobre dos leyes del aprendizaje, las leyes de la frecuencia
y de la proximidad temporal. A juicio de Watson, la fuerza de un vínculo E.R depende de ambos
tipos de efectos.

Una explicación por la contigüidad acerca de los efectos del refuerzo aparente.

Watson negó toda importancia a los efectos del refuerzo (en particular a la “Ley del efecto”
propuesta por Thorndike) afirmando que un acto ejecutado con éxito se convierte en la respuesta
mas reciente como en la más frecuente.
Posiciones de Watson ante los principales problemas.

El cómo del aprendizaje: Al principio Watson creyó que los principios de frecuencia y proximidad
temporal bastan para explicar el condicionamiento. Puesto que un acto exitoso es a la vez el más
frecuente y el más reciente, llega a ser el que más probabilidades tiene de ser repetido en
circunstancias similares. Consideró que la teoría de Thorndike, que pone el acento sobre la
satisfacción y la molestia, estaba contaminada por subjetividad residual. En formulaciones
posteriores adoptó la posición pavloviana.

El qué del aprendizaje: según Watson, la unidad de aprendizaje consiste en vínculos entre
estímulos observables y respuestas observables o potencialmente observables. Lo que se aprende
es un hábito o u reflejo condicionado consistente en respuestas musculares eslabonadas.

Continuidad/discontinuidad, uso de datos animales y determinismo: El aprendizaje sobreviene por


acumulación de la fuerza del hábito. En consecuencia, el aprendizaje siempre es continuo.

GUTHRIE (1886-1959)

La conducta simple era cuestión de conexiones E-R simples, y la conducta compleja


consistía en una multitud de conexiones E-R simples. Al igual que Watson, vio el cerebro como una
tabula rasa y restó importancia a los principios de organización innata y motivacionales. Guthrie
utilizó la palabra “condicionamiento” para abarcar casi todas las formas de aprendizaje y elevó a su
máximo exponent3e la función de los factores ambientales en el moldeamiento de la índole de un
adulto humano.

La única ley del aprendizaje.

A diferencia del sistema altamente complejo propuesto por Pavlov, o del sistema de dos
leyes del aprendizaje (por frecuencia y por proximidad temporal) ideado por Watson, Guthrie
alcanzó el punto máximo en cuanto a simplicidad teórica: su teoría consiste en una sola ley que
estipula las condiciones necesarias y suficientes para el aprendizaje y que él denomino ley de la
contigüidad. Nada de listas de leyes, nada de recompensas, sino solamente estímulos y
movimientos vinculados en combinaciones, como lo expresa el siguiente concepto: “Una
combinación de estímulos que ha acompañado a un movimiento tenderá, al presentarse de nuevo,
a ser seguida por ese movimiento”. Guthrie no solo sugirió que el principio de proximidad
temporal basta para explicar el aprendizaje, sino también que todo aprendizaje es aprendizaje con
un ensayo. Por lo tanto, cualquier cosa que se haya hecho en presencia de determinada
combinación de estímulos será hecha de nuevo cuando vuelva a presentarse esa combinación.

Guthrie propuso una teoría del aprendizaje que contiene dos principios básicos: 1) el
sujeto tiende a asociar las cosas que ocurren simultáneamente (ley de la contigüidad) y 2) todas
esas asociaciones se producen por efecto de un solo ensayo.

Una situación puede parecer una sola señal, pero en realidad está compuesta por una
masa de estímulos que cambian en cada momento. En consecuencia, lo que parece una sola
respuesta es en realidad una masa de respuestas, y lo que parece un solo estimulo es una masa de
estímulos. Cada uno de esos elementos puede combinarse con cada uno de los otros, y lo que se
forma “con un ensayo" son esos diminutos vínculos, en cada ensayo, muchas de esas pequeñas
respuestas quedan vinculadas con muchos de los estímulos. La curva de adquisición gradual que
observamos es el resultado final del aumento gradual de vínculos apropiados y la eliminación
gradual de vínculos inapropiados. Así, Guthrie viene a decir que el mejoramiento de un acto
concierne al resultado del aprendizaje, antes que al proceso de aprender. Los errores consisten en
aprendizaje que no coincide con el dominio del acto final, y el aprendizaje es el proceso por el cual
todas las señales, finalmente, quedan vinculadas con la conducta aceptable. La mejoría, por lo
tanto, equivale al aprendizaje de un número cada vez mayor de movimientos más correctos.
Ejemplo de ello podrían ser las habilidades. El movimiento que sigue a determinado estimulo
producido por el movimiento es aquella respuesta que ha quedado condicionada a él (por efecto
de la contigüidad). A su vez, esa respuesta produce nuevas señales condicionadas a la respuesta
siguiente, y así sucesivamente. El concepto de estímulos autogenerados constituye una parte clave
de la teoría de Guthrie.
Guthrie defiende su teoría de que “la contigüidad es el único mecanismo del aprendizaje”
Explicando que la recompensa es una fuente de estímulos que sirve para relacionar otros grupos
de señales. Además, la recompensa protege una colección de vínculos E-R contra el
“desaprendizaje” al hacer de ellos los últimos fenómenos que se presentan inmediatamente antes
de que se modificara la situación de estímulo.
Guthrie tampoco considera que los impulsos y su reducción mediante las acciones
apropiadas sean necesarios para que haya aprendizaje. Sin embargo, Guthrie considera que los
estímulos contribuyen con frecuencia al aprendizaje. Lo cual se debe a que la mayoría de ellos
sirven como fuente de estímulos mantenidos. Esencialmente, la función de la recompensa consiste
en impedir que aquellas respuestas dadas inmediatamente antes de la recompensa sean
conectadas con respuestas distintas de las que producen la recompensa.
La posición de Guthrie acerca de la recompensa puede resumirse en el concepto de que “la
recompensa es el cambio de estímulo”, circunstancia en la cual los estímulos internos y las
respuestas (que actúan como estímulos) son modificados por la recompensa.
El castigo es eficaz solo cuando de él resulta una nueva respuesta a las señales antiguas. El
castigo modifica hábitos indeseables cuando suscita una nueva conducta incompatible con la
conducta castigada. También en este caso, el aprendizaje es el resultado de un cambio de las
condiciones del estímulo. Los movimientos condicionados por los estímulos adversos (que son la
fuente de los estímulos mantenidos) son aquellos que ponen al sujeto a distancia del estímulo, o el
estímulo a distancia del sujeto.

Guthrie explicó fenómenos como los efectos de la recompensa y los estados de impulso, y
su reducción, castigo y extinción experimental, en función de principios de contigüidad
relacionados con cambios en las condiciones de los estímulos antes que en función del refuerzo.

Aplicaciones.

Guthrie sostuvo que para que el castigo sea eficaz debe causar la aparición de respuestas
de competencia ante las señales de la conducta indeseable. Otro aspecto de la teoría de Guthrie
es: como las conexiones establecen entre estímulos específicos y respuestas específicas, cabe
esperar que la transferencia de entrenamiento ocurra solo en la medida en que en la situación
nueva se presenten estímulos antiguos. En el ejemplo del niño y el abrigo, cabría esperar que el
“acto de colgar el abrigo” no se produzca al entrar el niño en una casa que no sea la propia.
Este procedimiento para romper el hábito indeseable constituye un ejemplo del método
de respuesta incompatible de Guthrie, quien sugirió además otros dos métodos para romper los
hábitos: el método de la fatiga y el método del umoral.
El método de la fatiga consiste en permitir que un acto indeseable sea repetido hasta que
fatigue y “no responder” quede asociado a las señales que antes suscitaban la respuesta
indeseable.
El tercer método (el del umbral) consiste en presentar con tan baja intensidad las señales
que normalmente provocan la conducta indeseable, que no suscite la conducta. Durante ese
tiempo, otras respuestas llegan a quedar asociadas con esas señales. A continuación, se aumenta
gradualmente la intensidad del estímulo, procurándose siempre que esa intensidad este por
debajo del “umbral” de la respuesta indeseable. Finalmente, es posible exponer al sujeto a toda la
intensidad de las señales que habían provocado la conducta indeseable sin que responda con esa
conducta. Guthrie sugirió que el método del umbral es un rasgo común de las interacciones
humanas cotidianas. Al comparar los tres métodos, Guthrie concluye que los tres suponen
encontrar las señales que suscitan el hábito indeseable y a continuación hacer lo necesario para
que esas señales se conviertan en estímulos de respuestas que compitan con el hábito. Asimismo,
considera que todos los métodos arrojan resultados equivalentes.

Guthrie propuso tres métodos para eliminar los malos hábitos. Los tres se basan en su
supuesto básico de que la conducta es controlada por estímulos y son los siguientes: 1) respuesta
incompatible, 2) fatiga, y 3) umbral.

Posiciones de Guthrie ante los principales problemas.

Naturaleza/crianza: La conducta depende del ambiente en vez de originarse en instintos o motivos


hereditarios. La dirección de la conducta es definida explícitamente como resultado del
aprendizaje en el ambiente.

El cómo del aprendizaje: Guthrie fue el expositor más puro de la teoría de la contigüidad:
“comprendemos mucho mejor los empleos del castigo y la recompensa si analizamos sus efectos
en función de la asociación y advertimos que el castigo solo es eficaz por medio de su asociación”
(Guthrie).

El qué del aprendizaje: La unidad básica del aprendizaje consiste en la asociación de movimientos
de músculos particulares con estímulos particulares. Los hábitos complejos representan la suma
neta de muchas de esas unidades básicas.

Continuidad/discontinuidad, empleo de datos animales y determinismo: El aprendizaje siempre se


produce al aparearse por primera vez un solo estímulo y una sola respuesta. Sin embargo, las
habilidades se forman lentamente. Guthrie explicó: “El aprendizaje se produce normalmente en un
episodio asociativo…Una habilidad o destreza no es un hábito simple, sino una amplia colección de
hábitos que alcanzan cierto resultado en muchas y variadas circunstancias”. Guthrie vio la
conducta como determinada por circunstancias ambientales.

Perspectiva.

En la teoría de Guthrie ocupa una posición central la siguiente idea: debido a que
tendemos a repetir movimientos cuando somos expuestos a las señales que en el pasado, se
asociaron a esos movimientos, los ambientes cuyas señales no cambian tienen que producir
movimientos estereotipados.
Guthrie sostenía que la razón por la cual esas respuestas son estereotipadas reside en que
solo la última respuesta (la que ha tenido éxito) queda protegida contra interferencias.
Otros supuesto fundamental de la teoría de Guthrie es que la recompensa bajo forma de
reducción de impulso no es indispensable para que haya aprendizaje.
Considerándolo en retrospectiva, se concluye que Guthrie efectuó cuatro contribuciones
importantes y duraderas. La primera consistió en obligar a los psicólogos a examinar con mayor
detenimiento que antes el papel de los estímulos en la determinación de la conducta y el
aprendizaje. La segunda fue extender la duración de la perspectiva de la contigüidad y demostrar
la necesidad de reconsiderar la función del refuerzo mediante estudios como los que se acaban de
describir, lo cual impuso a los teóricos de la conexión por el esfuerzo la necesidad de formular
teorías más elaboradas. La tercera residió en el desarrollo del concepto del estímulo producido por
el movimiento. La cuarta se deriva de la índole probabilística de la teoría de Guthrie. A causa de
que Guthrie consideró que el aprendizaje se produce por efecto de “colisiones” de señales que
suelen encontrarse en contigüidad entre sí, pensó que el resultado definitivo de cualquier ensayo
de aprendizaje se debe en parte al azar y, por lo tanto, no puede ser predicho con exactitud. Lo que
puede predecirse es el resultado medio de muchos ensayos, y en este sentido la teoría de Guthrie
es de índole estadística. Esta circunstancia hace de ella un punto de partida para la confección de
un modelo matemático del conocimiento.
CAPITULO 3: APRENDIZAJE POR MEDIO DEL REFUERZO: THORNDIKE Y HULL

THORNDIKE (1874-1949)

Thorndike afirmo que el aprendizaje es cuestión del “estampado” gradual de vínculos


estimulo-respuesta mediante el ensayo y el error. Se opuso directamente a la doctrina dualista
según la cual el aprendizaje humano involucra comprensión, o el acto de aprehender una “idea”,
en tanto que los animales son como maquinas controladas por instintos. También se opuso a la
doctrina de la razón animal.
Al adaptar el terreno del aprendizaje la concepción darwiniana de que hay continuidad
entre animales y hombres, Thorndike introdujo en la psicología norteamericana el supuesto
conocido ahora como principio de equipotencialidad. Este concepto se basa en la creencia de que
las leyes del aprendizaje son independientes de los tipos de estímulos usados, de las respuestas
estudiadas y de las especies a las que se aplican las layes. Estos supuestos proporcionan la base
teórica que justifica el empleo de sujetos animales en el estudio de las leyes de aprendizaje, y
Thorndike fue el primero en usarlos con ese fin.

Thorndike pensó que el aprendizaje consiste habitualmente en una cuestión de fortalecer


automáticamente los vínculos E-R por efecto de una experiencia de ensayo y error. Supuso que las
leyes que rigen ese aprendizaje son las mismas para los animales y los seres humanos.

Como se produce el aprendizaje: primera teoría de Thorndike.

El núcleo de su teoría consistía en tres leyes principales. La primera es la Ley del efecto, la
cual sostiene que “aquellas respuestas dadas inmediatamente antes de una situación satisfactoria
tienen mayor probabilidad de ser repetidas”. De acuerdo con este concepto los animales tienden a
mantener estados satisfactorios y a no mantener los insatisfactorios. En consecuencia, a despecho
del tono subjetivo de los términos “molestar” y “satisfacer”, Thorndike los definió por la conducta
del animas, sin recurrir a los conceptos mentalistas. Los factores de satisfacción “estampan”
respuestas y los de molestia las “borran”. Consideró que esos “estampados” eran directos,
mecánicos y no implicaban conciencia o percepción del aprendizaje. En consecuencia, definió el
aprendizaje en función de vínculos E-R que se “estampan” gradualmente en el cerebro. A
continuación, los vínculos completos funcionan en forma muy parecida a como lo hacen las
conexiones hereditarias (instintos y reflejos).
La segunda ley de Thorndike es la Ley de la predisposición, formulada en función de
unidades neurales hipotéticas. Esta ley sostiene que la satisfacción y la molestia dependen del
estado del organismo en el momento en que actúa. Cuando una unidad neuronal de conducción
esta predispuesta, la conducción es satisfactoria; cuando la unidad de conducción no lo está, la
conducción es molesta. Cuando la unidad de conducción está dispuesta y no hay conducción, el
organismo se siente frustrado o molesto.
La tercera ley es la Ley del ejercicio y representó una concesión a la teoría del aprendizaje
por contigüidad. Thorndike sostuvo que el uso de las conexiones las fortalece y que su desuso las
debilita. El principio del “uso” explica principalmente actos prepetitivos como las destrezas
motrices y la memorización de poemas. El principio del “desuso” explica el olvido general.
Admitiendo que los factores de contigüidad pueden influir sobre los vínculos E-R, Thorndike criticó
a la vez que se empleara ese principio sin tener en cuenta la ley del efecto. Thorndike reprobó la
idea de que el ejercicio puede bastar por si solo para producir aprendizaje.
Según la teoría de Thorndike, se produce aprendizaje cuando: 1) una respuesta conduce a
la satisfacción o a la evitación de molestia (ley del efecto); 2) el organismo está dispuesto a
responder (leu de la predisposición) y 3) este aprendizaje es afianzado por la practica (ley del
ejercicio).

Aplicaciones.

Thorndike no se interesó exclusivamente por las cuestiones teóricas. Formulo muchas


sugerencias para la aplicación de sus principios en el aula. Señalo tres campos principales a los que
el docente debe prestar atención. Estos son: evaluar en qué medida le será fácil o difícil al docente
aplicar factores de satisfacción y de molestia con el fin de formar o destruir vínculos; identificar
que vínculos se deben formar y cuales deben romperse, e identificar los factores de satisfacción y
de molestia oportunos.
Thorndike también se interesó por los aspectos motivacionales de la tarea en el aula y
reconoció la importancia de las actitudes del alumno hacia el aprendizaje. Enumero cinco factores
que, a su juicio, los educadores debían tener en cuenta para mejorar el aprendizaje: 1) El interés
del alumno por el trabajo, 2) El interés del alumno por mejorar su desempeño; 3) La importancia
de la lección para alguna meta del alumno; 4) la conciencia, por parte del alumno, de que aprender
la lección le permitiría satisfacer una necesidad y 5) La amplitud de concentración del alumno, o
sea, su capacidad para prestar atención a lo que hace.

Muchas de las sugerencias formuladas por Thorndike a los docenes se originaron en su


orientación mecanicista. Creyó que la transferencia era siempre específica y nunca general y que,
por lo tanto, un alumno debía establecer algunas conexiones que habían de resultarle comunes en
las situaciones que enfrentaría en la vida después de concluida la escolaridad. Thorndike pensó
que cuando se produce transferencia entre dos situaciones que parecen distintas, en ambas,
deben presentarse algunos de los estímulos de las dos situaciones. Este concepto se conoció como
su teoría de los “elementos de transferencia idénticos”.

Thorndike formuló muchas sugerencias para el mejoramiento del aprendizaje. Entre ellas
figuraron las de prestar atención a los factores motivacionales y de otorgar a los que se enseñe una
forma tan similar como sea posible a las destrezas que los alumnos necesitarían después de la
escolaridad.

Posiciones de Thorndike ante los principales problemas.

El cómo del aprendizaje: Si bien la teoría inicial de Thorndike incluía el principio de contigüidad,
bajo la forma de la ley del ejercicio, su autor abandono posteriormente esa ley. A lo largo de toda
su carrera, sostuvo que las consecuencias de la conducta (llevara ella a satisfacción o molestia, o a
ninguna consecuencia) son más importantes para predecir el aprendizaje que las relaciones entre
estímulos y respuestas.

El qué del aprendizaje: Thorndike se avenía a admitir la existencia de pensamiento y el posible


papel mediador de las ideas, pero no juzgó que la unidad básica del aprendizaje pudiera consistir
en algo distinto de los vínculos E-R. Consideró que en la formación de esos vínculos las
expectativas del organismo pueden alterar la selección de aquellos estímulos que intervengan en la
conexión, pero no consideró que los pensamientos y la conciencia fuesen necesarios para el
aprendizaje.
Continuidad/discontinuidad y otras cuestiones: Thorndike puso de relieve que los vínculos se
“estampan” o se conectan lentamente en forma continua. Sin embargo, admitió que algunos casos
de resolución de problemas, donde parece intervenir la compresión o la intuición (o sea, una
discontinuidad), pueden presentarse cuando el organismo elige nuevas combinaciones de
conexiones “estampadas” antes, o mediante el mecanismo de “respuesta por analogía” (una de
sus leyes menores). Opinó que esa conducta que se asemeja a una introvision es sumamente rara
en los animales y que incluso en los seres humanos se la puede explicar en función de hábitos y
analogías.

Perspectivas.

Thorndike presento una teoría del aprendizaje basada en la “selección y conexión”


mecánicas de estímulos y respuestas. Por obra de el, la investigación sobre animales y el estudio de
la conducta se convirtieron en el tema central de los psicólogos. Fundándose en sus primeras
observaciones sobre la conducta que adoptaban los gatos para escapar de las cajas de truco,
concluyó que el aprendizaje consiste esencialmente en un proceso de “ensayo y error” en el que la
satisfacción proporcionada por el éxito “estampa” conexiones E-R. En sus conceptos educacionales
destacó la importancia del ejercicio, s se lo vincula con variables motivacionales, y el aprendizaje
de hábitos. En todo momento se presentó como un teórico mecanicista del E-R, a cuyo juicio
conceptos tales como los de “entendimiento” son puro engaño. Su enfoque del refuerzo en el
aprendizaje lo erigió en un fuerte rival de las teorías de la contigüidad y cognitivas sobre el
aprendizaje.
CAPITULO 4: SIKINNER: REFUERZO O CONDICIONAMIENTO OPERANTE.

SKINNER

Los principios de Skinner resultan esenciales para comprender los enfoques actuales de la
teoría del refuerzo. En particular es necesario comprender los efectos que los cuatro tipos básicos
de programas de refuerzo tienen tanto sobre el desempeño recompensado como sobre el
desempeño durante la extinción. La teoría skinneriana del aprendizaje pone especial énfasis sobre
el control de la conducta mediante circunstancias que premian o refuerzan y sobre la pautacion de
las recompensas para influir sobre la frecuencia y la intensidad de las respuestas.
Skinner rechazó en forma invariable las causas internas (tales como los motivos, los
estados del yo, la fuerza del hábito y demás). Considera que la ciencia es un conjunto de actitudes
que facilitan la observación y la experimentación (no la aceptación de las ideas impuestas), esta
actitud filosófica se traslada al fuerte acento que pone sobre la objetividad y la aceptación de los
datos experimentales. Se empeñó en tratar de determinar que fuerzas ambientales controlan la
conducta.

Al abogar por una metodología científica objetiva, Skinner prolonga el rechazo por Watson
de posibles agentes internos y ataca directamente los enfoques de Hull y otros, que intenta
pr3edecir y comprender la conducta sobre la base de procesos internos inferidos. Se aparta de
Watson, sin embargo, porque, a diferencia de éste, acepta el pensamiento y otras conductas
privadas como fuente de datos, en la medida en que se revelan en respuestas verbales objetivas y
de otros órdenes. Skinner se limitó a abstenerse de investigar o teorizar acerca de las causas
internas, por considerar que la última cusa de la conducta interna puede ser rastreada en
influencias ambientales.
El principio fundamental de “caja negra” u “organismo vacío” como punto de partida para
el estudio de la conducta se opone directamente a la práctica de especular acerca de
construcciones hipotéticas o variables intervinientes que actúan en los organismos. Una de las
razones fundamentales por las que Skinner decidió centrarse en los hechos ambientales antes que
en los internos reside en la riqueza de información que puede obtenerse así para el análisis
científico de los factores que determinan la conducta. Admitió que esas variables pueden influir en
formas sutiles sobre el comportamiento, pero consideró que no es posible explicar en forma
acertada la conducta sin investigarlas. Se propuso elaborar un método de análisis de la función que
los hechos ambientales cumplen en la determinación y predicción de la conducta de los
organismos.
El método empelado por Skinner para investigar las variables externas que controlan la
conducta consiste en lo que él denomino un análisis causal o funcional. A su juicio, las variables
dependientes son los efectos de las variables externas, o los cambios de conducta suscitados por
éstas. La meta que se propuso alcanzar mediant3e este método de análisis fue la predicción y el
control de las variables dependientes (conductuales). A juicio de Skinner, las leyes de la conducta
consisten en las relaciones causa-efecto entre las variables independientes (hechos ambientales
externos) y las variables de respuesta (dependientes). Consideró que una síntesis de esas leyes en
términos cuantitativos proporciona una imagen ampliada de los organismos como sistemas de
conducta. Skinner no necesitó apelar a variables tales como el impulso y la motivación incentiva,
porque estimó que especular acerca de ellas era simplemente necesario para una ciencia cuyas
metas consistieran en predecir y controlar la conducta.

Como enfoca Skinner la cuestión contigüidad/refuerzo.

En vez de rechazar un mecanismo de contigüidad del tipo descripto por el investigador


ruso (Pavlov), postuló la existencia de dos tipos distintos de aprendizaje. En el primero, o tipo
pavloviano, un estímulo antes neutral adquiere el poder de suscitar una respuesta que
originariamente era causada por otro estimulo. En cambio se produce cuando el estímulo neutral
es seguido o “reforzado” por el EI. Skinner considera que el condicionamiento de este tipo
(condicionamiento clásico) es el medio por el cual nuevos estímulos pueden llegar a suscitar
estados emocionales o motivacionales. Este concepto se incorporó a su teoría como base que
explica el poder del refuerzo secundario o condicionado. Skinner explica la acción del refuerzo
demorado o del completamiento de largas cadenas de respuesta en función de respuestas internas
que conducen hacia una meta y generan estímulos que quedan clásicamente condicionados a
refuerzos primarios. Denominó “refuerzos generalizados” a los refuerzos condicionados apareados
a más de un refuerzo primario y los considero más poderosos que cualquier refuerzo condicionado
vinculado con un solo tipo de estado de privación.

“Si un esfuerzo condicionado ha sido apareado con refuerzos apropiados para muchas
condiciones, es probable que por lo menos un estado de privación apropiado prevalezca en una
ocasión ulterior. En consecuencia, es más probable que se presente una respuesta” (Skinner).

En consecuencia, Skinner recurre a un principio de contigüidad para ofrecer una


explicación convincente de aquellas conductas que parecen carecer de relación con el refuerzo
inmediato.
Skinner considera que las respuestas condicionadas clásicamente son suscitadas en forma
automática por señales automáticas. Por lo tanto, también rotuló como respondiente, o
condicionamiento de tipo E (tipo estimulo), este tipo de condicionamiento.
A la vez que tributa el debido respeto a la metodología y los principios de Pavlov. Skinner
considera que el condicionamiento respondiente o de tipo E ofrece limitado interés. Lo que más le
preocupa es la conducta manifiesta que tiene consecuencias sobre el mundo circundante. En la
conducta de este tipo, sus consecuencias se “realimentan” al organismo y pueden modificar la
probabilidad de que se repita la conducta que dio origen a esas consecuencias. Cuando una
consecuencia actúa de manera que aumenta la probabilidad de recurrencia de una respuesta, se
dice que obra como un reforzador y que el acto de manifestar esa consecuencia es un refuerzo.
Según las teorías de Skinner, un reforzador es todo aquello que aumente la probabilidad de
reocurrencia de una respuesta, su definición se formula exclusivamente en términos de
operaciones conductuales y no supone factores internos tales como el impulso o la motivación. El
condicionamiento de este orden se denomina condicionamiento operante, porque el organismo
opera en su ambiente, o condicionamiento instrumental, porque las respuestas desempeñan una
función instrumental en la determinación de una consecuencia. El condicionamiento operante
difiere del condicionamiento respondiente (clásico) en que no se considera que la mayoría de las
respuestas sean provocadas por estímulos. Desde el punto de vista de Skinner, es simplemente
imposible observar, en la mayoría de los casos, que un supuesto “estimulo” haya tenido el carácter
de operante que se le atribuye. En consecuencia, se considera que la conducta operante es
emitida espontáneamente por el organismo que sigue tal o cual conducta. Este enfoque evita la
tentación de identificar que hechos pueden obrar como estímulos ambiguos.
Una respuesta operante puede contraer una relación con un estímulo particular, y esta
ocurrencia puede incluso ser controlada en parte por este estimulo. En esos casos se lo denomina
estimulo discriminativo; este último sirve para señalar al organismo cuando es muy probable el
refuerzo para emitir una operante especifica. Puesto que el estímulo es ahora la señal para que se
presente la conducta operante, se dice que la respuesta operante es una operante discriminada.
Empero, el estímulo no suscita la aparición de la respuesta, como en el caso de un reflejo
pavloviano. Los estímulos discriminativos sirven para guiar la conducta. La fuerza de la operante es
independiente de esos estímulos excitatorios o inhibitorios. O sea, el estímulo discriminativo se
limita a avisar al organismo cuando debe emitir la operante.
El énfasis puesto sobre las respuestas determino que el condicionamiento operante fuese
denominado condicionamiento de tipo R (respuesta). La “R” puede también ser recordada en
virtud de su asociación con el acento que Skinner pone sobre el refuerzo. Ese acento sobre los
episodios R” es coherente con la distinción que Skinner formula entre el refuerzo según la teoría
de Pavlov y según su propia teoría.

El propio Pavlov llamó “refuerzos” a todos los hechos que fortalecían una conducta, y
“condicionamiento” a los cambios resultantes. En el experimento pavloviano, empero, un
reforzador es apareado con un estímulo; en cambio, en la conducta operante depende de una
respuesta.

Skinner reconoció la importancia tanto del condicionamiento pavloviano (respondiente, o


de tipo E), en que el estímulo suscita respuesta, como del condicionamiento de tipo R (operante o
instrumental), en que las respuestas son emitidas espontáneamente. En el condicionamiento de
tipo R los estímulos pueden actuar como estímulos discriminativos que dicen al organizador donde
y cuando debe esperar un refuerzo.

La caja de Skinner.

Tal como Pavlov, Skinner aportó no solo una teoría sino también una metodología. Su
metodología se basa en el supuesto de que el principio de equipotencialidad es habitualmente
valido en el marco controlado que ofrece el laboratorio.
Cualquier movimiento particular de un organismo constituye una respuesta. Una clase de
movimiento o un tipo de conducta específica que se ajusta a ese criterio se denomina operante. La
frecuencia y la pauta con que se presentan las operantes son medidas. Otras variables
dependientes posibles, como la intensidad o la duración de la respuesta, no son medidas. La caja
de Skinner proporciona un ambiente en el que el sujeto puede emitir una respuesta susceptible de
ser medida como operante estandarizado. Al contar solo las operantes, la caja de Skinner elimina
los juicios subjetivos del observador acerca de lo que debe considerarse respuesta. La caja de
Skinner no solo proporciona un ambiente en que se emite una conducta simple, producida
libremente y medida objetivamente; además aporta un medio que permite controlar con precisión
las consecuencias de las operantes.
En consecuencia, disminuye considerablemente la posibilidad de reforzar una conducta
que no sea la operante. Por lo tanto, la caja de Skinner aporta datos precisos acerca de las
relaciones entre la historia del organismo (adiestramiento anterior y niveles de privación) y el
control ejercido por el reforzador sobre las tasas de acuerdo con las cuales se emite el operante, y
logra todo esto sin necesidad de apelar a consideraciones sobre estados internos
Principios fundamentales.

Moldeamiento: Skinner sostiene que “el condicionamiento operante moldea la conducta tal como
un escultor moldea un trozo de arcilla=.

Skinner define al operante como una clase de movimientos. En el proceso de


moldeamiento, solo se refuerzan aquellos movimientos cuya dirección coincide con la nueva
respuesta que se desea. Este proceso de aproximación sucesiva continúa hasta que el organismo
emite la nueva respuesta que se deseaba.

Generalización: el moldeamiento se funda en la tendencia del organismo a no dar exactamente en


cada oportunidad la misma respuesta y a no emitir solo las respuestas dadas precisamente a
continuación de un refuerzo. Esa tendencia a emitir una “familia” de respuestas similares
ejemplifica el principio de la generalización de la respuesta. A su vez, se denomina generalización
del estímulo a la correspondiente tendencia de los estímulos similares al estímulo discriminativo
original a influir sobre la tendencia del organismo a responder similarmente. Reconoce la
existencia tanto de la generalización primaria como de la secundaria, o medida (como la verbal), y
considera que la generalización es la base de la transferencia de aprendizaje de una situación a una
situación nueva.

Un concepto clave del sistema de Skinner es el de moldeamiento, o método de


aproximación sucesiva, que supone respuestas de refuerzo que coinciden en la dirección de la
respuesta deseada final. El moldeamiento depende de la generalización de la respuesta, o
tendencia de las respuestas a variar de un ensayo a otro.

Cinco contingencias fáciles: Los reforzadores pueden dividirse en dos clases. Una consiste en
aquellos hecho que los organismos procuran experimentar de nuevo y se los denomina
reforzadores positivos. La otra clase consiste en aquellos hechos que tratamos de evitar y se llama
estímulos adversos. Las circunstancias o reglas pueden disponerse de manera tal que cada tipo de
reforzados pueda asociarse, sea con un aumento o con una disminución de la probabilidad de una
particular emisión de respuesta. Las reglas que gobiernan la relación entre respuestas y refuerzo se
llaman contingencias.
El refuerzo negativo no es el mismo que el castigo. El refuerzo negativo es el que se recibe
cuando se emiten respuestas que ponen fin a hechos desagradables. Skinner se opone al empleo
de contingencias de castigo por entender que son ineficaces y tienden a provocar efectos
secundarios indeseables, como el de inhibir las conductas deseadas.
Aquellos reforzados que no son presentados en nexo de contingencia con la ocurrencia de
una respuesta particular pueden sin embargo llegar a controlar la conducta. Skinner llamó a este
efecto condicionamiento supersticioso y sugirió que muchas conductas humanas que parecen
irracionales pueden haber sido condicionadas por ese proceso. Si se emite una conducta
inmediatamente antes de la repetición de un reforzador, esa conducta es seguida por el reforzador
y tiene más probabilidad de repetirse.

Skinner distinguió cinco tipos de reglas que gobiernan las contingencias entre respuestas y
reforzadores: 1) dar un refuerzo a una respuesta constituye un refuerzo positivo, 2) dar un refuerzo
no contingente produce condicionamiento supersticioso; 3) dar un estímulo adverso, o 4) eliminar
el reforzador positivo contingente de una respuesta es castigo, y 5) la eliminación de un estímulo
adverso contingente de la emisión de una respuesta es refuerzo negativo.
La extinción del condicionamiento operante consiste en aquella situación en que la
contingencia original entre una respuesta y un reforzador toca a su fin. En consecuencia, la
respuesta ya no sobreviene en presencia del reforzador.

Programas de refuerzo: el aporte más importante de Skinner.

Skinner consagró la mayor parte de sus esfuerzos experimentales a investigar y describir


con detalle los efectos que tiene el aporte de reforzadores positivos. Skinner se dedicó a trabajar
en torno de la forma (llamada programa de refuerzo) en que se presenta el refuerzo.

El programa de refuerzo es la regla regida por el ambiente para determinar cuál de las
muchas ocurrencias de una respuesta será reforzada.

La mayor parte de nuestras consideraciones hasta este lugar se han referido a las
contingencias como hechos “todo o nada”. O sea, la conducta era seguida por el reforzador o no lo
era. En el mundo real, empero, el refuerzo es a menudo algo que se presenta solo a veces. Si para
mantener una determinada operante fuese necesario el refuerzo de cada respuesta, la mayor
parte de nuestras conductas, y en particular los ejemplos de conductas supersticiosas que hemos
visto, se extinguirían. Ese refuerzo que se brinda a veces a una conducta se llama refuerzo
intermitente, lo opuesto del refuerzo continuo, o RC.
El ambiente puede conectar reforzadores a respuestas sea por efecto del número de
respuestas emitidas o por la ocurrencia de la respuesta dentro de un intervalo de tiempo
específico. Esos programas se denominan respectivamente programas de razón y de intervalo y
pueden ser fijos (percibibles por el organismo) o variables (probabilísticos).

Cuatro tipos básicos de reglas o programas especifican en que forma la entrega de


refuerzos se relaciona con las respuestas. Son los programas fijo y variable basados en el tiempo
(intervalo fijo o intervalo variable) y los programas de razón fija y razón variable basados en el
número de respuestas necesarias por refuerzo.

También Skinner extendió su teoría a la explicación del lenguaje y el pensamiento, y lo hizo


con mucho mayor detalle que Pavlov. El sabio ruso consideró que la conducta verbal es suscitada
por señales (verbales o no), en tanto que, según Skinner, ese comportamiento es un tipo de
conducta operante que se ajusta a las mimas leyes que sigue cualquier conducta operante. En la
teoría de Skinner los estímulos sirven para la función de señalar cuando tiene probabilidad de ser
reforzadas una respuesta particular pensamiento/palabra; por lo tanto, no hay relación fija entre
una respuesta verbal particular y un estímulo discriminativo particular.

Skinner desarrolla una teoría del aprendizaje y la conducta verbales basada en su modelo
de aprendizaje operante, según el cual se formulan respuestas porque tienen probabilidad de
preparar la oportunidad para un refuerzo. Hay tres formas importantes de conducta verbal: 1)
tacto (usar nombres); 2) mando (pedir); 3) texto (en general leer).
Posiciones de Skinner frente a los problemas principales.

Naturaleza / crianza: Skinner considera que los reflejos involucrados en condicionamiento de tipo
E (pavloviano o clásico) son innatos. Reconoce que existen diferencias innatas entre las tasas de
aprendizaje correspondientes a las varias especies y a los individuos dentro de cada especie.
También reconoce que las contingencias filogenéticas (dependientes de la evolución) pueden
“reforzar” selectivamente la ocurrencia de pautas genéticas que lleven a un aprendizaje más fácil o
más difícil de conductas particulares.
De cualquier modo, Skinner se centra en los determinantes ambientales de la conducta. Aunque se
haya apartado de la posición ambientalista radical que caracterizó a teóricos como Watson, sigue
sosteniendo que el ser humano aprende primordialmente el lenguaje, la agresión, la conducta
social y la resolución de problemas por medio del condicionamiento operante.

El cómo del aprendizaje: Skinner afirma que proposiciones como las primeras de Thorndike acerca
de la ley del ejercicio o la contigüidad pura pueden explicar el condicionamiento pavloviano, o de
tipo E, de respuestas mediadas por el sistema nervioso autónomo. A su juicio, el condicionamiento
operante, o de tipo R, es el mecanismo de aprendizaje adaptativo de las respuestas de los
músculos esqueléticos. Aprendizaje operante es aprendizaje por medio del refuerzo. Si bien
Skinner sostiene que existen ambos tipos de procesos de condicionamiento, el énfasis que pone
sobre el condicionamiento operante sitúa su teoría, que nominalmente es de dos factores, entre
las del refuerzo. En el modelo skinneriano del aprendizaje operante, una respuesta debe ser
emitida espontáneamente y esta emisión ser seguida por un hecho que la refuerce para que haya
condicionamiento. En concordancia con la preferencia de Skinner por enunciar sus leyes solo en
términos de estímulos y respuestas, se define el refuerzo, desde el punto de vista operativo, como
cualquier suceso que aumente la probabilidad de reocurrencia de una respuesta emitida
exactamente antes de ese suceso que la refuerza.

El qué del aprendizaje: Salvo en el caso del condicionamiento de tipo E, que interviene en los
reforzadores condicionados del aprendizaje, los organismos aprenden a activar operantes
apropiados en presencia de estímulos discriminativos específicos, de acuerdo con tasas
controladas por programas. Las unidades de aprendizaje pueden consistir ya en relaciones E-R, ya
en tendencias a emitir conductas. Skinner evita especular acerca de variables internas y
deliberadamente deja sin definir la cuestión de la unidad interna de aprendizaje.

Continuidad/discontinuidad, uso de datos animales y determinismo: Según la teoría skinneriana, el


aprendizaje es un proceso gradual (continuo), excepto en los contados casos en que un ensayo
dotado de gran capacidad como refuerzo pueda formar la conexión. Skinner es decididamente
determinista y considera que las conductas son determinadas por las circunstancias ambientales,
excepto en los pocos casos en que los factores determinan internos e instintivos pueden conducir
a responder. Skinner generaliza sin reparos a la conducta humana los datos obtenidos de animales
en condiciones controladas de laboratorio.

También podría gustarte