Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Antecedentes históricos
1
• En líneas generales, podemos decir que el Neoconductismo fue el resultado de la unión entre el
Conductismo y el Positivismo Lógico:
◦ El contenido de la psicología seguía siendo la conducta manifiesta (Conductismo), pero gracias
al Positivismo Lógico se aceptaban teorías sobre procesos mentales no observables mientras
estuvieran definidos operacionalmente.
◦ Estas circunstancias permitieron que surgieran varias versiones del conductismo, igual de
objetivas y científicas.
2
◦ Si se confirman sus deducciones, la teoría gana fuerza y se mantiene.
◦ Si no se confirman sus deducciones, la teoría pierde fuerza, y deber revisarse o abandonarse
frente a una nueva teoría que explique mejor el fenómeno.
Antecedentes: El Operacionalismo
• Con el Positivismo Lógico se llega a la “era de la teoría”, desde 1930 hasta 1950 aproximadamente.
En muchas ciencias comienzan a proponerse teorías, que son modelos explicativos de la realidad.
• Ante este fenómeno, surge el Operacionalismo: un enfoque que insiste en que todos los términos
teóricos abstractos deben definirse operacionalmente (describiendo todas las variables de interés).
◦ Es decir, se debe definir todo concepto científico abstracto en función de los procedimientos
utilizados para mediar dicho concepto. Las definiciones operacionales unen los términos
teoréticos a los fenómenos observables, por lo que son aceptadas como científicas.
◦ En el ejemplo anterior: la mejora de la depresión podría objetivarse como la puntuación en un
test psicológico
• La definiciones operacionales se podían utilizar en Psicología para convertir términos teoréticos en
sucesos y despojarlos de sus connotaciones metafísicas. Esto permitió que los psicólogos
definieran conceptos teóricos sin dejar de ser científicos y objetivos:
◦ Ej: El aprendizaje se podía definir operacionalmente como solucionar un laberinto
correctamente un determinado número de veces.
◦ Ej: La ansiedad se podía definir operacionalmente como una puntuación en un test concreto.
3
2. Características generales del neoconductismo
Características generales
• Aunque existen diferencias importantes entre los diferentes neoconductistas, la mayoría compartirán
las siguientes ideas:
◦ El proceso de aprendizaje es fundamental porque representa el mecanismo primario por el que
los organismos se ajustan a los cambios del entorno.
▪ El aprendizaje asociativo será el proceso explicativo del comportamiento.
◦ El objeto de estudio de la Psicología sigue siendo la conducta. Ahora bien, a través de los datos
objetivos obtenidos a partir de la conducta, se puede teorizar acerca de la existencia de procesos
intermedios o psicológicos.
▪ La teorías debían utilizarse según los criterios del Positivismo Lógico, con todos los
términos teoréticos debían ser definidos operacionalmente.
◦ Se debían utilizar animales como sujetos de experimentación ya que las variables relevantes son
más fáciles de controlar que en los humanos.
▪ Mantienen la idea de que los procesos de aprendizaje hallados en animales son extrapolables
al ser humano.
4
◦ Concepción molar de la conducta vs. concepción molecular.
• Representante del Conductismo propositivo o intencionado. “Conducta intencionada en animales y
hombres” (1932).
◦ La concepción de conducta Watsoniana en términos de reflejos básicos es reduccionista. Toda
conducta tiene un propósito o intención, el cuál es un aspecto objetivo de la conducta que se
puede estudiar
◦ Este libro se lo dedica a MNA (Mus norvegicus albinus).
• Interesado en los métodos para obtener una comprensión de los procesos mentales internos.
5
los diferentes movimientos musculares que la hacen posible (conducta molar). La intención y
cognición se pueden estudiar de forma objetiva como aspectos objetivos y observables de la
conducta misma, y no como parte de una mente misteriosa inferida.
• Tampoco estaba de acuerdo con Thorndike en que el refuerzo fuera estrictamente necesario para
aprender (Ley del efecto).
Experimentación animal
• Tolman realizó experimentos con ratas para aproximarse a las leyes del comportamiento humano.
◦ Construían laberintos de formas diversas e introducían en ellos recompensas o castigos. Se
contabilizaba el tiempo que las ratas tardaban en recorrerlos y los errores que cometían en el
trayecto.
6
◦ Ventajas: ratas son animales pequeños, económicos y manejables, muy cómodos para el
laboratorio: “las ratas no se van de copas la noche antes de un experimento o no se matan
mutuamente en guerras…tampoco se meten en conflictos de clase o raza y evitan la política”.
• Todos sabemos que una rata es capaz de aprender a salir de un laberinto, la cuestión importante es
¿cómo lo hace?
◦ En sus estudios demostró que las ratas podían aprender hechos o conocimientos acerca del
mundo que podrían usar de manera flexible, en vez de simplemente aprender respuestas
automáticas iniciadas por estímulos ambientales. También demostró que el aprendizaje era
posible en ausencia de refuerzos.
◦ Los organismos son capaces de crear estructuras cognitivas (en forma de mapas mentales,
hipótesis, creencias o expectativas) para representar la complejidad del ambiente, y además son
capaces de reorganizarlas
◦ Para demostrar la existencia de este tipo de conocimiento adquirido, realizó estudios donde se
ponía de manifiesto la existencia de un aprendizaje latente.
Aprendizaje latente
• Para demostrar la existencia del aprendizaje latente, Tolman se apoyó en un estudio clásico con ratas:
◦ Tres grupos de ratas fueron entrenadas para recorrer un laberinto durante 22 días:
▪ En el Grupo 1: los animales obtenían comida siempre al llegar al final desde el primer día.
▪ En el Grupo 2: las ratas conseguían la comida al llegar a la salida partir del día 11.
▪ En el Grupo 3: las ratas nunca recibían comida.
◦ En cada ensayo, se registraba el número de errores que cometían hasta llegar al final del
laberinto (medida del aprendizaje).
Resultados
• La tasa de errores de las ratas del grupo 1 (siempre reforzadas) descendió desde el primer día de
forma gradual.
• La tasa de errores del grupo 2 (reforzadas a partir del día 11) se redujo de forma brusca a partir de la
introducción de la comida.
• La tasa de errores del grupo 3 (nunca reforzadas) se mantuvo elevada de forma constante.
• Los resultados sugieren que las ratas del grupo 2 (no reforzadas hasta el día 11) habían estado
explorando y aprendiendo el laberinto sin la presencia del reforzador, porque al día siguiente lo
hacían igual de bien o incluso mejor que las ratas del grupo 1 (se había producido un aprendizaje
latente que solo se podía cuantificar tras la introducción del reforzador).
7
Mapas cognitivos
• Las ratas habían aprendido aún sin ser reforzadas. Según estos resultados, las ratas construían
representaciones mentales del laberinto durante las sesiones de entrenamiento sin necesidad de
refuerzo.
• Habían aprendido un “mapa cognitivo” del laberinto que posteriormente utilizaron cuando se
introdujo el reforzador. El aprendizaje se manifestaba de forma observable y se podía cuantificar
sólo cuando la rata tenía una razón o propósito (alcanzar la comida). El refuerzo no es
indispensable para que ocurra aprendizaje, pero sí lo es para que se manifieste en la ejecución
(aprendizaje vs. ejecución).
• Ejemplo en humanos: “Todos los días hacemos la misma ruta para ir a clase. Durante el camino,
vemos edificios. Uno de esos edificios es un taller de coches. El día que nuestro coche tenga una
avería, sabremos qué camino seguir para llegar al taller (aunque nunca hayamos ido antes)”
• De este modo, confirmó que las ratas no aprendían a ejecutar una cadena de movimientos
musculares, como defendían los teóricos del paradigma E - R (Watson), sino que eran necesarias
variables cognitivas (como los mapas cognitivos), o al menos no observables, para explicar el
aprendizaje que habían adquirido.
• Este aprendizaje sólo se podía observar o cuantificar cuando se administraba el refuerzo (en la
ejecución).
8
◦ Conclusión: las ratas habían adquirido expectativas específicassobre los resultados de sus
conducta.
Conclusiones
• Tolman creía que las explicaciones sobre el aprendizaje anteriores destacaban el carácter mecánico o
la fuerza de las conexiones entre estímulos y respuestas (enfoques de Thorndike y Watson).
• Estas descripciones no encajaban con las conductas que él observaba en sus ratas. Lejos de
comportarse de forma mecánica e irreflexiva, Tolman observaba que las ratas actuaban con
inteligencia, manifestando expectativas y con un propósito o intención. Tolman propone un enfoque
cognitivo sobre el aprendizaje.
◦ Frente a la concepción molecular de la conducta, Tolman defendió una concepción molar de la
conducta.
◦ Lo relevante de la conducta es su propósito o intención, y no la sucesión de movimientos
musculares que la hacen posible.
• Sin negar el papel de los estímulos externos sobre la conducta, introdujo el papel de las variables
intervinientes (como la intención, la motivación y las expectativas) que permitía explicar formas de
conducta más complejas.
◦ Sirviéndose de una metodología de trabajo rigurosa, experimental y esencialmente conductista,
desarrolló una concepción de la conducta que trascendía del tradicional esquema E – R y
postulaba el esquema E – O – R.
◦ Estas variables internas como las cogniciones, las expectativas o las representaciones internas
del mundo, desempeñan un papel determinante en conducta (ej: mapas cognitivos).
• Tolman demostró en sus estudios cómo era posible adquirir conocimiento sobre las características
espaciales de un ambiente o situación (en forma de representaciones mentales o mapas cognitivos)
sin efecto ventajoso inmediato. Sus hallazgos desafiaron los principios de la ley del efecto, o en
otras palabras, el aprendizaje sin refuerzo era posible.
• Tolman diferenció entre aprendizaje y ejecución
◦ La ejecución es un dato observable mientras que el aprendizaje como tal es un proceso inferido
◦ Puede producirse aprendizaje sin que se observen cambios en la conducta (en el aprendizaje el
organismo adquiere conocimiento a través de la experiencia y la observación sin manifestarlo
conductualmente: aprendizaje latente).
◦ En la ejecución, se evidencia el efecto del aprendizaje en la conducta del organismo cuando se
introduce un reforzador, porque la recompensa motiva la conducta (conducta intencionada).
• En términos generales su gran aportación a la psicología fue la de modificar dramáticamente el
conductismo.
◦ Ante un conductismo radical y ambientalista dominante, Tolman sentará las bases de una
Psicología Cognitiva, en la que se da importancia a los procesos cognitivos y se concibe a los
organismos como procesadores activos de la información (no como seres mecánicos).
9
4. El sistema formalizado de Clark L. Hull.
Variable intervinientes
10
Teoría de la reducción del impulso (D)
• Al contrario que Watson y Tolman, para Hull el refuerzo era fundamental para explicar el
comportamiento.
• El refuerzo para Hull está determinado por todo aquello que reduzca o disminuya ciertas necesidades
que los organismos experimentan (ej: hambre, sed, sueño, etc.).
• Estas necesidades crean en el organismo un impulso, el cual provoca una tendencia en los
organismos a realizar conductas con el objetivo de reducir esos impulsos (gran parte del
comportamiento se rige por este objetivo).
• Hull definirá el refuerzo como la reducción de estos impulsos o necesidades.
◦ Todo aquello que contribuya a aliviar una necesidad constituye un reforzador, y por tanto
incrementará las probabilidades de realizar una conducta determinada
◦ La intensidad del impulso va a depender de la privación del reforzador (ej: a más hambre más
impulso y más energía o más tendencia a realizar la conducta que provoque su satisfacción).
11
◦ Así, la ley de la formación de hábitos (SHR) predice que si los refuerzos se presentan en
intervalos regulares, la fuerza del hábito (SHR) resultante aumentará a medida que aumente el
número de ensayos
◦ Ej: Una luz indica a una rata hambrienta que si presiona una palanca obtendrá comida. Bajo
estas circunstancias, cuantas más ensayos se someta a la rata, mayor fuerza del hábito se
producirá (mayor fuerza asociativa entre la luz y la respuesta de apretar la palanca).
12
• Amplía y remodela la teoría de Hull de forma tan sustancial que esta nueva teoría se conocerá como
la teoría de Hull-Spence.
• En 1960, los psicólogos citaban más a Spence en las revistas experimentales que a Hull.
Conclusiones
• A lo largo de sus postulados, Hull intentó construir una teoría mecanicista del aprendizaje en la cual
se reflejaran todos aquellos elementos que determinaban el establecimiento, fortalecimiento y
desaparición de las conductas.
• Hull sí que tuvo en cuenta la ley del efecto para explicar el aprendizaje de conductas:
◦ Cuando un organismo se encuentra en un estado de necesidad, el impulso propiciará la aparición
de conductas encaminada a reducir esa necesidad.
◦ Las conductas que produzcan la reducción o desaparición de la necesidad quedarán reforzadas y
tenderán a repetirse .
• Autor comprometido con el mecanicismo y con la construcción de una teoría formal del
aprendizaje de acuerdo con los pasos del método hipotético-deductivo.
• Hull y Tolman protagonizaron un largo debate durante años en el que defendieron sus respectivas
posturas acerca del aprendizaje.
Tolman vs Hull
13
5. La psicología de Skinner
B. F. Skinner (1904-1990)
• Skinner fue positivista, no positivista lógico. A diferencia de Tolman o Hull, no aceptará teorías ni
inferencias de constructos mentales: sólo hechos.
◦ “El que una teoría genere una investigación no prueba su valor a no ser que la investigación
tenga valor”…. “La mayoría de las teorías finalmente se abandonan y se descarta la mayor
parte de la investigación asociada”
• Reclama el retorno del conductismo radical y el ambientalismo radical: el entorno es el que
controla la conducta, no los sucesos mentales de la persona.
◦ Su interés se centró en cómo cambia la conducta en función de sus consecuencias, sin dar
importancia a la consciencia y a los procesos mentales.
◦ Creía que todos ellos son simples etiquetas verbales conferidas a determinados procesos
corporales o neurofisiológicos (monismo materialista). No era necesario conocer las bases
neurofisiológicas para explicar las relaciones entre el entorno y la conducta.
14
• Por su parte, Skinner moldeó su teoría a partir de la de Thorndike (basándose en la ley del efecto y
en la importancia del reforzamiento en la conducta). Le interesaba estudiar aquella conducta que
estaba controlada por sus consecuencias y la re-define como conducta operante (vs. conducta
instrumental de Thorndike).
• Skinner creía que la conducta operante, y no la conducta respondiente, era el principal mecanismo
de modificación de la conducta y la clase de comportamiento más corriente, universal y versátil.
◦ Aunque el condicionamiento clásico podía ser útil en ciertos casos, descartaba la posibilidad de
que la conducta pudiera ser explicada solo a través de este mecanismo, ya que era poco
representativo de la potencialidad de aprendizaje propia del ser humano.
• No era importante conocer las causas de la conducta, sino cómo esta estaba controlada por sus
consecuencias
◦ En vez de poner el foco en el modo en el que se asocian entre sí los estímulos, se fijó en la
manera en la que quedan asociadas las acciones que se realizan y las consecuencias de estas
acciones. A la hora de modular la conducta importan más las consecuencias que los estímulos
que la preceden.
15
El refuerzo para Skinner
• Skinner destacó el papel de un tipo concreto de estímulos: los reforzadores.
• Los reforzadores se encargan de fortalecer la unión entre determinadas respuestas con determinados
estímulos discriminativos. Es decir, si ante una situación determinada, una respuesta concreta
conduce al refuerzo, la frecuencia de esa respuesta aumenta (Ley del efecto).
• Define 2 tipos de reforzadores:
◦ Primarios: de importancia biológica y no necesitan aprenderse, (ej: comida)
◦ Secundarios: son aprendidos, (ej: el dinero, los cumplidos, etc.).
• Sólo porque algo actúe como reforzador o castigo para un organismo bajo una serie de circunstancias
no quiere decir que sea un reforzador para otro organismo o para el mismo organismo en
circunstancias diferentes.
◦ Ej: la comida puede dejar de ser un reforzador cuando el animal está saciado.
• Para Skinner, el refuerzo se puede identificar sólo a través de sus efectos sobre la conducta.
◦ En otras palabras, un reforzador es cualquier cosa que, cuando se aplica de forme contingente a
una respuesta, cambia la frecuencia con la que se realiza esa respuesta (sin entrar en si satisface
una necesidad o reduce un impulso).
Moldeamiento
• Gracias a los principios del condicionamiento operante, se puede aumentar la frecuencia de una
conducta que tiene una baja frecuencia, o incluso instaurar una conducta nueva (no existente
previamente en el repertorio conductual del organismo).
16
• Este procedimiento se llama moldeamiento, y permite que los organismos aprendan una conducta
inicialmente muy compleja y fuera de su repertorio.
◦ Este procedimiento se utiliza cuando el sujeto no sabe realizar la conducta que se pretende
enseñar porque le resulta compleja.
◦ Como el sujeto no va a aprender a realizar la conducta de golpe, se trata de ir reforzando poco a
poco las conductas que se parezcan o asemejan a la conducta final (reforzamiento progresivo de
las aproximaciones a la conducta objetivo)
• Este principio se ha utilizado para enseñar a las palomas a jugar a ping-pong y baloncesto. Muchos
animales del circo por ejemplo, aprenden a realizar conductas inusitadas mediante el moldeamiento.
No reforzar = castigar
• Skinner recomendaba que el método alternativo para reducir una conducta era no reforzarla o
utilizar el castigo negativo (evita efectos indeseables y negativos del castigo como el miedo o la
agresividad).
◦ Ejemplo: “Un padre piensa en dar un bofetón a su hijo porque ha roto un jarrón (castigo
positivo). Pero lo reconsidera y en vez de pegarle lo que le hace es quitarle el mando de la
televisión para que no pueda ver los dibujos (castigo negativo u omisión)”
17
• Otra recomendación era modificar la conducta indeseable de forma progresiva mediante el refuerzo
(reforzar progresivamente los pequeños cambios hasta que la conducta fuera distinta =
moldeamiento).
• Importante: castigo y refuerzo negativo no es lo mismo.
Recuerda
18
¿Qué tipo de reforzamiento se está dando aquí?
• Un profesor llama la atención de un alumno porque está hablando alto en clase y éste se avergüenza.
◦ Castigo
• Una madre lleva al cine a su hijo a ver una película porque ha sacado buenas notas en el colegio.
◦ Refuerzo
• Una niña toca un fogón caliente de la cocina y se quema
◦ Castigo
• Un padre esconde la Playstation 4 a su hijo porque no ayuda en las tareas domésticas de casa.
◦ Castigo negativo u omisión.
• Una chica finge estar enferma para no asistir al seminario de Historia de la Psicología donde deber
realizar una presentación oral, idea que le produce mucha ansiedad.
◦ Refuerzo negativo.
Registro acumulativo
• Permite registrar la tasa de respuestas y de refuerzos que experimenta un organismo a través del
tiempo.
• Nos da una idea de cuánto y cómo de rápido un animal responde para obtener un reforzador.
19
Programas de reforzamiento
• Skinner estudió la influencia sobre la conducta de diferentes programas de reforzamiento a través del
tiempo. En otras palabras, ¿con qué frecuencia responderá un animal dependiendo de las veces
que sea reforzado?
• Los principales programas de refuerzo presentados por Skinner eran de razón (fija o variable) y de
intervalo (fijo o variable):
◦ Refuerzo de razón: los refuerzos se obtienen cuando se da un número determinado de
respuestas.
▪ Fija (RF): un determinado número de respuestas debe ocurrir antes que haya refuerzo, (un
programa de razón fija = 1 es un programa de refuerzo continuo, cada vez que una acción es
realizada (ej: apretar una palanca) se recibe un refuerzo (bola de comida).
▪ Variable (RV): el número de respuestas antes de que se produzca el refuerzo es un promedio
(en un programa RV 15, los refuerzos se podrían dar a las 10 respuestas, a las 20, a las 15 y a
las 5).
◦ Refuerzo de intervalo: los refuerzos se obtienen cuando el animal da una respuesta y además ha
pasado un tiempo específico.
▪ Fijo (IF): se refuerza la primera respuesta después de que haya pasado un tiempo
determinado. Por ejemplo: se refuerza la primera respuesta que el animal de en 2 minutos
(por mucho que responda luego, el reforzador no volverá a suministrarse hasta que no
acaben los 2 minutos y el animal responda).
▪ Variable (IV): el tiempo que tiene que pasar antes de que una respuesta pueda producir un
refuerzo no es determinado, sino que varía alrededor de un valor promedio, (en un programa
IV 15, los refuerzos se podrían dar a la primera respuesta que un animal da a los 10 minutos,
a los 20, a los 15 y a los 5).
Por lo general, los programas variables producen respuestas más resistentes a la extinción una vez
suspendida la administración de reforzadores. Los programas fijos producen en general periodos de descanso
tras la obtención de reforzador y provocan respuestas que son más fáciles de extinguir cuando dejan de
administrarse reforzadores.
20
Ejemplos programas de reforzamiento:
• Razón fija: un ejemplo se da cuando las fábricas pagan a sus obreros después de producir un
determinado número de productos (ej: cobrar dinero por cada 100 azulejos construidos). Por lo
general, el organismo hace una pausa para descansar después de recibir el reforzamiento, antes de
proseguir con la respuesta.
• Razón variable: equivale a como funciona una máquina tragaperras (se recibe un premio monetario
cada 100 tiradas en promedio). Por lo general, los individuos no hacen pausas tras obtener un
reforzador y es el programa que produce la mayor tasa de respuestas.
• Intervalo fijo: un ejemplo sería el de un padre que verifica cada media hora que su hijo está
estudiando, y cuando es así le hace un halago. Los problemas de intervalo fijo producen una tasa de
respuestas desigual. Una vez que se administra el refuerzo, la tasa de respuestas tiende a ser baja.
Durante el intervalo, la conducta aumenta típicamente hasta alcanzar un nivel elevado
inmediatamente antes del siguiente reforzador programado.
• Intervalo variable: un ejemplo es el de un profesor que realiza exámenes sorpresa aproximadamente
cada semana. Este tipo de programa por lo general produce una tasa de respuesta constante, pero
moderada.
21
• Por consiguiente, el tratamiento de estas conductas dependerá de modificar las contingencias de
refuerzo para reducirlas o extinguirlas, o fortalecer conductas deseables alternativas (objetivo
eliminar los refuerzos que mantienen estas conductas y modificar los refuerzos para estimular las
conductas deseables).
• Skinner y sus seguidores aplicarán sus principios para desarrollar un modelo de terapia nuevo y
alternativo al Psicoanálisis: la Terapia de Modificación de Conducta:
◦ Desde este punto de vista, los trastornos mentales empiezan a concebirse como trastornos de la
conducta, sobre la cuál se pueden aplicar los principios de aprendizaje.
◦ Estas técnicas se utilizarán para diferentes problemas como las adicciones (tabaco, alcohol,
drogas), la timidez, problemas de lenguaje (ej: autismo), trastornos de ansiedad (fobias),
problemas sexuales y un largo etcétera.
• Aplicaciones en la Economía de Fichas en diferentes instituciones (como hospitales psiquiátricos).
Video de Skinner
• ¿En qué se distingue el comportamiento humano del animal?
◦ En el lenguaje.
• Como define el comportamiento Skinner:
◦ El comportamiento se define en términos de su relación con las variables del entorno que le
preceden y le siguen (consecuencias).
• ¿Qué es un reforzador según Skinner?
◦ Algo que incrementa la frecuencia de respuestas.
• ¿Cómo podemos hacer que un animal aprenda una respuesta nueva que no está en su repertorio
original (por ejemplo que la paloma dé un giro completo sobre si misma)?
◦ A través del refuerzo de etapas sucesivas (Moldeamiento)
• ¿Es importante para Skinner la búsqueda de agentes internos para explicar el comportamiento?
22
◦ No, es innecesaria.
• ¿A qué programa de reforzamiento corresponde una máquina tragaperras?
◦ Programa de Razón Variable.
El legado de Skinner
• Skinner ha tenido tanta importancia que sus seguidores organizaron su propia división de la APA
(División 25: Análisis Experimental de la Conducta).
• Diseñó las cajas de Skinner, que permiten una medición objetiva y precisa de la conducta de los
animales bajo determinadas circunstancias que a día de hoy se siguen empleando en investigación
animal.
• Aplicó muchos de sus principios hallados en el laboratorio al ámbito educativo y de los trastornos
psicológicos:
◦ Sus principios de aprendizaje sentaron las bases de un enfoque terapéutico alternativo al
Psicoanálisis: la Terapia de Modificación de Conducta.
◦ La terapia de conducta supone que las personas aprenden la conducta anormal de la misma
manera que aprenden la conducta normal. Por tanto, el tratamiento depende de eliminar los
refuerzos que están manteniendo la conducta indeseable (para provocar su extinción), al tiempo
que se refuerza la conducta deseable para fortalecerla
◦ De forma más reciente, la aparición de la Psicología Cognitiva ha supuesto que las terapias
incluyan también aspectos cognitivos (además de aspectos conductuales, se trabaja la
modificación de pensamientos, ej: reestructuración cognitiva). Son las Terapias Cognitivo-
Conductuales.
• Carácter optimista de su teoría: nos recuerda que aunque es cierto que nuestra conducta depende de
nuestro entorno, también es cierto que con nuestra conducta podemos cambiarlo.
6. Conclusiones
23
• En la actualidad, los psicólogos están de acuerdo en afirmar que el contenido de la psicología es la
conducta manifiesta:
◦ Incluso los psicólogos experimentales que estudian los procesos cognitivos utilizan la conducta
para clasificar y estudiar estos sucesos.
24