Está en la página 1de 28

INTRODUCCIÓN

Todos entendemos por psicología cognitiva que es él estudio de procesos


mentales pero poco sabemos cómo fue su origen, es por eso que en el
siguiente trabajo nos vamos a enfocar en los antecedentes.

En la primera parte, vamos a comenzar explicando detalladamente los aportes


de Lashley, Shannon con su teoría de la comunicación, Wiener con la ciencia
de la comunicación, Chomsky y Broadbent que fueron de gran importancia en
este campo.

En la segunda parte, vamos a tocar el tema de la introspección estudios


experimentales del comportamiento humano como el experimento de Watson
llamado “experimento del Pequeño Albert “en esa parte vamos a conocer 4
experimentos que se han realizado y han sido de gran aporte, también se verá
los estudios cronométricos y paradigma de aprendizaje seguido de la
simulación de procesos cognitivos y la Inteligencia artificial.

Por último, se dará a conocer las conclusiones de este trabajo y la bibliografía


que fue de gran utilidad para el avance del trabajo.
2. Psicología Cognitiva: Orígenes, antecedentes y métodos.
2.1. Psicología Lashley (1948)

Karl Spencer Lashley (7 de junio de 1890 - 7 de agosto de 1958) fue un


psicólogo y conductista estadounidense, muy recordado por sus influyentes
contribuciones al estudio del aprendizaje y la memoria. Basado en años de
investigación en los que no pudo encontrar el locus biológico de la memoria (o
"engrama"), fue uno de los primeros en afirmar que los recuerdos no estaban
localizados en una parte del cerebro, sino que estaban ampliamente
distribuidos en toda la corteza cerebral. . El trabajo de Lashley ha tenido
amplias implicaciones para el estudio del aprendizaje, la memoria y las
funciones cerebrales. Sin embargo, su comprensión de la mente humana se
limitaba a la estructura del cerebro físico. La complejidad del pensamiento y la
conducta humana se basa en aspectos internos, a saber, la mente y el espíritu.
Comprender el impacto que el comportamiento en el mundo físico tiene sobre
los seres humanos solo comienza con la comprensión de la forma en que el
cerebro almacena recuerdos. Sus efectos en las mentes y espíritus humanos
pueden ser mucho más extensos e incluso más indelebles.

Trabajo

Su trabajo, se encuentra especialmente relacionado con el conductismo de


Watson, donde este solo estaba interesado en la conducta y no en las
experiencias conscientes a cuyo enfoque se mantuvo leal a lo largo de su
carrera, con quien trabajó directamente en sus investigaciones con animales.

El trabajo posterior de Lashley incluyó investigaciones sobre mecanismos


cerebrales relacionados con los receptores de los sentidos y sobre la base
cortical de las actividades motoras. Estudió muchos animales, incluidos los
primates, pero su trabajo principal se realizó en la medición del comportamiento
antes y después del daño cerebral específico y cuidadosamente cuantificado
en ratas dentro de un laberinto.
Combinando los conocimientos del conductismo y su investigación con ratas
entrenadas, Lashley planteó la hipótesis de la existencia de un área local en el
cerebro donde se almacenan los recuerdos de las respuestas aprendidas.
Lashley llamó a esta área el "engrama" (traza de memoria). La idea de que las
respuestas aprendidas están localizadas en el cerebro estaba en línea con el
conductismo, y Lashley dedicó su carrera a encontrar esas áreas. Usó
laberintos de varias dificultades y tamaños, donde entrenó ratas para encontrar
la salida. Después de que las ratas memorizaran dónde estaba la salida,
Lashley realizaría diferentes lesiones en sus cerebros, bajo el supuesto de que
sería capaz de eliminar las huellas de memoria que sus cerebros crearon. Sin
embargo, después de años de investigación, Lashley no pudo encontrar la
ubicación de tales "engramas".
En 1929, Lashley publicó su obra maestra Mecanismos cerebrales e
inteligencia: un estudio cuantitativo de las lesiones cerebrales, donde resumió
los años de su investigación sobre la localización cerebral. En él renunció a la
existencia de un área local precisa en el cerebro que es responsable de
guardar recuerdos. El estudio tuvo un profundo impacto en el campo joven de
la psicología fisiológica, y en la investigación futura sobre el cerebro.

En 1950, Lashley había destilado su investigación en dos teorías:

El principio de "acción de masas" establece que la corteza cerebral actúa como


uno, como un todo, en muchos tipos de aprendizaje. Diferentes áreas del
cerebro participan en el aprendizaje y las huellas de memoria se dispersan por
toda la corteza.

El principio de "equipotencialidad" establece que si ciertas partes del cerebro


se dañan, otras partes del cerebro pueden asumir el papel de la parte dañada.
Locus, por lo tanto, no es importante.

Como lo expresó Lashley (1950):

Esta serie de experimentos arrojó una buena cantidad de información sobre


qué y dónde no está el rastro de la memoria. No ha descubierto nada
directamente de la naturaleza real de la huella de la memoria. A veces siento,
al revisar la evidencia de la localización del rastro de memoria, que la
conclusión necesaria es que el aprendizaje simplemente no es posible. Es
difícil concebir un mecanismo que pueda satisfacer las condiciones
establecidas para él. Sin embargo, a pesar de tal evidencia en contra, el
aprendizaje a veces ocurre.

Legado

Basado en su trabajo con animales, y la aplicación de ese conocimiento a los


principios universales de comportamiento, Lashley es considerado como un
pionero en etología y psicología comparada.

Uno de los campos de la psicología que más debe a Karl Lashley es el campo
de la psicología fisiológica. El trabajo de Lashley sobre la localización del
aprendizaje y la memoria dio forma a futuras investigaciones en estudios del
cerebro, demostrando que el cerebro era más complejo de lo que se pensaba.
La investigación sobre "engramas" continuó después de la muerte de Lashley,
con el trabajo de Donald O. Hebb, un estudiante de Lashley.

Sin embargo, también se desarrollaron otras líneas de investigación, basadas


en la falla de Lashley para encontrar rastros de memoria localizados, lo que
implica en cambio que el aprendizaje afecta una amplia área de la corteza. Las
ideas de Lashley estaban en línea con las teorías modernas utilizadas por los
conexionistas: teorías de la inteligencia artificial, la ciencia cognitiva, la
neurociencia, la psicología y la filosofía de la mente.

2.2. Teoría de la comunicación de Shannon (1948)


En la actualidad, la teoría de Shannon sigue siendo importante y explotados
por varios teóricos. Vivimos en un mundo de tecnología es por eso la
importancia que se le ha brindado porque los científicos van a poder entender
el aspecto matemático formal del conocimiento de información y que se pueda
medir y cuantificar para que pueda ser utilizada en aspectos tecnológicos.

El objetivo que siguió Shannon es que con la teoría matemática de la


información, los ingenieros comunicacionales puedan describir los problemas
que encuentran a diario en su trabajo.

Los mensajes tienen un significado, están relacionados entre por algún sistema
de entidades físicas y uno de sus principales aportes de Shannon fue detallar
cuál es el problema informal y dividir cuales son los aspectos formales de los
semánticos para anexar con el contenido del mensaje.

Según Shannon, Un sistema de comunicación tiene varias partes:

-Una fuente: Genera el mensaje

-Un transmisor: Transforma el mensaje, la información es codificada.

-Un canal: Medio por el cual se envía la señal y pueda ser transmitida al
receptor

-Receptor: Recostruye el mensaje por la señal

-Destinatario: La persona que recibe el mensaje

En conclusión, Shannon con su teoría de comunicación nos plantea que toda


información tiene que pasar por una serie de fases de filtros, después pasa por
un canal, de nuevo pasa por los filtros y por último la información se decodifica
para que así sea más fácil la recepción de la información.
2.3. Ciencia de la comunicación de Wiener (1948)
La ciencia de la computación surge con el desarrollo de la mecánica y la
industria del siglo XX, pero uno de sus exponentes es Nobert Wiener que
aporto mucho con su libro “Cibernética o el control y comunicación en animales
y máquinas”

El nombre “Cibernética”, le dio origen Norbert Wiener que fue inspirado por las
historias de la antigua Grecia ya que en los tiempos de batallas en barco no era
posible prevenir algunas lluvias entre otros factores climatológicos pero la
persona que llevaba el timón, si se ponía en lo más alto podía ver qué pasaba y
así manejar la embarcación en tiempo real sin ningún problema, a esta persona
se le llamaba kybernetes que en español significa cibernética.

La cibernética se presenta como un paradigma científico capaz de explicar los


conceptos básicos de las ciencias, como una estructura de conocimientos, que
todo fenómeno del universo es consecuencia de procesos de comunicación.

La cibernética es una ciencia que tiene que ver con otras como la combinación
de las matemáticas, la neurofisiología, la física y también la psicología entre
otros. Aquí nos dice que las matemáticas están estrechamente relacionadas
con el funcionamiento de las maquinas ya que las restricciones de la primera
tienen las mismas de la segunda que son las maquinas computadoras.

Otro parecido entre el ser humano y la maquina es la memoria humana que es


una función básica del sistema nervioso y la memoria artificial de la
computadora “entre el sistema nervioso y la máquina automática existe una
analogía fundamental, pues son dispositivos que toman decisiones basándose
en otras que hicieron en el pasado”

La cibernética se propone como la ciencia que permitirá el control de los


“factores anti homeostáticos” relacionado a la naturaleza o la sociedad. La
homeostasis se refiere al proceso de los seres vivos que mantienen cierto
organización frente a la tendencia del universo que es donde se encuentra la
decadencia y corrupción. Esto se le conoce como entropía.

La entropía es la medida de probabilidad de encontrar respuestas, nos quiere


decir que la entropía mide el nivel de desorganización y homogeneidad de un
sistema. A menor entropía, mayor diferenciación; a mayor entropía mayor
homogeneidad. Wiener creía que mientras aumentara el universo mayor sería
la homogeneidad.
La información, se opone a la entropía. Quiere decir que a mayor entropía
menor será la información; a mayor información menor será la entropía.

La noción del feedback, la cibernética se a dedicado a las analogías operativas


entre los hombre y las maquinas (resaltando las últimas maquinas de estos
tiempo) son parecidos en la intención de regular la entropía usando la
retroalimentación. Esta analogía operativa se relaciona con el funcionamiento
de los seres humanos y de las maquinas ya que los dos trabajan o van desde
la entropía negativa con una tendencia temporal creciente hacia mayores
niveles de organización.

Da paso al feedback concepto clave de la comunicación, hoy término


incorporado a la práctica cotidiana para dar significación a respuesta, escucha,
devolución, entre varias otras, el feedback, en español vulgarmente conocido
como retroalimentación, es una idea desarrollada por el matemático Norbert
Wiener, finalizada la segunda guerra mundial.

Como Wiener se le ocurre la idea del feedback durante la segunda guerra


mundial y al igual que otros científicos que serán fundamentales en el
nacimiento de la informática y las telecomunicaciones participará en estudiar la
trayectoria de los misiles antiaéreos para el US Army. En esas investigaciones,
Wiener, descubre que “como el avión vuela a una velocidad muy grande, es
preciso predecir su posición futura a partir de posiciones anteriores. Si el cañón
está informado de la separación entre la trayectoria real y la ideal de sus
obuses, puede cercar progresivamente al avión hasta abatirlo”

A partir de ahí, Wiener reconoce el concepto de feedback, bajo la idea de que


todo efecto retro actúa sobre su causa. Así, en todo proceso y sistema social él
reconoce un intercambio circular de información entre al menos dos partes, que
ayuda a organizar ese sistema.

Esta noción de feedback o retroalimentación es clave en la teoría de la


cibernética, se refiere al retorno de salida al interior de un circuito de
información, aspecto que habilita la posibilidad de controlar el comportamiento
de un sistema, sea técnico, físico, biológico o social.
2.4. Psicolingüística Chomsky (1957)
La psicolingüística es una rama de la psicología interesada en cómo la
especie humana adquiere y utiliza el lenguaje. Para ello estudia los factores
psicológicos y neurológicos que capacitan a los humanos para la adquisición y
deterioro del mismo, uso, comprensión, producción del lenguaje y sus
funciones cognitivas y comunicativas.

Así, una de las principales preocupaciones de los psicolingüistas se encuentra


en la manera en que el cerebro humano comprende los mensajes de sus
semejantes, sean orales, sean escritos (aunque evidentemente la manera de
percibirlos será diferente: de forma auditiva en el primer caso, de forma visual
en el segundo).

La psicolingüística nace de los estudios del lingüista francés Gustave


Guillaume (1883-1960), motivo por el cual también se la conoció a principios
del siglo XX como guillaumismo. Guillaume llamó a su teoría Psicosistema y
en ella vinculó los elementos lingüísticos con los psicológicos.

-Es la parte de la psicología que se encarga de estudiar los procesos de


adquisición y formación de la estructura mental del lenguaje (Derlis Ortiz
Coronel. Caaguazú Paraguay).

-Es la ciencia que estudia el proceso de la adquisición del lenguaje tomando en


cuenta la parte psicológica del ser humano. (ARGENIS ARCILA).

- Es la ciencia que se encarga del estudio de cómo el ser humano adquiere,


comprende y utiliza el lenguaje. (Deborah Carrasco).

-Es la disciplina que permite comprender los sistemas de adquisición y


elaboración del lenguaje tomando en cuenta la siquis del individuo.

La teoría psicolingüística está conformada según el pensamiento y


experiencias

SEGUN CHOMSKY:

Avram Noam Chomsky. Es un lingüista, filósofo, activista, autor y analista


político estadounidense, considerado como un intelectual emblemático de la
izquierda mundial. Es profesor emérito de Lingüística en el MIT (Massachusetts
Institute of Technology) y una de las figuras más destacadas de la lingüística
del siglo XX, es sumamente reconocido en la comunidad científica y académica
por sus importantes trabajos en teoría lingüística y ciencia cognitiva.

Según las investigaciones de Noam Chomsky, Considera que todos nacemos


con un numero de facultades especificas (que constituyen la mente) que juegan
un papel crucial en nuestra adquisición del conocimiento y nos capacita para
actuar como agentes libres y no determinados por estímulos externos del
medio ambiente. Los elementos fonológicos, sintácticos y semánticos
constituyen lo que Chomsky denomina universales sustantivos de la teoría
lingüística.

La teoría de Chomsky enseña que los niños poseen habilidades de


aprendizaje del idioma.

Según la teoría de Noam Chomsky, la teoría de la gramática universal, el


proceso de adquisición del lenguaje solo se produce si el niño deduce las
normas implícitas del lenguaje, como por ejemplo las nociones de estructura
sintáctica o gramática.

Aquí es donde el DAL de Chomsky o "dispositivo de adquisición del lenguaje"


viene a la existencia. Esto puede ser comparado a un dispositivo integrado en
el programa de computadora, que da a los niños habilidades para procesar y
aprender el lenguaje. Esto puede ocurrir incluso si tienen una exposición
limitada a la misma.

La hipótesis de la existencia de este dispositivo nos habilitaría a aprender las


normas y recurrencias que constituyen el lenguaje. A lo largo de los años,
Noam Chomsky fue revisando su teoría e incluyó el análisis de varios principios
rectores del lenguaje, en relación con la adquisición del mismo durante la
infancia.

Estos principios, como la existencia de gramática y varias reglas sintácticas,


son comunes a todos los lenguajes. En cambio, existen otros elementos que
varían dependiendo del idioma que estudiemos.

Teoría Psicolingüística

Teoría

El lenguaje es, para Chomsky, un sistema sometido a reglas y su teoría se


centra, por tanto, en averiguar el tipo de conocimiento que tiene que tener un
hablante para poder producir y comprender un número infinito de discursos.

La psicolingüística toma en cuenta el verdadero uso del lenguaje y aborda tres


aspectos importantes:

-Adquisición
-Comprensión

-Producción del habla

Aportaciones de Chomsky

-Desempeño un papel específico en la percepción del lenguaje desde un punto


de vista psicológico

-Sugirió que las asociaciones entre las palabras no podrían explicar ciertas
oraciones

-El lenguaje adquirido por los niños no se basa en el habla de los padres si no
en el conocimiento lingüístico innato.

En conclusión, la Teoría de la Gramática Universal, Chomsky propuso un


nuevo paradigma en el desarrollo del lenguaje. Según sus postulados, todos
los idiomas que usamos los seres humanos tienen unas características
comunes en su propia estructura.
2.5. Problemas Prácticos de Broadbent (1958)
Antes de mencionar que aportó Broadbent en este campo hay que destacar
que fue uno de los más sobresaliente psicólogos experimentales y el iniciador
de la ingeniería psicológica.Lamentablemente, falleció el 10 de Abril de 1933.

Broadbent fue un hombre muy importante y elaboró varios libros como


“Decision and stress” en 1971 que nos resumió sus resultados del trabajo que
estaba experimentando en Cambriedge, sin embargo, ese punto no lo vamos a
explicar detalladamente porque nos vamos a centrar en su obra “Perception
and Communication” publicada en 1958, este libro es su principal obra ya que
se considera parte de la revolución cognitiva en psicología (Sanders, 1933).

Con los problemas prácticos lo que pretende investigar es la creación del


primer prototipo de la atención humana debido a que quería resolver relativos
problemas a la conexión entre el hombre y la máquina.

En estos tiempos, para tener una mejor visión de cómo es la psicología hay
que tener en cuenta que la mente humana funciona similar a lo que es una
computadora.

La computadora funciona de acuerdo a operaciones simples como modificar,


codificar y retener información y tiene un parecido con el sistema nervioso
humano y es por eso que los psicólogos toman como un modelo las
computadoras para que así puedan elaborar una hipótesis y sacar teorías.

Con el primer modelo de atención lo que se quería demostrar es que como las
personas podían enfocarla y para llevarlo a cabo lo que hizo fue llenar de
estímulos y sobrecargarlos con señales porque era mucha información que se
tenía que procesar al mismo tiempo.

Una de las maneras que Broadbent cumplió su objetivo fue que reunió algunos
participantes para el experimento que consistía en enviar un mensaje que era
un número de 3 cifras en el oído derecho de una persona y otro mensaje
diferente, pero de que igual manera consistía de un número de 3 cifras en su
oído izquierdo.

Se les pidió a los participantes que al mismo tiempo escuchen los mensajes y
que al que repitan lo que estaban escuchando. A esto se le denominó como
“Prueba auditiva dicótica.”
Lo que le interesaba a Broadbent es cómo la persona lo volvería a repetir y
pudo concluir que podemos prestar atención solo por un canal a la vez (cada
oído es un canal).

La prueba auditiva dicótica nos dice es que podemos escuchar por el oído
derecho o izquierdo, también se descubrió que es complicado cambiar de
canales más de 2 veces por segundo. Así que, solo se puede prestar atención
al mensaje con un canal a la vez, y el mensaje que se transmitió en el otro
canal se pierde, aunque es posible que se pueda transmitir algunos elementos
del otro canal. Esto se podría explicar por el almacenamiento de minoría de
corto plazo, que tiene la información por un breve tiempo, pero si no se llega a
procesar la información de perderá rápidamente.

Según Broadbent, todo el procesamiento es semántico, es decir, va a


decodificar todo el mensaje, lo va a comprender todo lo que se dice. Se da
cuando el filtro ya seleccionó a que canal va prestar atención. Entonces,
cualquier mensaje que se transmita en el otro oído no sé va a entender.

Ese filtro está diseñado para evitar que el sistema de información se


sobrecargar ya que sólo contamos con una capacidad limitada para procesar
información.
3. Orígenes de la psicología cognitiva
3.1. La Introspección
La introspección es la capacidad reflexiva inmediata que posee la mente
humana para ser consciente de sus propios estados. Del latín introspicere que
significa “mirar en el interior”, su significado etimológico define la introspección
como la auto observación o la observación de uno mismo, es decir de la
conciencia y de los propios sentimientos. El ser humano es el único ser vivo
que tiene capacidad para mirarse a sí mismo.

La introspección es una metodología por la cual el ser humano puede ver su


interior y analizarse a sí mismo, haciendo un examen de su conciencia. Se trata
entonces de un método de carácter subjetivo, ya que el sujeto se observa de
acuerdo a su propio criterio, sin tinte de objetividad

En psicología, la introspección es un método por el cual el sujeto describe su


experiencia consciente en cuanto a lo sensorial, afectivo o imaginativo. Esta
conducta la realiza en interacción con el terapeuta, quien accede a observar
experimentalmente la actividad del sujeto. Es un método rechazado y
fuertemente criticado por la psicología conductista. La introspección referida a
recuerdos de estados mentales del pasado se denomina introspección
retrospectiva. La capacidad reflexiva de la mente se puede ejercer sobre el
pasado y el presente conjuntamente.

La filosofía moderna y el mentalismo clásico utilizaron el método de la


introspección para acceder al mundo de la psiquis. El psicoanálisis utiliza la
introspección retrospectiva, y la psicología experimental accede al mundo
psíquico a través de la introspección de la vivencia actual. El conductismo
metodológico critica la introspección porque considera que no es un método de
acceso público, y que la acción reflexiva desvirtúa la vivencia que se intenta
describir. La introspección es una técnica positiva para analizar los errores del
pasado y aprender de ellos, conocer las propias virtudes y debilidades, lograr
maduración y fortalecimiento de la autoestima, con la mira puesta en el
perfeccionamiento del ser humano. Por otra parte también se corre el riesgo de
internarse en exceso en uno mismo aislándose de la sociedad; o de realizar
una deficiente introspección tomando consciencia sólo de un área, sea positiva
o negativa, desvirtuando así la realidad interior y afectando la identidad de la
persona.
3.2.Estudios experimentales del comportamiento humano
En esta parte del trabajo le vamos a explicar sobre 4 experimentos que se han
ido realizado a través del tiempo sobre el comportamiento humano, estos
experimentos se puede clasificar como muy extremos y que en estos tiempos
no podrían realizar ya que está penado, pero gracias a estos experimentos nos
permitió conocer más en cómo se basa el comportamiento humano.

-El experimento de pequeño Albert

Este experimento pertenece al Conductismo con su máximo representante


John B. Watson, aunque hay que tener en cuenta que Pavlov fue el principal
referente de Watson.

Pavlov experimentó los aspectos básicos de estimulo-respuesta que fue


aplicada con perros, se llegó a dar cuenta que los perros antes de que se le
otorgara su alimento comenzaban a salivar, así que este detalle fue lo que le
impulsó a realizar esta investigación. Comenzó a ponerles varios estímulos a
los perros antes de serviles su alimento, la campana fue uno de los elementos
más famosos y así llegó a comprobar que los perros salivaban al momento de
escuchar la campana porque ya sabían que ese sonido el indicaba que ya se
les iba a servir su alimento.

Watson realizó este experimento pero en vez de perros utilizó a un bebé


llamado Albert ya que para él se tenía que estudiar el comportamiento
observable, nuestra historia del aprendizaje se basa en el condicionamiento y
él quería comprobar que lo que hizo Pavlov también funcionaría en una
persona.

Watson junto con su ayudante, Rosalie Rayner, fueron a un orfanato y eligieron


a un bebe que solo tenía 8 meses, el bebé era hijo de una de las encargadas
de cuidar a los otros niños, así que el bebe paraba la mayor parte del tiempo
solo y en un ambiente de frialdad.

Watson tenía como objetivo causarle miedo a través de varios estímulos y se


llego a confirmar que el bebe no sintió miedo ante ningún animal e incluso el
fuego.

La prueba seguía teniendo como objetivo hacerle sentir miedo al bebé aunque
por un condicionamiento. Al principio cuando se le mostro una rata al bebé no
sintió ningún temor e incluso hasta quería jugar con el animal, sin embargo,
cada vez que lo intentaba de hacía sonar un ruido fuerte que causaba temor al
bebé y así se fueron repitiendo varias veces hasta llegar al punto de que el
bebé llego a sentir miedo a la presencia de la rata. A pesar de que ya se le
había causado temor hacia el animal, el experimento no termino porque
probaron con otros animales como perros, conejos e incluso con un abrigo.

El pequeño Albert estuvo sometido a pruebas por casi un año dando como
resultado que el bebe que antes era muy tranquilo y que era extraño que llore
varias veces, paso a ser un bebe con una continua ansiedad.

La segunda parte de este experimento consistía en revertirlo mediante el


condicionamiento, pero nunca se llego a realizar.

No se sabe exactamente qué llegó a dar con él pequeño Albert después del
experimento, pero según una publicación se confirmó el fallecimiento del niño
con tan sólo 6 años de edad.

A Watson lo llegaron a expulsar de la universidad por este experimento muy


polémico que realizó para hacer su tesis y por último se puede cuestionar que
el experimento ocasionó una Hidrocefalia Congénita al pequeño Albert ya que
eso fue motivo de su muerte.
•El estudio Monstruo (1939)

Web del Johnson en Enero hasta Mayo de 1939 junto a una de sus estudiantes
Mary Tudor que se encargaba de supervisar el experimento que fue realizado
en un orfanato en Lowaen donde la tartamudez de los niños era lo primordial.

Johnson lo que quería investigar era cuáles son las causas que se llevaba
detrás de la tartamudez porque él estaba seguro de que se debía a un
comportamiento aprendido debido a la ansiedad que tenían algunos niños al
momento de aprender a hablar.

El experimento consistió con 22 niños huérfanos entre 5 y 15 años de edad, los


cuales la mitad de los niños tenían problemas para hablar y la otra mitad no
presentaban ninguna dificultad, así que los separó en 2 grupos:

-Primer Grupo: Estaban los niños que tartamudeaban y a ellos el experimento


consistía en felicitarlos por el avance que tenían a la hora de comunicarse.

-Segundo Grupo: Estaban los niños que no tenía ninguna dificultad para hablar,
para ellos el experimento consistía en recalcarles cada error que cometían a la
hora de comunicarse y se les decía que si seguían cometiendo los mismos
errores iban a desarrollar la tartamudez.

En este estudio experimental del desarrollo humano no tuvo grandes resultados


ya que sólo consiguió que los niños terminen desarrollando trastornos de
personalidad, ansiedad y habla retirada, pero no llegó a acabar con la
tartamudez que era el objetivo de Johnson.

Este experimento salió a la luz recién en el 2001 porque Johnson lo mantuvo


en secreto porque tenía miedo que lo comparen con el experimento de campos
de concentración.

La Universidad Lowa en el 2003 publicó en el New York Times el experimento


que fue titulado como “el estudio del monstruo del doctor de la tartamudez” que
también incluía las notas de la supervisora que acompañó a Johnson.

En el 2007, la universidad de Lowa les pagó una indemnización de un millón de


dólares a seis ancianos que participaron en el experimento cuando tan sólo
eran unos niños. Estos seis ancianos eran los únicos que seguían con vida en
ese entonces.

Johnson falleció en 1965.Por lo tanto, nunca llegó a saber que su experimento


que lo mantuvo en secreto por años si llegó a ser público y muy controversial.
•El experimento de obediencia

Este experimento realizado por Stanley Milgram en 1961 nos dice que las
personas somos malvados, pero esto es cuándo existe una figura de autoridad.

El experimento consistió en buscar ciudadanos comunes de Estados Unidos y


saber si eran capaces de cometer algún acto de crueldad a otras personas.

El experimento se basaba en que una persona tenía que enviar una cantidad
alta de electricidad hacia otra persona siempre y cuándo se equivocada en
responder

A la persona encargada de enviar los golpes eléctricos, no podía ver al


individuo que lo recibía, pero si escuchar los gritos ocasionado de la carga.
También, se les convenció en que las personas aprendían más rápido a través
de un castigo que se iba aumentando el voltaje por cada respuesta equivocada.

Antes de empezar el experimento se le daba el dinero acordado y las


participantes eran libres de irse cuando quieran sin ningún problema.

El participante encargado de recibir la carga eléctrica, no es quién lo recibe


sino que actúa siempre cuando se les envía las carga eléctrica, este
participante dijo que ya no quería actuar y que sufría del corazón, todo esto era
escuchado por el otro participante, pero ante la figura de autoridad que en este
caso fue el psicólogo que determinó que se tenía que seguir, así que el
participante optó continuar y seguir enviando las cargas eléctricas.

Este experimento se realizó de nuevo por un grupo de profesional con él


profesor Jerry M. Burguer, quién es experto en este experimento de Milgram y
también con el apoyo de Discovery Channel que dieron como resultado que del
100porciento de personas unas 77 porciento de ellas si pueden poner en riesgo
la vida de otra persona si es que hay una figura de autoridad presente.

En conclusión, las personas son malvadas cuándo existe una persona con
autoridad y que son capaces de cometer actos crueldad hacia otra persona.
•El experimento de la cárcel de Stanford

Este experimento es uno que ha marcado en la historia de la psicología,


llevado por Phillip Zimbargo en 1971 con el objetivo de que el comportamiento
de una persona cambiaría al timar un rol de preso o de un guardia.

Zimbargo fue compañero de Stanley Milgram, quién realizó el experimento de


obediencia, lo que Zimbargo estaba interesado en ampliar la investigación de
su compañero para poder entender cómo puede influir una situación en el
comportamiento humano.

Zimbargo quería saber si las personas que eran “buenas” podían seguir
siéndolo pero en un ambiente cruel y lleno de maldad, y cómo los roles que
asumirán cada persona puede influir en su comportamiento.

En las instalaciones de psicología en la Universidad de Stanford se hizo una


imitación a lo que es una cárcel y se eligieron a 24 estudiantes para que
participarán en el experimento con 15 dólares el día. Los roles de policía y
prisioneros fue al azar.

Los prisioneros tenían que pasar todo el día en la prisión, a pesar de que las
celdas eran muy pequeñas y eran compartidas, mientras que los guardias si
podían volver a sus casas al terminar su trabajo.

El experimento comenzó de una manera muy real porque a los prisioneros los
arrestaron en sus casas de una manera muy real y ellos no sabían cuando iba
a suceder. Una vez que llegaron a la prisión se les quitaron sus cosas
personales, les dieron su uniforme y a cada uno se les puso un número que
reemplazaron sus nombres.

A los guardias se les dieron su uniforme, unas gafas oscuras para que tengan
un mejor rol de autoridad y se les dijo que no podían usar ningún tipo de
violencia física.

El experimento iba a tener una duración de dos semanas pero tuvo que ponerle
fin al sexto día porque los guardias se estaban comportando de una manera
muy abusiva, mientras que los prisioneros estaban sintiendo estrés y ansiedad.

El primer día los prisioneros su rol se lo tomaron como un juego mientras que
los guardias querían tener la autoridad ante ellos así que comenzaron hacer
controles.
Los guardias comenzaron a humillar a los prisioneros con juegos e incluso se
les hacía cantar el número que llevaban y tanto fue el caso que los prisioneros
llegaron a olvidar que eran estudiantes y sólo consistía en un experimento
debido a que los guardias. La manera que los castigaban a los presos era sin
comer, sin dormir, se les metía a un armario por horas, etc.

El propio Zimbargo se percató que de ser un observador pasó a ser como el


director de la cárcel perdiendo su papel inicial y permitió que el experimento
continuará a pesar de las acciones crueles que se cometían hasta que un día la
estudiante Cristina Maslach les dijo que el experimento se tenía que acabar.

Zimbargo llegó a la conclusión que las personas pueden adaptar un rol


fácilmente y en especial cuando tienen poder y que el comportamiento de una
persona puede cambiar de acuerdo a la situación que pueda estar pasando.
3.3. Estudios cronométricos y paradigmas de aprendizaje
En los estudios cronométricos se encuentra la parte A que está la percepción
que consiste en que se lea una serie de letras que se le presentaba, sigue la
discriminación que se basa en que con la primera vocal que encuentre, va a
tener que armar una palabra. Por último, está la ejecución que va a tener que
decir la palabra en voz alta. Esta tarea tiene un tiempo de 28 segundos.

La parte B consiste en la percepción que de igual manera que la parte A va a


tener que leer una serie de letras que se le van a presentar, seguida de la
discriminación que con la primera vocal que encuentre va a tener que decir una
palabra, después viene la categorización que consiste en buscar un sinónimo
de la palabra y por último, que diga el sinónimo en voz alta. El tiempo de la
tarea consiste en 35 segundos.

En los paradigmas del aprendizaje vamos a explicar sobre el paradigma


Conductual donde vamos a poder encontrar a Watson y Skinner y n Paradigma
Cognitivo donde vamos a encontrar a Brunner y a Piaget.

Paradigma Conductual

-Watson:

Nos dice que vamos a aprender por un estímulo y eso dará una respuesta y el
condicionamiento es parte del proceso de aprendizaje.

Existen dos principios para este aprendizaje:

*Principio Frecuente:

Entre más frecuente sea la respuesta ante un estímulo, es más probable que
se repita la misma respuesta ante el mismo estímulo.

*Principio Recencia:

Nos dice que si la respuesta es reciente ante un estímulo, es probable que la


respuesta cambie.

-Skinner:
A lo propuesto por Watson, Skinner le agrega de condicionamiento de
estímulo- respuesta le agrega que el aprendizaje de un nuevo comportamiento
se produce mediante recompensas.

Un experimento que realizó fue en una caja poner a un animal que


accidentalmente tendría que apretar un botón para que salga comida.Con esto
nos dio a conocer que el animal aprendió presionar el botón por la aparición de
la comida.

Paradigma Cognitiva

-Bruner:

Nos dice que el aprendizaje se va a dar cuando el individuo va a tener una


activa participación y para que se convierte en un conocimiento de ser
procesada por la persona.

Según Bruner, por la categorización se va a generar un conocimiento. Las


categorizaciones van a estar en constante cambio.

La persona va a poder tener dos tipos de procesos que son el Concept


Formation y el Concept Attainment.

*Concept Formation: la persona va a prender un concepto y lo va clasificar en


una categoría por sí mismo.

Concept Attaiment : se va a identificar las propiedades que van a permitir a un


estímulo entrar a una categoría ya existente.

-Piaget:

El aprendizaje se da por cuestiones de cambio es por eso que debemos saber


cómo adaptarnos ante nuevas situaciones.

Los aprendizajes lo vamos a ir modificando a través de la asimilación y la


acomodación.

*Asimilación: el modo en cómo se va a enfrentar a un estímulo.

*Acomodación: proceso de modificación

Para Piaget, ambos conceptos van a interactuar entre sí para un proceso de


equilibrio.
3.4. La simulación de procesos cognitivos y la Inteligencia
Artificial
SIMILACIÓN DE PORCESOS COGNITIVOS

Cuando hablamos de simulación nos referimos al parecido que puede ser


flexible, nos busca que el procedimiento sea el mismo pero sí con un mismo
resultado o el más llegado a este a tener un resultado de procesos reales. Para
que la simulación sea válida se debe ver que tan parecido son los resultados
de estas dos.

Los ordenadores se han utilizado también como instrumentos con los que
simular procesos psicológicos. Para intentar simular procesos mentales por
ordenador, el investigador escribe un programa de ordenador que pretenda
simular dicho funcionamiento e intenta que el funcionamiento del programa sea
lo más similar al funcionamiento del ser humano. La técnica de la simulación de
procesos psicológicos por ordenador utiliza estos instrumentos modernos para
desarrollar y poner a prueba teorías psicológicas sobre el funcionamiento de
los procesos mentales u del razonamiento humano. La psicología prueba si los
resultados de la simulación son equivalentes a los procesos psicológicos de los
humanos cuando realizan las mismas tareas.

La psicología cognitiva hace énfasis en el parecido de la maquina con el ser


humano, ya que lo motiva a la maquina o las ordenes que recibe la máquina
usa un proceso que hace analogía a la del ser humano.

Se dice que es una similitud superficial la de la máquina y ser humano ya que


en el aspecto físico tienen una clara diferencia, aquí más se enfocan en el
parecido de la máquina con el cerebro humano al momento de resolver las
tareas que se les atribuyen.

INTELIGENCIA ARTIFICIAL

La inteligencia artificial es la simulación de procesos de inteligencia humana


por parte de máquinas, especialmente sistemas informáticos. Estos procesos
incluyen el aprendizaje la adquisición de información y reglas para el uso de la
información, el razonamiento usando las reglas para llegar a conclusiones
aproximadas o definitivas y la autocorrección.

Es conocida la participación de Alan Turing en su campo de la computación,


históricamente fue la primera persona en elaborar un teoría sobre la
computación además de crear su primera máquina simple capaz de realizar
cálculos. Turing queriendo superarse a sí mismo formuló lo que se conoce “la
prueba de la máquina de Turing” según la cual se podría atribuir a una máquina
con la facultad de pensar siempre y cuando una persona no fuese capaz de
distinguir su comportamiento del de un ser humano.

Con ella se llevaría a cabo implícita y explícitamente la inteligencia artificial.


Deseaban programar secuencia de comportamiento (software) en estructuras
electrónicas (hardware) para imitar la conducta inteligente del humano.
Deseaban expresar que los comportamientos o pensamientos del ser humano
se podía reducir en una serie de algoritmos para darle función a una máquina
con esto se comenzaría el funcionalismo.

Allen Neweldemostró teoremas usando una combinación de búsqueda, el


comportamiento orientado a objetos, y la aplicación de las normas. Se utilizó
una técnica de procesamiento de listas en un nuevo lenguaje de programación,
IPL (Information Processing Language), este lenguaje siempre utiliza punteros
entre piezas de información relacionadas con la memoria asociativa para imitar,
y atiende a la creación, modificación y destrucción de estructuras simbólicas
que interactúan sobre la marcha.

En el congreso de Darthmouthse le agrega unas presuposiciones básicas en el


marco teórico de la inteligencia artificial.

- El reconocimiento de que el pensamiento puede ocurrir fuera del


cerebro, es decir, en máquinas.
- La presuposición de que el pensamiento puede ser comprendido de
manera formal y científica.
- La presuposición de que la mejor forma de entenderlo es a través de
computadoras digitales.
Todo este congreso pasó 1956 donde también John McCarthy da por primera
vez el término “inteligencia artificial” donde le da el significado como “la ciencia
e ingenio de hacer máquinas inteligentes, especialmente programas de
cómputo inteligentes”

En el lenguaje común de los científicos cognitivos se volvía pertinente hablar de


inteligencia o de pensamiento en el comportamiento mecánico de un
ordenador. Esto trajo dos consecuencias que son a la vez la clasificación de los
dos tipos generales de inteligencia artificial que se promulgaron: por un lado, la
inteligencia artificial débil buscaba simplemente la utilización de la
instrumentaría tecnológica para el estudio de las facultades cognoscitivas
humanas. En cambio, la inteligencia artificial fuerte explicitaba un paralelismo
real y no sólo de naturaleza análoga entre la inteligencia artificial y la humana.

Para ellos, la tecnología de la inteligencia artificial era una explicación de lo que


ocurría realmente en la cognición humana, por lo tanto, la dirección de
comparación tendría un movimiento de retorno, es decir, así como primero se
atribuyó a la máquina facultades humanas, ahora se definía al hombre a partir
de las facultades de la máquina. Una de las claras semejanzas es que ambos
se utilizan para el almacenamiento y procesamiento de información y para
ejecutar tareas. En términos de las funciones, ambos se utilizan para los
cálculos matemáticos, la realización de algoritmos complejos y para el
almacenamiento de información crucial. La inteligencia es una herramienta que
nos ayuda avanzamos de la mano, pero lo que nos sigue diferenciando es que
carecen de motivación, las emociones es lo que va a marcar entre nosotros.

Podemos decir que con todo esto la IA se usa para muchas cosas, tiene una
gran amplitud de donde desarrollarse. Es una realidad que en estos tiempos
son un presente en nuestros días, las aplicaciones desde nuestro teléfonos en
los aplicativos como “Siri” que es un sistema de voz que nos ayuda de acuerdo
a nuestras actividades, “Amazon” que recomienda productos de acuerdo del
aprendizaje automático (entraría en el término de retroalimentación). La IA
avanza automáticamente con la retroalimentación que se hace así mismo.

Hace poco se ha desarrollado una aplicación de un chat donde el usuario no


pudo notar la diferencia que con la persona con la cual estaba conversando era
una IA, entonces se probaría lo que alguna vez dijo Alan Turing : “Una máquina
con la facultad de pensar siempre y cuando una persona no fuese capaz de
distinguir su comportamiento del de un ser humano.”
4. Conclusiones
 Los estudios Karl Spencer Lashley sirvieron como referencias a las
posteriores teorías modernas.
 Shannon nos plantea con su teoría como esto sirve a través de un
proceso.
 Wiener nos brinda el concepto de cibernética, demuestra que las
máquinas y los humanos análogos entre sí.
 La cibernética a pesar de usar procesos operacionales similares a los
del humano, nosotros seremos el timón de estos.
 El feedback es un término que en nuestro día a día se usa.
 Para Chomsky llevamos de por sí un lenguaje innato, y que tenemos
características comunes en nuestra propia estructura.
 Solo podemos captar mayor información a un canal, no podemos hacer
al mismo tiempo los dos, ya que uno se desaparecerá y el cumplirá todo
el proceso.
 La introspección falla en el momento de ser ambigua, ya que no parte de
un punto imparcial y solo le toman atención a una cosa dejando las
demás.
 Watson usó como inspiración a Pavlo(experimento de los caninos) al
momento de llevar a cabo su experimento del pequeño Albert, llego a
tener resultados pero como consecuencia se llevó una vida.
 Johnson demuestra que su prueba con respecto a los tartamudos, solo
les creo traumas y no consiguió resarcir el daño hecho.
 El experimento de cárcel nos enseña como a veces el poder que uno
tiene sobre otro puede cambiarnos olvidando nuestros principios.
 El último experimento que es la obediencia hace que no sintamos
empatía con el simple hecho de seguir órdenes de un superior.
 En los paradigmas de aprendizaje notamos las diferentes formas de
enseñar, rescatando una de ellas es cuando al perro le enseñan por
repetición que al tocar un botón será recompensado con comida.
 En la simulación buscamos el mayor parecido al momento de resolver
algún problema, con respecto a la computadora y al cerebro humano.
 La inteligencia artificial nos muestra que tenemos procesos parecidos,
como para usar los estudios en máquinas comparándolos con el cerebro
humano, pero la diferencia será de ellos con nosotros la falta de
emociones y motivaciones.
 La IA ya es un presente, está en nuestros celulares, computadoras hasta
a la hora de comprar por internet nos recomienda que se parecen a
nuestros gustos, porque usa la retroalimentación a la hora de buscar en
nuestro historial.
 Todos estos antecedentes sean errados o no, sirvieron para las teorías
posteriores.

5. Bibliografía
1. https://paulinaalmazan.wordpress.com/2012/02/22/cibernetica-ciencia-de-control-y-
de-comunicacion-en-el-aniamal-y-en-la-maquina/
2. https://es.wikipedia.org/wiki/Inteligencia_Artificial_cognitiva
3. http://www.santiagokoval.com/2017/01/09/la-cibernetica-de-norbert-wiener/
4. file:///C:/Users/Acer/Downloads/Dialnet-
ModelosMatematicosDeInformacionYComunicacionCibern-3352643%20(1).pdf
5. http://www.cs.upc.edu/~bejar/ia/transpas/teoria/1-IA-introduccion.pdf
6. http://www.ptolomeo.unam.mx:8080/xmlui/bitstream/handle/132.248.52.100/219/A
7.pdf
7. https://es.wikipedia.org/wiki/Allen_Newell
8. https://es.wikipedia.org/wiki/John_McCarthy
9. http://dia.austral.edu.ar/Teor%C3%ADa_de_la_informaci
%C3%B3n_de_Claude_E._Shannon
10. http://psicologiamx.blogspot.com/2012/04/la-psicologia-cognitiva.html
11. https://psicologia.laguia2000.com/general/teorias-del-aprendizaje
12. https://psicologiaymente.com/psicologia/teoria-cognitiva-jerome-bruner
13. https://psicologiaymente.com/desarrollo/teoria-del-aprendizaje-piaget
14. http://principiosdidacticos.foroes.org/t26-paradigmas-del-aprendizaje
15. https://lamenteesmaravillosa.com/el-porque-de-la-maldad-el-
experimento-de-la-prision-de-stanford/
16. https://www.vix.com/es/btg/curiosidades/4692/el-experimento-de-la-
carcel-de-stanford
17. https://www.vix.com/es/btg/curiosidades/3580/el-experimento-de-
milgram-la-maldad-en-los-humanos?utm_source=internal_link
18. https://lamenteesmaravillosa.com/el-experimento-del-pequeno-albert/
19. https://lamenteesmaravillosa.com/el-experimento-monstruo/
20.

También podría gustarte