Está en la página 1de 20

UNIVERSIDAD SAN PEDRO

VICERRECTORADO ACADÉMICO
FACULTAD DE CIENCIAS DE LA SALUD

ESCUELA ACADÉMICA DE PSICOLOGÍA

TEORÍA DEL PROCESAMIENTO DE LA INFORMACIÓN

CURSO: PSICOLOGIA DEL APRENDIZAJE

AUTOR:

ANGHY FIAMA ARICA ORTIZ

Huacho - Perú
2021
RESUMEN

Es una teoría que surge hacia los años 60. Procede como una explicación
psicológica del aprendizaje. Es de corte científico-cognitiva, y tiene influencia de la
informática y las teorías de la comunicación. No es una sola teoría, es una síntesis que
asume este nombre genérico: procesamiento de la información.

Es importante afirmar, con Gimeno y Pérez (1993, p.54) que esta teoría tiene como
concepto antropológico que “el hombre es un procesador de información, cuya actividad
fundamental es recibir información, elaborarla y actuar de acuerdo a ella. Es decir, todo ser
humano es activo procesador de la experiencia mediante el complejo sistema en el que la
información es recibida, transformada, acumulada, recuperada y utilizada”.

Frente a esto se puede inferir que el sujeto no necesariamente interactúa con el


medio real, sino que su interacción es con la representación subjetiva hecha de él, por tanto,
se asegura el aprendizaje por procesos internos (cognitivos). Es decir, como los asuma y los
procese.

Así se tiene que los elementos estructurales son tres: Registro sensitivo: que recibe
información interna y externa; Memoria a corto plazo: breves almacenamientos de la
información seleccionada; y Memoria a largo plazo: organiza y mantiene disponible la
información por más tiempo.

Las teorías del procesamiento de información se concentran en la atención, la


percepción, la codificación, el almacenamiento y la recuperación de los conocimientos. EI
procesamiento de información atañe a los procesos cognoscitivos y ha recibido el influjo de
los avances en las comunicaciones y la tecnología computacional.
Las influencias más importantes en la corriente contemporánea del procesamiento
de información son la psicología de la Gestalt (capitulo 2) y el aprendizaje verbal. La
investigación en este último campo empleaba tareas de aprendizaje seriado, recuerdo libre y
pares asociados, y alcanzo numerosos hallazgos importantes. Los estudios de recuerdo libre
mostraron que la organización mejora el recuerdo y que la gente impone la suya propia
cuando no hay otra anterior. Una de sus mayores contribuciones fue el trabajo sobre la
interferencia y el olvido.

EI paradigma habitual del procesamiento de información es un modelo de dos


almacenes (doble memoria). En este modelo, la información entra por los registros
sensoriales. Aunque hay un registro para cada sistema, la mayor parte de la investigación ha
sido realizada sobre los registros icónicos (visuales) y ecoico (auditivo). En cualquier
momento solo es posible prestar atención a un monto limitado de información. La atención
actúa como filtro o como una limitación general en la capacidad del sistema humano. Las
entradas se perciben al compararlas con la información en la memoria a largo plazo (MLP).

La información entra a la memoria de trabajo (MT), o a corto plazo (MCP), donde


es retenida por medio del repaso y vinculada a la información relacionada en la MLP La
información puede ser codificada para su almacenamiento en la MLP La codificación se
facilita con la organización, la elaboración, el sentido y la vinculación con las estructuras de
los esquemas. La MLP está organizada por contenido, y la información está sujeta a
referencias cruzadas. Los procesos de control supervisan y dirigen el flujo de información
por el sistema.

Explicaciones alternativas de la memoria la conciben en términos de niveles de


procesamiento y activación. Cada una de estas explicaciones tiene ventajas y desventajas, y
es posible que su integración caracterice mejor a la memoria.

La investigación sobre la atención y la percepción a menudo se concentra en los


mecanismos para representar la información. Las teorías destacan las características
esenciales, las plantillas y los prototipos. Las investigaciones muestran que la capacidad y
la duración de la MT son limitadas. La MLP parece ser muy duradera. Las unidades básicas
de conocimiento son las proposiciones, que se agrupan en redes. Las formas del
conocimiento son el declarativo, el de procedimientos y el condicional. Es posible
organizar grandes montos de conocimiento de procedimientos en sistemas de producción.
Además, las redes estén vinculadas por la difusión de la activación para incrementar las
referencias cruzadas y la transferencia. La recuperación del conocimiento depende de
acceder a él en la MLP La incapacidad para recuperarlo se debe al deterioro de la
información o a la interferencia. La información se recupera mejor con las claves que
estaban presentes en el momento de codificar (especificidad de la codificación).
I. EL ENFOQUE DE PROCESAMIENTO DE INFORMACIÓN

El denominado (enfoque de procesamiento de información) es un modo


ordenado y coherente de estudiar experimentalmente las tareas cagnitivas
realizadas por el hombre, y cuya característica fundamental es la consideración
del ser humano como un procesador de información.

Muchos autores suelen proponerlo como un nuevo paradigma (en el


sentido de KUHN, 1970) de la psicología experimental; por ejemplo, Anderson
y Borkowsk 1978; Rumelhart, 1977, pero es más común la concepción de
enfoque dominante dentro del espectro multiparadigmático de la psicología
cognitiva (véase a este respecto la documentada exposición de MAYOR1,9
80), entendida ésta como un modo de descripción alternativo a otros modos
posibles dentro de la psicología científica, como en otro tiempo lo fuera el
enfoque asociacionista dentro del conductismo.

Como ha apuntado ESTES (1978, pág. 2), ha surgido «...de la


conjunción de un método con un conjunto de conceptos. El método tuvo su
origen en los primeros laboratorios de psicología experimental y se refiere al
uso de los tiempos de reacción para estudiar los procesos mentales; los
conceptos proceden de la teoría de la información, que comenzaron a filtrarse
en la psicología hacia la mitad del siglo. El cambio crítico en el marco de
referencia asociado con este enfoque moderno fue el cambio de los datos
básicos obtenidos en forma de descripciones de estímulos y respuestas a datos
básicos expresados en términos de transformaciones de información.

Las categorías del procesamiento son cuatro: (separar cada uno)


Atención: recibe, selecciona y asimila los estímulos. Codificación: Simboliza
los estímulos según estructuras mentales propias (físicas, semánticas,
culturales). Almacenamiento: retiene de forma organizada los símbolos
codificados. Recuperación: uso posterior de la información organizada y
codificada.

De todos los elementos conviene señalar que los procesos más


complejos son los de organización y significatividad, pues sólo estos factores
verificarán el uso de la memoria a largo plazo, en el entendido que se han
procesado y unido a los conocimientos previos los conocimientos nuevos, y se
ha creado una nueva codificación, que agrupa lo anterior con lo nuevo, y lo
almacena como información, más completa y con procesos internos más
desarrollados.

Algunas ventajas de la teoría:

1. Recupera la noción de la mente;


2. Reintegra la información subjetiva como un dato útil a la
investigación;
3. Da un lugar preferencial al estudio de la memoria activa como
explicación básica de la elaboración de la información, y de la
actividad humana.

Algunas limitaciones que se pueden encontrar:

1. “Paralelismo entre la máquina y el hombre”:

 No se perciben como teorías explicativas del aprendizaje


humano, sino radican en el almacenamiento de información.

 Se da una polémica entre la relación de la conciencia y el


sistema computacional de asimilación y reacción, pues no
aparece la intervención intencionada de la conciencia de
decidir sobre lo que desea almacenar, sino sólo se muestra un
significado del material de información, en cuanto estímulo, y
no como información a la que se accede conscientemente.

 Queda la necesidad de encontrar un esquema que comprenda


las interacciones entre la conciencia, los sistemas algorítmicos
y mecanismos de actuación.

2. “La laguna afectiva”

 No considera los aspectos afectivos y motivacionales que


intervienen en el proceso aprendizaje.

3. “Posee una orientación cognitiva e ignora la dimensión del


comportamiento del desarrollo humano”

 Disociación entre conocimiento y conducta originada por las


emociones, tendencias y expectativas individuales y sociales.
En tal sentido, aunque utiliza elementos conceptuales de los
estímulos ambientales, propios del conductismo, no hace
mayor referencia a las situaciones posteriores al procesamiento
de la información como las actitudes, entre otros.
II. TIPOS DE MODELOS DE PROCESAMIENTO DE INFORMACIÓN

La mayor parte de los modelos de procesamiento son representaciones


similares a programas de computador en forma de diagramas de flujo. Aunque
todo teórico presenta propiedades únicas para su modelo, sólo han aparecido
varios estilos básicos de modelamiento, en función de aquella parte del
continuo de procesamiento que ha acaparado la atención del investigador.

Sería una tarea larga y tediosa revisar uno a uno todos los modelos,
propuestos hasta la fecha, en primer lugar, porque son muy numerosos y por lo
general apropiados para procesos específicos, y, en segundo lugar, porque es
tan rápido el crecimiento en número y complejidad y la transformación de tales
modelos por parte de los mismos investigadores que los idearon que quizá sea
de escaso interés una revisión actualizada .de los mismos.

SIMON (1979, pág. 311) y HABER (1974, págs. 329-30) han usado
diferentes clases generales de modelos de procesamiento: el primero de ellos
establece la categorización en base al análisis a nivel de procesos iieurales, a
nivel de procesos de información elementales y a nivel de procesos mentales
superiores: el segundo ha distinguido tres clases generales de modelos también,
sugiriendo además algunas características salientes de tales clases, que .difieren
en qué aspecto del continuo de procesamiento resultado seleccionado.
Seguiremos aquí esta última taxonomía, que propone las siguientes clases:

1. La primera clase de modelo se ha centrado fundamentalmente en la entrada


de información, lo que tradicionalmente se ha denominado percepción.
Destacan dentro de esta categoría el modelo de BROADBEN (1958,
modificado en 1971) y el modelo inicial de SPERLIN 1963) que él mismo
ha reformulado en diversas ocasiones (SPERLING1967, propone una
revisión de todos ellos). SPERLING analiza en ellos el modo como la
información visual que alcanza la retina es transformada y mantenida en un
breve amortiguador (buffer), que denomina VIS, aunque más comúnmente
se conoce con el nombre de (memoria icónica (NEISSER, 1967), para ser
recodificado después en una representación acústica y mantenido y repetido
en una memoria a corto plazo. El modelo de BROADBENT u n modelo
paralelo que fue punto de partida de las formulaciones de SPERLING que
se centra en el proceso de filtraje por el que se selecciona la información
que accede a los canales de estimulación.

2. La segunda clase de modelos ha sido construida por autores más interesados


en el proceso de memoria que en el de percepción. Dentro de esta clase
destaca con luz propia el modelo de ATKINSON Y SHIFFRIN (1968),
posteriormente desarrollado y aplicado independientemente por cada uno de
los autores, aunque después han aparecido una apreciable cantidad de
modelos afines: el de BOWER (1977, el de MASSARO (1975) y el de
HABER y HERSHENSON (1973, 1980), el de DODD y SHULTZ (1980) y
el de MOATE y SCHUMACHER (1980). El rasgo más característico de
todos ellos es la gran atención que se presta a las variables de entrada y el
énfasis que se concede a la distinción estructura versus proceso. En general,
denotan alguna forma de almacén previo a la percepción (icónico), pero
centran el interés en las estructuras de procesamiento más profundas y los
procesos de repetición (rehearsal), reconocimiento, olvido y recuperación
(retrieval).

3. La tercera clase de modelos se centra en la conducta de solución de


problemas y el aprendizaje verbal asociativo y apenas prestan atención a
procesos perceptuales o a estructuras de memoria. Obedecen por lo general
a la línea de los trabajos pioneros de NEWELL Y SIMON (1972) y los
modelos de simulación de computador que hicieron su aparición desde
1950.
Pretendemos en este trabajo exponer brevemente tres de los modelos de
procesamiento de información más importantes por la trascendencia que de
ellos ha derivado para la investigación experimental. El primero de ellos es el
modelo de BROADBEN (1958), que pertenece a la primera clase de la
taxonomía propuesta por HABER; otros son los modelos de ATKINSON y
SHIFFRIN (1968), con las derivaciones y modificaciones propuestas
independientemente por ATKINSON y JUOLA (1973; 1974) y SHIFFRIN-
SCHNEID (1977a; 1977b) y el modelo de MASSARO (1975), de cuya
trascendencia para la investigación experimental sobre las bases del
procesamiento de información es imposible hacerse eco en estas páginas, y que
pertenecen a la segunda clase de modelos de la taxonomía de HABER. NO
expondremos ningún modelo en la línea de la tercera clase fundamentalmente
porque son más afines al campo de la inteligencia artificial y suelen venir
formuladas en lenguaje de computador, altamente técnico. Una asequible
presentación de los mismos podría consultarse en ANDERSON y BOWER
(1973) o en SIMON (1979).

III. EL MODELO DE BROADBENT

Hacia mediados del presente siglo se hizo evidente que el paradigma


estímulo-respuesta no podía ofrecer una explicación coherente de algunos
fenómenos importantes. CHASE (1978, págs. 23-24) ha citado entre tales
fenómenos no fácilmente integrables los siguientes:

a. la atención selectiva, referida a la imposibilidad de atender a varios


estímulos a un mismo tiempo;
b. la disminución de la vigilancia, que se refiere a la imposibilidad de
mantener un estado constante de vigilancia durante más de unos pocos
minutos sobre una determinada tarea;
c. la amplitud de la memoria inmediata (primaria), referida a la
limitación en el recuerdo de muchas cosas no relacionadas. El
artículo .de MILLER sobre «el número mágico 7+2» (MILLER, 1956)
fue el primero en llamar la atención a esta limitación humana;
d. el período refractario psicológico, que se refiere al hecho de que el
procesamiento del primero de dos estímulos presentados en estrecha
contigüidad temporal (500 msg. o menos) puede provocar una
importante demora en el procesamiento del segundo.

El estudio de estas limitaciones llevó a BROADBEN (1958) a postular


un modelo de procesamiento de información cuya estructura fundamental
descansaba sobre un canal de comunicación de capacidad limitada, alimentado
por medio de los diferentes sistemas sensoriales, cada uno de los cuales operaba
como un canal de información diferente, y directamente conectado con los
sistemas motores. Tal estructura era una obvia analogía del procesador central
de un computador, y su funcionamiento constituye el proceso de atención: sólo
la información que pasa a través del canal de comunicación se hace consciente.

Un filtro selectivo protegía el canal de cualquier saturación de


información bloqueando la entrada sensorial no deseada. BROADBENT -
distinguió dos modos distintos de procesamiento en torno a esta estructura. El
procesamiento de la información hasta el filtro selectivo tenía lugar en paralelo
para los diferentes canales de información sensorial, lo cual implicaba que no
existía ninguna limitación en la información procesada por el sistema y retenida
en un amortiguador de información denominado almacén a corto plazo durante
algunos segundos. Por el contrario, el papel del filtro consistía en permitir el
acceso de solo un canal de información hacia el canal de capacidad limitada, lo
cual supone un procesamiento serial de la información retenida por el almacén a
corto plazo. El filtro selectivo resultaba además controlado por un almacén de
probabilidades condicionales de sucesos anteriores, que contenía básicamente
las expectativas, disposiciones y el contexto general de la información que se
procesaba.

El filtro selectivo es una estructura flexible, íntimamente conectada con


el almacén a corto plazo; cuando el procesador serial se encuentra ocupado con
una información puede retroceder para procesar otra información retenida
temporalmente en el almacén a corto plazo. El bucle de repetición (rehearsal
loop), que acepta la información procedente del procesador serial central para
realimentar el amortiguador temporal de información sensorial fluyendo de
nuevo a través del filtro selectivo hasta llegar al procesador central, constituye,
en este modelo, la amplitud de la memoria inmediata.
Este modelo obtuvo una gran resonancia en la entonces naciente
psicología cognitiva. Sin embargo, las cosas han cambiado mucho después de
23 años de investigación experimental intensísima en esta área. Más
recientemente, BROADBEN (1971) ha resumido sus propias investigaciones, y
como consecuencia ha realizado algunas modificaciones de su modelo original,
en particular centradas en la consideración de un papel más activo del filtro
selectivo, que trata cada estímulo como un haz de características (features), sin
estructura interna alguna, y supone que la presencia o ausencia de una
característica dicta si las otras deben o no ser analizadas. En un reciente trabajo,
BROADBEN (1977, pág. 117) considera la existencia de al menos dos etapas
de selección perceptual, a saber:

 Una primera etapa, global o de baja frecuencia, que recoge la


información del ambiente en diferentes segmentos, cada uno de los
cuales puede ser atendido o rechazado, y actúa también de modo pasivo
en base a la probabilidad de ocurrencia de determinadas características;

 Una segunda fase, de verificación o de alta frecuencia, que funciona con


la información más detallada procedente de los diferentes segmentos de
la etapa anterior y por ello resulta más afectada por el contexto
semántica.

IV. MODELO DE SIEGLER Y SHIAGLER

La información sobre los hechos aritméticos básicos está almacenada en


la memoria en forma de nodos que representa tanto a los problemas, como a las
respuestas. Estos nodos mantienen una relación ente si una asociación entre los
nodos problemas y los nodos respuestas que a veces son incorrectos. Como
correcta esta asociación varia por la fuerza, que relaciona dos nodos siendo en
los adultos mayores para la asociación con la respuesta correcta que para la
incorrecta.

V. TEORIA CIBERNÉTICA

La cibernética se desarrolló como investigación de las técnicas por las


cuales la información se transforma en la actuación deseada. Esta ciencia surgió
de los problemas planteados durante la Segunda Guerra Mundial a la hora de
desarrollar los denominados cerebros electrónicos y los mecanismos de control
automático para los equipos militares como los visores de bombardeo.

La cibernética contempla de igual forma los sistemas de comunicación y


control de los organismos vivos que los de las máquinas. Para obtener la
respuesta deseada en un organismo humano o en un dispositivo mecánico,
habrá que proporcionarle, como guía para acciones futuras, la información
relativa a los resultados reales de la acción prevista. En el cuerpo humano, el
cerebro y el sistema nervioso coordinan dicha información, que sirve para
determinar una futura línea de conducta; los mecanismos de control y de
autocorrección en las máquinas sirven para lo mismo. El principio se conoce
como feedback (realimentación), que constituye el concepto fundamental de la
automatización.

 Las máquinas cibernéticas son tan habituales que se puede decir


que su conducta se encuentra controlado por una meta.
Según la teoría de la información, uno Esta teoría tuvo una influencia
central en el modo de pensar sobre la conducta humanan ya que permitió
introducir la teleología, las causas finales dentro del análisis científico.
La creación de las máquinas cibernéticas abrió la posibilidad de
considerar las intenciones y metas de las personas como causas de su conducta
estudiables científicamente.

PRINCIPIOS BASICOS DE LA CIBERNÉTICA

De los principios básicos de la cibernética establece que la información


es estadística por naturaleza y se mide de acuerdo con las leyes de la
probabilidad. En este sentido, la información es concebida como una medida de
la libertad de elección implícita en la selección. A medida que aumenta la
libertad de elección, disminuye la probabilidad de que sea elegido un
determinado mensaje. La medida de la probabilidad se conoce como entropía.

De acuerdo con la segunda ley de la termodinámica, en los procesos


naturales existe una tendencia hacia un estado de desorganización, o caos, que
se produce sin ninguna intervención o control. En consecuencia, de acuerdo con
los principios de la cibernética, el orden (disminución de la entropía) es lo
menos probable, y el caos (aumento de la entropía) es lo más probable. La
conducta intencionada en las personas o en las máquinas exige mecanismos de
control que mantengan el orden, contrarrestando la tendencia natural hacia la
desorganización.
VI. LA CIBERNÉTICA Y LA PSICOLOGIA

La cibernética también se aplica al estudio de la psicología, la


inteligencia artificial, los servomecanismos, la economía, la neurofisiología, la
ingeniería de sistemas y al de los sistemas sociales. La palabra cibernética ha
dejado de identificar un área independiente de estudio y la mayor parte de la
actividad investigadora se centra ahora en el estudio y diseño de redes neurales
artificiales.

VII. LA TEORÍA DE LA COMPUTACIÓN

La teoría de la computación es una ciencia cuyas bases están


establecidas básicamente en principios matemáticos y conjuga varias ramas de
las matemáticas. Es un campo especialmente rico para la indagación filosófica.
Alan Turing, establece la relación entre la lógica y la computación electrónica,
plantea la famosa Máquina de Turing, la cual es la base de la Teoría de la
Computación actual. Turing es, por tanto, considerado el padre de la Teoría de
la Computación.

La teoría de la computación se vale de la lógica matemática, teoría de


conjuntos, teoría de grafos, álgebra matricial, álgebra relacional, etc. filosófica
Esta teoría aporto el componente fundamental a la nueva visión que se estaba
gestando en la mente como sistema de procesamiento de información: una
teoría sobre los modos en que se manipula y cambia la información. la máquina
de Turíng es un dispositivo dotado de un plano de bits. Aunque más complejos
y efectivos, los modernos ordenadores no son sino la materialización física.


CONCLUSIÓN

En las décadas de 1948 y 1960 se desarrollaron numerosas teorías sobre


el tratamiento de la información, como, por ejemplo, la cibernética y la teoría
de la información. que ya se trató inicialmente en este articulo la teoría de la
información y a su vez desde el punto de vista psicológico, sentando las bases
de la investigación de los procesos humanos del conocimiento como proceso
del tratamiento de la información.
Entonces finalmente el sentido de la simulación por computadoras no
sería una teoría sino un procedimiento para la descripción de estrategias a
utilizar en proceso de resolución de problemas y a su vez también es un método
para comprobar las teorías opuestas sobre el pensamiento ya que aquel que
resuelve problemas se le denomina sistema de procesamiento de información.
BIBLIOGRAFIA

1 Procesos psicológicos básicos: aproximación al proceso de información: PG 23-31


2 Simulación por computadoras: el pensamiento como la búsqueda de una vía de
solución. PG 187-210
3 Diccionario de psicología

(5 bibliografías máximo bibliografía del 2016)

También podría gustarte