Está en la página 1de 111

1

AUGUSTE COMTE, EL POSITIVISMO


Auguste Comte nació el 19 de enero de 1798 en Montpellier, Francia. Es considerado uno de los pensadores
más influyentes del siglo XIX, el fundador de la escuela positivista y el precursor de la sociología.

Entre sus escritos más importantes encontramos: “Curso sobre filosofía positiva” (1842), “Discurso sobre el
espíritu positivo” (1844), “sistema de política positiva o tratado de sociología” (1851) y “Catecismo
positivista” (1852)

INFLUENCIAS

Sus postulados estuvieron fuertemente influenciados por el evolucionismo de Darwin, el empirismo de


Francis Bacon y el racionalismo de Descartes; como así también toma conceptos provenientes de Hume y de
Saint Simon.

CONTEXTO

Se caracteriza por una época marcada por la Revolución Francesa. La misma fue un movimiento político
social e ideológico que se desarrolló desde 1789 hasta 1804. Esto trajo aparejado diversos conflictos entre
movimientos revolucionarios (que querían poner fin a la monarquía impulsados por pensamientos ilustrados
como Rousseau, Montesquieu y Voltaire bajo el lema “libertad, igualdad y fraternidad”) y movimientos
conservadores. Frente a este contexto de desorganización, Comte propone que la forma más factible de
evolución y orden, era el raciocinio y el método científico. Como sabemos desde el siglo XVIII existen avances
en el conocimiento científico, pero la pregunta que rondaba en estas épocas era ¿es posible explicar la
sociedad con la ciencia? Pregunta que viene a responder el positivismo junto con el término acuñado por
Comte como “Sociología” o “Física Social”

“Para Comte, la situación de los pueblos europeos, después de la gran crisis provocada por la Revolución
Francesa, era de carácter anárquico, porque carecían de un sistema de principios comúnmente aceptados,
que estableciera la armonía necesaria entre las gentes para cimentar un orden social dentro del cual
pudieran desarrollar pacíficamente sus actividades. Por eso se impuso la misión de buscar un remedio "a tal
estado anímico, verdadera enfermedad de la sociedad y creyó hallarlo en una nueva filosofía…”

PRINCIPIOS BÁSICOS DEL PENSAMIENTO

FILOSOFÍA POSITIVA

Desde una perspectiva ontológica y epistémica se postula la existencia de una realidad aprehensible,
impulsada por leyes y mecanismos naturales inmutables. Comte sostenía queel conocimiento debe
consagrarse exclusivamente a la investigación objetiva de la realidad, rechazando todo saber apriorístico y
toda especulación metafísica.

El positivismo entendido así sería una negación de la filosofía. Sin embargo, emplea el término filosofía en su
significación de “sistema general de concepciones humanas” y al añadirle la palabra positiva indica una
manera especial de filosofar; La palabra positivo designa lo real, el contraste entre lo útil y lo inútil, entre la
certeza y la indecisión, entre lo preciso o lo vago. Finalmente considera la palabra positivo "como lo
contrario de lo negativo", y de ahí concluye que la Filosofía Positiva está destinada no a destruir, sino a
organizar.

El objeto de la nueva filosofía, según René Hubert, era:

a) Proporcionar a las mentalidades individuales un sistema de creencias para unificar el espíritu colectivo.

b) Establecer un conjunto de reglas coordinadas sobre las creencias comunes del sistema aludido.
2

c) Determinar una organización política que sería aceptada por todos los hombres, en virtud de que
respondería a sus aspiraciones intelectuales y a sus tendencias morales.

Es claro que un sistema de creencias sólo puede ser aceptado por todos si se funda sobre conocimientos
incontrovertibles, y de ahí que la Filosofía Positiva trate de ser, ante todo, una teoría del saber que se niega a
admitir otra realidad que no sean los hechos y a investigar otra cosa que no sean las relaciones entre los
hechos.

El hecho positivo: Es la experiencia única, que ha podido proporcionarnos la medida de nuestras fuerzas.
Pero sí un hecho es positivo por ser verificable, es también verificable porque se presenta de manera
repetida.

Si los fenómenos fueran variables, caprichosos y azarosos no habría ley posible para determinarlos. De ahí el
segundo criterio para que un fenómeno o una serie de hechos sean positivos: su “sujeción a leyes naturales
invariables”

De tal modo podemos definir un hecho positivo como un hecho experimentable, verificable, repetido, que
implica una ley natural, la cual, a su vez se convierte en una ley científica.

LEY DE LOS 3 ESTADIOS (concepto tomado de Saint Simons, el cual amplió Comte)

Desarrolla la división de periodos o “estadios de la civilización” que dan lugar a cumplir determinadas
funciones en relación al avance del espíritu humano hasta alcanzar su estado “normal”.

Considera que los estados anteriores son pasajeros y permiten “ver para preveer”. Se adhiere a una visión
evolutiva del cambio cognitivo por el cual el reconocimiento del actual progreso implica el reconocimiento
del error del pasado y las teorías compiten sobre la base de su mayor ‘’ajuste’’ con la evidencia
experimental. Para dar un ejemplo Afirma que, para coordinar el orden con el progreso en la Sociedad, es
necesaria la religión, porque solo la esta regula y enlaza las voluntades individuales; pero ante la diversidad
de religiones que separan a la humanidad en grupos antagónicos, resulta indispensable organizar una nueva,
fundada en el espíritu positivo, a fin de que sea aceptada por todos. Propone, al efecto, sustituir las viejas
religiones por la “Religión de la Humanidad”, porque mientras los credos religiosos existentes se basan en
dogmas incomprobables, la humanidad es una idea perfecta- mente positiva, conocida y analizada por la
historia.

El estadio teológico: provisorio

Es el punto de partida del espíritu positivo. Podemos decir que en este estadio predomina la imaginación y lo
ficticio para dar respuesta a los interrogantes del ser humano. En él se pretende dar respuestas absolutas a
todos los fenómenos que resultan extraños, tendiendo a hacer que todo se parezca o asimile al hombre,
buscando de esta manera, explicaciones en razones sobrenaturales atribuido a los dioses.

Esta etapa corresponde al cuestionamiento del hombre y el afán de buscar el porqué de todas las cosas y
situaciones que se le presentaban. Podemos dividir en tres momentos tal estadio:

● Fetichismo: en la cual se atribuían poderes o aspectos mágicos a las cosas materiales observado en
fenómenos naturales tales como terremotos, sismos, huracanes, entre otros.

● Politeísmo: Todo accionar del hombre como lo fenómenos naturales eran obra y causa de los dioses y su
voluntad. Aquí damos lugar a nombres reconocidos como Zeus, Poseidón.

● Monoteísmo: Lo que en otro momento se podía observar una pluralidad de dioses, luego va a pasar a
sustituirse a un único Dios omnipotente que gobierne todo el universo, sin embargo, este va a denominarse
de diferentes formas según la cultura.
3

El estadio metafísico: transitorio

Sigue manteniendo ese carácter del estado teológico de dar explicaciones absolutas, esto le hace estar más
cerca del estado anterior que del positivo. Sin embargo, en este estado se busca el por qué y la explicación
de la naturaleza en las cosas mismas, a través de entidadesabstractas, inmutables y necesarias. Comte
plantea al razonamiento como uno de los aspectos principales de dicho estadio, puesto que está en estrecha
relación con lo abstracto. El espíritu metafísico no tiene la autoridad efectiva que tenía el estado teológico,
por eso es una fase destructiva y crítica, no constructiva.

Es entonces que, el autor afirma que “la metafísica intenta sobre todo explicar la íntima naturaleza de los
seres, el origen y el destino de todas las cosas, el modo esencial de producirse todos los fenómenos; pero en
lugar de emplear para ello los agentes sobrenaturales propiamente dichos, los reemplaza, cada vez más, por
aquellas entidades o abstracciones personificadas, cuyo uso, en verdad característico, ha permitido a
menudo designarla con el nombre de ontología”.

El estadio científico o positivo: definitivo

Aquí es necesario resaltar lo práctico como principio fundamental, lo empírico que se dará por medio de la
observación de hechos, la experiencia, lo fáctico, puesto que estos darán validez, confiabilidad, certeza para
dar lugar a enunciados en leyes, como saber universal.

Es entonces que, la observación ha sido reconocida unánimemente como la primera condición fundamental
de toda ciencia científica.

Desde ahora reconoce, como regla fundamental, que toda proposición que no puede reducirse
estrictamente al mero enunciado de un hecho, particular o general, no puede ofrecer ningún sentido real e
inteligible.

Partiendo de estas concepciones el objetivo central de Comte era: “…reorganizar la sociedad a fin de superar
el viejo orden "teológico", retrógrado, y el espíritu "revolucionario", negativo, en una dimensión "positiva",
de superior racionalidad que condujera al "progreso" de acuerdo con un "orden natural", es decir, según los
principios enunciados en la "física social" o "sociología"

Pretendiendo hacer de su filosofía un plan de transformación social que debía poner fin a la crítica situación
por la que atravesaban las naciones más civilizadas; un proyecto político-ideológico basado en el orden y
progreso; un método de acción política, es decir, una práctica social basada en su lema “saber para prever y
preveer para obrar”

SOCIOLOGÍA

Por ser el primero en proponer la importancia de una ciencia social, Comte es considerado el padre de la
Sociología.

Su ciencia, llamada primero Física Social, y luego Sociología, constituiría para el autor, el vértice de una
pirámide conformada por diferentes ciencias, en una especie de jerarquía. Las mismas se clasifican en un
orden natural de generalidad y sencillez decreciente, matemáticas, astronomía, física, química, biología y
finalmente sociología, como coronación de todo el sistema.

Todo el saber, para Comte, está privado de sentido si no es referido al hombre: pero no es el individuo
aislado, sino el hombre en cuanto sociedad.

Es decir, se trata de una filosofía, que no se queda en la mera observación de los hechos, sino que busca
regularidades: Elabora hipótesis, deducciones, comprobaciones, teorías que organizan los hechos, y
4

sistematicidad, a partir de lo cual, las teorías pueden ser nuevamente contrastadas con la realidad y los
hechos.

El ideal de su ciencia Sociológica, apunta a la conformación de un sistema útil, que pueda dar respuesta a
problemáticas sociales, sin lugar a especulaciones o explicaciones ambiguas, metafísicas, mítico-mágicas.

ORDEN Y PROGRESO

La proposición ideológica de Comte, era la conciliación de Orden y Progreso, lo mismo, en respuesta a la


problemática política de su época, debido a que ambos términos habían sido escindidos desde 1789, al
ligarse el orden al partido retrógrado y el progreso al revolucionario. Incorpora de éste modo, la idea de
evolución y de progreso, asumiendo que los cambios debían estar contenidos en el orden.

En función de estos parámetros, plantea que la sociedad debía ser considerada como un organismo y
estudiada en dos dimensiones. Una dimensión Estática Social, que investiga las leyes que rigen los modos de
interacción entre las partes del sistema social, con base en el análisis de sus condiciones de existencia, de su
orden. La segunda dimensión, Dinámica Social, que parte de la base de que el cambio social tiene lugar
según una serie de leyes ordenadas. Ello con base en el análisis de su movimiento, de su progreso.

Metodología Sociológica

La metodología sociológica, constituye uno de los aportes más relevantes del autor a la sociología científica.
El mismo, explicitó tres modos fundamentales de hacer investigación en el terreno social, con el fin de
obtener un conocimiento empírico en lo que respecta al mundo social real:

- Observación: La misma debe ser guiada por una teoría, y luego de registrada la misma, buscar establecer
relaciones que se conecten con una ley.

- Experimentación: Hace referencia a cómo las consecuencias de un hecho sucedido en un ámbito específico,
se observan y comparan luego, en contextos diferentes, en los que dicho hecho no sucedió.

- Comparación: Es el tercer elemento, surgido de los anteriores, que a su vez se divide en 3 subtipos:

1. Comparación de las sociedades humanas con los animales inferiores.

2. Comparación de las sociedades en diferentes partes del mundo.

3. Comparación de los diferentes estadios de las sociedades en el transcurso del tiempo.

APORTES PARA LA PSICOLOGÍA

El positivismo marco lineamientos que fueron tomados por los investigadores para que sus trabajos fueran
considerados científicos. En psicología el camino acerca de un objeto real de estudio se inicia en 1879 en
Alemania con W. Wundt que abre el primer laboratorio de psicología experimental con el fin de promover a
la psicología como ciencia en base a los principios que profesaba el Positivismo. Antes de la aparición de W.
Wundt se consideraba a la psicología como una rama de la filosofía y su objeto de estudio era el alma. Ahora
se observa la evolución que se da al determinar que en realidad el objeto de estudio era la mente en cuanto
a su estructura, a la conciencia o experiencia consciente, en cuanto al método de investigación se trataba de
la introspección experimental y de una observación controlada que buscaba conocer los elementos de la
conciencia pero para esto se indagaba acerca de fenómenos reales, observables (percepciones externas,
sentimientos, emociones, actos volitivos). La psicología de W. Wundt es conocida también como psicología
fundacional gracias a esta búsqueda de elevarla al nivel de ciencia y a este cambio que acerca a la psicología
a la investigación científica.
5

Luego aparece una nueva corriente que busca conocer el funcionamiento de la mente y cómo tiene
influencia en los otros órganos, se cuestiona qué es lo que la mente hace en beneficio de la supervivencia,
quien plantea este nuevo enfoque es William James, finalmente la corriente es abandonada por las mismas
limitaciones que anteriormente también encontró la psicología de W. Wundt pero el aporte que realizan
estos dos pensadores en cuanto al objeto de estudio ayuda al avance en el campo de la psicología.

En 1912 aparece el Conductismo de John Watson que toma como objeto de la psicología a la conducta, es
decir un objeto externo y observable que coincide con el método científico, el conductismo fue el detonante
para que la psicología se nombrara como ciencia. John Watson cree que se debe igualar al ser humano con el
animal y afirma que no existe diferencia entre las especies, negando el concepto de mente que antes fue
utilizado por W. Wundt. Otro pensamiento de J. Watson es focalizar en aquello que se hace o puede hacer
con la persona, y no dar relevancia a aquello que la persona posee innato, no cree en lo instintivo y da
primacía al contexto. Afirma que el real interés de la psicología debía colocarse solo en la conducta si quería
ser considerada realmente una ciencia ya que sólo debía tomarse como objeto aquello que pueda
observarse, que sea capaz de verificarse y de compararse. La conducta es explicada a través de la relación
estímulo - respuesta, donde un estímulo externo o también alguna modificación fisiológica cualquiera
provoca una reacción o respuesta tanto en el animal como en la persona.

Si tenemos en cuenta las características del paradigma positivista como experimental y manipulador donde
las condiciones y las variables son controladas y el objeto de estudio puede someterse a verificación
mediante la repetición, confirmamos que finalmente con la escuela conductista se cumple con lo propuesto
por el positivismo para considerar a la psicología una ciencia
6

EL CÍRCULO DE VIENA
El movimiento proponía una readaptación de las ciencias para buscar leyes fundamentales comunes de las
que posteriormente deducir las propias de cada una de sus ramas. Para ello era fundamental la utilización de
un único método, el análisis lógico del lenguaje, con el que a partir del uso de la lógica simbólica y el método
científico buscar evitar enunciados falsos y poder generar un conocimiento unificado del mundo.

Para ellos, los problemas no resueltos eran únicamente porque lo que se intenta solucionar son pseudo-
problemas que antes deben ser transformados en problemas empíricos. Tal y como hemos comentado
anteriormente dicho análisis corresponde a la madre de todas las ciencias, la filosofía, que no debe buscar
sino clarificar los problemas y enunciados científicos.

Con respecto a los enunciados, consideraban que no hay ningún conocimiento válido incondicionalmente
derivado de la razón ni a priori, siendo únicamente verdaderos los enunciados basados en la evidencia
empírica y en la lógica y las matemáticas. En este sentido enunciaron el principio de demarcación, en el cual
un enunciado será científico si puede ser contrastado y verificado por la experiencia objetiva.

Curiosamente, no era considerado inválido ningún método (incluso la intuición era válida), siempre y cuando
lo que resultará de él pudiera ser contrastado empíricamente.

El Círculo de Viena tocó una gran cantidad de disciplinas, pasando por la física (siendo esta posiblemente la
más realzada y considerada), las matemáticas, la geometría, la biología, la psicología o las ciencias sociales.
Además de ello, se caracterizó por su oposición a la metafísica (así como a la teología), por considerar que se
basaba en datos no empíricos ni comprobables.

CONCEPCIÓN CIENTÍFICA DEL MUNDO

Con respecto a su visión científica del mundo, era un movimiento que, partiendo de la filosofía, buscaba
generar un lenguaje común a las diferentes disciplinas científicas. Se centraba en un empirismo total que
pretendía basarse en los avances de la lógica y la física y orientaba su metodología en el método inductivo.
Otro de los principales aspectos por los que se caracteriza es por su profundo rechazo a la metafísica, ya que
la consideraban ajena a la realidad de los fenómenos.

Sus principales aportaciones filosóficas se caracterizaban por concebir una visión de la realidad y de la
ciencia que acabaría por denominarse neopositivismo lógico. Esta postura filosófico-científica proponía el
empirismo y la inducción como principales elementos para el estudio científico y suponía la búsqueda de una
unidad del lenguaje científico bajo la premisa de que las diferentes disciplinas forman todas ellas parte de un
mismo sistema con posibilidad de unificarse. El interés se dirigía en primer término hacia cuestiones lógicas,
de teoría del conocimiento y de filosofía del lenguaje, pero también se trataron cuestiones relativas a una
imagen científica del mundo. Entonces la concepción científica del Círculo de Viena, se caracteriza por ser
EMPIRISTA y LOGICISTA, ya que sostiene que el verdadero contenido científico legítimo es el que proviene
de la experiencia que se basa en lo dado inmediatamente, que sea logicista refiere a que resulta esencial la
aplicación del análisis lógico como método determinado. Por tanto, la unificación de la ciencia implica que
este método, el análisis lógico matemático, se aplique al material empírico. Todo enunciado científico debe
ser establecido por la reducción de un enunciado sobre lo dado.

EL LOGICISMO

LA LOGICA Y MATEMATICA.
7

A partir de la segunda mitad del siglo XIX, la lógica experimentó una transformación y una ampliación que la
establecieron lejos de la lógica tradicional. Aquello en lo que se diferencia la nueva lógica con respecto a la
lógica tradicional, consiste en:

❖ La utilización de símbolos en la logística, por analogía con las matemáticas.

❖ Una ampliación de la lógica con un campo completamente nuevo: las relaciones y las funciones
proposicionales, es decir, proposiciones con lugares vacíos que se designan mediante variables, aparte del
campo de las propiedades, que era el único considerado hasta este momento.

La reconstrucción material de la lógica partió de los matemáticos, a los que les resultaba insuficiente la lógica
tradicional para la elaboración rigurosa de la matemática. Las proposiciones matemáticas no concuerdan con
el esquema del juicio de la lógica clásica: sujeto-cópula-predicado, ya que expresan relaciones. Los
enunciados que atribuyen un predicado a un sujeto son sólo idóneos para propiedades, para clases. Las
relaciones, que consisten en la conexión de dos o más miembros, no pueden expresarse adecuadamente de
este modo. Y las series, tan importantes en matemáticas, sólo pueden construirse mediante relaciones
(irreversibles transitivas). Por tanto, había que desarrollar una teoría lógica de las relaciones.

La nueva lógica, la logística, es muy superior a la lógica tradicional, tanto material como formalmente. No
sólo está incrementada con ámbitos esenciales, sino que los antiguos están también concebidos de un modo
más riguroso y sistemático. Y con el simbolismo se ha creado una forma de exposición mediante la cual se
fijan los conceptos y enunciados y las reglas de su conexión con precisión matemática. De este modo se hace
posible un puro operar formal sin tener en cuenta el contenido, un cálculo con conceptos y enunciados.
Mediante esto se logra una claridad y un rigor que están excluidos al utilizar el lenguaje natural.

La nueva lógica y su relación con la matemática tuvieron un significado decisivo en la actitud filosófica del
Círculo de Viena. Consiguió así la comprensión adecuada de la peculiaridad de la lógica y de la matemática,
comprensión que hasta entonces le había faltado al empirismo.

Como señala Kraft, el empirismo hasta entonces se basaba en la formulación clásica de J. St. Mill y Spencer la
cual fundamenta la matemática y la lógica en la experiencia. Esta formulación plantea que las mismas eran
generalizaciones supremas, las leyes del ser y del pensar, completamente abstractas y formalizadas. De este
modo, contendrían también leyes naturales, con lo que serían inductivas y, por tanto, refutables por la
experiencia. Para Kraft esta concepción resultaba insostenible, de modo que, si las proposiciones
matemáticas y la experiencia no coinciden, no podrían refutarse las proposiciones matemáticas y corregirlas
de acuerdo con la experiencia. El autor consideraba que los teoremas son más exactos que nuestras cuentas
y mediciones, porque si éstas resultan de otro modo, se considera que las mediciones no son
suficientemente exactas y que las cuentas son erróneas. En base a esto, sostiene entonces que la
matemática no descansa en la experiencia, sino que tiene validez de un modo completamente autónomo.

Por tanto, la lógica no podría modificarse nunca por nuevas experiencias. Si bien, la lógica y matemática
pueden reducirse genéticamente a experiencias (es decir, a conjuntos de vivencias) ya que proporcionan el
estímulo para su formación, éstas se construyen en sistemas completamente autónomos, independientes
por completo de la experiencia en su validez.

Fue el Círculo de Viena el primero en señalar que la lógica y matemática no enuncian nada sobre la realidad
experimentable. Ellos establecen que la lógica no contiene ningún conocimiento y que no proporciona los
principios del ser, sino los fundamentos del orden de los pensamientos. Las relaciones lógicas son relaciones
meramente mentales, no existen como relaciones fácticas dentro de la realidad, sino sólo como relaciones
dentro del sistema de representación.
8

La matemática se refiere solamente a la conexión de pensamiento, no a la realidad experiencial. No se


necesita buscar una razón de la validez de los juicios sintéticos a priori ni recurrir para ello a la “razón pura”
ni a la “intuición pura”, ni a la intuición o evidencia, ni a la experiencia. Las relaciones analíticas son
relaciones lógicas, no relaciones empíricas, y las relaciones lógicas son únicamente relaciones dentro de un
sistema de representación. La validez independiente de la lógica se comprende por el hecho de que no
contiene los principios del mundo, sino los del pensamiento sobre el mundo. Se hace así justicia sin dificultad
a la autonomía de la lógica y de la matemática frente a la experiencia.

Si bien el Círculo de Viena no fue el primero en descubrir la validez autónoma de la lógica y de la


matemática, supo unir este conocimiento con el empirismo. El empirismo experimenta con ello una
corrección fundamental. El empirismo se limita al conocimiento de hechos.

Esta limitación del empirismo se expresa en la designación de la orientación del Círculo de Viena como
«empirismo lógico». A su favor se declararon también sus miembros más importantes, como Schlick y
Carnap. Este objetó contra la denominación de «positivismo lógico», o también «neopositivismo», con la que
suele designarse esta orientación, que «sugiere una dependencia demasiado estrecha respecto del antiguo
positivismo, especialmente del de Comte y Mach». Pero una objeción completamente análoga podría
hacerse también contra la designación como «empirismo». La diferencia frente al antiguo empirismo no es
aquí menos significativa. Sin embargo, con el positivismo histórico tiene en común el Círculo de Viena la
atribución de todo conocimiento positivo a las ciencias particulares y la de la filosofía a la teoría de la ciencia.

EL ANÁLISIS LÓGICO DEL LENGUAJE.

La nueva lógica se desarrolló para la elaboración teórica de la matemática; en el Círculo de Viena se convirtió
en el instrumento de la teoría de la ciencia en general. En cuanto lógica aplicada, frente a la lógica pura, dio
precisión al método de las investigaciones filosóficas.

El modo y manera de sus investigaciones le venía determinando al Círculo de Viena por la exigencia de la
cientificidad de la filosofía. Dos eran principalmente los grupos de problemas de que se ocupaba: el análisis
del conocimiento y los fundamentos teóricos de la matemática sobre todo, pero también los de las ciencias
naturales y los de la psicología y de la sociología. La teoría del conocimiento era hasta entonces
normalmente una confusa mezcla de investigaciones psicológicas y lógicas, y también lo fue inicialmente en
varios trabajos del Círculo de Viena mismo. Las investigaciones psicológicas pertenecen al conocimiento de
hechos y, por tanto, han de realizarse con los métodos de la ciencia empírica, razón por la que se separan de
la teoría del conocimiento. Esta sólo puede consistir en el análisis lógico del conocimiento, en la «lógica de la
ciencia», como se la designó en el Círculo de Viena por razones de claridad.

Investigar el conocimiento científico en su estructura lógica significa investigar cómo se relacionan entre sí
sus conceptos y enunciados, cómo unos conceptos están incluidos en otros, cómo los enunciados pueden
inferirse unos de otros, y cuestiones semejantes. (Kraft, 1966).

El conocimiento se expresa en formulaciones lingüísticas. Sólo mediante ellas se fija y objetiva su contenido
intelectual, adquiere una forma fija y duradera y se hace comunicable. Pero el lenguaje no tiene
simplemente la función de la comunicación, no se limita a servir a la comprensión intersubjetiva, sino que es
ya indispensable como medio de representación. Sin el lenguaje no podría desarrollarse y dominarse la
pluralidad de los conceptos y de los contenidos enunciativos. El lenguaje constituye por así decirlo el cuerpo
del conocimiento. Sólo con su ayuda puede elaborarse éste.

El análisis lógico del conocimiento científico ha de realizarse, por tanto, sobre su formulación lingüística. Si la
investigación de los hechos, es decir, de aquello que se representa mediante el lenguaje, corresponde a las
ciencias particulares, el análisis lógico se orienta hacia cómo se representan en el lenguaje los hechos
9

mediante conceptos y enunciados. El análisis del lenguaje constituye el campo propio de la lógica de la
ciencia. En este análisis no se investiga el lenguaje en el sentido de la lingüística. No se trata de uno de los
lenguajes utilizados realmente, sino de un lenguaje con una forma simplificada y perfeccionada. Es la
estructura de un lenguaje en general, lo que se necesita en cualquier lenguaje para la expresión de los
pensamientos. El lenguaje sirve, aparte de para la representación, también para la expresión de
sentimientos y actitudes. El análisis lógico sólo tiene que ver con la representación. No se considera el
lenguaje ni psicológica ni sociológicamente, sino respecto de las condiciones de un sistema de
representación en general.

EL EMPIRISMO

El término «empirismo» proviene del griego έμπειρία, cuya traducción al latín es experientia, de donde
deriva la palabra experiencia. El empirismo es una teoría filosófica que enfatiza el papel de la experiencia y la
evidencia, en la formación de ideas y adquisición de conocimiento. Para el empirismo, la experiencia es la
base de todo conocimiento, no sólo en cuanto a su origen sino también en cuanto a su contenido. Se parte
del mundo sensible para formar los conceptos y éstos encuentran en lo sensible su justificación y su
limitación.

El sistema de constitución de los conceptos empíricos

Según lo establecido por Kraft, el significado de una palabra puede indicarse definiéndolo con ayuda de otras
palabras cuyo significado ya se encuentra establecido. Así se determina el significado con frecuencia, pero
este proceso posee un límite: es necesario determinar también, el significado de aquellas palabras que son
utilizadas para definir, puesto que si no, nos moveríamos en un círculo de puras palabras. Es necesario que
estas palabras se relacionen con algo diferente: con la presentación de lo designado, lo que significa
establecer el enlace entre la palabra y aquello que es definido, mostrándolo claramente. Sin embargo, cabe
aclarar que solo es posible mostrar algo que esté presente de modo inmediato, por lo tanto, debe ser algo
que se haya dado en una vivencia.

En base a esto, el autor señala que las palabras (signos) obtienen de este modo por una parte un significado
subjetivo, designan un contenido cualitativo, y por otra un significado intersubjetivo para la comunicación,
en cuanto designan sólo la estructura de lo dado en la vivencia, lo cual tiene que constituir el fundamento de
la significación de todas las palabras. Tenemos aquí uno de los puntos claves del empirismo. Los significados
han de descansar en última instancia en una mostración de lo designado y, por tanto, todos los significados
tienen que acabar por poder reducirse a lo vivencialmente dado como lo único que puede mostrarse. Y esto
quiere decir que todos los significados conceptuales pueden ser constituidos sobre la base únicamente de lo
vivencialmente dado.

Cuando se habla de “constituir” un concepto, se habla de establecer una regla por medio de la cual todos los
enunciados que contengan cierto concepto, puedan ser sustituidos por otros conceptos. Esto es a lo que se
llama “definición constitucional” de un concepto.

Kraft (1966) manifiesta que lo que se adopta como vivencial, no puede exceder a lo que el sujeto mismo ha
vivido, esto quiere decir que las vivencias ajenas son valoradas solo en función de una percepción propia de
las manifestaciones ajenas.

La base del sistema de constitución está formada, por tanto, por el «psiquismo propio», esto es, por aquellos
objetos que sólo pertenecen a un sujeto y precisamente como conscientes, sin que entre también lo
inconsciente. Lo vivido no puede ser caracterizado en modo alguno desde un principio como «de mi
psiquismo propio», es decir, como «psíquico» y como «mío», perteneciente a mi yo. Se entiende que aquello
vivenciado es perteneciente al psiquismo propio pero, el origen de aquello es el hecho, lo experimentado,
10

que no corresponde ni a un psiquismo ni a algo propio del sujeto, sino que es neutral. Por tanto, las
construcciones conceptuales no parten de las vivencias de cada uno de los sujetos: al contrario de lo que se
creía, no se asciende de lo particular a lo general, sino al revés: en un primer momento se parte de las clases
más generales, y se asciende, de ésta forma, a las particularidades de cada clase.

Teniendo en cuenta lo mencionado anteriormente, el autor expresa que existen cuatro “lenguajes” para
entender estas definiciones constitucionales:

● El simbolismo logístico para lograr precisión. Éste nivel corresponde al mundo perceptivo. En un primer
momento, las definiciones constitucionales se establecen en un “espacio físico objetivo de las cosas
perceptibles y el tiempo objetivo”, sin embargo no intervienen las características particulares del objeto.

● Traducción al lenguaje natural, lo que quiere decir que al eliminar las cualidades sensoriales, y atribuir a
cada una de ellas una magnitud matemática, se obtiene el mundo físico. Con esta constitución se crea un
ámbito en el que pueden establecerse leyes formulables matemáticamente, en virtud de las cuales pueden
deducirse unas determinaciones de otras dadas y que es completamente intersubjetivo.

● Lenguaje realista, es el nivel de la conciencia ajena. En base a la cosa “mi cuerpo” se es capaz de constituir
el concepto de “otros hombres”, entonces se introduce el concepto de “manifestación significativa” el cual
es el que hace posible la comunicación con los otros. Esto nos da la capacidad de comprender el “psiquismo
ajeno”, puesto que sus manifestaciones no son extrañas al propio sistema nuestro.

● El último nivel de constitución, está representado por los llamados “objetos culturales o espirituales”. El
autor sostiene que los objetos espirituales se constituyen en base a los físicos; y que a su vez, constituyen
una nueva esfera.

Otro concepto que adquiere relevancia en lo expuesto por Kraft, es el de “Realidad empírica”, que establece
una distinción relevante con respecto a la metafísica.

El autor explica que la realidad metafísica no es constituible, mientras que la realidad empírica implica que
todo objeto real tiene una posición en el orden temporal. Este planteamiento desproblematizó la relación
psicofísica, puesto que cada uno de estos objetos constituidos son formas diferentes de ordenar el mismo
tipo de elemento, que corresponde al ámbito de lo experiencial. Lo físico y lo psíquico son solo dos formas
de ordenación, y existen otras, como los objetos biológicos, los espirituales y los valores. En tanto, queda
refutada la hipótesis dualista, para proponer un pluralismo. Al respecto, Kraft va a exponer la relación
existente entre lo físico y lo psíquico:

Respecto de la relación de dependencia entre lo físico y lo psíquico, Carnap toma por base la hipótesis del
paralelismo: a todo proceso psíquico le está coordinado de modo regular un proceso fisiológico simultáneo
en el sistema nervioso central. Esto quiere decir desde el punto de vista constitucional: dos series de cuasi-
elementos de una sucesión de vivencias (las observaciones en las que se constata esta relación) marchan
paralelas. La cuestión de cómo se realiza tal paralelismo, de cómo ha de explicarse, puede plantearse del
mismo modo para todos ellos. Pero ya no cae dentro del campo de la ciencia, sino en el de la metafísica,
donde se la contesta mediante suposiciones de realidad. La ciencia sólo puede comprobar el decurso
paralelo de las series de elementos en general.

Cabe destacar que los siguientes aportes teóricos resultaron de suma importancia para el Círculo de Viena
con lo cual se toman las ideas precursoras de Ludwin Wittgenstein quien plantea la teoría sobre los
enunciados verificadores basando el planteo en la presentación de su trabajo llamado “Tractatus lógico
philosophicus” en el año 1922. Influyó en el trabajo del círculo y reafirmó posiciones previas en cuanto a
tratar a la ciencia como un conjunto de proposiciones con sentido y relevantes.
11

A posteriori es que en el año 1929 Karl Popper toma contacto con el Círculo de Viena luego de la
presentación de su trabajo “La lógica de la investigación científica” en la cual si bien se identifica con
premisas que están en el falseacionismo, nunca se consideró o asoció con dicho círculo, siendo más bien, un
crítico de su positivismo. Es importante destacar que ambos filósofos pensadores no son parte del círculo
pero sus aportes teóricos resultaron de gran relevancia; se tomaron y se debatieron con el objetivo de lograr
la ciencia unificada.

LOS ENUNCIADOS VERIFICADORES.

De acuerdo a la recopilación de V. Kraft, es posible comprender que el Círculo de Viena tuvo siempre
presente como una tarea fundamental del empirismo la explicación del contenido de los conceptos
empíricos mediante su reducción a lo vivencialmente dado, emprendió también la otra tarea fundamental
de explicar el contenido y la validez de los enunciados empíricos mediante su reducción a enunciados
elementales.

El autor resalta el aporte de Wittgenstein en el cual aportó la idea nueva e importante de que la verdad de
las proposiciones compuestas depende únicamente de la verdad de las proposiciones simples, que son sus
partes; es una función de verdad de éstas. Como consecuencia, sólo importa la verdad de las proposiciones
simples, de las proposiciones atómicas, de las que ha de deducirse de modo puramente lógico la verdad de
las proposiciones compuestas. La condición de verdad de los enunciados que tienen la forma más sencilla
puede formularse directamente: son verdaderos cuando al objeto designado mediante el nombre le
corresponde efectivamente la propiedad o relación designada mediante el predicado. Las condiciones de
verdad de las otras formas de enunciados, las compuestas de elementos, se determinan indirectamente.

Por ello V. Kraft (1996) va a mostrar que en el Círculo de Viena se creyó encontrarlas en las llamadas
«proposiciones protocolarias». “Las proposiciones protocolarias deben describir los hechos cognoscibles más
sencillos, de tal modo que no se contenga en ellas ninguna proposición conseguida mediante elaboración.
Por lo cual la verificación se realiza al comprobar la conformidad de un hecho predicho con uno observado.
Del hecho a verificar se deduce una consecuencia observable y ésta se compara con el hecho a observar
efectivamente.”

El autor lo expresa de la siguiente forma: La constatación de Schlick sufrió en seguida la crítica en el Círculo
de Viena. En su importante libro Die Logik der Forschung, 1935, que ejerció un influjo decisivo en el
desarrollo intelectual del Círculo de Viena, planteó Popper graves objeciones y expuso un nuevo punto de
vista. Popper opone a la concepción fundamental que encontró su expresión en la doctrina de Wittgenstein
de las proposiciones elementales y en la de las proposiciones protocolarias del Círculo de Viena una
concepción completamente nueva. Las proposiciones sobre las que ha de construirse la ciencia y a las que ha
de reducirse y que constituyen su significado propio no son en modo alguno proposiciones singulares sobre
vivencias. Popper niega radicalmente que haya en general conceptos constituibles, esto es, definibles
empíricamente, o sea, niega la teoría de la constitución, aunque sin explicación más detallada. Por tanto, no
es posible hacer un enunciado que exprese realmente un dato vivencial determinado en cuanto único,
individual, por lo cual los enunciados perceptivos no pueden pretender una posición preferente. En
consecuencia, todos los enunciados en general son hipótesis. Todo intento como el de Schlick de
fundamentar la ciencia mediante enunciados de vivencias de convicción le parece psicologismo y que está
equivocado de antemano.

Se toman como proposiciones básicas decisivas aquellas que enuncian lo intersubjetivamente observable, o
sea, las que recurren a las vivencias. Pero no se justifican lógicamente mediante estas vivencias. Las vivencias
sólo motivan su aceptación, su decisión. Verdad es que Popper no se ocupa más detalladamente del tipo de
12

relación con las vivencias, dándose por satisfecho con la fórmula general de que la decisión de aceptar una
proposición básica está relacionada con vivencias.

Con respecto a la verificación es que Kraft considera que se hizo insoluble mediante la consideración
puramente sintáctica, porque en ella no se tiene en cuenta ninguna relación con lo extralingüístico. Sólo el
punto de vista semántico proporciona base para ello. Pero el problema de las proposiciones verificadoras en
su relación con las vivencias perceptivas no ha encontrado todavía una solución completa en el Círculo de
Viena, complicándose más mediante el fisicalismo. Por esto es que habrá que abandonar la concepción de
los enunciados sobre vivencias como fundamentos del conocimiento, en la forma en que predominaba en el
empirismo anterior y a la que Popper combate como «inductivismo».

A partir de los aportes antes citados es que Kraft resalta que una de las primeras ideas fundamentales del
Círculo de Viena fue que “la inducción no puede justificarse deductivamente ni, en general, lógicamente.
Incluso cuando Schlick dice que las leyes de la ciencia se originan a partir los enunciados sobre vivencias
«paulatinamente mediante aquel proceso, que se llama 'inducción' y que no consiste en nada más que en
que yo, estimulado e inducido por las proposiciones protocolarias, formuló por vía de ensayo proposiciones
generales hipótesis, de las cuales, se deducen lógicamente aquellas primeras proposiciones», se da cuenta
perfectamente del carácter no-lógico, meramente psicológico de este proceso: «la inducción no es más que
una adivinación conducida metódicamente, un proceso psicológico y biológico cuyo tratamiento es
indudable que no tiene nada que ver con la lógica».”

Debido a lo antes dicho afirma el autor que la validez de los enunciados empíricos no descansa sobre la
inducción, sino sobre la verificación. Si las proposiciones que se deducen de éstas «enuncian lo mismo que
proposiciones de observación posteriores, las hipótesis se tienen por confirmadas, en tanto que no se
presenten también enunciados de observación que se hallen en contradicción, con proposiciones deducidas
de las hipótesis.

Verificación de los enunciados generales:

Wittgenstein quiso interpretar la verdad de las proposiciones generales como una función de verdad de
proposiciones singulares. Para ello tiene que poder resolverse una proposición general en una conjunción de
proposiciones singulares. Pero esto no es posible la mayoría de las veces. Hay dos tipos de generalidad:
«todo» puede significar, por una parte, un conjunto finito determinado en su totalidad, una cantidad
determinada cuyos elementos pueden ser contados individualmente, por ejemplo, todos los habitantes de
Viena, contados en un censo de población en un día fijo. Pero «todo» puede significar también una clase
definida únicamente mediante características determinadas (propiedades o relaciones) y, por tanto,
representar un conjunto indeterminado, no cerrado, sino abierto, cuyos elementos no pueden, pues, ser
enumerados completamente. Esta es la generalidad que corresponde a las leyes de la naturaleza. (Kraft,
1.996, p. 149)

De manera que las hipótesis o teorías no son todas comprobables en la misma medida. Lo son tanto más
cuanto mayores posibilidades de falsación contienen, Popper ha intentado determinar exactamente el grado
relativo de comprobabilidad (falsabilidad), de una doble manera: Mediante una comparación de las clases de
las posibilidades de falsación de dos proposiciones. Una proposición es falsable en grado mayor, o mejor
comprobable que otra, cuando la clase de sus posibilidades de falsación contiene a la clase de las
posibilidades de falsación de la otra como una verdadera clase parcial. (Kraft, 1966, p. 34).

Verdad y confirmación

Con respecto a esto, Kraft (1966) toma en cuenta que un enunciado general sobre hechos no es nunca
completamente verificable, no puede obtener su validez más que al irse verificando constantemente los
13

enunciados deducidos de él. De este modo no puede asegurarse nunca definitivamente la validez de un
enunciado general de este tipo; sólo va estando corroborado por un número de contrastaciones y no se halla
excluida la posibilidad de que sea refutado por una nueva contrastación. Puede saberse, por el contrario, a
causa de la asimetría entre verificabilidad y falsabilidad, que es falso, por haber sido refutado. Esta es la
razón de que en el caso de los enunciados generales sólo pueda hablarse de su corroboración y su
confirmación en lugar de su verdad. (p.159)

Según Kraft, (1966) si podemos juzgar como indudable un enunciado sobre un hecho comprobado muchas
veces es sólo porque damos por supuesto que entre tanto no han variado sus relaciones, que en el mundo
hay uniformidad, esto es, que en el mundo hay regularidades. Pero esto no es por sí mismo un conocimiento
indudable, puesto que es un enunciado general ilimitado y, por tanto, un enunciado sobre lo desconocido,
sobre lo que no podemos saber nada. No tenemos ninguna certeza sobre el hecho de que estemos a
cubierto de sorpresas. Es una creencia tan firme que en virtud de ella arriesgamos incluso nuestra vida, pero
no es ningún conocimiento demostrable. (p.160)

Por esto es que Kraft (1966) indica que para que haya un método de contrastación hay que poder indicar, en
primer lugar, la condición de contrastación, esto es, una situación experimental determinada, y, en segundo
lugar, la condición de verdad, esto es, un posible resultado experimental de ella. Pero esto no basta. Tiene
también que poderse realizar la condición de contrastación. Y hay que poder contrastar a su vez el
cumplimiento de la condición de verdad misma. Por tanto, ésta tiene que estar determinada por un
predicado observable o que ser definida mediante él, pues sobre un predicado observable puede decidirse
sin indicación de un método de contrastación, y, en caso contrario, hay que indicar un método de
contrastación. (p.162)

Y también por esto, Kraft (1966) resalta el aporte de Popper que plantea el principio de la falsabilidad, ya
que la negación de una proposición general, y sólo ella, puede confirmarse completamente. La diferencia
entre ambas calificaciones la ha formulado Popper claramente: la verdad y la falsedad son intemporales; la
confirmación, por el contrario, es válida únicamente hasta un momento determinado; tomada
rigurosamente, tiene que ser completada siempre con un índice temporal. De un enunciado empírico no
puede afirmarse definitivamente y de una vez por todas que es verdadero, sino sólo que hasta ahora se ha
confirmado. La confirmación es un modo de validez de variación gradual, que sólo le corresponde a un
enunciado temporal y nunca definitivamente, siendo siempre relativa. (p.163)

Lo más importante sobre el tema afirma, Kraft (1966) es renunciar al uso de verdadero y falso y sustituirlos
por la confirmación. La Confirmación significa para él una calificación autónoma, propia de los enunciados
empíricos, completamente independiente del concepto de verdad. Confirmación no significa entonces el
grado de probabilidad de que un enunciado sea verdadero, pero si se distinguen verdad y conocimiento de
la verdad. (p.165)

Probabilidad

Kraft (1966), presenta “los enunciados empíricos designan usualmente como probables porque no puede
constatarse su verdad, sino sólo su confirmación, y se ha intentado determinar el grado de probabilidad con
ayuda del cálculo de probabilidades”. (p.166)

Pero este concepto de la probabilidad está muy necesitado de explicación y ocupó mucho por ello al Círculo
de Viena.

El autor destaca: “la probabilidad de los enunciados parece claramente determinable si se la equipara con la
probabilidad matemática, aplicando ésta a enunciados en lugar de hacerlo a acontecimientos. Si se define
para ello la probabilidad matemática como frecuencia relativa de dos clases de acontecimientos en una serie
14

más amplia, la probabilidad de enunciados expresa entonces la frecuencia relativa de la verdad de un


enunciado frente a su falsedad en los casos concretos de su contrastación.” (p.166)

El ámbito de lo cognoscible

Es posible concluir según el autor que la realización de la unidad del conocimiento constituye una de las
tareas históricas de la Filosofía. El Círculo de Viena tuvo también claramente presente esta tarea. Los
sistemas conceptuales de la física, de la biología, de la psicología, de la sociología, de las ciencias históricas,
no pueden hallarse uno al lado del otro sin posibilidad de comparación. Estas ciencias no pueden hablar cada
una en su propio lenguaje. Si se consideran las ciencias particulares como heterogéneas en sus objetos,
métodos y condiciones de validez, entonces no existe ninguna relación entre ellas, sobre todo entre las
ciencias naturales y las culturales (o del espíritu), y no resulta claro cómo se comportan entre sí sus
conceptos y leyes. Pero hay que estar utilizando constantemente los conceptos y leyes de un campo en otro.
(p.177)

Por ejemplo, señala Kraft “si hay que explicar, y no meramente describir, un proceso psíquico como la
percepción, sólo es posible hacerlo si se sale del sistema conceptual psicológico, ya que tal proceso tiene que
ponerse en relación con un estímulo físico y un proceso fisiológico. Pero toda predicción es un proceso
singular trascendente de este tipo, por estar condicionado complejamente.” (p.177)

Es importante destacar según el autor que la deducción de una de ellas, que tanta importancia reviste, exige
recurrir a leyes de diversas ciencias particulares, leyes de la naturaleza y del comportamiento de los
hombres. Pero para ello las leyes y conceptos de las ciencias especiales tienen que pertenecer a un sistema,
no deben hallarse desconectadas unas junto a otras. Tienen que constituir una ciencia unificada con un
sistema conceptual común (un lenguaje común), sistema en el cual los sistemas conceptuales de las ciencias
particulares sean sólo miembros, lenguaje en el cual sus lenguajes particulares sean únicamente lenguajes
parciales. (p.177)

El lenguaje unificado de la ciencia tiene que cumplir dos exigencias. Tiene que ser: primero, intersubjetivo, lo
que en el aspecto formal quiere decir: tiene que ser un sistema común de signos y reglas, y en el aspecto
semántico: tiene que designar lo mismo para cada persona. Segundo, debe ser universal, es decir, toda
proposición de cualquier lenguaje tiene que poder ser traducida a él, tiene que ser un sistema conceptual en
el que pueda expresarse cualquier hecho. (Kraft, 1996, p.178)

Kraft (1966) expone que los enunciados de la física describen cuantitativamente el estado de una posición
espacio-temporal, pero pueden incluirse también determinaciones cualitativas, como las que se dan a las
cosas del mundo perceptivo, si se las puede coordinar a estados o procesos físicos. Por esto Carnap ha
modificado esta tesis de la unificación en el sentido de que en ella no se trata del sistema conceptual de la
física, sino de propiedades y relaciones observables de cosas. (p.178)

Con respecto a este tipo de teoría Kraft concluye que el nombre de «fisicalismo» tiene como misión realizar
el punto de vista de la ciencia unificada, pero no es el lenguaje fisicalista cuantitativo el que constituye el
lenguaje unitario de la ciencia, sino el lenguaje cualitativo de cosas. (p.179)

El fisicalismo

Otro concepto que analiza en su exposición Kraft sobre los enunciados de las ciencias naturales es que son
enunciados sobre relaciones reales, espacio-temporales, pero los enunciados de otros campos tienen que
poder traducirse al menos a tales enunciados, por esto, Neurath y Carnap, para fundamentar la posibilidad
de traducción, formularon una tesis que da como resultado un fisicalismo en sentido estricto.
Originariamente consideraron todavía que los enunciados psicológicos y los fisicalistas eran dos tipos
15

distintos de enunciados, en el sentido de que los enunciados psicológicos hablan de las vivencias como de
hechos no físicos sino corporales. (p.180)

En la concepción de la filosofía que defendió el Círculo de Viena no hay en absoluto ninguna innovación
revolucionaria ya que Kant redujo ya la filosofía a teoría del conocimiento, en tanto deba ser conocimiento, y
el positivismo atribuyó todo conocimiento objetivo a las ciencias especiales.

Por último concluye el autor en que la concepción del Círculo de Viena le supera al reunir todas las ciencias
en la ciencia unificada, pues con ello los problemas de una concepción unitaria del mundo, que constituían
un problema capital de la filosofía anterior, se conservan como problemas de un sistema unitario del
conocimiento científico, o sea, como científicamente legítimos. Y en el Círculo de Viena encontró también su
expresión precisa el método de la teoría del conocimiento como análisis lógico del lenguaje.

Por eso una investigación del conocimiento ha de realizarse en el lenguaje. Aquello de lo que la filosofía se
ha ocupado hasta ahora se divide en tres tipos: en primer lugar, hay cuestiones relativas a hechos empíricos,
las cuales han de contestarse por medio de las ciencias experimentales; en segundo lugar, hay cuestiones
que conciernen a la representación, al lenguaje, las cuales se solucionan en una explicación de conceptos y
enunciados; y en tercer lugar, hay cuestiones metafísicas. Estas no pueden contestarse en modo alguno, no
pueden formularse en el lenguaje de la ciencia, con conceptos científicos. Por tanto, no se pierde ninguno de
los problemas significativos, científicamente legítimos de la filosofía. (p.195)

CONCEPCIÓN HEREDADA

Movimiento considerado como resultado de un proceso de evolución del Círculo de Viena. Fueron los
miembros del Círculo de Viena que a causa de las circunstancias de aquella época emigraron y continuaron
desarrollando su pensamiento, realizando un reajuste sus concepciones y creando otras nuevas.

Sus representantes más influyentes son Carnap, Hempel, Nagel y Reichembach.

Su labor implicó atender la dicotomía OBSERVACIONAL-TEÓRICA en el debate sobre la Ciencia: por un lado
todos los elementos observables y sus cualidades y, por otro, las cosas inobservables y cualidades restantes.

Su ideología se corresponde con una filosofía empirista, que toma la experiencia como base, y donde se
agrega el análisis lógico de los enunciados básicos a los que se pueden reducir las verdades científicas del
mundo.

El desarrollo de su pensamiento puede dividirse en dos ejes que hegemonizan el debate sobre la filosofía de
la Ciencia.

● Historicidad

Las teorías se desarrollan y elaboran en un determinado contexto histórico y están influidas por
acontecimientos sociales, económicos, políticos y religiosos.

Las verdades de la ciencia son objetivas e independientes en cuanto a su validez en la historia ya que surgen
en un tiempo específico y en un lugar determinado. Existe una relación ineludible entre historia y
conocimiento.

● Ética

El problema ético se refiere directamente a la responsabilidad de la ciencia respecto de su impacto social, la


relación que existe entre las producciones científicas y sus aplicaciones y, el desarrollo científico como fin en
sí mismo o su subordinación a otros fines.
16

A partir de esta relación inevitable entre Ciencia y Contexto, el movimiento ‘Concepción Heredada’ pretende
realizar una diferenciación entre Contexto de descubrimiento y contexto de justificación, tomando como
referencia la distinción conceptual planteada ya por Reinchenbach en 1938 en su libro Experiencia y
Predicción.

El contexto de descubrimiento en una idea científica responde al ámbito de la génesis histórica,


circunstancias sociales y políticas de la época y acontecimiento económicos o de otra índole que puedan
influir en el descubrimiento. Es lo que la epistemología más tradicional llama ‘ámbito de la factibilidad’.

De este modo, se considera a las teorías como efectos de ciertas causas que están presentes en el horizonte
histórico que hizo posible su descubrimiento.

El contexto de justificación (‘ámbito de la validación’) sigue la línea del hallazgo, producción de teoría y
formulación o reformulación de hipótesis, son racionalizaciones y confrontaciones de predicciones que no
tienen que ver con lo histórico sino con los elementos que hacen a la validación de una teoría, su estructura
lógica y puesta a prueba dentro de la ciencia.

Dentro de este contexto, se le asigna la historia un lugar fuera de la ciencia. Todo lo referido al origen
histórico y el modo en que se habría logrado el descubrimiento era deber de los historiadores de la ciencia y
no de los epistemólogos, que partían de las construcciones científicas ya elaboradas y terminadas.

Para la Concepción Heredada éste será el único contexto relevante propiamente científico porque está en
juego la verdad, objeto de la Filosofía de la Ciencia. Lo que importa, en este sentido, es el resultado final, la
forma en que están expuestas y justificadas una vez que ya constituyen un producto elaborado (Echeverria,
1989).

Éstos contextos se corresponden con lo que Imre Lakatos, años más tarde desarrollará como Historia
externa, donde se narra el desarrollo de las ideas científicas en relación con las prácticas sociales que las
hicieron posibles e, Historia interna, que abstrae la incidencia de lo social e implica una reconstrucción
puramente racional de la ciencia.

La Concepción Heredada es considerada un 2° momento del Neopositivismo (Siendo el Círculo de Viena el


primer movimiento en desarrollar el paradigma) y el Empirismo lógico continuó desarrollándose y sirvió
como metodología de base del Método Inductivo.

La Concepción Heredada se valió de dicho Método (Inductivo) para la Construcción de Teorías y para explicar
el proceso diferencian Tres Niveles de Enunciados que, según el método utilizado para la formación de la
teoría, se ordenan de distinto modo.

Los enunciados para ser considerados científicos deben cumplir con una significación y una verificación
directa o indirecta, deben tener un sentido y la posibilidad de una contrastación empírica.

I. Los enunciados de tipo 1 son afirmaciones empíricas particulares, pueden ser captadas por medio de los
sentidos y refieren a determinados hechos o elementos particulares, es decir, no representan a todos los
casos.

II. Los enunciados de tipo 2 o afirmaciones empíricas generales son hechos observacionales pero de alcance
universal, ocurren en todos los casos.

III. Por último, los enunciados teóricos contienen al menos un término que remite a la teoría pero no es
captable por medio de los sentidos, no tenemos experiencia de él.
17

El movimiento adopta el método inductivo donde las hipótesis se infieren de los datos recogidos
previamente por razonamiento inductivo, que implica, desde premisas particulares arribar a una conclusión
general.

Al tomar como base la experiencia, el primer paso siempre será la observación.

Luego, en un segundo momento, por razonamiento inductivo se parte de enunciados de tipo 1 que
corresponde al registro de hechos particulares, posteriormente se arriba a generalizaciones que
corresponden a enunciados de tipo 2. Finalmente se construye la teoría.

LAS CRÍTICAS Y EL DEBILITAMIENTO DEL MOVIMIENTO

De este modo comprendemos que la labor de la Concepción Heredada se centra en el Análisis del Contexto
de Justificación de las Teorías Científicas bajo un empirismo antimetafísico. Hacer epistemología de la
Ciencia sólo era posible a partir de los resultados finales de la Investigación científica por medio de su
estructura, orden y su relación con la experiencia.

Entonces podemos hablar de un debilitamiento, a partir de una serie de críticas y objeciones de diversos
orígenes, perdiendo poco a poco la fuerza y rigurosidad inicial de los fundamentos básicos de la Concepción
Heredada. Así, la idea de reconstrucción racional, el presupuesto empirista, las nociones de objetividad,
divisibilidad empírica, intersubjetividad y racionalidad o la idea de que la ciencia es sólo un sistema de
enunciados.

Unas de las principales críticas lo encontramos en los trabajos de K. Popper, que de manera de síntesis
podemos tomar tres puntos importantes, sobre la crítica al método inductivo del descubrimiento (Pardo,
2012).

❖ En primer lugar, porque no hay observaciones puras, entendiendo por “pura” a una observación que no
esté mediada por algún condicionamiento teórico. En donde toda observación y recolección de datos, está
siempre condicionada por una serie de factores. Que nos lleva a enfrentarnos con el tema de la objetividad,
sobre la problemática acerca de la posibilidad de trascender ese horizonte de finitud que caracteriza a
nuestra racionalidad, es decir que a medidas recibimos y comprendemos, proyectamos un sentido o, dicho
de otro modo, estamos siempre en un mundo que ya tiene un sentido para nosotros.

❖ En segundo lugar, está la respuesta inductivista a la cuestión de descubrimiento es absurda porque una
recolección de datos sin una hipótesis previa sería lisa y llanamente impracticable. Entonces surgen
interrogantes ¿Qué hechos, ante una investigación, se debería observar cómo científico? ¿De qué datos
tomar nota o recoger? El inductivista dice “hay que observar todos los hechos”, esto no puede significar
“todos los hechos del mundo”, sino que habría que observar algunos sí y otros no. Por lo que un dato, sin
hipótesis, carece de sentido, es “mudo”, no “dice” nada.

❖ Por último está la objeción tiene que ver con el problema de los enunciados de nivel 3, con la cuestión de
las leyes teóricas. Recordando que las teorías científicas son comprendidas por la concepción heredada
como conjunto de enunciados de distinto nivel: Nivel 1: empíricos particulares, Nivel 2: empírico general y
Nivel 3: teóricos. Prestemos atención al concepto de “gravedad” por parte de la teoría newtoniana, para
explicar la caída de los cuerpos, no puede obtenerse por inducción ¿por qué? por la sencilla razón de que es
un término teórico, es decir, el postulado de una cierta entidad que no “sale” de observación alguna, sino
que es “puesto” para explicar lo que se observa. Y no se puede obtener, inferir, lo que no se observa a partir
de la observación. Por lo tanto, desde el punto de vista metodológico del inductivismo, no podríamos
explicar la presencia de enunciados de nivel 3, de leyes teóricas, en la ciencia (p.57).

Método inductivo de la justificación:


18

❖ Las sucesivas contradicciones exitosas de una hipótesis no aumentan su probabilidad de verdad; donde
las hipótesis no se van haciendo más verdaderas a medida que las vamos corroborando, a partir de su
verdad o falsedad está ya desde el principio. Si hablamos de “hipótesis” es referirse a enunciados generales,
es decir que contempla infinitos casos, el aumento de casos particulares en la contrastación no puede nunca
aumentar su probabilidad de verdad: si los casos son infinitos, la probabilidad de verdad se mantendrá
siempre igual a cero.

❖ La inducción supone un círculo vicioso, ya que, solo se puede operar una generalización inductiva si
supone una suerte de continuidad entre la experiencia pasada, la presente y la futura. En otras palabras, la
formulación de una ley general a partir de casos particulares, implica la creencia en regularidades
permanentes.

❖ El progreso científico no es por acumulación de conocimiento corroborados. No hay tal aumento de la


probabilidad de verdad, como sostienen los inductivistas, si no es cierto que las hipótesis corroboradas se
van acercando más a la verdad en la medida en que se van verificando sus predicciones, por lo que no es
correcta la creencia en un progreso por acumulación de conocimientos. Popper considera que, si existe el
progreso científico, debemos pensarlo como un progreso y no por acumulación de corroboraciones sino por
descarte de hipótesis falseadas.

Encontramos otra crítica en los análisis de Quine sobre la indeterminación de la traducción y, sobre todo, la
infradeterminación de la teoría por los datos, debilitaron la creencia en la intersubjetividad y la objetividad,
además de mostrar la dificultad que la sola evidencia empírica comporta para la fundamentación de la
ciencia.

Pero el elemento fundamental paranuestra lectura de la historia de la epistemología lo constituye la


propuesta de Quine en el sentido de “naturalizar” la epistemología en oposición a la epistemología
prescriptivista o normativista tradicional, de tal modo que el conocimiento humano pueda ser estudiado
como cualquier otro y la ciencia pueda decir algo acerca de él:

Si lo que perseguimos es, sencillamente, entender el nexo entre la observación y la ciencia, será aconsejable
que hagamos uso de cualquier información disponible, incluyendo la proporcionada por estas mismas
ciencias cuyo nexo con la observación estamos tratando de entender (Quine, 1969, p. 101).
19

KARL POPPER. LA LÓGICA DE LA INVESTIGACIÓN CIENTÍFICA


Crítica al método inductivo de la ciencia

Las ciencias empíricas hasta ese momento, se han caracterizado por el empleo de los métodos inductivos, es
decir, enunciados singulares/particulares como resultado de descripciones de resultados de observaciones o
experimentos, que se convierten en enunciados universales, a través de hipótesis o teorías.

Sin embargo, desde un punto de vista lógico, es incorrecto obtener enunciados universales de esta manera,
por más elevado que sea el número de enunciados particulares en los que sustente; ya que cualquier
conclusión que saquemos de este modo corre el riesgo de resultar algún día falsa. A este planteamiento
sobre si están justificadas las inferencias inductivas y de qué modo, se lo conoce como problema de la
inducción.

Muchos creen que la verdad de estos enunciados está dada por la experiencia, sin embargo, todo derivado
de una experiencia no puede ser originalmente un enunciado universal, sino, tan solo un enunciado singular.
Por lo tanto, quien dice que sabemos por experiencia la verdad de un enunciado universal, quiere decir que
la verdad de ese enunciado singular se reduce a la verdad de los enunciados particulares que la conforman,
según la experiencia de los mismos.

Para los defensores de la lógica inductiva, la importancia de este método es máxima: determina la verdad de
las teorías científicas y eliminarlo de la ciencia significaría privarla de la posibilidad de decidir sobre la verdad
o falsedad de sus teorías. Sin embargo, todo principio de inducción, lleva forzosamente a incoherencias
lógicas. No se puede fundamentar el principio de inducción en la experiencia, y esto es porque, al plantear
que sabemos que es verdadero por experiencia, necesitamos justificarlo mediante inferencias inductivas, y
para justificar estas últimas, debemos suponer un principio de orden superior y así sucesivamente. Se
produce una regresión infinita.

Por otra parte, Popper considera que una de las principales crìticas que podía recibir su rechazo al método
inductivo, era justamente el privar a la ciencia de su capacidad para separar aquello que es ciencia de la
especulación metafísica. Pero su principal razón para rechazar la lógica inductiva es precisamente que no
proporciona un criterio de demarcación apropiado. Es así que habla del problema de la demarcación (no
poder encontrar un criterio que nos permita distinguir las ciencias empíricas de los sistemas metafísicos)

Los positivistas suelen interpretar el problema de la demarcación de un modo naturalista: como si fuera
problema de la ciencia natural. En lugar de considerar que se encuentran ante la tarea de proponer una
convención apropiada, creen que tienen que descubrir una diferencia, que existiera en la naturaleza de las
cosas, entre la ciencia empírica por una parte y la metafísica por otra. Tratan de demostrar que la metafísica
por su misma naturaleza, es un parloteo absurdo. Con las expresiones “absurdo” y “carente de sentido”,
demuestran una evaluación peyorativa, donde lo que intentan de conseguir no es tanto una demarcación
acertada sino el derribar definitivamente la metafísica.

El criterio inductivista de demarcación no consigue trazar una línea divisoria entre los sistemas científicos y
los metafísicos, y por qué ha de asignar a unos y otros el mismo estatuto: el veredicto del dogma positivista
del sentido es que ambos son sistemas de pseudoaserciones sin sentido.

Eliminación del psicologismo

Psicología del conocimiento: se interesa en los estímulos y factores que se ponen en marcha durante el
proceso en el cual, a la persona se le ocurre una idea nueva.
20

Lógica del conocimiento: se pregunta por la justificación o validez de los enunciados. Sus preguntas pueden
ser las siguientes: ¿puede justificarse un enunciado?, en caso afirmativo, ¿de qué modo?, ¿es contrastable?,
¿depende lógicamente de otros enunciados? ¿o los contradice?

Popper se interesa en esta última.

Método deductivo de la ciencia

A partir de las críticas realizadas a la lógica inductiva, Popper propone el método deductivo. El mismo, va de
lo general a lo particular.

Contrastación deductiva de teorías

Una vez presentada a título provisorio una nueva idea, se extraen conclusiones de ella por medio de una
deducción lógica. Estas conclusiones se comparan entre sí y con otros enunciados, con objetivo de hallar las
relaciones lógicas que existan entre ellas.

Podemos distinguir cuatro procedimientos de llevar a cabo la contrastación de una teoría.

1. comparación lógica de las conclusiones unas con otras: se somete a contraste la coherencia interna del
sistema.

2. estudio de la forma lógica de la teoría, con el objeto de determinar su carácter: si es una teoría
empírica o si es, por ejemplo, tautológica.

3. comparación con otras teorías, que tiene por principal objetivo averiguar si la teoría examinada
constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la
sometemos.

4. contraste por medio de la aplicación empírica de las conclusiones que pueden deducirse de ella.
Pretende descubrir hasta qué punto satisfarán las nuevas consecuencias de la teoría a los requerimientos de
la práctica.

Con ayuda de otros enunciados anteriormente aceptados se deducen de la teoría a contrastar ciertos
enunciados singulares, que podemos llamar predicciones. Se eligen entre estos enunciados los que:

● No sea deductibles de la teoría vigente

● Los que se encuentran en contradicción con ella.

A continuación, tratamos de decidir en lo que se refiere a estos enunciados deducidos (y a otros),


comparándolos con los resultados de las aplicaciones prácticas y de experimentos. Si la decisión es positiva,
esto es, si las conclusiones singulares resultan ser aceptables o verificadas, la teoría a que nos referimos ha
pasado con éxito las contrastaciones, sólo por esta vez, ya que, no hemos encontrado razones para
desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela
que la teoría de la que se han deducido lógicamente también es falsa. Es decir, una decisión positiva puede
apoyar sólo temporalmente a la teoría examinada, mientras que una decisión negativa siempre la derroca.

Durante el tiempo en que una teoría resiste contrastaciones exigentes y no la deja anticuada otra teoría,
podemos decir que está corroborada por la experiencia.

La falsabilidad como criterio de demarcación

El criterio de demarcación adoptado por Popper no es el de la verificabilidad, sino el de la falsabilidad de los


sistemas. Más que exigir que un sistema científico pueda ser seleccionado de una vez para siempre en un
21

sentido positivo, se pretende que sea susceptible de selección en un sentido negativo por medio de
contrastes o pruebas empíricas: ha de ser posible refutar por la experiencia un sistema científico empírico.
Ej: el enunciado “lloverá o no lloverá mañana” no se considerará empírico, por el simple hecho de que no
puede ser refutado; mientras que a este otro “lloverá aquí mañana” debe considerarse empírico.

La meta del criterio de falsabilidad no es salvarles la vida a los sistemas insostenibles, sino, elegir el que
comparativamente sea más apto, sometiendo a todos a una rigurosa lucha por la supervivencia.

La experiencia como método

La tarea de formular una definición aceptable de la idea de ciencia empírica no está exenta de dificultades.
Algunas de ellas surgen del hecho de que tienen que existir muchos sistemas teóricos cuya estructura lógica
sea muy parecida a la del sistema aceptado en un momento determinado como sistema de la ciencia
empírica. En ocasiones se describe esta situación diciendo que existen muchísimos mundos lógicamente
posibles, y se pretende que un sistema llamado “ciencia empírica” represente únicamente un mundo: el
mundo real o el mundo de nuestra experiencia.

Podemos distinguir tres requisitos que nuestro sistema teórico empírico tendrá que satisfacer.

● Sintético, de suerte que pueda representar un mundo no contradictorio, posible

● Debe satisfacer el criterio de demarcación, es decir, no será metafísico sino representará un mundo
de experiencia posible

● Que pueda distinguirse de otros sistemas semejantes por ser el que represente nuestro mundo de
experiencia

¿Cómo ha de distinguirse el sistema que represente nuestro mundo de experiencia? Por el hecho de que se
le ha sometido a contraste y ha resistido las contrastaciones. Esto quiere decir que se le ha de distinguir
aplicando el método deductivo que pretendo analizar y describir.

La experiencia resulta ser un método distintivo mediante el cual un sistema teórico puede distinguirse de
otros; con lo cual la ciencia empírica se caracteriza al parecer, no sólo por su forma lógica, sino por su
método de distinción. Por tanto, puede describirse la teoría del conocimiento, cuya tarea es el análisis del
método o del proceder peculiar de la ciencia empírica, como una teoría del método empírico, una teoría de
lo que se llama experiencia.

Objetividad científica y convicción subjetiva

Kant utiliza la palabra “objetivo” para indicar que el conocimiento científico ha de ser justificable,
independientemente de los caprichos de nadie, una justificación es objetiva si puede ser contrastada y
comprendida por cualquier persona. Ahora bien, para Popper, las teorías científicas no son nunca
enteramente justificables, pero son, no obstante, contrastables. Entonces, la objetividad de los enunciados
descansa en el hecho de que pueden contrastarse intersubjetivamente.

Kant aplica la palabra “subjetivo” a nuestro sentimiento de convicción y el examen de cómo aparecen éstos,
es asunto de la psicología. Ahora bien, Popper plantea que la experiencia subjetiva o un sentimiento de
convicción (por más intenso que sea), nunca pueden justificar un enunciado científico; y semejantes
experiencias y convicciones no pueden desempeñar en la ciencia otro papel que el de objeto de una
indagación empírica (psicológica).

Reglas metodológicas de la ciencia


22

Considera a las reglas metodológicas como convenciones: las podríamos describir diciendo que son las reglas
de juego de la ciencia empírica. Difieren de las reglas de la lógica pura al estilo de como lo hacen las reglas
del ajedrez. Las mismas, tienen el objetivo de que se pueda aplicar el criterio de contrastación.

Algunas de ellas son:

1. No se puede dejar de contrastar nunca. Quien dedica un día que los enunciados científicos no
requieren ninguna contrastación ulterior y que puedan considerarse definitivamente verificados, se
retira del juego.

2. No se eliminará una hipótesis propuesta y contrastada y que haya demostrado su temple, si no se


presentan buenas razones para ello (sustitución por otra hipótesis más contrastable, falsación de
una de las consecuencias de la hipótesis)

3. Las demás reglas del procedimiento científico han de ser tales que no protejan a ningún enunciado
de la falsación.

4. Solo pueden ingresar en la ciencia los enunciados que sean contrastables intersubjetivamente.

Las reglas metodológicas se hallan en estrecha conexión tanto con otras reglas de la misma índole como con
nuestro criterio de demarcación. Pero dicha conexión no es estrictamente deductiva o lógica: resulta, más
bien, del hecho de que las reglas están construidas con la finalidad de asegurar que pueda aplicarse nuestro
criterio de demarcación, y por ello, se formulan y aceptan de conformidad con una regla práctica de orden
superior.

La conexión sistemática entre las reglas es lo que permite que hablemos con propiedad de una teoría del
método.

Las ciencias empíricas.

Las ciencias empíricas son sistemas de teorías, y la lógica del conocimiento científico puede describirse como
una teoría de teorías.

Las teorías son redes que lanzamos para apresar aquello que llamamos “el mundo”, para racionalizar,
explicarlo y dominarlo.

Explicación causal.

Dar una explicación causal es deducir un enunciado que lo describe a partir de las siguientes premisas
deductivas: una o varias leyes universales y ciertos enunciados singulares.

Para una explicación causal completa tenemos dos tipos de enunciados: los enunciados universales, es decir
hipótesis que tiene el carácter de leyes naturales y enunciados singulares que se aplican al acontecimiento
concreto de que se trate (condiciones iniciales). Se deduce el enunciado singular por enunciados universales
conjuntamente con condiciones iniciales.

Las condiciones iniciales describen lo que se suele llamar la causa del acontecimiento en cuestión. Y la
predicción describe lo que denominamos efecto.

El principio de causalidad consiste en la afirmación de que todo acontecimiento, puede explicarse


causalmente o puede deducirse causalmente.

Si, lo que se quiere expresar con “puede” es que el mundo está regido por leyes estrictas, es que está
construido de tal modo que todo acontecimiento determinado es un ejemplo de una regularidad universal o
ley (es una aserción sintética) y no es falsable.
23

Enunciados universales, individuales y existenciales.

Los universales son aquellos de teorías o leyes naturales. Este último tipo de enunciados se puede
reemplazar por otros singulares ya que pueden enumerarse todos los elementos de la clase a la que se
refiere

La lógica formal que se ocupa únicamente de la teoría de la deducción, trata igualmente a estos enunciados
como universales.

Los enunciados singulares refieren en lugar y tiempo, se refiere exclusivamente a una clase finita de
elementos concretos dentro de una región espacio-temporal finita e individual. .

El concepto de enunciado estrictamente universal refiere a que se opone a que todo enunciado sintético
universal ha de ser traducible, por una conyución de un número finito de enunciados singulares. Los
enunciados estrictamente universales no son posibles de verificar jamás, por eso se rechazan apoyándose en
un criterio de sentido, en otra consideración analógica.

Las leyes naturales que borran la diferencia entre enunciados singulares y universales, se resuelve el
problema de la inducción: porque podrían ser perfectamente admisibles las inferencias desde enunciados
singulares a enunciados sólo numéricamente universales.

Pero éste no es el problema metodológico de la inducción. Porque, la verificación de una ley natural podría
únicamente llevarse a cabo de un modo empírico si se examinara cada acontecimiento singular al que podría
aplicarse la ley y se encontrara que cada uno de ellos ocurre realmente conforme a ella y resulta una tarea
imposible de realizar.

Esto último equivale a considerarlos enunciados no verificables que se pueden poner en la forma: “de todo
punto del espacio y el tiempo, es verdad que…” por otra parte los enunciados “específicos” o “singulares”
refieren a ciertas regiones finitas del espacio y el tiempo. Con esto es posible reducir un gran número a unos
pocos.

Esta distinción entre universales e individuales es fundamental ya que las aplicaciones de la ciencia se
apoyan en las inferencias que partiendo de hipótesis universales llegan a casos singulares.

No basta la caracterización de los enunciados universales como aquellos en que no aparecen nombres
individuales. Por ejemplo: si se utiliza la palabra “cuervo” como nombre universal y el enunciado “todos los
cuervos son negros” es un enunciado estrictamente universal.

Pero los enunciados cuyo significado puede admitirse que es equivalente al de “existe”, estos enunciados
son estricta o puramente existenciales “existe al menos un cuervo negro”. La negación de un enunciado
estrictamente universal equivale siempre a un enunciado estrictamente existencial y viceversa.

Los sistemas teóricos

El sistema de que se trate tiene que ser formulado de un modo tan claro y definido que se reconozca con
facilidad que cualquier supuesto nuevo es una modificación y por ello, una revisión del mismo. Se pretende
que, al formar un sistema, se reúnan todos los supuestos que se necesitan y formar con ellos el ápice del
sistema. Estos supuestos suelen llamarse axiomas o postulados, o proposiciones primitivas.

Un sistema teórico está axiomatizado si se ha formulado un conjunto de enunciados que satisface los cuatro
siguientes requisitos: El sistema de axiomas está exento de contradicción, el sistema es independiente; estos
en conjunto de la teoría han de ser: suficientes para deducir todos los enunciados pertenecientes a la teoría
que se trata de axiomatizar y son necesarios para el mismo fin, es decir que no deben contener supuestos
superfluos.
24

La falsabilidad y los convencionalistas

De acuerdo con el punto de vista convencionalista las leyes de la naturaleza no son falseables por la
observación, pues se necesitan para determinar que es una observación, más en particular que es una
medición científica.

El convencionalismo es un sistema completo defendible y no es fácil que tengan éxito los intentos de
descubrir en él incoherencias. Pero para Popper es inaceptable porque su finalidad y sus propósitos son
radicalmente distintos a la suya. El convencionalismo busca en ella “un sistema de conocimientos apoyado
en razones últimas”.

Siempre que el sistema “clásico” del momento se vea amenazado por los resultados de nuevos
experimentos que podrían interpretarse como falsaciones, el mismo sistema presentará un aspecto
imposible para el convencionalista: dará una explicación que eliminará las incompatibilidades que puedan
haber surgido, tal vez inculpando nuestro imperfecto dominio del sistema, o acabará con ellas sugiriendo la
adopción de ciertas hipótesis auxiliares, o de ciertas correcciones en nuestros aparatos de medida. Por eso
mismo un experimento falsador despertará nuestro máximo interés, lo acogeremos con éxito, por habernos
abierto nuevas perspectivas sobre un mundo de nuevas experiencias. Pero el convencionalista verá la
estructura que está empezando a elevarse como un “colapso total de la ciencia”.

Según los convencionalistas no es posible dividir las teorías en falsables y no falsables, esta distinción sería
ambigua.

Reglas metodológicas

El criterio de falsabilidad, no conduce a una clasificación desprovista de ambigüedades, mediante el análisis


de su forma lógica es imposible decidir si un sistema de enunciados es un sistema convencional de
definiciones implícitas irrefutables o si es un sistema empírico.

Por lo tanto, para que sea posible en absoluto preguntar si nos encontramos ante una teoría
convencionalista o empírica es indispensable referirse a los métodos aplicados al sistema teórico.

Siempre que se introduzca una nueva hipótesis ha de considerarse que se ha hecho un intento de construir
un nuevo sistema, que debería ser juzgado siempre sobre la base de si su adopción significaría un nuevo
progreso en nuestro conocimiento del mundo.

Una teoría es falsada si hemos aceptado enunciados básicos que la contradigan, es necesario pero no
suficiente, pues hay acontecimientos aislados no reproducibles que carecen de significación para la ciencia.
Difícilmente nos inducirán a desechar una teoría, unos pocos enunciados básicos esporádicos.

Se acepta la falsación solamente si se propone y corrobora una hipótesis empírica de bajo nivel que describa
semejante efecto, y podamos denominar a este tipo de hipótesis una hipótesis falsadora.

El requisito de la hipótesis falsadora ha de ser empírica y por lo tanto falsable, quiere decir exclusivamente
que debe encontrarse en cierta relación lógica con respecto a los posibles enunciados básicos: así pues, lo
que exigimos atañe solo a la forma lógica de la hipótesis.

Por lo tanto, los enunciados básicos desempeñan dos papeles diferentes. Por una parte, hemos empleado el
sistema de todos los enunciados básicos lógicamente posibles con objeto de obtener, gracias a ellos, la
caracterización lógica que íbamos buscando (forma de enunciados empíricos) y por otra, los enunciados
básicos aceptados constituyen la base para la corroboración de las hipótesis, si contradicen a la teoría,
admitimos que nos proporcionan motivo suficiente para la falsación de ésta únicamente en el caso de que
corroboren a la vez una hipótesis falsadora.
25

EL PROBLEMA DE LA BASE EMPÍRICA

Las experiencias perceptivas como base empírica: el psicologismo

Pocos pensadores se han preocupado tan profundamente por el problema de la base experimental como
Fries. Este decía que si es que no hemos de aceptar dogmáticamente los enunciados de la ciencia tenemos
que ser capaces de justificarlos; si exigimos que la justificación se realice por una argumentación razonada,
en el sentido lógico esta expresión, vamos a parar a la tesis de que los enunciados sólo pueden justificarse
por medio de enunciados; por tanto, la petición de que todos los enunciados estén justificados lógicamente
nos lleva forzosamente a una regresión infinita. Ahora bien, Si queremos evitar tanto el peligro del
dogmatismo como el de una regresión infinita, parece que sólo podemos recurrir al psicologismo; esto es a
la doctrina de que los enunciados no solamente pueden justificarse por medio de enunciados, sino también
por la experiencia perceptiva. Al encontrarse frente a este dilema es decir, o matismo o regresión infinita o
psicologismo, Fries optaba por el psicologismo: según su doctrina, en la experiencia sensorial tenemos un
conocimiento inmediato con el cual podemos justificar nuestro conocimiento mediato ,y este último incluye,
desde luego, los enunciados de la ciencia.

En las epistemologías del sensualismo y del positivismo se supone que los enunciados científicos empíricos
hablan de nuestras experiencias. Así pues, todo lo que sabemos acerca del mundo de los hechos tiene que
poder sé expresar en forma de enunciados acerca de nuestras experiencias; sólo consultado nuestra
experiencia sensorial puede saberse si esta mesa es roja o azul. Por el sentimiento inmediato de convicción
que lleva consigo podemos distinguir el enunciado verdadero de él que es falso. La ciencia no es más que un
intento de clasificar y describir este conocimiento perceptivo, estas experiencias inmediatas de cuya verdad
no podemos dudar: es la presentación sistemática de nuestras convicciones inmediatas.

En mi opinión esta doctrina se va a pique con los problemas de la inducción y de los universales ya que no es
posible proponer En un enunciado científico Que no trascienda lo que podemos saber con certeza
basándonos en nuestra experiencia inmediata: todo enunciado descriptivo emplea nombres universales y
tiene el carácter de una teoría, de una hipótesis. No es posible verificar el enunciado “hay que hay un vaso
de agua” por ninguna experiencia con carácter de observación, por la mera razón de que los universales, que
aparecen en aquel no pueden ser coordinados a ninguna experiencia sensorial concreta.

La objetividad de la base empírica

Pero pongo una perspectiva de la ciencia que es ligeramente diferente de la propugnada por las diversas
escuelas psicológicas: querría distinguir netamente entre ciencia objetiva por una parte y nuestro
conocimiento por otra.

Estoy dispuesto a admitir que solamente la observación puede proporcionarnos un conocimiento acerca de
los hechos y que solamente nos percatamos de los hechos por la observación; pero este percatarnos, este
conocimiento nuestro, no justifica o fundamenta la verdad de ningún enunciado. En mi opinión lo que la
epistemología ha de preguntarse es: ¿cómo contrastamos los enunciados científicos por medio de las
consecuencias deductivas? y ¿qué tipo de consecuencias podemos escoger para este propósito si es que, a
su vez, tienen que ser contrastables intersubjetivamente?

La situación es muy diferente cuando nos volvemos a los enunciados empíricos de la ciencia: aquí todo el
mundo cree que están fundamentados en experiencias del tipo de percepciones. Casi todos considerarían
como un caso de psicologismo el intento de basar los enunciados lógicos en cláusulas protocolarias; ahora
bien, ya se trate de enunciados de la lógica o de la ciencia empírica pienso que la situación es la misma:
nuestro conocimiento, que cabe describir vagamente como un sistema de disposiciones, puede estar unido a
26

sentimientos de creencia o de convicción: quizás en un caso el al sentimiento de estar compelido a pensar de


una manera determinada y en el otro al de certidumbre perceptiva.

Existe sólo un camino para asegurarse de la validez de una cadena de razonamientos lógicos y es el de
ponerla en la forma más fácil de contrastar: la descomponemos en muchos pasos pequeños y sucesivos,
cada uno de los cuales sea fácilmente comprobable por quien quiera que este impuesto en la técnica lógica
o matemática de transformar las cláusulas; si después de hecho esto alguien sigue planteando dudas, lo
único que podemos hacer es pedirle que señale un error en algún paso de la demostración o que vuelva
estudiarla de nuevo.

En el caso de las ciencias empíricas la situación es poco menos o más la misma punto cualquier enunciado
científico empírico puede ser presentado de modo que quién quiera que este impuesto en la técnica
pertinente pueda contrastarlo, sí como resultado de la contratación rechaza el enunciado lo que tiene que
hacer es formular una aserción que contradiga la nuestra y darnos instrucciones para contrastarla; dado que
no sea capaz de hacer tal cosa (no pudo contrastar), lo único que podemos hacer es pedirle que vuelva a
considerar nuestro experimento y qué piense de nuevo.

Una afirmación que no sea contrastable, debido a su forma lógica, sólo puede actuar en la ciencia, en el
mejor de los casos como estímulo: sugiriendo un problema.

La ciencia es un instrumento cuya finalidad es predecir experiencias futuras a partir de otras inmediatas o
dadas, e incluso gobernar aquellas hasta donde sea posible.

La relatividad de los enunciados básicos. Solución del trilema de Fries.

Siempre que una teoría se someta a contraste, ya resulte de ella su corroboración o su falsación, el proceso
tiene que detenerse en algún enunciado básico que decidamos aceptar.

Nos detenemos a la altura de unos enunciados acerca de cuya aceptación o rechazo es probable que los
investigadores se pongan de acuerdo: si esto no se logra, continuarán simplemente la contrastación, o bien
empezarán de nuevo a realizarla desde el principio; y si tampoco conduce a ningún resultado este nuevo
proceso, podremos decir tal vez que los enunciados en cuestión no eran contrastables intersubjetivamente,
o que, a fin de cuentas, estamos ocupandonos con eventos que no eran observables.

¿Qué postura adoptamos en relación al trilema de Fries?

Hay que reconocer que los enunciados básicos en los que nos detenemos, que decimos aceptar como
satisfactorios y suficientemente contrastados, tienen el carácter de dogmas; pero únicamente en la medida
en que desistamos de justificarlos por medio de otros argumentos. Más este tipo de dogmatismo es inoccuo,
ya que en cuanto tengamos necesidad de ello podemos continuar contrastando fácilmente dichos
enunciados. Admito que de esta suerte la cadena deductiva es, en principio, infinita; sin embargo esta
regresión infinita también es inocuo, ya que nuestra teoría no pretende probar ninguna y enunciado por
medio de ella.Y, finalmente, en lo que respecta al psicologismo, admito también que la decisión de aceptar
un enunciado básico y darse por satisfecho con él tiene una conexión causal con nuestras experiencias,
especialmente con nuestras experiencias perceptivas; pero no Tratamos de justificar los enunciados básicos
por medio de ellas: las experiencias pueden motivar una decisión y en consecuencia, la adopción o rechazo
de un enunciado, pero ningún enunciado básico puede quedar justificados por ellas.

Teoría y Experimento

Los enunciados básicos se aceptan como resultado de una decisión o un acuerdo, y desde este punto de
vista son convenciones. Por otra parte, se llega a las decisiones siguiendo un proceder gobernado por reglas;
y ésta tiene especial importancia a la que nos dice que no debemos aceptar enunciados básicos esporádicos,
27

y que por el contrario, hemos de admitir enunciados básicos en el curso de nuestra contratación de teorías:
cuando suscitamos cuestiones esclarecedoras acerca de éstas, cuestiones que tienen que contrastarse
gracias a la admisión de enunciados de aquel tipo.

Por regla general, se llega a un acuerdo sobre la aceptación o rechazo de enunciados básicos con ocasión de
aplicar una teoría.

Queda otra cuestión, ¿Cómo es que acertamos tan frecuentemente con las teorías que construimos, o sea,
cómo es que hay leyes naturales?

Esta cuestión importa para la teoría epistemológica del experimento. El científico teórico propone ciertas
cuestiones determinadas al experimentador, y este último, con sus experimentos trata de dar una respuesta
decisiva a ella, pero no a otras cuestiones: Hace cuánto puede por eliminar estas últimas. Así pues, lleva a
cabo su contrastación es lo más sensible que puede con respecto a una sola cuestión pero lo más insensible
que puede con respecto a todas las demás cuestiones enlazadas con ella. Una parte de su tarea consiste en
cribar todas las posibles fuentes de error.

La teoría campea en el trabajo experimental, desde que se establecen los planes iniciales hasta que se dan
los últimos toques en el laboratorio. Esto es perfectamente visible en algunos casos en que el teórico logra
predecir un efecto observable que se llega a producir experimentalmente más tarde.

Ciertamente la preferencia de una teoría con respecto a otras no se debe a nada semejante a una
justificación experimental de los enunciados que componen una teoría. Elegimos la teoría que se mantiene
en la competición con las demás teorías, la que por selección natural muestra hacer más apta para
sobrevivir; y esta será la que no solamente haya resistido la contratación es más exigentes, sino que sea
contrastable del modo más riguroso. Una teoría es una herramienta que sometemos a contraste aplicándola
y que juzgamos si es o no la propiedad teniendo en cuenta el resultado de su aplicación.

Son las decisiones las que determinan el destino de las teorías, decisiones que se basan en la utilidad de las
mismas. Además yo sostengo que lo qué caracteriza el método científico es precisamente lo siguiente: que la
convención o decisión no determina inmediatamente que aceptemos ciertos enunciados universales sino
que, por el contrario actúa en nuestra aceptación de los enunciados singulares, es decir de los enunciados
básicos.

Juntamente con el convencionalista entiendo que la elección de una teoría determinada es un acto que ha
de llevarse a cabo como un asunto práctico; pero esta lección, para mí se encuentra bajo la influencia
decisiva de la aplicación de dicha teoría y de la aplicación de los enunciados básicos relacionados con tal
aplicación; mientras que para el convencionalista lo que decides son ante todo los motivos estéticos.

Así pues, discrepo del convencionalista al mantener que los enunciados que se deciden por medio de un
acuerdo no son universales, sino singulares; y del positivista en tanto que sostengo que los enunciados
básicos no son justificables por nuestras experiencias inmediatas, sino que se aceptan por un acto, por una
decisión libre.

La base empírica de la ciencia objetiva no tiene nada de absoluta; la ciencia no está cimentada sobre roca
sino que por el contrario podríamos decir que la atrevida estructura de sus teorías se eleva sobre un terreno
pantanoso, es como un edificio levantado sobre pilotes. Esto se introducen desde arriba en la ciénaga pero
en modo alguno hasta alcanzar ningún basamento natural o dado; cuando interrumpimos nuestros intentos
de introducirlos hasta un estrato más profundo eso no se debe a que hayamos topado con terreno firme
sino que paramos simplemente porque nos basta que tengan firmeza suficiente para soportar la estructura
al menos por este momento.
28

GRADOS DE CONTRASTABILIDAD

Las teorías pueden ser contrastables de modo más o menos exigente, es decir pueden ser falsables con
mayor o menor facilidad. Su grado de contrastabilidad tiene gran importancia cuando se trata de escoger
entre ellas.

Un problema y una Imagen

Una teoría es falsable si existe al menos una clase no vacía de enunciados básicos homotípicos prohibidos
por ella.; esto es si la clase de sus posibles falsadores no es una clase vacía. Las teorías tienen más o menos
posible falsadores de acuerdo con el ancho mayor o menor de los sectores que respectivamente excluyen
punto también podríamos decir que si la clase de los posibles falsadores de una teoría es mayor que la
correspondiente de otra, la primera teoría tendrá más ocasiones de ser refutada por la experiencia; por
tanto, comparada con la segunda podrá decirse que aquella es falsable menor grado; lo cual quiere decir,
asimismo, que la primera teoría dice más acerca del mundo de la experiencia que la segunda, Ya que excluye
una clase mayor de enunciados básicos.

Puede decirse que la cantidad de información empírica que nos aporta una teoría, es decir, su contenido
empírico aumenta con el grado de falsabilidad. Ahora bien; la ciencia teórica procura precisamente llegar a
teorías que sean fácilmente falsables en este sentido: Procura restringir el ámbito de los eventos permitidos
hasta un mínimo e incluso en una medida tal que toda restricción subsiguiente conduzca una falsación
empírica de la teoría. Si logramos obtener una teoría de este tipo se describiría nuestro mundo concreto con
todo el pormenor alcanzable con una teoría.

Estructura de la relación de subclasificación. Probabilidad lógica.

Siempre que podamos comparar los grados de falsabilidad de 2 enunciados podemos decir que el que es
menos falsable es el más probable en virtud de su forma lógica; llamo esta probabilidad como la
probabilidad de lógica. La probabilidad lógica de un enunciado es complementaria de su grado de
falsabilidad, pues aumenta cuando este disminuye. La probabilidad lógica 1 corresponde al grado 0 de
falsabilidad y viceversa; el enunciado más contrastable es el lógicamente menos probable, y el enunciado
menos contrastable es el más probable lógicamente.

La probabilidad numérica puede enlazarse con la probabilidad lógica y por lo tanto con el grado de
falsabilidad. Es posible interpretar la probabilidad numérica como la que se aplica a una subsucesión para la
que puede definirse un sistema de medición basado en estimaciones de frecuencia.

Estas observaciones sobre la comparación de grados de falsabilidad no son válidas únicamente para
enunciados universales o para sistemas teóricos; pueden ampliarse de modo que se aplica en enunciados
singulares.

LA SENCILLEZ

Popper plantea que si suponemos que las teorías se emplean buscando la sencillez, entonces no cabe duda
de que deberíamos utilizar las más sencillas. Pero, ¿cuál es la más sencilla?

La idea epistemológica de sencillez desempeña un papel especial en las teorías de la lógica inductiva: «El
proceso de la inducción consiste en asumir la ley más sencilla que pueda ponerse de acuerdo con nuestra
experiencia». Al elegir la ley más sencilla se supone tácitamente que una función lineal, digamos, es más
sencilla que una cuadrática, una circunferencia más sencilla que una elipse, etc.; pero no se nos dan razones
para la elección de esta jerarquía concreta de sencilleces con preferencia a otra cualquiera, o para creer que
las leyes «sencillas» tienen ventajas sobre las que lo son menos.
29

Se dice con frecuencia que de dos exposiciones sobre una demostración, una de ellas es más sencilla o más
elegante que la otra; esta distinción tiene poco interés desde el punto de vista de la teoría del conocimiento
de Popper, pues no cae dentro de la jurisdicción de la lógica, sino que indica no más que una preferencia de
carácter estético o pragmático.

En el sentido del convencionalismo, el concepto de sencillez es entonces, sin duda alguna, enteramente
relativo y vago

Sin embargo, desde la perspectiva popperiana es empleado de otra manera, por “sencilla” se refiere a
aquellas teorías que reemplazan enunciados menos universales por otros más universales. Así relaciona la
sencillez con el grado de falsabilidad de una teoría, pues plantea que el grado de universalidad y precisión de
una teoría aumenta con su grado de falsabilidad, es decir, el grado de falsabilidad denota el grado de
estrictez de la misma, esto es, el grado en que se impone a la naturaleza. Contiene en él un mayor conjunto
de enunciados básicos que lo contradicen.

Entonces, propone que se ha de valorar más los enunciados sencillos: la medida en que dicen más, su
contenido empírico es mayor, y por lo tanto, más contrastable y más falsable.

EL PROBLEMA DE LA PROBABILIDAD

Popper retoma las dos doctrinas sobre la inducción: la primera que plantea que a partir de enunciados
particulares se pueden formular los universales, mientras que por otra parte, se encuentra la doctrina que
sostiene que las inferencias inductivas, aún no siendo estrictamente validas, pueden alcanzar cierto grado de
seguridad o de probabilidad. Esta doctrina sostiene que las inferencias inductivas son inferencias probables.
Las inferencias inductivas sirven para decidir sobre la probabilidad: pues no le permite a la ciencia llegar a la
verdad ni a la falsedad; sino que los enunciados científicos pueden alcanzar únicamente grados continuos de
probabilidad, es decir, pueden ser probablemente verdaderas o probablemente falsas, más nunca
“verdaderas” o “falsas” directamente. En virtud de unas conclusiones verificadas, puede establecer que una
teoría es probablemente verdadera.

Vemos que se admiten dos tipos de enunciados probabilitarios; los que enuncian la probabilidad en forma
numérica —a los que llamaré enunciados probabilitarios numéricos— y los que no lo hacen de este modo.
Todo enunciado probabilitario numérico se formula de la siguiente forma: «la probabilidad de que la
próxima tirada de este dado dé un cinco es igual a 1/6».

Popper pone su fe en los enunciados probabilitarios numéricos, porque son de interpretación objetiva, y solo
una teoría objetiva puede explicar la aplicación del cálculo de probabilidades en la ciencia empírica. Incluso
considera la existencia de determinados eventos —o acontecimientos— «azarosos» o «aleatorios», que se
caracterizan por ser incalculables que le predispone a uno a creer que todos los métodos racionales
conocidos de predicción han de fallar cuando aquéllos se presentan. Pero solamente una sucesión infinita de
eventos —definidos intensionalmente por una regla— podría contradecir a una estimación de probabilidad.
Pero esto quiere decir que las hipótesis probabilitarias son infalsables, debido a tener dimensión infinita.
Por tanto, podríamos decir de ellas que son empíricamente no informativas, como vacías que están de
contenido empírico.

A partir de la infalsabilidad y de la inveriticabilidad de los enunciados probabilitarios puede inferirse que no


tienen consecuencias falsables. Por lo tanto Popper afirma que el enunciado lógicamente más probable es el
menos contrastable (falseable), del mismo modo que el enunciado lógicamente menos probable es el más
contrastable (falseable).

Las hipótesis acerca de las probabilidades no son verificables ni falsables, en lo que a su forma lógica se
refiere, e independientemente de nuestro requisito metodológico de falsabilidad: no son verificables por ser
30

enunciados universales, y tampoco estrictamente falsables debido a que nunca pueden contradecirlas
enunciados básicos algunos. Son, pues (según lo expresa Reichenbach), completamente indecidibles.

Según Popper, los enunciados probabilitarios, precisamente por ser completamente indecidibles, son
metafísicos; por tanto, el sencillo resultado de su infalsabilidad no es que puedan estar mejor o peor
corroborados, sino que no pueden estar corroborados empíricamente en medida alguna.

TEORÍA POSITIVA DE LA CORROBORACIÓN

Las teorías no son verificables, pero pueden ser «corroboradas». Se ha hecho el intento de describir las
teorías como algo que no puede ser verdadero ni falso, sino solamente más o menos probable. Y la lógica
inductiva ha sido elaborada en el sentido de que puede adscribir a los enunciados, no sólo los dos valores de
«verdadero» y «falso», sino, asimismo, grados de probabilidad: tipo de lógica que cabe llamar «lógica
probabilitaria.

Pero, Popper opina que en lugar de discutir la «probabilidad» de una hipótesis deberíamos tratar de
averiguar qué contrastaciones, qué pruebas ha soportado; esto es, tendríamos que intentar la averiguación
de hasta qué punto ha sido capaz de demostrar que es apta para sobrevivir. Deberíamos disponernos a
averiguar en qué medida está «corroborada»

Se dice a menudo que una teoría está verificada cuando se han verificado algunas de las predicciones
deducidas de ella. El hecho de que las teorías puedan no solamente mejorarse, sino también falsarse por
nuevos experimentos, presenta al científico una seria posibilidad que puede actualizarse en cualquier
momento

La corroboración de una teoría sólo puede expresarse como una evaluación. Además, también Popper
mantiene que no puede afirmarse que las hipótesis sean enunciados «verdaderos», sino solamente
«conjeturas provisionales» (o algo semejante): tesis que también puede sólo expresarse en forma de
evaluación de las hipótesis.

Lo que determina el grado de corroboración es la dureza de las diversas contrastaciones a las que puede
someterse la hipótesis en cuestión. La que es falsable en un grado más alto —o sea, la hipótesis más sencilla
— es también la corroborable en grado más elevado. Entonces, el grado de falsabilidad o de sencillez de una
teoría cuenta para la evaluación del grado en que está corroborada.

Al evaluar el grado de corroboración que tiene una teoría se toma en cuenta su grado de falsabilidad: cuanto
más contrastable (falsable) es una teoría, mejor puede ser corroborada.

En la lógica de la ciencia de Popper es posible evitar el uso de los conceptos de verdadero y falso: en su
lugar, pueden entrar consideraciones lógicas acerca de las relaciones de deductibilidad. Así pues, no
necesitamos decir, «la predicción p es verdadera si la teoría í y el enunciado básico b son verdaderos»; en
vez de ello, podemos decir que el enunciado p se sigue de la conyunción (no contradictoria) de t y h. Y cabe
describir la falsación de una teoría de un modo semejante: no es menester que digamos que una teoría es
falsa, sino solamente que la contradice cierto conjunto de enunciados básicos aceptados. No nos vemos
obligados a decir que ciertos enunciados básicos son «verdaderos» o son «falsos», ya que podemos
interpretar su aceptación como el resultado de una decisión convencional, y considerar los enunciados
aceptados como resultado de tal decisión.

Podemos ver aquí muy claramente la diferencia entre verdad y corroboración. No podemos decir nunca que
un enunciado está «corroborado» como tal, o en sí mismo sino únicamente que está corroborado con
respecto a algún sistema de enunciados básicos —sistema que está aceptado hasta una fecha concreta—.
La corroboración no es un «valor veritativo»; o sea, no puede equiparársela a los conceptos de «verdadero»
31

y «falso» (que están libres de subíndices temporales): pues para uno y el mismo enunciado puede existir un
número cualquiera de valores distintos de corroboración, todos los cuales serán, sin duda, «correctos» o
«verdaderos» simultáneamente; pues serán valores deductibles de la teoría y de diversos conjuntos de
enunciados básicos, que estarían aceptados en fechas distintas.

CONCLUSIÓN

Popper dice que no sabemos: sólo podemos adivinar. El único medio que tenemos de interpretar la
Naturaleza son las ideas audaces, las anticipaciones injustificadas y el pensamiento especulativo. De forma
que toda hipótesis parte de una idea.

Dichas ideas o anticipaciones son domeñadas por medio de contrastaciones sistemáticas: una vez que se ha
propuesto, ni una sola de las «anticipaciones» se mantiene dogmáticamente; el método de investigación de
Popper precisamente no consiste en defenderlas para demostrar qué razón teníamos; sino que, por el
contrario, tratamos de derribarlas. Con todas las armas de nuestro arsenal lógico, matemático y técnico,
tratamos de demostrar que nuestras anticipaciones eran falsas —con objeto de proponer en su lugar nuevas
anticipaciones injustificadas e injustificables.

Incluso la cuidadosa y austera contrastación de nuestras ideas por medio de la experiencia está, a su vez,
inspirada por las ideas: el experimento es una acción planeada, en la que todos y cada uno de los pasos
están guiados por la teoría.

La petición de objetividad científica hace inevitable que todo enunciado científico sea provisional para
siempre: sin duda, cabe corroborarlo, pero toda corroboración es relativa a otros enunciados que son, a su
vez, provisionales. Sólo en nuestras experiencias subjetivas de convicción, en nuestra fe subjetiva, podemos
estar «absolutamente seguros».

Vemos entonces que la ciencia no es un sistema de enunciados seguros y bien asentados, ni uno que
avanzase firmemente hacia un estado final. La ciencia no es conocimiento: nunca puede pretender que ha
alcanzado la verdad, ni siquiera el sustituto de ésta que es la probabilidad, y aunque no puede alcanzar ni la
verdad ni la probabilidad, el esforzarse por el conocimiento y la búsqueda de la verdad siguen constituyendo
los motivos más fuertes de la investigación científica.

“La ciencia nunca persigue la ilusoria meta de que sus respuestas sean definitivas, ni siquiera probables;
antes bien, su avance se encamina hacia una finalidad infinita —y, sin embargo, alcanzable—: la de
descubrir incesantemente problemas nuevos, más profundos y más generales, y de sujetar nuestras
respuestas (siempre provisionales) a contrastaciones constantemente renovadas y cada vez más rigurosas”
32

THOMAS KHUN
ANTECEDENTES

Nos parece preciso localizar a Thomas Kuhn dentro de aquel grupo de filósofos revolucionarios del siglo xx.
En este espacio exhibiremos aquellas influencias y lineamientos que seguía este autor para poder desarrollar
sus teorías ya que es importante tener conocimiento sobre esto para poder entender la forma en que el
autor aborda e interroga la realidad.

Hasta entonces la teoría que predominaba era la del positivismo lógico y el racionalismo crítico. El mismo es
la base principal de la filosofía de Karl Popper y consiste en hacer una crítica a las teorías establecidas por la
ciencia y se opone expresamente al positivismo lógico. Igualmente muestra la oposición de Popper al
empirismo basado en el de la naturaleza y la experiencia de los sentidos. Esta era la posición que guiaba
todo el análisis epistemológico de la época. Esto entró en crisis en 1960 cuando un grupo de filósofos
propusieron metodologías consideradas alternativas para explicar la denominada estructura del desarrollo
científico, entre estas la teoría planteada por Thomas Kuhn.

Es preciso señalar que este autor propuso la teoría de la ciencia denominada historicista. La misma plantea
que la ciencia debe ser concebida desde un contexto social, cultural haciendo hincapié en la concepción de
paradigma, el cual surge en la comunidad científica.

Es crucial contextualizar las influencias en el pensamiento Kuhniano. En primer lugar podemos marcar como
característica la línea conservadora del historicismo. En términos muy amplios afirma que hay una relación
estrecha entre la evaluación de una idea y el denominado contexto histórico.

Por otro lado encontramos como segunda característica la línea determinista, el cual expresa que hay leyes
del desarrollo histórico. La figura del historiador no se limita a describir y explicar eventos particulares
además también puede esperar ver un patrón subyacente en muchos eventos particulares. De esta manera
la historia va a tener afinidades con la ciencia y el historiador será concebido como un gran científico ya que
no solo identificara tales patrones sino que también puede buscar el modo de explicarlos haciendo
referencia al mecanismo subyacente. Observar dentro la historia en la ciencia es una cosa y explicarlo es
otra. No obstante dichos procesos son difíciles de separar.

La línea determinista dentro del pensamiento de Kuhn nos lleva a creer que hay un patrón cíclico dentro de
la historia de la ciencia, es decir repetitivo. Lo que apunta la línea conservadora es a explicarlo. Entonces
podemos decir que lo que explica dicho modelo es que la ciencia se ejecuta en tanto desarrolla una tradición
basada en un paradigma de resolución de problemas.

También existe una influencia del internalismo, el cual se podría decir que da importancia a objetivistas y
relativistas que crean que los determinantes del cambio científico están encapsulados en la ciencia misma.
Podemos observar que Kuhn era de ese tipo de internalistas, siempre y cuando sea correcta la línea
determinista de su historicismo.

En lo que respecta a los propósitos filosóficos de Kuhn en la historia de la ciencia estuvo relacionado
centralmente por las denominadas preocupaciones filosóficas. El historicismo es una parte importante ya
que nos permite encontrar ciertos objetivos filosóficos. Se podría decir que el gran blanco filosófico fue el
empirismo lógico.

El propio Kuhn se dirige hacia una revolución mayor en la filosofía de la ciencia ya que rechaza los supuestos
comunes de los empiristas lógicos, es decir rechaza que el objetivo de la ciencia sea la verdad, sin embargo
para Kuhn la noción de paradigma tiene la intención de ser uno en el que el objetivo de la ciencia sea
resolver problemas.
33

Así mismo Thomas Kuhn en lo que respecta a su opinión a ha sido identificado como constructivista ya que
constituye uno de los pilares epistemológicos fundamentales, característicos que definen al constructivismo
como una alternativa al positivismo:

a. El lugar del sujeto, donde se le reconoce un papel activo tanto individual y colectivo, en el caso de
las comunidades científicas.

b. El problema del status de la realidad que es referencia del conocimiento.

c. El proceso de producción del conocimiento, en este sentido el constructivismo va a replantear las


preguntas y va a producir teorizaciones sobre el sujeto, la realidad y el conocimiento, produciendo así un
aporte a las ciencias sociales.

A diferencia de los denominados empiristas, los constructivistas y Kuhn tomando dicha posición afirma que a
través del conocimiento, es posible acceder epistémico a la realidad, la única de la cual se puede hablar.

Nos parece preciso abordar los principios fundamentales del constructivismo, los cuales son:

1. Ontología

2. Epistemología

3. Metodología

En lo que respecta a la ontología la misma es de orden relativista, es decir, la cual es comprendida a través
de las construcciones mentales múltiples, de la denominada naturaleza particular. En lo que respecta a la
epistemología la cual es transaccional en lo que respecta a la existencia de dos partes y una epistemología
subjetivista.; por último sigue el método hermenéutico, es decir por la dialéctica, se rige por la variabilidad
de las construcciones sociales, individuales las cuales pueden ser deducidas y respondidas a través del
investigador y lo que responden.

ASPECTOS FUNDAMENTALES DE LA TEORIA DE THOMAS KHUN

Comunidad científica

El enfoque de toda la obra escrita de Thomas s. Kuhn es histórico-sociológico. Kuhn analiza desde las ciencias
de la naturaleza el desarrollo histórico real de las grandes concepciones del mundo. Para ello, confiere gran
importancia al comportamiento de los científicos. Le interesa desentrañar el carácter humano (y por ello,
perfectible) de cualquier elaboración de la ciencia.

En concreto, a Kuhn le interesa mostrar cómo los científicos o mejor, las comunidades científicas, elaboran,
difunden, utilizan, aplican, aceptan o rechazan las diversas teorías de las ciencias.es básicamente la reflexión
filosófica sobre la construcción, la reelaboración, la sustitución y la reconstrucción de las teorías científicas.

Es preciso señalar que Thomas Kuhn fue un revolucionario en la ciencia, ya que tomo al sujeto como sujeto
colectivo, es decir como aquel que forma parte de una comunidad científica la cual es definida como el
grupo de sujetos que hacen ciencia, el objetivo de la comunidad científica es hacer ciencia, por lo tanto
comparten un determinado saber, cabe destacar que la comunidad científica tiene reglas y una cosmovisión
colectiva.

Al mismo tiempo en lo que respecta a la ciencia la misma debe ser comprendida en un contexto social, en
una cultura la cual está integrada por hombres, lenguajes, creencias y costumbres, pero el conocimiento solo
es sustentable mediante el concepto de paradigmas, el cual es definido como “un paradigma es lo que
34

comparten los miembros de una comunidad científica y a, la inversa, una comunidad consiste en unas
personas que comparten un paradigma” (Kuhn, 1962, p271)

El concepto de progreso de la ciencia desde esta perspectiva es revolucionario ya que la comunidad


científica entra en juego, en lo que respecta a ser abolido o aceptado, por esto el concepto de paradigma es
nodal, porque el mismo es un cuerpo de teorías, de leyes, de métodos científicos.

En conclusión la comunidad científica tiene como principal objetivo hacer ciencia, formar paradigmas, los
cuales son compartidos por sujetos de manera colectiva..

FASES/ETAPAS DE LA ESTRUCTURA DE LAS REVOLUCIONES CIENTIFICAS

Kuhn en un primer momento se dedicó al estudio de la ciencia, a partir del estudio de la misma surgieron
para el autor dos concepciones de la ciencia. Es decir por un lado la ciencia entendida como una actividad
completamente racional y controlada, como la concibe el círculo de viena por ejemplo, y por otro lado la
ciencia entendida como una actividad concreta que se ha venido dando a lo largo de la historia, y por
consiguiente presenta las diferentes peculiaridades y características propias de dicha época, de dicha
ciencia, este planteamiento puede ser denominado como la ciencia “formalista” y la ciencia “historicista”.

Es necesario enfatizar que Thomas Kuhn desafío al modelo formalista de la ciencia, llevando a cabo en su
obra “la estructura de las revoluciones científicas” la concepción de que la ciencia se desarrolla en tanto
atraviesa por determinadas fases:

1. Establecimiento de un paradigma

2. Ciencia normal

3. Crisis

4. Revolución científica

5. Establecimiento de un paradigma

El concepto de paradigma para el modelo de ciencia historicista propuesto por Kuhn, es fundamental, el cual
es definido como las realizaciones científicas universalmente reconocidas, que durante cierto tiempo,
proporcionan modelos de problemas y soluciones a la denominada comunidad científica. Los paradigmas
entonces son por lo tanto una perspectiva bajo la cual se analizan los problemas y se tratan de resolverlos,
en conclusión son macroteorías que se aceptan de forma general por toda la comunidad científica y a partir
de las cuales se va a realizar una determinada investigación.

Debemos acentuar que la ciencia normal es para Kuhn la investigación basada en un paradigma, es decir
significa investigación basada firmemente en una o más realizaciones científicas pasadas, realizaciones que
alguna comunidad científica particular reconoce durante un cierto tiempo, como un fundamento para una
práctica posterior.

Es necesario mencionar que cuando el paradigma no posee la capacidad de resolver o responder los
diferentes cuestionamientos, o los problemas y estos persisten en un periodo de tiempo prolongado se
comienza a producir un cuestionamiento de los mismos por parte de los integrantes de una comunidad
científica, los cuales deben determinar si ese paradigma posee la capacidad de resolver los problemas o
debe ser dejado de lado, aquí surge la denominada crisis.

La crisis es definida como aquella aparición y proliferación de nuevos paradigmas, que en un primer
momento tienen el carácter de ser provisorios con el objetivo de resolver aquellas situaciones más
35

problemáticas, estos nuevos paradigmas compiten en cierta manera entre sí, y cada uno de ellos intenta
imponerse como el marco o enfoque más adecuado.

Por último en lo que respecta a la revolución científica la misma surge cuando los nuevos paradigmas
sustituyen al paradigma tradicional, dichas revoluciones se consideran como episodios de desarrollo, ya que
un paradigma antiguo es reemplazado ya sea de manera completa o parcial, por otro nuevo e incompatible.

Debemos resaltar que una vez ocurrida la revolución científica el ciclo comienza de nuevo, volviendo
atravesar las etapas el nuevo paradigma, ya que el mismo queda instaurado como un nuevo proceso de
ciencia formal.

En lo que respecta a la concepción de Kuhn como ciencia, la misma no es un mero contraste entre teoría y
realidad, sino que propone un diálogo, un debate y cierta lucha entre los defensores de un paradigma
determinado dando mayor importancia al sujeto que lleva a cabo la investigación como a la sociedad en la
cual se encuentra inmerso, le da una mayor importancia a los integrantes de la comunidad científica antes
que a la pura teoría.

CONTRAPUNTO ENTRE KHUN Y POPPER. DIFERENCIAS Y CRITICAS ENTRE AUTORES

Cuando hablamos de la crítica, es necesario mencionar el debate que se realizó entre Kuhn y Popper que
tuvo lugar el 13 de julio de 1965 en Londres, que se definió como «criticism and the growth of knowledge».
Este debate giró en base al progreso científico, en donde kuhn presenta su trabajo bajo el nombre de “logic
of discovery or psychology of research?” (“¿lógica del descubrimiento o psicología de la investigación?”) ,
donde critica a la filosofía de la ciencia de Popper. Desde este momento es que la tesis de Kuhn comienza a
difundirse en el ambiente filosófico epistemológico produciendo repercusiones entre los científicos de la
época.

Podemos pensar como el aspecto más relevante de tal debate, el pensamiento opositor de Kuhn al
pensamiento excesivamente racionalista de Popper, en donde Kuhn plantea que el sentido de su
discrepancia es esta, tomada de la estructura de las revoluciones científicas: «ningún proceso histórico
descubierto hasta ahora por el estudio del desarrollo científico se parece en nada al estereotipo
metodológico de la demostración de la falsedad por medio de la comparación directa con la naturaleza. Por
el contrario, es precisamente lo incompleto y lo imperfecto del ajuste entre la teoría y los datos lo que
define muchos de los enigmas que caracterizan a la ciencia normal. Si todos y cada uno de los fracasos en el
ajuste sirvieran de base para rechazar las teorías, todas las teorías deberían ser rechazadas en todo
momento» (la estructura de las revoluciones científicas, cap. Viii, pág. 128). La publicación del ensayo de
kuhn marca un antes y un después en la filosofía de la ciencia, en donde la publicación del mismo va a definir
lo que será la epistemología hasta fin de siglo. Debemos comprender las consecuencias que originó tal
discusión teniendo en cuenta los postulados teóricos de ambos en donde podremos identificar tanto
similitudes como diferencias.

Cuando hablamos de Thomas Kuhn, la ciencia debe ser comprendida en un contexto socio-histórico-cultural
la cual está integrada por sujetos, el lenguaje y sus creencias en donde la misma debe ser entendida bajo un
modelo historicista contra oponiéndose así a las ciencias formales. Es fundamental en su teoría el concepto
de paradigma, el cual lo define como: “lo que comparten los miembros de una comunidad científica”. (Kuhn
1962 pag. 71) por ende el mismo puede ser entendido como un sistema de creencias, valores y técnicas que
comparten los integrantes de tal comunidad científica. La misma es conceptualizada por kuhn como “el
grupo de sujetos que hacen ciencia. El objetivo de la comunidad científica es hacer ciencia, por lo tanto
comparten un determinado saber. La misma debe tener ciertas reglas y una cosmovisión colectiva.” (Kuhn,
1962)
36

Cuando hablamos de los postulados teóricos de Popper, el mismo se encuentra en contra del método
inductivo de la ciencia, en donde se parte de enunciados singulares y se concluye en universales. En
consecuencia plantea el falsacionismo, que se trata de “una doctrina epistemológica aplicada a las ciencias
que propone la falsabilidad como criterio para distinguir lo que es ciencia de lo que no” (Karl Popper. 1934,
del libro lógica de la investigación científica) para Popper, una teoría es científica a partir del cumplimiento
de ciertos requisitos: ser refutable o testeable, si no cumple tales requisitos se trata de pseudociencia. El
mismo se enfrenta a 4 teorías, la relatividad, el psicoanálisis, la psicología del individuo, y la historia en
donde se percata que aquellas son refutables y posteriormente concluye que tales teorías se acomodan a los
hechos.

Cuando nos referimos a las similitudes entre estos autores, es preciso enfatizar a ambos como
epistemólogos, científicos y estudiosos en la filosofía de la ciencia, muy reconocidos en la época en la cual
fueron contemporáneos. Las diferencias entre ambos dieron lugar a la confrontación entre dichas
convicciones, siendo uno de los motivos por los que este debate epistemológico obtuvo gran repercusión
entre la comunidad científica en ese determinado momento histórico. En tales discrepancias encontramos
que Popper propone la falsabilidad como criterio de demarcación y como mecanismo que pone a prueba
teorías facilitando el crecimiento de la ciencia. Kuhn por su parte plantea conceptos fundamentales como:
paradigma, ciencia normal, ciencia extraordinaria, inconmensurable, enigma y anomalía. Si bien su definición
de paradigma ha sido criticada por la ambigüedad que planteaba en su libro “la estructura de las
revoluciones científicas”, en 1970 en su 2da edición aclara su noción de paradigma dejando definido qué es
aquello que se considera como “cuerpo de teorías, leyes, métodos científicos (observaciones y
experimentos) aceptados comúnmente en una época” (Suárez- Iñiguez, e., 1992, p. 12).

Kuhn al inclinar su teoría en base al paradigma y ciclos del mismo, tiende a dar una nueva perspectiva a la
ciencia contemporánea. Se trata de un carácter social, en donde incorpora a la sociología, y en donde
podemos mencionar la primera crítica del mismo que está dirigida a considerar que con el aporte de la
historia, sociología y psicología se pueden alcanzar niveles de mayor articulación de conceptos teóricos, a
diferencia de Popper que postula que la sociología y la psicología no aportan objetividad, por lo que
considera necesario que las mismas deberían “aprender” de la investigación científica y no al contrario.
Asimismo postula que al no ser refutable la ciencia se transforma en pseudociencia, que no posee validez. Se
trata de un carácter lógico para determinar lo científico, en donde surge cierto cuestionamiento de la misma,
en donde se puede determinar la ciencia mediante la lógica.

En cuanto a la metodología, Popper ha planteado que surge de la investigación de problemas que se esperan
resolver por medio de soluciones tentativas, hipótesis y teorías, las mismas son comparadas y discutidas
para detectar un error. Para Kuhn cuando surgen los tiempos de crisis para dar lugar a la ciencia
extraordinaria, se trata de una verdadera revolución ya que el paso de un paradigma a otro no se da de
forma progresiva, al contrario se trata de una rápida transición. Ante tal revolución científica hay un
abandono total de la teoría por parte de Kuhn, a diferencia de Popper en donde tal abandono es parcial en
donde no descarta que una pseudociencia no sea parte de la ciencia, pero para Kuhn cuando aparece un
nuevo paradigma, debe abandonar al antiguo.

La ciencia avanza poco a poco, en donde el paradigma actual no logra explicar todo lo que se conoce y se
debe crear otro paradigma que reemplace el anterior. Tal hecho se conoce como revolución científica para
Kuhn, en donde se trata de dar explicación a nuevos fenómenos conocidos, que escapan del paradigma
anterior. En relación al progreso de la ciencia, existe una oposición al falsacionismo que plantea Popper
como método de interpretación deductivista, ya que el hecho de rechazar un paradigma lleva a que otro lo
reemplace ya que tal como dice Kuhn (1970) “el rechazar un paradigma sin ser reemplazado por otro es
rechazar la ciencia misma” (p.131). Considera que la constante búsqueda de falsear y encontrar el error no
37

lleva a definir nada, dado que no hay parámetros de verdad científica definitiva que permitan escoger y
determinar los test o procedimientos correctos para desarrollar un fenómeno, ya que no existe una teoría
que resuelva todos los problemas.

En las diversas teorías que existen sobre el proceso de avance de la ciencia, nos encontramos con que el
pensamiento de Kuhn intenta corregir y mejorar el pensamiento de Popper y lo acusa de olvidar la práctica
normal de la ciencia, que para él no es tan marcada la diferencia entre ambas ya que reconoce que existe,
pero que la considera como una postura no revolucionaria, crítica, sin deseos de desafiar el dogma actual
que poseen ciertos científicos, lo que es perjudicial para el desarrollo de la ciencia en donde se utiliza la
falsación como método para llegar al conocimiento y al avance de la ciencia en tal proceso, mediante el
rechazo de eventos falsos y no afirmando verdaderos. . En síntesis Popper plantea la ciencia como un
método lógico, racional y crítico de ensayo y error, es decir hipotético y conjetural mientras que Kuhn tiene
una perspectiva que incluye lo sociológico, histórico y psicológico, dado que consideraba que la lógica no era
suficiente.

Los postulados de Kuhn no son incompatibles con Popper, simplemente lo que hace es mejorar y corregir
aquello que no se lograba explicar en donde había momentos de efervescencia científica.
38

IMRE LAKATOS
Lakatos en su estudio de la ciencia toma aspectos fundamentales de 2 grandes filósofos, refutándolas y
criticándolas.

Por un lado, tenemos a Karl Popper con su teoría o corriente denominada FALSACIONISMO O
RACIONALISMO CRITICO en donde en términos generales se va a intentar contrastar una teoría con un
experimento o un caso empírico, a modo de falsearla o refutarla, o si esto no es posible quedar corroborada
“provisionalmente”.

Por otro lado, este Thomas Kuhn con su teoría del carácter dinámico e histórico del progreso científico. En
donde plantea que las diversas disciplinas científicas se desarrollan de acuerdo a un patrón general que esta
sometido a una continua evolución y esto se refleja en una serie de etapas, llegando a elaborar un
paradigma donde no se lo cuestiona, solo permitiendo declararlo como invalido cuando aparezcan
interpretaciones alternativas que expliquen de modo más simple y comprensivo el tema que se propuso.

Teniendo en cuenta estas teorías, Lakatos reformula su teoría en base a similitudes y principalmente
contraposiones.

Con respecto a Popper nos dice que ninguna teoría científica debe ser abandonada porque una observación
la refute, que un solo caso no la falsa, ni la descarta, sino que se perfecciona. Propone la comparación de 2
teorías y un experimento. La teoría la denomina “FALSACIONISMO SOFISTICADO”.

Y con respecto a Kuhn reformula que dos teorías diferentes pueden coexistir al mismo tiempo y competir
entre sí para ver cuál describa mejor los hechos, es decir, una teoría “paradigma” según Kuhn puede ser
cuestionada.

La teoría de Lakatos se denomina “PROGRAMAS DE INVESTIGACION CIENTIFICA (PIC)”

Conjunto de teorías relacionadas entre sí, en donde una se genera partiendo de las anteriores.

Los conceptos claves dentro de la teoría son:

 NUCLEO DURO  Conjunto de hipótesis que no tienen consecuencias observacionales, es decir, que
no pueden ser reformuladas, sería el aspecto central de una teoría. Similitud con la teoría de Kuhn.

 CINTURON PROTECTOR  Hipotesis auxiliares que estas si pueden ser reformuladas, ((ad hoc)
después de la experiencia) descartadas o reemplazadas por otra hipotesis con el fin de proteger el
núcleo duro y así lograr que la investigación siga avanzando, no dando por invalida TODA la teoría.
Similitud con la teoría de Popper.

 EURISTICA  Conjunto de normas o reglas que orientan las actividades del científico.

 POSITIVA: lo que el científico debe hacer o debe seguir para desarrollar o hacer progresar su
teoría.

 NEGATIVA: lo que se debe evitar para no dañar el núcleo duro y así generar un estancamiento o
una regresión en el PIC.

 TIPOS DE PIC

 PROGRESIVO: Genera que su desarrollo sea constante tanto teórica como empíricamente, y da
lugar al descubrimiento de nuevos fenómenos o hallazgos.
39

 REGRESIVO: No predicen hechos nuevos, no solucionan nuevas anomalías, la investigación se


estanca.

Ambas pueden coexistir en un mismo PIC


en dos tiempos diferentes, es decir, al
principio y al final o viceversa.

 HISTORIA INTERNA  Aspectos matemáticos y lógicos de un determinado PIC, es fundamental para dar
una reconstrucción racional de la ciencia. Toma aspectos de Kuhn.

 HISTORIA EXTERNA  Elementos sociológicos, psicológicos y filosóficos que influyen en el científico en el


momento de investigar. Factores no racionales de la ciencia. Toma aspectos de Popper.
40

LARRY LAUDAN
Larry Laudan es un reconocido filósofo de la ciencia y epistemólogo, nació el 16 de octubre de 1941 en
Austin, Estados Unidos. (Díaz, 2019). Es reconocido por su crítica a las tradiciones del positivismo, del
relativismo y del realismo filosófico, también ha defendido el papel de la ciencia ante los desafíos
populares. Surge de manera posterior a Kuhn y Lakatos.

Kuhn se oponía a la tesis de Popper sobre el falsacionismo, y por su parte propone la tesis sobre la
inconmensurabilidad de las teorías, según la cual el cambio en la ciencia sólo tiene lugar cuando un
paradigma es reemplazado por otro nuevo que es incompatible con el anterior. Aceptar uno es rechazar
otro.

Lakatos critica el falsacionismo de Popper y propuso una serie de constructos teóricos que constituyen los
PIC (Los Programas de Investigación científica), que eran considerados como una nueva unidad de
evaluación del desarrollo del conocimiento científico.

En este contexto, Laudan propone un nuevo modelo, según el cual el objetivo de la ciencia es “obtener
teorías altamente eficaces en la solución de problemas”, y que considera que el verdadero desarrollo de la
ciencia se encuentra más cerca del cuadro de la coexistencia permanente de rivales, ya que, para él, las
confrontaciones dialécticas son esenciales para el crecimiento y la mejora del conocimiento científico.

La ciencia y los problemas

 Para Laudan la ciencia al ser una actividad de resolución de problemas coloca a los problemas en el centro
del trabajo científico. 

El autor propone que se debe diferenciar entre problemas empíricos y problemas conceptuales. Los
problemas empíricos se caracterizan por pertenecer al mundo natural y que requieren una explicación. Por
su parte, los problemas conceptuales están directamente relacionados con las teorías y su capacidad para
resolver problemas. (Medrano, 2011).

 Problemas empíricos: Laudan señala que en el campo de la ciencia pueden existir tres:

 a) Problemas no resueltos. Son aquellos que aún no fueron resueltos por ninguna teoría. Se debe tener en
cuenta que algunos problemas pueden pertenecer a esta categoría porque la ciencia aún carece de
instrumentos o que un experimento es aún imposible de realizar por la limitación tecnológica o de
conocimiento de la época. 

b) Problemas resueltos. Son los problemas que ya han sido resueltos de manera satisfactoria por alguna
teoría existente. Lo importante es la capacidad de una teoría de resolver un problema; puesto que, si
determinada teoría resuelve un problema, entonces es irrelevante señalar la veracidad o falsedad de dicha
teoría. 

c) Problemas anómalos. Hacen referencia a aquellos problemas que una teoría conocida es incapaz de
resolver; pero que es resuelta por una teoría nueva, alternativa o rival. Sin embargo, el hecho de que una
teoría presente anomalías no significa que deba ser abandonada aún. En este aspecto comparte la posición
con Lakatos.

Problemas conceptuales: Los problemas conceptuales son preguntas de un orden superior acerca de la
consistencia de las estructuras conceptuales (por ejemplo, teorías) que han sido elaboradas para responder
a preguntas de primer orden. Respecto a los problemas conceptuales, se tienen:
41

a) Problemas internos. Se presentan cuando en el interior de una teoría se presenta ambigüedades o


contradicciones. 

b) Problemas externos. Se dan entre teorías, específicamente cuando dos teorías muestran inconsistencias
respecto de algún punto. En este sentido, surgen algunas dificultades como ser: dificultades intra científicas
(cuando teorías científicas de diferentes campos o dominios están en contradicción), dificultades normativas
(la metodología científica de una teoría está en conflicto con otras metodologías de la comunidad científica),
y dificultades relativas a la visión del mundo (una teoría científica está en conflicto con algún componente de
la visión del mundo que predomina en la comunidad científica).

 Los científicos deben tener en claro en qué tipo de problema están trabajando para darle mayor
racionalidad y efectividad a su investigación. Así, el desarrollo de la ciencia estará signado por la cantidad de
problemas que la ciencia logre resolver y la reducción de problemas sin resolver, sean estos conceptuales o
empíricos. Una teoría es efectiva cuando más problemas resuelve y menos anomalías presenta.

Tradición de investigación

 La tradición de investigación científica es una frase acuñada por Laudan y hace referencia al “conjunto de
supuestos generales acerca de las entidades y procesos de un ámbito de estudio, y acerca de los métodos
apropiados que deben ser utilizados para investigar los problemas y construir las teorías de ese dominio”.
Está relacionada con la manera que un científico o una comunidad científica tiene de concebir la realidad. Es
el conjunto de supuestos o presupuestos que subyacen a las teorías. Una tradición de investigación orienta
el trabajo de investigación por medio de directrices:

 a) Directrices ontológicas. Son las que orientan con relación a la naturaleza de los entes de determinada
realidad.

 b) Directrices metafísicas. Indican al científico los procesos no observables que organizan la realidad que
pretende investigar.

 c) Directrices metodológicas. Indican la forma cómo se puede aproximar a la realidad a ser investigada.  

Con la agrupación de teorías individuales podemos comprender los cambios dentro de la ciencia, esto es, la
dinámica del cambio científico. Este conjunto de teorías individuales o específicas pertenecen a un campo
más amplio que Laudan lo denomina tradiciones de investigación. (Lo que para Lakatos es programa de
investigación científica)

Modelos jerárquicos

En los modelos jerárquicos existe un núcleo central con componentes jerárquicos centrales cuando estos
elementos cambian, los elementos secundarios también van a cambiar, la producción científica se da de
manera vertical, es decir de arriba hacia abajo. Por lo tanto, el cambio en los componentes reconocidos
como centrales traen como consecuencia una transformación completa en la teoría ya sea con sus reajustes
o con el abandono de la misma. Lakatos plantea esto en su teoría, el núcleo duro con sus componentes
centrales, tiene influencia jerárquica sobre el núcleo blando. 

Modelo reticular

Para Laudan la construcción de conocimientos científicos es mediante un modelo que se contrapone al


jerárquico y lo denomina modelo reticular, este modelo plantea un proceso de cambio con reajustes mutuos
que no se dan al mismo tiempo. Ningún campo es privilegiado en el sentido de marcar el comienzo de un
cambio o proceso de cambio
42

Para esto sostiene que los científicos pueden seleccionar determinada teoría sin que este hecho redunde
significativamente en su postura metodológica y axiológica puesto que existe una relación bidireccional
entre las teorías, los métodos y los objetivos de la ciencia por lo que a esta propuesta se la denomina
modelo reticular.

Este modelo plantea un proceso de cambio complejo, de reajustes mutuos, que no se dan necesariamente al
mismo tiempo, en el cual ningún campo es privilegiado en el sentido de marcar el comienzo de un ciclo o
proceso de cambio.

Los tres componentes principales del modelo: las teorías con sus conceptos fundamentales y ontologías
subyacentes, las metodologías, y las metas y los fines que responden a las respectivas propuestas
axiológicas.

El investigador puede cambiar de teoría sin necesariamente cambiar de métodos o viceversa. El modelo
reticular se presenta como una red triádica compuesta por: las teorías, los métodos y las metas o fines. Entre
ellos existe una interrelación tal que no prioriza ningún elemento. Estas interrelaciones ocurren en el
transcurso de un proceso de alguno de ellos y los otros quedan inalterables.

Las interrelaciones, sin alterar a los demás componentes, se dan de la siguiente manera: los métodos
justifican las teorías; las teorías restringen, limitan, las metodologías; los fines y las metas justifican las
metodologías; las metodologías ponen de manifiesto la factibilidad de los fines; las teorías deben armonizar
con los fines y valores.

En síntesis, existe un proceso de ajuste mutuo y justificación entre los distintos componentes, a saber, los
métodos, las teorías y los fines. El modelo reticular plantea que una tradición de investigación está
conformada por un área ontológica, metodológica y axiológica (son los valores que poseen los científicos).
No existe jerarquía de ningún elemento sobre otro, no hay componentes más importantes que otros, se
afectan unos a otros a la vez en diversos lapsos temporales. 

Los cambios no son holísticos, puede cambiar un elemento sin modificar la totalidad y es esto justamente lo
que les permite a las teorías mantenerse en el tiempo. (Lakatos plantea lo contrario).

El progreso de la ciencia

 Para Laudan es difícil que exista un cambio radical de paradigmas, por lo que sostiene que el progreso de la
ciencia se realiza por los cambios internos y mutuos, tal como lo describe el modelo reticular.

 Los científicos evalúan las diferentes teorías y esto les permite decidir qué aspectos de esa teoría o cuál es la
teoría que mejor se ajusta a sus proyectos de investigación. Un criterio para elegir una teoría es que ésta sea
más eficaz para resolver un problema. Esto supone que debiera existir más de una teoría a la cual un
científico pueda recurrir, lo que lleva a concluir que en la ciencia “la coexistencia de teorías rivales no es la
excepción sino la regla”.

Los cambios paradigmáticos no ocurren de manera radical, sino que van surgiendo progresivamente a partir
de nuevos aportes de trabajos científicos sustentados por un determinado marco epistemológico.  

Conclusión: El modelo de Laudan posibilita no caer en reduccionismos ni en limitaciones, ya que plantea una
mirada flexible permitiendo que cualquier componente de la investigación, pueda manipularse y modificarse
sin afectar a los demás, logrando así mayor racionalidad y efectividad a la investigación. Este aporte
científico nos proporciona una nueva mirada para organizar y planificar adecuadamente una investigación.
Permite reformular hipótesis y lograr nuevos aportes a la ciencia, dando como resultado la obtención del
progreso científico.  
43

Video resumen:

https://www.youtube.com/watch?v=8QUPUhdcLlc&ab_channel=pabloroldan

PAUL FEYERABEND
ANARQUISMO EPISTEMOLÓGICO

Para Feyerabend, la ciencia es una actividad esencialmente anárquica: escapa a cualquier teoría del
conocimiento que pretenda recoger en un único modelo de racionalidad el material de su propia historia.
Las revoluciones científicas acontecen cuando los grandes científicos sostienen teorías y puntos de vista
incompatibles con los principios considerados evidentes, violando los criterios de racionalidad aceptados

Todas las metodologías tienen limitaciones y la única regla que queda en pie es la de que todo vale. No es
aconsejable que las elecciones y disociaciones de los científicos estén obligadas por las reglas establecidas
por las metodologías de las ciencias o implícitas en ella.

El anarquismo científico brinda la posibilidad de tener un punto diferente para cada problema, poner todos
los puntos de vista y luego aplicar una conclusión. Todo es aceptado por esta perspectiva.

La epistemología de Feyerabend desplaza la atención centrada en la dimensión racional de la ciencia para


enfocarla en el contexto histórico y sociocultural. Su trabajo da -a veces- la impresión de un análisis
ejecutado por un etnógrafo que se afana en comprender los elementos simbólicos y   la forma de vida que
han desarrollado los nativos del mundo occidental en la estructuración de una peculiar cosmovisión.

1. El pluralismo metodológico.

En el prólogo a la edición castellana de su Tratado contra el método (TCM), Feyerabend afirma que uno de
los problemas capitales sobre la ciencia es saber cual es su estructura, cómo se construye y evoluciona.

Aquí es rotundo: la ciencia no presenta una estructura, no existen unos elementos que se presenten en cada
desarrollo científico. O sea, que no hay elementos que se den en toda investigación científica y que no
aparezcan en otros dominios. Al tratar de resolver un problema los científicos usan indistintamente un
método u otro, no existe una racionalidad que guíe la investigación científica. Al contrario, el científico hará
uso de fuentes muy diversas que le vengan al caso para apoyar su investigación: sugerencias heurísticas,
concepciones del mundo, disparates metafísicos, y otros medios muy dispares.

Ya aquí se apunta el problema del método científico, y la conclusión que se sigue es que no tiene sentido
formular de una forma general, cuestiones tales como qué criterio seguiría para preferir una teoría a otra.
Dicho más claro, la investigación con éxito no obedece a estándares generales: ya se apoya en una regla, ya
en otra, y no siempre se conocen explícitamente los movimientos que la hacen avanzar. La consecuencia es
drástica: se va a pique cualquier intento de formular una metodología racionalista de la ciencia, y nos
encontramos con que la ciencia se encuentra mucho más cerca de las artes de lo que nos pensábamos (este
punto se desarrollará en el último epígrafe de este texto).

Como mantiene Javier Echeverría, entre otros, la idea de un método preciso y común a las ciencias adviene
con la modernidad. Recordemos, al margen, que Aristóteles en su Metafísica y en otros tantos escritos no se
cansó nunca de repetir que no existe un único método correcto en las ciencias y mucho menos que el
hipotético deductivo sea el superior o más científico, sino que es el objeto de una ciencia el que determina el
método apropiado o correcto en dicha disciplina.

Feyerabend, deudor de las tesis kuhnianas y de la historia de la ciencia, mantendrá que “la idea de un
método que contenga principios firmes, inalterables y absolutamente obligatorios que rijan el quehacer
44

científico tropieza con dificultades considerables al ser confrontada con los resultados de la investigación
histórica. Es más, no hay una sola regla, por plausible que sea, y por firmemente basada que esté en la
epistemología, que no sea infringida en una ocasión o en otra”.

Afirma a continuación que estas infracciones, lejos de ser accidentales, son necesarias para el progreso. La
violación de las reglas metodológicas, o incluso adoptar la opuesta son siempre aconsejables en una
determinada situación. Así a veces es aconsejable elaborar e introducir hipótesis ad hoc, otras que
contradicen resultados experimentales, etc. En suma, esta práctica liberal es razonable y absolutamente
necesaria para el desarrollo del conocimiento.

Es más, el atomismo antiguo, la revolución copernicana, o la teoría ondulatoria de la luz surgieron de la


violación de reglas metodológicas bien asentadas. Con esto se quiere ejemplificar que las revoluciones
científicas generalmente han traído con ellas cambios metodológicos importantes, de ahí que “la idea de un
método fijo, o la idea de una teoría fija de la racionalidad, descansa sobre una concepción excesivamente
ingenua del hombre y de su entorno social”.

Al encontrarse con esto, Feyerabend se cobija en el anarquismo (epistemológico), y más concretamente con
el liberalismo anarquista, concebido como un intento de aumentar la libertad, y el correspondiente intento
de descubrir los secretos de la naturaleza y del hombre, por tanto el rechazo de criterios universales y de
todas las tradiciones rígidas (que implicaría el rechazo de una gran parte de la ciencia contemporánea).

El anarquista epistemológico se opondrá entonces a todo tipo de restricción de su libertad (en el quehacer
científico y metodológico), y mantendrán siempre la abolición de toda ley, obligación o deber. Su actitud
será totalmente libre ante el juego científico. No obstante el término anarquista está cargado de
connotaciones políticas demasiado pesadas, y además no se encuadra debidamente en lo que Feyerabend
quería señalar. De manera que posteriormente preferirá el calificativo de dadaísta para su metodología:
espero, dice en la introducción de su TCM, que tras la lectura del presente panfleto, el lector me recuerde
como un frívolo dadaísta, y no como un anarquista serio.

El término dadaísta sin duda es más acertado, lejos de las connotaciones puritanas del anarquista, el
dadaísta está convencido de que la vida sólo empezará a merecer la pena cuando nos tomemos las cosas a la
ligera, cuando eliminemos del lenguaje los significados putrefactos acumulados durante siglos. Un dadaísta
no sólo no tiene ningún programa, sino que está en contra de todos los programas, e incluso para ser un
buen dadaísta se ha de ser también un antidadaísta.

Pues bien, a la vista de todo lo anterior, y tras un minucioso análisis de la historia de la ciencia, Feyerabend
afirmará que no hay ninguna regla, por muy fundamental o necesaria que sea para la ciencia, que no haya
sido violada. Si a esto le unimos, como hemos visto anteriormente, que esta continua infracción
metodológica es totalmente necesaria para el progreso, se sigue facilmente que el único principio que no
inhibe el progreso es: todo sirve. Tal sería el único principio defendible (o sea el único que ha sido respetado
universalmente) bajo cualquier circunstancia y etapa del desarrollo de la humanidad.

Pero conviene matizar este principio. En Adios a la Razón, advierte que este principio puede leerse de dos
maneras muy distintas. Una vendría a decir: yo (o sea, Feyerabend) adopto dicho lema y sugiero que se use
como base del pensamiento; y la otra: yo no la adopto, pero describo simplemente el destino de un amante
de los principios que toma en consideración la historia: el único principio que le queda será el todo sirve.
Feyerabend acusa de falta de pensamiento claro a los críticos irritados, que desgraciadamente no han sido
bendecidos con un exceso de inteligencia, ya que sólo han sabido leer el principio de la primera manera,
cuando lo que se decía explícitamente era lo segundo. Y de hecho remite a un pasaje de su TCM donde dice
claramente: “mi intención no es sustituir un conjunto de reglas generales por otro conjunto; por el contrario,
mi intención es convencer al lector de que todas las metodologías, incluidas las más obvias, tienen sus
45

límites (...) e incluso de la irracionalidad de alguna de las reglas que la metodología considera básicas. De
hecho el argumento de la contrainducción es una parte de la crítica de métodos tradicionales, no el punto de
partida de una nueva metodología como parecen suponer muchos críticos”.

Por lo tanto para matizar y examinar esta tesis fuerte, Feyerabend tiene que analizar el desarrollo del
advenimiento de las teorías científicas, y ello le conduce en primer lugar a otra de sus tesis radicales: la
contrainducción.

Su exposición comienza con la afirmación de que se puede hacer avanzar la ciencia procediendo
contrainductivamente. Si partimos de la regla de la contrastación, que mide el éxito de las teorías según el
acuerdo entre la teoría y los datos que favorecen a la misma, nos percatamos de que constituye la esencia
del empirismo y de las teorías de la confirmación y de la corroboración. Pero si hacemos caso de la
contrarregla que nos dice que es aconsejable o necesaria para la ciencia, no sólo ignorar las reglas, sino
adoptar las opuestas, debemos pues, introducir y elaborar hipótesis que sean inconsistentes con las teorías
y/o hechos bien establecidos, esto es, debemos proceder contrainductivamente (además de inductivamente,
señala en su Contra el Método). Esto por dos razones:

En primer lugar un científico debe adoptar una metodología pluralista, debiendo comparar sus ideas con
otras ideas, en vez de con la experiencia. Dicho de otra manera, la evidencia relevante para la contrastación
de una teoría T a menudo sólo puede ser sacada a la luz con la ayuda de otra teoría T' incompatible con T.

Y ello porque el conocimiento no consiste en una serie de teorías autoconsistentes que tiende a converger
en una perspectiva ideal; no consiste en un acercamiento gradual a la verdad. Por el contrario, el
conocimiento es un océano, siempre en aumento, de alternativas incompatibles entre sí (y tal vez
inconmensurables).

La segunda contrarregla en favor de la contrainducción viene dada por el hecho de que no existe una sola
teoría interesante que concuerde con todos los hechos de su dominio.

Aquí habrá que señalar que ninguna experiencia, que ningún experimento está libre de teoría. Es decir, todo
enunciado factual está contaminado de una serie de supuestos ontológicos o metodológicos que vician la
vara de medir. El supuesto empirista, que podemos remontar a la Metafísica de Aristóteles, de que los
sentidos son capaces de ver el mundo tal y como es, estaría (desde esta perspectiva dadaísta) a años luz de
acercarse a la verdadera situación del hombre en el mundo.

De acuerdo con Hume, afirma Feyerabend, “las teorías no pueden derivarse de los hechos”. El requisito de
aceptar sólo aquellas teorías que se sigan de los hechos nos deja sin ninguna teoría. De aquí que la ciencia,
tal y como la conocemos, sólo puede existir si abandonamos este requisito y revisamos nuestra metodología.
Es más: casi ninguna teoría es consistente con los hechos.

A la luz de la fisiología, se advierte que la impresión sensorial se da en la medida en que existe un órgano
receptor capaz de registrarla. Esto muestra que la impresión es un acto subjetivo, sin ningún correlato
objetivo. Por otra parte, como ya se ha señalado, el examen histórico nos enseña que toda evidencia está
contaminada de supuestos teóricos.

Todo este carácter histórico-fisiológico de la evidencia, le permite mantener que el hecho no describe
meramente un estado de cosas objetivo, sino que también expresa un punto de vista subjetivo y mítico que
concierne a este estado de cosas, lo que nos obliga a echar una ojeada nueva a la metodología. Por tanto,
sería extremadamente imprudente dejar que la evidencia juzgue directamente nuestras teorías sin
mediación ninguna. Un juicio directo e indiscriminado de las teorías por los hechos está sujeto a eliminar
ideas simplemente porque no se ajusten al sistema de alguna cosmología más antigua.
46

De todo esto se deduce (como segunda regla contrametodológica) que hay que buscar sistemas
conceptuales que choquen con los datos experimentales aceptados, e incluso que propongan nuevas formas
de percepción del mundo, hasta entonces ignoradas. Actuando así, se procede contrainductivamente. En
lugar de inferir hipótesis y leyes inductivamente a partir de las observaciones contrastadas, el científico
progresista actúa a la inversa.

Feyerabend emplea varios capítulos a la tarea de ejemplificar este supuesto mediante el argumento de la
torre. En semejante análisis (que va desde los capítulos 6 al 16) se tocan además del problema de las
interpretaciones naturales (que es lo que ahora viene al caso), el problema de la irracionalidad en la ciencia,
y el de la inconmensurabilidad entre las teorías, que serán desarrollados en epígrafes separados.

En cuanto al tema de la contrastación de las teorías, que como hemos visto hace proponer a la
epistemología dadaísta las reglas contrainductivas, se dedica el análisis histórico del argumento de la torre
que emplearon los aristotélicos para refutar las teorías copernicanas.

Este argumento involucra, en palabras del propio Feyerabend, interpretaciones naturales, que servirán para
ilustrar tanto la tesis del “todo vale”, como de la necesidad de proceder contrainductivamente como
requisito necesario para el progreso científico.

Repetimos: la naturaleza del fenómeno es apariencia más enunciado. No se trataría de dos actos distintos,
uno consistente en una evidencia, un dato objetivo, y otro en su expresión mediante un lenguaje
observacional que implicaría cierta cosmología, sino de un sólo acto. Esta unidad sería el resultado de un
proceso de aprendizaje que daría forma al fenómeno, dando la impresión de que los hechos hablan por sí
mismos. Pero como ya hemos advertido, eso no es cierto ya que los fenómenos son lo que los enunciados
afirman que son.

En consecuencia, estas operaciones mentales que están tan conectadas a las sensaciones serán lo que
Feyerabend llamará interpretaciones naturales. Es más, hablando en boca de Galileo, estas serían necesarias
ya que los sentidos por sí solos sin la ayuda de la razón no pueden darnos una descripción verdadera de la
naturaleza. Y lo que es todavía más rotundo, es imposible eliminar, ni siquiera parcialmente, el manojo de
las interpretaciones naturales.

Luego la única manera de eliminar un determinado punto de vista del dominio de la observación, es
proceder contrainductivamente y emplear otras interpretaciones y ver lo que pasa. Y precisamente esto es
lo que ocurrió con la discusión entre Galileo y los aristotélicos, ya que este introdujo un nuevo lenguaje
observacional, que le permitió reinterpretar las observaciones y llevárselas a su terreno. Creo que no hace
falta decir que gracias a este proceso contrainductivo hubo cierto progreso.

Por si queda alguna duda, para Feyerabend, el procedimiento de Galileo es totalmente legítimo. Entonces es
completamente razonable introducir lenguajes observacionales alternativos y compararlos, tanto con el
idioma original como con la teoría bajo examen. Procediendo de esta forma podemos estar seguros de que
la comparación es correcta.

Pero acabar aquí el análisis histórico, y mantener que la teoría heliocéntrica salió adelante gracias, tan solo,
al proceso contrainductivo es dejar las cosas a medias. Si Galileo tuvo éxito fue gracias a que utilizó la
propaganda y otros trucos. Con esto entramos con la crítica de la racionalidad.

2. La oposición a la razón como fuente de progreso.

Comencemos por el problema de la 'adhoccidad'. Para la mayoría de los filósofos de la ciencia (como Popper
y Lakatos), sostener y aceptar teorías ad hoc resulta siempre irracional. Es habitual sostener, dice
Feyerabend, que los buenos científicos deben rehusar a hacer hipótesis de tal tipo. No obstante mantienen
47

que es necesario que estas se insinúen de vez en cuando, aunque halla que oponerse a ellas y mantenerlas
bajo control (Popper), o que la adhoccidad ni es despreciable ni está ausente del juego científico (Lakatos).
Ambos coinciden en las nuevas ideas, al ir más allá de la evidencia disponible, son comúnmente ad hoc e
incluso, dice Lakatos, no puede ser de otra forma.

Para Lakatos, los científicos que defienden una teoría siempre tratan de preservar de la refutación a su
centro firme, y para ello construyen en su torno un cinturón protector de hipótesis auxiliares, cambios de
significado de los términos, etc. Esta actitud en algunos casos puede ser perfectamente racional.

Feyerabend, tras el análisis histórico, añade que se puede dar total apoyo a Lakatos sin ninguna ambigüedad.
Yo me permitiría añadir, que podría existir una diferencia entre ambos planteamientos, en la cita anterior,
salvo que Javier Echeverría quiera engañarnos, cosa que dudo, Lakatos estaría (cerca del planteamiento de
Laudan, aunque desde otra perspectiva) dispuesto a permitir cierta racionalidad en la adhocidad. Por el
contrario Feyerabend no puede admitir esto, ya que el problema de las hipótesis ad hoc es uno de los
frentes de batalla para postular su oposición a la razón como fuente de progreso.

Elucubraciones aparte, lo que sostiene Feyerabend es que la adhocidad es mirada con malos ojos por la
mayoría de los epistemólogos racionalistas, mientras que el cree que es una buena estrategia liberadora,
estimulante y progresista, y que ya que no se puede evitar ser ad hoc es mejor serlo respecto a una teoría
nueva.

De hecho el análisis histórico nos muestra que Galileo usó hipótesis ad hoc para salirse con la suya y
convertir el argumento de la torre de una refutación de Copérnico a una confirmación.

Pero los métodos que utiliza Galileo para imponer sus ideas no se limitan al uso de la adhocidad, sino que
pasa por un elenco de medios irracionales, tales como la propaganda, la persuasión, o la utilización de una
lengua vulgar (el italiano) en vez del latín para sus escritos.

El copernicanismo estaba amenazado por eventos observables, pero Galileo, sin tapujos, para eliminar el
peligro introdujo obstáculos con la ayuda de hipótesis ad hoc, considerándolas como tendencias definidas
por la obvia discrepancia que existe entre hechos y teoría. (...) las refutaciones se hicieron ineficaces por
medio de hipótesis ad hoc y de hábiles técnicas de persuasión.

Pero este no es el caso tan sólo de Galileo, sino que la historia de la ciencia nos hace generalizar y afirmar
que la lealtad a las nuevas ideas tendrá que conseguirse por medios irracionales tales como la propaganda,
sensibilidad, hipótesis ad hoc y apelación a los prejuicios de todas clases. Necesitamos estos medios
irracionales para defender lo que no es otra cosa que una fe ciega, hasta que hayamos descubierto las
ciencias auxiliares, los hechos, los argumentos que conviertan la fe en puro conocimiento.

Por lo tanto el progreso en la ciencia surge gracias a que la razón es dejada de lado.

Pero yendo más allá, la argumentación necesaria para desarrollar esta tesis, muestra que es aconsejable
suprimir la distinción entre contexto de descubrimiento y contexto de justificación y prescindir de la
distinción afín entre términos observacionales y términos teóricos. Ya que ninguna de estas distinciones
desempeña papel alguno en la práctica científica.

Como hemos visto la fase de descubrimiento puede ser, y a menudo lo es, irracional, e incluso estar en
oposición a las reconstrucciones racionales que suelen hacer los epistemólogos. El pluralismo metodológico
nos muestra que el descubrimiento científico no está sujeto a un método fijo y en cambio si esta
fundamentado en un elenco de creencias y esperanzas. Por otra parte la ciencia sólo puede existir si se
emplean estas artimañas y se deja de lado la razón (o el contexto de justificación). De manera que a la vista
de las cosas la distinción debe ser abandonada.
48

De la misma manera la distinción entre términos observacionales y términos teóricos ha de ser rechazada a
la luz del análisis que se ha llevado a cabo. Ya ha quedado claro que el aprendizaje no va desde la
observación a la teoría sino que implica ambos elementos. De ahí que tanto las teorías como las
observaciones pueden ser rechazadas, las teorías por estar en conflicto con las observaciones, pero también
las observaciones pueden ser abandonadas por razones teóricas. La experiencia surge siempre junto con las
suposiciones teóricas, no antes que ellas, y una experiencia sin teoría es tan incomprensible como lo es una
teoría sin experiencia, y continúa, eliminad parte del conocimiento teórico de un sujeto inteligente y
tendréis una persona completamente desorientada e incapaz de realizar la acción más simple.

Pues bien, con todo esto queda seriamente tocada cualquier consideración meramente racional de la
empresa científica, y por si fuera poco, con esta última tesis sobre la percepción y su ligazón al esquema
conceptual se abre el camino al problema de la inconmensurabilidad, uno de los puntos más importantes de
su crítica a la metodología racionalista de la ciencia.

3. La inconmensurabilidad de las teorías científicas.

Comencemos por el principio. El término inconmensurabilidad quiere decir, literalmente, imposibilidad de


relacionar con la misma medida magnitudes diversas. En filosofía de la ciencia, se refiere a la afirmación de
que no es posible establecer relaciones y comparaciones entre diversas teorías científicas -sean producto de
la evolución del conocimiento científico, sean simples teorías rivales- para decidir cuál de ellas es más
verosímil, o para reducirlas o traducirlas unas a otras, cuando se presenten como maneras de hablar
distintas acerca de lo mismo.

Pues bien, quienes se niegan a admitir, comenta Echeverría, que los científicos usan teorías
inconmensurables lo hacen para mantener el primado de la razón en la actividad científica. Y si bien
Feyerabend no negó que la ciencia tenga componentes racionales, en cambio no aceptó que la ciencia sea
sólo racional.

Como sabemos el TCM es un extenso diálogo entre Lakatos y el propio Feyerabend, el apéndice 3 da buena
cuenta de ello y del intento de Lakatos por mantener o restaurar la racionalidad en la actividad científica, no
obstante el anarquismo epistemológico intenta desterrar por varias vías esta concepción racionalista. Uno
de estos caminos es el de la inconmensurabilidad, que Feyerabend manifiesta al final de dicho apéndice: el
fenómeno de la inconmensurabilidad en mi opinión plantea problemas a todas las teorías de la racionalidad,
incluida la metodología de programas de investigación. La metodología de programas de investigación
asume que las teorías rivales y los programas de investigación rivales pueden compararse siempre haciendo
referencia a su contenido. El fenómeno de la inconmensurabilidad parece implicar que éste no es el caso.

Las tesis de la inconmensurabilidad de las teorías científicas fue formulada por Kuhn y Feyerabend el mismo
año de 1962, y ya contaba con antecedentes históricos como las tesis de Quine, sobre la imposibilidad de
someter a contrastación hipótesis aisladas; las tesis de la carga teórica de toda observación (aceptadas por
Popper y Hanson); y sobre todo las tesis de Quine sobre la indeterminación de la traducción y la
inescrutabilidad de la referencia.

No obstante Kuhn y Feyerabend usaron el término de la inconmensurabilidad con independencia, el primero


lo aplicaba a los problemas, métodos y normas científicas, mientras que el segundo hacía de él un uso más
restringido (lo aplicaba sólo al lenguaje), a la vez que más radical (afectaba a todos los términos primitivos de
las teorías rivales, y no sólo a unos pocos.

Existe un telón de fondo que lleva a ambos a mantener esta tesis. Se trata de que ambos se consideran
relativistas epistemológicos en el sentido de niegan que exista una verdad externa a la que los conceptos y
teorías científicas se acerquen cada vez más. No se trata de negar el progreso, se trata de negar que existan
49

verdades universales independientemente de la apreciación del sujeto. La inconmensurabilidad se trataría


entonces en un fuerte ataque contra el realismo, adoptando una concepción relativista de la verdad en la
que esta sólo adquiere sentido dentro de cada uno de esos marcos conceptuales.

De hecho, para fundamentar su tesis de la inconmensurabilidad, Feyerabend remite a la hipótesis Sapir-


Whorf y a la psicogénesis piagetiana. Trabajos consagrados que recalcan la relatividad de la
conceptualización de la experiencia del mundo según la cultura, que crea conceptos y concepciones del
mundo inconmensurables (Whorf) y las estructuras lógicas (y prelógicas) del desarrollo de la inteligencia
(Piaget).

En particular, el trabajo de Whorf muestra que la gramática de los lenguajes contiene una cosmología, una
concepción comprehensiva del mundo, de la sociedad y de la situación humana. Pues de la misma manera
en que los lenguajes naturales no se limitan a reproducir ideas o eventos, sino que conforman los hechos y
los estados de cosas, también las teorías científicas conllevan concepciones del mundo. Por eso mismo hay
inconmensurabilidad entre ellas, en el sentido de que no pueden ser interrelacionadas por medio de las
relaciones lógicas ususales: inclusión, exclusión, solapamiento, etc. También las percepciones pueden ser
inconmensurables entre sí (como muestra la Gestalt).

Con esto tocamos un punto crucial ya que en una obra posterior a su TCM, quizá para distanciarse del
sentido de inconmensurabilidad dado por Kuhn, quizá para suavizar su propia tesis, manifiesta que al usar el
término inconmensurable siempre quiso decir desconexión deductiva y nada más. Lo cual no deja de ser algo
casi trivial. No obstante aquí señalaremos sus primeras definiciones de la inconmensurabilidad, sin los
matices posteriores.

En TCM expone tres tesis sobre la inconmensurabilidad

A) La primera tesis es que existen sistemas de pensamiento (acción, representación) que son
inconmensurables.

Se trata de una tesis histórica (antropológica) que debe apoyarse en evidencia histórica (antropológica).

B) El desarrollo de la percepción y del pensamiento en el individuo pasa por etapas que son
inconmensurables entre sí.

C) Mi tercera tesis afirma que los puntos de vista sobre materias básicas, son a menudo tan diferentes unos
de otros como lo son las ideologías subyacentes a las distintas culturas. Más aún: existen teorías científicas
que son mutuamente inconmensurables aunque en apariencia se ocupen del mismo objeto. No todas las
teorías rivales tienen esta propiedad y aquellas que tienen la propiedad, sólo la tienen mientras sean
interpretadas de una forma especial, por ejemplo, sin hacer referencia a un lenguaje de observación
independiente

Este es en grosso modo el sentido de inconmensurabilidad entre teorías que defiende Feyerabend en su
TCM. Ejemplos de teorías inconmensurables entre sí serían el materialismo frente al dualismo mente/cuerpo
o la teoría cuántica frente a la mecánica clásica.

4. La crítica del criterio de demarcación.

Frente al demarcacionismo, Feyerabend trató de aproximar el conocimiento científico a otras formas del
saber. La ciencia, comenta, es mucho más semejante al mito que cualquier filosofía científica está dispuesta
a reconocer. La ciencia constituye una de las formas de pensamiento desarrolladas por el hombre, pero no
necesariamente la mejor.
50

La ciencia posee un completo sistema de creencias que son defendidos a capa y espada por los científicos
adscritos a ese paradigma. Es más, como hemos visto hasta ahora la ausencia de un método científico es la
norma (pluralismo metodológico), y en la práctica científica el progreso acaece gracias a métodos
irracionales y acientíficos (todo sirve). De manera que la ciencia es un mito, un dogma al que un científico se
aferra, es más el dogmatismo desempeña una función importante. La ciencia sería imposible sin él.

Por tanto como toda secta o religión, sus acérrimos creyentes creen en su ciencia por encima de todas las
cosas. No se trata de que la ciencia sea el mejor tipo de conocimiento dotado con el mejor método, sino que
los científicos o los sectarios cientificistas creen que es el modo más elevado de conocimiento, porque así
han sido adoctrinados.

Así pues la ciencia se ha impuesto por la fuerza y no por el convencimiento. La ciencia no sería más que una
ideología, y como tal ha de ser tratada. Así pues, si en una sociedad democrática la separación Estado-Iglesia
es un hecho, debe complementarse con la separación entre Ciencia y Estado.

Mientras un americano puede elegir hoy la religión que prefiera, todavía no le está permitido exigir que sus
hijos aprendan en la escuela magia en lugar de ciencia. Existe una separación entre estado e iglesia, pero no
separación entre estado y ciencia.

Otra vez más, la historia nos muestra un exceso de racionalismo, y esta vez viene de la mano del criterio de
demarcación. En numerosas ocasiones la ciencia ha adoptado métodos, conocimientos, etc. de saberes
considerados como pseudocientíficos. Así, la astrología sacó provecho del pitagorismo, y la medicina actual
de la antigua medicina china (acupuntura, diagnóstico por el iris, etc.).

Combinando esta observación con la idea de que la ciencia no posee ningún método particular, llegamos a la
conclusión de que la separación de ciencia y no ciencia no sólo es artificial, sino que va en prejuicio del
avance del conocimiento.
51

EDGAR MORIN. PARADIGMA DE LA COMPLEJIDAD


Biografía

Edgar Morin nació el 8 de julio de 1921 en París, y tiene en la actualidad 99 años. De apellido Nahum, que
tuvo que cambiar durante el transcurso de la segunda guerra, de padres judíos, vivió junto con su padre
Vidal Nahum y su madre Luna Beressi, hasta los diez años, cuando por una enfermedad su madre fallece,
generando un impacto en su infancia y dejando huellas por el resto de su vida. Terminó siendo criado por su
padre y por su tía materna Corinne Beressi.

Durante su adolescencia estuvo involucrado en diversos movimientos políticos y sociales de la época,


empatizando más con filosofías sociales. Ese espíritu de lucha lo llevo a estudiar Historia y Derecho en La
Sorbonne, cuando tenía 19 años, aunque tuvo que interrumpir sus estudios por la invasión Nazi en Francia,
uniéndose a la resistencia en contra de la invasión alemana. Logra titularse en 1942, época en la que además
se interesa por la Unión Soviética, y uniéndose al Partido Comunista Francés. Años más tarde realiza estudios
de economía, sociología y filosofía.

Su obra e influencias

1946, primer libro denominado “El año cero de Alemania”, en el cual retrata una imagen de la Alemania
destruida por la guerra.

En 1951 se publica “El hombre y la muerte” respondiendo a su interés sobre la muerte. 1957 escribe “Las
Stras” y funda la revista “Arguments”, en su obra ”Autocrítica” reflexiona sobre los discursos hegemónicos e
inicia un proceso de ruptura con la teoría marxista y el totalitarismo.

1962 y 1963, periodo de enfermedad articula las ciencias sociales con las ciencias naturales, sostiene
en“L`Espirit du Temps” y “Le vif du Sujet” que hay incluir una visión crítica y autocrítica de las disciplinas.

1970 participa en “revolución biológica”, descubre la genética de Crick y Watson.

1973 inicia el desarrollo de su obra “El Método”, plasmando el pensamiento complejo físico-bio-
antropológico, desde una perspectiva científico-filosófico-literaria “...que permita una praxis ética en el
campo tanto del conocimiento académico como de la praxis social”

Escribió meta-textos para explicar sus desarrollos teóricos, “El paradigma Perdido: Ensayo de
Bioantropología”; estudia el proceso de humanización como un proceso histórico en curso.

1990 escribe “Introducción al Paradigma de la Complejidad” que explican las bases del pensamiento
complejo.

Algunos de los aportes que lo llevaron a pensar desde la complejidad son: son los postulados de Gregory
Bateson con la Teoría de los Sistemas y la Cibernética; la filosofía de Castoriadis y Serres; y la epistemología
de Popper, Kuhn, Lakatos y Feyerabend, influencian en el rol de la ciencia en cuanto a lo transdisciplinar.

Introducción al Pensamiento Complejo

Para iniciar el desarrollo de la propuesta de Morin vamos a tomar como base el libro de “Introducción al
Pensamiento Complejo” (1990), con el fin de explicar de manera comprensible sus ideas sobre la simplicidad,
la complejidad y la crítica al pensamiento reduccionista.

“El conocimiento científico fue concebido durante mucho tiempo, y aún lo es a menudo, como teniendo por
misión la de disipar la aparente complejidad de los fenómenos, a fin de revelar el orden simple al que
obedecen” (Morin, 1998, pág. 10)
52

El paradigma de la complejidad no implica que por complejo que sea un pensamiento, una abstracción, se lo
simplifique, la complejidad requiere de un desafío, que debe ser elaborado, analizado y no una forma de
excusarse, confundiendo la complejidad con la simplicidad, con la imposibilidad de brindar una respuesta
“adecuada” por ser una situación compleja y revolviéndola en esta síntesis. La complejidad vista en este
sentido, no implica, la construcción de un nuevo saber sino un reduccionismo.

Por esto, lo complejo no puede resumirse al término complejidad, como si se tratara de una ley que toma el
lugar de la simplicidad. Se trata de un problema y no de la solución.

Plantear la complejidad como una palabra problema, permite, precisamente, abrir a una interrogación, a una
nueva forma de análisis sobre aquello que ha sido reducido. De esta forma, poder superar la simplificación y
adentrarse a la tarea del pensamiento.

Morin plantea dos ilusiones que alejan a los espíritus del problema del pensamiento complejo.

● Creer que la complejidad conduce a la eliminación de la simplicidad : el pensamiento complejo


integra las partes del conocimiento mientras que el simplificador lo desintegra.

Con esto, lo que se intenta verdaderamente es un análisis, lo cual implicaría la separación de ideas, pero a la
vez intenta la unificación. El pensamiento complejo no deja de lado la simplicidad porque requiere de un
desorden y posteriormente del orden. El pensamiento es un arte que pone movimiento entre la simplicidad
y la complejidad. Por último, si separa o elimina la simplicidad, se eliminaría parte de la complejidad.

● Confundir complejidad con completud . El pensamiento complejo aspira al conocimiento


multidimensional, pero debemos saber desde un comienzo que el conocimiento completo es
imposible uno de los axiomas de la complejidad es la imposibilidad de alcanzar el conocimiento
completo sobre una temática ni siquiera a un nivel teórico.

El pensamiento es multidimensional y polimorfo, está en constante movimiento, es imposible acabar las


ideas, habrá tantos pensamientos como sujetos, enmarcados en un contexto histórico, político, cultural
económico y cultural. Esto hace que la completud sea imposible, que no existan verdades absolutas, normal
no falibles, certidumbres, por lo contrario, las incertidumbres son la que aparecen en este paradigma, y que
hacer que muchas veces se busque aferrarse a una idea a un pensamiento, una ideología, que avale, que
justifique. En este sentido, nos enfrentamos con la difícil tarea de aceptar un quiebre en la omnipotencia de
poder saber todo, y esto implica la complejidad de enfrentar las dificultades de pensar y vivir. Por otra parte,
si se pudiera alcanzar la completud conoceríamos de vida.

Al plantear que “el pensamiento complejo está animado por una tensión permanente entre la aspiración de
un saber no parcelado, no dividido, no reduccionista, y el reconocimiento de lo inacabado e incompleto de
todo conocimiento” (Morin, 1998, pág. 11) Morin dirá, que el paradigma de la complejidad, implica una
nueva manera de posicionarse, la nueva formulación de ideas, y lo que amenaza es la simplificación el
reduccionismo y la concepción trivializada del conocimiento, del individuo y de la sociedad.

La Inteligencia Ciega

Morin manifiesta que nos es necesaria una toma de conciencia radical, propone las siguientes razones:

● La causa profunda del error no está en el error de hecho, no en el error lógico, sino en el modo de
organización de nuestro saber en sistemas e ideas.

● Hay una nueva ignorancia ligada al desarrollo de la ciencia.

● Hay una nueva ceguera ligada al uso degradado de la razón.


53

● Las amenazas más graves que enfrenta la humanidad están ligadas al progreso ciego e
incontrolado del conocimiento.

El problema de la organización del conocimiento que plantea Morin es la selección de datos puramente
significativos y el rechazo de datos no significativos para la construcción de un conocimiento, con ello se
separa, se mutila, se jerarquiza y se centraliza el mismo, todo esto proceso de construcción es contrario a
todo lo que planteado.

Según Morin estas operaciones que realizan los paradigmas hegemónicos de la época pretenden gobernar y
determinar una única visión del mundo, sin que tengamos conciencia de ello.

“Se trata de evitar la visión unidimensional, abstracta. Es por ello que es necesario, ante todo, tomar
conciencia de la naturaleza y de las consecuencias de los paradigmas que mutilan el conocimiento y
desfiguran lo real” (Morin, 1998, pág. 15).

Morin manifiesta que vivimos bajo el imperio de los principios de disyunción, reducción y abstracción, lo
que constituye lo que él denomina el “Paradigma de la simplificación”.

Las consecuencias de este paradigma, empezaron a evidenciarse recién a partir del siglo XX, sin embargo
este paradigma contribuyó a gran parte de la construcción del conocimiento científico y la reflexión
filosófica. La disyunción entre ambos, priva a la ciencia de toda posibilidad de conocerse, entenderse,
reflexionar sobre la misma e incluso concebirse científicamente. En palabras de Morin “el principio de
disyunción ha aislado radicalmente entre sí a los tres grandes campos del conocimiento científico: la física, la
biología, la ciencia del hombre” (Morin, 1998). La única forma de remediar tal disyunción fue a través de otra
simplificación, la reducción de lo complejo a lo simple. El recorte que produciría esto desgarraría y
fragmentaria aún más el tejido complejo de las realidades, solo para hacer creer que este corte arbitrario
operado sobre lo real era o lo real mismo. El ideal del conocimiento científico clásico era descubrir detrás de
la complejidad de los fenómenos un orden perfecto, una máquina perfecta conformada por elementos,
organizados y reunidos en objetos y sistemas.

“...el pensamiento simplificante es incapaz de concebir la conjunción de lo uno y lo múltiple. O unifica


abstractamente anulando la diversidad o, por el contrario, yuxtapone la diversidad sin concebir la unidad”.
(Morin, 1998)

Morin concibe el concepto de “inteligencia ciega” y expone que la misma destruye los conjuntos y la
totalidad, aísla todos sus objetos de sus ambientes. No se puede concebir el lazo inseparable entre el
observador y la cosa observada. las realidades claves son desintegradas. Pasan entre los hiatos que separan
a las disciplinas. “La metodología dominante produce oscurantismo porque no hay más asociación entre los
elementos disjuntos del saber y, por lo tanto, tampoco posibilidad de organizarlos y de reflexionar sobre
ellos” (Morin, 1998, pág. 16).

La necesidad de un pensamiento complejo

El término complejidad planteado por Morin es:

“el tejido de eventos, acciones, interacciones, retroacciones, determinaciones, azares, que constituyen
nuestro mundo fenoménico...la complejidad se presenta con los rasgos inquietantes de lo enredado, de lo
inextricable, para el conocimiento, de poner orden en los fenómenos rechazando el desorden, de descartar
lo incierto, es decir, de seleccionar los elementos de orden y de certidumbre, de quitar ambigüedad,
clarificar, distinguir, jerarquizar...pero tales operaciones necesarias para la inteligibilidad, corren el riesgo de
54

producir ceguera al eliminar a los otros caracteres de lo complejo; y efectivamente, como ya lo he indicado,
nos han vuelto ciegos” (Morin, 1998, pág. 17).

Complexus, Morín refiere en analogía a una serie de tejidos que forman redes de finos hilos, implica el
carácter fractal de la episteme de la complejidad del pensamiento.

La complejidad ha logrado cambios en diversas disciplinas en la física por ejemplo, se ha descubierto una
extrema complejidad microfísica del cosmos, el universos no es una máquina perfecta si nos que es un
eterno proceso de desintegración y a la vez de organización; en relación a los fenómenos antroposociales, se
elabora una concepción sobre la vida como un fenómeno de auto-eco-organización extraordinariamente
complejo que produce la autonomía, a partir de ello entendemos que estos fenómenos no deben ser regidos
por principios de inteligibilidad menos complejos como aquellos que son requeridos en las ciencias
naturales. se debe afrontar la complejidad no disolverla.

Morin en su obra antes ya nombrada “El Método” plantea que es necesario sustituir al paradigma de
disyunción/reducción/unidimensionalizacion por un paradigma de distinción/conjunción que permita
distinguir sin desarticular, asociar sin identificar o reducir.

El paradigma de la complejidad se regirá por un principio dialógico y translógico, que integraría la lógica
clásica teniendo en cuenta sus límites de facto (contradicciones y sus problemas) y de jure (límites del
formalismo). se propone un principio de la “Unitas multiplex” que escapa a la unidad abstracta por lo alto
(holismos) y por lo bajo (reduccionismos). En este sentido, en las partes vemos el todo, partes que
constituyen el todo en sí, a diferencia del reduccionismo que sólo considera la parte, la complejidad toma en
cuenta la parte conformando el todo y en él todo el parte que se constituye mutuamente. La simplicidad ve
uno o lo múltiple, pero no ve que el uno es múltiple.

Para Morin, la patología moderna del espíritu está en la hiper-simplificación que ciega a la complejidad de lo
real.

“La patología de la idea, está en el idealismo, en donde la idea oculta a la realidad que tiene por misión
traducir, y se toma como única realidad. La enfermedad de la teoría está en el determinismo y en el
dogmatismo que cierran a la teoría sobre ella misma y la petrifica” (Morin, 1998, pág. 19)

La ceguera que produce los paradigmas simplificadores en el conocimiento, condenan al mismo a


permanecer en una era de barbarie y solo la complejización del pensamiento permitiría alcanzar la
civilización de nuestro conocimiento.

El diseño y el designio complejos: Sistemismo y Cibernética

La virtud sistémica es: Haber puesto en el centro de la teoría, con la noción de sistema, es una unidad
compleja, un todo que no se reduce a la suma de sus partes constitutivas. Sistema no como noción real. ni
real, sino como ambigua o fantasma.

Situarse en un nivel transdisciplinario, que permite concebir a la unidad como a la disciplina y la relación
entre ambos. Permite un campo con una amplitud que se extiende a todo lo cognoscible.

El concepto de Sistema Abierto desprende dos consecuencias, la primera es que las leyes de organización de
lo viviente son de desequilibrio del dinamismo establecido, la segunda consecuencia la inteligibilidad del
sistema no se encuentra en el sistema mismo, sino en la relación constitutiva que tiene con su ambiente.

Según Morin, el vínculo entre el sistema abierto y su ambiente es el punto crucial para conocer la realidad,
desde un punto de vista epistemológico, metodológico, teórico y empírico. No podemos comprender un
55

sistema sin incluir y conocer su ambiente, son uno mismo y elementos separados a la vez. El concepto de
sistema abre paso a una teoría de la evolución.

Cibernética

Proviene del Griego Kimberbetiké “el arte de gobernar” estudia los mecanismos de la autorregulación y los
conceptos de retroalimentación y feedback.

La noción de información desde la Cibernética, es un concepto fundamental. Entendemos a la información


no como un ingrediente sino como una teoría poseedora de su propio análisis autónomo. El concepto de
información es ambiguo, no podemos conocer todo del mismo pero tampoco podemos ignorarlo.

La información, para la Cibernética tiene un sentido organizacional, es decir que para ellos un programa era
el portador de la información y se encarga de comunicar un mensaje hacia un ordenador que computa todo.

Aparece también la relación con el campo de la biología y la duplicación del material genético con la teoría
de la comunicación ya que la misma determinaba que “...uno podía asimilar cada uno de los elementos
químicos a unidades discretas desprovistas de sentido (como los fonemas o las letras del alfabeto)
combinándose en unidades complejas dotadas de sentido (como las palabras)” (Morin, 1998, pág. 27).

La información es el punto de partida de cualquier ciencia, siempre nos revelará un aspecto limitado y
superficial de cualquier fenómeno que estudiemos.

Organización y Auto-organizacion

El orden de lo viviente no es simple, no funciona como una máquina, sino que postula una lógica de la
complejidad. Existe una diferencia entre el objeto cibernético, que es una máquina artificial que posee una
organización ligada a su principio de organización, este principio es externo, es debido al hombre. Esta es
una de las diferencias, la individualidad del sistema viviente se distingue de aquella de otros sistemas
cibernéticos. El sistema viviente esta dota de autonomía, la auto-organizacion es una meta organización con
respecto al orden de la organización preexistente. Debemos ver más allá del objeto que nos propone la
cibernética por ejemplo tener en cuenta la subjetividad humana y sus raíces en el mundo objetivo.

El sistema auto-organizador se separa del ambiente, posee su propia autonomía e individualidad, cuando
amplía su apertura y el intercambio con el ambiente (proceso de la complejidad), es lo que llamamos auto-
eco-organizador, no se basta asi mismo, no puede completarse ni cerrarse. Los sistemas cerrados no tienen
nada de complejidad, ni intercambios con el mundo exterior, el ambiente juega un rol co-organizador.

La complejidad

Con los fundadores de la Cibernética, Wiener y Ashby, es cuando el concepto de complejidad entra en la
ciencia y es con Von Neumann, es que por primera vez el carácter fundamental de la complejidad se enlaza a
los fenómenos de auto-organizacion. La complejidad no comprende solamente fenómenos cuantitativos y
cantidades de unidades y sus interacciones, también comprende indeterminaciones e incertidumbres,
fenómenos aleatorios, etc. La complejidad está relacionada al azar. La incertidumbre de un saber no está en
el conocimiento que tenemos sobre algunos fenómenos sino en su organización, en los sistemas que ya se
encuentran organizados, la complejidad la hallamos en cierto orden y desorden.

Sujeto y Objeto

Para no volver a caer en determinismos, no debemos cerrar el conocimiento, petrificarlo, debemos abrir la
posibilidad de un conocimiento más rico y a la vez menos cierto. El sujeto, según Morin, debe permanecer
abierto, alejado de un principio de decibilidad sobre sí mismo; el objeto debe permanecer abierto, una parte
para el sujeto y otra parte para el ambiente, este último continúa expandiéndose permanentemente. En un
56

primer momento, partiendo de la microfísica sujeto y objeto se encontraban relacionados, aunque


incongruentes uno de otro, con la Cibernética y el concepto sistema auto-organizador, el sujeto y objeto son
constitutivos, están relacionados se presenta una necesidad de indeterminación y del azar para la propia
autodeterminación, aquí surge también el concepto de sistema abierto y se incluye la posibilidad de
relacionarlos también con el ambiente que los rodea.

Paradigma de la Complejidad

E. Morin, comienza a partir de todo lo que desarrolla a conformar el discurso de la complejidad, afirma que
no planea llegar a desarrollarlo de forma completa ya que es inacabable, trata de situarse en el lugar del
movimiento en donde hay rupturas, integraciones y reflexiones sobre un saber, “en un pensamiento
complejo que conecte a la teoría a la metodología, a la epistemología y aun a la ontología” (Morin, 1998,
pág. 46). Manifiesta que es mejor llegar a articular un conocimiento manteniéndolo coherente entre la
teoría, la metodología y la epistemología y también abierto, a diferencia de otras ciencias que articulan un
conocimiento igual de amplio, pero se reducen a repetir generalidades. Plantea la conformación de un
discurso multidimensional no totalitario, teórico, pero tampoco doctrinario contrario a los presentes en esa
época. Un discurso abierto a la incertidumbre, a la trascendencia y evolución, sin ideales. Morin, propone
una unidad de la ciencia, algo imposible por la diversidad de miradas dentro de la comunidad científica.
Realiza una crítica expresando que la ciencia se ha vuelto ciega por su incapacidad de articular y relacionar
todos los conocimientos que posee “...el espíritu humano no puede aprehender el enorme conjunto del
saber disciplinario, hace falta, entonces, cambia, ya sea al espíritu humano, ya sea al saber disciplinarizado”
(Morin, 1998, pág. 49).

Edgar Morin, plantea que para poder abordar y captar el paradigma de la complejidad, primero hay que ir un
paso atrás y comprender el paradigma de la simplicidad.

En cuanto a la palabra paradigma, el mismo hace referencia a una construcción de ideas, un cierto tipo de
nociones claves que tiene una relación lógica extremadamente fuerte entre nociones maestras. El término
paradigma, es un término que se utiliza con frecuencia hoy en día.

Retomando el paradigma de la simplicidad, el mismo es un paradigma que pone el acento en el orden en el


universo, y a su vez persigue el desorden. Con esto último, quiere decir lo siguiente, en cuanto al orden, se
reduce a una ley, a un principio. Orden y desorden son enemigos uno del otro, pero sin embargo cooperan
de alguna manera para organizar el universo, es decir, orden y desorden se sirven de uno y del otro, y de
esta manera organizar el universo. La simplicidad ve a lo uno y ve a lo múltiple, pero no puede ver que lo
Uno puede, al mismo tiempo, ser Múltiple. Daría lugar a pensar que el mundo se organiza desintegrándose.

“La complejidad de la relación orden/desorden/organización surge, entonces, cuando se constata


empíricamente qué fenómenos desordenados son necesarios en ciertas condiciones, en ciertos casos, para
la producción de fenómenos organizados, los cuales contribuyen al incremento del orden” (Morin, 1998,
pág. 58).

Morin, plantea tres instrumentos que nos permitirán conocer el universo completo. Dichos instrumentos son
de naturaleza racional, los mismos son, razón, racionalidad, y racionalización.

En cuanto, a la Razón, “corresponde a una voluntad de tener una visión coherente de los fenómenos, de las
cosas y del universo. La razón tiene un aspecto indiscutiblemente lógico” (Morin, 1998, pág. 64).

Acerca de la Racionalidad, la misma

“es el juego, el diálogo incesante, entre nuestro espíritu, que crea las estructuras lógicas, que las aplica al
mundo, y que dialoga con ese mundo real. Cuando ese mundo no está de acuerdo con nuestro sistema
57

lógico, hay que admitir que nuestro sistema lógico es insuficiente, que no se encuentra más que con una
parte de lo real. La racionalidad, de algún modo, no tiene jamás la pretensión de englobar la totalidad de lo
real dentro de un sistema lógico, pero tiene la voluntad de dialogar con aquello que lo resiste” (Morin, 1998,
pág. 64).

Por último, la Racionalización “consiste en querer encerrar la realidad dentro de un sistema coherente. Y
todo aquello que contradice, en la realidad, a ese sistema coherente, es descartado, olvidado, puesto al
margen, visto como ilusión o apariencia”. (Morin, 1998, págs. 64-65).

Teniendo en cuenta lo planteado anteriormente, persuadimos que los últimos dos instrumentos, tienen
exactamente la misma fuente, pero al desglosarse las mismas se vuelven enemigas entre sí. Lo cual nos lleva
a la difícil tarea de no saber en qué momento pasamos de la racionalidad a la racionalización; no hay
fronteras; no hay señales de alarma.

Edgar Morin, resalta tres principios que son de utilidad, ya que los mismo ayudarían a pensar la complejidad.
Estos principios son los siguientes:

● El primero es el Principio Dialógico, a partir de lo señalado anteriormente de orden y desorden,


podemos explicar en qué consiste este principio dialógico, como se mencionó en párrafos
anteriores, estos conceptos son enemigos, pero se sirven uno del otro, ya que de este modo
colaboran y producen la organización y la complejidad. Lo cual quiere decir, que se trata del
principio dialógico, debido a que él mismo, nos permite mantener la dualidad en el seno de la
unidad. Asocia dos términos a la vez complementarios y antagonistas.

● El segundo es el Principio de Recursividad Organizacional, “un proceso recursivo es aquél en el


cual los productos y los efectos son, al mismo tiempo, causas y productores de aquello que los
produce”. (Morin, 1998, pág. 67). Por ejemplo, el remolino. Entonces, la recursividad es una idea
que rompe con la idea lineal de causa/efecto, ya que todo lo que es producido reentrada sobre
aquello que lo ha producido en un ciclo en sí mismo auto-constitutivo, auto-organizador, y
autoproductor.

● El tercero es el Principio Hologramático, plantea que “no solamente la parte está en el todo, sino
que él está en la parte” (Morin, 1998, pág. 68). Cabe señalar también, que este principio está
presente tanto en lo biológico y lo sociológico. Ante lo cual, el holograma trasciende al
reduccionismo.

La Complejidad y la Acción

Se plantea que la acción es estrategia. Se entiende, por estrategia, que la misma permite a partir de una
decisión inicial, imaginar un cierto número de escenarios para la acción, ante lo cual se podrán modificar
dichos escenarios, teniendo en cuenta la información presente en el curso de la acción, como así también los
elementos aleatorios que sobrevendrán y perturbarán la acción. En cuanto al término acción, se plantea que
la misma es una apuesta.

Por un lado, la estrategia saca ventaja del azar. Y por el otro, el dominio de la acción es de manera muy
aleatoria e incierto.

En cuanto, al término de ecología de la acción, se plantea a partir del momento en que

“un individuo emprende una acción, cualesquiera que fuere, ésta comienza a escapar a sus intenciones. Esa
acción entra en un universo de interacciones y es finalmente el ambiente el que toma posesión, en un
58

sentido que puede volverse contrario a la intención inicial. A menudo, la acción se volverá como un
boomerang sobre nuestras cabezas. Esto nos obliga a seguir la acción, a tratar de corregirla” (Morin, 1998,
pág. 73).

Ante lo cual, lleva a plantear que la acción supe complejidad, en sentido hace referencia a que toma
elementos aleatorios, azar, iniciativa, decisión, conciencia de las derivas y de las transformaciones.

La máquina no trivial, también planteada por el autor, la misma se explica a continuación; la sociedad, los
seres humanos, son máquinas no triviales. En este sentido, se hace referencia a que “es trivial una máquina
de la que, cuando conocemos todos sus inputs, conocemos todos sus inputs” (Morin, 1998, pág. 74). Se hace
mención anteriormente, que nosotros también somos máquinas triviales, ya que de estas se puede con
amplitud predecir comportamientos. Observamos como la vida social, en cierto modo exige que nos
comportemos como máquinas triviales. En momentos de crisis o de decisión, la máquina se vuelve no trivial,
ante lo cual actúa de una manera que no podemos predecir. Lo que refiere al surgimiento de lo nuevo
corresponde a lo no trivial.

Se plantea que la complejidad no es una receta para conocer lo inesperado. Pero esto tiene su ventaja, ya
que nos vuelve prudentes. La complejidad, nos muestra que no debemos caer en el contemporaneismo. Sino
de lo contrario, tener conocimiento de que todo lo que sucede en nuestra vida es inesperado.

Lo que lleva al planteamiento del pensamiento complejo, el cual no rechaza, a la claridad el orden o
determinismo. Sin embargo, los concibe como insuficientes, sabe que no podemos programar la acción de
los mismos.

“La complejidad necesita una estrategia''. (Morin, 1998, pág. 75). Es decir, que en situaciones normales la
conducción automática es posible, pero la estrategia se impone cuando sobreviene lo inesperado, o un
problema importante.

Mandamientos de la Complejidad

En 1982, en su libro, “Ciencia con conciencia”, se mencionan los llamados por Morin “mandamientos de la
complejidad” (Morin, 1984) que son:

1. Validez, aunque insuficiente, del principio de universalidad.

2. Principio de reconocimiento y de integración de la irreversibilidad del tiempo. La historia debe


intervenir en toda explicación.

3. Reconocimiento de la imposibilidad de aislar las unidades elementales simples en la base del


universo físico.

4. Inevitabilidad de la problemática de la organización.

5. Principio de causalidad compleja, que es una causalidad mutuamente interrelacionada.

6. Consideración de los fenómenos según una dialógica, incluyendo los eventos aleatorios.

7. Principio de distinción pero no de disyunción entre el objeto y su entorno.

8. Principio de relación entre el observador/concepto y el objeto observado/concebido.

9. Posibilidad y necesidad de una teoría científica del sujeto

10. Posibilidad a partir de una teoría de la auto-reproducción y de la auto-organización, de introducir


y reconocer física y biológicamente las categorías de ser y de existencia.
59

11. Posibilidad a partir de una teoría de la auto-producción y de la auto-organizacion, de reconocer


científicamente la noción de autonomía.

12. Reconocer los límites de la demostración lógica en el seno de los sistemas formales complejos.

13. Pensar en forma dialógica y mediante macroconceptos, para unir de forma complementaria
nociones antagonistas.

Epistemología de la Complejidad

Pensar en Epistemología es pensar en el conocimiento, en los modos de conocimiento. Morin reitera la


necesidad de que el pensamiento complejo pueda reintegrar al observador en su observación, el sujeto es
totalmente sujeto y totalmente objeto al mismo tiempo, aquel que decida recorrer el camino que implica
pensar de manera compleja va a implicar también ser confrontado por aquellos autodenominados
“especialistas”, tolerando críticas y considerando el surgimiento de posibles malentendidos.

Morin no ha concebido una “complejidad perfecta”, que puede ser oponible a la simplificación absoluta,
pero esta complejidad lleva consigo una imposibilidad de unificar, siempre implica parte de incertidumbre. Y
es por esto mismo que se le atribuye a Morin ser un apologista del desorden, que disuelve todo lo objetivo
en la subjetividad.

Hablar de las ciencias históricamente ha implicado pensar en la oposición, el productor de saberes y el no-
productor o los vulgarizadores, aunque en la realidad vemos zonas intermedias, no tan rígidas. El siglo XIX ha
evidenciado un interrogante sobre las ciencias; mientras que por un lado la física evidenciaba un mundo
basado en el principio de desorden, por otro lado, los historiadores y la biología guiada por Darwin enseñaba
un principio de progresión de las cosas organizadas. Y ambos principios son parte de la misma realidad.
Considerar la complejidad será reconocer que en un momento algo cambia y lo que será imposible aparece
como posible, hay que descifrar un camino por el cual sería posible que hubiera una reorganización y un
desarrollo del conocimiento.

La complejidad no es la respuesta, sino el desafío, e incluye la imperfección, la incertidumbre y el


reconocimiento de lo irreductible; y la simplicidad es necesaria, pero al mismo tiempo debe ser relativizada.
“La complejidad es la unión de la simplicidad y de la complejidad”

Pensar que la ciencia clásica ha avanzado de manera ideal, lineal y progresista, es ignorar que, a pesar de
este ideal simplificador, la ciencia ha progresado porque era compleja. “la ciencia se funda sobre el consenso
y a la vez sobre el conflicto” (Morin, 1998, pág. 94). La complejidad científica implica la presencia de lo no
científico dentro de lo científico, que no lo anula, sino que le permite expresarse.

Entre más complejidad, más interacciones y más aleatoriedad, encuentran su límite en la desintegración. El
orden, el desorden y la organización son interdependientes, y ninguno es prioritario.

Los conceptos deben viajar, pero también dice que “viajan clandestinamente”. Esta migración de los
conceptos permite que las disciplinas se des-asfixien, si no se moverían, la ciencia estaría totalmente
trabada, no avanzaría.

Paradigma e ideología

Morin propone una definición de paradigma que podría situarse entre medio de la definición de la lingüística
estructural y la definición brindada por Khun “es un tipo de relación lógica (inclusión, conjunción, disyunción,
exclusiva) entre un cierto número de nociones o categorías maestras (...) privilegia ciertas relaciones lógicas
en detrimento de otras, y es por ello que un paradigma controla la lógica del discurso. El paradigma es una
manera de controlar la lógica y, a la vez, la semántica.” (Morin, 1998, pág. 99).
60

A Diferencia de esta noción de paradigma, Morin considera la ideología desde un sentido neutro, se trata de
un sistema de ideas, que no critica ni designa ideas de otros.

La Razón

Puede definirse por el tipo de diálogo que se mantiene con el mundo exterior que le opone resistencia. La
verdadera racionalidad es aquella que es profundamente tolerante con los misterios, mientras que una
“falsa racionalidad” suele tratar como primitivos, o pre lógicos a poblaciones donde la complejidad de
pensamiento se escapa de lo instituido en el ambiente científico, aunque como recalca en “El Paradigma
perdido” (1973), la humanidad tiene diversos comienzos, ha nacido muchas veces y puede volver a hacerlo.

En la actualidad, hablamos de “edad de hierro planetaria”, en la cual las culturas y civilizaciones están
interconectadas permanentemente; pero a pesar de estas intercomunicaciones, nos encontramos en una
barbarie total en las relaciones entre razas, culturas, étnicas, potencias, etc. Continuamos sometidos a
modos mutilantes y disyuntores del pensamiento, lo que dificulta pensar todavía de manera compleja.

Y la complejidad planteada por Morin es un llamado a conformar una “civilización de las ideas”, donde las
teorías pueden convivir las unas con las otras sin recurrir a la barbarie con respecto a otras.
61

ESCUELA DE FRANKFURT
La Escuela de Frankfurt surge con la constitución del Instituto de Investigación Social de la Universidad de
Frankfurt entre los años 1923 y 1924. El Instituto es creado con el objetivo de analizar los fenómenos
sociales desde un punto de vista innovador desarrollando un método para el análisis y la investigación social,
basado en el abordaje interdisciplinar, tomando aportes de Hegel, Marx y Freud.

La evolución de la Escuela de Frankfurt sigue la misma evolución histórica de la sociedad del siglo XX. La
Escuela nace como una consecuencia ante los acontecimientos iniciados en Europa desde la década de los
años veinte, donde se plantea la necesidad de reflexionar sobre los procesos que consolidan la sociedad
burguesa capitalista.

La propuesta de la Escuela se basa en “un análisis crítico no sólo en relación a la teoría sino, también, a la
praxis y a la conjunción histórica de ambas” (Muñoz, s.f.).

Los principales autores que conformaron la Escuela de Frankfurt fueron: Max Horkheimer, Theodor Adorno y
Herbert Marcuse.

La trayectoria cronológica de la Escuela de Frankfurt se puede sintetizar en cuatro etapas:

1) La primera etapa comprendida entre 1923 y 1932, se caracteriza por la fundación del Instituto de
Investigación Social y la publicación de la Revista de Investigación Social. En esta etapa se establece
el carácter crítico de las investigaciones de la Escuela.

2) La segunda etapa inicia en 1932 y coincide con el ascenso del Nazismo, provocando el exilio y la
muerte de algunos de sus miembros fundamentales. Sin embargo, el contacto con la sociedad
norteamericana introduce el estudio de la sociedad post-industrial.

3) La tercera etapa comienza en 1950 hasta la muerte de Adorno en 1969 y de Horkheimer en 1973. Se
llevan a cabo los aportes teóricos y metodológicos de la Teoría Crítica. Es la etapa en la que se
escriben las obras fundamentales de sus miembros.

4) La cuarta etapa se puede situar con el surgimiento de la segunda generación de frankfurtianos. Los
años setenta imprimen un giro nuevo a la temática crítica, al introducir paradigmas nuevos a la
teoría crítica.

Contexto Histórico

El Instituto de Investigación Social que dió origen a la Escuela de Frankfurt nació en Alemania en el periodo
de entreguerras. El ascenso de Hitler al poder conlleva al cierre en 1933 del Instituto. Otras consecuencias
del nazismo fueron el exilio y encarcelamiento.

Debido a esta situación los representantes de la Escuela emigran y se asientan en los Estados Unidos, en la
Universidad de Columbia en el año 1934. El exilio de los miembros les permitió realizar un análisis crítico
para comprender el contexto social y político característico de los Estados Unidos. Es así que, en Nueva York,
se consolida la denominación de Teoría Crítica gracias a las investigaciones de Horkheimer y Adorno.

A partir de 1948, las circunstancias políticas de Alemania tras el fin de la guerra, posibilitaron la vuelta de
algunos teóricos críticos como Horkheimer, mientras que otros pensadores se quedaron en EE.UU, como
Adorno y Marcuse. La “refundación” del Instituto de Investigación Social se convirtió en un acontecimiento
esencial para la sociedad alemana en el periodo posguerra ya que permitió resaltar la existencia de una
resistencia.

Principales autores de la Escuela de Frankfurt


62

Max Horkheimer

Filósofo, sociólogo y psicólogo judio-alemán (l895-l973)

Cofundador del Instituto de Investigación Social y su director desde 1931 hasta su muerte. Fue el impulsor
de los planteamientos filosóficos y sociológicos más característicos de la Escuela de Frankfurt.

Theodor W. Adorno

Filósofo judio-alemán. (l903-l969)

Los fundamentos teóricos que definen las preocupaciones centrales de Adorno son la personalidad
autoritaria, el funcionamiento de las masas en el Nazismo y en la posterior sociedad post-industrial, los
problemas estéticos que afectan a la creación artística y musical.

Herbert Marcuse

Filósofo y sociólogo alemán. (1898-1979)

Su incorporación a la Escuela data del año 1933, emigrando al año siguiente a los Estados Unidos. País en el
que permanecerá y en el que llevará a cabo la gran mayoría de su producción intelectual.

Walter Benjamin

Filosofo, critico literario y ensayista alemán de origen judío (1892-1940).

Benjamin mantuvo una extensa correspondencia con Adorno y ocasionalmente recibió financiación de la
Escuela de Frankfurt bajo la dirección de éste último junto con Max Horkheimer.

Teoría Crítica

Esta teoría es formulada por primera vez en 1937 por Max Horkheimer en su obra “Teoría tradicional y
Teoría crítica”. Este texto constituye una suerte de manifiesto de la corriente frankfurtiana.

El significado básico de lo que los autores frankfurtianos entienden bajo el concepto de Teoría Crítica es el
análisis crítico, dialéctico e histórico de lo existente en cuanto “es” y frente a lo que “debería ser”. En este
punto la conjunción e influencia de Hegel-Marx se hace evidente. El estudio de lo que “es” conlleva a otra
investigación central de la escuela: los principios de dominación colectivos. Aquí se hace evidente la
influencia de referentes como Freud.

En consecuencia podemos decir que la síntesis de las tres grandes concepciones críticas: Hegel- Marx- Freud
permiten a los pensadores de la Escuela de Frankfurt realizar una revisión y análisis crítico de lo irracional, lo
racionalizado o convertido en un principio de dominación y sus efectos sociales e históricos.

La Teoría Crítica frente a la Perspectiva Tradicional

Desde la perspectiva tradicional se entiende por teoría a un conjunto de proposiciones acerca de un campo
de objetos, y esas proposiciones están de tal modo relacionadas unas con otras, que de alguna manera
pueden deducirse las restantes. Nunca una teoría deja de ser una hipótesis que confronta su validez con los
hechos. La máxima aspiración de esta postura es la construcción de un aparato conceptual de la mayor
validez posible que pueda subsumir la realidad casi por completo. Se desarrollan reglas de deducción,
sistema de signos, procedimientos de los cuales sea factible servirse en cualquier momento. Esta perspectiva
constituye una suerte de generalización pegada a lo inmediato, estableciendo relaciones entre operaciones y
reglas lógicas.
63

El positivismo constituye la expresión más acabada de esta tendencia, ya que se desarrolla como una síntesis
de diversas tradiciones hegemónicas cuya característica común es el desarrollo de metodologías basadas en
las ciencias naturales y sustentadas en principios de cuantificación.

La teoría positivista se ocupa de los hechos positivos en tanto experiencias verificables, que se presentan de
forma repetida y están sujetas a leyes naturales invariables. Se apoya en la teoría tradicional en cuanto parte
de una realidad plana y estática. El positivismo arranca de una identificación con lo que “es”, con lo
convencionalizado considerado como orden universal e inmodificable.

Para Horkheimer, desde esta perspectiva la teoría se separa de la conflictividad social, corriendo el riesgo de
convertirse en ahistórica. Un proceso de transformación social no es explicable sólo desde operaciones
lógicas. Por el contrario, incluso la transformación de las estructuras científicas depende de la situación
social respectiva. La Teoría Crítica elaborada por la Escuela de Frankfurt supone una ruptura con la teoría
tradicional.

La Teoría Crítica “se opone radicalmente a la idea de teoría pura que supone una separación entre el sujeto
que contempla y la verdad contemplada, e insiste en un conocimiento que está mediado tanto por la
experiencia, por las praxis concretas de una época, como por los intereses teóricos y extrateóricos que se
mueven dentro de ellas” (Osorio, 2007). Se debe considerar a los seres humanos como activos, capaces de
provocar cambios; por tanto, debido al carácter cambiante de la humanidad, el método científico estático,
jamás tendrá éxito al estudiar la humanidad.

La razón instrumental: raíz del problema

La Escuela de Frankfurt concebía “el proceso histórico como un continuo en el cual el proyecto ilustrado no
se encuentra agotado, por lo cual sería necesario plantear su superación” (Concatti, 2009).

En “La Dialéctica del Iluminismo”, Horkheimer y Adorno consideran que la razón dialéctica con la que el
pensamiento ilustrado había nacido, se desvió en razón instrumental que es en definitiva la última
responsable del fracaso de las promesas modernas.

La crítica a la razón instrumental ocupa un importante lugar en el interior de la Teoría Crítica. La razón
instrumental tiene como fundamento a la racionalización, entendida como el uso del esquema medio-fin en
objetivos cuyo resultado último es el de consolidar lo “constituido”.Es decir, no apunta a la definición de
fines, a la obtención de una satisfacción en sí misma, al descubrimiento de un sentido, sino que se constituye
siempre en un medio, en un instrumento para la realización de finalidades que le son externas. Se trata de
fines cuya racionalidad, valor y sentido, no entra en discusión sino que se aceptan como dados, naturales y
eternos y por lo tanto no susceptibles de modificación. La racionalización lleva la teoría a devenir ideología.

Lejos de negar la ilustración y sus valores, los frankfurtianos buscan rescatarla de su desviación. Es así que, la
Teoría Crítica propone distinguir entre racionalidad y racionalización. La racionalidad siempre tendrá que ser
crítica. Por ello, la teoría que no deviene en ideología tiene que ser histórica, dialéctica y racional. Es en la
“Dialéctica Negativa de Adorno”, en donde se formulan las siguientes notas fundamentales de la Teoría
Crítica:

● Histórica, porque la teoría es la aclaración sobre la existencia humana, desde un ideal hegeliano de
humanización a través de un progreso constatable en la historia por los grupos que son dominados.

● Dialéctica, ya que su avance es a través de contradicciones captables desde un punto de vista


racional.

● Razón, entendida como un proceso de análisis causal, pero desde la comprensión de las
contradicciones en una dialéctica histórica.
64

El empobrecimiento de la experiencia

La Escuela de Frankfurt consideraba que la cultura no puede renunciar a necesidades tales como la
obtención de sentido, la experiencia profunda de la existencia y la contemplación del goce sin necesidad de
dominio. La preocupación de los frankfurtianos pasa por el tipo de experiencia que el conjunto de símbolos
con los que interpretamos la realidad nos posibilita. A través del análisis de la Escuela, se observa que en el
paso de la edad media a la modernidad, se deja de creer en la religión y se accede al pensar racional como
eje de la cultura. En este cambio, se produce una pérdida, un empobrecimiento de la experiencia del hombre
como consecuencia de la desaparición de valores que el pensamiento ordenado por la religión promovía. “En
el camino hacia la ciencia moderna los hombres renuncian al sentido. Sustituyen el concepto por la fórmula,
la causa por la regla y la probabilidad... a partir de ahora la materia debe ser dominada por fin sin la ilusión
de fuerzas superiores o inmanentes, de cualidades ocultas. Lo que no se doblega al criterio del cálculo y la
utilidad es sospechoso para la ilustración” (Horkheimer, Adorno, 1994)

Para los autores de Frankfurt, en el paso del medioevo a la modernidad Dios es reemplazado. Sin embargo,
el hombre va a seguir interrogándose cuestiones trascendentales. Este lugar lo ocupará el superhombre, un
hombre liberado del sometimiento a la religión pero con las herramientas suficientes para reemplazar a Dios
con sus propias capacidades.

Tras el capitalismo tardío, puede considerarse a la cultura como una industria, efecto de la alianza entre
cultura y entretenimiento. El consumo de productos culturales es evaluado y analizado como cualquier otro
producto de consumo, sin referir a su contenido y menos aún a las posibilidades que ese contenido ofrece
para el desarrollo de una actitud crítica respecto del orden existente.

La Teoría Crítica en contexto

Lo característico de la Escuela de Frankfurt y su pensamiento crítico es el estudio e investigación de los


fenómenos sociales de la época con un método basado en la interdisciplinariedad. En sus investigaciones
confluyen: el hegelianismo, el marxismo y el psicoanálisis.

Para estos pensadores las problemáticas sociales y políticas se debían a la forma en que estaban diseñadas
las sociedades modernas. El análisis del contexto social y político que se vivía en Alemania y Estados Unidos
les permitió reconocer que las interacciones sociales tenían un carácter instrumental, es decir, solo estaban
enfocadas en conseguir beneficios utilizando a las personas como medios para obtener fines.

Así, la denominada razón instrumental mantenía un papel central en los distintos contextos, como la
encargada de dirigir la convivencia y los procesos sociales.

Los autores frankfurtianos profundizaron su análisis encontrando que el mecanismo gracias al cual la razón
instrumental lograba perpetuarse a lo largo del tiempo y en diferentes contextos sociales era la cultura, ya
que permitia preservar el estado de las cosas y las relaciones de poder existentes.

Los elementos culturales producidos masivamente, que logran programar socialmente las palabras,
actitudes, opiniones y comportamientos de la sociedad, volviéndola homogénea y uniforme son lo que se
denominó Cultura de Masas.

El resultado final de la perpetuación de la razón instrumental y la uniformización a través de símbolos


culturales, es un escenario en donde no hay lugar para la crítica.

Para los miembros de la Escuela de Frankfurt, una sociedad que se construye sobre esta base es terreno
fértil para que aparezcan diferentes patologías de la convivencia: la desigualdad, la discriminación, , el
extremismo, el fanatismo, etc. Estos problemas son los causantes de fenómenos más graves como el
65

autoritarismo, el fascismo, las guerras o el populismo. Para Horkheimer, la subordinación de la razón


objetiva en razón instrumental puede considerarse como “la enfermedad de la razón”.

La Teoría Crítica de la Escuela de Frankfurt proporciona las bases para contrarrestar las visiones heredadas
de la razón instrumental y la cultura de masas.

Es una teoría que al mismo tiempo que aspira a una comprensión de la situación histórico-cultural de la
sociedad, aspira también a convertirse en la fuerza transformadora de la misma en medio de las luchas y las
contradicciones sociales

¿A qué corriente se opone la Escuela de Frankfurt?

La Escuela de Frankfurt, con su formulación de la Teoría Crítica, se opone fundamentalmente al Círculo de


Viena, el cual se encuentra en la línea del Positivismo Lógico y la Teoría Tradicional.

Mientras los frankfurtianos insisten en un conocimiento mediado por la experiencia y las praxis concretas de
una época, los representantes del Círculo de Viena plantean la posibilidad de una teoría pura, desligada
totalmente del contexto y de cualquier interés que no sea científico.

Desde la Teoría Crítica se cuestiona la separación absoluta que sostiene el positivismo lógico entre el sujeto
que conoce y el objeto conocido, ya que, esto es lo que hace que se pierda el aporte a la ciencia por parte
del sujeto investigador, cayendo en un absolutismo de los hechos proponiendo un solo orden establecido.

Los positivistas plantean que cuanto menos interfiera el investigador en lo investigado, más objetiva y
verdadera será la investigación, pero de este modo las ciencias pierden el carácter transformador, pasando a
ser un mero instrumento para reproducir este orden establecido.

Otro aspecto en que se diferencian ambas escuelas, es que mientras el Círculo de Viena relega la filosofía, la
metafísica y la teología, realzando la física y las ciencias positivas buscando unificar la ciencia por la vía del
análisis lógico, la Escuela de Frankfurt adopta una perspectiva interdisciplinar, sumando aportes de
diferentes disciplinas como ser la sociología, la psicología, el psicoanálisis, la teología protestante y la crítica
de la cultura.

Ontología, epistemología y metodología

“Los paradigmas de investigación definen para los investigadores qué es lo que están haciendo y qué cae
dentro y fuera de los límites de una investigación legítima” (Guba y Lincoln, 2002.).

Según Guba y Lincoln, los paradigmas se definen a partir de creencias básicas, que proporcionan las
respuestas a tres preguntas fundamentales, referidas a la ontología, la epistemología y la metodología. De
acuerdo a lo planteado por los autores en “Paradigmas en competencia en la investigación cualitativa”, la
Teoría Crítica responde de la siguiente manera:

- Pregunta Ontológica: ¿Cuál es la forma y la naturaleza de la realidad, y por lo tanto, qué es lo que
podemos conocer de ella?.

La Teoría Crítica, para responder a la misma, se posiciona en el realismo histórico, suponiendo comprensible
una realidad que en un principio era plástica, pero que por la influencia de factores sociales, políticos,
culturales, económicos, étnicos y de género, se materializa o cristaliza, siendo ahora una realidad
comprensible que consiste en estructuras históricamente situadas, tan limitantes como si fueran reales,
naturales e inmutables.

- Pregunta Epistemológica:¿Cuál es la naturaleza de la relación entre quien conoce o busca conocer, y lo que
puede ser conocido?.
66

La relación que se establece entre quien conoce y lo que puede ser conocido, de acuerdo a la Teoría Crítica,
es transaccional y subjetivista. Esto quiere decir que sujeto y objeto se encuentran vinculados
interactivamente, por lo tanto, los valores del investigador ejercen influencia sobre la investigación, y los
hallazgos obtenidos se encuentran mediados por los mismos. Lo que puede ser conocido va a estar
determinado por la interacción que se establezca entre un sujeto particular (el investigador) y un objeto
particular (a ser investigado).

- Pregunta Metodológica: ¿Cómo puede el investigador arreglárselas para averiguar si lo que él/ella cree,
puede ser conocido?.

La Teoría Crítica, utiliza en su metodología la dialógica y la dialéctica, ya que al ser una relación
transaccional, es necesaria la existencia de un diálogo entre el investigador y lo investigado. Dicho diálogo
debe fundarse en la dialéctica, para transformar la ignorancia, mediante la exposición y confrontación de
razonamientos y argumentaciones, en una conciencia más informada. Esto va a permitir reemplazar la
concepción inmutable de las estructuras, por el reconocimiento del cambio en las mismas, entendiendo las
acciones necesarias para efectuar dicho cambio.

Algunos tópicos de la Escuela de Frankfurt

Con el correr de los años, se han realizado interpretaciones erróneas de la Escuela de Frankfurt en cuanto a
la Teoría Crítica.

De todas estas interpretaciones, la más difundida es la que tilda a la escuela de “elitista”. “La crítica a la
Cultura de Masas, en cuanto proceso de destrucción intelectual de las poblaciones de las sociedades de
consumo, se ha juzgado como actitud de “desprecio” a la misma sociedad.” (Muñoz, s.f) . Este aspecto es
totalmente opuesto a las intenciones de la escuela, que siempre hizo suyo el proyecto ilustrado.

A la Escuela de Frankfurt también se la juzga como apocalíptica y desilusionada, sosteniendo que se trata de
una teoría cerrada sobre sí misma que no es capaz de dar “soluciones reales”. Además, se conceptualiza la
Teoría Crítica como “teologicismo”, en el sentido de que se considera la abstracción como algo absurdo,
reclamando la utilización de métodos cuantitativos y empíricos a la escuela.

Por último, se intenta desacreditar a la Escuela desde la Epistemología, para lo cual se recurre al desprestigio
de las obras de Marx y de Freud, sosteniendo que la síntesis de estos dos autores resulta imposible en su
armonización crítica. En consecuencia, la denigración de los ejes conceptuales y temáticos dialectos y
psicoanalíticos lleva a una anulación de la Teoría Crítica, presentándola como carente de objetividad.
67

ESCUELA DE CHICAGO Y ESCUELA DE IOWA


El Interaccionismo Simbólico es una teoría que se gesta y nace en el campo de la Sociología, en la Escuela de
Chicago, a mediados del Siglo XX, en 1.937.

Su principal impulsor fue George Herbert Mead, y Herbert Blumer terminó de formularla y darle su nombre.

Sus exponentes fueron teóricos, investigadores y reformadores sociales de la Universidad de Chicago, de


Estados Unidos.

El ser humano es un creador de símbolos. Los símbolos se crean y comparten en las sociedades, ya que
resultan de un acuerdo para ser reconocidos como tales.

Lo que hace valioso a este grupo de pensadores, es la importancia que otorga a la comunicación y a las
relaciones interpersonales en el comportamiento humano. Las personas interactuamos y nos comunicamos
permanentemente en sociedad.

Se interesaron principalmente en el análisis de la acción humana, y los procesos subjetivos que entran en
juego en la misma.

Partiendo de la premisa de que las personas moldean su conducta en relación a los objetos del mundo, en
base a los significados que se les adjudican, se transmiten y actualizan en las interacciones sociales.

El interaccionismo simbólico pone así gran énfasis en la importancia del significado e interpretación como
procesos humanos esenciales. La gente crea significados compartidos a través de su interacción y, estos
significados devienen su realidad.

Un yo implica necesariamente la existencia de otros como miembros de la interacción, puesto que se crea y
mantiene a través de la interacción. El yo o la identidad no es por tanto más que una relación. De allí que en
el interaccionismo simbólico no se estudian las cualidades del individuo sino que su relación con los otros.

La interacción social ocurre primero y crea la autoconsciencia y la capacidad de reflexionar

Antecedentes principales

El primero que realizó aportes a lo que hoy conocemos como la teoría del Interaccionismo simbólico, fue
George Herbert Mead (1934) influenciado en particular por dos corrientes intelectuales: la filosofía del
Pragmatismo (1870) y el Conductismo (1913).

Pragmatismo

- Corriente filosófica, surge en Estados Unidos a finales del Siglo XIX.

- Fundador: Charles Sanders Pierce.

- Describe un proceso en el que la teoría se extrae de la práctica y se aplica de nuevo a la práctica.

- Las teorías pragmáticas de la verdad afirman que una proposición es verdadera si resulta útil o
funciona en la práctica.

Aportes del Pragmatismo que se evidencian en el pensamiento de Mead:

1. La verdadera realidad no existe “fuera” del mundo real, sino que se crea activamente a medida que
actuamos en y hacia el mundo.

2. Las personas recuerdan y basan su conocimiento del mundo sobre lo que ha resultado útil para ellas.
68

3. Las personas definen los objetos físicos y sociales con los que tienen relación en el mundo de
acuerdo con su utilidad.

3 Aspectos centrales del interaccionismo simbólico:

(1) Énfasis en el análisis de la interacción entre el actor y el mundo;

(2) una concepción del actor y del mundo como procesos dinámicos y no como estructuras estáticas; y

(3) la enorme importancia asignada a la capacidad del actor para interpretar el mundo social.

Conductismo

· Surge en Estados Unidos 1913. con publicaciones de John Watson. Propone el estudio objetivo de la
conducta

· Interés: observación de la conducta (E-R)

· Mead difería respecto a lo sostenido. Los sociólogos de Chicago afirman que la persona no reacciona
mecánicamente a los estímulos que provienen del mundo exterior, sino que sus acciones están mediadas
por la conciencia

· La conciencia: producto de la interacción de la persona con su entorno

Inicios de la Escuela de Chicago

Con el término Escuela de Chicago, se distingue un conjunto de trabajos de investigación realizado por
profesores y estudiantes del departamento de sociología de la Universidad de Chicago (EEUU), entre 1915 y
1940. A comienzos de los años cincuenta la Escuela de Chicago, cuya predominancia había terminado a
finales de la década de los treinta, empezó a disgregarse.

Se trata de una sociología urbana, que desarrolla una serie de estudios, íntimamente ligados a los problemas
sociales en la ciudad de Chicago, producidos, entre otras, por el crecimiento desproporcionado de la
población, dada la llegada de miles de inmigrantes, la rápida industrialización y urbanización, la influencia
cada vez mayor de los medios de comunicación, con la llegada de la radio, lo que da lugar a la opinión
pública, la caída de la bolsa de Wall Street, que llevó a que millones de personas se quedaran sin trabajo, lo
que aumentó considerablemente la pobreza y la marginalidad.

Para esta Escuela, la ciudad es un laboratorio social. Este interés por investigar el fenómeno social urbano a
partir de la observación participante, va a ejercer una influencia significativa.

Conceptos centrales
69

Esta Escuela se distingue por la importancia que otorga a la comunicación y a las relaciones interpersonales
para el comportamiento humano.

La comunicación es un proceso multidimensional y se encuentra sujeto a diferentes variables. Toda


comunicación es un acto social.

Un acto social implica dos o más actores, y su mecanismo básico es el gesto. Sólo los humanos están
capacitados para comunicar el significado consciente de sus gestos, gracias a la facultad de Lenguaje.

Las personas interactúan con objetos, de estos construyen símbolos a partir de los cuales crean y reformulan
significados de estos objetos, los cuales intervienen en la actitud y la conducta hacia estos. Un símbolo es un
signo que establece una relación de identidad con una realidad, generalmente abstracta, a la que evoca o
representa.

Otra de las principales propuestas es que la identidad se construye a través de la interacción, es siempre
simbólica, es decir, siempre significa algo. La mente se refiere a la capacidad de un individuo para usar
símbolos para crear significados, sirviéndose del lenguaje y el pensamiento para lograrlo.

La identidad individual está siempre en conexión con los significados que circulan en un grupo social. La
identidad surge como resultado de un proceso de identificaciones que tienen lugar con las personas más
próximas al niño, los “otros significativos” y posteriormente, con un “otro generalizado” es decir, la
Sociedad.

Entonces, en la interacción continua con los demás, se forma el self. La condición del self es la capacidad de
los individuos de salir «fuera de sí» es un proceso de definición del propio sí mismo, siempre cambiante y
dinámico. Posee el self físico, referido al cuerpo y a sus propiedades, y el self social, a lo que uno es con
relación a la sociedad. El mecanismo general del self es la capacidad de las personas de ponerse en el lugar
de otros con el fin de actuar como esos otros actúan y verse a sí mismas como las ven otros.

Otros conceptos centrales son el yo y el mí:

- El ‘’yo’’ se refiere a la capacidad de un individuo para reflexionar sobre la forma en que los demás lo
perciben. El “ yo” es la reacción del organismo a las actitudes de los otros.

- El “mí”, es aquella parte de la persona que responde a las actitudes de los otros adoptándolas como
suyas, incluye los roles sociales que le corresponde desempeñar y es la parte del self que los otros
conocen.

- El "mí” es la serie de actitudes organizadas de los otros que adopta uno mismo. Las actitudes de los
otros constituyen el “ mí” organizado, y luego uno reacciona hacia ellas como un "yo” .

Representantes de la Escuela de Chicago y aportes

George Herbert Mead

● Nació en 1863 en Massachusetts, y falleció en Chicago en 1931

● Filósofo pragmático, sociólogo y psicólogo social

● En 1883, se graduó en Oberlin. En 1887 decide ir a Harvard a continuar con sus estudios filosóficos.
Allí trabajó con Josiah Royce (filósofo) y William James (filósofo) quienes influyeron en sus puntos de
vista.

● Influencia de Darwin y la filosofía pragmatista.


70

● En Alemania realizó estudios filosóficos superiores. Estudió con Wilhelm Wundt, cuyo concepto del
“gesto” influyó profundamente en el trabajo posterior de Mead.

● En Leipzig conoció a Stanley Hall, psicólogo fisiológico americano.

● En 1889, Mead fue a Berlín para estudiar psicología y filosofía.

● En 1891 Mead fue nombrado profesor del Departamento de Filosofía y Psicología en la Universidad
de Michigan.

● Mead aceptó la invitación de John Dewey para unirse a él en la nueva Universidad de Chicago donde
más tarde llegaría a ser director del Departamento de Filosofía.

APORTES

La escuela de Chicago tiene como texto fundacional del interaccionismo simbólico al libro: Espíritu, Persona
y Sociedad, de George Herbert Mead, publicado después de su muerte.

Tres ideas de Mead

a. La historicidad del individuo como autoconciencia, es decir anterioridad histórica de la sociedad


sobre la persona individual.

b. La formulación de una hipótesis naturalista acerca del desarrollo del individuo autoconsciente a
partir de la matriz de las relaciones sociales.

c. La función esencial que en la formación del yo se asigna a la “adopción de papeles” y a la


internalización de lo sociocultural.

· El individuo consciente y pensante es lógicamente imposible sin un grupo social que le precede.

DESARROLLO DE CONCEPTOS TEORICOS

Comunicación simbólica

Mediante nuestra capacidad para crear un universo simbólico damos sentido a la realidad social, definimos
situaciones, guiamos nuestras acciones, nos relacionamos con el mundo y buscamos soluciones anticipando
acciones

Todos tenemos una idea acerca de nosotros mismos, de cómo y quiénes somos,en nuestra interacción con
otros vamos construyendo una imagen de nosotros.

La identidad surge como resultado de un proceso de identificaciones que tienen lugar con las personas más
próximas al niño “otros significativos” y posteriormente, con un “otro generalizado” es decir, la sociedad.

En cuanto a “mí” según Mead es aquella parte de la persona que responde a las actitudes de los otros
adaptándolas como suyas y el “yo” se corresponde con las reacciones que las actitudes de los otros nos
suscitan, dichas reacciones se encuentran influidas por el “mi”, pero no determinan la respuesta final que
adoptamos.

Acto

Mead considera el acto como la «unidad más primitiva» de su teoría.

Mead creía que el estímulo no provocaba una respuesta automática e irreflexiva en el ser humano.
71

Mead identificó cuatro fases del acto; las cuatro representan un todo orgánico ( están interrelacionadas
dialécticamente).

La primera fase es la del impulso, que entraña un «estímulo sensorial inmediato» y la reacción al estímulo. El
hambre nos proporciona un buen ejemplo. El actor (humano o animal) responde inmediata e
irreflexivamente al impulso, pero es más probable que el actor humano se detenga a considerar la respuesta
adecuada. Considerará no sólo la situación inmediata, sino también las experiencias pasadas y las posibles
consecuencias del acto.

La segunda fase del acto es la percepción, el actor busca y reacciona a un estímulo relacionado con el
impulso, en este caso el hambre y las diversas maneras disponibles de satisfacerla. La percepción implica
tanto los estímulos entrantes como las imágenes mentales que crean. Las personas no responden simple e
inmediatamente a los estímulos externos, sino que más bien consideran y sopesan la respuesta a través de
imágenes mentales.

La tercera es la fase de la manipulación. Incluye la acción que la persona emprende con respecto al impulso
para satisfacerlo.

el actor decide y lleva a la siguiente fase del acto, la consumación del acto que equivale a emprender la
acción que satisface el impulso original.

Gestos

- Gesto: es el mecanismo básico del acto social en particular y del proceso social en general.

- Ejemplo: pelea de perros → «conversación de gestos».

- Los humanos participan en conversaciones inconscientes de gestos.

- Diferencia gestos no significantes de gestos significantes.

- Importancia del gesto vocal.

Símbolos significantes

-Un símbolo significante es una suerte de gesto que sólo los humanos son capaces de realizar

- Sólo logramos la comunicación cuando empleamos símbolos significantes.

- El lenguaje implica la comunicación tanto de gestos como de sus significados

-un símbolo significante funciona mejor que un símbolo no significante en el mundo social.

-Mead define al pensamiento como «simplemente una conversación implícita o interna del individuo consigo
mismo por medio de estos gestos»

Los procesos mentales y la mente

En términos generales, Mead define la inteligencia como la adaptación mutua de los actos de los
organismos. Según esta definición, es claro que los animales inferiores tienen «inteligencia» porque se
adaptan unos a otros mediante las conversaciones de gestos. De modo similar, los humanos se adaptan unos
a otros a través del uso de símbolos no significantes (por ejemplo, las muecas involuntarias). Sin embargo, lo
que distingue a los humanos es que ellos también demuestran inteligencia, o que tienen capacidad de
adaptación mutua, a través del empleo de símbolos significantes. Mead mantiene que los animales tienen
«inteligencia irracional». A diferencia de ellos, los humanos tienen «razón». Lo más importante de la
inteligencia reflexiva( conversaciones consigo mismos) de los humanos es su capacidad de inhibir
72

temporalmente la acción, de demorar sus reacciones ante los estímulos. Como Mead señaló «La reacción
demorada es necesaria para la conducta inteligente . Distingamos los tres componentes que aquí se
encuentran. Primero, los humanos, debido a su capacidad para retrasar las reacciones, son capaces de
organizar en sus propias mentes el abanico de posibles respuestas a la situación. Los humanos poseen en sus
mentes los modos optativos de completar un acto social en el que están involucrados. Segundo, las personas
son capaces de elegir mentalmente, de nuevo mediante una conversación interna consigo mismas, varios
cursos de acción. A diferencia de ellas, los animales inferiores carecen de esta capacidad, por lo que eligen
las reacciones en el mundo real por el método del ensayo y el error. En los animales se da el método de
prueba y error. La selección mental de una respuesta poco adecuada no supone coste social alguno.

Finalmente, los humanos son capaces de elegir uno entre un conjunto de estímulos, en lugar de reaccionar al
primero de los estímulos más fuertes. Además, los humanos pueden elegir entre una serie de acciones
optativas, mientras los animales inferiores simplemente actúan. La capacidad de elegir entre una serie de
acciones hace probable que las elecciones de los humanos se adapten mejor a la situación que las reacciones
inmediatas e irreflexivas de los animales inferiores. Como Mead señala, «la inteligencia es, principalmente,
una cuestión de selectividad

Para Mead la conciencia debe explicarse como un proceso social.«La conciencia es funcional, no sustantiva; y
en cualquiera de los principales sentidos del término debe ser ubicada en el mundo objetivo, antes que en el
cerebro; No obstante, lo que está ubicado en el cerebro, lo que se lleva a cabo en él, es el proceso fisiológico
por el cual perdemos y recuperamos la conciencia. Las imágenes que, como símbolos, desempeñan un papel
tan importante en el pensamiento, pertenecen al medio.

Mead rechaza la idea de que el significado reside en la conciencia: «La conciencia no es necesaria para la
presencia de significado en el proceso de la experiencia social». Asimismo, Mead rechaza la idea de que el
significado sea un fenómeno «psíquico» o una «idea». Antes bien, el significado reside dentro del acto social:
«La significación surge y reside dentro del campo de la relación entre el gesto de un organismo humano
dado y la subsiguiente conducta de dicho organismo, en cuanto es indicada a otro organismo humano por
ese gesto. Si el gesto indica efectivamente a otro organismo la conducta subsiguiente (o resultante) del
organismo dado, entonces tiene significación. Es la respuesta adaptativa del segundo organismo la que da
significado al gesto del primer organismo. El significado de un gesto puede considerarse como la «capacidad
de predecir la conducta probable». Si bien puede encontrarse en la conducta, el significado se hace
consciente sólo cuando va asociado a símbolos. Sin embargo, mientras el significado puede hacerse
consciente entre los humanos, está presente en el acto social con carácter previo a la aparición de la
conciencia y la conciencia del significado.

Como la conciencia, la mente, que para Mead es un proceso y no una cosa, se define como una conversación
interna con nosotros mismos, no se encuentra dentro del individuo; no está ubicada en el cerebro, sino que
es un fenómeno social. Surge y se desarrolla dentro del proceso social y es una parte fundamental del
mismo. Así, el proceso social precede a la mente y no es, como muchos creen, producto suyo.

El Self

El self es la capacidad de considerarse a uno mismo como objeto. El self surge con el desarrollo y a través de
la actividad social.

El mecanismo general para el desarrollo del self es la reflexión, o la capacidad de ponernos


inconscientemente en el lugar de otros y de actuar como lo harían ellos. A resultas de ello, las personas son
capaces de examinarse a sí mismas de igual modo que otros las examinan a ellas.

Es decir, uno es consciente de lo que está diciendo y capaz de controlar lo que está diciendo.
73

Mead sitúa la génesis del self en dos etapas del desarrollo infantil.

La primera es la etapa del juego, durante la cual el niño aprende a adoptar la actitud de otros niños
determinados. «juegan a ser otro». El niño empieza construir su self. Se trata de un self limitado, porque el
niño sólo es capaz de adoptar el papel de otros determinados y particulares. Los niños juegan a ser «mamá»
y «papá» y en ese proceso desarrollan la capacidad de evaluarse como lo hacen sus padres y otros individuos
determinados. Sin embargo, carecen de un significado de sí mismos más general y organizado.

Es la siguiente etapa, la etapa del deporte, la que resulta necesaria para el desarrollo de un self en el pleno
sentido. Si en la etapa del juego el niño adopta el papel de otros determinados, en la etapa del deporte el
niño adopta el papel de todos los que están involucrados en la interacción.

En la etapa del juego los niños no constituyen grupos organizados porque juegan a representar una serie de
papeles determinados. carecen de personalidades definidas. Sin embargo, en la etapa del deporte , se
comienza a perfilar la personalidad.

La etapa del deporte contiene uno de los conceptos más conocidos de Mead, el otro generalizado. El otro
generalizado es la actitud del conjunto de la comunidad.

De suma importancia también es que las personas sean capaces de evaluarse a sí mismas desde el punto de
vista del otro generalizado y no simplemente desde el punto de vista de otros determinados.

De tal modo el self llega a su pleno desarrollo organizando esas actitudes individuales de otros en las
actitudes organizadas sociales o de grupo

Por decirlo de otro modo, el self requiere ser miembro de una comunidad y conducirse según las actitudes
comunes a la comunidad.

El grupo influye sobre la conducta de los individuos a través del otro generalizado.

Pero Mead especifica que cada self es diferente de los demás.

Además, es evidente que no existe en la sociedad un único y gran otro generalizado sino muchos otros
generalizados debido a la pluralidad de grupos. Las personas tienen una pluralidad de otros generalizados y
una pluralidad de selfs.

Además, las personas no tienen necesariamente que aceptar a la comunidad tal y como es; pueden
introducir reformas y mejorarla.

Mead identifica dos aspectos o fases del self que denomina el «yo» y el «mí».

El «yo» es la respuesta inmediata de un individuo a otro. Es el aspecto incalculable, imprevisible y creativo


del self. Las personas no saben con antelación cómo será la acción del «yo». No somos totalmente
conscientes del «yo». Somos conscientes de él únicamente cuando se ha realizado el acto. Es el «yo» el que
nos permite desarrollar una «personalidad definida».

Como toda personalidad es una combinación de «yo» y «mí»,

El «yo» reacciona contra el «mí», que es el «conjunto organizado de actitudes de los demás que uno
asume». las personas son conscientes del «mí»el «mí» implica la responsabilidad consciente. La sociedad
domina al individuo a través del «mí». El «mí» permite al individuo vivir cómodamente en el mundo social,
mientras el «yo» hace posible el cambio de la sociedad.

PREGUNTA
74

La sociedad

- Proceso social que precede tanto a la mente como al self.

- Representa el conjunto organizado de respuestas que adopta el individuo en la forma de «mí».

- Institución: «respuesta común de la comunidad» o «los hábitos vitales de la comunidad».

- Llevamos en torno nuestro este conjunto organizado de actitudes que, a través del «mí», sirven para
controlar nuestras acciones.

- La educación es el proceso mediante el cual los hábitos comunes de la comunidad (la institución) se
«internalizan» dentro del actor. Inflencia de la familia

- Instituciones: pueden destruir la creatividad y la individualidad. Deben ser flexibles y progresistas.

Herbert Blumer

-Herbert Blumer, nacido en Missouri, Estados Unidos, estudió en la Universidad de Missouri y fue un
sociólogo doctorado en la Universidad de Chicago

-Fue discípulo de Mead. Destaca la teoría que impulsa la corriente del interaccionismo simbólico

-En los años sesenta y setenta la autoridad de Blumer crecería como creador del término interaccionismo
simbólico

-Su pensamiento está orientado hacia el interaccionismo psíquico. Considera que los símbolos son
particulares y subjetivos.

El gran aporte de Blumer el Interaccionismo Simbólico son 3 premisas simples:

1) los símbolos permiten trascender el ámbito del estímulo sensorial y ampliar la percepción del
entorno, incrementando la capacidad de resolución de problemas y facilitar la imaginación y la
fantasía.

2) los significados son producto principalmente de la comunicación social. El objeto material, es el


signo que desencadena el significado, y el significado, el indicador social que interviene en la
construcción de la conducta.

3) las personas seleccionan, organizan, reproducen y transforman los significados en función de sus
expectativas y propósitos, y en base a esto realizan una interpretación.

Blumer crítico a las teorías sociologistas y psicológicas: Se declara que determinados tipos de conducta son el
resultado de unas fuerzas particulares que las producen.

Blumer, afirma que lo importante es el proceso por el cual el actor le da forma a su acto, por ello se oponía a
cualquier teoría psicológica que no considere por el cual el actor construye un significado.

El significado de una cosa no es sino la expresión de los elementos psicológicos que intervienen en la
percepción de la misma: por lo tanto, se pretende explicar el significado de esa cosa aislando los elementos
psicológicos concretos que producen el significado (sensaciones, sentimientos, ideas, recuerdos, móviles y
actitudes).

Establece cuatro concepciones centrales sobre los grupos humanos y la acción social:

- La gente, individual o colectivamente, está preparada para actuar sobre las bases del significado de los
objetos que comprenden su mundo.
75

- La asociación de la gente tiene necesariamente la forma de un proceso en el cual las personas hacen las
indicaciones de uno a otro e interpretan cada una de las indicaciones.

- Los actores sociales, individuales o colectivos, son construidos a través de un proceso en el cual los actores
notan, interpretan y evalúan las situaciones confrontadas por ellos.

- El complejo de interrelaciones de acciones que comprende la organización, las instituciones y las redes de
interdependencia, es móvil

Considera que la acción social y los movimientos sociales son procesos dinámicos, que no responden a
determinaciones conceptuales, por lo tanto, día a día se construye un tipo de historia.

Representante de la Escuela de Iowa y aportes

Manford Kuhn

- Principal representante: Manford Kuhn.

- Su pensamiento presenta divergencias con el pensamiento de Herbert Blumer, de la escuela de


Chicago.

- Para Khun, se puede predecir la conducta de los individuos y propone un método de estudio
empírico que operacionaliza las variables.

- Se pueden encontrar las causas de una conducta y predecirla.

- De orientación positivista y con la Sociología empírica ortodoxa, considera que los componentes del
“self” se pueden operacionalizar y medir.

- Desarrolló el hilo del interaccionismo cuantitativo.

- Desarrollo un instrumento de investigación: Prueba de las veinte afirmaciones.

Semejanzas y discrepancias entre Escuela de Chicago y Escuela de Iowa

Manford Kuhn y la Escuela de Iowa: abordaje cuantitativo del Interaccionismo Simbólico.

Herbert Blumer y la Escuela de Chicago: abordaje cualitativo

Kuhn, consideraba que todos los campos científicos, debían tender hacia la generalización y formulación de
leyes.

-Escuela de Iowa: la operacionalización de los conceptos principales estandarizada, para que las hipótesis
pudieran desarrollarse y probarse empíricamente. El yo se puede operacionalizar y medir

-La conducta de un individuo si se puede predecir. El objetivo final era generalización del comportamiento
humano.

Para Blumer y la Escuela de Chicago, la conducta no está determinada, no puede predecirse. Concibe al
sujeto como un organismo activo.

-Se interesaba por estudiar las interacciones de los individuos, los grupos, el significado de los símbolos y
cómo los cambios de símbolos cambian a las personas y su comportamiento

Puntos en común: Ambas escuelas comparten la importancia de los procesos de comunicación simbólica
para el surgimiento de la identidad.
76
77

LA METODOLOGÍA CUANTITATIVA
“La metodología cuantitativa es un conjunto de técnicas que se utiliza para estudiar las variables de interés
de una determinada población” (González y Sempere, 2012). Para tal fin se suelen utilizar técnicas de
recolección cuantitativas (por ejemplo las encuestas) y técnicas de análisis cuantitativo (estadística
descriptiva e inferencial)

Hernandez Sampieri afirma que: “el enfoque cuantitativo usa la recolección de datos para probar hipótesis,
con base en la medición numérica y el análisis estadístico, para establecer patrones de comportamiento y
probar teorías.”

La metodología cuantitativa tiene la posibilidad de plantear una serie de pasos generales (el problema,
diseño, recolección, análisis, interpretación y diseminación) que permiten estudiar un fenómeno de forma
estandarizada, de modo que se acotan en gran medida los sesgos del investigador. Además la comunicación
de los resultados en forma de estadísticas y gráficos, resulta fácil y rápida de entender. Esta suerte de
neutralidad le otorga un estatus de objetividad.

RESEÑA HISTÓRICA DEL ENFOQUE CUANTITATIVO

Antecesores

El enfoque cuantitativo tiene dos antecesores principales: el positivismo y el post positivismo.

El enfoque cuantitativo se origina en la obra de Auguste Comte y Émile Durkheim, (influenciados por Francis
Bacon, John Locke e Immanuel Kant). Por lo que podríamos decir que el abuelo de este enfoque es el
positivismo. Esta visión proclama que la realidad es una sola y es necesario descubrirla y conocerla. Aquí la
objetividad es muy importante. Los datos empíricos, los hechos, son lo único que cuenta. Por esto,
establecen como fundamental el principio de verificación

El positivismo fue reemplazado por el postpositivismo, este último está fundamentado en el primero pero es
más abierto y flexible. Este paradigma sostiene que: existe una realidad, pero solamente puede ser conocida
de manera imperfecta debido a las limitaciones humanas del investigador.

Línea de Tiempo

Es difícil definir con precisión cuándo se inicia el enfoque cuantitativo, ya que sus comienzos provienen de
distintas fuentes y su evolución ha sido continua. Algunos autores ubican sus comienzos desde Aristóteles,
mientras que otros en distintos puntos entre los siglos XVI y XVIII.

Aportes que fueron contribuyendo al surgimiento del enfoque cuantitativo:

Años 1700

-Gottfried Achenwall acuñó el término alemán “Statistik” para referirse al análisis de los datos del Estado,
particularmente en los censos poblacionales

-William Playfair, desarrolló las gráficas estadísticas como un mejor medio para representar resultados que
anteriormente se hacía en tablas

-Carl Friedrich Gauss (el de la curva de gauss) propone la desviación media, y alrededor de esa época genera
el análisis de la distribución normal

Años 1800

-Se empieza con las encuestas a nivel mundial


78

-Karl Pearson con su análisis de correlación de variables y sus medidas de tendencia.

-A finales del siglo XIX nace un pilar del enfoque cuantitativo que es la estadística.

-Entre 1890 y 1900 se desarrollan las primeras pruebas mentales (Galton, Binet, etc)

Años 1900

-Se comienza a hablar del a necesidad y el valor del grupo control en los experimentos

-Toman más fuerza los análisis estadísticos en el campo de la biología

-Spearman presenta su coeficiente

-La armada estadounidense comienza a usar pruebas psicológicas estandarizadas, (sobre todo durante la
Primera Guerra Mundial)

-Surgen los diseños experimentales de Thorndike.

-Las encuestas incrementan su popularidad en las primeras décadas del siglo XX

-Comienza la experimentación en ciencias sociales: se desarrollan pruebas psicométricas y de logro, y se


utiliza la estadística inferencial (es decir, las conclusiones son extendidas de la muestra a la población)

-Elton Mayo realiza sus experimentos en la planta de Hawthorne de la compañía Western Electric

-Se desarrollan pruebas de selección de personal y test estandarizados en diferentes campos

-Se consolida el análisis de varianzas y las pruebas de significancia en general. Surgen tablas estadísticas para
la investigación en agricultura, biología y medicina.

-Se comienzan a realizar estudios longitudinales.

-Para la década de 1950 la investigación cuantitativa se encuentra en su apogeo, surgen diversas encuestas,
experimentos, revistas científicas, diseños, etc. Comienzan también a desarrollarse las máquinas para
calificar pruebas (computadora) y programas de análisis de datos.

-En la década de 1980 se reta a las aproximaciones clásicas con las pruebas estadísticas, mediante el examen
de la magnitud de la relación entre variables, a través de la estimación del tamaño del efecto. Se introduce el
concepto de sensibilidad experimental

-En la última década del siglo XX surgen mediciones y análisis multivariados más complejos, se consolida la
idea de “poder de medición” mediante la utilización de diferentes instrumentos para medir las variables de
investigación. Los programas de análisis se sofistican y comercializan

Actualmente

En este tercer milenio se cuenta con gran cantidad de escalas y posibilidades de análisis sumamente
avanzados y diversos.

Cabe destacar que el primer enfoque de la investigación en desarrollarse completamente fue el


cuantitativo.

BASES EPISTEMOLÓGICAS DE LA INVESTIGACIÓN CUANTITATIVA

La epistemología de la investigación cuantitativa toma aportes de diferentes corrientes filosóficas; tales


como: el empirismo, el realismo, el positivismo, el neopositivismo y el postpositivismo.
79

EL EMPIRISMO

El empirismo es una corriente filosófica, que inicia con Francis Bacon quien establece que la ciencia debe
fundarse en la experiencia, con la utilización de los métodos de la observación y la experimentación. Sus
principales representantes son John Locke y David Hume.

Esta teoría plantea que todo conocimiento deriva de la experiencia sensible y esta es la única fuente de
conocimiento, ya que sin ella no se lograría alcanzar ningún saber.

Dos premisas fundamentales:

● La verdad absoluta no es accesible para el hombre.

● Toda verdad, a través de la experiencia puede ser modificada.

REALISMO

El realismo es una corriente filosófica que afirma que la existencia de la realidad es independiente de la
conciencia de su existencia. Y justamente, la realidad es cognoscible porque es independiente de la
subjetividad.

POSITIVISMO

La teoría positivista se caracteriza por los siguientes principios:

● Cientificismo: el método positivista sigue un proceso lineal de observación, inducción y


experimentación, tomado del campo de la física y las matemáticas. Este procedimiento permite conocer la
realidad a partir de la enunciación de leyes para poder predecirla y controlarla.

● Fragmentarismo: que remarca la idea de la escisión o separación entre el objeto y el sujeto de


investigación. Este principio manifiesta la intención de lograr objetividad y neutralidad en las investigaciones,
descartando la noción de la influencia mutua entre el sujeto y el objeto, permitiendo realizar un análisis en
partes de la misma realidad.

● Determinismo: afirma que todas las sociedades se rigen por leyes que determinan su devenir, de
modo que sólo resta descubrir cuales son y aceptarlas. Aquí no se contempla la transformación de las
sociedades a partir de sus acciones.

● Naturalismo: el positivismo se caracteriza por establecer una marcada distinción entre la teología y
la metafísica, enfoca su perspectiva en lo natural, relegando lo sobrenatural. Incluso, la cultura y lo social se
descartan para dar lugar a los procesos fisiológicos y biológicos. Es imprescindible comprender la realidad a
partir de los datos fenoménicos que ingresan a través de los sentidos.

El método positivista pone a verificación o constatación hipótesis a través de la experimentación, cuyo


resultado conocemos como leyes inductivas, es decir, conclusiones generales que arrojan información o
conocimiento con carácter de certeza absoluta, utilidad y precisión con la finalidad de ordenar los datos
fenomenológicos en un saber racional y objetivo.

NEOPOSITIVISMO O POSITIVISMO LÓGICO

El círculo de Viena fue un movimiento que propuso construir una doctrina sobre la estructura lógica del
conocimiento científico. Su visión científica del mundo, partía de la filosofía y buscaba generar un lenguaje
común a las diferentes disciplinas científicas.
80

Sus principales pilares fueron el empirismo y el logicismo, y orientaba su metodología en el método


inductivo. El Círculo de Viena, sostiene que el verdadero contenido científico legítimo es el que proviene de
la experiencia que se basa en lo dado inmediatamente, que sea logicista refiere a que resulta esencial la
aplicación del análisis lógico como método determinado.

POSTPOSITIVISMO

Popper considera que partir de enunciados particulares, no siempre se llega a enunciados universales, por
ende a leyes generales.

Popper sostiene la creencia que si la ciencia inicia en meras observaciones y dicta leyes universales con
carácter de verdad absoluta, no hay lugar al cuestionamiento o la prueba de esos enunciados, sólo queda
aceptarlos como verdades inmutables. De este modo, no se podrían apreciar los “puntos débiles” de la
teoría, por lo tanto, tampoco se podría mejorarlas.

La lógica del conocimiento se caracteriza por utilizar el método de contrastación o método deductivo. Se
trata de comparar, de buscar compatibilidad, equivalencia o incompatibilidad entre teorías tomando las
conclusiones a las que arriban. El proceso de la contrastación pone a prueba los enunciados universales de
las teorías con la finalidad de verificarlas o falsarlas.

Sin embargo, un primer momento de verificación o falsación de las teorías es temporario. Si la teoría
sometida a pruebas posteriores continúa siendo verificada, se la conoce como una teoría “corroborada” por
la ciencia.

La objetividad puesta en la práctica científica no debe estar impuesta como un dogma, algo radical sino más
bien, como algo deseable, entendiendo que lo clave es el proceso de contrastación y el carácter temporal de
los enunciados.

LA INVESTIGACIÓN CUANTITATIVA

El tema y su importancia

Una investigación, ya sea de enfoque cuantitativo, cualitativo o mixto, inicia por el surgimiento de una idea.
En el caso de la perspectiva cuantitativa, esta idea constituye un primer acercamiento a la realidad objetiva,
por lo tanto, se debe analizar cuidadosamente como así también, se debe adentrar en el tema en cuestión
para poder realizar planteamientos precisos y estructurados.

Conocer acerca del tema y de trabajos que se realizaron con anterioridad, permitirá enfocar nuestra
investigación en ideas novedosas o poder profundizar o aportar una visión diferente a aquellos temas que
fueron pocos profundizados.

El encuadre teórico

Para poder sustentar nuestra investigación, debemos acudir a la información preexistente en relación al
tema que elegimos. Esto se conoce como la revisión de la literatura. La finalidad de realizar este paso no sólo
se limita a revisar la bibliografía relevante, además, consiste en “detectar, consultar y obtener la bibliografía”
(Hernández, 2010, p. 53).

La selección de la información relevante resulta imprescindible realizar este “tamiz” de información porque
podemos encontrar estudios o teorías que respondan a nuestros objetivos de investigación de una forma
parcial o total.

A continuación se elabora el marco teórico en base a los datos recopilados en la revisión de la literatura. La
elaboración del marco teórico es una producción de autoría personal de los investigadores.
81

La perspectiva teórica cumple diversas funciones dentro de una investigación: Ayuda a prevenir errores que
se han cometido en otras investigaciones, orienta sobre cómo realizar el estudio, amplía el horizonte del
estudio o guía al investigador para que se centre en su problema y evite desviaciones del planteamiento
original, documenta la necesidad de realizar el estudio, conduce al establecimiento de hipótesis o
afirmaciones (o nos ayuda a no establecerlas por razones bien fundamentadas), inspira nuevas líneas y áreas
de investigación (Yurén Camarena, 2000), provee un marco de referencia para interpretar los resultados del
estudio.

Es decir, que la producción de la perspectiva teórica implica un proceso y un producto.

La metodología

Según Andrés Hueso y Josep Cascant existen 6 pasos tentativos y generales en los que se podría estructurar
una investigación: el problema (que incluye definición del objeto, estado del arte, objetivos de investigación,
marco teórico, y preguntas), diseño (que incluye la metodología, selección de técnicas, operacionalización y
muestreo), recolección de información, análisis de datos, interpretación de los resultados, conclusiones y
recomendaciones y por último la diseminación (incluye elaboración de informe y devolución)

Si bien desde Hernandez Sampieri estos pasos se distribuyen de manera diferente, la estructura contempla
las mismas temáticas, de modo que se describirán los mismos tomando tanto a Andres Hueso y Josep
Cascant como a Sampieri. Además, cabe destacar que cada investigación estará atravesada por una
perspectiva epistemológica específica, que determinará la forma de realizar la misma.

1- Planteamiento del problema

Una vez que se ha concebido la idea de investigación se encuentra en condiciones de plantear el problema
de investigación. Debe ser capaz de conceptuar el problema, escribirlo en forma clara, precisa y accesible.

El planteamiento del problema cuenta con 5 elementos que están relacionados entre sí, según el libro de
Sampieri:

-Objetivos de investigación: que pretende la investigación, señalan a lo que se aspira en la investigación.


Deben expresarse con claridad porque son las guías de estudio.

-Las preguntas de investigación: representan el “qué” de la investigación. Orientan hacia las respuestas que
se buscan. No deben utilizar términos ambiguos ni abstractos.

-Justificación de la investigación: indica el porqué de la investigación, exponiendo sus razones. Por medio de
ella debemos demostrar que el estudio es necesario e importante.

-La viabilidad: se debe tomar en cuenta la disponibilidad de recursos financieros, humanos y materiales que
determinarán los alcances de la investigación (Rojas, 2002); como así también es indispensable el acceso al
lugar o contexto donde se realizará la investigación y cuánto tiempo tomará.

-Evaluación de las deficiencias en el conocimiento del problema: es importante considerar: qué más
necesitamos saber del problema, qué falta estudiar o abordar, qué se ha olvidado o no se ha considerado,
etc. Esto nos permitirá saber dónde se encuentra ubicada nuestra investigación en la evolución del estudio
del problema y qué nuevas perspectivas podríamos aportar. Para Hernández Sampieri y Méndez (2009), este
elemento del planteamiento sólo se puede incluir si el investigador ha trabajado anteriormente o se
encuentra vinculado con el tema de estudio.

Finalmente, aunque no sea con fines científicos (pero sí éticos), es necesario que el investigador se cuestione
acerca de las consecuencias del estudio.
82

Desarrollo de la perspectiva teórica

Se trata de sustentar teóricamente el estudio, una vez que ya se ha planteado el problema de investigación.
Este paso incluye: detección, obtención y consulta de la literatura pertinente para el problema de
investigación, extracción y recopilación de la información de interés y finalmente la construcción del marco
teórico (ordenar la información recolectada e integrarla).

Definición del alcance de la investigación

Definir cuál será el alcance final de la investigación (no se deben considerar los “alcances” como tipos de
investigación). El alcance va a depender de: la revisión de la literatura, de la perspectiva del estudio, y de los
objetivos del investigador para combinar los elementos en el estudio. El alcance puede ser:

-Exploratorio: investiga problemas poco estudiados, desde una perspectiva innovadora, ayudan a identificar
conceptos promisorios y preparan el terreno para nuevos estudios

-Descriptivo: considera al fenómeno estudiado y sus componentes, miden conceptos y definen variables.

-Correlacional: ofrece predicciones, explican la relación entre variables y cuantifican relaciones entre
variables

-Explicativo: determina las causas de los fenómenos, generan un sentido de entendimiento y son
sumamente estructurados.

Formulación de Hipótesis

Las hipótesis son explicaciones tentativas del fenómeno investigado que se formulan como proposiciones,
son respuestas provisionales a las preguntas de investigación. Pueden ser de distintos tipos: de investigación
(dentro de ella tenemos las descriptivas, las correlacionales, de diferencia de grupos y causales), nulas,
alternativas o estadísticas.

Las hipótesis guían la investigación, indican lo que tratamos de probar, pero no todas las investigaciones
cuantitativas plantean hipótesis, esto va a depender del alcance inicial del estudio.

Entonces, lo que se hace en esta fase es: analizar la conveniencia de formular o no hipótesis que orienten la
investigación, formular las hipótesis de la investigación (si se ha considerado conveniente), precisar las
variables de las hipótesis, definir conceptualmente las variables de las hipótesis y definir operacionalmente
las variables de las hipótesis.

2- Diseño

Diseño se refiere al plan o estrategia concebida para obtener la información que se desea. Antes debemos
optar por una estrategia de investigación que puede ser cuantitativa, cualitativa o mixta. La estrategia va a
depender de la profundidad con la que deseamos comprender el fenómeno. Las técnicas cuantitativas son
útiles para obtener una imagen general en base a ciertas magnitudes de interés, mientras que las cualitativas
permiten profundizar en determinados aspectos.

Los diseños de investigación cuantitativa pueden ser de tipo:

-Experimental (administran estímulos o tratamientos) y dentro de estos tenemos los pre- experimentos,
cuasi- experimentos y experimentos puros

-No experimental, dentro de estos tenemos los transeccionales o transversales y los longitudinales o
evolutivos
83

Una vez elegido el diseño, se deben seleccionar las técnicas de recolección y análisis de la información, es
decir las herramientas más específicas de investigación.

Muestreo

El muestreo o selección de la muestra consiste en seleccionar una serie de sujetos para obtener información
de ellos. La muestra descansa en el principio de que las partes representan al todo. Pero para poder
generalizar, la muestra debe cumplir dos condiciones: ser suficientemente grande y ser seleccionada de
manera aleatoria

Los pasos a seguir en esta etapa serán: definir los casos (participantes u otros seres vivos, objetos,
fenómenos, sucesos o comunidades) sobre los cuales se habrán de recolectar los datos, delimitar la
población, elegir el método de selección de la muestra: probabilístico o no probabilístico, precisar el tamaño
de la muestra requerido, aplicar el procedimiento de selección, y finalmente obtener la muestra.

3- Recolección de datos

En este paso se debe definir la forma idónea de recolectar los datos de acuerdo con el planteamiento del
problema y las etapas previas de la investigación. Las técnicas de recolección de información pueden ser:

-Encuesta: es la técnica cuantitativa más habitual. Mediante la utilización de un cuestionario estructurado o


conjunto de preguntas, permite obtener información sobre una población a partir de una muestra. Las
preguntas de un cuestionario suelen ser cerradas y permiten obtener información de datos objetivos y
subjetivos.

-Las fuentes documentales y estadísticas: recolección de información a través de internet, bibliotecas,


organismos, etc. Obtener información ya recolectada previamente, es decir de fuentes secundarias, para
luego analizarlas estadísticamente.

-Medición y observación sistemática: utilizar aparatos de medición para determinar la magnitud de un


indicador o variable de interés.

La observación sistemática recoge información observable sobre un determinado aspecto de interés y de


acuerdo a un procedimiento establecido. El registro debe ser inequívoco y estructurado , de manera que los
datos sean uniformes y comparables de una observación a otra para su posterior análisis estadístico.

-Técnicas participativas: se aplican en una reunión o taller con los miembros de la comunidad, como los
grupos focales. Permiten que las personas investigadas participen en mayor medida y que se recoja y analice
colectivamente la información de forma simultánea.

Luego de elegida la técnica, procederemos a seleccionar o elaborar uno o varios instrumentos o métodos
para recolectar los datos requeridos, se aplican estos instrumentos o métodos, obtenemos los datos y los
codificamos. Por último archivamos los datos y los prepararemos para su análisis.

4- Análisis de datos

En esta etapa los pasos a seguir serán: decidir el programa de análisis de datos que se utilizará (en la
actualidad, el análisis cuantitativo de los datos se lleva a cabo mayormente por computadora), explorar los
datos obtenidos en la recolección, analizar descriptivamente los datos por variable, visualizar los datos por
variable, evaluar la confiabilidad, validez y objetividad de los instrumentos de medición utilizados, el
siguiente paso es analizar e interpretar mediante pruebas estadísticas las hipótesis planteadas (análisis
estadístico inferencial), realizar análisis adicionales, preparar los resultados para presentarlos.
84

Una vez que los datos se han codificado, transferido a una matriz, guardado en un archivo y “limpiado” de
errores, el investigador procede a analizar, resumir y presentar los datos de la muestra, con la ayuda de la
estadística descriptiva. Con el fin de generalizar esos datos de la muestra a la población mediante la
estadística inferencial.

Dentro de la estadística se distinguen la estadística matemática y la estadística aplicada; dentro de la


aplicada tenemos:

-La estadística descriptiva que se dedica a los métodos de organización, descripción, visualización y resumen
de datos originados a partir de la recogida de información. Los datos pueden ser resumidos numéricamente
mediante estadísticos o gráficamente.

-La estadística inferencial, que se dedica a sacar conclusiones sobre la población a partir de los datos de una
muestra.

5- Interpretación

Se refiere a la elaboración de los resultados. Algunos autores incluyen este paso en la etapa anterior.

6- Diseminación o Reporte de resultados del proceso

Se trata de la devolución a los sujetos involucrados en el estudio. Para esto deberemos establecer los
usuarios o receptores, ya que la presentación debe adaptarse a sus características y necesidades.

El reporte tiene como fin comunicar los resultados del estudio. Para su confección definiremos un tipo de
reporte a elaborar (formato), y tendremos en cuenta el contexto en el cual se presentará (académico o no
académico).

Finalmente, respecto del rigor o la calidad de una investigación, diremos que tradicionalmente la
metodología cuantitativa (desde una perspectiva positivista) debe cumplir con los siguientes criterios:
validez, generabilidad, fiabilidad, replicabilidad.

CARACTERÍSTICAS DEL PROYECTO SEGÚN EL ÁREA PSICOLÓGICA

Al desarrollar un proyecto en el área de la psicología desde el enfoque cuantitativo, se tiene que remarcar
que se realizan planteamientos acotados, mide fenómenos, utiliza la recolección de datos para probar
hipótesis con base en la medición numérica y el análisis estadístico, con el fin de establecer pautas de
comportamiento y probar o apoyar teorías.

La meta de la investigación del proyecto es describir, explicar, comprobar y predecir los fenómenos
aplicando la lógica deductiva. De lo general a lo particular (de las leyes y teoría a los datos).

Ante el proyecto, la persona que va a realizar el proyecto debe tener una posición imparcial y neutral, hacer
a un lado sus propios valores y creencias, intentando de esta manera asegurar procedimientos rigurosos y
“objetivos” de recolección y análisis de los datos, así como evitar que sus sesgos y tendencias influyan en los
resultados.

LA IMPORTANCIA Y POSIBILIDAD DE LA INVESTIGACIÓN CUANTITATIVA EN PSICOLOGÍA

Desde el área de la Psicología, la investigación cuantitativa llega a ser conveniente por diversos motivos. Tal
vez ayude a resolver un problema social, a formular o desarrollar una teoría nueva, aportar evidencias
empíricas que consoliden teorías ya existentes, se puede arribar a la creación de un nuevo instrumento para
recolectar o analizar datos, al desarrollo de nuevas técnicas de evaluación psicológicas, a la elaboración de
baremos estandarizados para las técnicas psicológicas ya existentes, se puede lograr mejoras en la forma de
85

experimentar con una o más variables, y buscar estudiar el psiquismo de las personas desde una perspectiva
con validez empírica e información objetiva.

INVESTIGACIÓN CUALITATIVA 
DESARROLLO HISTÓRICO DE LA INVESTIGACIÓN CUALITATIVA 

Los autores Kirk y Miller (1986) plantean que la investigación cualitativa es un fenómeno empírico, localizado
socialmente, definido por su propia historia.

 La perspectiva histórica de Hamilton:

En 1987 se inicia una polémica por un artículo de Jacob en el que se identifican cinco “tradiciones de
investigación cualitativa” con los nombres de:

-psicología ecológica

-etnografía holística

-etnografía de la comunicación

-antropología cognitiva

-interacción simbólica.

Esta clasificación hecha por Jacob (1987) es contestada por Atkinson, Delamont y Hammersley (1989)
señalando lo perjudicial que puede resultar la elaboración de esquemas clasificatorios. Hamilton en base a
esto, apoya la propuesta de Wolcott a favor de ofrecer un repertorio pluralista de posturas existentes en la
arena de la indagación cualitativa y dejar que sean ellos mismos los que encuentren su posición. Por ello se
dirá que las tradiciones sirven a modo de preferencias.

Para Hamilton (1994) la clasificación de Jacob se construye sobre un concepto de tradición similar a la noción
kuhniana de paradigma, o mejor, de matriz disciplinaria, que significa conjunto de ideas y técnicas
compartidas por los componentes de una comunidad científica.

En la perspectiva que traza Hamilton, la génesis de la investigación cualitativa se remonta a la aparición de


las ideas kantianas en la escena de una filosofía dominada por el cartesianismo, destacando los siguientes
puntos:

1- La obra de Descartes (1596-1650) y su proclamación de la importancia de las matemáticas y la


objetividad en la búsqueda de la verdad

2- El pensamiento filosófico de Kant (1724-1804), especialmente su Crítica a la razón pura en 1781,


que supone una ruptura con el objetivismo cartesiano y una apuesta por un modelo de racionalidad humana
(conocimiento) en el que adquieren relevancia la interpretación y la comprensión.

3- Otro aspecto del pensamiento Kantiano tiene que ver con la distinción entre Razón científica
(conocimiento teórico aplicable al establecimiento de verdades en el ámbito de la naturaleza) y Razón
práctica (conocimiento aplicado a la toma de decisiones en la acción humana o ámbito de la libertad moral).

4- Los neokantianos, con figuras destacables que trabajan en el alumbramiento de la indagación cualitativa
86

5- Dilthey (1833-1911) por su énfasis en la distinción entre ciencias de la naturaleza y ciencias del
espíritu o humanas

6- La influencia del pensamiento alemán, neokantiano en los Estados Unidos y en el Reino Unido

7- La revisión del “paradigma cartesiano/newtoniano”, tanto en los trabajos de los años ochenta y
noventa enmarcados en el estilo denominado investigación-acción, como en los escritos de “un
representante de la rama dialéctica del pensamiento neokantiano”.

El recorrido histórico de Vidich y Lyman:

De manera más didáctica y con la atención en la investigación cualitativa, Guba y Lincoln han abordado la
definición de los paradigmas en varios de sus escritos. Según estos autores los paradigmas deben entenderse
como sistemas de creencias básicas sobre:

a-La naturaleza de la realidad investigada (supuesto ontológico)

b- Sobre el modelo de relación entre el investigador y lo investigado (supuesto epistemológico)

c- Sobre el modo en que podemos obtener conocimiento de dicha realidad (supuesto metodológico)

Caracterización ontológica de los paradigmas

La raíz griega de la palabra ontología “on” “ontos” se refiere al ser en general. Por ello en este plano la
identificación de un paradigma se produce al conocer cuál es la creencia que mantiene el investigador
respecto a la naturaleza de la realidad investigada. Guba y Lincoln lo explican:

Si se asume un mundo real, entonces lo que puede conocerse de él es cómo son realmente las cosas y cómo
funcionan realmente las cosas. Pero tanto, únicamente son admisibles aquellas preguntas que se refieren a
asuntos de existencia real y de acción real; otras preguntas como las concernientes a asuntos de estética o
moral, caen fuera del ámbito de la investigación científica legítima.

Caracterización epistemológica de los paradigmas

El epistémico e epistemólogo sería el analista del saber, el técnico en producción de saberes o el autor de la
simulación del saber.

Se asumiría que el sujeto investigador y el objeto investigado son independientes (separables) y que puede
investigarse el objeto sin influirlo o ser influido por este.

Caracterización metodológica de los paradigmas

No se trata de una mera elección entre métodos cualitativos en lugar de métodos cuantitativos. Más bien
tiene que ver con los procedimientos metódicos que se derivan de las posturas adoptadas en los niveles
ontológico y epistemológico.

Si se ha partido de una realidad “real” (objetivamente aprehensible) y una separación sujeto-objeto, la


preocupación metodológica se centrará en el control experimental de posibles factores explicativos
alternativos. Si en cambio se ha partido de un realismo crítico (una realidad real pero sólo imperfectamente
y probabilísticamente aprehensible) y se defiende la comunicación sujeto-objeto, se practicará un mayor
interés por la utilización de métodos y técnicas cualitativas.

Esta triple caracterización del concepto de paradigma, aunque no agota todas sus implicaciones en la
práctica de la investigación social, aporta algunas aclaraciones terminológicas.
87

En efecto, la caracterización de los niveles ontológicos epistemológicos y metodológicos, conformando un


sistema de principios, parece inviable que el investigador pueda valerse de más de un paradigma. Por ello
algunos autores proponen el uso del término “perspectivas” para referirse a sistemas no tan cerrados en sí
mismos y más fácilmente utilizables por los investigadores, cualquiera sea su paradigma de adherencia.

Paradigmas en la investigación cualitativa

La clasificación más simple de la variedad de paradigmas la proporciona la versión de dos paradigmas


contrapuestos.

a- Paradigma prevaleciente, clásico, racionalista, positivista, de un lado.

b- Paradigma emergente, alternativo, naturalista, constructivista.

Del primero se dice que asume la existencia de una sola realidad objetiva averiguable a través de los cinco
sentidos, sujeta a las leyes universales de la ciencia, y manipulable mediante procesos lógicos.

El paradigma opuesto, en cambio, asumiría la existencia de realidades múltiples con diferencias entre ellas
que no puede resolverse a través de procesos racionales o aumentando los tamaños muéstrales. (Erlandson
y otros, 1993: 14)

EL PROCESO CUALITATIVO

Las investigaciones cualitativas se llevan a cabo en ambientes naturales de los participantes, las variables no
son controladas ni manipuladas, en principio se establecen conceptos generales no variables. A su vez, los
significados son tomados directamente de los participantes y los datos no se reducen a valores numéricos.  

¿Cuándo elegir una investigación cualitativa?

El propósito que subyace a la investigación cualitativa es estudiar la forma en que los “individuos perciben y
experimentan los fenómenos que los rodean, profundizando en sus puntos de vista, interpretaciones y
significados” (Hernández Sampieri, Fernández Collado, Baptista Lucio, 2014, p. 358), en relación con el
contexto. Es recomendable utilizar este tipo de investigación cuando el tema escogido para el estudio ha
sido poco explorado o no se realizaron investigaciones. 

El proceso cualitativo inicia con la idea de investigación, el enfoque cualitativo es inductivo. Una vez que
ahondamos en el tema, se puede elaborar el problema de estudio. El planteamiento cualitativo se constituye
por “el propósito y/o los objetivos; las preguntas de investigación; la justificación y la viabilidad; una
exploración de las deficiencias en el conocimiento del problema; la definición inicial del ambiente o
contexto”.

El primer elemento que lo compone es el propósito, la finalidad o el objetivo, el cual dirige la atención a la
idea fundamental de la investigación. En caso de plantear más de una intención principal, para lograr mayor
claridad, se elaboran objetivos complementarios.

Luego, elaboramos las preguntas de investigación, a las que pretendemos responder al finalizar el estudio y
así alcanzar los objetivos. Es necesario destacar que las preguntas de investigación y los objetivos deben ser
congruentes entre sí.

Poder justificar la importancia de la investigación es fundamental en aquellos casos en que la investigación


requiere de la aprobación de otras personas para poder realizarse. Para ello se consideran criterios de:
conveniencia, relevancia social, implicaciones prácticas, valor teórico y utilidad metodológica. La viabilidad
se evalúa según el tiempo, los recursos y las capacidades y se puede alcanzar al responder si es posible llevar
a cabo el estudio y si tenemos los recursos para hacerlo. Por último, se evalúan las deficiencias en el
88

conocimiento del problema, donde es necesario indicar qué contribuciones hará la investigación al
conocimiento actual.

 Las hipótesis no suelen establecerse antes de la inmersión en el contexto y la recolección de los datos.
Durante el proceso, el investigador va generando hipótesis de trabajo que se afinan conforme se recaban
datos, o bien son uno de los resultados del estudio. Es importante considerar que las mismas se pueden
modificar en función de los razonamientos del investigador y las circunstancias, no se prueban
estadísticamente ni pretenden ser probabilísticas.

Una vez que hemos elegido un ambiente, contexto o lugar apropiado para llevar a cabo la investigación,
comenzamos la tarea de responder a las preguntas de investigación; el contexto implica una definición
geográfica, pero es inicial, es decir que puede variar, ampliarse o reducirse.

En la inmersión inicial en el campo, las observaciones que el investigador realiza son múltiples y generales.
Así, al comenzar, observa lo más que puede y a medida que avanza la investigación se centra en los aspectos
relevantes relacionados con el planteamiento del problema, que como se mencionó anteriormente es
flexible y se puede ir modificando durante el transcurso de la investigación. El investigador puede utilizar
diversas herramientas para recabar datos sobre el contexto y completar las descripciones, como por ejemplo
utilizando las entrevistas o la revisión de documentos. Cada observación debe ser enmarcada.

La descripción del ambiente que realiza el investigador consiste en una interpretación detallada de los casos,
personas, objetos, lugares específicos y eventos del contexto, con lo cual debe poder transportar al lector al
sitio de la investigación. para poder registrar todo lo que observa, el investigador se sirve de las anotaciones
y la bitácora o diario de campo (donde se registran las anotaciones).

Muestreo en la investigación cualitativa

Se considera una muestra al “grupo de personas, eventos, sucesos, comunidades, etc., sobre el cual se
habrán de recolectar los datos, sin que necesariamente sea estadísticamente representativo del universo o
población que se estudia”.

Durante la inmersión inicial o luego, el investigador define la muestra “tentativa”, considerando que será
reevaluada a lo largo del proceso.

En los estudios cualitativos se busca profundidad por lo que el tamaño de muestra no es importante en
términos probabilísticos. Los casos a seleccionar serán aquellos que permitan entender el tema de estudio y
así lograr responder las preguntas de investigación planteadas. et. al., 2014, p. 391)

Recolección y análisis de los datos cualitativos

La recolección de los datos desde el enfoque cualitativo

Con la recolección de datos lo que se procurará será obtener datos de diferente naturaleza. La finalidad será
poder analizarlos y comprenderlos, para de esta manera poder responder a las preguntas de nuestra
investigación.

En este tipo de investigación, consideraremos como la principal herramienta al propio investigador, ya que
será  el que mediante el uso de distintas herramientas y técnicas el que recoja los datos necesarios. Además,
en la indagación cualitativa los instrumentos no son estandarizados, sino que se trabaja con múltiples
fuentes de datos, que pueden ser entrevistas, observaciones directas, documentos, material audiovisual, etc.
Además, recolecta datos de diferentes tipos: lenguaje escrito, verbal y no verbal, conductas observables e
imágenes.

El papel del investigador en la recolección de los datos cualitativos


89

En la indagación cualitativa, los investigadores deben establecer formas inclusivas para descubrir las visiones
múltiples de los participantes y adoptar papeles más personales e interactivos con ellos. Algunas
características que propone R. Sampieri sobre el investigador, es que debe ser sensible, genuino y abierto, y
nunca olvidar por qué está en el contexto. Debe poder crear lazos de amistad y mantener al mismo tiempo
poder mantener una distancia que le permita tener una perspectiva interna y otra externa. Debe tener la
flexibilidad necesaria para poder adaptarse y saber que rol adoptar según la situación lo requiera. 

Algunas heramientas de las que se va a servir el investigador para la recolección de datos son:

 Observación

 Entrevistas

 Sesiones en profundidad o grupos de enfoque

 Documentos, registros, materiales y artefactos

 Biografías e historias de vida

 Triangulación de métodos de recolección de los datos

El análisis de los datos cualitativos

El análisis de los datos, la acción principal consiste en estructurar los datos que obtuvimos mediante la
formulación de categorías.

La forma específica de analizarlos varía según el diseño de investigación seleccionado. Cada método marca
unos lineamientos para el proceso de análisis, ya que los resultados que se buscan son distintos.

Generar hipótesis, explicaciones y teorías

Llegado este momento es cuando empezaremos a generar hipótesis o teorías. Con base en la selección de
temas y el establecimiento de relaciones entre categorías, comenzamos a interpretar los resultados y
entender el fenómeno de estudio, así como a generar teoría.

Rigor en la investigación cualitativa

Durante todo el proceso de la investigación cualitativa deberemos realizar un trabajo de calidad, que cumpla
con el rigor de la metodología de la investigación. Para que esto suceda tendremos en cuenta los cuatro
aspectos que nos propone R. Samipieri: 

 Dependencia

 Credibilidad

 Transferencia

 Confirmación o confirmabilidad

Diseños del proceso de investigación cualitativa

La más común y reciente y que no abarca todos los marcos interpretativos, pero sí los principales:

a) teoría fundamentada, b) diseños etnográficos, c) diseños narrativos, d) diseños fenomenológicos, e)


diseños de investigación-acción y g) estudios de caso cualitativos. Asimismo, cabe señalar que las
“fronteras”o límites entre tales diseños son relativos, realmente no existen, y la mayoría de los estudios
toma elementos de más de uno; es decir, los diseños se yuxtaponen.
90

Reportes de resultados de la investigación cualitativa

En el capítulo se revisa la estructura general que caracteriza a un reporte de la investigación cualitativa, de


acuerdo con el diseño predominante. Por otra parte, se señala que los reportes cualitativos pueden ser, al
igual que los cuantitativos, académicos y no académicos. Además, se dan recomendaciones para su
elaboración. También, se destacan tres aspectos importantes en la presentación de los resultados: la
narrativa general, el soporte de las categorías con ejemplos y los elementos gráficos. Asimismo, se insiste en
que el reporte debe ofrecer una respuesta al planteamiento del problema y señalar las estrategias que se
usaron para abordarlo, así como los datos que fueron recolectados, analizados e interpretados por el
investigador.
91

INVESTIGACION ACCION
Historia

En América Latina la investigación Acción surge como una modalidad de intervención psicosocial que se
expande a otros países en la década del 60 y 70.

Tiene sus orígenes en el trabajo de Kurt Lewin quien propuso el nexo entre investigación y acción gracias
a su experiencia en las observaciones de grupos religiosos en EEUU, cuyo espíritu es de autoayuda en el
proceso de solucionar problemas y atender las necesidades de los participantes de una comunidad. Este
autor propuso combinar teoría y práctica en la investigación acción, considerando como relevante el análisis
del contexto con la intención de desarrollar una teoría psicosocial. El papel del psicólogo social será
considerado como agente de cambio e intervención. Ya se vislumbraba en los estudios de Kurt Lewin, rasgos
característicos de la investigación acción como ser, la intervención, la mejora y la colaboración. Su
investigación fue continuada por Fals Borda, Bonilla y Castillo, quienes propusieron la creación de un centro
de investigación y acción social. El método propuesto se basaba en la inserción del investigador en la
comunidad. 

La investigación acción en su transitar histórico ha desarrollado dos grandes tendencias o vertientes: una
tendencia netamente sociológica, cuyo punto de partida fueron los trabajos de Kurt Lewin (1946/1996) y
continuados por el antropólogo de Chicago Sol Tax (1958) y el sociólogo colombiano Fals Borda (1970), este
último le imprime una connotación marcada ideológica y política; la otra vertiente es más educativa, y está
inspirada en las ideas de Paulo Freire (1974) en Brasil, L. Stenhouse (1988) y Jhon Elliott (1981, 1990)
discípulo de Stenhouse en Inglaterra,

así como por Carr y Stephen Kemmis (1988) de la Universidad de Deakin

en Australia.

La investigación Acción Participativa Surge a partir de la crisis que produjo la expansión del capitalismo, y
por la modernización globalizante, en la cual los fenómenos estaban acabando con la textura cultural y
biofísica de las ricas y diversificadas comunidades que se conocían.

DEFINICIÓN DE INVESTIGACIÓN ACCIÓN

Lewin concibió este tipo de investigación como:

“la emprendida por personas, grupos o comunidades que llevan a cabo una actividad colectiva en bien de
todos, consistente en una práctica reflexiva social en la que interactúan la teoría y la práctica con miras a
establecer cambios apropiados en la situación estudiada y en la que no hay distinción entre lo que se
investigada, quién investiga y el proceso de investigación”. (Restrepo 2005:159).

Finalidad

La finalidad de la investigación- acción es resolver problemas cotidianos e inmediatos (Álvarez - Gayou,


2003; Merriam, 2009) y mejorar practicas concretas. Su propósito fundamental se centra en aportar
información que guie la toma de decisiones para programas, procesos y reformas estructurales. Sandín
(2003, p.161) señala que la investigación- acción pretende esencialmente propiciar el cambio social,
transformar la realidad y que las personas tomen conciencia de su papel en ese proceso de transformación.
Por su parte, Elliot (1991) conceptúa la investigación-acción como el estudio de una situación social con
miras a mejorar la calidad de la acción dentro de ella. Para León y Montero (2002) representa el estudio de
un contexto social donde mediante un proceso de investigación con pasos “en espiral”, se investiga al mismo
tiempo que se interviene.
92

Pilares

(Sandín 2003). Mc Kernan (2001) fundamenta los diseños de investigación acción en tres pilares:

- Los participantes que están viviendo un problema son los que están mejor capacitados para
abordarlo en un entorno naturalista

- La conducta de estas personas está influida de manera importante por el entorno natural en el que
se encuentran

- La metodología cualitativa es la mejor para el estudio de los entornos naturalistas, puesto que es
uno de sus pilares epistemológicos

CARACTERISTICAS según Sandin:

1- Investigación acción envuelve la transformación y mejora de una realidad (social, educativa,


administrativa, etc.)

2 -Parte de problemas prácticos y vinculados con un ambiente o entorno

3 -Implica la total colaboración de los participantes en la detección de necesidades (ellos conocen mejor que
nadie la problemática a resolver, la estructura a modificar el proceso a mejorar y las practicas que requieren
transformación) y en la implementación de los resultados del estudio.

Modalidades y dimensiones onto-epistémicas de la investigación acción

Autores como Latorre (2003), Suárez Pazos (2005), Peter Park (1990), entre otros, destacan tres
modalidades bien definidas en las cuales se ha tenido que inscribir esta metodología de investigación, las
mismas se describen a continuación:

1- Técnico – científica: Esta perspectiva fue la primera en términos históricos, ya que parte del fundador de
la investigación acción Kurt Lewin. Su modelo consiste en un conjunto de decisiones en espiral, las cuales se
basan en ciclos repetidos de análisis para conceptualizar y redefinir el problema una y otra vez. Así, la
investigación acción se integra con fases secuenciales de acción: Planificación, identificación de hechos,
análisis, implementación y evaluación

2- Deberativa: La concepción deliberativa se enfoca principalmente en la interpretación humana, la


comunicación interactiva, la deliberación, la negociación y la descripción detallada. Le incumben los
resultados, pero sobre todo el proceso mismo de la investigación – acción. John Ellibt propuso esta visión
como una reacción a la fuerte inclinación de la investigación educativa hacia el positivismo.

3- Emancipadora: Su objetivo pretende que los participantes generen un profundo cambio social por medio
de la investigación. El diseño no solo cumple funciones de diagnostico y producción de conocimiento, sino
que crea conciencia entre los individuos sobre su circunstancia sociales y la necesidad de mejorar su calidad
de vida.

Rasgos distintivos de la Investigación acción:

Stringer (1999) Señala que la investigación – acción es:

A) Democrática, puesto que habilita a todos los miembros de un grupo o comunidad para participar.

B) Equitativa, las contribuciones de cualquier personas son valoradas y las soluciones incluyen a todo el
grupo o comunidad.

C) Es liberadora, una de sus finalidades reside en combatir la opresión e injusticia social.


93

D) Mejora las condiciones de vida de los participantes, al habilitar el potencial de desarrollo humano.

3 Fases esenciales de los diseños de Investigación acción  

 Observar: construir un bosquejo del problema y recolectar datos 

 Pensar: analizar e interpretar 

 Actuar: resolver problemas e implementar mejoras

Estas fases se dan de manera cíclica una y otra vez, hasta que el problema es resuelto, el cambio se logra, o
la mejora se introduce satisfactoriamente. 

Ciclos

Cabe señalar que la mayoría de los autores presentan este proceso como un proceso en “espiral” sucesiva de
ciclos. Los ciclos son:

1-DETECTAR EL PROBLEMA DE INVESTIGACIÓN, CLARIFICARLO Y DIAGNOSTICARLO-ya sea un problema


social, la necesidad de un cambio, una mejora, etc.

2-FORMULACION DE UN PLAN O PROGRAMA PARA RESOLVER EL PROBLEMA

Durante la elaboración del plan el investigador sigue abierto a recoger más datos e información que puedan
asociarse a con el panteamiento del problema. El plan debe incorporar soluciones que se caractericen por
ser prácticas para resolver el problema o generar el cambio.

3-IMPLEMENTAR EL PLAN O PROGRAMA Y EVALUAR RESULTADOS

A lo largo de esta implementación la tarea del investigador es sumamente provocativa: debe informar a los
participantes sobre las actividades que realizan los demás, motivar a las personas para que el plan sea
ejecutado y cada quien realice su mejor esfuerzo, asistirlas cuando tengan dificultades y conectar a los
participantes en una red de apoyo mutuo. Se recolectan datos para evaluar cada tarea y el desarrollo de la
implementación. Se programan reuniones con grupos de participantes, cuyo propósito cumple dos
funciones: -evaluar los avances, y –recoger “de viva voz” las opiniones, experiencias, y sentimientos de los
participantes en esta etapa.

4-RETROALIMENTACIÓN- La cual conduce a un nuevo diagnóstico y a una nueva espiral de reflexión y acción.
El ciclo se repite hasta el problema esté resuelto o se logre el cambio. 

En los diseños de investigación – acción, el investigador y los participantes necesitan interactuar de manera
constante con los datos.

INVESTIGACION-ACCION

Practico Participativo

- Estudia practicas locales (del grupo o - Estudia temas sociales que


comunidad) constriñen las vidas de las personas
de un grupo o comunidad
- Involucra indagación individual o en
equipo - Resalta la colaboración equitativa de
todo el grupo o comunidad
- Se centra en el desarrollo y
aprendizaje de los participantes - Se enfoca en cambios para mejorar el
nivel de vida y desarrollo humano de
- Implementa un plan de acción (para
94

resolver el problema, introducir la los individuos


mejora o generar el cambio)
- Emancipa a los participantes y al
- El liderazgo lo ejercen conjuntamente investigador
el investigador y uno o varios
miembros del grupo o comunidad

A continuación se desarrolla el segundo modelo: Investigación acción participativa.

DEFINICIÓN DE INVESTIGACION ACCION PARTICIPATIVA

Fals Borda definió la investigación participativa "como aquella vivencia necesaria, como un complejo de
actitudes y valores y como método de investigación que da sentido a la praxis". 

Tiene dos tendencias: educativa y sociológica.

Rasgos distintivos de la IAP 

INVESTIGACIÓN 

Conjunto de procedimientos operacionales y técnicos para adquirir un conocimiento útil, para la


población, con el propósito de que pueda actuar y transformar su realidad social. La relación investigadora
es la de sujeto-sujeto, protagonistas del proceso. A partir de la investigación facilita los conocimientos para
actuar y resolver algunos de sus problemas o satisfacer necesidades, es decir, que está aplicada y orientada a
cambiar una situación o un problema mediante la democratización y socialización. 

ACCIÓN

El modo de hacer es acción de organización, movilización, sensibilización, y concientización. Permite que


el conocimiento sea más sistemático y profundo de su situación y así pueda actuar con mayor eficacia en la
transformación que se busca. Pretende que los participantes conozcan críticamente sus problemas,
necesidades, intereses y recursos.  Lleva a la recuperación de memoria o conciencia histórica de las
experiencias populares. 

PARTICIPATIVA

Hay una co-implicación en el trabajo donde yace un cruce de experiencias de las personas, conocimientos
teóricos y metodológicos de los investigadores. Hay favorecimientos de una restitución sistemática y
sistematizada de saberes y experiencias creando nuevos conocimientos para comprender su realidad. Lo
más importante es que la participación crea un poder popular: ‘conocer es poder’.

Objeto de estudio

 Se define en base a los problemas que las personas involucradas consideran como prioridad.

 La IAP se aplica a situaciones o problemas concretos de la vida cotidiana del grupo. 

 Su finalidad es conocer para actuar y transformar la realidad.

Finalidad

Principalmente es una metodología para DIAGNOSTICAR, INTERVENIR Y EVALUAR los procesos


psicosociales a partir de la participación de las personas en el proceso.
95

Entre sus metas podemos distinguir mejorar y/o transformar la práctica social y/o educativa y por otro
lado, procurar una mejor comprensión de dicha práctica, articular investigación, acción y formación. 

Rasgos distintivos

 Cíclica y recursiva, porque pasos similares tienden a repetirse en una secuencia similar 

 Participativa, se debe a que los participantes involucrados se convierten en investigadores y


beneficiarios de los hallazgos y soluciones propuestas 

 Cualitativa: trata más con el lenguaje que con los números 

 Reflexiva, la reflexión crítica sobre el proceso y los resultados son partes importantes en cada ciclo

Fases de la IAP

Etapa de previa:

 Se lleva a cabo el contacto con las personas con las que se va a trabajar.

 Acá se da el origen de la demanda

 Se debe detectar y caracterizar a los protagonistas potenciales y a los informantes clave.

 Se da la constitución del equipo de trabajo.

Investigación propiamente dicha:

PLANTEAMIENTO DEL PROBLEMA

 Se realiza una identificación de necesidades básicas, problemas y centros de interés. La negociación


de la demanda.

 Se lleva a cabo la formulación del problema y la delimitación del campo de estudio.

ELABORACIÓN DEL DISEÑO E INVESTIGACIÓN

 Formulación y justificación del problema de investigación.

 Objetivos generales y específicos.

 Diseño general: fases a seguir, técnicas de utilización, organización del trabajo de campo,
sistematización de la información obtenida, devolución de los datos.

 Cronograma.

TRABAJO DE CAMPO: RECOLECCIÓN DE DATOS

 Obtener información para el diagnóstico mediante la aplicación de técnicas y procedimientos que


sean indicados.

Elaboración del diagnóstico

 Conocer para actuar con eficacia

 Información que sirva para proclamar acciones concretas.

 Proporcionar un diagnóstico de situación para seleccionar las estrategias más adecuadas

 Nexo entre la investigación y la programación


96

Elaboración del programa o proyecto

 Organización de la acción en base a objetivos, recursos y tiempo.

 Se desarrollan tareas a realizar, responsabilidades y grupos de trabajo.

 Cronograma, presupuesto y conjuntos de acción que dinamizan estas actividades.

Desarrollo del proyecto

 Proceso de autogestión y acción: realización de actividades

 Informes finales

Control operacional mediante acción-reflexión-acción. Evaluación

 Modos de análisis de la pertinencia, la eficacia y la efectividad de las actividades, aportando


información necesaria para realizar ajustes y correcciones de cara al logro de los objetivos
propuestos.

 Evaluación continua, examen crítico, periódico y sistemático

 Evaluación de fin de proyecto

 Nuevas problemáticas a trabajar

La IAP es una metodología activa y participativa, buena parte de su diseño no puede definirse de antemano,
porque se trata de un diseño en proceso, es decir, re-construido a partir de la propia praxis que se va
generando en la comunidad. 

Dificultades en la implementación

-Articular métodos de investigación tradicional con los objetivos de la IAP 

-Falta de conciencia crítica de los miembros de la comunidad (desesperanza) 

-La falta de recursos para completar la investigación 

-Conflictos internos o crisis de liderazgo en la comunidad 

-Falta de tiempo para llevar el proceso a término 

-No se puede aplicar a todos los problemas psicosociales dadas las limitaciones contextuales.

-El proceso puede generar activismo político pero no necesariamente conocimiento científico. 
97

INVESTIGACIÓN MIXTA
Introducción

“La meta de la investigación mixta no es reemplazar a la investigación cuantitativa ni a la investigación


cualitativa, sino utilizar las fortalezas de ambos tipos de indagación, combinándolas y tratando de minimizar
sus debilidades potenciales”. (Roberto Hernández-Sampieri)

Definición

El enfoque mixto es un proceso que recolecta analiza y vincula datos cualitativos y cuantitativos en un
mismo estudio, o una serie de investigaciones para responder a un planteamiento del problema. Se usan
métodos de los enfoques cuantitativos y cualitativos y pueden involucrar la conversión de datos
cuantitativos y cualitativos y viceversa.

Asimismo, el enfoque mixto puede utilizar los dos métodos para responder distintos enfoques de
investigación de un planteamiento de problema. Es un enfoque multimetódico.

El enfoque mixto va más allá de la simple recolección de datos de diferentes modos sobre el mismo
fenómeno, implica desde el planteamiento del problema mezclar la lógica inductiva y deductiva. Es decir, no
se trata de sumar técnicas cuantitativas y cualitativas, sino de trabajarlas de modo integradas, sumando sus
ventajas, complementando sus puntos débiles y obtener una respuesta más completa frente al problema de
investigación.

Posturas en torno a la complementación metodológica.

Fundamentalistas: Son los investigadores que defienden uno de los dos enfoques y desdeñan al otro. Se
oponen por tanto al enfoque mixto

Separatistas: Se trata de investigadores que consideran que los enfoques cualitativos y cuantitativos son
opuestos (antitéticos) aunque les otorgan el mismo estatus (los respetan por igual) y regularmente muestran
preferencias por alguno de los dos, aunque pueden emplear ambos, pero en estudios diferentes, se opone
también al enfoque mixto.

Pragmáticos: Son investigadores que brindan el mismo status a los enfoques cuantitativos, cualitativos y
mixtos. Aceptan cualquier posibilidad. Asimismo, señalan que es el planteamiento del problema y las
circunstancias las que dictan el método. En este sentido el matrimonio cuanti y cuali es conveniente en un
mismo estudio, sólo si es el enfoque que mejor puede ayudarnos a responder las preguntas de investigación
que hemos establecido.

Bases epistemológicas de la investigación mixta

Los diseños mixtos se fundamentan centralmente en el concepto de triangulación, este término proviene de
la ciencia naval militar como un proceso que los marineros utilizan, y consiste en tomar varios puntos de
referencia para localizar la posición de un objeto en el mar, este trabajo, realizado por Jick, se tituló
“Mezclando métodos cualitativos y cuantitativos: la triangulación en acción”. La idea es que cuando una
hipótesis o resultado sobrevive a la confrontación de distintos métodos, tiene un grado mayor de validez que
si se prueba por un único método, este autor planteaba la idea de obtener una fotografía más enriquecedora
y con favor sentido de entendimiento de los fenómenos.

En 1973, Sieber, sugirió la combinación de estudios de caso cualitativos con encuestas, creando “un nuevo
estilo de investigación” y la integración de distintas técnicas en un mismo estudio. Ahí es cuando en 1979
98

Jick introdujo los conceptos básicos de los diseños mixtos y propuso recabar datos mediante técnicas
cualitativas y cuantitativas, e ilustró la triangulación de datos como mencionamos anteriormente.

Luego, en la década de 1980, se inició un debate sobre la legitimidad de la investigación mixta, el cual aún no
concluye, en 1990 el concepto de la triangulacion de metodos se fortaleció en diversas partes del mundo y
los defensores del enfoque mixto, comenzaron a concebir diseños para combinar datos cuantitativos y
cualitativos, así como a realizar en la práctica estudios concretos.

Filosófica y metodológicamente hablando los métodos mixtos se fundamentan en el pragmatismo. De


acuerdo con Greene el “corazón del pragmatismo” (y por ende de la investigación mixta) es convocar a
varios modelos mentales en el mismo espacio de búsqueda para fines de un diálogo respetuoso y que los
enfoques se nutran entre sí, además de que colectivamente se genere un mejor sentido de comprensión del
fenómeno estudiado.

El pragmatismo tiene sus antecedentes iniciales en el pensamiento de diversos autores como ser Charles
Sanders, Peirce, William James, y Johon Dewey. Adopta una posición balanceada y plural que pretende
mejorar la comunicación entre investigadores de distintos paradigmas para finalmente incrementar el
conocimiento. La lógica del pragmatismo, ( y consecuentemente la de los métodos mixtos) incluye el uso de
la inducción (o descubrimiento de patrones ) deducción (prueba de teorías o hipótesis)y de la
abducción(apoyarse y confiar en el mejor conjunto de explicaciones para entender los resultados).

El pragmatismo como paradigma en los métodos mixtos

Desde una perspectiva epistemológica y paradigmática, un fenómeno puede ser abordado por ambos
enfoques con diferentes objetivos y desde preguntas diversas que darán apertura al método que se deberá
utilizar, cada uno en su momento y en su rigor metodológico, para dar paso al desarrollo científico de
conocimiento, mediante la complementariedad de diferentes perspectivas del fenómeno.

En relación a ello, Kuhn precisa que los fenómenos no son completamente explicados ni son la realidad, sino
una parte de un gran fenómeno explicado desde la subjetividad de la realidad percibida según el contexto y
el camino científico, en tanto que las teorías finales que explican los fenómenos no se sustituyen, sino que se
complementan consecutivamente para explicarlos.

El método mixto, complementa los paradigmas de investigación cuantitativa y cualitativa. Se apoya en la


complementariedad del conocimiento producido, con caminos diferentes pero que al final podrán tener una
convergencia, lo cual da soporte al paradigma propuesto para los métodos mixtos: el pragmatismo, que
sostiene que por los diferentes caminos se llega al conocimiento de una parte de la realidad.

La claridad y conocimiento metodológico que parte de las bases epistemológicas es la fortaleza del
investigador, cualquiera que sea el método; sus resultados son parte de la realidad y una manera de mirarla,
que será siempre parcial y condicionada; por lo que precisa garantizar la coherencia epistemológica en sus
estudios, la misma que sostendrá el paradigma bajo el cual se investigará el fenómeno.

Diseños mixtos de investigación

Diseño exploratorio secuencial (Dexplos)

Implica una fase inicial de recolección y análisis de datos cualitativos, seguida de otra donde se recaban y
analizan datos cuantitativos. Hay dos modalidades:

1) Derivativa:La recolección de los datos y el análisis se construyen sobre la base de los resultados
cualitativos. La mezcla mixta ocurre cuando se conecta el análisis cualitativo de los datos y la
recolección de datos cuantitativos. La interpretación final es producto de la integración,
99

comparación de resultados cualitativos y cuantitativos, el foco esencial es efectuar una exploración


inicial del planteamiento. Es utilizado cuando el investigador necesita desarrollar un instrumento
estandarizado porque las herramientas existentes son inadecuadas o no se puede disponer de ellas.

2) Comparativa: en una primera fase se recolectan y analizan datos cualitativos para explorar un
fenómeno, generándose una base de datos, en una segunda etapa se recolectan y analizan datos
cuantitativos y se obtiene otra base de datos .

Los descubrimientos de ambas etapas se comparan e integran en la interpretación y elaboración del reporte
del estudio.

Diseño explicativo secuencial (DEXPLIS)

Se caracteriza por una primera etapa en la cual se recaban y analizan datos cuantitativos, seguida de otra
donde se recogen y evalúan datos cualitativos. La mezcla mixta ocurre cuando los resultados cuantitativos
iniciales informan a la recolección de los datos cualitativos, la segunda fase se construye sobre los resultados
de la primera. Los descubrimientos de ambas etapas se integran en la interpretación y elaboración del
reporte del estudio.

Diseño transformativo secuencial (DITRAS)

Este diseño incluye dos etapas de recolección de datos. La prioridad y fase inicial puede ser la cuantitativa o
la cualitativa, o bien, otorgarles a ambas la misma importancia y comenzar por alguna de ellas. Los
resultados de las etapas cuantitativas o cualitativas son integrados durante la interpretación. Lo que la
diferencia de los diseños secuenciales previos es que una perspectiva teórica amplia guía el estudio.

El DITRAS tiene como propósito central servir a la perspectiva teórica del investigador y en ambas fases este
debe tomar en cuenta las opiniones y voces de todos los participantes y a los grupos que ellos representan.
Este enfoque consume tiempo, pero es fácil de definir, describir, interpretar y compartir resultados.

Diseño de triangulación concurrente (DITRIAC)

Es el más popular y se utiliza cuando el investigador pretende confirmar o corroborar resultados y efectuar
validación cruzada entre datos cuantitativos y cualitativos, así como aprovechar las ventajas de cada método
y minimizar sus debilidades, puede ocurrir que no se presente la confirmación o corroboración.

Se recolectan y analizan datos cuantitativos y cualitativos sobre el problema de investigación


aproximadamente en el mismo momento, durante la interpretación y la discusión se termina de explicar las
dos clases de resultados, y generalmente se efectúan comparaciones de las bases de datos. Como plantea
Creswell esto se denomina “de lado a lado” es decir, se incluyen los resultados estadísticos de cada variable
y/o hipótesis cuantitativas, seguido por categorías y segmentos cualitativos.

Diseño anidado o incrustado concurrente de modelo dominante (DIAC)

El diseño anidado concurrente colecta simultáneamente datos cuantitativos y cualitativos. Su diferencia con
el diseño de triangulación concurrente reside en que un método predominante guía el proyecto, el método
que posee menor prioridad es anidado o insertado dentro del que se considera central. Tal incrustación
puede significar que el método secundario responda a diferentes preguntas de investigación respecto al
método primario. Los datos recolectados por ambos métodos son comparados y/o mezclados en la fase de
análisis.

Este diseño suele proporcionar una visión más amplia del fenómeno estudiado que si usáramos un solo
método.
100

Diseño anidado concurrente de varios niveles (DIACNIV)

En esta modalidad se recolectan datos cuantitativos y cualitativos en diferentes niveles, pero los análisis
pueden variar en cada uno de estos. O bien, en un nivel se recolectan y analizan datos cuantitativos, en otro,
datos cualitativos y asi sucesivamente. Otro objetivo de este diseño podría ser buscar información en
diferentes grupos y/o niveles de analisis.

Diseño transformativo concurrente (DISTRAC)

Este diseño conjunta varios elementos de los modelos previos: se recolectan datos cuantitativos y
cualitativos en un mismo momento (concurrente) y puede darse o no mayor peso a uno u otro método, la
recolección, y el análisis son guiados por una teoría, visión, ideología o perspectiva, incluso un diseño
cuantitativo o cualitativo. Este diseño se refleja desde el planteamiento del problema y se convierte en el
fundamento de las elecciones que tome el investigador respecto al diseño mixto, las fuentes de datos y el
análisis, interpretación y reporte de los resultados. Su finalidad es hacer converger la información
cuantitativa y cualitativa, ya sea anidándola, conectándola o logrando su confluencia.

Diseño de integración múltiple (DIM)

Este diseño implica la mezcla más completa entre los métodos cuantitativos y cualitativo, es sumamente
itinerante.

Características del proyecto según el área psicológica.

La importancia y posibilidad de la investigación mixta en Psicología.

Para referirnos a la importancia o relevancia que tiene la investigación mixta en Psicología, nos basamos en
un autor llamado Eduardo Bericat, quien escribió un libro titulado “La integración de los métodos
cuantitativos y cualitativos en la investigación”. El autor cita a Schopenhauer que plantea una frase :“el
mundo es mi representación”, es decir, que todo lo que es conocido, es decir, nuestro universo se relaciona
a la percepción que creamos de él, en una palabra: representación. El conocimiento de la realidad proviene
de la relación entre sujeto y objeto. Obviamente que no se niega la existencia de la realidad exterior, sino
que agrega a esto que el mismo puede ser conocido, entendido y experimentado por un sujeto. Además, el
mundo existe en el sujeto por mediación de su sensibilidad. O sea que sin percepción y sensibilidad el
conocimiento resulta ser imposible, esto es lo que hemos aprendido o se nos ha enseñado acerca de la
creación de la psicología como ciencia y se ha llegado a entender que los seres humanos no conocemos solo
lo tangible u objetivo u observable o medible, ni tampoco solo lo abstracto, ambiguo o descubrimiento de
nuestro inconsciente según Freud, sino una combinación entre ambos; así como es en este caso la
investigación mixta.

Entonces, nuestra manera de conocer la realidad es diversa y no es únicamente a través de algunos sentidos,
sino que implica que sean aprehendidas desde una múltiple sensibilidad, ya que entonces el sentido de la
vista es diferente al sentido del tacto, ver y palpar son radicalmente diferentes, entonces el problema del
conocimiento que radica en la vida propia del sujeto, hace relación a la facultad o virtud de la combinación
de sensibilidades para generar representaciones del mundo, ya sean estéticos y científicos. Podríamos decir
a modo de ejemplo que el ojo percibe cosas que “la mano es incapaz de ver y el tacto percibe cosas que el
ojo no puede sentir” (Alastuey, 1998)

En este sentido de cómo se perciben las cosas, a partir de la ciencia social, como otra de las tantas formas de
conocimiento humano que existen, operan mediante el establecimiento de códigos binarios, se clasifica a la
101

realidad, porque entonces, a partir de cada significación o de toda información con la que contamos del
mundo, se constituye entonces una diferencia entre lo que conocemos y se entabla así una diferencia que
separa y opone, por ejemplo: blanco-negro, hombre-mujer. Es decir, desde este sentido de un todo
completo emergen dos mitades, pero la realidad o el mundo se resiste a ser partido o dividido. Entonces ¿es
la realidad lo que parece será solo esto o solo aquello, o será esto y aquello? De esta manera la complejidad
de la realidad puede entenderse como “el fracaso de la observación”, ya que se necesita un nuevo re-
conocimiento de la realidad, es decir, sin las categorías conocidas o convencionales a las cuales nos
sometemos o nos han enseñado a hacerlo.

Vamos a empezar por distinguir la estrategia de oscilación, esta postura nos muestra cómo fue cambiando
de la legitimidad de la metodología cualitativa en una época y cuantitativa en otra época. Esto nos muestras
de cierta manera que nunca una sola o única orientación metodológica ha logrado un éxito pleno y muestra
además que siempre se han utilizado las dos, sucesivamente entre lo uno y lo otro.

En conclusión, la investigación psicológica cuenta ahora con una nueva posibilidad de desarrollo, el uso de
los métodos mixtos, que se basan en lo cuanti y cuali, son esenciales hoy en día. Lo medible, cuantificable y
observable también es ciencia y no porque se haya agregado el componente de lo cualitativo y subjetivo se
dejan de lado, los psicólogos en materia de formación profesional deben de saber ambas maneras de
abordar la realidad y el mundo. Lo cuantitativo no deja de ser limitado, requiere una interpretación que lo
vuelve en sí mismo cualitativo. Y lo cualitativo al ser demasiado subjetiva requiere necesariamente de una
sistematización y formalización que la acerca al rigor de lo cuantitativo.

Tema de investigación y su importancia.

Todos los fenómenos y problemas que enfrentan actualmente las ciencias son tan complejos y diversos que
el uso de un enfoque único, tanto cuantitativo como cualitativo, es insuficiente para lidiar con esta
complejidad. Por ello se requiere de los métodos mixto.

Además, la investigación hoy en día necesita de un trabajo multidisciplinario, lo cual contribuye a que se
realice en equipos integrados por personas con intereses y aproximaciones metodológicas diversas, que
refuerza la necesidad de usar diseños multimodales. (Creswell)

El enfoque mixto ofrece varias bondades o perspectivas para ser utilizados:

1.Lograr una perspectiva más amplia y profunda del fenómeno. Nuestra percepción de esta resulta más
integral, completa y holística. Además, si son empleados dos métodos que llegan a los mismos resultados, se
incrementa nuestra confianza en que estos son una representación fiel, genuina y fidedigna de lo que ocurre
con el fenómeno estudiado.

2.Formular el planteamiento del problema con mayor claridad: A través de una perspectiva mixta, el
investigador debe confrontar las “tensiones” entre distintas concepciones teóricas y al mismo tiempo,
considerar la vinculación entre los conjuntos de datos emanados de diferentes métodos.

3.Producir datos más “ricos” y variados mediante la multiplicidad de observaciones, ya que se consideran
diversas fuentes y tipos de datos, contextos o ambientes y análisis. Se rompe con la investigación “uniforme”

4. Potenciar la creatividad teórica por medio de suficientes procedimientos críticos de valoración.

1. Efectuar indagaciones más dinámicas.

2. Apoyar con más solidez las inferencias científicas, que si se emplean aisladamente.

3. Permitir una mejor “explotacion y exploracion” de los datos.


102

4. Posibilidad de tener un mayor éxito al presentar resultados a una audiencia hostil.

5. Oportunidad para desarrollar nuevas destrezas o competencias en materia de investigación,


o bien, reforzarlas.

Collins, Onwuegbuzi y Sutton identificaron cuatro razonamientos para utilizar los métodos mixtos:

a) Enriquecimiento de la muestra

b) Mayor fidelidad del instrumento

c) Integridad del tratamiento o intervención

d) Optimizar significados

Creswell postula que en la investigación mixta se aprovechan dentro de una misma investigación datos
cuantitativos y cualitativos, y debido a que todas las formas de recolección de los datos tienen sus
limitaciones, el uso de un diseño mixto puede minimizar e incluso neutralizar algunas de las desventajas de
ciertos métodos.

Greene, Tashakkori y Teddlie, Sampieri y Mendoza, y Bryman presentan ocho pretensiones básicas del
enfoque mixto:

1) Triangulación: lograr convergencias, confirmación, y/o correspondencia o no, de métodos


cuantitativos o cualitativos.El énfasis es en el contraste de ambos tipos de datos e información.

2) Complementación: mayor entendimiento, ilustración, o clarificación de los resultados de un método


sobre la base de los resultados del otro método.

3) Visión holística: obtener un abordaje más completo e integral del fenómeno estudiado usando
información cuantitativa y cualitativa.

4) Desarrollo: usar los resultados de un método para ayudar a desplegar o informar al otro método en
diversas cuestiones.

5) Iniciación:descubrir contradicciones y paradojas, obtener nuevas perspectivas y marcos de


referencia y también a la posibilidad de modificar el planteamiento original y resultados de un
método con interrogantes y resultados del otro método.

6) Expansión: extender la amplitud y el rango de la indagación usando diferentes métodos para


distintas etapas del proceso investigativo.

7) Compensación: un método puede visualizar elementos que el otro no, la debilidad de cada uno
puede ser subsanadas por su “contraparte”

8) Diversidad: obtener puntos de vista variados, incluso divergentes, del fenómeno o planteamiento
bajo estudio.

El problema a investigar: su planteamiento, el encuadre teórico y la metodología.

Un estudio mixto comienza con el planteamiento del problema el cual demanda el uso e integración de
ambos enfoques (cualitativo y cuantitativo), y uno de los asuntos abiertos es, ¿si deben formularse como
preguntas cuantitativas y cualitativas separadas o como una pregunta o un conjunto de preguntas más
generales que abarcan a ambas? Hasta ahora una de las posibilidades para formularse las preguntas en los
estudios mixtos son las siguientes:
103

1-Formular preguntas separadas tanto cuantitativas como cualitativas, seguidas de interrogantes explícitas
para métodos mixtos.

2-Redactar una pregunta mixta o integrada y después dividirlas en preguntas derivadas o sub preguntas
cuantitativas y cualitativas separadas para responder a cada rama o fase de la indagación.

3- Escribir preguntas para cada fase de la investigación según como evolucione la investigación. Si la primera
etapa es cuantitativa, el cuestionario deberá ser enmarcado como una pregunta cuantitativa y su respuesta
tentativa será la hipótesis.. Si la segunda etapa es cualitativa, la pregunta será redactada como cualitativa.

Una de las maneras que nos parece pertinente marcar que facilita la formulación del planteamiento del
problema es la siguiente:

 Se comienza con el propósito, objetivo e intención conjunta del estudio.

 Indagar el diseño utilizado (ya sea secuencial, concurrente, anidado, de integración) o específico
(secuencial, explicativo).

 Discutir las razones para combinar ambos enfoques

 Incluir objetivos y preguntas cuantitativas y cualitativas que distingan a las etapas entre si y como
van a conjuntarse.

A continuación, y en modo de síntesis detallaremos lo que respecta a la metodología en la investigación


mixta :

 Planteamiento del problema ( aquí lo que se desarrolló anteriormente, la formulación de las


preguntas de investigación)

 Revisión de la literatura, se hace una revisión exhaustiva pertinente para el planteamiento del
problema, armando así lo que se conoce como el desarrollo del Marco teórico. Además también
aquí, entra el asunto de la teorización,es decir si el estudio se guia o no por una perspectiva teórica
con mayor alcance.

 Hipótesis, se incluye “en y para” la parte o fase cuantitativa, cuando mediante nuestro estudio
pretendemos algún fin comprobatorio o probatorio.

 Diseño, en este aspecto, el investigador debe hacerse algunas preguntas específicas: -¿qué enfoque
tendrá prioridad?(al plantear el diseño en el método) -¿Qué secuencia se habrá de elegir? (antes de
implementarlo)

 ¿Cuáles son los propósitos centrales de la integración de los datos cuantitativos y cualitativos? (al
plantear el problema) ¿En qué etapas del proceso de investigación se integra los enfoques (antes de
implementarlos o durante la implementación)?

 Muestreo: Aquí se selecciona un subconjunto de un conjunto mayor universo o población de interés


para recolectar datos o información a fin de responder a un planteamiento del problema de
investigación.

 Recolección de datos: El investigador debe decidir los tipos específicos de datos cualitativos y
cuantitativos que habrán de ser recolectados, esto se prefigura y plasma en la propuesta. Vale
aclarar que los datos cualitativos no pueden precisarse de antemano cuantos casos y datos se
recabarán.
104

 Análisis de datos: el investigador confía tanto en los datos estandarizados y cuantitativos, así como
en los cualitativos. Se presenta una diversidad de posibilidades de análisis en los métodos mixtos.
También se pueden comparar los dos conjuntos de datos (Cualitativos y cuantitativos).

 Resultados e inferencias: Una vez obtenidos los resultados de los análisis tanto cualitativos,
cuantitativos y mixtos los investigadores proceden a desarrollar inferencias, comentarios y
conclusiones en la discusión.

Conclusiones
“Si estamos abiertos a nuevas metodologías, somos progresistas, creemos en el cambio, en la innovación,
así como en que todavía hay mucho que aprender y que la evolución de la ciencia es permanente.
Procuramos ir más allá de las guerras civiles entre los cualitativos y los cuantitativos y los enfoques
paradigmáticos”.

Por lo tanto, dice Sampieri, aceptar el enfoque mixto es creer en la posibilidad de matrimonio entre los
enfoques cuantitativos y cualitativos (relación que como todo matrimonio no es fácil, tiene sus recovecos,
hay celos, intentos de imposición, escaladas de interacción, se sube y se baja, a veces se va a la izquierda y a
veces a la derecha). Este matrimonio, puede ayudarnos a poner en práctica lecciones aprendidas en ambos
enfoques, nos mantiene cerca del fenómeno estudiado, nos provee un sentido de entendimiento más
completo.

Coincidiendo con Hernández Sampieri, creemos que en la investigación debe privar “la libertad de método”.
Por eso no critican ninguna postura, considerando que existen tanto temas de investigación, como
investigadores, en los cuales, cada uno tendrá la libertad de elegir el enfoque que considere más adecuado y
favorable para su investigación

Por último, consideramos que no es necesario cerrarse en un solo enfoque por pura convicción personal, ya
que cada uno de esos enfoques nos brinda información distinta y enriquecedora para cada situación en
particular. Sin embargo, creemos en cierto modo, que el enfoque mixto, posee una visión superadora en
cuanto que armonizo la relación tajante y oposicionista de dos posturas que en algún momento se las
consideraba irreconciliables, es decir, existía una grieta a la cual el enfoque mixto en algún punto los une.
105

FUNDAMENTOS DE LA INVESTIGACIÓN EN PSICOANÁLISIS


FUNDAMENTOS DE LA INVESTIGACIÓN EN PSICOANÁLISIS

Definición De Investigación Psicoanalítica

La investigación en psicoanálisis conlleva incertidumbres que jamás desaparecen completamente, pero sí da


cuenta de un continuo, por los logros, dificultades y puntos de escansión; se pone constantemente en juego
el deseo, sin el cual no es posible la investigación, requiere de un nivel de compromiso alejado de la
obligatoriedad en su realización. Dice Zambrano (como se citó en Gallo y Ramirez, 2012) que la investigación
es “descubrir un lugar intacto que parece haberse abierto en ese solo instante y que nunca más se dará así.
Pero para ello no hay que buscarlo, no hay que buscar”. La investigación cualitativa es la que hace posible
encontrar sin necesidad de buscar, sin una idea previa se puede captar lo emergente y, de esta manera,
logra sorprenderse el investigador, poniendo en cuestión todo saber previo, incomodándolo, y a la vez le da
satisfacción por descubrir lo nuevo. Es importante que la teoría se adecue lo máximo posible a la
experiencia.

Posturas En Torno A La Investigación En Psicoanálisis

Investigación desde la perspectiva teórica de la Asociación Psicoanalítica Internacional:

 Exigencia de cientificidad de los sectores académicos en el manejo de la evidencia recogida de su


práctica, y desde la administración de Salud Mental para demostrar eficacia en el tratamiento
psicoanalítico.

 Criterios de cientificidad:

 Cuantificación.

 Capacidad de repetir y predecir.

 Lenguaje preciso y universal.

 El Psicoanálisis se encuentra en falta, por no poder cumplir con los requisitos de este paradigma, que
privilegia la utilidad, más que la riqueza teórica.

 Objeto de estudio: El sujeto de la observación, el aparato psíquico del mismo.

 Método: Estudio de casos, privilegiando el caso por caso, siendo necesaria una ampliación hacia
estudios experimentales.

 Obstáculos: Criterios de medición del cambio, operacionalización de variables y criterios, y dificultad


para la cuantificación.

 Objetivos: Estudios de eficacia, el resultado de los tratamientos aplicados y la utilización de


procedimientos experimentales sistemáticos.

Investigación en la Teoría del Psicoanálisis Lacaniano:

 Sujeto de la ciencia: Entre la verdad y el saber, vaciado de cualidades. Es el correlato antinómico del
mismo, la ciencia forcluye al sujeto que produce, recurriendo a la regla del retorno en lo real.

 Método:

 Rigurosidad y precisión en el estudio de los fenómenos del campo del psicoanálisis.


106

 Mayor grado de formalización posible entre la lógica y la matemática no reducida a la


cantidad.

 Problema esencial: Relación entre la tesis lacaniana de un "sujeto no modelizable" y la operación de


reducción que constituye al objeto que se aborda de la ciencia.

Freud: Modelo Clásico

 Ideal de ciencia: Se esfuerza por encajar el psicoanálisis en el saber científico, elaborando


constructos teóricos y clínicos que se basan en el paradigma positivista.

 Sujeto de la ciencia: "Pienso donde no soy, luego soy donde no pienso", introduce su Sujeto del
Inconsciente.

 Sujeto = Individuo: No puede medirse por su capacidad de adaptación, justamente el mismo surge
en el punto en que se mide con parámetros de normalidad y se siente inadaptado.

 Intenta alcanzar precisión en sus experiencias, suprime al sujeto.

 Clínica: Base empírica, observaciones clínicas y diseño y construcción de casos.

 Modelo Aristotélico: Física supeditada a la experiencia y la percepción sensible.

Lacan: Modelo moderno

 Idea de ciencia: La misma ciencia estructura desde el interior la materia prima de su objeto.

 Sujeto de la ciencia: Plantea una disociación entre el sujeto del enunciado y el de la enunciación, de
esta manera demuestra que el sujeto es un ser hablante, está necesariamente dividido; "No se trata
de saber si cuando hablo de mí, hablo conforme a lo que soy, sino si cuando hablo soy el mismo que
aquel de quien hablo", introduce el Sujeto del Significante.

 Sujeto que habla, vehiculizado por el significante; es efecto de una cadena de significantes.

 Se define por una encrucijada entre el objeto de la experiencia y el experimentador.

 Pensamiento Platónico: Atribuye a la matemática supremacía en el estudio de la naturaleza.

Bases Epistemológicas De La Investigación Psicoanalítica

Como fundamento de esta investigación encontramos el método clínico de Freud y las relaciones que se
establecen con el paradigma indiciario. Para comenzar a desarrollar este último se tiene en cuenta la
existencia de dos vías contemporáneas, como la de Freud y Arthur Conan Doyle, así como también las
influencias de Giovanni Morelli.

Sigmund Freud en el año 1885 cuando residía en París como discípulo de Charcot se limitó a seguir las
enseñanzas de este único hombre y dejo de asistir a otras clases, pero rara vez dejaba de asistir a las clases
de autopsias forenses y conferencias en la morgue del profesor Paul Broaurdel quien era un célebre médico
forense que llega a cautivar a Freud con la manera de inferir detalles de la personalidad de los cadáveres a
partir de sus indicios.

Arthur Conan Doyle, quien también era médico y además novelista. Ingresa a clases de medicina en 1877,
donde fue alumno de Joshep Bell un hombre que ambicionaba con otorgarle a la investigación forense un
carácter científico. Entre 1874 y 1878, Bell ya había fundado un nuevo campo disciplinar: “la ciencia forense
al servicio de la detección criminal”, pensando como un método de investigación criminal a partir de la
lectura de señales en la escena del crimen. El método era práctico y sencillo: observa, infiere y confirma
107

pruebas indiscutibles; de esta manera sabe captar la admiración de sus alumnos, entre ellos la de Doyle. Es
tal la influencia que Doyle recibe de su profesor Bell que lo lleva a crear el personaje del detective Sherlock
Holmes que fue inspirado por en este último.

Giovanni Morelli, italiano y gran crítico del arte, aparece con su método morelliano el cual se trataba
principalmente de tener una buena comprensión de las características particulares de una obra que permitía
reconocer al autor de la misma y, por otro lado a quienes eran los falsificadores de obras. Es decir, Morelli
advirtió que las percepciones globales y la estética pictórica no le darían una información certera de la
autoría, sino más bien el secreto estaba en los detalles, y no en cualquier detalle, sino en aquellos capaces
de pasar desapercibidos debido a valoraciones culturales. Es aquí que cita un ejemplo de la sonrisa que era
una impresión enfatizada en las obras de Leonardo Da Vinci y que no sucedía lo mismo con las orejas y las
manos de los pintores, es decir que parecía algo de gran singularidad en las obras observando estos detalles.
Y es entonces que Morelli realiza un análisis sistematizado clasificando las imágenes únicamente de las
diferentes orejas y manos de los autores, que le permitía esclarecer a partir de estos detalles cuales obras
eran auténticas y cuáles no.

Al igual que Sherlock Holmes ideado por Doyle, como el método Morelli, como Freud convergen en lo que se
conoce como paradigma indiciario el cual privilegia lo singular, original, sorprendente, y el detalle,
ocupándose por esta razón de lo excepcional y se opone al paradigma de las ciencias positivistas, quienes
enfatizan los fenómenos medibles y capaces de ser comparados y generalizados, privilegiando lo universal y
la norma.

Tema De Investigación Y Su Importancia, Su Planteamiento, El Encuadre Teórico Y La Metodología

La investigación Psicoanalítica y su principio fundamental: la precisión.

Siguiendo lo propuesto por Jacques- Alain Miller la investigación en psicoanálisis, la práctica y la enseñanza,
se establece sin estándares pero con principios, y en relación a la orientación lacaniana se plantea como
principio fundamental la precisión, dado que este enfoque se sirve del modelo matemático; para alcanzar la
precisión debe detenerse uno en el detalle, en lo inadvertido, en el lapsus con el que el sujeto tropieza
descuidadamente, y desde esta mirada es como se construye la clínica. Para comprender esto debe uno
volver al recorrido que Lacan formula en relación a la afirmación en diferentes momentos de su enseñanza
de que el sujeto del psicoanálisis no es otro que el sujeto de la ciencia moderna nacida con Descartes, lo cual
desde la enunciación misma nos hace pensar en dos posiciones antagónicas: Por un lado el sujeto
Cartesiano, el de la ciencia elaborado por Descartes, y por otro lado el sujeto del inconsciente propuesto por
Freud, sin embargo Lacan sabe situar una convergencia con respecto a ambos y es en el punto de
certidumbre y la duda que aparece allí. Descartes al decir “pienso, luego existo” / soy, donde duda del
hecho mismo de dudar, de esta manera le da a la duda un estatuto metodológico, al entender que los
pensamientos que irrumpen cuando estamos despiertos también aparecen en el sueño, advirtiendo que
ninguno de estos pensamientos pueda adquirir estatuto de verdad y sean solo una ilusión. Con esta duda
metódica de a poco Descartes fue perdiendo las certezas, pero sabía que había algo de lo que no podía
dudar y es de que estaba dudando, mediante el ejercicio del pensar, y eso era posible porque existía como
cosa pensante. Aparece así la convergencia entre ambos, cuando Freud afirma que frente a la duda que
aparece de manera inusitada cuando los pacientes relatan sus sueños, y/o frente a advertir un equívoco
verbal, estamos frente a contenidos inconscientes, aunque el sujeto no lo advierta a priori. De este modo se
plantea que ir en busca de la precisión, ya sea en el discurso de un paciente, dentro del discurso social o
dentro de una investigación pretende caminar solo la ética del psicoanálisis, dado que se busca privilegiar el
detalle, singular, excepcional y la sorpresa, desde luego, en vez de caer en el goce repetitivo, y de esta
manera estimular el deseo por lo nuevo.
108

Buscar lo nuevo en la investigación como en la clínica.

En el ámbito de la investigación, la palabra método nos invita a trazar de antemano un camino a seguir
según los objetivos que hayamos planteado, se trata entonces de diseñar una hoja de ruta que sea capaz de
garantizarnos la mayor precisión. La posición que debe asumir el investigador es de “sujeto-supuesto-saber”,
al igual que el analista en la clínica, es el un saber por constituirse, sin certezas, donde la ignorancia será el
resorte de un querer saber y aventurarse en rigor de esto, a partir de una posición que implica antes que
nada de desproveerse de las ideas prejuzgadas, para poder ver más preguntas que respuestas, gestando un
lugar de constante formulación y reformulación de lo ya sabido, en las antípodas del goce de la repetición,
sino más bien en el constitución de lo inédito, que en última instancia nos permitirá saber algo del orden del
empuje del deseo del investigador.

Cuando Gallo et al. (2012) piensa en el método en la investigación psicoanalítica de un modo singular,
pensado no como un modo de hacer, sino de proceder, quiere decir, que siempre el método no debe ser un
modo estandarizado , sino particularizado e irrepetible entendido desde la clínica, por el sujeto del cual
emerge, y, razón por la cual en la investigación se deduce que la ruta a seguir debe ser aquella capaz de
atrapar lo excepcional, y no el estudio de lo típico / tipificado que apunta a la repetición, esto no quiere decir
de ninguna manera que el investigador arranca de cero la ruta, sino que toma estos conocimientos
acumulados, llamado por Gallo et al. (2012) “estado de la cuestión”, dado que éste nos permite delimitar el
problema a investigar y conducirnos hacia lo un no dicho.

Método Clínico e Investigación: diferencias y similitudes.

Así como en la práctica clínica es necesario precisar la demanda del paciente, en la investigación no solo
tiene valor el planteamiento del problema, su justificación y objetivos y establecer un método para alcanzar
el fin propuesto, sino es sumamente importante y pertinente que el investigador se pregunte antes de
comenzar la aventura de investigar, cuál es su implicancia, en termino de deseo en relación al tema que va a
trabajar.

Como es de suma importancia en la formación clínica , la experiencia de compartir con la comunidad y


demás analistas los hallazgos alcanzados por más pequeños que fuera, en el caso de la investigación
proporcionar los resultados conocidos, ya sea mediante una exposición o participando de un debate en el
que se acepten críticas, implica un movimiento que permite además de la sociabilización de los resultados,
compartir las dificultades y obstáculos con los que el investigador se enfrentó durante el proceso, para
esclarecer que no se trata de un hallazgo mágico ni azaroso sino más bien de un trabajo metódico y
sistemático con apertura hacia lo insólito. Esta es una de las razones por la que los autores presentan al
método como algo flexible, y aunque es pensado de esta manera, debe desarrollarse de manera sistemática,
con un orden manifiesto, justificado con argumentos válidos, donde si bien existe el espacio de la reflexión y
el discernimiento no hay lugar para la improvisación. Es decir que un método adecuado en un camino, pero
no un camino irrefutable, sino más bien un camino que permite abrir otros, que permite reformulaciones y
modificaciones constantes, que permiten en última instancia ajustarse a los requerimientos de los datos y
propósitos.

Con respecto a las preguntas de investigación, estas van a ser distintas según el campo en que sean
formuladas, dado que las investigaciones cualitativas sociales y desde el psicoanálisis no cuentas con la con
el dato objetivo observado como las ciencias positivas, pero excluyendo esta última, dentro de ellas también
existen variaciones. Ya que a partir de la concepción misma de sujeto esto puede detectarse; si se establece
desde la investigación cualitativa de lo social decimos que la fuente fundamental de aportación de datos será
las situaciones que se presentan en la vida cotidiana, mientras que en la investigación psicoanalítica la única
fuente inequívoca es el discurso del sujeto atravesado por las formaciones del inconsciente y la pulsión. Los
109

autores plantean, además, que el método en psicoanálisis debe discurrir teniendo en cuenta con sus
principios fundamentales: inconsciente, pulsión, trasferencia y repetición, entre otro que Freud nos dejó
como herencia, no como certezas sino como elementos metódicos de partida y medios de lectura y
desciframiento. Una de las distinciones más importantes entre la investigación cualitativa social y la
investigación psicoanalítica, es que mientras la primera elabora y refuta sus hipótesis basándose en el
enunciado, es decir lo fenomenológico, la segunda busca el decir del sujeto, su enunciación que apunta al
contenido inconsciente, es decir a que se interesa y detiene en la posición singular de quien enuncia, en
relación a su enunciado, es decir la posición que esta toma en relación a su enunciado.

Características Del Proyecto Según El Área Psicológica

Hay que considerar que al momento de delimitar las áreas de estudio de la investigación psicoanalítica se
tienen en cuenta dos campos:

 La clínica psicoanalítica.

 El campo de lo social.

Al referirnos a estas dos áreas se debe tener en cuenta que si bien se habla de dos espacios de análisis
diferentes, no se refiere a unidades excluidas la una de la otra, es más, ambas se complementan e
intervienen la una en la otra.

En un primer momento se deben volver a los orígenes de la investigación psicoanalítica, dicho de otro modo,
es necesario un retorno a la metodología de Freud. El mismo empleaba la filología (Ciencia que estudia los
textos escritos y, en ellos, la estructura y la evolución de una lengua y su desarrollo histórico y literario) en el
tratamiento de sus pacientes; tomaba nota textuales del discurso de los mismos para así de manera
posterior a que se retiren, realizar una transcripción de los datos y modificaciones de los mismos a fines
éticos de preservar la identidad de aquellos que trataba. De dicha transcripción se procede a la búsqueda de
síntomas y la delimitación de la etiología con el fin de constituir e integrar un cuadro diagnóstico. Frente a
esto, Ramírez et. al (2012) alude que se procede de manera análoga a una investigación cualitativa,
produciéndose categorías emergentes entre diversos puntos subyacentes que comparten de manera
análoga significación compartida aparente. En dichas categorías se produce una saturación de los datos al
momento de la emergencia reiterativa de dicha información, ella es comparada con los fenómenos sociales
presentes en el campo/cultura al momento de efectuar la investigación con el fin de cotejar lo singular del
caso.

Al momento de tener en cuenta las herramientas de las que se sirve el psicoanálisis en su investigación, es
necesario de hablar del conjunto de conceptos y/o constructos teóricos que componen dicho cuerpo teórico.
frente a ello Miller (1987) plantea la paradoja “¿buscar la causa de análisis?”, y responde que más bien uno
debe dejarse encontrar por aquello que subyace al caso, indagar con una ignorancia docta, despojado de
todo prejuicio dado que al incursionar con alguna idea preconcebida puede sesgar la mirada del
investigador. Quien realiza investigación psicoanalítica debe detenerse en el vacío del saber, es decir, no
incurrir en ahondar en nociones ya formuladas o expuestas de modo precedente, sino velar por aquello que
no es tenido en cuenta.

En el campo de lo social Miller sostiene que la causa oculta (de manera análoga a la clínica) emerge
sorpresivamente de los relatos de los entrevistados, de la articulación simultánea de los emergentes en los
discursos de los participantes. de lo obtenido se producen categorías emergentes de la situación en la que
fluye la investigación produciéndose una aproximación a la verdad subyacente.

Freud en la escucha del paciente notaba particularidades en el decir en relación con otros dichos del sujeto.
Esta observación le permitió formular su noción de aparato psíquico. Sostuvo que se producen capas
110

concéntricas que confluyen en un nódulo con modos de enlace y vínculos singulares constituyendo un
núcleo patógeno inaccesible de manera directa, sino más bien, permeable mediante la emergencia de
formaciones sustitutivas (sueños, lapsus, actos fallidos, etc.), que dan cuenta de la dimensión simbólica.

El conjunto de aprendizajes permiten tejer una trama a partir de observaciones que para la situación de
investigación adquiere estatuto de ficción teórica. Ahora bien, este “cuerpo teórico” sirve en tanto punto de
referencia, no adquiere una noción axiomática o de imperativo categórico sino más bien como principios
fundamentales.

Por último, la investigación en psicoanálisis debe ser capaz de seguir dos ejes que traza la clínica:

 Poder dar presencia del sujeto del inconsciente

 Permitir al investigador la posibilidad de “jugar con la ciencia y la cultura”.

El investigador debe mantener un compromiso epistemológico, emplear los conceptos como orientadores y
eludir la alienación del deseo a los diversos discursos amos adornados en el semblante de dichos discursos
predominantes.

Así, en el vínculo clínico con lo social fue señalado por Freud de varias maneras, una de ellas es la
articulación del análisis subjetivo a la psicología de las masas y viceversa. Sin lugar a dudas, la identificación
es uno de los conceptos freudianos que provee mejores resultados al momento de tender un puente entre
lo subjetivo y lo social, es en sí mismo un lazo social. De hecho, la operación analítica es la producción de
significantes de la identificación, que dan cuenta del modo como ha conocido el vínculo social en sus
elecciones de goza en distintos momento de su existencia.

Importancia Y Posibilidad De La Investigación Psicoanalítica

Interdisciplinariedad

La Investigación psicoanalítica también tiene la posibilidad de realizarse en conjunto con otras disciplinas de
las ciencias sociales. Esta interdisciplinariedad en el estudio de un fenómeno social posibilita no sólo
construir un saber en el que confluyen diversas vertientes que buscan explicar el fenómeno sino también
lograr una orientación que apunta a lograr un piso epistemológico de mayor rigor. Para hacer posible el
diálogo entre diversas ciencias, a partir de las diferencias epistemológicas y que se produzca un trabajo de
interacción recíproca entre las mismas, logrando la convergencia de intereses temáticos y la articulación de
los problemas que despierten interés investigativo para las mismas, a fines metodológicos, es necesario
crear núcleos problemáticos.

Estos núcleos no son definidos de manera autónoma por cada disciplina, sino que son puntos de
entrecruzamiento disciplinar y anudamiento de las áreas temáticas que posibilitan la interacción y
articulación dialéctica entre los distintos abordajes del objeto a investigar.

Cada núcleo tiene una generalidad menor al tema de investigación y constituye un eje en común a las
ciencias involucradas.

Conclusión

La Investigación en Psicoanálisis constituye un enfoque de Investigación que surge a partir del deseo del
investigador, de un nuevo deseo de saber. Este proceso de investigación se sustenta en el Paradigma
Indiciario y toma como método fundamental seguir el principio de Precisión, por lo que se apunta siempre a
conocer lo particular, singular, excepcional, el detalle en los sujetos intervinientes del fenómeno a estudiar.
Desde esta cosmovisión se concibe al sujeto como sujeto del inconsciente, es un sujeto dividido entre saber
111

y verdad, un ser incompleto que es habitado por lo no sabido y lo no querido. Para poder estudiar a este
sujeto es necesario enfocarse en su discurso y actuar no desde una posición de experto sino desde una
posición de alguien que sabe pero que voluntariamente ignora aspectos de este saber para poder dejarse
sorprender y dar lugar a lo nuevo emergente. Se busca en el sujeto su enunciación, la posición que éste
toma en relación a sus dichos. Con esta forma de investigar se tiene como finalidad conocer rasgos
diferenciales en lugar de patrones de conducta masificadores, conocer las diversas formas de vivenciar e
interpretar la realidad con respecto al fenómeno social estudiado.

También podría gustarte