Está en la página 1de 16

Capítulo 1. Concepción de la ciencia en el Siglo XX En el inicio del Siglo XXI la ciencia se encuentra en una encrucijada que pone en cuestionamiento el paradigma epistemológico reinante durante los últimos tres siglos. La vigencia de este paradigma hizo posible el avance del conocimiento de manera exponencial

y llevó a la humanidad a contar con adelantos tecnológicos inimaginables. Si acordamos con Edgar Morin (1) que “un paradigma comporta un cierto número de relaciones lógicas, bien precisas entre conceptos; nociones básicas que gobiernan todo el discurso”, podríamos señalar que la revolución científica que comienza en el siglo XX es la primera de toda la historia que involucra simultáneamente un cambio total de la red de relaciones lógicas implícitas.

Las revoluciones científicas anteriores implicaban cambios paradigmáticos en el seno de la ciencia en donde se producían, y a posteriori, originaban ó no cambios en el resto de los campos científicos. Es así que pueden identificarse distintos momentos, desde Copérnico pasando por Galileo y Darwin y culminando en Freud en el siglo XIX, en los que la inversión del discurso se producía en el seno de cada campo científico. Pero estas revoluciones mantuvieron incólume un concepto que se venía formulado desde los griegos

y reafirmado por Descartes: La “inteligibilidad de la naturaleza” que se alcanzaría a través de un sistema de ideas generales lógico, coherente y en función del cual pueda explicarse

toda experiencia. Se privilegiaba la razón y su consecuencia directa, el pensamiento deductivo. La consecuencia de esta permanencia conceptual fue que los nuevos paradigmas conservaron dentro de su red relacional la noción de determinismo científico, asociada al principio de causa-efecto como fin último de todo conocimiento objetivo. La ciencia moderna tuvo su origen en Galileo cuando, en lugar de contestar los silogismos de Aristóteles con otro silogismo, subió a la torre de Pisa e introdujo el método de observación y cálculo como forma privilegiada de alcanzar la objetividad. Pareció alcanzar su punto culminante en Newton y su formulación de las leyes de la dinámica, que impulsó

a la ciencia a la búsqueda de leyes simples y eternas que explicaran el universo. En este

marco de referencia, el universo era una máquina determinista perfecta, y el descubrimiento de las leyes que lo gobiernan implicaba el conocimiento del pasado, el presente y el futuro del mismo.

Las leyes de la física describían un mundo idealizado y en permanente equilibrio.

La red conceptual del paradigma dominante en la ciencia clásica relaciona:

verdades permanentes, causa-efecto, leyes simples, sistemas cerrados, equilibrio, orden,

observador objetivo, razonamiento deductivo, determinismo.

A fines del siglo XIX y comienzos del XX empieza el desmoronamiento de este

marco determinista científico, situación que continúa en los albores del siglo XXI y que

involucra a todos los campos científicos, desde las ciencias físicas pasando por las ciencias

naturales y culminando en las ciencias sociales.

El desarrollo de la teoría atómica hizo caer las certezas mecanicistas, al demostrar la

inutilidad de las leyes newtonianas a nivel microfísico y la teoría de la relatividad asestó un

golpe mortal a la física clásica.

Es así que la teoría mecanicista, que representó un valor incalculable para el

adelanto científico en todos sus campos, se revelaba falsa en sus ideas básicas de fuerzas y

fluidos.

Como sostiene Morin:

Gracias al método que aísla, separa, desune, reduce a la unidad, mide, ha

descubierto la ciencia la célula, la molécula, el átomo, la partícula, las galaxias, los quásars, los púlsars, la gravitación, el electromagnetismo, el quántum de energía, ha aprendido a interpretar a las piedras, los sedimentos, los fósiles, los huesos, las escrituras desconocidas, incluida la escritura inscripta en el ADN. Sin embargo, las estructuras de estos saberes están disociadas entre sí.”

nuestra necesidad histórica es encontrar un método que detecte y no oculte

las uniones, articulaciones, solidaridades, implicaciones, imbricaciones, interdependencias y complejidades

Sólo podemos partir en la ignorancia la incertidumbre, la confusión. Pero se trata de una nueva conciencia de la ignorancia, de la incertidumbre y de la confusión. De lo que hemos tomado consciencia no es de la ignorancia humana en general, sino de la ignorancia agazapada, disimulada, cuasi-nuclear, en el corazón de

La

incertidumbre deviene viático: la duda sobre la duda da a la duda una nueva dimensión, la de la reflexividad. En fin, la aceptación de la confusión puede convertirse en un medio para resistir a la simplificación mutiladora. Ciertamente, el método nos falta desde el comienzo; al menos podemos disponer de un anti- método en el que la ignorancia, incertidumbre, confusión se conviertan en virtudes. (El Método pág.25-29)

nuestro conocimiento reputado como el más cierto, el conocimiento

Hoy

Señala Morin que la lógica deductiva se muestra insuficiente para dar una prueba

cuando se enfrentan dos concepciones de las partículas: una concepción ondulatoria y una

concepción corpuscular. Niels Bohr demuestra que estas concepciones contradictorias son,

en realidad, complementarias, puesto que empíricamente los dos fenómenos aparecían en

condiciones diferentes.

Si se completa este panorama con la aparición del movimiento azaroso a nivel de

partículas, se comprenderá el cambio en el paradigma que representa la caída de la idea de

simplicidad de las leyes, instalándose las nociones de complejidad e incertidumbre.

Podemos concluir con Morin:

Podemos tanto más tener confianza en estas exclusiones de la ciencia clásica en cuanto que han llegado a ser pioneras de la nueva ciencia. El surgimiento de lo no simplificable, de lo incierto, de lo confuso, a través de lo cual se manifiesta la crisis de la ciencia del Siglo XX es, al mismo tiempo, inseparable de los nuevos desarrollos de esta ciencia. Lo que parece una regresión, desde el punto de vista de la disyunción, de la simplificación, de la reducción de la certidumbre (el desorden termodinámico, la incertidumbre microfísica, el carácter aleatorio de las mutaciones genéticas) es, por el contrario, inseparable de una progresión en tierras desconocidas. Más fundamentalmente, la disyunción y la simplificación están ya muertas en la base misma de la realidad física. La partícula subatómica ha surgido en forma irremediable, en la confusión, la incertidumbre, el desorden. Cualesquiera que sean los desarrollos futuros de la microfísica, no se volverá ya al elemento a la vez aislable, simple e indivisible. Ciertamente, confusión e incertidumbre no son y no serán considerados aquí como las palabras últimas del saber: son los signos precursores de la complejidad.

En las tres últimas décadas las investigaciones de Ilya Prigogine y sus seguidores

demuestran que la irreversibilidad, poco considerada por la física, es más frecuente en el

universo que la reversibilidad, por lo que proponen la inclusión del tiempo como variable

para marcar la evolución en la física y prioriza el estudio del desorden como creador de

orden.

Contemporáneamente con la formulación de la física cuántica, dentro de la

psicología, Sigmund Freud descubre una instancia psíquica que llamó Inconciente que

revolucionaría la ciencia de la conducta privilegiando la ausencia de la certeza en el campo

de los sistemas sociales. Tanto Freud como sus continuadores extendieron este concepto a

la conducta social por lo que la complejidad y la incertidumbre se instalan, paralelamente a

las ciencias físicas, también en las ciencias sociales.

Desde Freud ya se sabe que “no se conoce lo que se quiere sino lo que se puede”,

ya que en el hombre actúan otras instancias, además de las concientes, y que tendrán que

ver con su experiencia vital y la de la especie. Esto significa que no es posible un conocimiento objetivo ya que el aparato psíquico no es un sistema cerrado. Si se suma a esto, la comprobación desde el campo de las ciencias físicas, de que es imposible aislar al observador ya que éste interviene modificando las condiciones en el estudio de cualquier fenómeno físico, comprenderemos los caminos paralelos que siguen ambos campos científicos. Los antiguos ideales griegos de inmutabilidad y universalidad del conocimiento y sus leyes, que sostienen el paradigma de la ciencia moderna, comienzan a caer dando paso a la emergencia de una concepción indeterminista basada en la incertidumbre y el azar. Los procesos de no-equilibrio y la participación del caos en la creación del orden aparente del mundo físico se transformó en una cuestión fundamental para la nueva ciencia. Estas nuevas teorías, tanto en las ciencias naturales como en las sociales, son señales que obligan a pensar la naturaleza comportándose de manera más compleja a lo esperado. Ya no es posible compartimentar el conocimiento, y tratar de comprender los fenómenos como una sumatoria de sistemas que actúan aisladamente, para pasar a considerar la compleja red de sistemas en interacción permanente e incorporar dentro del planteo a la incertidumbre y el azar. Dentro del nuevo paradigma las leyes causales deben interpretarse como leyes probabilísticas. Históricamente, la estadística surge como necesidad de la ciencia para cuantificar aquellas situaciones para las que no existían leyes causales y su intervención era una situación no deseada pero inevitable dentro del pensamiento científico moderno. Dentro del nuevo paradigma en ciernes, la función de la estadística se torna irremplazable ya que se trata de la única metodología cuantitativa que puede medir e interpretar la acción del azar en el marco de la complejidad inherente a los sistemas sociales. Aún cuando ya se sabe que es imposible estudiar cualquier sistema de la naturaleza aisladamente, por la implicancia del propio investigador, esto es más evidente en el estudio de los sistemas sociales, en los que el hombre y sus relaciones son factores determinantes. En la génesis de toda conducta social podemos reconocer factores previsibles, que dependen de la historia y del contexto, y factores imprevisibles en los que no puede identificarse influencia alguna. Evaluar aspectos de la conducta social implicará poder discriminar la contribución de ambos factores.

La únicas herramientas que permiten interpretar cuantitativamente los sistemas sociales desde cualquier mirada disciplinar son las que provee la metodología estadística. Su aplicación deberá relativizar la lógica racional en favor de una lógica probabilística, abandonando toda idea de certeza y de verdad. Si sumamos a este panorama, el volumen creciente de información que es necesario manejar ágil y eficientemente, se entenderá que las herramientas estadísticas proporcionan el apoyo necesario para asimilar, criticar y contrastar la información recibida. Tomando en cuenta la definición de David Susel de la estadística como “el arte de tomar decisiones inteligentes frente a la incertidumbre” podemos comprender que la estadística es más un ejercicio de lógica que de práctica matemática. Siendo la estadística una disciplina matemática que, introduciendo el concepto de probabilidad permite el acceso a un modo de pensamiento donde la incertidumbre forma parte del razonamiento científico, suele ser explicada utilizando únicamente un lenguaje predominantemente matemático. Frecuentemente, en su enseñanza se prioriza el uso de leyes y procedimientos mecánicos de aplicación en desmedro de la comprensión de conceptos y de la adquisición de un pensamiento estadístico, provocando un efecto de ininteligibilidad en estudiantes de disciplinas sociales, poco familiarizados con los conceptos matemáticos. Actualmente, el profesional tiene la posibilidad de resolver toda la operación matemática a instrumentos derivados de la informática, pero que no sabrá utilizarlos si no conoce la lógica del procedimiento estadístico. Entender el valor de la significación estadística y por lo tanto su validez como técnica de investigación social no requiere ningún conocimiento especial y sólo apela a una lógica específica que se utiliza permanentemente en la vida cotidiana, y en muchas ocasiones de manera intuitiva. Las pruebas estadísticas fueron creadas para ayudar al investigador a elaborar conclusiones más razonables. La deficiente comprensión del nivel de significación de las pruebas estadísticas es el problema más frecuente en los profesionales que las aplican. La Psicoestadística es una rama de la psicología que se vale de los aportes de la estadística para elaborar sus interpretaciones. A partir de su utilización puede operarse sobre cuestiones que involucren un alto monto de impredictibilidad, como por ejemplo, la

prevención de trastornos psicopatológicos a nivel comunitario. Pero su campo de aplicación en la investigación es mucho más amplio, y para comprender su importancia es necesario analizar lo que ocurre en otras disciplinas científicas. Este análisis se centrará, así, en la consideración del azar como una de las influencias decisivas de la evolución del conocimiento científico. La Psicología participa del brillante desarrollo de la ciencia occidental en los últimos dos siglos. Sus teóricos, en los que sobresalió en forma excluyente Sigmund Freud, provenían de la medicina y particularmente de la neurología, por lo que su labor estuvo impregnada por las características predominantes en dichas ramas científicas. Analizar, en perspectiva histórica, la situación de la ciencia en los orígenes de las ideas fundamentales de la psicología permitirá comprender mejor los actuales desarrollos y sus relaciones con otras disciplinas. 1.1. Determinismo científico La ciencia posibilita una mejor comprensión de la realidad y su método se basa en un proceso de análisis y crítica desarrollando teorías que se confrontan con la evidencia empírica y con otras teorías. En los albores del pensamiento occidental, los presocráticos se preocuparon por dos cuestiones fundamentales, que aún hoy son fuente de interrogantes para filósofos y científicos, y pueden resumirse en dos preguntas: ¿El universo se rige por leyes deterministas? ¿Cuál es el papel del tiempo?. Estos temas dominaron el pensamiento de los antiguos griegos y, junto con otras preocupaciones, sirvieron para que legaran dos ideales que han guiado el pensamiento occidental hasta la actualidad:

La inteligibilidad de la naturaleza, que promueve el desarrollo de un sistema de ideas generales necesario y coherente, y en función del cuál puedan ser interpretados todos los elementos de la experiencia. La democracia, basada en las premisas de libertad, creatividad y responsabilidad humana.

El conocimiento científico, tal como se interpreta actualmente, nace a partir de la aparición del método operacional que da origen a la ciencia experimental.

Con este salto cualitativo de principios del Renacimiento, el hombre creyó encontrar

un modo objetivo de estudiar la naturaleza que diferenciaba claramente la filosofía de la ciencia.

El eslabón inicial de este proceso se ubica en los trabajos de cuatro astrónomos:

Copérnico, Kepler, Galileo y Newton. Estos dos últimos, que además eran físicos, culminaron sus experimentos con el descubrimiento de la gravedad y la atracción terrestre.

Sobre estos pilares se estructuró el desarrollo de los logros más espectaculares de la ciencia del Siglo XVII.

A estas leyes habría que agregar los dos principios de la Termodinámica de

Clausius que, además de postular la constancia de la energía del universo, a través del

concepto de entropía interpreta los procesos naturales irreversibles.

A partir del trabajo de estos investigadores surgen los filósofos empiristas para

fundamentar el nuevo método de obtener conocimiento. Babon, Hobbes, Locke, Berkeley y Hume justifican el empirismo como el único camino para conocer la verdad y al procedimiento inductivo como el método lógico para deducir conocimientos generales a partir de experiencias particulares. Estos autores intentaron desarrollar un sistema de inferencia racional para obtener un conocimiento general. Como consecuencia de esta visión, el proceso científico era un proceso lineal y acumulativo y las teorías constituían la organización lógica de las leyes experimentales. La elaboración de este concepto de ciencia da un paso adelante cuando Comte fundamenta el positivismo considerando a la experiencia empírica y sus consecuentes leyes como única fuente de certidumbre. Pensadores como Poincaré y Pearson, entre otros instalaban a esta ciencia de base empírica como una guía pragmática para enfrentar la vida. Tanto para el empirismo como para el positivismo el Universo se constituye a partir de fenómenos que se conectan casualmente entre sí y dichas conexiones podían descubrirse a partir del proceso inductivo aplicado al método experimental. Este camino demostró su enorme potencial al impulsar los grandes descubrimientos científicos de los últimos tres siglos, que se tradujeron en la amplia hegemonía de las leyes de la mecánica newtoniana en la física y la concepción kantiana de la filosofía.

Las leyes de Newton explican el movimiento de las partículas materiales en función del tiempo y eran aceptadas como la expresión del conocimiento ideal, objetivo y completo, y en ellas el tiempo es reversible y expresa la equivalencia entre pasado y futuro. En cambio, a partir del Siglo XIX el principio de entropía, también universalmente aceptado, demostró que el tiempo no es equivalente en pasado y futuro. Algunos científicos han tratado de explicar esta contradicción con argumentos discutibles y simplificadores. Hume ya había planteado limitaciones lógicas al conocimiento inductivo, pues independientemente de cuántas observaciones se hayan hecho de una regularidad, esto no da ninguna garantía lógica de que volverá a ocurrir del mismo modo en la siguiente ocasión. Las hipótesis mecanicistas, que parten de las leyes de la mecánica clásica, que poblaron las teorías de fuerzas que actuaban a distancia en todos los campos de la naturaleza, comienzan a tambalear con los descubrimientos de la física atómica, al demostrar ésta que las partículas atómicas no obedecían a las leyes de Newton y, por el contrario, tenían movimientos azarosos impredecibles explicados por una nueva ley (de Schrödinger)

concepción mecánica, de valor incalculable para la

ciencia, refrendada por las predicciones que permitió hacer sobre la existencia de planetas desconocidos, con los cuales se completó el conocimiento astronómico del sistema planetario, y a la cual se deben miríades de adelantos en todas las regiones del pensamiento se basaba, no obstante, en ideas mágicas de fuerzas y fluidos que, más que hipótesis eran fantasías.” La salida al dilema de Hume fue elaborada por Popper (1972) al postular que toda teoría, modelo o ley científica es una conjetura de cómo es la realidad. De acuerdo con Popper, el énfasis del investigador debe centrarse, al contrario de cómo lo plantea la ciencia tradicional, no en probar que la teoría es verdadera sino en demostrar que no es falsa. Toda teoría, ley o hipótesis es una conjetura que será valorada en su poder explicativo y general siempre que supere los intentos rigurosos de refutarlas. Desde esta perspectiva, los datos experimentales sirven para plantear una hipótesis científica que se pone a prueba por medio de la crítica lógica y empírica. Si los hechos

Puede afirmarse con Susel: “

la

apoyan la teoría, no podemos pensar que la justifican sino que, hasta ahora no ha sido refutada. Este esquema para entender el conocimiento refuerza aún más la importancia del razonamiento lógico, que deviene de los filósofos griegos, al enfatizar el mecanismo del pensamiento hipotético-deductivo aplicado al trabajo experimental. Este punto de vista hace impensable la inclusión del azar como determinante en algunos

fenómenos como se ha descubierto, por ejemplo, en la mecánica cuántica. En las últimas décadas, algunos científicos orientados por Ilya Priogine, intentan crear una nueva formulación de la dinámica que supere la contradicción de la física clásica puesta en evidencia por la física cuántica. Prigogine señala que la pretensión de la lógica racional de un encadenamiento causal, de tal manera que todo efecto tiene una causa y se transforma a su vez en causa de un efecto posterior, provoca una tensión y contradice la creencia en la libertad del hombre para poder elegir entre varios caminos a seguir.

A esta paradoja del sentido común W. James la llamó el dilema del determinismo.

Este dilema dispara dos interrogantes: ¿El futuro está dado o en perpetua construcción?, ¿Es la creencia en nuestra libertad una ilusión?. Implícitamente estas cuestiones interrogan acerca del concepto del tiempo. El tiempo es un concepto incorporado a la física y también

es la dimensión fundamental de nuestra existencia. Este tiempo de la física es el tiempo de

”el tiempo es una ilusión”; es el tiempo de las leyes, desde la

Einstein cuando afirmaba

física clásica hasta la relatividad y la teoría cuántica, que no distingue entre pasado y futuro. Es el tiempo de los procesos en equilibrio. Al desarrollarse la física del no-equilibrio y de los procesos caóticos y demostrarse que son acontecimientos fundamentales en el desarrollo de los fenómenos naturales en todos los campos del conocimiento (química, geología, cosmología, biología, ciencias sociales, etc.) pasado y futuro juegan roles diferentes.

Esta situación dilemática en el campo de las ciencias se denomina la paradoja del tiempo y es la extensión del dilema del determinismo a la física. Hoy se sabe que los fenómeno físicos del universo no existen como sistemas aislados y cerrados y que las condiciones en que se desarrollan son diferentes de punto a punto y

hacen ilusoria la pretensión de las condiciones de equilibrio propuestas por la leyes mecanicistas. Esto, que es evidente en las ciencias biológicas y sociales, donde se admite que un pequeño acontecimiento puede cambiar el curso de la historia, no era tan visible en la física.

Boltzman, en el siglo XIX creyó posible asimilar el concepto de evolución de Darwin a los fenómenos físicos pero sus intentos fueron negados por la comunidad científica. En la actualidad la mayoría de los físicos consideran a las leyes de la mecánica cuántica como las definitivas, no distinguiendo un papel diferenciado del tiempo entre pasado y futuro. Esta situación puede pensarse desde lo expresado por Susel como resultado de la necesidad de defenderse ante la incertidumbre que genera el pensar al tiempo como una variable que afecta la permanencia de las leyes físicas. Resolver esta paradoja e incorporar el concepto de Prigogine de flecha del tiempo, en el que el tiempo juega un rol cronológicamente diferente, es el desafío de la ciencia en nuestros días. Este concepto aparece a partir de que, los procesos naturales en equilibrio son los

menos, y lo más frecuente son los desequilibrios, que provocan modificaciones irreversibles a partir de las cuales cambian las condiciones de representatividad de las leyes físicas. Lo que es aceptado universalmente en el campo de la evolución biológica, se extiende a otras áreas de la ciencia. A partir de este nuevo concepto las leyes fundamentales ahora expresan posibilidades y no certidumbres. Las leyes de la física clásica vinculadas al conocimiento completo y certero cobran un nuevo sentido al expresar posibilidades.

cuestión del tiempo y el determinismo no se limita a la

ciencia; está dentro del pensamiento occidental desde el origen de lo que denominamos racionalidad y que situamos en la época presocrática. ¿Cómo concebir la creatividad

estamos en el punto de partida de

una nueva racionalidad que ya no identifica ciencia y certidumbre, probabilidad e

Como señala Prigogine

”la

humana ó pensar la ética en un mundo determinista?

hoy

Asistimos al surgimiento de una ciencia que ya no se limita a situaciones

simplificadas, idealizadas, mas nos instala frente a la complejidad del mundo real.” Prigogine sugiere llamar a la nueva dinámica: mecánica estadística. 1.2. Conocimiento científico desde la psicología Desde la mirada de la psicología, el método experimental, con su concepción mecanicista, abarca dos aspectos: la superación del dogmatismo filosófico que lo impulsa a obtener los grandes logros científicos de los últimos siglos, y por otro lado, una tendencia regresiva hacia fases anteriores del desarrollo en donde reina el pensamiento mágico y omnipotente expresado en el principio de causa-efecto y su fantaseado horizonte de leyes universales simples que permitan explicar el pasado, justifiquen el presente y predecir el futuro.

La visión determinista de la física clásica parecía triunfante en su hegemonía considerando los descubrimientos de la astronomía y de la física en los siglos XVII, XVIII y XIX, pero a principios del siglo XX surgen los descubrimientos de la física atómica que demuestran la no obediencia de las partículas sub-atómicas a las leyes dinámicas de Newton, y su movimiento azaroso debe explicarse mediante la metodología estadística. Lo que aparentemente se cumplía en el mundo macroscópico no era verificable en el nivel de las partículas microscópicas. Sin embargo, tanto M. Planck como A. Einstein no aceptaron la explicación probabilística-estadística y hasta el final polemizaron con los físicos que comenzaban a considerar el azar como una causa más del comportamiento de los fenómenos naturales. Todo intento de reinterpretación determinista de la física atómica fue refutado pero aún así la resistencia al cambio por parte de muchos científicos fue ostensible. Desde el punto de vista psicológico esta resistencia puede interpretarse como una defensa frente a la angustia provocada por el abandono de la idea de certeza que conllevan las leyes universales deterministas. La resistencia a abandonar la concepción determinista que aún hoy se manifiesta, es una defensa, una racionalización que se pone en juego frente al conflicto que significa abandonar la pretensión omnipotente de alcanzar el conocimiento universal y completo. Así como el desarrollo de la física cuántica a fines del siglo XIX fue, sin proponérselo los propios investigadores, el disparador de una visión indeterminista de la

ignorancia

ciencia, contemporáneamente, en psicología surgen los descubrimientos de S. Freud acerca del inconciente y su influencia. La imposibilidad de la certeza absoluta y definitiva, que comienza a esbozarse en la física, se verifica también en la esfera de la conducta. No es casual que estos dos procesos coincidieran históricamente, como así también que sus descubridores siguieran aferrados a una visión determinista de la ciencia. La noción de inconciente instituyó la incertidumbre en la explicación de la conducta a nivel psicológico, así como la noción del movimiento azaroso de las partículas atómicas lo hizo en la física. Lo azaroso en psicología habría que buscarlo en el principio de policausalidad con que opera el funcionamiento psíquico, ya que si bien la aparición de síntomas está ligada a elementos del pasado, éstos son necesarios pero no suficientes, y debe considerarse la influencia del contexto con sus connotaciones azarosas. Freud demuestra que el proceso cognitivo no depende sólo de la conciencia y que factores inconcientes pueden impulsar a la negación de un aspecto de la realidad ó de una nueva idea que ponga en peligro los intereses yoicos. Estos ataques a la primacía del yo son ataques al narcisismo del hombre y si se producen por la aparición de grandes cambios en la teorías del conocimiento – revoluciones científicas – se transforman en heridas narcisístas que motorizan la resistencia a dichos cambios. Freud enfatiza esta situación con su formulación de las tres heridas fundamentales que ha sufrido el hombre a través de la historia: la primera llamada “cosmológica” se produce a partir de los descubrimientos de Copérnico del heliocentrismo del sistema planetario terrestre que desplaza a la Tierra del centro del mismo; la segunda, herida “biológica”, cuando Darwin demuestra que el hombre proviene de una evolución desde especies animales inferiores elimina la superioridad abismal que el hombre suponía respecto de las otras especies; y por último, la herida “psicológica”, que se produce con el descubrimiento del inconciente y su influencia impredecible y, por lo tanto, incontrolable sobre la conducta humana. En los tres momentos históricos el hombre sufre un ataque que pone en peligro la seguridad y la omnipotencia de los intereses yoicos que aseguraban las teorías vigentes hasta ese momento. Siguiendo esta línea de pensamiento, D. Susel propone una cuarta herida narcisísta que se manifiesta en el Siglo XX y la llama “epistemológica”, y que se produce

cuando se demuestra que la Naturaleza puede obedecer a leyes probabilísticas y por lo tanto no certeras y el hombre debe abandonar sus ideas de alcanzar leyes universales. En todos estos momentos históricos se produjeron fuertes movimientos de resistencia a las nuevas teorías, algunos de los cuales aún hoy se manifiestan y que dejaron huellas a semejanza de los “puntos de fijación” del aparato psíquico, que promueven el retorno de las teorías perimidas que brindan mayor seguridad yoica 1.3. La Estadística y su aplicación en Psicología Si bien pueden ensayarse distintas definiciones de Estadística, parece pertinente partir desde la perspectiva de Susel: “La Estadística es el arte de tomar decisiones inteligentes frente a la incertidumbre”. En su análisis Susel señala que el esquema determinista de la ciencia basado en el modo de pensamiento hipotético-deductivo para elaborar sus teorías universales sobrevalora el uso de la razón hasta convertirla, en muchas ocasiones, en una racionalización defensiva que impide el avance científico. La nueva visión indeterminista utiliza las leyes probabilísticas que incorporan la incertidumbre presente en todo fenómeno de la Naturaleza y permite tomar decisiones sin el auxilio de leyes universales. Este esquema, según Susel, valora la inteligencia para sortear momentos en que la razón no satisface la demanda del científico. La ciencia debe abandonar su pretensión de leyes universales e ir en pos de leyes probabilísticas. La nueva ciencia será una ciencia probabilística. Si bien lo señalado hasta aquí es válido para todas las ciencias, es quizá obvio en las ciencias sociales, donde se analizan fenómenos que, por su complejidad causal manifiestan un alto grado de incertidumbre. El objetivo de la aplicación de las técnicas estadísticas es la predicción, dentro de un marco de incertidumbre, de la evolución de un fenómeno determinado bajo ciertas condiciones. En ciencias naturales se analiza el comportamiento de la materia según diferentes perspectivas – físicas, químicas, etc. – mientras que en ciencias sociales se estudian problemas mucho más complejos que involucran al hombre con sus diferencias individuales y sus distintos modos de interactuar. La complejidad de los fenómenos sociales se traduce en acciones en donde el factor aleatorio – el azar – es un componente fundamental. La técnica estadística, al operar según

la teoría de las probabilidades, permite analizar y predecir en todo problema en el que intervenga el azar. Si la mirada del problema social está centrada en la conducta del hombre en diferentes circunstancias, la estadística se transforma en una herramienta imprescindible para la Psicología. 1.4. Cómo opera la Estadística en una investigación científica Si se quiere sintetizar en tres palabras cómo opera el método estadístico para la toma de decisiones, puede decirse que la estadística contrasta el azar. Así como en las ciencias naturales es necesario acudir a modelos para el análisis de los fenómenos – gases ideales, sistemas aislados en equilibrio, etc. – en ciencias sociales pueden analizarse los problemas únicamente a partir de modelos que representan lo más fielmente posible el comportamiento del sistema social en cuestión. Los modelos deben tomar en cuenta los factores intervinientes y su forma de interrelación. Por fortuna, existen ciertas regularidades en el comportamiento de los factores sociales, por lo que hay pocos modelos a los que se debe recurrir eficientemente. Dentro de estos, el más usado en aplicaciones estadísticas en psicología es el llamado modelo normal. Es este curso se estudiará cómo se utiliza el modelo normal para describir y/o predecir aspectos referidos a fenómenos de comportamiento en sistemas sociales y a señalar algún otro modelo que se utiliza bajo condiciones particulares. Un modelo estadístico es un modelo de comportamiento probable del factor estudiado en el sistema social involucrado bajo ciertas condiciones. Estas condiciones se establecen para asegurar la aleatoridad del sistema. En otras palabras, describe matemáticamente cual es el comportamiento probable de dicho factor si todos los elementos del sistema estudiado tienen la misma posibilidad de intervenir y por lo tanto pueden elegirse azarosamente. El método de inferencia estadística permite contrastar los resultados de una investigación con los valores que establece, para la problemática en estudio, la distribución de probabilidades que mejor se adapta al conjunto total de los elementos estudiados y del cual se extrajeron los datos empíricos.

Cuando se inicia una investigación se debe plantear una hipótesis que pueda ser corroborada a posteriori. Estas hipótesis surgen de los conocimientos previos acerca del fenómeno estudiado que el investigador posee y que son el soporte que justifican la necesidad de investigar. Estos datos previos se refieren a los diferentes factores que determinan el comportamiento de los elementos analizados (unidades experimentales). En los problemas asociados al comportamiento humano está demostrado que, cuando se analizan a escala macrosocial, los factores determinantes se distribuyen de tal forma que los más frecuentes corresponden a valores medios y van disminuyendo en cantidad los valores que se alejan tanto para un extremo ú otro de la distribución. Esta característica se intensifica a medida que crece el número de elementos estudiados. Este comportamiento de los factores sociales puede representarse, como se verá más adelante, mediante el modelo de la distribución normal de probabilidades. En el contraste de los datos experimentales con este modelo se basan la mayoría de las técnicas estadísticas que se utilizan en psicología. Como ya se señaló, la estadística proporciona una serie de técnicas para organizar la información científica y tomar decisiones a partir de ella. Una investigación se refiere, en general, a un conjunto de datos que provienen de objetos, animales ó personas. Un psicólogo, por ejemplo, puede querer observar si hay alguna regularidad en la conducta de distintos grupos de pacientes frente a un mismo estímulo, sabiendo que analizados en forma individual seguramente existen diferencias en el comportamiento. La investigación en psicología es, por lo tanto, de capital importancia en áreas como la de patologías psicosociales (adicciones, alcoholismo, trastornos alimenticios, etc.) para encarar un tratamiento eficaz ó para tareas en prevención. Si bien la investigación y el pensamiento estadístico están incorporados al comportamiento individual, desde un lugar ligado a la intuición y al sentido común, aquí se explorará esta interrelación desde una mirada más rigurosa y científica. Bibliografía (adicional a la que figura en el programa de la materia) Hacking I. (1991) La domesticación del azar. Barceloma: Ed. Gedisa Morin E. (1977) El Método. Vol. 1. Madris: Ed. Cátedra Prigogine I. ¿Tal solo una ilusión? Ed. Tusquets, Barcelona (1983)

Prigogine, I. (1991) El nacimiento del tiempo. Barcelona: Ed. Tusquets Prigogine I. y Stengers I.(1991) Entre el tiempo y la eternidad. Bs. As.: Ed. Alianza Schnitman D. (Comp.) (1994) Nuevos paradigmas. Cultura y subjetividad. Bs. As.: Ed Paidos Wagensberg J. (Comp)(1996) Proceso al azar. Barcelona: Ed. Tusquets Wagensberg J. (1985) Ideas sobre la complejidad del mundo. Barcelona: Ed. Tusquets