Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PENSAMIENTO CIENTÍFICO
Cátedra Miguel
Materiales para el
Primer Parcial
Geocentrismo
Las estrellas fijas y los planetas
La primera observación, aparentemente más obvia, sobre la que queremos llamar la atención es la del
movimiento aparente del sol para un observador situado sobre la superficie de la Tierra (claro,
¿aparente para quién?). Y el carácter firme e inmóvil de la Tierra misma. La luna, por otra parte, parece
estar realizando un movimiento de giro centrado en la Tierra, de modo que se podía hacer un
paralelismo y pensar entonces, que tanto el sol como la luna giraban alrededor de la Tierra.
Las estrellas, vistas desde nuestro planeta, parecen realizar un movimiento alrededor de la Tierra
saliendo por el este, y luego de realizar un arco en el cielo, se esconden por la parte oeste del horizonte.
Esto motivó las más variadas explicaciones, pero una de ellas se mantuvo vigente durante tanto tiempo
1
que fue de enorme influencia en el desarrollo del conocimiento desde la antigüedad hasta la época
moderna.
Modelo geocéntrico
2
empezara a recuperar camino como si girara más rápido que las estrellas fijas que lo arrastran, no podía
haber cambios. Pues bien, el planeta Marte (y otros también) mostraba este comportamiento (la
retrogradación de los planetas) y el modelo de Aristóteles tuvo que enfrentar esas observaciones
(anomalías de la teoría).
De acuerdo con el geocentrismo, las estrellas fijas (las que formaban constelaciones) giraban en torno
a la Tierra que estaba ubicada en el centro del
universo. La esfera de estas estrellas fijas
arrastraba al resto de las esferas concéntricas
interiores. En cada una de estas esferas estaba
"empotrado" uno de los planetas (según esta
cosmovisión: Luna, Mercurio, Venus, Sol,
Marte, Júpiter y Saturno). Dado que cada esfera
era arrastrada por las esferas exteriores en un
movimiento eterno de velocidad angular
constante, no podía haber cambios en esos
movimientos. Según este modelo defendido
por Aristóteles, entre otros, los astros errantes
(planetas) debían moverse de este a oeste como
el resto de las estrellas, pero no al mismo ritmo. Así, cada planeta se vería noche a noche un poco más
atrasado respecto de las constelaciones de fondo. Si utilizáramos la constelación de Orión (donde se
encuentran Las Tres Marías) para registrar el movimiento de los planetas, podríamos tomar nota de en
qué lugar del cielo se encuentra el planeta Marte, por ejemplo, en cada noche del mes y del año. A
medida que pasan las noches, observando siempre a la misma hora y desde un mismo lugar (por
ejemplo cuando las Tres Marías se encuentran justo encima del Partenón y nosotros ubicados con
nuestra silla todas las noches en el mismo lugar) encontraríamos que el planeta se ubica en las
posiciones 1, 2, 3, ... sucesivamente.
3
Los planetas de cuando en cuando tenían un movimiento que los hacía adelantarse respecto de su
retraso habitual. Todo parecía indicar que durante cierto lapso recorrían el cielo más rápidamente que
las estrellas fijas que los estaban arrastrando. Esto planteaba una observación anómala para el modelo
según el cual cada planeta está empotrado en una esfera que realiza movimientos circulares siempre
con la misma velocidad. Durante varias noches el plantea retrogradaba de modo que se adelantaba para
finalmente retomar su velocidad de retraso habitual. Otro detalle que se sumaba al complejo problema
era que durante la retrogradación los planetas se apreciaban con mayor brillo, lo cual indicaba que lo
hacían a una menor distancia de la Tierra.
ARISTÓTELES
(384 a. C. - 322 a. C.) nació en Estagira, una colonia griega en la península Calcídica. Fue uno de los
pensadores griegos más importantes de su época y de toda la historia. Su cosmología no solamente
fue aceptada en su época sino que, al aparecer sus obras introducidas en Europa por los árabes que
ocupaban la península ibérica, volvió a constituirse a partir del siglo XII en la explicación más
completa de los movimientos de los cielos. De este modo, sus ideas surgidas en el siglo IV anterior al
comienzo de nuestra era permanecieron vigentes en uno u otro lugar del mundo hasta que recién en
el siglo XVI (2.000 años después) su ideas cosmológicas comenzaron a perder aceptación a partir de
las ideas de Copérnico.
4
El modelo de Ptolomeo
Ptolomeo, alrededor del año 150 (más de 500 años después de Aristóteles), trató de explicar
el movimiento anómalo de Marte y los demás planetas que parecían adelantarse a las
estrellas durante algunos días y luego continuaban atrasándose el resto del año. Sugirió que
los cuerpos celestes realizaban movimientos alrededor de la tierra que eran composiciones de
movimientos circulares. Así, el planeta Marte realizaba un
movimiento circular alrededor de un punto que a su vez
giraba alrededor de la Tierra. Podemos imaginarnos un
movimiento parecido al de una niña que está arriba de una
calesita haciendo girar su llavero con la mano. De este
modo las llaves realizan un movimiento circular alrededor
de su mano, que a su vez gira alrededor del centro de la
calesita. Cada círculo agregado al círculo centrado en la
Tierra, era un epiciclo. Con la estrategia de agregar
epiciclos, Ptolomeo pudo explicar las observaciones del
movimiento anómalo de Marte. Sin embargo, año a año los
seguidores de Ptolomeo deberían agregar más y más
movimientos circulares ya que los cálculos difícilmente se ajustaban con las nuevas observaciones.
CLAUDIO PTOLOMEO
5
Heliocentrismo
El Sol y la Luna
En 1530 Nicolás Copérnico lanzó una idea revolucionaria: en el centro del universo estaba el Sol y no
la Tierra. El Sol estaba quieto y a su alrededor giraban todos los demás cuerpos conocidos. La Tierra,
además de este movimiento de traslación alrededor del Sol, giraba sobre sí misma y debido a este
último movimiento se explicaban el día y la noche y el movimiento de los astros que parecían girar
alrededor nuestro. La Tierra había sido destituida del centro del universo. La especie humana, aunque
importante, ya no habitaba en el centro sino que giraba con su mundo alrededor de un cuerpo luminoso
e incandescente.
La contribución de Copérnico
De acuerdo con la propuesta de Copérnico, la Tierra y los demás planetas giraban alrededor del Sol en
órbitas circulares, mientras que la Luna giraba alrededor de la Tierra acompañándola en su órbita
alrededor del Sol. La noción de planeta había cambiado: el Sol y la Luna ya no eran llamados “planetas”
y en cambio la Tierra sí lo era.
6
Las dificultades enfrentadas por el modelo copernicano
fueron muchísimas y muy graves. Para comenzar, los
cálculos con el nuevo modelo eran tan malos como los que
se obtenían con el que pretendía reemplazar. La propuesta
de que la Tierra se mueve parecía muy absurda, si se toma
en cuenta que no sentimos ningún efecto de ese movimiento.
Más aún, si la Tierra realiza un movimiento circular
alrededor del Sol, entonces desde uno y otro extremo de su
órbita (es decir, en enero y en julio, por ejemplo) la visual a
la misma estrella debe variar, pero este efecto llamado
"paralaje estelar" no se observaba.
Por otra parte, la física de Aristóteles explicaba la caída de una piedra debido a que la piedra tiene su
lugar natural en el centro del universo y, al soltarla, se moverá en dirección a ese punto ya que es su
lugar natural. Pero en el modelo de Copérnico, ¿por qué las piedras caen hacia el centro de la Tierra si
ya no es el centro del universo? La física de Aristóteles no estaba hecha para la astronomía de
Copérnico. El cuerpo del conocimiento científico se estaba fracturando. Seguíamos usando la física
geocentrista, pero comenzábamos a usar la astronomía heliocentrista. Habrían de pasar todavía casi
ciento cincuenta años para que volviéramos a tener un panorama unificado de cómo es la naturaleza
de los cielos y la Tierra. Asoma una pregunta con mucho mayor fuerza que las anteriores: ¿qué fue
entonces lo que hizo que la propuesta de Copérnico sobreviviera y finalmente prosperara? La
necesidad de confeccionar tablas para la navegación y para la astrología requería un sistema que
explicara de forma más adecuada y unificada los movimientos de los astros. También se requería una
reforma del calendario, ya que las fechas festivas religiosas se iban corriendo año a año. El modelo de
Copérnico parecía promisorio por su simplificación de los movimientos de los planetas, aunque
todavía ineficiente en los cálculos. Por otra parte, le daba una preponderancia al Sol que puede haber
resultado tentadora para las creencias de la época.
NICOLÁS COPÉRNICO
(1473-1543) nació en Thorn, Polonia. Llegó a ser uno de los economistas más importantes de su época,
y Polonia unificó su moneda con Lituania siguiendo una de sus iniciativas. Rechazó la invitación de la
Iglesia Romana a participar en un intento de reforma del calendario, ya que todavía no había resuelto
el problema de la ubicación del Sol y la Luna a lo largo del año. Durante sus treinta últimos años realizó
gran cantidad de observaciones astronómicas y preparó su única y grandiosa obra dedicada al papa Paulo
III en 1542: Libro de las revoluciones.
7
heliocentrista habría perdido la batalla contra el geocentrista, mientras que de hecho fue la semilla de
un nuevo pensamiento que, aceptado recién un siglo y medio después, produjo un cambio
revolucionario en la ciencia.
La contribución de Galileo
El modelo copernicano había desafiado a la astronomía aristotélica. Se podía mostrar que los
movimientos de los astros podían explicarse (aunque no sin gran desajuste con los datos) si se suponía
que la Tierra realizaba un movimiento de giro sobre su eje y a su vez una traslación alrededor del Sol.
Pero el modelo copernicano nada decía de los movimientos que realizaban los cuerpos aquí en la Tierra.
Si las piedras caían porque, según el modelo aristotélico, su lugar natural es el centro del universo,
entonces ¿por qué caen hacia el centro de la Tierra si ésta ya no es el centro del universo? Si Copérnico
tenía razón, entonces los objetos deben caer por otro motivo.
Galileo se dedicó, entre otras cosas, al estudio de la caída de los cuerpos. No llegó a darnos un motivo
por el cual caen los cuerpos, como lo hizo Newton años más tarde, pero nos dejó una nueva manera de
estudiar la naturaleza. Galileo observó la naturaleza esperando encontrar regularidades, leyes de la
naturaleza. La observación y la recolección de datos tenían un papel importante en la obtención de la
forma matemática de esas leyes. Los razonamientos y los experimentos mentales (imaginados), en
cambio, le servían de guía para proponer las distintas relaciones entre fenómenos. De su estudio de la
caída de los cuerpos Galileo concluyó que, cuando el rozamiento con el aire es despreciable, todos los
cuerpos caen con la misma aceleración (en un mismo lugar de la Tierra). Para alcanzar esta conclusión
Galileo se nutrió, como dijimos, de dos vertientes diferentes. Por un lado, acumuló una gran cantidad
de datos midiendo el tiempo de caída de diferentes cuerpos desde una misma altura. Por otra parte,
pensó que si un cuerpo más pesado caía más rápidamente, entonces, al atar dos ladrillos iguales, el
conjunto caería más rápidamente que cada una de sus dos mitades, y esto le pareció absurdo.
Galileo descubrió que el espacio recorrido por un cuerpo en caída libre (s) a medida que transcurre el
tiempo (t) obedece a la ley cuadrática:
s = k.t 2
y la velocidad del cuerpo en la caída se incrementa en la misma cantidad en cada segundo de caída,
de modo que la velocidad v y el tiempo de caída t cumplen con la ley lineal: v = a t
El argumento de la torre
8
No obstante los avances que pudo realizar con su descubrimiento de la ley
de caída libre, Galileo tendría que enfrentar las objeciones de los
defensores del geocentrismo. Su descripción de la caída libre parecía
oponerse al modelo heliocéntrico. Si la Tierra se mueve según el modelo
copernicano al que adhería Galileo, ¿cómo es que una piedra que se suelta
desde lo alto de una torre cae al pie de ella y no desplazada?
Observaciones de Galileo
Por otra parte, Galileo se dedicó al estudio del cielo con la ayuda de un telescopio que modificó él
mismo para mejorarlo. Con ayuda del telescopio, Galileo descubrió que Venus tenía fases como la
Luna, que la Luna tenía montañas y valles, que Júpiter tenía lunas, que había más estrellas que las que
se podían ver a simple vista y que Saturno tenía unas salientes (como orejas) que cambian con el tiempo
(aunque no pudo determinar que eran anillos). Incluso llegó a descubrir y dibujar las manchas solares.
Cada uno de estos descubrimientos estaba en contra del modelo aristotélico. (Lectura: Galileo observa
Neptuno.)
Galileo había observado con su telescopio "astros vagabundos" que giraban alrededor de Júpiter, así
como los valles y montañas de la luna y multitud de estrellas que no se observaban a simple vista.
Todas estas observaciones fueron publicadas en 1610 bajo el nombre Siderus nuncius ( en latín-que
era la lengua que se utilizaba para publicaciones científicas en ese entonces- "mensaje de los astros")
9
Observación actual de las lunas descubiertas por Galileo
Galileo modificó un telescopio para darle mayor poder y con ello poder observar con más detalle la
superficie de la Luna. Sin embargo esta modificación también producía efectos no deseados,
aberraciones, de modo que era necesario distinguir entre los aspectos de la imagen que eran
amplificadas y los aspectos que solamente aparecían como un defecto del instrumento. Para esa época
no se disponía de una teoría óptica, sino que el conocimiento sobre las lentes era un conocimiento
técnico basado en la tradición de pulir las lentes para obtener diferentes grados de aumento. Por este
motivo era difícil para Galileo respaldar sus observaciones de rasgos en la superficie de la luna que
sus oponentes no querían aceptar. Galileo respaldaba el uso del telescopio mostrando que con este
instrumento se podían observar detalles de un barco que todavía no llegó a puerto y luego verificar que
esos detalles estaban en el barco. Esto constituía un método de prueba que garantizaba que el telescopio
no creaba las imágenes sino que las amplificaba. Sin embargo esta prueba solo sirve para objetos que
más tarde podemos inspeccionar de modo directo. Esto restringe el método de prueba a un rango de
distancias y objetos de modo que no es el mismo modo respaldo que necesitamos para garantizar las
imágenes que nos llegan de la superficie lunar.
Galileo tenía un método de respaldo que no podía extrapolarse al rango en el que era necesario hacer
las observaciones. Que el telescopio no crea imágenes sino que las amplifica era algo probado para
un rango, pero lo que estaba en discusión no tenía ningún respaldo y sería necesario tener una teoría
(óptica) para obtener ese respaldo.
Las observaciones que realizó Galileo le dieron la convicción de que en la superficie de la Luna había
cráteres y montañas. Esto no era aceptable para el modelo geocentrista defendida por la mayoría de
los científicos de su época. Según el geocentrismo la Luna, ubicada en la zona supralunar, debía ser
perfectamente esférica. Su superficie no podía tener irregularidades. Estas observaciones entonces
constituían una anomalía para el geocentrismo, siempre que se aceptara que lo que estamos viendo con
el telescopio es algo que corresponde a la superficie lunar y no que es una imagen creada por el propio
telescopio, es decir que no sea una aberración.
Los oponentes de Galileo, con la intención de defender su cosmovisión geocentrista, tenían su mejor
objeción en que no tenemos garantía de que lo que se ve por el telescopio realmente exista en la Luna.
10
Pero una segunda estrategia fue la de generar una hipótesis
ad hoc bastante divertida. La estrategia era aceptar que la HIPÓTESIS AD HOC
Luna tenía cráteres y montañas pero estaba rodeada de una Son afirmaciones que se
capa imperceptible que la rodeaba, y esta capa introducen a una teoría o se
imperceptible era perfectamente esférica y sin rugosidades. agregan a una hipótesis
seriamente amenazada por datos
Se cuenta que Galileo respondió que efectivamente la Luna
adversos. Dicho de otra forma, son
tenía una capa imperceptible que la rodeaba, pero que esa hipótesis que se postulan para
capa copiaba los cráteres y las montañas. De este modo el salvar la hipótesis principal o la
recurso a la hipótesis ad hoc se torna totalmente inútil ya teoría de una refutación, es decir,
que no es posible poner a prueba ninguna afirmación acerca cuando aparece una anomalía. La
de una capa que es "imperceptible". expresión “ad-hoc” significa “para
esto”, para un determinado
propósito u objetivo.
Según Aristóteles hay en la naturaleza una suerte de animismo, los cuerpos se comportan
teleológicamente. Cada cuerpo se mueve naturalmente para realizar su esencia, su finalidad, para
alcanzar su lugar natural. Aristóteles distinguía lo natural de lo artificial. Mientras que lo natural
contiene en sí su propia finalidad, lo artificial (artefacto) recibe de un artífice externo, la
intencionalidad del artesano. Es decir, difieren enormemente respecto de su causa: no es lo mismo a
qué se debe el ser una manzana (producido por la naturaleza) que a qué se debe el ser una rueda
(fabricado por los hombres). De esta distinción se sigue la negación de la legitimidad de indagar el
orden natural con medios artificiales. Esta concepción cambia radicalmente en la modernidad. Francis
Bacon sostuvo “Lo artificial no difiere de lo natural por su forma o esencia ni importa, con tal que las
cosas estén dispuestas para producir un efecto” y Pierre Gassendi (1596-1650) escribió que “no hay
diferencia entre las máquinas que construyen los artesanos y los cuerpos diversos que la naturaleza
compone”.
11
Que experiencias montadas artificialmente (experimentos) y artefactos (p.e. telescopio) sirvan para
escrutar la naturaleza iba a contrapelo de la distinción aristotélica entre artefacto y naturaleza. Si
Copérnico había propuesto un modelo astronómico heliocéntrico basado en el cálculo matemático
Galileo ofreció además una apoyatura empírica. Operó una suerte de síntesis entre filosofía natural y
matemática, Galileo sostuvo que además de la certeza matemática se contaba también con la certeza
sensible. Al orden natural se accedía por la experiencia y por las demostraciones. Él se autodefinía
como “filosofo matemático”. Galileo tenía una concepción realista de la ciencia . Para él, el mundo
debía interpretarse matemáticamente porque su estructura era matemática (esencialismo matemático).
Ver Galileo y el libro de la Naturaleza.
La contribución de Kepler
La descripción precisa de los movimientos planetarios se hacía cada vez más necesaria y con el modelo
de Copérnico de las órbitas circulares no se podían ajustar los cálculos con las observaciones. Pero
¿qué otro tipo de movimiento que no fuera circular podían realizar los planetas si, de acuerdo a las
creencias de la física aristotélica, los movimientos naturales que realizaban los astros eran círculos
alrededor del centro del universo? A comienzos de 1600 el astrónomo danés Tycho Brahe había
acumulado gran cantidad de datos astronómicos. Su ayudante, Johannes Kepler, enfrentaría el
problema de encontrar las órbitas planetarias del sistema solar. Propondría unas pocas y simples leyes
a las que los astros parecían obedecer.
Kepler estaba convencido del modelo copernicano y probó durante años combinaciones de
movimientos circulares alrededor del Sol para los planetas y encontró que los datos astronómicos
refutaban cada una de sus órbitas propuestas, hasta que probó con una órbita elíptica. La hipótesis de
movimiento elíptico alrededor del Sol era confirmada por la gran cantidad de observaciones. Propuso
entonces su primera conjetura (creyendo haber encontrado una ley de la naturaleza):
Años más tarde descubrió (también por los cálculos y su ajuste con las observaciones) que los planetas
12
más alejados tomaban más tiempo en completar su órbita y encontró la relación entre esas dos variables
proponiendo la tercera ley:
3. El cubo de la distancia media entre el planeta y el Sol es proporcional al cuadrado del tiempo que
emplea el planeta en completar la órbita. Y esa proporción es la misma para todos los planetas.
JOHANNES KEPLER
(1571-1630) nació en Württenberg, actualmente Alemania, cuando Galileo tenía 7 años. Se ganaba la
vida como astrónomo y astrólogo (preparando horóscopos) y enseñando matemática. A los 25 años
publicó su primer libro y viajó a Praga para ser ayudante de Tycho Brahe. Era un ferviente copernicano
y creía que el mundo cumplía con relaciones numéricas sencillas. Había imaginado que las órbitas de los
planetas se relacionaban con los cuerpos regulares (cubo, tetraedro, dodecaedro, icosaedro y octaedro).
Más tarde relacionó las velocidades de los planetas con la escala musical. Su espíritu místico y fe en la
armonía del mundo lo llevaría a descubrir las órbitas planetarias.
Universo newtoniano
El proceso de cambio de cosmovisión que involucró el abandono del geocentrismo parece culminar en
la la propuesta de Newton. En esta propuesta se terminan de producir cambios de gran importancia
entre los que se destacan la unificación de las leyes de movimiento de los astros y de los objetos aquí
en la Tierra; la comprensión de los problemas astronómicos en un universo infinito; la caída de los
cuerpos con diferente peso; el rozamiento con el aire; y otra serie de cuestiones que habían sido motivo
de controversia en diferentes tramos de este cambio revolucionario que tomó alrededor de 150 años.
En esta sección analizamos esta propuesta y las contribuciones cruciales que el cálculo y la tecnología
(telescopio) aportaron para afianzar una nueva cosmovisión.
Grandes avances se habían hecho para entender el movimiento de los cuerpos y de los planetas.
Copérnico había propuesto un sistema con el Sol en el centro, Kepler había encontrado la forma elíptica
de las órbitas de los planetas, Galileo había descubierto la ley de caída de los cuerpos, había propuesto
la inercia y observado lunas que giraban en torno a Júpiter. Pero las leyes de Kepler que regían los
cielos no parecían relacionarse con las leyes de Galileo para la caída, la flotación, el péndulo y las
trayectorias de los proyectiles que se aplicaban aquí en la Tierra. Newton conocía la opinión de Galileo
de que los cuerpos debido a su inercia mantienen su estado de movimiento o reposo. Sabía que si no
existía una fuerza en dirección al centro de la Tierra, los cuerpos no se caerían. Por aquella época
(alrededor de 1670) se hablaba de atracción gravitatoria de la Tierra sobre los cuerpos que caen. Se
preguntó si la fuerza que hace caer la manzana del árbol influiría también sobre la Luna. Newton
comparó la caída de los cuerpos con el movimiento de la Luna. Razonó de la siguiente manera. Cuando
se dispara un proyectil en forma horizontal desde una colina, éste cae a unos cuantos metros de la base
de la colina. Cuanto mayor sea la velocidad del disparo más lejos de la base de la colina caerá. Con
13
una velocidad inicial suficientemente alta, el proyectil en su caída iría siguiendo la línea de la superficie
esférica terrestre y por lo tanto jamás tocaría el suelo. En este caso diríamos que el proyectil se ha
transformado en un satélite de la Tierra. La Luna es el satélite natural de la Tierra y, debido a la gran
altura sobre la superficie y a la velocidad que lleva, realiza un movimiento de caída hacia el centro de
la Tierra en el que jamás tocará el suelo. En eso consiste su movimiento orbital.
NOTA: Newton en su vejez contó a un amigo que se inspiró en la caída de una manzana para proponer
su ley de atracción gravitatoria aunque no sabemos si realmente ocurrió el episodio de la manzana.
El primer paso estaba dado hacia la unificación de los movimientos en el cielo y los movimientos en
la Tierra. El siguiente paso sería descubrir qué es lo que hace que los cuerpos caigan, que los planetas
orbiten al Sol y que las lunas giren en torno a sus planetas.
Por la misma inercia propuesta por Galileo, Newton entendía que si un cuerpo viaja en una dirección,
será necesario ejercer una fuerza para que cambie de dirección, para que doble. Encontró que si a un
cuerpo que se mueve con cierta velocidad se le aplica una fuerza constante hacia un punto fuera de su
trayectoria, su movimiento cumpliría con la segunda ley de Kepler (ley de las áreas). A partir de la
tercera ley de Kepler dedujo que la atracción del Sol sobre los planetas debía ser una fuerza que
decayera en proporción al cuadrado de la distancia. Es decir que al doble (2) de distancia, la atracción
sería la cuarta parte (1/4).
Cálculo infinitesimal
Finalmente desarrolló una nueva rama del cálculo matemático para poder encontrar las órbitas que
seguirían los planetas si fueran atraídas por una fuerza de estas características. Comprobó que las
órbitas que siguen los cuerpos cuando son atraídos por este tipo de fuerzas son elipses.
Entonces Newton tuvo entre sus manos todo lo necesario para dar al mundo una nueva teoría del
movimiento, y así lo hizo. Existe una fuerza de atracción mutua entre todos los cuerpos que llamamos
fuerza de atracción universal. La intensidad de esa fuerza es tanto mayor cuanto más masivos sean los
cuerpos y cuanto más cerca se encuentren.
Con este descubrimiento y sus leyes del movimiento Newton fue capaz de hacer realidad el sueño de
Copérnico, Galileo y Kepler. Las fuerzas gravitatorias rigen la caída de los cuerpos, el movimiento de
la Luna alrededor de la Tierra, el movimiento de ésta y los demás planetas alrededor del Sol, y el
mismo movimiento del Sol entre las estrellas.
Una revolución en el pensamiento científico había culminado. Las caídas de las piedras ya no eran
indicio de que el lugar natural de esas piedras era el centro del universo; ahora esas mismas caídas se
tomaban como indicio de que existía una atracción gravitatoria que las estaba tironeando hacia el
centro del planeta. Los astros ya no giraban en torno al centro del universo sino que seguían las órbitas
que correspondían según su velocidad y la fuerza con la que eran atraídos gravitatoriamente por el Sol.
Las mismas leyes de la naturaleza reinaban en los cielos y en la Tierra.
14
ISAAC NEWTON
(1642-1727) nació en Woolsthorpe, cerca de Grantham, Inglaterra, el mismo año en que muere Galileo.
Al llegar al Trinity College de la Universidad de Cambridge en 1661, se enteró de la revolución científica
que se estaba produciendo debido a los trabajos de Copérnico, Kepler, Galileo y Descartes. Dirigiendo
su atención a la Filosofía Natural, se interesó en las ideas de los atomistas, que sostenían que toda la
materia estaba constituida por partículas indivisibles (átomo: no divisible). Esa misma idea lo llevó a
sostener erróneamente que la luz estaba hecha de corpúsculos que viajaban a gran velocidad en línea
recta. En los años 1665-66 Newton, en su ciudad natal, continuó sus estudios sobre la luz, la gravedad y
el movimiento de los cuerpos. Desarrolló una nueva rama de la matemática (el cálculo infinitesimal)
coincidentemente con Leibniz, lo que provocó entre ambos una intensa polémica sobre la creación del
cálculo. Descubrió que la luz solar está compuesta de varios colores. Calculó las masas de los planetas
conocidos. Inventó el telescopio por reflexión (con espejos esféricos). Enseñó geometría, óptica,
estadística en la Universidad de Cambridge. En 1687 publicó sus Principios matemáticos de la filosofía
natural, en la que presenta su teoría gravitatoria junto con las leyes de movimiento de los cuerpos. Fue
contemporáneo de Halley (descubridor del cometa), Huygens (que defendía la naturaleza ondulatoria
de la luz) y Hooke (quien había propuesto la atracción gravitatoria pero no había logrado la fórmula
correcta para obtener las órbitas). Fue el primer científico honrado con un funeral en la Abadía de
Westminster. A partir de su teoría fue posible explicar el movimiento de los cuerpos, el sistema
planetario, las mareas oceánicas, la formación de las estrellas y todo fenómeno mecánico de la
naturaleza. Hasta principios de 1900, en que algunas observaciones de fenómenos luminosos parecían
estar en contra, la teoría de Newton describía completamente el Universo mecánico.
Cosmologías actuales
Teoría del Big Bang
Las ideas cosmológicas actuales siguen reproduciendo la polémica acerca de si el universo existió
siempre o si tuvo un comienzo. Una minoría de astrónomos adhiere a idea de que el universo es eterno
y, en algún sentido, invariable, ideas que están plasmadas en la teoría del Universo Estacionario. En
cambio la mayoría de los científicos se inclinan por la idea de que el Universo tuvo un comienzo en
un instante dado. Se trata de la teoría del big bang. Este comienzo ya no se liga con ninguna idea a
favor ni en contra de cualquier tradición de un ser creador. La teoría no se expide sobre tal tema. La
teoría del big bang (Gran Explosión) sostiene que el Universo debe haber comenzado, y con él el
tiempo y el espacio, hace alrededor de 15.000 millones de años sin agregar ninguna hipótesis sobre la
existencia de un creador.
Pero, ¿a partir de cuáles observaciones los científicos optaron por una idea tan particular como la de
que el Universo se creó "explotando" en aquel instante? En 1929, el investigador Edwin Hubble
15
(astrónomo estadounidense) había sugerido que el Universo estaba en expansión: "hacia donde
miremos las galaxias más distantes se están alejando de nosotros". Las observaciones con las que
contamos hasta el momento confirman que el alejamiento mutuo de las galaxias es más pronunciado
cuanto más separadas están estas galaxias. Esto tiene el aspecto del resultado de una explosión del
pasado y de allí el nombre de la teoría. Sin embargo los detalles que son necesarios suponer para dar
cuenta de tales observaciones incluyen varios aspectos poco intuitivos. Para comenzar no parece que
fueran las galaxias que se alejaran viajando por el espacio sino que es el espacio mismo el que se
expande y con ello da lugar al alejamiento observado. Algo así como se alejarían las pintitas de un
globo de lunares a medida que lo inflamos.
A partir de estas consideraciones parece intuitivo querer "rodar la película hacia atrás" y calcular en
qué momento todo el Universo estaba concentrado en un punto. En ese momento debe haber
comenzado todo a partir de una explosión. Pero en esa explosión también comenzó el tiempo, de modo
que no tiene ningún sentido preguntarse sobre lo que hubo antes del Big Bang como no tiene sentido
preguntarse qué hay al sur del polo sur ya que cualquiera que sea el movimiento que hagamos sobre la
superficie de la Tierra en el Polo Sur estaremos moviéndonos en dirección hacia el norte.
Igualmente cualquier intervalo de tiempo que podamos imaginarnos respecto del instante del Big Bang
deberá ser de ese instante en adelante.
Ahora bien, si toda la energía del universo actual alguna vez estuvo concentrada de tal manera, los
científicos creen que la forma en que se manifestaba tal energía no debía ser tal como se presenta ahora
en forma de partículas y radiación sino que solo podría haber habido radiación. A medida que el
espacio se expandía, la energía se "desparramaba" de modo que su densidad disminuía. Habrá llegado
un momento en que la energía por unidad de volumen era suficientemente baja como para que las
partículas y antipartículas que se formaran a partir de esa energía, no se volvieran a transformar en
radiación. En ese momento las partículas comenzaron a ser estables. Dicho de otro modo, los choques
entre fotones crearon partículas, y estas partículas chocaban con menos energía de la necesaria para
desintegrarse en fotones. De este modo una vez creadas las partículas, parte sustancial de ellas
permaneció sin transformarse en radiación. Sin embargo aquella época prolífica de creación de
partículas no duró para siempre. El espacio siguió expandiéndose y con ello la energía por unidad de
volumen siguió bajando, la temperatura siguió bajando. Esto significó que los choques entre fotones
ya no fueron tan energéticos y entonces ya no se crearon tantas partículas como antes. El Universo
había obtenido un equilibrio entre la radiación existente y las partículas que de ella habían surgido.
Con la aparición de las partículas se hizo más evidente la fuerza de atracción gravitatoria. Esto provocó
que las partículas se fueran agrupando en grandes nubes y a su vez que esas nubes siguieran
compactándose por la fuerza atractiva hasta formar galaxias y estrellas. También esa fuerza de
atracción hace que las distintas partes masivas del Universo se atraigan de modo que se reduzca en
parte el efecto expansivo del espacio. La pregunta que la ciencia se hace todavía es si la atracción
gravitatoria podrá reunir nuevamente toda la masa colapsando hacia un punto o la expansión no tendrá
freno y los cuerpos se alejarán unos de otros indefinidamente hasta no interaccionar nunca más.
16
La radiación de fondo cósmico
El haber observado el alejamiento de las galaxias como lo describimos anteriormente dio pie a la
conjetura de un universo en expansión. Pero el hecho de que supusiéramos una gran explosión en sus
comienzos no había sido corroborado por ninguna otra observación independiente de tal alejamiento.
En 1964, los radioastrónomos Arno Penzias y Robert Wilson detectaron (sin buscarlo) una radiación
cuya intensidad y frecuencia no tenía variación respecto
de la zona del espacio que escudriñaran. Esta radiación
de fondo fue interpretada rápidamente como la radiación
remanente de aquella supuesta explosión y se la conoce
con el nombre de "radiación de fondo cósmico". Ahora
una nueva evidencia fortalecía la hipótesis del Big Bang.
El Universo había continuado su expansión y con ello la
temperatura seguía bajando. Era de esperar que el
Universo tuviera una radiación típica de la temperatura
a la que había llegado en esta época y esa era la radiación
de fondo. Así como una brasa ardiente irradia calor, el
Universo ya bastante enfriado irradia en la frecuencia que Penzias y Wilson detectaron. El Universo
irradia en una frecuencia típica de los cuerpos que se encuentran a 270 grados centígrados bajo cero.
Esto solo quiere decir que así como el Sol irradia en frecuencias que nos indican temperaturas de miles
de grados, el Universo contiene radiación en frecuencias e intensidades tales que corresponderían a
esas temperaturas tan bajas.
Cuando se propuso la idea de que toda la energía estaba concentrada en un punto en el momento de la
explosión y que el espacio comenzó a expandirse de forma homogénea, apareció uno de los obstáculos
para la teoría del Big Bang. ¿Cómo podría el espacio expandirse de forma homogénea y a su vez dar
como resultado que en algunas zonas hubiera galaxias y en otras no? Debía haber alguna
inhomogeneidad desde el comienzo. Pero la radiación del fondo cósmico parecía ser estrictamente
constante no importando a que zona del espacio apuntáramos los radiotelescopios. Con la intención de
investigar en forma más detallada esta radiación, se creó un satélite especialmente diseñado para
analizar tales frecuencias. En marzo de 1992, el COBE (Cosmic Background Explorer: Explorador del
fondo cósmico) registro y envió a Tierra numerosas informaciones y datos de microondas que
confirman la idea de que hubo pequeñas inhomogeneidades desde tiempos remotos y que estas
diferencias mínimas pudieron dar lugar a que hubiera zonas con materia y zonas sin materia. Este
descubrimiento resolvió una de las dificultades que había enfrentado la teoría, y al hacerlo dio un
nuevo impulso a la misma.
Pero ¿qué nos hace pensar que las galaxias se alejan? Su aspecto en el telescopio no cambia de modo
que necesitamos otra modo de determinar si se mueve en la dirección de la observación.
Cuando una fuente de sonido se acerca al observador, éste percibe un sonido levemente más agudo
que el que percibiría si la fuente estuviera en reposo. Si en cambio la fuente de sonido se aleja de él,
17
el efecto será que el sonido parece más grave. Este efecto nos es familiar ya que lo hemos notado en
distintas ocasiones pero sin describirlo detalladamente. Son ejemplos de este efecto del sonido la
variación (en frecuencia) en el sonido del motor de un auto de carrera cuando pasa frente a nosotros (o
frente a la cámara de TV); el sonido del silbato del tren que parece más agudo cuando viene que cuando
se va; el sonido de los aviones que se acercan y luego de pasar cerca nuestro se alejan y el sonido de
las sirenas de las ambulancias.
Como las frecuencias más bajas del espectro visible corresponden al color rojo, éste efecto que
presentan las galaxias lejanas (de que su luz presenta una frecuencia menor que la esperada) se ha
llamado "corrimiento al rojo".
Podríamos decir que todas las galaxias lejanas investigadas mostraron corrimiento al rojo y que esto
indica (nos hace suponer) que se alejan de nosotros.
El universo estacionario
Son pocos los científicos que se inclinan a favor del modelo de Universo Estacionario. Este modelo
describe un universo en expansión continua tal cual la que se infiere a partir del alejamiento de las
galaxias, pero con la particularidad de que la densidad de partículas del Universo permanece constante.
Esto significa que al expandirse el espacio se deberán crear partículas de modo de mantenerse la
cantidad de materia por unidad de volumen (en forma global). Según este modelo, el Universo se
expandiría y a la vez se crearía materia de modo que una zona del espacio siempre presentaría el mismo
aspecto no importa en que época nos fijáramos. Con ello se puede sostener la idea de que el Universo
no fue creado ni que apareció en algún instante. No tiene sentido en este modelo descriptivo
preguntarse a partir de cuándo existe el Universo. Este existió siempre y siempre existirá con el mismo
18
aspecto: expansión y creación de partículas en el vacío de modo que se mantenga constante la densidad
de aquéllas.
El modelo estacionario da perfecta cuenta del alejamiento de las galaxias pero tuvo que enfrentar una
acomodación al descubrirse la radiación de fondo que corroboraba fuertemente la teoría del Big Bang.
Esta acomodación consistió en sugerir que tal radiación podía provenir de las nubes de polvo existentes
en el Universo que absorberían la radiación de las estrellas y la reemitirían en la frecuencia observada
del fondo cósmico. Sin embargo no queda explicado totalmente el hecho de que la radiación de fondo
no varía en las distintas direcciones de observación. De este modo la teoría del universo estacionario
sobrevivió al descubrimiento de Penzias y Wilson pero no sin ajustes.
Asistimos ahora a otra fuerte confirmación de la teoría del Big Bang como lo es el descubrimiento de
las irregularidades que dieron lugar a que el Universo fuera inhomogéneo. Los defensores del modelo
de universo estacionario deberán ahora ajustar nuevamente su teoría si quieren sostenerla y a la vez
dar cuenta de estas nuevas evidencias.
Una característica importante de este último descubrimiento es que los defensores de la teoría del Big
Bang habían anticipado que de ser correcta la teoría deberían encontrarse tales inhomogeneidades en
la radiación de fondo, mientras que tales rasgos no se desprendían de la teoría del modelo estacionario.
De este modo, al obtener los resultados predichos, la teoría del Big Bang obtiene credibilidad mientras
que los arreglos que sufra la teoría del universo estacionario hacen que su credibilidad descienda.
La teoría del Big Bang cuenta con el apoyo de la comunidad científica. Ahora quedan por investigar
los aspectos que se derivan de tal teoría como son si el Universo seguirá en expansión indefinidamente
o se volverá a aglomerar la energía en un punto, cuáles fueron las condiciones por las que se formaron
las inhomogeneidades desde los albores de la expansión, y tantas otras implicancias que la teoría nos
presenta.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
19
Unidad 1.2
Como toda empresa humana, la ciencia se forjó en algún momento de la historia y tuvo un desarrollo
que llega hasta nuestros días; su historia es también nuestra historia. En esta unidad nos proponemos
mostrar cómo y cuándo comenzó la ciencia moderna, poniendo el acento en cuestiones metodológicas.
La estrategia que vamos a seguir consiste en mostrar las diferencias entre la ciencia que se desarrolló
durante la Antigüedad y la Edad Media (a la que llamaremos, para abreviar, “ciencia antigua”) y la
que surge a partir del siglo XVII, en un momento de la historia en el cual se da un cambio en el modo
en que el hombre se ubica en el mundo y piensa cuáles son sus posibilidades de conocerlo y
transformarlo. Más allá de las diferencias entre estos dos momentos históricos de la ciencia,
descubriremos también algunas continuidades.
20
sobre el color de la luna aparece al final de la película, antes de los títulos.
"Cada uno de nosotros existe durante un tiempo muy breve, y en dicho intervalo tan
sólo explora una parte diminuta del conjunto del universo. Pero los humanos somos una especie
marcada por la curiosidad. Nos preguntamos, buscamos respuestas. Viviendo en este vasto
mundo, que a veces es amable y a veces cruel, y contemplando la inmensidad del firmamento
encima de nosotros, nos hemos hecho siempre una multitud de preguntas. ¿Cómo podemos
comprender el mundo en que nos hallamos? ¿Cómo se comporta el universo? ¿Cuál es la
naturaleza de la realidad? ¿De dónde viene todo lo que nos rodea? ¿Necesitó el Universo un
Creador?”
La ciencia griega surge alrededor del siglo VI a.C., en un conjunto de ciudades jonias que, al estar
estratégicamente situadas entre Grecia y Medio Oriente, tuvieron un desarrollo comercial y un
intercambio cultural propicio al surgimiento de nuevas ideas. Lo cierto es que existen diferentes formas
de conocer algo: haberlo visto, haber oído hablar de ello, tener una opinión, saber por qué es de ese
modo, y en el momento de nuestra historia en que está surgiendo un nuevo modo de conocer, el
científico, surge también un nuevo vocabulario para expresarlo y diferenciarlo.
A nivel etimológico, el término español “ciencia” viene del latín “scientia”, pero el origen de la
distinción entre la ciencia y otros saberes viene del griego. En esa lengua el término para ciencia es
“epistéme” , el cual designaba, originalmente, saberes
prácticos, es decir, saber hacer cosas y también enterarse
de algo por haberlo percibido. Pero lo cierto es que cuando
se comenzaron a desarrollar teorías explicativas acerca del
cosmos independientemente de los relatos míticos,
comenzó a tener importancia la argumentación que se
podía ofrecer para fundamentar las afirmaciones;
argumentación que ya no recurre a un relato, como en los
mitos, sino a un encadenamiento de afirmaciones basadas
en observaciones directas o algunas creencias del sentido
común.
21
¿Qué es, entonces, lo que define al término griego “epistéme”?: el ofrecer razones fundadas de sus
afirmaciones, razones que están encadenadas con otras afirmaciones que, conjuntamente, ofrecen un
esqueleto explicativo del orden del cosmos (o, al menos, de alguna parte de él). Un rasgo fundamental
de la epistéme griega, que Platón y Aristóteles, cuatro siglos antes de Cristo se encargaron de señalar,
es que, a diferencia de los mitos, la ciencia no se aprende repitiendo, es decir, contando la misma
historia. Para ellos, la ciencia hay que entenderla y requiere experiencia y capacidad de aplicar los
conocimientos a casos desconocidos.
Se pueden distinguir, a grandes rasgos, dos pasos del método científico antiguo:
1) Dialéctica: para buscar respuestas al tipo de preguntas sobre diversos fenómenos que
señalamos antes, en la Antigüedad (siglos VI antes de Cristo a siglo V después de Cristo) la base era
la discusión entre los diversos pensadores y científicos. Estas discusiones a veces se daban en persona,
y otras muchas a partir de la lectura y discusión de los textos que habían escrito. Si bien a nivel
metodológico, como veremos, hay muchas cuestiones
que nos separan de los científicos antiguos, esta primera
etapa presenta continuidades: observaban el mundo y
discutían alternativas para explicarlo. En 1993 se realizó
un documental sobre la vida de César Milstein,
licenciado en química por la Facultad de Ciencias
Exactas y Naturales de la Universidad de Buenos Aires
y Premio Nobel de Medicina en 1984, titulado Un
fueguito. La historia de César Milstein, en el cual sus
colaboradores cuentan cómo se daba esta etapa de
discusión en sus prácticas científicas, y acercan su figura
a la de Sócrates, un filósofo griego del siglo V a.C. Las
diferencias se profundizan, como veremos, a la hora del
estatus que se le confiere a la hipótesis que surge como
resultado de la discusión y a cómo se procede a ponerla
a prueba.
https://www.youtube.com/watch?v=iNmbmOGMcbs
Volvamos a la ciencia antigua. A lo largo de esa discusión, algunas afirmaciones obtenían consenso y
entonces se las tomaba como verdades que constituían el punto de partida de lo que se siguiera
investigando. Un buen ejemplo de esto es la forma esférica que le atribuían, en las cosmologías
22
antiguas, al Universo y a los cuerpos celestes. La mayoría de los científicos antiguos aceptaba como
verdadera esta afirmación, y ofrecían argumentos en favor de ella. La forma esférica, sostenían, es la
más perfecta, porque puede rotar sobre sí misma sin cambiar de forma.
2) Demostración. Una vez acordada la verdad de una afirmación, se consideraba que se podía, a
partir de esta verdad, obtener por deducción otras afirmaciones que resultaban también verdaderas por
la conservación de verdad de las premisas de la deducción. Es por esto que se suele caracterizar a la
ciencia antigua como demostrativa.
Entonces, los científicos antiguos eran curiosos, observaban el mundo planteándose problemas acerca
de este y proponiendo respuestas, pero su ideal de conocimiento era el armado demostrativo de la
ciencia.
Sin embargo, hay un momento de la historia en que esta imagen de la ciencia se quiebra, en
consonancia con una serie de cambios que experimenta Europa luego del fin de la Edad Media en el
siglo XV y en los dos siglos posteriores. El Renacimiento no implicó sólo una nueva estética sino que
también un cambio respecto del estudio de la naturaleza. La figura de Leonardo da Vinci (1452-1519),
por ejemplo, da cuenta de este nuevo interés artístico, científico y tecnológico. Este personaje
multifacético es la encarnación de la curiosidad humana de la que hablábamos antes, y también de la
unión entre arte y ciencia que se va a dar muchas veces a lo largo de la historia. Leonardo anticipa el
sesgo tecnológico de la ciencia moderna por medio de su labor como inventor. Hablar de sus ideas nos
llevaría no un capítulo, sino varios libros. Vamos a dar un solo ejemplo, poco conocido, para mostrar
cómo le interesaban los aspectos prácticos. Mientras era aprendiz en el atelier de Andrea Cioni, el
joven Leonardo intentó conseguir trabajo como cocinero en una fonda porque le causaba muchísima
curiosidad la cocina, si bien dada su
inexperiencia fue contratado sólo como
camarero. El curriculum que presentó decía
que lo que lo capacitaba para el trabajo era su
“amor por la cocina y saberes de muchas
cosas”. A los tres meses fue ascendido a
cocinero. En esa tarea despliega su talento
artístico y sirve platos en los cuales
experimenta con sabores nuevos y cuida la
disposición geométrica y el color. Podemos
pensar que el contacto directo con los
ingredientes y los procesos físicos y químicos
propios de la cocina estimulaba su talento
artístico e inventivo.
23
Posteriormente, en el período que pasó en Milán bajo la protección de Ludovico el Moro, diseñó todo
tipo de aparatos funcionales para facilitar las tareas de la cocina: artefactos para pelar, triturar y
mezclar; aspas para eliminar el olor y el humo; limpiador automático impulsado por bueyes. El día de
la inauguración de la cocina renacentista provista con los inventos de Leonardo fue un desastre total:
los bueyes se asustaron con la maquinaria e iniciaron un caos en la cocina que terminó provocando
que el mecanismo de eliminar el humo ahumara a los comensales. Lo que nos interesa de este ejemplo
es ver cómo Leonardo se fascina por resolver un problema, diseña, innova, pone a prueba, fracasa y
vuelve a pensar soluciones a lo largo de toda su vida.
https://www.youtube.com/watch?v=La-TpRw5yw8
24
En el campo de la astronomía, Nicolás Copérnico, de quien hablamos en otra sección de la Unidad 1,
es el exponente paradigmático, pero no el único, según acabamos de ver, de este nuevo modo de hacer
ciencia. La cuestión más importante de esta nueva actitud científica es que no busca el establecimiento
de la verdad de los enunciados que constituyen el punto de partida, sino que recurre a la
experimentación para poner a prueba estas afirmaciones.
El punto de partida de la ciencia moderna, entonces, radica, igual que en el caso de la ciencia antigua,
en la observación que provoca curiosidad y suscita preguntas a la mente científica. Para dar cuenta de
estas observaciones, sin embargo, a diferencia de la ciencia antigua, se proponen hipótesis provisorias
que son puestas a prueba a la luz de las observaciones.
1) Se busca medir con precisión, cuantificar todo aquello que los instrumentos de la época
permitan detectar.
Otro rasgo distintivo de la ciencia moderna es su búsqueda de la utilidad práctica, lo cual posibilitó el
desarrollo tecnológico. La ciencia antigua no tenía esto como objetivo principal, y sólo de modo
esporádico desarrollaba alguna técnica útil. Sin embargo, la ciencia moderna dio origen a las sucesivas
Revoluciones Industriales e impactó de modo clave en la vida moderna. Desde luego, estas
consecuencias pudieron darse en base a la efectividad de la experimentación que calcula y controla
variables. A su vez, la puesta a prueba permite la aceleración del desarrollo científico, porque permite
dejar de lado teorías que no funcionan e impulsa el surgimiento de teorías nuevas. Más allá de la
posibilidad de la elaboración de hipótesis ad hoc para mantener una teoría que ha sufrido una anomalía,
este recurso no puede sostenerse al infinito. Las teorías, además, pierden credibilidad por la
acumulación de hipótesis ad hoc, sobre todo si no pueden a la vez ofrecer predicciones cumplidas.
25
Los experimentos de Torricelli
El problema
Las teorías físicas del momento explicaban por qué el agua subía a partir de la noción de “horror al
vacío”, una característica de la naturaleza que, según esta hipótesis, buscaba llenar los lugares de los
cuales se extraía el aire. Ahora bien, si la naturaleza tiene horror al vacío, ¿por qué se detiene a los 10
metros? Esta cuestión estimuló la curiosidad de Torricelli.
Las observaciones realizadas, junto con discusiones que había tenido con Galileo y otros científicos
contemporáneos lo llevaron a sostener: “Vivimos en el fondo de un océano de aire”. Si esto fuera así,
entonces el aire ejerce un peso sobre todo, de un modo similar a los cuerpos que están sumergido en
el agua. Este último fenómeno nos es más familiar y sabemos, por ejemplo, que hay un límite de
inmersión de los submarinistas o de los submarinos, determinado por la presión que ejerce el agua. La
presión del aire nos es menos familiar porque la presión de nuestro cuerpo está equilibrada con la
presión exterior.
Así como podemos mantener una hoja de papel aprisionada entre nuestras dos manos, ejerciendo
mucha presión por parte de ambas manos sin que el papel se rompa, del mismo modo la presión a uno
y otro lado de nuestros tejidos es la misma y por ello no se dañan. Si hubiera una descompresión fuerte,
como en un accidente en el que se rompiera el traje espacial en una actividad fuera de la nave, la
presión interna no estaría equilibrada por la presión externa y se dañarían todos los tejidos.
Entonces, tenemos un tanque de agua a 20 metros, como el ingeniero Baliani, y queremos hacer subir
el agua por una caño. Usamos una bomba para extraer el aire del caño, y el agua sube, según Torricelli,
porque al sacarle el aire deja de tener el mismo peso dentro del caño, pero sigue ejerciendo el mismo
peso sobre la superficie de agua de la que estamos bombeando (supongamos que estamos extrayendo
agua de un río). El aire que hemos retirado del caño ya no pesa sobre el agua, no ejerce presión sobre
la superficie del agua dentro del caño. ¿Por qué el límite cercano a 10,5 m? Porque en un momento el
peso de la columna de agua se equilibra con el peso que ejerce el aire sobre la superficie del agua del
río.
26
La contrastación
En 1649, Florin Périer (quien no era científico sino cuñado del famoso científico Pascal) y algunos
amigos subieron al pico Puy de Dôme, ubicado en la región central de Francia, que mide cerca de 1000
metros y realizaron el experimento del mercurio. El resultado fue que la altura del mercurio fue de 85
mm menos que en la cima de la montaña que al pie de la montaña.
En las dos experiencias que acabamos de narrar se cumplen las características de los experimentos de
la ciencia moderna que señalamos antes: se cuantifica con cuidado tanto las condiciones iniciales del
experimento como los resultados, y se elige una variable que cambia en cada caso, agua por mercurio,
pie de la montaña por cima de la montaña. No es difícil pensar por qué no cambiaron ambas variables
a la vez, experimentando con agua en la cima de la montaña y con mercurio en la base.
27
Evangelista Torricelli (1608-1647)
El camino sigue
Hasta aquí hemos pasado una rápida revista al surgimiento de la ciencia moderna y sus diferencias con
el método científico antiguo. Lo que hemos ofrecido es sólo un punto de partida, porque muchas de
las cuestiones que hemos presentado serán ampliadas y desarrolladas en las unidades posteriores. Si
luego de recorrerlas vuelven aquí, encontrarán muchos sentidos nuevos. Sin embargo, creemos que a
pesar de ser inicial, esta breve historia permite contextualizar adecuadamente las diversas cuestiones
que se verán posteriormente y tomar conciencia de que se produjeron a partir del esfuerzo de científicos
que canalizaron su curiosidad a través de recursos metodológicos eficaces, y abrieron el camino para
el desarrollo científico que todavía seguimos experimentando.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
28
Unidad 2.1: Operaciones lógicas
Contenido
La lógica de las corrientes de aire............................................................................................................................ 1
UNA TRAS OTRA .................................................................................................................................................... 2
UNA AL LADO DE LA OTRA .................................................................................................................................... 4
DEJAR UNA ABIERTA O ABRIR LA OTRA ................................................................................................................ 6
Ahora todo es más lógico ......................................................................................................................................... 9
Proposiciones ....................................................................................................................................................... 9
Conectivas lógicas y tablas de verdad ................................................................................................................ 10
Conjunción ...................................................................................................................................................... 12
Negación ......................................................................................................................................................... 12
Disyunción ...................................................................................................................................................... 13
Condicional material ....................................................................................................................................... 13
Podríamos pensar que el estudio de la lógica está enfocado en el interés especial en la simbolización y el análisis
estructurado del lenguaje y que poco tiene que ver con el resto de los intereses particulares de cada uno de
nosotros. Puede ser que no esté entre nuestras preferencias el estudio de la lógica y eso no será motivo de
revisión ahora. Lo que no puede pasar es que pensemos que no sabemos nada de lógica o que no utilizamos
estructuras lógicas en nuestras decisiones, en nuestra justificación de las acciones o en comprender parte de lo
que nos rodea.
Haremos un primer ejercicio para notar que todos tenemos un manejo adecuado de operaciones lógicas que nos
permiten tener representaciones de lo que ocurrirá en casos hipotéticos, y también veremos que usamos estas
operaciones lógicas para poder explicar a otros por qué realizamos ciertas acciones. Esto no quiere decir que
hemos estudiado lógica anteriormente, sino que buena parte de la lógica está entre nosotros modelando el
pensamiento.
Imaginemos que las ventanas del fondo y las puertas de entrada, siempre están abiertas (todavía no
hemos colocado puerta en la entrada y todavía no hemos puesto vidrios a las ventanas, por ejemplo),
pero en el medio de la casa hay distintas puertas y eso nos obligará a elegir las acciones que tenemos
que realizar sobre las puertas para lograr que el aire pueda pasar a través de la casa.
29
UNA TRAS OTRA
Condiciones:
Una casa tiene en el frente una entrada sin puertas. Luego, una pared divisoria con una puerta, y otra
pared divisoria con una segunda puerta como en la figura 1.
Finalmente posee dos ventanas en la pared del fondo que no tienen vidrios.
Las puertas tienen un resorte de manera que el resorte asegura que, de no ejercer ninguna acción,
las puertas quedarán en el estado en que se muestra en la figura (en este caso, permanecen
cerradas mediante un cierrapuertas automático). Se puede empujar la puerta contra el resorte de
modo que se modifique su estado (en este caso, se abrirían).
Objetivo: Lograr que haya corriente de aire entre la entrada (portal doble ubicado en el frente de
la casa) y la ventana (ubicada en el fondo de la casa).
Capacidad de manipulación: empujar contra el resorte cualquiera de las dos puertas, o ambas, de las
paredes intermedias.
Mirando la figura podemos imaginarnos qué acciones realizar sobre las puertas para lograr ventilar
la casa.
30
La acción sobre la primera puerta es A, y la acción sobre la segunda puerta es B.
Si mantenemos empujada la primera puerta (A) contra el dispositivo automático (en este caso sería
mantenerla abierta) entonces lo indicamos señalando que A tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Y si mantenemos empujada la segunda puerta (B) contra el dispositivo automático (en este caso sería
mantenerla abierta) entonces lo indicamos señalando que B tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Si en cambio, no empujamos la primera puerta, lo indicamos asignando a A el valor F (es falso que
empujamos la primera puerta). Y si no empujamos la segunda puerta, lo indicamos asignando a B el
valor F (es falso que empujamos la segunda puerta).
Simbolizamos que hay corriente de aire (C) asignando a C el valor V (es verdad que hay corriente de
aire), y que no hay corriente de aire asignando a C el valor F (es falso que hay corriente de aire).
Ahora podemos asignar los valores V y F a todas las combinaciones de puertas empujadas y sin
empujar.
Por ejemplo, si ambas puertas permanecen sin ser empujadas, A y B ambos valen F, y obviamente no
hay corriente de aire (C vale F también).
V V V empujada empujada Sí
V F F empujada no empujada No
F V F no empujada empujada No
F F F no empujada no empujada No
De hecho, ya sabíamos que para lograr que hubiera corriente de aire, debíamos abrir las dos puertas y
que abriendo solo una, o no abriendo ninguna, no lograríamos el objetivo.
No solo sabíamos qué acción realizar para lograr el objetivo sino que podremos justificar por qué
abrimos una puerta u otra, o bien por qué la cerramos para evitar la corriente de aire. Nuestra
justificación tiene una estructura de pensamiento que incluye operaciones lógicas, aunque no las
llamemos así cada vez que las realizamos.
31
Al tomar a C como el resultado de operaciones entre A y B, podemos verlo como el resultado de lo
que llamamos la conjunción de A y B:
C=A∧B
Y la tabla de valores de verdad de la conjunción es la que hemos construido más arriba en las tres
primeras columnas.
Condiciones:
Una casa tiene en el frente una entrada sin puertas. Luego, una pared divisoria con dos puertas como
se muestra en la figura 2.
Finalmente posee dos ventanas y una salida sin puerta en la pared del fondo.
Las puertas tienen un resorte de manera que el resorte asegura que, de no ejercer ninguna acción, las
puertas quedarán en el estado en que se muestra en la figura (en este caso, permanecen cerradas
mediante un cierrapuertas automático). Se puede empujar la puerta contra el resorte de modo que se
modifique su estado (en este caso, se abrirían).
Objetivo: Lograr que haya corriente de aire entre la entrada (portal doble ubicado en el frente de la
casa) y la ventana y salida (ubicada en el fondo de la casa).
Capacidad de manipulación: empujar contra el resorte cualquiera de las dos puertas que están en la
pared intermedia (puerta de color madera y puerta blanca), o ambas, de la pared intermedias.
32
Nuevamente mirando la figura imaginemos qué acciones realizar sobre las puertas para lograr ventilar
la casa.
La acción sobre la primera puerta (color madera) es A, y la acción sobre la segunda puerta es B (color
blanco).
Si mantenemos empujada la primera puerta (A) contra el dispositivo automático (en este caso sería
mantenerla abierta) entonces lo indicamos señalando que A tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Y si mantenemos empujada la segunda puerta (B) contra el dispositivo automático (en este caso sería
mantenerla abierta) entonces lo indicamos señalando que B tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Si en cambio, no empujamos la primera puerta, lo indicamos asignado a A el valor F (es falso que
empujamos la primera puerta). Y si no empujamos la segunda puerta, lo indicamos asignando a B el
valor F (es falso que empujamos la segunda puerta).
Simbolizamos que hay corriente de aire (C) asignando a C el valor V (es verdad que hay corriente de
aire), y que no hay corriente de aire asignando a C el valor F (es falso que hay corriente de aire).
Ahora podemos asignar los valores V y F a todas las combinaciones de puertas empujadas y sin
empujar.
Por ejemplo, si ambas puertas permanecen sin ser empujadas, A y B ambos valen F, y obviamente no
hay corriente de aire (C vale F también).
V V V empujada empujada Sí
V F V empujada no empujada Sí
F V V no empujada empujada Sí
F F F no empujada no empujada No
De hecho ya sabíamos que para lograr que hubiera corriente de aire, debíamos abrir alguna de las dos
puertas o ambas, y que no abriendo ninguna, no lograríamos el objetivo.
33
Nuevamente, no solo sabíamos qué acción realizar para lograr el objetivo de ventilar la casa sino que
podremos justificar por qué abrimos una puerta u otra, o bien por qué la cerramos para evitar la
corriente de aire. Nuestra justificación tiene una estructura de pensamiento que incluye operaciones
lógicas.
Luego del análisis, vemos que C puede tomarse como el resultado de lo que llamamos la disyunción
entre A y B:
C=AvB
Y la tabla de valores de verdad de la disyunción es la que hemos construido más arriba en las tres
primeras columnas.
Condiciones:
Una casa tiene en el frente una entrada sin puertas. Luego, una pared divisoria con dos puertas, una
azul (A) y otra blanca (B). Finalmente posee ventana y salida sin puerta en la pared del fondo.
Las puertas tienen un resorte de manera que el resorte asegura que, de no ejercer ninguna acción, las
puertas quedarán en el estado en que se muestra en la figura (en este caso, la azul permanecerá abierta,
mientras que la blanca permanecerá cerrada). Se puede empujar la puerta contra el resorte de modo
que se modifique su estado (en este caso, se cerraría la azul, y se abriría la blanca).
Objetivo: Lograr que haya corriente de aire entre la entrada (portal doble ubicado en el frente de la
casa) y la ventana (ubicada en el fondo de la casa).
Capacidad de manipulación: empujar contra el resorte cualquiera de las dos puertas, o ambas, de la
pared intermedia.
34
Aquí también mirando la figura imaginemos qué acciones podemos realizar sobre las puertas para
lograr ventilar la casa.
Si mantenemos empujada la primera puerta (A) contra el dispositivo automático (en este caso sería
mantenerla cerrada) entonces lo indicamos señalando que A tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Y si mantenemos empujada la segunda puerta (B) contra el dispositivo automático (en este caso sería
mantenerla abierta) entonces lo indicamos señalando que B tiene el valor V (verdadero: es verdad que
empujamos la puerta).
Si en cambio, no empujamos la primera puerta, lo indicamos asignado a A el valor F (es falso que
empujamos la primera puerta). Y si no empujamos la segunda puerta, lo indicamos asignando a B el
valor F (es falso que empujamos la segunda puerta).
Simbolizamos que hay corriente de aire (C) asignando a C el valor V (es verdad que hay corriente de
aire), y que no hay corriente de aire asignando a C el valor F (es falso que hay corriente de aire).
Ahora podemos asignar los valores V y F a todas las combinaciones de puertas empujadas y sin
empujar.
Por ejemplo, si ambas puertas permanecen sin ser empujadas, A y B ambos valen F, y obviamente hay
corriente de aire (C vale V) ya que la puerta azul (A) permanece abierta.
V V V empujada empujada Sí
V F F empujada no empujada No
F V V no empujada empujada Sí
F F V no empujada no empujada Sí
De hecho ya sabíamos que para lograr que hubiera corriente de aire, debíamos dejar la situación sin
modificar (A y B falsas) o bien si accionábamos la puerta A (cerrándola) entonces debíamos accionar
la puerta B (abriéndola).
35
Una vez más, no solo sabíamos qué acción realizar para lograr el objetivo sino que podremos justificar
por qué abrimos una puerta u otra, o por qué no accionamos la puerta A, ya que mantiene la corriente
de aire, o bien por qué la cerramos la puerta A o no abrimos la B para evitar la corriente de aire. Nuestra
justificación tiene una estructura de pensamiento que incluye también esta operación lógica.
O más brevemente:
Si A entonces B.
(Es decir, si empujamos A, entonces empujamos B para que haya corriente, ya que al empujar A, se
cierra la puerta no habría corriente de aire. Dicho de otro modo, si es cierto que hay corriente de aire
podemos asegurar que si empujamos A, entonces empujamos B. De otro modo no habría corriente de
aire)
Por tanto, C puede tomarse como el resultado de lo que llamaremos el condicional material entre A y
B:
C=A ⊃B
Y la tabla de valores de verdad de la conjunción es la que hemos construido más arriba en las tres
primeras columnas.
B ∨ ~A
Esto puede notarse porque para que haya corriente de aire, o bien empujamos B, o bien no empujamos
A, o bien hacemos ambas cosas.
Por lo tanto podemos estar seguros de que la tabla coincide y que se cumple la siguiente equivalencia:
A ⊃ B = B ∨ ~A
A ⊃ B = ~A ∨ B
("Si empujamos A, entonces empujamos B" es equivalente a "no empujamos A o empujamos B")
36
Ahora todo es más lógico
Antes de estudiar en profundidad los distintos tipos de razonamientos y sus características, necesitamos
conocer algunos conceptos de la lógica proposicional:
Proposiciones
Los razonamientos que estudia la lógica se valen de proposiciones. Una proposición es la expresión
lingüística de un pensamiento que tiene valor de verdad: puede ser verdadera, si la información es
correcta, es decir que lo que dice la expresión es lo que efectivamente ocurre, o falsa (si la información
es incorrecta, esto es, lo que expresa no ocurre). Una palabra o un término aislado, por ejemplo “silla”,
no expresa ninguna información, en cambio “la silla está en el comedor” sí, porque expresa un estado
de cosas: podemos ir al comedor y comprobar si lo que decíamos es verdadero o falso, es por eso que
podemos considerar a esta última afirmación como una proposición.
Las proposiciones moleculares están compuestas por una o más proposiciones atómicas unidas
mediante una conectiva lógica y su valor de verdad, es decir, el ser verdaderas o falsas, depende del
valor de verdad de las proposiciones atómicas componentes. Por ejemplo, la proposición “hoy es
domingo y hace mucho frío”, es una proposición molecular integrada por dos proposiciones atómicas:
‘hoy es domingo’ y ‘hoy hace mucho frío’. Del mismo modo que “empujo ambas puertas, la blanca y
la azul” está compuesta de las dos proposiciones “empujo la puerta blanca” y “empujo la puerta azul”.
Una cuestión fundamental para la comprensión del funcionamiento de la lógica es entender que la
lógica no tiene como tarea determinar la verdad o falsedad de las proposiciones atómicas. Esto
ocurre porque el valor de verdad de las proposiciones depende de la experiencia al ser interpretado un
símbolo como una afirmación acerca del mundo. Cuando vemos el símbolo “A” y decimos que
corresponde a la afirmación “Empujo la puerta azul”, estamos interpretando un símbolo como algo
que expresa una afirmación sobre una parte de la realidad. Si es cierto que empujo la puerta azul,
entonces A es verdadero, y si no, es falso. Pero esto no es cuestión de lógica sino de ir a ver si ocurre
o no ocurre algo en los hechos.
Si pensamos en una proposición como “hoy llueve”, para determinar si es verdadera o falsa hay
que realizar una observación. En cambio, la proposición molecular es verdadera o falsa en función del
valor de verdad de las proposiciones atómicas que la componen. Entonces, la proposición molecular
“Hoy es domingo y llueve” sólo es verdadera si son verdaderas las dos proposiciones atómicas que la
componen: “hoy es domingo” y “hoy llueve”. Si al menos una de las dos proposiciones atómicas
fuera falsa, sería falsa también la proposición molecular.
Así como entre los números podemos realizar operaciones (suma resta, multiplicación, división o
cambiarle el signo a cada número), de modo similar podemos realizar operaciones con las
proposiciones, a veces sobre una sola, y a veces entre dos o más proposiciones.
38
De modo similar a las operaciones matemáticas, a cada operador o conectiva lógica se le asigna un
símbolo:
Negación No
no es cierto que
~
es falso que
Las conectivas lógicas son operadores. Sirven para realizar operaciones entre proposiciones. Para
definir una conectiva se utiliza una tabla de verdad que representa cuál es el valor de verdad de la
proposición compuesta (el resultado de la operación), para cada posible combinación de valores de
verdad de las proposiciones simples que la componen
39
Conjunción
p q p^q
V V V
V F F
F V F
F F F
Para realizar la tabla de verdad necesitamos tener en cuenta las distintas combinaciones de casos.
Digamos, para cuando cada variable tome el valor verdadero o falso, en combinación con las otras
variables.
Como estamos operando con dos variables (p, q), hemos necesitado 4 filas para contemplar todas las
combinaciones de los valores de estas variables (VV, VF, FV, FF).
La última columna es la que depende de los valores que toman las variables en esa fila.
Como podemos observar, la conjunción de las premisas es verdadera si todas ellas son verdaderas.
Una sola premisa falsa hace falsa a la conjunción.
Negación
p ~p
V F
F V
La negación es una operación que se realiza sobre una sola proposición. La negación invierte el valor
de verdad de la proposición. Esto es, si p es verdadera, ~p es falsa y viceversa. Por ejemplo: P: “Juan
es enfermero”, entonces ~P: “No es cierto que Juan es enfermero” o bien “es falso que Juan es
enfermero”. Esto se dice habitualmente de modo más sencillo diciendo brevemente que Juan no es
enfermero.
Otro ejemplo, Q: “Pedro no asistió a la clase”, entonces al aplicarle la negación quedará ~Q: “No es
cierto que Pedro no asistió a la clase”, que dicho más sencillo sería “Pedro asistió a la clase”.
40
Vemos que la tabla de la negación, como se refiere a una sola variable, solo tiene dos filas: una para
cuando la variable es verdadera y otra para cuando es falsa.
Disyunción
p q pvq
V V V
V F V
F V V
F F F
La conectiva en las proposiciones disyuntivas es ‘o’. Por ejemplo “estudiaré para el parcial o dormiré”.
La ‘o’ es ambigua pues puede querer decir “o lo uno o lo otro o ambos”, pero la conectiva de la
disyunción no es ambigua, dado que incluye ambas alternativas, equivalente a lo que suele formularse
como “y/o”. Entonces, solo es falsa la disyunción cuando ambas premisas son falsas
Condicional material
p q
p⊃q
V V V
V F F
F V V
F F V
41
Las proposiciones condicionales establecen una cierta relación entre el antecedente y el consecuente:
p⊃q (si p, entonces q). En un condicional material, la primera proposición atómica se denomina
“antecedente” y la que se coloca luego del símbolo ⊃ se denomina “consecuente”.
El que afirma un condicional no afirma ‘p’ ni afirma ‘q’ , sólo afirma que ‘si p entonces q’, es decir
que no puede ser que se dé ‘p’ y no se dé ‘q’; o sea que ‘p’ sea verdadero y ‘q’ sea falso. Sólo en este
caso, cuando el antecedente es verdadero y el consecuente es falso, el condicional es falso.
Dicho en otras palabras, si alguien nos asegura que “si ocurre p, entonces ocurre q” diremos que su
información es falsa sólo si cuando ocurre p no ocurre q. En todas las demás combinaciones lo que nos
ha asegurado, parece haberse cumplido.
Imaginemos que alguien nos asegura que “si un estudiante obtiene tres aplazos en la carrera, entonces
es expulsado de la Facultad” (p⊃q). ¿Qué es lo que podría ocurrir para mostrar que esa afirmación es
falsa y que nos ha mentido o que está equivocado?
Como muestra la tabla de valores de verdad, tenemos cuatro combinaciones (las cuatro filas):
Podemos ver que solo la situación b es la que pone en evidencia que la afirmación era falsa.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
42
Unidad 2.2: Lógica. Razonamientos
Contenidos
Introducción
Razonamientos
Ejemplos de razonamientos deductivos
Ejemplos de razonamientos no deductivos
Introducción
Ya anticipamos que la lógica está dirigida a modelar de modo simbólico y estructurado el uso del
lenguaje. También mencionamos que parecía bastante claro que contábamos con operaciones lógicas
en nuestra propia manera de usar el lenguaje, más allá de que el lenguaje tiene varios usos más que el
que la lógica estudia.
La lógica, se decía en otros tiempos, estudia las leyes del pensamiento. Pero el pensamiento incluye
imaginar, dudar, planear, recordar, fantasear, conjeturar, desear, elegir…; sólo algunas de estas
actividades incluyen razonamientos (inferencias, argumentos). La lógica, tal como se la entiende hoy,
se ocupa centralmente de los razonamientos, pero no indica cómo razonar sino cómo evaluar los
razonamientos una vez expresados en el lenguaje, especialmente en cuanto a su validez.
Empleamos razonamientos para llegar a verdades partiendo de otras verdades o para extraer las
consecuencias lógicas de una conjetura. En general, para obtener a partir de ciertas premisas, la
43
conclusión que se sigue, se desprende, se infiere de ellas; las premisas son un buen motivo –
concluyente o sólo “razonable”– para aceptar la conclusión.
En la mayoría de los tratados de lógica se identifica razonamiento deductivo con razonamiento válido;
aquí consideramos conveniente distinguirlos.
Muchas veces la información disponible es suficiente para extraer conclusiones con certeza y muchas
otras veces, aun cuando no tengamos certeza, podemos tener cierto grado de apoyo en la información
inicial disponible para arriesgar una conclusión que nos parezca bastante aceptable y razonable. Es así
que tenemos buenos motivos para tomar decisiones en diferentes casos, incluso cuando no tenemos la
totalidad de los datos relevantes.
Son ejemplo de esta toma de decisiones, mirar el cielo o registrar el pronóstico del clima para decidir
qué ropa llevar un determinado día, elegir un determinado lugar de vacaciones y calcular el dinero que
necesitaremos para la estadía, elegir un modo de transporte para llegar a cierto lugar, habiendo varias
opciones, y así con una serie interminable de toma de decisiones.
Tomar en cuenta nuestra experiencia anterior para la toma de decisiones es una muestra de nuestro
aprendizaje. Sin embargo, estrictamente hablando, aun habiendo tenido mucha experiencia, las cosas
podrían ser diferentes en la próxima oportunidad. Esto muestra que nuestro aprendizaje no llega a un
final sino que se alimenta una y otra vez.
Todo esto está en juego en la práctica científica y parte del análisis que podemos hacer es enfocarnos
en los modos de razonamiento que estas prácticas toman en cuenta.
Razonamientos
Tomemos el siguiente razonamiento que llevan adelante tres personas, Ana, Lucía y Pedro,
conversando:
El razonamiento parece tener cierta estructura. Se toman varias afirmaciones como punto de partida
para luego poder extraer una conclusión. Las afirmaciones que se toman como punto de partida son
las premisas. Partiendo de las premisas podemos extraer una conclusión.
44
En el ejemplo la información dada por Ana y Lucía permite a Pedro extraer una conclusión. Pero todo
esto podría haber sido el razonamiento de una misma persona.
Hoy es jueves
Vemos que se han acomodado un poco las oraciones para luego facilitar una simbolización:
P⊃Q
P
Q
Podemos apreciar que un argumento o razonamiento es una secuencia de afirmaciones que va desde
las premisas a la conclusión. Las premisas son las afirmaciones que el hablante toma como punto de
partida o apoyo a la conclusión. La conclusión parece obtenerse de las premisas con algún grado de
respaldo o garantía. Es decir, si las premisas son verdaderas, entonces apoyan y respaldan la
conclusión. Este apoyo puede ser parcial o total.
Si el hablante pretende que el apoyo de las premisas a la conclusión sea completo entonces está
pensando que la verdad de las premisas garantiza la verdad de la conclusión. En este caso decimos que
el hablante realiza una deducción. La deducción es un razonamiento en el que el hablante pretende que
las premisas le den un apoyo total a la conclusión. En caso de que el hablante crea que la conclusión
no está garantizada por las premisas, es decir que las premisas apoyan a la conclusión de modo parcial,
el razonamiento no es deductivo.
Entonces, un razonamiento es deductivo cuando se pretende que, si las premisas son verdaderas, la
conclusión debe ser necesariamente verdadera; si sólo se pretende que las premisas son un buen
motivo, aunque no concluyente, para aceptar la conclusión, el razonamiento es no deductivo.
Un razonamiento deductivo también se llama deducción y se dice que la conclusión se deduce de las
premisas.
45
Hay varios tipos de razonamientos deductivos y varios tipos de razonamientos no deductivos.
P⊃M
D⊃P
D⊃M
b. Esta noche voy al cine o al teatro. No voy al cine. Por lo tanto, voy al teatro.
CvT
~C
T
P⊃Q
P
Q
46
d. Si John es narcotraficante entonces tiene mucho dinero. John tiene mucho dinero.
Seguro que John es narcotraficante.
N⊃D
D
N
e. Si llueve, entonces se moja el pasto de la plaza. Está lloviendo. Por lo tanto, se moja
el pasto de la plaza.
L⊃P
L
P
En el caso de ejemplo que vimos en la página 3 sobre la feria de artesanías, el razonamiento podía simbolizarse
del siguiente modo:
47
P⊃Q
P
Q
p⊃q
p
q
Parece poca cosa cambiar mayúsculas por minúsculas, pero la parte importante es que estamos
queriendo rescatar la forma del razonamiento y no el razonamiento en particular. Esto es similar a lo
que ocurre cuando aprendemos a multiplicar. Podemos realizar la operación 2 · 3 = 6
También podemos realizar la operación 5 · 8 = 40
Vemos que ambas operaciones tienen la misma forma x · y = z
Si decimos que z es el resultado del producto de x e y, decimos algo que tiene que ver con la forma de
operar y no con uno solo de los cálculos.
De modo similar, una forma de razonamiento puede tener muchos casos de razonamientos particulares.
La ventaja de ocuparnos de las formas de razonar es que nos concentramos en todas las posibles
combinaciones de verdad de las proposiciones (como en las tablas de verdad que vimos en la Unidad
1.2).
48
Resumiendo, un razonamiento es un conjunto de proposiciones en el cual algunas actúan como
premisas y otra como conclusión. Las premisas son las proposiciones que se toman como punto de
partida o apoyo a la conclusión. La conclusión es la proposición que se afirma sobre la base de las
otras proposiciones que le sirven de premisas. El proceso lógico por el cual se pasa de las premisas a
la conclusión se llama inferencia.
Existen ciertas expresiones en los razonamientos presentados en lenguaje natural que sirven de
indicadores de lo que funciona como conclusión y como premisa. Por ejemplo, las expresiones “por lo
tanto”, “en consecuencia”, “por consiguiente” se encuentran precedidas por premisas y anteceden a la
conclusión. Otras expresiones como “dado que”, “ya que” o “porque” funcionan del modo inverso:
antes de su formulación se encuentra la conclusión y, después, las premisas. A estas expresiones las
llamamos conectores causales y consecutivos.
Entonces, cada razonamiento en particular tiene una forma específica. Para ver la forma que tiene un
razonamiento, se remplazan las proposiciones por variables proposicionales (el símbolo de una
proposición en particular es una letra mayúscula, y el de una variable proposicional es una letra
minúscula para indicar que puede tomar cualquier valor proposicional). Así, por ejemplo, en el
razonamiento c) de la lista anterior, hemos simbolizado “John es empresario exitoso” como P. Ahora
bien, al pasar cada una de las proposiciones a variables proposicionales, mantenemos la estructura del
razonamiento pero pasamos de letras mayúsculas a minúsculas:
Razonamiento Forma
➠
p ⊃q
P⊃Q
P p
Q q
Al remplazar las proposiciones por variables vemos que tanto el razonamiento c) como el e) tienen la
misma forma, aun cuando se trata de dos razonamientos distintos.
Validez de un razonamiento
Aparte de las pretensiones del hablante existe otra relación entre premisas y conclusión que depende
de la forma del razonamiento. Las formas de razonamiento pueden ser válidas o inválidas (no válidas).
Una forma de razonamiento es válida si no existe ninguna situación en la que las premisas sean
verdaderas y la conclusión sea falsa. Si en cambio existen situaciones como esa, entonces la forma de
razonamiento no es válida (es inválida).
49
En otras palabras, una forma de razonamiento es válida si para todas las posibles combinaciones de
premisas verdaderas o falsas y conclusión verdadera o falsa, no hay modo de que las premisas sean
verdaderas y la conclusión sea falsa. Es decir, podemos encontrar todas las combinaciones, menos esa.
A veces se dice que para toda forma de razonamiento válido, si las premisas son verdaderas entonces
está garantizado que la conclusión también lo será. Y esto nos hace pensar que la verdad de las premisas
se transmite o se hereda a la conclusión.
En los esquemas que siguen diferenciaremos los razonamientos deductivos de los no deductivos
separando las premisas de la conclusión con una línea continua ( ______ ) y una línea de trazos ( - - -
- - - ) respectivamente.
Ejemplos de razonamientos no válidos, pero sin pretensión de ser deductivos:
Cuando hay tormenta se pierde la señal de La muestra de metal 1 al ser calentada se dilató.
televisión satelital La muestra de metal 2 al ser calentada se dilató.
La muestra de metal n al ser calentada se dilató.
Se perdió la señal ---------------------------------------------------
--------------------------------- Todos las muestras de metal al ser calentadas se dilatan.
Debe haber alguna tormenta
Abducción Inducción
50
Diferencias entre verdad y validez
Verdad y validez son dos cuestiones completamente distintas. Es importante tener
en cuenta su distinción, sobre todo su uso corriente no se corresponde muchas
veces con el sentido preciso que adquieren en lógica. Podríamos decir que una
remite al contenido y la otra a la forma.
Verdad: es una propiedad de las proposiciones, algo que ya hemos visto y se vincula con el
correlato entre el pensamiento y la realidad. En este sentido, no se puede hablar de
“razonamientos verdaderos” ni “razonamientos falsos” porque los razonamientos son un
encadenamiento de proposiciones con una determinada estructura que puede ser correcta o
incorrecta, pero no verdadera ni falsa.
Si la casa es de ladrillos,
resiste el viento.
La casa es de ladrillos.
La casa resiste el
viento.
Si la casa es de
vidrio, es frágil.
La casa es de
vidrio.
La casa es frágil
Si el chancho es
un pez, vuela.
El chancho es un
pez.
El chancho vuela.
51
Veamos, en base a la noción de validez, cuáles son los distintos modos de combinación de premisas
y conclusión de los razonamientos válidos e inválidos:
V V
________ _________
V V
__________
F F
_______ _______
V V
F F
______ _______
F F
1era Advertencia: Si tenemos un razonamiento con premisas verdaderas y conclusión falsa sabemos
que sí o sí es inválido pero si tenemos un razonamiento con cualquiera de las otras combinaciones de
premisas/conclusión (V/V, F/F, F/V) no tenemos manera de saber si es válido o inválido sólo
fijándonos en la verdad de las proposiciones y la conclusion sino que lo que vamos a tener que hacer
es traducir a lenguaje formal ese razonamiento para ver su estructura (su forma lógica) y así sí poder
determinar si es válido o inválido.
52
Razonamiento Forma del
Razonamiento
simbolizado razonamiento
¿Cómo sabemos si se corresponde con una forma de razonamiento inválida? Basta encontrar un
ejemplo de reemplazo de proposiciones que mantenga la forma lógica del razonamiento analizado, en
el que resulten verdaderas las premisas y falsa la conclusión (el caso imposible de los válidos). Si
logramos encontrar justo esa sustitución, habremos comprobado la invalidez del razonamiento dado.
En este ejemplo si reemplazamos
obtenemos el siguiente razonamiento inválido cuyas dos premisas, sin embargo son verdaderas:
____________________________________
53
Entonces, si hay un caso de sustitución posible que tiene premisas verdaderas y conclusión falsa para
esa forma de razonamiento, esa forma es inválida y todo razonamiento al que le corresponda esa forma,
es inválido.
Si alguien expone un razonamiento que pretende deductivo, pero es inválido, podemos decir que está
razonando mal, que está cometiendo una falacia (como veremos más adelante en esta misma unidad).
Todas las películas del director T son Muchas películas del director T son
violentas. violentas.
La película P es del director T La película P es del director T
1) Razonamiento válido:
54
Si se da que la conclusión es falsa nos vemos obligados a revisar cuál o cuáles de las premisas (una,
varias, o todas) son falsas.
La utilidad de los razonamientos válidos sirve para poner a prueba una teoría porque si nuestras
hipótesis principal, condiciones iniciales e hipótesis auxiliares son verdaderas la predicción no podía
llegar a ser falsa y si llega a ser falsa es porque la conjunción de lo que hemos usado de premisas
(hipótesis principal, hipótesis auxiliares y condiciones iniciales) es falsa (o sea que al menos una, o
varias de ellas, o todas son falsas).
2da Advertencia: Ahora bien, si tenemos la certeza que nos hallamos con un razonamiento válido y
éste parte de premisas falsas la conclusión puede ser tanto falsa como verdadera. Dicho en otros
términos, no existe la garantía de conservación de la falsedad de las premisas. Y si lo único que
sabemos de un razonamiento es que sus premisas son falsas, no podríamos extraer ninguna conclusión
sobre su validez o invalidez ni sobre el valor de verdad de su conclusión.
2) Razonamiento inválido
Algunas formas de razonamiento válidas y algunas inválidas son utilizadas con tanta frecuencia que
se les ha dado un nombre. No son las únicas formas válidas e inválidas, ya que existen infinitas formas
de razonamiento, ni tampoco son las únicas que tienen nombre, pero estas, por diferentes motivos (que
veremos más adelante, en próximas unidades) son muy útiles, y es necesario nombrarlas para poder
hacer referencia a ellas fácilmente.
55
Dentro de los Razonamientos Válidos vamos a centrarnos en el Modus Ponens y el Modus Tollens.
p⊃q p⊃q
p ~q
______ _______
q ~p
56
Los razonamientos inductivos
La forma que tenemos los seres humanos de tomar la experiencia que tuvimos en el pasado y usarla
para predecir lo que podría llegar a pasar en el futuro muchas veces toma la forma de la inducción.
También podemos extender la información de un número finito de casos, no necesariamente del
pasado, al resto de los casos en forma general. También podemos extender el conocimiento general
que tenemos de ciertos grupos para inferir conclusiones para todos los grupos. Es decir que la
inducción siempre está asociada a extender el conocimiento desde lo que ya tenemos registrado en las
premisas a un campo más amplio en la conclusión.
De igual modo podemos hacer una inducción como la siguiente: Los tejidos humanos sometidos a
radiación UV se dañan. Los tejidos de los perros sometidos a radiación UV se dañan (y así con una
serie larga de tejidos de diferentes especies). Como conclusión podemos obtener por inducción que
“Todos los tejidos biológicos sometidos a radiación UV se dañan.”
Algunos de los ejemplos de la inducción se basa en relaciones de causa y efecto. Por ejemplo la salida
del sol por el este, cada mañana. ¿Cómo podemos establecer el conocimiento de las relaciones causa-
efecto? Nosotros asumimos -o anticipamos psicológicamente- que futuros casos de tipo A serán
seguidos por casos de tipo B, así como en los casos pasados de tipo A fueron seguidos de eventos de
tipo B. Pero esto es simplemente un hecho psicológico: nos formamos un hábito, nos volvemos
condicionados de esperar B cada vez que ocurre A. No hay necesidad lógica en todo esto. Dicho en
otras palabras, creemos que la naturaleza es uniforme y que el futuro va a ser similar al pasado. Es por
esto que creemos que, por ejemplo, como en el pasado la aspirina me quitó el dolor de cabeza, la
57
película x de Marvel fue buena, y hace años que el sol sale por el este, en el futuro van a pasar las
mismas cosas.
La inducción, como ya anticipamos, consiste en una ampliación de lo conocido hasta abarcar más casos
que se suponen del mismo tipo y por lo cual se espera que cumplan con la misma regularidad. A veces
esta ampliación consiste en generalizar de casos particulares a una afirmación general. Otras veces,
como ya anticipamos, consiste en extender aún más las afirmaciones generales que tenemos en las
premisas, para abarcar un número mayor de grupos, como en el caso de los mamíferos y cuadrúpedos
que analizamos anteriormente.
58
tipos de cuervos que no se ajusten a esta generalización. “Es posible que haya -en algún lugar o tiempo-
un cuervo blanco, o uno de diferente color. No es un argumento imbatible. Por esta razón se suele decir
que las premisas de una inferencia inductiva respaldan la conclusión sólo con un grado más o menos
alto de probabilidad. Si solo se observaron unos pocos cuervos en un lugar específico, la premisa no
soportará la conclusión muy fuertemente; si un gran número de cuervos se han visto bajo una gran
variedad de circunstancias, el apoyo será mucho más grande. Pero en ninguno de esos casos esa
conclusión se derivará necesariamente de la premisa.
Hay dos reglas fundamentales que debe cumplir un razonamiento inductivo por enumeración para que
se lo considere correcto:
1) La base de la información a la que se refieren las premisas debe estar constituida por
un número suficientemente grande de casos.
Piénsese en el siguiente caso: el candidato a la presidencia por el Partido del Sr. Z, decide mandar a
realizar una encuesta para tener una estimación confiable acerca de sus posibilidades de ganar en la
próxima elección. El partido del Sr. Z tiene un buen financiamiento y puede gastar bastante dinero en
este tipo de estudios, de manera que se le pide a la empresa que realizará la encuesta que la haga con
la mayor base posible. Como resultado, la empresa anuncia que ha realizado una encuesta a un millón
y medio de personas, y que todas han manifestado su intención de votar por el Sr. Z en las próximas
elecciones. Supongamos, además, que las intenciones de los encuestados reflejan adecuadamente lo
que efectivamente harán cuando llegue el momento de votar. El Sr. Z, entonces, hace el siguiente
razonamiento inductivo por enumeración:
Por lo tanto, todos (o, quizás, una amplia mayoría) votarán por el Sr. Z en la próxima elección.
Este es un razonamiento inductivo por enumeración que cumple de sobra con la primera regla que
hemos enunciado. Sin embargo, unos meses después, el Sr. Z pierde la elección, sacando sólo un
59
quince por ciento de los votos. Podemos acordar que la empresa encuestadora no mintió con respecto
a los resultados e incluso suponer que todos los encuestados efectivamente votaron por el Sr. Z. ¿Qué
pudo haber estado mal? ¿Tiene algo de incorrecto el razonamiento anterior?
La respuesta a la última pregunta es "sí". Una explicación posible de lo que sucedió en nuestro
escenario político imaginario es la siguiente: la empresa realizó la encuesta tomando como base,
digamos, al diez por ciento más rico de la población y a nadie más. La explicación del fracaso de la
predicción que el Sr. Z hizo sobre la base de su razonamiento inductivo por enumeración radica en el
hecho de que la base sobre la cual se generalizó, si bien incluía un número suficientemente grande de
casos, no incluía un número suficientemente variado de casos: la muestra no era representativa de la
población estudiada. Se debe tomar un muestreo representativo.
Cuando la inducción consiste en generalizar, su estructura nos lleva de observar distintos casos
particulares y abstraer aquellas características que todos tienen en común, que pueden verse en todos
y cada uno de los ejemplares para poder afirmar algo de forma general. Esto ha llevado a la visión
popular de que se trata de un razonamiento que “va de lo particular a lo general”. Pero hemos visto
que puede también consistir en “pasar de afirmaciones generales a afirmaciones más generales, más
abarcativas”. Por lo cual podríamos decir que es cierto que la hay casos de inducción que muestran
una generalización, pero no todos los razonamientos inductivos son pasos de lo particular a lo general.
Tomemos un caso más: “El cobre es un metal y se dilata con el calor; el hierro es un metal y también
se dilata con el calor; y lo mismo el aluminio, el plomo, el estaño, la plata, el rubidio y el gadolinio.
Todo parece indicar que los metales se dilatan con el calor”. Ese “todo parece indicar” muestra que el
hablante no pretende que su conclusión se desprenda necesariamente de esas premisas, que la
conclusión podría ser falsa, aunque fueran verdaderas todas las premisas. Su razonamiento es no
deductivo; esquemáticamente:
60
Este es un razonamiento inductivo: la conclusión es más general que las premisas. Nótese que en este
ejemplo las premisas también son generales: “El cobre es un metal y se dilata con el calor” significa
“Todos los objetos de cobre son metálicos y se dilatan con el calor”.
Es un antiguo problema de la epistemología el papel que cumplen estos razonamientos en las ciencias
fácticas. La cuestión puede resumirse en estas dos preguntas: ¿de dónde sacaron los físicos que todos
los metales se dilatan con el calor? y ¿cómo justifican los físicos su afirmación de que todos los metales
se dilatan con el calor? Parecería que las respuestas están en el esquema anterior. Pero sigamos con los
razonamientos…
Hay algunos casos de razonamientos que resultan tan persuasivos que pueden llevar al hablante a creer
que las premisas respaldan de manera completa a la conclusión aun cuando no son válidos.
Si alguien formula un razonamiento inválido pretendiendo que sus premisas aseguran necesariamente
su conclusión, está cometiendo una falacia.
A⊃B
B
A
61
Si a X le cortan la cabeza, se p: a x le cortan la cabeza p⊃q
muere.
q: x se muere q
X está muerto
___
Por lo tanto le cortaron la
cabeza. p
En este razonamiento claramente la persona podría estar muerta por algún otro motivo.
Empleamos estos razonamientos para inferir las causas de un efecto observado. Si nos levantamos de
la cama a la madrugada y al accionar el interruptor del velador, éste no se enciende, y se nos ocurre
pensar que se cortó la luz, razonamos abductivamente: un corte de luz es una conjetura que explicaría
por qué no se enciende el velador, pero podría estar desenchufado y eso también lo explicaría.
La abducción es un proceso de razonamiento que consiste en inferir una conclusión basándose en haber
observado la ocurrencia de cierto evento y saber acerca de las regularidades entre eventos. Así, hemos
escuchado un estruendo y sabemos que cuando cae un rayo, se produce un estruendo. Esto nos lleva a
conjeturar que ha caído un rayo en las cercanías.
62
Si cae un rayo cerca, se p: cae un rayo cerca p⊃q
escucha un estruendo
q: se escucha un estruendo q
Se ha escuchado un
estruendo --------
----------------- p
o bien:
NOTA: prestemos atención a que se utiliza una líneas punteada para simbolizar que “no creemos que
el apoyo de las premisas sea total”, es decir que creemos que las premisas respaldan en algún grado la
conclusión. Aun cuando las premisas sean verdaderas no está garantizada la conclusión, porque
estamos utilizando un razonamiento no válido y estamos advertidos de que puede haber otras
conclusiones para ese mismo juego de premisas.
Como la inducción, la abducción no nos da ninguna certeza pero es una forma útil de resolver
problemas utilizando el conocimiento disponible para un caso determinado. La abducción la utilizan
tanto los médicos (para el diagnóstico de enfermedades) como los investigadores (para recolectar la
evidencia), todos los peritajes y las conjeturas sobre qué pudo haber ocurrido, son modos de utilizar la
abducción.
Advertencia: la abducción sólo utiliza la información que tenemos a mano y es por eso que los
médicos y los investigadores trabajan tan arduamente para recolectar más información y recrear
eventos del pasado para poder esbozar mejores conclusiones.
63
Todos los bancos del aula magna son negros Toda gallina deja huellas
Este banco que encontré en el pasillo es Veo huellas afuera del gallinero
negro -------------
------------- Una gallina debe haber escapado
Este banco debe ser del aula magna
Siempre que cae un rayo se escucha un Cuando Smith fue el asesino, tuvo que haber
estruendo empuñado el arma usada en el crimen.
------------------ ------------------
Tomando el último ejemplo, Smith pudo haber tomado el arma con la mano antes o después del crimen
y sus huellas quedaron allí, aunque él no ha sido el asesino.
La diferencia entre un razonamiento abductivo y una falacia es que la falacia se comete sólo si se
encara el razonamiento desde un punto de vista deductivo; es decir, si se pretende que las premisas
ofrecen un apoyo absoluto a la conclusión (la falacia quiere pasar inadvertida, camuflada por válida)
mientras que el razonamiento abductivo es a modo de conjetura (debería, debió haber sido, es posible
que, todo indicaría que...), es un razonamiento confirmatorio. En estos casos lo que se supone es que
la verdad de las premisas aumenta la probabilidad de que la conclusión sea verdadera. En otras
palabras, las premisas respaldan la conclusión pero no de modo completo.
Justamente este es uno de los problemas más difíciles de resolver en el sistema jurídicio. Al encontrar
evidencias pero no poder extraer una conclusión mediante razonamientos válidos, solo nos queda
realizar conjeturas y cotejar nuevas evidencias.
Casi todo el conocimiento de sentido común que necesitamos para sobrevivir en el mundo –el mundo
natural y el mundo social– lo hemos obtenido con razonamientos no deductivos (o porque recibimos
la información de otros que los han obtenido con estos razonamientos). Sabemos que para endulzar el
café tenemos que ponerle azúcar, no mayonesa. Sabemos que para que el azúcar se disuelva tenemos
que revolverlo con la cucharita, no guiñarle un ojo. Sabemos que luego de tomarlo tenemos que esperar
a que el mozo del bar nos mire y entonces levantar una mano (al menos en Buenos Aires); sabemos
64
que no es necesario ni apropiado ir hasta él y decirle “Señor Mozo, acuda por favor a mi mesa con el
objeto de que pueda abonarle el café que acabo de beber”.
No llamamos falacias a los razonamientos no deductivos como los de los ejemplos anteriores porque
no tienen pretensión de validez, pero son formalmente inválidos. Sus conclusiones son más o menos
aceptables con la condición de aceptar también que las premisas no las garantizan de modo absoluto.
Los razonamientos válidos siempre nos conducen a verdades…; siempre que partamos de verdades,
claro. Son los que empleamos para extraer las consecuencias lógicas de afirmaciones que no
consideramos problemáticas, o las consecuencias lógicas de conjeturas, como en la puesta a prueba de
las teorías en las ciencias fácticas, o para obtener teoremas a partir de los axiomas en las ciencias
formales (algo que veremos más adelante en otras unidades).
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
65
Unidad 3.1
Contenido
Muchas de las frutas y verduras que comemos hoy en día son el resultado de un largo proceso de cruza
y selección artificial. Obtener mejores frutos y mayor producción fue la empresa de varios siglos en
los que se consiguió salir de una economía de supervivencia en la que se producía escasamente lo que
se necesitaba para la alimentación de la población. En esta historia hay algunos hitos, como el de
Gregor Mendel. Vamos a contar parte de sus investigaciones para entender los métodos que se emplean
en la investigación científica, tanto en los trabajos experimentales, los registros de datos y la puesta a
prueba de las hipótesis que se formulan.
66
Una mezcla de blanco y violeta que no produce lila
En 1860, en el monasterio de Brno (actual República Checa), llevó a cabo el siguiente experimento
utilizando plantas de arvejas que fueran puras para un determinado rasgo. Una planta pura, por ejemplo,
para el color de flor violeta, es aquella planta que en todo su linaje (ya sea sus ancestros o sus
descendientes) presenta flores de ese color y de ningún otro. En su experimento utilizó Mendel
alrededor de 900 plantas que eran puras para algún rasgo particular. La planta de arveja puede ser
descrita exhaustivamente teniendo en cuenta sólo siete características: textura de la semilla, color de
semilla, color de la flor, distribución de la flor, color de la vaina, forma de la vaina y altura de la planta.
Estos aspectos (o como se diría en un lenguaje más afín a la comunidad científica, “características” o
“variables”) adoptan dos posibles manifestaciones (a las que llamaremos “rasgos”), por ejemplo, para
la característica color de la flor, los valores de la variable que se presentan son violeta o blanco; para
la textura de la semilla, las hay rugosas o lisas. Es decir que, en total, no hay más que catorce rasgos a
tener en cuenta. Una vez seleccionadas las plantas puras para una característica, Mendel las fecundó
de manera cruzada: un individuo proveía el polen (gameto masculino) que fecundaba el óvulo (gameto
femenino) de otra planta. Obtuvo así la primera generación de plantas hijas de padres puros. Con las
plantas de esta primera generación filial obtuvo, por autofecundación (es decir, el óvulo de una planta
67
es fecundado por el polen producido por la misma planta), la segunda generación filial. En el siguiente
cuadro se resume los resultados del experimento:
Color de las vainas Verde x amarillo Todas verdes 75% verdes / 25% amarillas
Longitud del tallo Alta x enana Todas altas 75% altas / 25% enanas
¿Con estos datos podría haber formulado Mendel una hipótesis haciendo una generalización?
Atendiendo a la evidencia empírica dada por los resultados experimentales varias generalizaciones
podrían ser hechas:
Generalización 1: Siempre que se crucen plantas puras de arvejas de flor violeta con plantas
puras de arveja de flor blanca se obtiene una descendencia de flor violeta.
Generalización 2: Siempre que se crucen plantas puras de arvejas de semilla lisa con plantas
puras de arveja de semilla rugosa se obtiene una descendencia de textura lisa.
68
Y así podríamos obtener por inducción cinco hipótesis más. Y otras más que describan lo observado
en la F2, pero ampliado a todos los casos posibles.
¿Y cómo se llegaría a una hipótesis que dijera: Siempre que se crucen individuos puros de rasgo A
con individuos puros de rasgo B se obtiene una descendencia de primera generación con un único
rasgo? (De hecho, la que se conoce como Primera Ley de Mendel podría reformularse
aproximadamente en estos términos). Si bien Mendel cumple con el requisito de haber observado un
gran número de casos —recordemos que empleó aproximadamente unas 900 plantas─ no parece haber
cumplido con ese segundo requisito exigido para el uso de una inferencia inductiva que pide que los
casos sean variados: Mendel sólo observó una clase de planta, las arvejas. Esta ley empírica se
extiende no sólo a todas las plantas de arvejas, sino a todas las plantas y, más aún, a todos los seres
vivos. ¿Podemos seguir afirmando entonces, como pretende el método inductivo, que las leyes se
obtienen a partir de los datos? Si así fuera, ¿por qué Mendel no tomó en cuenta la temperatura y
humedad ambientes en el momento de hacer el experimento? ¿O la estación del año en la que lo llevó
a cabo? Pareciera que el científico o la científica ya han efectuado de antemano una selección de datos
en función de cuáles variables creen que resultan relevantes para explicar los hechos estudiados. Esto
nos sugiere que no es con la simple observación de hechos con lo que comienza la investigación, sino
que ciertas presuposiciones se encuentran presentes desde el inicio mismo de la tarea científica.
Por otro lado, ¿se contentará la comunidad científica con hipótesis que describan lo observado
extendiéndolo a todos los casos posibles o buscará hipótesis que permitan explicar esos fenómenos
observados? Por ejemplo: ¿por qué si ha desaparecido un rasgo en la F1, ese rasgo reaparece en la F2
y, además, en una proporción de 3:1? Supongamos que no es un rasgo lo que se hereda, sino alguna
otra cosa, algún tipo de información para generar el rasgo quizás, factor que se transmite a la primera
generación sin que en esta se manifieste, pero que sí lo hace en la segunda, ocasionando la reaparición
del rasgo no presente en la primera. Podría entenderse a la herencia como transmisión de determinados
factores que son los responsables de la presencia o no de los rasgos de una u otra generación. Se podría
enunciar ahora la siguiente hipótesis:
“Las plantas de primera generación obtenidas de plantas puras de flor violeta con plantas puras
de flor blanca son todas de flor violeta pero todas contienen un factor de flor blanca. Este factor de
flor blanca se hereda de la primera a la segunda generación y así explica por qué algunas plantas de
esta generación son de flor blanca.”
69
Según Mendel, en la primera generación las plantas heredaron un factor de cada planta padre, es
decir, heredaron dos factores diferentes, pero uno solo de los factores se expresa en el rasgo. En el
paso de la primera generación a la segunda debe transmitirse también un factor de cada planta padre y
cada planta hereda los dos factores que, a partir de distintas combinaciones, darían lugar a individuos
con distinta conformación respecto de sus factores, combinación que permitiría explicar esa proporción
observada de 3:1. Pero estos factores de los que habla Mendel no son observables: “los factores”
constituyen entidades teóricas propuestas para explicar los rasgos, es decir, aquello que encontramos
en el campo empírico. Es importante aclarar que para Mendel estos factores no son exactamente lo
mismo que hoy conocemos como “genes”, eran más bien algo que deberían tener los organismos en
sus células pero que no se sabía si eran partículas o fluidos
Términos teóricos
que en la fecundación se mezclaban. Es decir, no había
Aluden a entidades propuestas por
forma alguna (ni con ningún instrumental) de distinguir la una teoría y que no se pueden
observar con ninguno de los
existencia de dichos “elementos” o “factores”. Por lo que
sentidos, ni siquiera con un
podríamos clasificar el término “factor” como un término instrumento (al menos al momento
de haber sido propuestas).
teórico ya que su referencia no es una entidad accesible por
medio de los sentidos, sino una entidad cuya existencia se
supone para dar cuenta de lo empíricamente conocido. La noción de qué cosa son los factores depende
de la teoría en la que han sido conjeturados y no era una noción preexistente a la teoría propuesta por
Mendel.
Se podrían agrupar alrededor de tres grandes preguntas los problemas que surgen a la hora de
reflexionar sobre la ciencia. Una de estas preguntas es: ¿Cómo propone un científico una nueva teoría
o hipótesis? Se llama contexto de descubrimiento a este tipo de interrogante centrado en analizar los
procedimientos y técnicas de que dispone la ciencia a la hora de encontrar teorías que ordenen y
expliquen los datos disponibles sobre los hechos.
Ahora bien, una vez propuesta una teoría cabría preguntarse por qué debería ser aceptada o
rechazada, es decir, qué razones o criterios permitirían evaluar la adecuación o no de una teoría a la
evidencia disponible. Se llama contexto de justificación al ámbito de problemas focalizados en
encontrar normas que justifiquen las decisiones que toman los científicos cuando cambian de teorías,
adoptando una nueva o rechazando una previamente formulada.
70
Pero además, y esto ha sido muy importante en la Modernidad, el conocimiento que una teoría
proporciona no sólo se valora por sus éxitos explicativos y predictivos, sino también por los problemas
prácticos que permite resolver. Así es que se torna relevante la pregunta: ¿Para qué sirve este
conocimiento? ¿Cómo lo podemos usar?
Ya en la actualidad, en la que nuestras teorías sobre la genética han avanzado mucho desde los
primeros trabajos de Mendel, podemos apreciar que no sólo es importante saber qué clases de
organismos vivientes pueblan nuestro mundo o que cada uno de ellos posee un genoma, sino que
además podemos alterar ese genoma para mejorar la resistencia de una planta o su adaptación a
condiciones climáticas diversas. Se llama contexto de aplicación al ámbito del uso de las teorías cuya
finalidad es la de resolver problemas prácticos. Tradicionalmente se designa como tecnología a los
logros que la ciencia ha alcanzado mediante la aplicación del conocimiento científico para obtener
vacunas, enviar un cohete a la Luna o desarrollar un armamento sobre la base del control de la energía
liberada al dividir el núcleo de átomos de uranio o de plutonio (la bomba atómica). En este ámbito ya
no importa la puesta a prueba de una teoría sino su uso, uso que además tiene consecuencias que
exceden los límites de la ciencia y que se extienden a problemas de índole económica, política, ética y
ecológica. Muchos de los desarrollos tecnológicos ya desde su diseño inicial contemplan los usos que
se le darán a esos artefactos, como en el caso de las bombas atómicas. En otros casos, los desarrollos
tecnológicos pueden dar como resultado artefactos que la propia comunidad puede utilizar de modo
diferente al que estuvo presente en sus diseñadores iniciales, modificando levemente el diseño inicial
para contemplar las valoraciones de cada comunidad para usar esos artefactos. Un ejemplo sería el
caso de los teléfonos celulares implementados en pequeñas aldeas del continente africano, que
priorizan la mensajería por radio por sobre el uso de redes sociales. De cualquier modo, la discusión
sobre las consecuencias del desarrollo tecnológico es un campo muy interesante y de enorme
complejidad que excede la temática de esta unidad.
En lo que sigue, nos ocuparemos de los dos primeros contextos sin dejar de aclarar antes que lo que
aquí se discuta sólo concierne a las ciencias fácticas, sean estas naturales o sociales, es decir, aquellas
disciplinas cuyos enunciados se relacionan de algún modo con la realidad y que dejamos para otro
momento la discusión pertinente a las ciencias formales como la lógica y la matemática.
La palabra “método” es, seguramente, una palabra que hemos oído y empleado de diversos modos
en ocasiones no necesariamente ligadas a un contexto científico. Así es que podemos decir de una
71
persona que es muy metódica en sus hábitos cuando hablamos de una persona apegada a una rutina
diaria que sigue sistemáticamente. También podríamos escuchar alabar a un equipo por su método de
entrenamiento, o preguntarle a una compañera que obtiene muy buenas calificaciones en las materias
cuál es su método de estudio. Incluso Shakespeare hace afirmar a Polonio, al hablar de Hamlet:
En todos estos casos parece asociarse el significado de método con el de realizar una acción de
acuerdo a una secuencia ordenada de pasos. El contexto de descubrimiento se centra en la tarea de
especificar el método que le permitiría al científico hallar nuevas hipótesis.
Dos grandes tradiciones metodológicas dominaron la escena de esta discusión. Una, llamada la
concepción inductivista del método, dominó desde la Modernidad hasta las primeras décadas del siglo
XX y se constituyó, en boca del mismo Newton, en la versión aceptada por los científicos como la
correcta descripción de su trabajo. Hasta tal punto fue así que para muchos eran sinónimos los términos
“ciencias fácticas” (a veces denominadas simplemente “empíricas”) y “ciencias inductivas”.
A esta tradición se le opuso, desde los años ’30 del siglo pasado, la llamada concepción hipotético-
deductivista del método, entre cuyos defensores hay filósofos de escuelas filosóficas tan diferentes
como Carl Gustav Hempel (1905-1997), cercano al positivismo lógico, o Karl Popper (1902-1994),
propulsor de una visión de la ciencia conocida como falsacionismo, del que nos ocuparemos más
adelante en este curso.
72
Método inductivo
Si la meta de la ciencia es proporcionarnos conocimiento acerca de los hechos del mundo, nada
mejor que observar cuales son los hechos que ocurren para tratar de averiguar bajo qué leyes está
regulado su comportamiento. En un intento de sacarse de encima el peso de tanto siglos de
investigación científica basada en especulaciones que partían de principios indemostrables carentes de
apoyo empírico, los científicos y filósofos modernos vieron en la visión inductiva el camino que les
permitiría descubrir, a partir del registro detallado de los hechos, las leyes que los explicarían. Si
quisiéramos saber qué ocurre con los metales cuando son calentados, lo mejor sería observar la
reacción de distintos trozos de metal, de distintas longitudes, sometidos al calor (cumpliendo así con
los dos requisitos pedidos a una inferencia inductiva, a saber, que las premisas se basen en una cantidad
lo suficientemente grande de casos y que estos casos sean variados). Lo que registraríamos sería esto:
Estos enunciados singulares que describen los hechos observados constituyen los datos obtenidos
por el científico como resultado de sus observaciones o experimentos. Estos datos nos indican que hay
una regularidad presente en todos estos n casos observados: que al ser calentado un metal, este se dilata.
Pues bien, habría que generalizar esto, extendiéndolo a todos los casos posibles y se obtendría así una
afirmación general o ley como esta:
Una afirmación de este tipo es lo que llamamos una ley empírica ya que, además de ser general,
aparecen mencionadas en ella sucesos o cosas cuyo conocimiento proviene de la experiencia. Por
supuesto que la inducción no nos permite asegurar que una ley obtenida como conclusión generalizada
basada en un número finito de casos observados haya quedado demostrada como verdadera. Lo que
ahora denominamos como ley no ha perdido su carácter de hipótesis, es decir, de suposición. Esto no
73
constituye ninguna novedad: cuando estudiamos las inferencias inductivas señalábamos que este tipo
de razonamiento no nos asegura que la proposición que extraemos como conclusión sea verdadera aun
cuando sean verdaderas sus premisas. El método que consiste en hallar hipótesis (proposiciones
generales) como conclusión de un conjunto de datos (premisas singulares) tampoco puede
garantizarnos la verdad de esa hipótesis. Esta deberá ser sometida a un testeo que permita evaluarla
como aceptable o no. Volveremos sobre esto cuando hablemos de la contrastación de hipótesis.
Relacionado con lo anteriormente dicho, hay otra cuestión a tener en cuenta: ¿hasta dónde
extendemos el alcance de una generalización? Supongamos que para llevar a cabo el experimento
tomamos trozos de diversas longitudes de 5 tipos diferentes de metal y concluimos que “Todos los
metales se dilatan al ser calentados".
de lo cual concluimos:
Esta inducción ilustra un paso de premisas generales a conclusión general. Sin embargo, el grado
de generalidad de la conclusión es mayor. Justamente lo que caracteriza a la inducción es esta última
característica.
Hay metales que no hemos observado en las condiciones planteadas por nuestro experimento, y
seguramente, no hemos podido utilizar trozos de todas las longitudes posibles que pudiéramos
encontrar. ¿Por qué no haber extraído más prudentemente esta otra conclusión: “Todos los trozos de
metal de estas 5 variedades cuyas longitudes tengan tal rango se dilatan al ser calentados”? ¿No será
74
que quienes enunciaron esta hipótesis están diciendo algo más en su hipótesis que lo observado en sus
casos?
Volvamos ahora al caso de investigación relatado al principio y que ha sido de suma importancia
en la historia de la ciencia: el experimento de Mendel hecho con plantas de arveja, lo que nos permitirá
hacernos una idea más clara de cómo describiría el inductivismo el trabajo hecho por este científico y,
al mismo tiempo, nos permitirá apreciar mejor las limitaciones que esta metodología presenta.
El método hipotético-deductivo
Hemos señalado dos aspectos de la investigación científica que aparecen como problemáticos para
la visión inductivista del método:
La ciencia no comienza con la observación: ya están presentes “en la mente” de quien investiga
ciertas presuposiciones que guían hacia qué hechos y aspectos va a ir dirigida su atención a la
hora de recoger datos.
Las hipótesis no son el resultado de generalizaciones a partir de lo observado ya que en una
gran mayoría de ellas se alude a entidades no observables.
La visión hipotético-deductivista del método sostiene que el inicio del trabajo científico no está
dado por la simple observación de los hechos. La observación de los hechos más que proveer datos es
una fuente de problemas, y son los problemas los que dan comienzo a la labor investigativa. ¿Por qué
no hay plantas de arvejas de altura mediana? ¿O con flores lila? Los datos que se obtuvieron al hacer
el experimento no encajaban dentro de lo que la teoría de la mezcla hubiera dicho que ocurriría. Que
algo que observamos nos intriga sólo cuando aparece como problemático no debería sorprendernos. Si
yo estuviera jugando con una bolita de plomo y al soltarla se cayera al piso, nada despertaría mi
curiosidad, pero si esa bolita se pegara al techo, ese hecho resultaría enigmático y lo sería precisamente
porque eso no era algo que se espera que ocurra a la luz de la teoría gravitatoria. ¿Qué hay que atrae
la bolita hacia el techo y es más fuerte que la fuerza gravitatoria? Este es el papel que los hechos tienen
al inicio: guiar la búsqueda de una hipótesis que pueda explicarlos.
75
¿Y cómo encuentra la comunidad científica la hipótesis que resuelva el problema? No hay ningún
procedimiento lógico que vaya de los datos disponibles a la formulación de una hipótesis. Estas son
creadas por un acto de imaginación de cada científico y científica. Para el método hipotético-deductivo
las hipótesis son el resultado de un salto creativo. Según hemos visto, para el método inductivo es a
partir de los numerosos casos observados que se llega, mediante una inferencia generalizadora, a una
ley general. Podríamos decir que, para esa visión en que la
Salto creativo
inducción es la base del método, este camino que recorre la
Alude al libre ejercicio de la
ciencia va desde los hechos a las leyes. Pero para el método imaginación humana. No obedece
a un patrón ni se establece en base
hipotético-deductivo, el paso que va del problema a la
a una regularidad.
conjetura o hipótesis que pudiera explicarlo es un acto
creativo del que la filosofía de la ciencia no debe ocuparse
porque no se puede reconstruir ni lógica ni empíricamente.
El segundo paso, del que sí debe ocuparse la filosofía de la ciencia, es el concerniente a la tarea de
extraer por vía de una deducción las consecuencias que permitan confrontar a dicha hipótesis con la
experiencia.
Imaginemos que antes de formular la teoría de la herencia por la cual es conocido, Mendel hubiera
formulado la siguiente hipótesis:
No hay que preguntarse acá en qué hechos está basada la enunciación de esta hipótesis. Frente a
una situación problemática, Mendel inventa H1. Lo importante es atender a las consecuencias
deductivas que puedan obtenerse de esta hipótesis. Estas consecuencias nos dirán qué hechos deberían
ocurrir si la hipótesis fuera verdadera. Ahora bien, H1 hace referencia a un proceso no observable como
responsable de la transmisión de los rasgos: el azar. Pero el azar no es algo cuya existencia pueda
mostrarse como sí ocurriría con otras entidades que podemos observar como, por ejemplo, la flor o la
semilla de las plantas de arvejas, o el color violeta o blanco de una flor. Será necesario recurrir a otros
conocimientos disponibles que nos permitan vincular el azar con algo que pueda ser conocido mediante
la evidencia empírica. La ciencia define el azar como la igual probabilidad de que ocurra cualquiera
de los eventos posibles en una determinada situación. En otras palabras, si al cruzar una planta pura de
flor violeta con otra de flor blanca, y dado que no hemos observado que ocurra la aparición de flores
de color lila, los eventos posibles son dos: o que salga una plantita de flor violeta o una de flor blanca.
Sabemos que Mendel utilizó aproximadamente unas 900 plantas en su experimento, de las cuales no
76
todas eran puras para la característica color de la flor. Supongamos que eran 220 las puras para cada
uno de los colores. Se van a obtener 220 plantas de primera generación filial. ¿Qué debería ocurrir si
hubiera azar? Que aproximadamente, dentro de cierto margen de error experimental, la mitad de las
plantas de F1 sean violetas y la otra mitad sean blancas. Ahora los datos nos permitirán evaluar la
adecuación de nuestra hipótesis. Y los datos nos dicen que todas las plantas de F1 son violetas. La
predicción ha fallado.
Según H2, al cruzar las 220 plantas de flor violeta con las 220 plantas de flor blanca, debería
observarse una F1 con sus plantitas todas de flor violeta o todas de flor blanca. La evidencia
experimental nos dice que la predicción se cumplió. ¿Y qué predice H2 para la siguiente generación?
Dado que el rasgo heredado es siempre el mismo, la consecuencia deductiva es que las plantitas de F2
deben tener todas flores del mismo color. Pero esta segunda consecuencia deductiva no se ajusta a los
datos que nos dicen que por cada tres plantitas de flor violeta, una es de flor blanca. Y ahora habría
que probar con otra hipótesis y volver a deducir consecuencias que permitan su puesta a prueba. Este
es el procedimiento que debe seguir la labor científica.
Ya sea que se haya llegado a enunciar una hipótesis por medio de una inducción generalizadora o
por un salto creativo, siempre es posible extraer de ella consecuencias deductivas acerca de los casos
aún no observados. Llamaremos “consecuencia observacional” (que abreviaremos CO) a un enunciado
que predice lo que debería ocurrir si lo afirmado por la hipótesis fuera verdadero. Este es el primer
paso para poder confrontarla con los hechos. Elegiremos como hipótesis a contrastar a la ley empírica
que hemos enunciado sobre los metales a la que identificaremos de ahora en adelante con la letra H:
Esta ley se había obtenido observando lo que sucede con trozos de distintas longitudes de 5
variedades de metal: aluminio, cobre, plata, plomo y zinc. Pero no se ha experimentado con un trozo
de oro. La pregunta que surge al iniciarse la puesta a prueba es: ¿Qué efectos observables se
producirían si la hipótesis fuera verdadera? La CO es el enunciado que nos dirá precisamente el hecho
cuya ocurrencia se predice a partir de H. En este caso, esto es lo que se deduce de H:
77
(CO) Este trozo de oro se dilatará al ser calentado
El paso siguiente es la realización de un experimento que permita averiguar qué hecho ocurre. El
experimento consistirá en calentar el trozo de oro utilizando algún medio técnico idóneo para ello, y
observar qué efecto produce este calentamiento en la muestra experimental. Llamaremos “dato de
contrastación” (D) al enunciado que describa el resultado observado que podrá coincidir o no con lo
que se esperaba observar. Ahora bien, debemos tener en cuenta que tanto la CO como D son ambos
afirmaciones empíricas singulares, pero hay una diferencia fundamental entre ambos: mientras que la
CO se obtiene deductivamente de la hipótesis, los enunciados de dato (ya sea los obtenidos en
observaciones previas como los que se obtienen después de realizar una contrastación) se obtienen a
partir de la observación de lo que efectivamente ocurre en la experiencia. Supongamos que el resultado
observado es el siguiente:
En este caso se cumplió lo predicho por la CO, es decir, lo observado coincide con lo que decía la
CO. Decimos entonces que la CO se verificó. Hablamos de verificación toda vez que sea posible,
mediante algún procedimiento, determinar la verdad de un enunciado. En nuestro caso, es posible
verificar el enunciado que tomamos como CO mediante la realización de un experimento cuyo
resultado queda expresado en el dato de contrastación, y esto es así debido a que tanto CO como D son
afirmaciones empíricas singulares.
¿Qué pasa con H cuando la consecuencia observacional coincide con el dato de contrastación? En
este caso se dice que hubo una corroboración de H. Examinemos con más detalle la situación en la que
nos encontramos. En primer lugar, se había afirmado que si H fuera verdadera, tal cosa debería ocurrir,
y era la CO la que decía cuál efecto observable era el esperado. En segundo lugar, al obtener un dato
de contrastación idéntico a la consecuencia observacional en lo que se refiere a lo ocurrido, se ha dicho
que esta se verificó, es decir, se la ha podido demostrar como verdadera. El siguiente esquema muestra
de manera más formal lo que acabamos de decir:
H ⊃ CO
se corrobora H
78
La segunda premisa afirma la verdad del consecuente de la primera, pero sabemos que no es
deductivamente válido extraer como conclusión que el antecedente (en este caso H) también lo sea.
No hablamos entonces de verificación de H, sino de su corroboración.
Otro resultado posible de la contrastación podría arrojarnos un dato contradictorio con la predicción,
es decir, que el trozo de oro no se haya dilatado. Este dato nos permite afirmar que el consecuente de
la primera premisa (que siempre contiene a la hipótesis a contrastar como antecedente y a la CO como
consecuente) es falso. Podemos formalizar esto del siguiente modo:
H⊃CO
∼CO (casos en que D≠CO)
∼H
Este razonamiento tiene la forma de un modus tollens, forma válida que nos permite asegurar que
si el consecuente es falso, también lo es el antecedente. Cuando esto ocurre decimos que ha ocurrido
una refutación.
La pregunta que ahora debemos hacernos es qué pasa cuando una hipótesis ha sido corroborada o
refutada. ¿La corroboración es una prueba a favor de la verdad de la hipótesis? ¿La refutación nos
obliga a rechazar a la hipótesis? Con estas preguntas ya nos estamos introduciendo en el contexto de
justificación. La lógica nos ayudará a examinar con más detalle frente a qué situación nos encontramos
en uno y otro caso. Pero antes de abordar este asunto, debemos examinar cómo es que se llega a
formular una CO, y para esto, la lógica será nuevamente una herramienta útil.
Si quisiéramos formular de manera más precisa al enunciado que dedujimos para poder contrastar
a H, este simplemente debería decir: “Esto se dilatará”. Pero nuestra formulación inicial agregaba que
“esto” es de oro y que “esto” era calentado. En lo que ahora queremos poner atención es en el hecho
de que la información que nos brinda la o las hipótesis a contrastar no es suficiente para deducir la
consecuencia observacional. Reparemos por un momento en esto: ¿Por qué elegir un trozo de oro y no
79
una muestra de azufre? La Tabla Periódica de los Elementos nos dice que el primero está clasificado
como un metal y el segundo no. Dicho en un lenguaje afín al que estamos empleando para enunciar
las hipótesis, diríamos que la química nos dice esto: “Todo aquello que sea de oro es un objeto
metálico”. Pero esta hipótesis es previa al intento de contrastación de nuestra ley, y ya se encuentra
aceptada. Esta afirmación es un ejemplo de lo que llamamos “hipótesis auxiliar”.
Toda información tomada de teorías previamente enunciadas y que utilizamos como premisas
adicionales que nos auxilian a la hora de contrastar una hipótesis, pertenecen al grupo de lo que
llamaremos “hipótesis auxiliares” y que abreviamos HA.
Pero estas hipótesis, tanto la que queremos contrastar como las auxiliares recién mencionadas, son
enunciados generales, y en la contrastación necesitamos deducir un enunciado singular que prediga el
comportamiento de algo particular en una situación experimental determinada. Además de las hipótesis
auxiliares es necesario contar entonces con premisas adicionales que describan las características
particulares que están presentes en nuestro experimento. A estos enunciados empíricos singulares que
fijan las condiciones en las que se llevará a cabo un experimento las llamamos “condiciones iniciales”
(CI). Las CI son hipótesis auxiliares singulares que describen las condiciones que deben darse para
que ocurra la consecuencia observacional. En el caso de una contrastación experimental, describe un
hecho producido deliberadamente por el experimentador.
Ahora podemos comprender mejor cuál es el proceso deductivo que nos lleva a obtener la
consecuencia observacional:
Puesto en un lenguaje más coloquial, lo que estas premisas y la conclusión nos dicen es: “Si todo
objeto metálico (y el oro lo es) cuando se lo calienta, entonces ocurre que se dilata, y dado que esto es
de metal (ya que es de oro) y es calentado, entonces tendrá que dilatarse”. La HA y las CI nos ayudan
80
a afirmar que el antecedente de H es verdadero, luego por modus ponens, el consecuente deberá serlo
también. Ahora podemos comprender por qué llamamos “consecuencia” a este enunciado singular que
nos permite poner a prueba a nuestra H. Lo llamamos así porque es una consecuencia deductiva, es
decir, una conclusión, de lo afirmado por H junto con las premisas adicionales que usamos como HA
y CI. Y es observacional porque el lenguaje que usamos para formularla sólo contiene términos
observacionales, es decir, términos que refieren a algún aspecto observable de la realidad.
HIPÓTESIS
+
HIPÓTESIS AUXILIARES
corroboración Y refutación
CONDICIONES
INICIALES
deducción
CONSECUENCIA OBSERVACIONAL
verificación no verificación
observación
experimentación
81
Problemas en la aceptación y rechazo de hipótesis
¿Debemos considerar las hipótesis corroboradas como verdaderas, es decir, como afirmaciones que
no podrían ser falsas ya que cuentan con datos que verifican sus predicciones? ¿Juzgaremos falsa una
hipótesis que ha sido refutada? Como ya anticipamos, con estas preguntas ingresamos en el contexto
de justificación.
Tenemos por corroborada una hipótesis cuando se verifican sus consecuencias observacionales.
Recordemos brevemente un esquema de razonamiento que se asemeja a la situación antes descripta
para el caso de la corroboración, la falacia de afirmación del consecuente:
p⊃q
Este razonamiento no es válido, es decir que su conclusión puede ser falsa, aunque sus premisas
sean verdaderas. Sin embargo, que sea inválido no quiere decir que su conclusión será siempre falsa,
pues también existe la posibilidad de contar con premisas y conclusión verdaderas. Refresquemos la
tabla de verdad del condicional material que nos ayudará a comprender mejor esta situación:
p q p⊃q
V V V
V F F
F V V
F F V
En la tercera columna de esta tabla tenemos la primera premisa de la falacia (p ⊃ q); en la segunda
y primera columnas, la segunda premisa (q) y la conclusión (p), respectivamente. La tercera fila era el
que nos demostraba la invalidez de esta forma de razonamiento ya que en esa fila tenemos un caso de
premisas verdaderas con conclusión falsa. Pero la primera fila nos dice que existe la posibilidad de que
esta forma de razonamientos cuente con premisas y conclusión verdaderas.
Cuando se verifica la CO de H estamos ante un razonamiento cuyas premisas tienen la misma forma
que las de la falacia. No podemos concluir que el antecedente (de donde hemos deducido a CO) es
verdadero, pero tampoco podemos deducir que es falso. Decimos entonces que hemos corroborado a
82
H porque no estamos en condiciones de afirmar que se la ha demostrado como verdadera ni como falsa,
y en tanto esto último no ocurra, aceptamos provisoriamente a H. Adicionalmente, los datos que
sirvieron para corroborarla son el respaldo empírico, o el apoyo de la evidencia en favor de la hipótesis.
Este apoyo es de gran importancia. Imaginemos que se tratara de una investigación en un crimen.
Todas las evidencias se utilizan o bien para descartar ciertas hipótesis (mediante refutaciones) o bien
tener evidencias a favor de otras hipótesis (por haber sido corroboradas mediante los datos de los
distintos peritajes).
Recordemos que una hipótesis perteneciente a una teoría para dar cuenta de ciertos fenómenos del
mundo se formula como una ley general que se refiere a infinitos casos, por lo tanto, aunque los datos
obtenidos a partir de los experimentos resulten favorables, no podemos afirmar que se ha demostrado
la verdad de la hipótesis para todos los casos posibles. Así ocurría con la segunda hipótesis que
imaginábamos podía haber sido formulada por Mendel, según la cual se hereda un único rasgo (y esto
permitía predecir adecuadamente lo que sucedía en la primera generación filial), pero además sostenía
que siempre era el mismo (y en este caso la predicción fallaba para la segunda generación).
Por lo tanto, todo resultado favorable durante el proceso de contrastación nos permitirá seguir
sosteniendo la hipótesis, no rechazarla, pero nunca perderá esta su carácter hipotético, es decir, su
condición de ser una suposición aceptada mientras no aparezca un dato que la refute. Podemos
entonces formalizar el razonamiento que aplicamos al caso de la corroboración de este modo, en el
que la línea punteada que separa a las premisas de la conclusión nos indica que este razonamiento no
nos permite aseverar con certeza la verdad de esta última:
(H ∧ HA ∧ CI) ⊃ CO
CO
----------------------------
Corroboración de (H ∧ HA ∧ CI)
La situación parece ser más clara cuando la hipótesis a contrastar falla al hacer la predicción ya que
contamos aquí con un esquema válido de razonamiento, el modus tollens, que nos permite concluir la
falsedad del antecedente cuando es falso el consecuente:
83
(H ∧ HA ∧ CI) ⊃ CO
∼ CO
∼ (H ∧ HA ∧ CI)
Una refutación ocurre cuando no se verifica la predicción o CO, es decir, cuando existe un dato
contradictorio con lo que la teoría ha predicho que debería ocurrir. Esta situación nos es familiar: es
justamente lo que caracteriza a una anomalía.
Una anomalía podría llevar al rechazo de la hipótesis refutada, pero en muchos casos, algunas
personas de la comunidad científica optan por defender a dicha hipótesis haciendo uso de hipótesis ad
hoc para lo cual recurrirán a negar alguna o todas las afirmaciones auxiliares que previamente había
aceptado. Si el trozo de oro no se hubiera dilatado al ser calentado se podrían haber formulado alguna
de las siguientes hipótesis ad hoc:
84
Hip. ad hoc 3: El calentamiento de este trozo no ha sido suficiente
¿Por cuál de ellas es más conveniente que empiece la investigación? No hay una respuesta clara a
esta pregunta. Quizás la primera sea muy osada pues supone revisar la clasificación que la química ha
hecho de los elementos y entonces sea más prudente optar por alguna de las otras dos. Pero puede
ocurrir que existan momentos en el desarrollo histórico de una disciplina en los que encontremos
ejemplos de revisiones más radicalizadas de las teorías presupuestas y, ante casos importantes de
anomalías, se prefiera abandonarlas. Pero esta es una discusión que debemos posponer por el momento.
Otro tema que dejaremos abierto por el momento es el siguiente: si es posible recurrir siempre a la
formulación de una hipótesis ad hoc para defender una hipótesis refutada, ¿cuándo se abandonan las
hipótesis? Pensemos en lo que ocurrió con el heliocentrismo y la medición de la paralaje estelar.
Durante casi tres siglos se defendió la hipótesis del movimiento terrestre alrededor del Sol aun cuando
se fallaba en detectar ese ángulo de paralaje aduciendo que la distancia entre la Tierra y la estrella era
muy grande y no se contaba aún con instrumentos que pudieran medirla. ¿Podemos establecer de
antemano cuándo se debe dejar de recurrir a una hipótesis ad hoc y dar por refutada la teoría y, en
consecuencia, abandonarla?
El geocentrismo es un claro ejemplo de insistencia en el uso de hipótesis ad hoc: toda vez que un
planeta retrogradaba y no lo hacía como había sido previsto por los cálculos, un nuevo epiciclo se
agregaba. Qué razones llevaron finalmente al abandono de esta teoría es un tema que seguiremos
examinando en este curso; pero no debemos dejar de mencionar un problema que este tipo de hipótesis
ad hoc presenta y que, independientemente del abandono o no de la teoría que se pretende defender,
es una característica no deseable que se debería evitar en toda formulación de una hipótesis ad hoc.
¿Qué predice la hipótesis del epiciclo como un hecho nuevo no conocido aún con respecto al
movimiento planetario? Esta hipótesis no predice la ocurrencia de ningún hecho que ya no haya sido
observado. Todo lo que puede decirse es que cada vez que se observe una retrogradación es porque el
planeta está recorriendo un epiciclo. Pero que el planeta esté retrogradando era el hecho ya conocido,
o mejor dicho, era la anomalía cuya ocurrencia había motivado la formulación de esta hipótesis ad hoc.
Muy distinta es la situación cuando analizamos la hipótesis ad hoc usada por la teoría del Big Bang
para explicar la anomalía relativa a la distribución inhomogénea de materia. En este caso, se formuló
la hipótesis ad hoc siguiente: “En el punto originario ya había inhomogeneidades”. Con esto se
explicaba por qué existen lugares donde se han formado galaxias y otras regiones vacías (la anomalía
detectada). Sin embargo, esta hipótesis ad hoc predecía algo nuevo: la existencia de una distribución
85
inhomogénea dentro de la radiación cósmica de fondo, hecho que el COBE detectó en 1992. Aunque
esta corroboración no se hubiera dado, la hipótesis ad hoc formulada por los defensores del Big Bang
es un ejemplo de buena hipótesis ad hoc ya que esta puede ser contrastada independientemente de la
anomalía que había llevado a su formulación. A diferencia de la hipótesis de los epiciclos, que es un
ejemplo de hipótesis ad hoc mala, ya que la consecuencia observacional que podemos extraer de ella
no permite su contrastación más allá del hecho ya conocido, a saber, que los planetas retrogradan.
Por último, debemos hacer notar que si bien el uso de hipótesis ad hoc puede ser a veces beneficioso
en tanto ayude a mantener una hipótesis refutada y dar lugar a que esta al ser corregida pueda predecir
más exitosamente, también puede ocurrir que este recurso retrase el abandono de una teoría que a la
larga se mostró falsa, como ocurrió con el geocentrismo. Pero también estas hipótesis pueden ser
relevantes por sí mismas, incluso en el caso de que la teoría que se pretendía defender fuera finalmente
abandonada. Así ocurre con la hipótesis ad hoc del copernicanismo en relación a la paralaje estelar.
Dado que el ángulo de paralaje medido era cero para los instrumentos de la época, la hipótesis ad hoc
consistió en afirmar que las estrellas estaban muy lejos de la Tierra y por lo tanto el ángulo sería muy
pequeño y no había instrumentos suficientemente sensibles como para detectar ángulos tan pequeños.
El heliocentrismo de Copérnico, que todavía contemplaba órbitas circulares, no prosperó sino que más
tarde fue reemplazado por el heliocentrismo newtoniano con órbitas elípticas y atracción gravitatoria.
Pero la hipótesis ad hoc de que las estrellas están muy lejos y el ángulo de paralaje es menor que el
que se puede detectar a simple vista y con los instrumentos de esa época, ha sido verificada. La
aventura científica suele guardar este tipo de sorpresas a la comunidad.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
86
Unidad 3.2: Las teorías científicas:
Su lenguaje y estructura
Contenido
El lenguaje de las teorías científicas a veces se refiere a entidades observables y otras veces se refiere
a entidades no observables. Por ejemplo, cuando se observaba un determinado cuadro clínico que se
repetía una y otra vez con las mismas características (fiebre, malestar, dolores, etc.), se solía atribuir
ese estado de enfermedad, a que el organismo estaba siendo afectado por algún agente patógeno (o sea,
agente causante de la patología). Hubo épocas en que proponer la existencia de un agente patógeno
era una conjetura bastante audaz dado que no siempre esos microbios eran observables, dependiendo
de la tecnología disponible en ese momento. Por lo tanto, ese supuesto agente patógeno, no solo era
una entidad que había sido introducida por una conjetura, o diríamos, una teoría, sino que además no
parecía ser observable. Eso llevó a muchos filósofos a asociar los términos teóricos como si fueran lo
mismo que los términos que se referían a cosas o procesos no observables.
Los términos teóricos son esos términos que aparecen con cada teoría. Así la inercia fue una idea que
introdujo Galileo para explicar los movimientos, pero antes de ser sugerida, no aparecía en el
vocabulario. De este modo el término aparece cuando la comunidad científica comienza a usarlo como
parte de una teoría que explica los datos.
Newton sugirió que los cuerpos se atraían con cierta fuerza gravitatoria. La gravitación fue entonces
introducida por su teoría.
87
En la cosmología actual, se sugiere la existencia de materia oscura, del mismo modo en que
antiguamente se sugería la existencia de agentes patógenos.
Que un término haya sido introducido por una teoría, hace que ese término sea teórico. Sin embargo,
puede ocurrir que con el tiempo, haya aspectos observables que asociemos con estas entidades. Por lo
cual habrá que ser más cuidadosos y analizar si los términos teóricos se refieren siempre a objetos que
no serán observados o si simplemente pueden referirse a cosas no observadas hasta el momento y que
merecen cierto estudio para desarrollar tecnologías que permitan detectar su presencia.
No obstante, podemos analizar las dos categorías: la de entidades que han sido postuladas por alguna
teoría (inercia, gravitación, éter, agente patógeno, materia oscura, curvatura del espacio, etc.) y la de
entidades que vamos conociendo por medio de los instrumentos de detección y que podríamos decir
que son observables, aún cuando haga falta usar instrumentos muy sofisticados para ver o representar
estas entidades.
Podríamos decir que existen cosas, cualidades y relaciones, algunas de las cuales son percibidas
directamente por nuestros sentidos (sin ahondar en lo que esto significa) y otras no.
Estas otras entidades, cualidades y relaciones que no son accesibles a nuestra percepción, pueden
estar, sin embargo, relacionadas con las entidades, cualidades y relaciones observables; y es por esto
que podemos tener conocimiento de ellas.
Este modo indirecto hace que no las podamos entender como entidades observables y, en el caso en
que las usemos para explicar lo observable, formarían parte de una teoría y por lo tanto debemos
clasificarlas como entidades teóricas. Por ejemplo, vemos la Luna, el Sol, los planetas y sus posiciones
a lo largo del año. Todos esos aspectos son observables. Sin embargo, debemos explicar por qué giran
en torno al Sol en órbitas elípticas, tal como lo encontró Kepler al resolver matemáticamente el
movimiento de Marte en su órbita. Para explicarlo, Kepler pensó que el Sol tiraba de los planetas a
través de unos brazos o efluvios con los que tenía contacto con el planeta y ese tironeo se producía con
intensidades diferentes en distintas partes de la órbita, de modo que la trayectoria final no era circular
sino elíptica. Claramente Kepler introdujo la noción de “efluvio”, un término para nombrar algo que
no se ve, pero que explicaría los movimientos de los planetas que efectivamente se ven. Allí tenemos
la coincidencia de que el término “efluvio” introducido por la conjetura de Kepler, se refiere a alguna
cosa que no se ve, pero para explicar lo que se ve. Eso hizo que se asociaran los términos teóricos con
los términos no observacionales.
Del mismo modo, la teoría de Newton introdujo el término “gravitación” y de ese modo pudo explicar
los movimientos visibles.
Volvamos a los términos observacionales: aquellos términos que se refieren a cosas observables.
Citemos como ejemplo de entidades observables a los colores, la dureza, las mesas, las personas, los
signos o síntomas, las radiografías, la marca en un tensiómetro, la marca en un termómetro, o el color
88
de un reactivo, etc. Por otra parte, como hemos visto, a partir de ciertos observables inferimos la
existencia de otras entidades como: patologías, presión arterial, circulación sanguínea, información
genética, genoma, etc.
Esta distinción entre entidades se traslada a una distinción entre los términos que refieren a tales
entidades. Las leyes empíricas (e refiere a lo que se ha registrado o bien observado o detectado, es
decir, forma parte de la información directa o por medio de instrumentos disponible en cada época)
contienen solamente términos observacionales. Dicho de otro modo, las leyes empíricas se refieren a
relaciones que encontramos entre entidades observables.
Las leyes teóricas, en cambio, contienen algún término teórico, es decir que se refieren a alguna entidad
teórica.
Aunque ya algunas de las entidades mencionadas más arriba pueden dar lugar a controversias sobre su
inclusión en el grupo de las entidades observables o en el grupo de las entidades teóricas, la
clasificación puede dificultarse aún más para entidades como el impulso nervioso, el ADN, la
estereoespecificidad,1 etc.
Tal teoría aceptada constituye en este caso lo que llamamos "carga teórica" de la observación. Diremos
que la presión arterial es una entidad observable con carga teórica. Mantenernos fieles a una
clasificación estricta en la que la presión arterial sea una entidad teórica y la entidad observable es la
marca indicad por la aguja del tensiómetro sería una opción un tanto forzada y anti-intuitiva.
Sin embargo, las cosas se complican al intentar clasificar entidades como las patologías. En este caso
no estaremos tan seguros de aceptar que la epilepsia es observable, o que la enfermedad de tétanos es
observable, que la esquizofrenia es observable, que la afasia es observable o que el cáncer es
1 La estereoespecificidad es la capacidad de las proteínas de "reconocer'" a otras moléculas según su forma. Esta propiedad
fue descubierta y estudiada por Jacques Monod quien recibiera, junto con François Jacob y André Lwoff el Premio Nobel
en 1966.
89
observable. Seguramente mantendremos a todas estas entidades en la zona de las entidades no
observables y que aparecen por conjeturas teóricas que postulan su existencia, y han resultado ser
teorías muy exitosas en explicar lo observable.
En ocasiones, como en el caso de la presión arterial, optamos por clasificar como observable a alguna
entidad que no es directamente percibida por los sentidos pero que es detectable con la ayuda de algún
instrumento de medición simple. Este sería el caso también para decir que es observable la célula, el
núcleo, los ribosomas, etc. En estos ejemplos se acepta la carga teórica relacionada con el uso del
microscopio, que es ni más ni menos que la teoría óptica. Ahora bien, cuando se intenta observar el
ADN, debemos hacer uso de técnicas bastante diferentes al microscopio óptico.2 Podríamos encontrar
algunos científicos que sostienen que la forma del ADN es observable pues se lo observa mediante
ciertas técnicas, mientras que otros sostendrán, en cambio, que la forma del ADN se infiere a partir de
ciertos resultados experimentales obtenidos en un laboratorio, no siendo, en consecuencia, una entidad
observable, sino teórica.
Este análisis sugiere que la distinción entre entidades observables y entidades teóricas tiene un límite
vago, impreciso, y además, este límite puede variar de una disciplina a otra. Además, ese límite varía
con el avance de las tecnologías y cómo vamos vinculando diferentes aspectos detectables (observables)
con las entidades teórica introducidas para las explicaciones.
Podemos agregar que cuando una cierta técnica se instala como una norma de medición dentro de una
disciplina, el límite sufre un corrimiento de modo en que los científicos y profesionales de esa
disciplina aceptarían la magnitud medida como una entidad observable.
La carga teórica no solamente está relacionada con el uso de un instrumento en especial. A veces se
debe implementar una prueba más o menos compleja que permita decidir sobre una variable, y esta
2 Es necesario obtener registros utilizando técnicas de microscopia túnel que involucran la aceptación de la teoría cuántica.
90
prueba puede hacer uso (o no) de un instrumento en particular. Para obtener la datación de un resto
orgánico (y determinar si es o no un fósil) se utilizan los métodos basados en el C14 (carbono 14) o en
isótopos de sodio o de potasio. La teoría involucrada en estos métodos constituye la carga teórica de
la observación.
Existe otro tipo de carga teórica, y es la que se refiere al bagaje cultural y profesional que, a modo de
guía, filtra las observaciones de forma que creemos obtener información directa, sin tener en cuenta la
mediación de nuestra interpretación. De ella nos ocuparemos en la siguiente sección.
Hemos estudiado el problema de distinguir entre las entidades observables y las teóricas y nos hemos
ocupado de la carga teórica que se introduce al utilizar un instrumento o método para observar. Este
estudio nos ha mostrado que la delimitación entre entidades observables y no observables depende de
la aceptación de la teoría que describe el funcionamiento del instrumento en cuestión, y que esto está
íntimamente relacionado, con el tipo de actividad (o rama de la ciencia) a la que se dedique cada
persona involucrada en la práctica científica.
Existen ciertas hipótesis previas que guían la observación, incluso en los casos en que no utilizamos
instrumentos para realizar las observaciones. A este tipo de hipótesis las llamamos “hipótesis
subyacentes” y también constituyen una carga teórica para esas observaciones.
Cuando realizamos una observación llamamos “observación” a un registro por medio de los sentidos,
ya sea mirando o registrando por alguno de los otros sentidos (como en el caso de la percepción de un
trueno), interpretamos el dato recibido. Podríamos decir que el proceso de observación consiste en
percibir e interpretar a partir de la recepción de estímulos. Por ejemplo, en el caso de escuchar un
trueno diríamos que nos llega el estímulo de un ruido y entonces percibimos (a la vez que interpretamos)
un trueno.
Lo que ahora querernos hacer notar es que el mismo estímulo podría haber sido percibido como el
resultado de una explosión lejana y no de un trueno. Aquí es donde ocupan un primer plano las
hipótesis subyacentes. Si el estímulo del ruido nos llega en un momento en el que estamos
resguardándonos de la lluvia, muy probablemente interpretemos este tipo de ruidos estrepitosos como
truenos, mientras que si, en otra ocasión, pasamos cerca de un edificio que está siendo demolido y al
cabo de unos minutos percibimos un ruido equivalente al anterior, seguramente percibiremos el ruido
como proveniente de la caída de los escombros.
91
Marque con una x, en los lugares correspondientes, si leyó o vio en el cine, conoce o no conoce las
obras que se mencionan a continuación:
Una vez que hayas colocado las marcas, lea nuevamente los títulos de las obras para confirmar que no
cometiste errores.
Puede ocurrir que hayas descubierto en algún momento que los títulos no corresponden a ninguna obra
y entonces habrás descubierto el papel que pueden jugar las hipótesis subyacentes. Te invitamos a que
hagas leer a otros el recuadro de la actividad y verifiques en qué momento descubren
los errores.
92
horizontales celestes y una blanca en el medio, concluimos que estamos viendo una bandera argentina.
No obstante, si vemos que desde una embarcación un marinero agita esa misma bandera, deberíamos
interpretar que el marinero nos avisa que transmitirá un mensaje.3 Es seguro que si el observador es
un marinero que se halla en otro buque cercano y ambos están en alta mar, no pensará que es un
marinero argentino festejando alguna fecha patria o que hemos ganado algún campeonato de algún
deporte, o que se ha otorgado un nuevo Premio Nobel a alguna científica o científico.
Esta situación pone en evidencia nuevamente la predisposición para interpretar un mismo estímulo (la
bandera) de maneras diferentes según la ocasión.
Sin embargo hay una diferencia de importancia entre ambos ejemplos. En el caso de la bandera que es
interpretada de maneras distintas según las consideraciones que se pongan en juego, tales
consideraciones pueden ser explicitadas fácilmente. Es un caso en el que percibiendo lo mismo se
interpreta diferente.
En cambio, en el ejemplo en el que debíamos marcar cuál de las obras del recuadro conocíamos o
habíamos leído, no creemos haber visto lo mismo e interpretado diferente. En este caso hemos visto el
título "Alicia en e1 país de las maravillas" cuando en realidad tal título no existe en el recuadro. Es
decir que lo que hemos visto ya contiene el condimento de la interpretación en el aparato perceptivo y
no en un proceso consciente posterior.
En los ejemplos que hemos mencionado se ha explicitado, en mayor o en menor medida, cuáles eran
las hipótesis que conducían al observador a percibir un dato u otro. Sin embargo, en el ejemplo del
barco esas hipótesis se nos revelan luego de un análisis en que se tiene en cuenta que el estímulo se
podría haber interpretado como si fuera un dato u otro.
El caso común de observación no es este sino el analizado en el ejemplo del recuadro de títulos. Cuando
nosotros miramos por una ventana y vemos pasar una gaviota planeando, difícilmente nos preguntemos
sobre qué otra cosa podría haber sido sino una gaviota. Es decir, cuando observamos, nuestras hipótesis
subyacentes guían la interpretación.
Está claro que debemos hacer un esfuerzo para descubrir estas hipótesis subyacentes y otro esfuerzo
si queremos encontrar una interpretación alternativa del estímulo, es decir, tomarlo como otro dato.
Por ejemplo, una interpretación alternativa sería que lo que pareció una gaviota planeando, era un
pájaro artificial o un drone con forma de gaviota, que un aficionado a los drones ha diseñado para
filmar todo el vecindario.
Por último, cuando decidimos comenzar un relevamiento (recolección de datos) de cualquier índole
(sea científica o no), seguramente aplicaremos (sin siquiera meditarlo), una serie de criterios por los
cuales damos importancia a ciertos datos y a otros no. Por ejemplo, cuando un arquitecto tiene que
3 En el código náutico internacional de señales, agitar tal bandera indica de la existencia de fuego dentro del barco y que
este lleva mercancías de carácter peligroso. Además, dicha bandera, llamada “Juliet”, corresponde a la letra J del alfabeto.
93
remodelar una casa, toma nota de las medidas de los ambientes, de la existencia de vigas, pilares,
instalación eléctrica, sanitaria, etc.; pero no toma nota de que la dueña de casa tiene dos flores en una
misma maceta ni de que había un libro sobre la mesa abierto en la página 150 cuando él entró a la casa.
Sin hacer explícitos todos los criterios involucrados, el arquitecto anotará lo que le parezca que son los
datos pertinentes (relevantes).
Todos estos ejemplos nos muestran que todo dato que percibimos tiene una carga teórica que le da
forma. Dicho de otro modo, no podemos observar sin que. haya una· parte teórica presupuesta. No hay
hipótesis sin observaciones, pero tampoco hay observaciones puras sin hipótesis.
Esta conclusión profundiza aún más las críticas a la postura que llamamos inductivista. Los
inductivistas, como vimos, sostienen que la acumulación de datos de observación (sin teoría) nos
permite generalizar. Esto es, pasar de las observaciones puras a las leyes empíricas o generalizaciones
universales.
Pero ahora sabemos que cada observación contiene una carga teórica ineludible, ya sea por el
instrumento utilizado en la observación o por las hipótesis subyacentes que determinan el dato.
Entonces no podríamos asegurar que en el proceso de generalización (de inducción) no se han
involucrado condimentos teóricos. Esta ha sido una de las críticas más agudas a la postura inductivista.
94
Estructura de una teoría científica
A lo largo de este capítulo hemos hecho referencia a que existen diversos tipos de hipótesis. Hemos
hablado, por ejemplo, de ciertas generalizaciones que por referirse a entidades observables o empíricas,
las llamábamos “generalizaciones empíricas” o, simplemente, “leyes empíricas". También hemos
dicho que existen otras afirmaciones en el seno de una teoría científica que pueden hacer referencia a
entidades de tipo teórico, y reservábamos para estas afirmaciones el nombre de “hipótesis teóricas”.
Asimismo hemos visto que la descripción del resultado de una observación la hacíamos por medio
de un enunciado de observación. Es ahora el momento de sistematizar todo esto a fin de entender
cuál es la estructura de una teoría científica.
Primero recordemos que de acuerdo a su alcance un enunciado puede ser singular o general, según se
aplique a un caso particular o a todos los casos posibles, respectivamente. En relación a las teorías
científicas, ha de tenerse en cuenta además la distinción que hemos trazado entre términos teóricos y
términos observacionales.
Las afirmaciones empíricas singulares (nivel I) son aquellos enunciados que referidos a una situación
particular describen lo observado, ya sea de manera directa, ya sea por medio del uso de un instrumento
de observación. Las leyes empíricas (nivel II) son afirmaciones acerca de fenómenos observables pero
que por referirse a todos los casos posibles de ese tipo de fenómeno, tienen un alcance universal.
Las hipótesis o leyes teóricas (nivel III) son también enunciados generales pero contienen al menos un
término que denota una entidad teórica. Si la ley contiene exclusivamente términos teóricos se trata de
una ley o hipótesis teórica pura, mientras que si hay además algún término observacional se tratará de
una ley o hipótesis teórica mixta.
Debe hacerse notar que una función de las leyes teóricas mixtas es la de relacionar las entidades
teóricas postuladas (por ejemplo, los vasos capilares mencionados en la hipótesis “Todos los
individuos poseen vasos capilares que conectan las arterias con las venas”), con las entidades
observables de la teoría (las venas y las arterias). De este modo se establece un puente entre las
entidades que postulamos sin haberlas observado, y nuestra base empírica (conjunto de entidades
observables). Por este motivo es que se llama “principios puente” a estas hipótesis.
En cambio, las leyes teóricas puras relacionan solamente las entidades teóricas que han sido postuladas
por la teoría, de manera que el significado de estas entidades queda establecido por la teoría que las
propone. Por esta razón se llama “principios internos" a estas leyes.
Esquemáticamente (cada círculo indica un término de la teoría y las flechas, leyes o principios de la
teoría):
95
Leyes teóricas mixtas
(Principios puente)
NIVEL III
Afirmaciones teóricas generales Leyes teóricas puras
(Leyes teóricas) (Principios internos)
¿Cómo están relacionados los distintos niveles de enunciados que componen una teoría científica?
Ante todo, debemos aclarar que para que una teoría sea sometida a una contrastación o se la use para
explicar o predecir ciertos fenómenos, son necesarias otras hipótesis no pertenecientes a la teoría en
cuestión, hipótesis provenientes de teorías previamente enunciadas que prestan una función auxiliar a
la hora de contrastar o de explicar. Se las llama “hipótesis auxiliares”.
Por otro lado hay que tener en cuenta que los principios internos no guardan ninguna relación directa
con lo observable. Ya hemos dicho que los principios puente cumplen la función de conectar las
entidades teóricas mencionadas en los principios internos con las entidades observables. De este modo,
96
de los principios internos y puente junto con las hipótesis auxiliares, es posible deducir las leyes
empíricas; y de éstas, también por vía deductiva, obtener las consecuencias observacionales.
97
Vemos que, en la medida que las entidades teóricas de una teoría no están completamente definidas
desde el comienzo sino que su significado se va ajustando gracias a una continuada aplicación y ajuste
de la teoría, es posible la inserción de las hipótesis ad hoc y la estrategia de sostener la teoría
disolviendo las refutaciones que se presenten. Esto nos debe poner sobre aviso para no refugiarnos en
que algunos términos no están completamente definidos y entonces resistir hábilmente a las
refutaciones.
Esta estrategia no fortalece a la teoría sino que la empobrece. Cuanto mas vaga es la formulación de
una hipótesis (con la ventaja de ser poco refutable) menos fuerza explicativa contiene. Esto es así
porque en la medida en que las hipótesis son menos refutables, sus predicciones son menos precisas.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento
Científico del CBC de la Universidad de Buenos Aires.
98
Unidad 4: Explicación científica
Contenido
En búsqueda de una explicación ...................................................................................................................... 1
La historia del HIV y sus desafíos ................................................................................................................... 2
Explicación causal ........................................................................................................................................... 3
Explicación teleológica ................................................................................................................................... 5
Explicación nomológico deductiva ................................................................................................................. 6
Modelo de relevancia estadística ................................................................................................................... 11
Los problemas de contrastación de las leyes estadísticas .............................................................................. 11
En las unidades anteriores hemos estado trabajando en la puesta a prueba de una teoría científica por
medio de varios ejemplos, de tal modo que en este momento la dinámica del funcionamiento de una
teoría nos es algo mucho más familiar.
Además de la predicción, una de las funciones más importantes de una teoría científica es la
explicación. Explicar es dar cuenta de por qué ocurrió un hecho, una tarea que llevamos a cabo tanto
en la vida cotidiana como en la ciencia. Vamos a ver que, a diferencia de la contrastación, en la cual
se usa sólo el método hipotético deductivo, hay diferentes modelos que se pueden seguir para explicar
un hecho a nivel científico.
Para entender los mecanismos de la explicación, nos vamos a remontar a unos sucesos que ocurrieron
en la década de los 80 del siglo XX y que hasta hoy en día siguen siendo objeto de investigaciones
científicas en todo el mundo.
99
La historia del HIV y sus desafíos
En 1981, médicos de dos hospitales de Los Ángeles y Nueva York enfrentaron una serie de cuadros
clínicos que no habían visto antes. No se trataba de que las enfermedades que observaban fueran
nuevas, sino que eran poco comunes y, además, se daban combinadas en los mismos pacientes. Los
grupos que manifestaban esta combinación de enfermedades eran también dispares: algunos eran
homosexuales, otros hemofílicos, pero también llegaron a encontrar una incidencia mayor en haitianos
y quienes habían recibido transfusiones de sangre. Esto les hizo pensar en que la
transmisión era de naturaleza sexual o bien sanguínea, pero no sabían qué la
provocaba. Además, muy pronto los
pacientes que presentaban este tipo de
síntomas podían ser de cualquier
grupo, y no de los cuatro que habían
identificado al comienzo. La
gravedad, velocidad de transmisión y
carácter enigmático de la enfermedad
motivó que varios grupos de
investigadores se abocaran a la
búsqueda de la identificación de su causa. Como podemos ver, la búsqueda de explicación científica
puede ser dramática y de interés global. Este interés público suscitó que fluyeran los fondos necesarios
para las investigaciones y, así, en 1984, sólo tres años después de la primera publicación científica que
mencionaba estos extraños cuadros clínicos el científico francés Luc Montaigner identificó el
retrovirus del VIH (virus de la inmunodeficiencia humana). En 1985 se pudo secuenciar, y se abrió la
puerta para la búsqueda de tratamientos (la primera droga antiretroviral data de 1987) y,
eventualmente, la cura, tarea en la que está empeñada la ciencia actual. Mencionamos los años para
tomar conciencia de la rapidez de las investigaciones y el hallazgo de tratamientos. Ahora bien,
cualquier posibilidad de tratamiento o cura dependía de que se encontrara la explicación de aquellos
síntomas que causaron perplejidad de los médicos que trataron a los primeros pacientes.
Actualmente se sabe que los primeros casos se dieron posiblemente en el Congo en 1959, pero como
se trata de un cuadro clínico que remite a otras enfermedades ya conocidas, no se había identificado
como algo nuevo.
100
La importancia del descubrimiento de Montaigner
(CARRILLO MARAVILLA, Eduardo y VILLEGAS JIMENEZ, Armando. El descubrimiento del VIH en los albores de la
epidemia del SIDA. Rev. invest. clín. [online]. 2004, vol.56, n.2, pp.130-133.)
Explicación causal
El tipo de explicación que acabamos de describir es una explicación causal. En general todas las
explicaciones de tipo causal tienen esta forma: la ocurrencia de un suceso A se explica a partir de la
ocurrencia de B pues B es causa de A. Esta relación tiene como una de sus características principales
la asimetría: la caída de un rayo es causa de un incendio pero el incendio no es causa de la caída del
rayo.
Así descripto, parece que este tipo de explicaciones no presentan dificultades pues basta encontrar la
causa de aquello que se quiere explicar. Pero la situación no es tan simple cuando se presta atención a
la relación establecida: la relación de causa-efecto o relación causal. Vamos a mencionar dos
problemas básicos que enfrenta este tipo de explicación:
1) en el ejemplo que ofrecimos antes, un hecho como un incendio puede deberse a muchas causas,
aparte del rayo, con lo cual ante el hecho del incendio se abre un abanico de posibilidades de
causas que pudieron haberlo provocado. Es decir que el efecto que observamos puede ser
producido por múltiples causas, e incluso por más de una de ellas combinada. Como vamos a
ver más adelante, este tipo de problemas se presenta en todos los modelos de explicación, no
sólo en la causal.
2) si observamos que ocurre un hecho y luego otro, incluso si podemos hacerlo con regularidad,
esto no justifica que uno sea causa del otro. Se pueden dar correlaciones que no son causales,
o se puede confundir la causa con el efecto. En la Edad Media, por ejemplo, pensaban que los
piojos causaban buena salud e inmunidad a las enfermedades, porque la gente saludable tenía
101
más piojos que los enfermos. Sin embargo, esto se daba porque los piojos se alojan
preferentemente en la gente saludable y no en los enfermos.
Volvamos a nuestro ejemplo del incendio y la explicación de que fue causado por un rayo. Ahora bien,
si un investigador le atribuye el incendio a una causa intencional, su explicación ya no estaría dentro
del modelo causal.
102
Explicación teleológica
No es difícil darse cuenta de que este tipo de explicación tiene una aplicación restringida y sólo puede
darse en algunos casos. Las acciones humanas voluntarias son el ejemplo más claro y, por esta razón,
vamos a encontrar este tipo de explicaciones, fundamentalmente, en el ámbito de las ciencias sociales.
Dada la complejidad de la inteligencia de algunos animales no humanos, también es posible encontrar
este tipo de explicaciones aplicados a ellos. Sin embargo, la biología es un campo donde hay que tomar
con cuidado las explicaciones teleológicas. No es raro escuchar expresiones como:
“Los carnívoros tienen dientes afilados para facilitar el desgarramiento de la carne de las presas.”
Las diferencias entre la explicación causal y teleológica son importantes. Para entender la dimensión
de su importancia, volvamos a nuestro ejemplo del HIV.
Si una persona se contagia por mantener relaciones sexuales sin protección, estaríamos con un ejemplo
de explicación causal. Sin embargo, si alguien intencionalmente contagia a otra persona la explicación
de ese episodio requerirá de una explicación teleológica. Veamos cómo se refleja esto en una
103
afirmación de la ONUSIDA (Programa conjunto de las Naciones Unidas para el HIV), destinada a
servir de orientación a los legisladores de los países miembros:
Por medio de esto podemos ver la importancia jurídica de la diferencia entre una explicación causal y
una explicación teleológica.
Vamos a tomar ahora un ejemplo que les es conocido a todos los que realizaron la TEF 1 (si todavía
no la hicieron, dejen de leer este texto, realicen el ejercicio y luego retomen la lectura). Cuando
Semmelweiss puso a prueba su hipótesis “Toda materia pútrida es infecciosa”, no estaba dando una
explicación causal ni teleológica de la muerte de una paciente que había sido atendida por médicos
que habían estado en contacto con una paciente que tenía una infección y no se habían lavado las
manos. No hace falta aclarar por qué no se trata de una explicación teleológica, pero quizás alguien
está pensando que puede tratarse de una explicación causal. Sin embargo, Semmelweiss no establece
una relación de causa-efecto entre dos sucesos, sino que está apelando a una ley universal para explicar
el hecho de la paciente que contrajo la fiebre puerperal. Por lo tanto, el modelo empleado por
Semmelweiss no es ninguno de los que vimos hasta ahora. Veamos a continuación de qué tipo de
modelo se trata.
Dijimos en el párrafo anterior que Semmelweiss utilizó una ley universal para explicar un hecho. Como
“ley” en griego se dice “nómos” (a esta altura ya están viendo cierta predilección en el uso de términos
griegos y latinos para algunos conceptos teóricos del pensamiento científico), a este modelo se lo
denomina “nomológico”. Como se puede deducir un enunciado de nivel I a partir de un enunciado de
niveles III o II (ya sabrán de qué nivel es el enunciado de Semmelweiss que mencionamos antes), este
modelo usa la deducción, y por lo tanto su nombre completo sería “nomológico deductivo”. Pero
todavía falta un detalle más, y para eso necesitamos recordar el funcionamiento básico del método
hipotético deductivo.
104
Para poder deducir un enunciado de nivel I -en este caso, el enunciado del hecho a explicar- de un
enunciado de niveles III o II hacen falta, además, condiciones iniciales. En el método hipotético
deductivo, que no es desde luego un modelo de explicación sino de contrastación, siempre son
necesarias las hipótesis auxiliares para poder deducir la consecuencia observacional, que es un
enunciado de nivel I. Hay un tipo de hipótesis auxiliares que están siempre presentes en la
contrastación y son de nivel I, llamadas también “condiciones iniciales”.
De la ley:
Todos los modelos explicativos que usan leyes necesitan condiciones iniciales para explicar un
hecho. En cambio, los modelos explicativos causal y teleológico, como no usan leyes, no
requieren la presencia de condiciones iniciales.
Por lo tanto, en nuestro modelo explicativo que recurre a leyes universales para dar cuenta de un hecho,
necesitamos, además de las leyes (niveles III o II), enunciados de condiciones iniciales. El hecho, a
explicar, como vimos, se deduce de las leyes y las condiciones iniciales, y por lo tanto podemos
esquematizar este modelo del siguiente modo:
Hecho a explicar
105
Veamos un ejemplo sencillo:
Y un adorable gato
La secuencia para el que pide una explicación es justamente al revés: observa 3 y pregunta: ¿por qué
la maceta está rota?
Esquema nomológico deductivo para esta explicación
106
Este modelo explicativo que recurre a leyes universales fue propuesto por un filósofo de la ciencia
llamado Hempel. Es un modelo muy bueno, en el caso de que el científico cuente con las leyes
universales necesarias pero, sin embargo, otro filósofo de la ciencia llamado Salmon consideró el
siguiente caso:
altura h = 3
m
ángulo α
sombra S = 7
m
Se pueden ofrecer tres modelos nomológico deductivos, a partir del diagrama anterior, todos ellos
formalmente correctos.
A B C
La altura del pino es h = 3 m La sombra es S = 7 m La edad del pino es 6 años
El Sol está en el ángulo α El Sol está en el ángulo α El pino es de la especie X
El piso es horizontal El piso es horizontal El terreno tiene los nutrientes N
Los rayos de luz se propagan en Los rayos de luz se propagan en Los pinos X con nutrientes N
línea recta línea recta crecen medio metro por año
No hay otros factores que No hay otros factores que No hay otros factores que
interfieran interfieran interfieran
La sombra es S = 7 m La altura del pino es h = 3 m La altura del pino es h = 3 m
1) Notemos que el esquema A es satisfactorio mientras que el B no lo es, aun cuando es perfectamente
adecuado deducir la altura del pino a partir de la información de las premisas. Esta es la crítica de
Salmon a Hempel.
2) En los esquemas A y C entre las condiciones aparecen las que pueden jugar el papel de causa. De
ese modo pareciera que B no es satisfactorio porque no se incluyen las causas de la altura del pino
entre las premisas. Salmon nos quiere mostrar que las explicaciones tienen que decirnos algo acerca
de los procesos causales subyacentes.
107
Explicación estadística
Ahora bien, hay algunos casos en los cuales no hay una ley universal de la que los científicos se puedan
valer para dar cuenta de un hecho, pero sí hay una regularidad. Por ejemplo, podemos encontrar que
el 70% de los fumadores desarrollan trastornos en los pulmones. Entonces, puedo explicar que un
fumador presenta esos trastornos pulmonares a partir de esta ley estadística.
Al igual que con el caso de la explicación nomológico deductiva, en este caso también necesitamos
condiciones iniciales.
--------------------------------------------------------------------------------------------
El paciente X tiene trastornos pulmonares
El razonamiento que estamos usando no es válido, porque el razonamiento podría tener premisas
verdaderas y conclusión falsa. Esto se da porque la ley no vale para todos los casos.
A este tipo de modelo explicativo se lo denomina modelo inductivo estadístico porque la probabilidad
de la ley es alta. Al igual que el modelo nomológico deductivo, fue propuesto por Hempel.
108
Modelo de relevancia estadística
Si un médico le dice a un paciente: “Deje de beber alcohol todos los días, porque un vaso de una bebida
alcohólica al día aumenta un 33% el riesgo de sufrir un ACV”, no está comparando con los que beben
y no sufren ACV sino con los que no beben y sufren ACV (cuyo porcentaje debe ser menor, para que
el beber alcohol sea relevante). Se trata de un caso algo diferente del modelo inductivo estadístico.
En nuestro ejemplo:
La probabilidad del 33% (P) de sufrir un ACV (A) si se bebe diariamente (F) es mayor que la
probabilidad del 1% de sufrir un ACV (A) si no se bebe diariamente (sin F).
P (A/F) ≠ P (A)
Es decir que la diferencia consiste en que la probabilidad de que ocurra un suceso A dado que ocurrió
F sea diferente de la probabilidad de que ocurra A sin que haya ocurrido F.
Al igual que en el caso del modelo nomológico deductivo que fue propuesto por Hempel y recibió
críticas por parte de Salmon, la explicación de relevancia estadística fue incorporada por Salmon como
parte de una crítica al modelo inductivo estadístico propuesto por Hempel.
En la sección anterior vimos que podemos valernos de leyes estadísticas y condiciones iniciales para
explicar un hecho particular. ¿Qué pasaría si queremos usarlas para predecir un hecho, de acuerdo al
método de contrastación que conocemos?
Sabemos que, por ejemplo, nuestro amigo Pepe es un fumador que hace años no ha podido dejar el
tabaco. También sabemos, según la ley estadística que vimos anteriormente, que "el 70 % de los
fumadores tienen trastornos pulmonares" Entonces, ¿podemos ir a avisarle a Pepe que tendrá trastornos
pulmonares?
109
Pepe, vas a tener
trastornos pulmonares, y
según aprendí, te puedo
garantizar esto con un
70% de certeza.
Si Pepe luego de un tiempo presenta trastornos pulmonares, en vez de decirle a nuestro amigo “te lo
dije Pepe”, podríamos evitar ese momento y solo contentarnos con pensar que se ha corroborado la ley
estadística.
Sin embargo, si afortunadamente nuestro amigo no desarrolla ninguna dificultad con sus pulmones, no
parece muy sensato pensar que hemos refutado la ley, ya que había un 30% de casos que no desarrollan
ese síndrome. Dicho en otras palabras, los casos individuales no sirven para poner a prueba una ley
estadística.
Entonces, ¿qué recurso tenemos para saber si nuestra ley estadística está bien establecida y resiste una
puesta a prueba realizada seriamente? Dado que estamos trabajando con lotes de casos para ver cuál
porcentaje de los fumadores presenta esos trastornos y cuál porcentaje no, entonces también debemos
poner a prueba la ley haciendo predicciones acerca de lotes.
Si nuestra ley estadística del 70% es correcta, entonces, tomando una cantidad de fumadores al azar
de una determinada población, 70% de ellos debería mostrar (de acuerdo a la presunta ley que hemos
descubierto) trastornos pulmonares y el resto, no.
Si al conformar ese grupo y estudiarlo encontramos que solo el 40% de ellos tiene dificultades
pulmonares, pero la mayoría no, entonces tenemos buenas razones para dudar si nuestra ley estadística
estaba bien establecida. Es cierto que existe una probabilidad de que justo esa muestra elegida no sea
110
representativa, por lo cual cualquier defensor dirá que hay que tomar otra muestra, y así sucesivamente,
cada vez que obtengamos lotes de casos que no tienen los porcentajes esperados según la ley
estadística, tendremos motivos tanto para pensar que la ley obtenida no tiene los porcentajes correctos
como para pensar que es una serie de casualidades. Sin embargo, cuantas más casualidades tanto menor
será nuestra confianza en los porcentajes que afirma esa ley estadística.
La manera de llegar a rechazar esa ley estadística no es como en los casos de leyes universales en que
la falla de la predicción es un problema que afecta de manera directa a la refutación. Aquí hay un
proceso de acumulación de lotes que no muestran lo esperado. Cuantos más lotes muestren resultados
diferentes de la estadística esperada, tanto más difícil será pensar que fueron casualidades. Pensemos
que cuantos más lotes difieran de la estadística esperada, tanto menor es la probabilidad de que ocurran
esas casualidades.
Visto de otro modo, una moneda que creemos que no está cargada tiene 50% de probabilidad de salir
cara y 50% de salir cruz. Si realizamos 100 veces el ensayo de tirar la moneda al aire, esperamos que
aproximadamente 50 veces salga cara y otras 50 veces salga cruz. Sin embargo, sabemos que no tiene
por qué ser exacta esa diferencia. Podrían obtenerse 40 veces cara y 60 veces cruz, y no tendríamos
todavía sospechas de que la moneda está cargada. Lo que haríamos seguramente es volver a arrojarla
otras 100 veces, esperando que esta vez, o bien salga más cerca del 50 y 50 o bien incluso que salga
más veces cruz que cara, contrariamente al caso anterior. Sabemos que hay probabilidades de que
vuelvan a salir más veces cara que cruz, así que si volvemos a obtener esta vez 70 veces cara y 30
veces cruz, todavía no podemos garantizar que la moneda está cargada, pero si esto se sigue repitiendo,
la pregunta que nos haríamos es ¿apostarías a jugarle a que la moneda saldrá cruz o que la moneda
saldrá cara? Esta pregunta nos enfrenta con que los científicos también tienen que tomar decisiones
sobre modificar los porcentajes de su estadística inicial, a medida que van acumulando evidencias que
muestran que los primeros números eran inadecuados.
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento Científico
del CBC de la Universidad de Buenos Aires.
111
Unidad 5: Diseño experimental
Contenido
Unidad 5: Diseño experimental .................................................................................................................. 1
El experimento controlado .................................................................................................................... 1
Efecto placebo ....................................................................................................................................... 2
Dilemas éticos ....................................................................................................................................... 4
Un experimento didáctico...................................................................................................................... 5
Aplicación forense .................................................................................................................................. 7
En la Unidad 1.2, cuando comparamos la ciencia antigua con la ciencia moderna, vimos que la ciencia
moderna tiene como rasgo básico su carácter experimental, y también a qué se llama control de variables.
Aquí vamos a profundizar en las características de los experimentos mostrando qué desafíos encuentran
los científicos a la hora de diseñar experimentos controlados con seres humanos.
El experimento controlado
Cuando se desea realizar una investigación en ciencias naturales respecto de algún aspecto que nos parece
de interés, nos dedicamos a recolectar datos que nos ayuden a formamos una idea de cómo suceden los
fenómenos en estudio. Por ejemplo, si nos interesa saber cómo cambia el volumen de un metal con la
temperatura, calentaremos algunos trozos de metal para ver si se dilata, se contrae o bien permanece con
el mismo volumen y registraremos los resultados Al cabo de cierta cantidad de experiencias conjeturamos
que todos los metales se dilatan con el calor. Es decir, que al subir la temperatura, aumentan su volumen.
Ahora bien, ¿alguien pensaría que los metales se dan cuenta de que los estamos calentando y que por eso
se dilatan? Esto equivale a pensar que quizás los metales no se dilatan por el calor, sino porque los estamos
estudiando, lo cual suena muy absurdo.
112
En las ciencias sociales y en las ciencias de la salud esta cuestión no es absurda sino muy pertinente. Los
seres humanos tenemos consciencia de nuestra situación y expectativas acerca de ella. Esas expectativas
pueden influir en nuestro comportamiento.
Efecto placebo
Si queremos ver cuál es la reacción de un paciente a un determinado medicamento, debemos
administrárselo, por ejemplo, con una inyección o una píldora. Luego registramos si el paciente mejora o
no. Pero es bien conocido que, en muchos casos, los pacientes mejoran por el solo hecho de que ya están
realizando un tratamiento, aunque la inyección haya sido de suero fisiológico, o la píldora tenga sólo
azúcar o almidón. Es decir, aunque se le haya administrado lo que se conoce como un “placebo”. A este
tipo de efecto psicológico se lo llama “efecto placebo” y se lo debe tener muy en cuenta cuando queremos
evaluar la eficacia de un medicamento o un tratamiento.
Ted Kaptchuk, de la Escuela de Medicina de Harvard, dirige, desde 2011, el Programa de Estudios sobre
el Efecto Placebo y el Encuentro Terapéutico.
De acuerdo a Kaptchuk, hay muchas afecciones o condiciones en las que no funciona un placebo, como
reducir el colesterol o curar el cáncer, pero sí puede funcionar para afecciones que se definen por síntomas
como dolor, náusea o fatiga.
Tras realizar el tratamiento, algunos pacientes empezaron a llamar quejándose de los efectos secundarios
del tratamiento. Las píldoras producían somnolencia, las agujas causaron enrojecimiento e hinchazón,
113
síntomas de los que habían sido prevenidos. Pero la mayor parte de los pacientes experimentaron mejoría,
y esta mejoría era incluso superior en los pacientes que habían recibido acupuntura.
Ahora es cuando viene la sorpresa: ninguno de los dos tratamientos era real. Las agujas nunca perforaron
la piel y las pastillas no contenían ningún tipo de medicamento. Todo el efecto observado se debía a la
sugestión producida en los pacientes. El estudio fue diseñado para comparar dos engaños.
Hay diferentes explicaciones científicas del efecto placebo, que sigue siendo un tema de investigación por
parte de la comunidad científica. A la hora de realizar experimentos controlados en la última fase del
desarrollo de medicamentos, el ensayo clínico, es crucial diseñar la experimentación teniendo en cuenta
la influencia del placebo. Los pacientes se dividen aleatoriamente en dos grupos, sin que sepan cuál les ha
tocado: el grupo experimental, al que se le suministra el medicamento bajo ensayo, y el grupo de control
al que se le suministra un placebo (o un viejo medicamento contra el cual se quiere comparar el nuevo).
En los estudios simple ciego, en los que los pacientes no saben si reciben el nuevo medicamento o no, se
determinará si la eficacia del nuevo medicamento es estadísticamente superior al placebo (o al viejo
medicamento).
114
Pero el médico es un ser humano y también tiene expectativas que pueden influir sobre su apreciación de
la evolución del paciente. Para evitar esto, en general, la legislación exige que estos experimentos sean
doble ciego: el médico tampoco sabe a qué grupo pertenece el paciente que está evaluando. Debe haber,
por supuesto, alguien que sepa qué ha pasado para poder supervisar la operación.
Dilemas éticos
Diseñar experimentos tan exigentes, tanto en ciencias de la salud como en ciencias humanas, suele plantear
muchas dificultades, incluyendo dilemas éticos.
Actualmente, los ensayos clínicos de medicamentos o tratamientos deben ser autorizados por comités de
ética de instituciones prestigiosas que deben aprobar complejos protocolos de investigación.
La Declaración de Helsinki ha sido promulgada por la Asociación Médica Mundial (AMM) como un
cuerpo de principios éticos que deben guiar a la comunidad médica y otras personas que se dedican a la
experimentación con seres humanos. Ha sido sometida a cinco revisiones y dos clarificaciones, la última
en 2008. En su artículo 29 se refiere al empleo de placebos:
En Argentina, el Comité Nacional Asesor de Ética en Investigación, creado por Resolución Ministerial
1002/16, se ocupa de las implicancias éticas de las investigaciones en salud en las que participen seres
humanos, con el fin de proteger sus derechos fundamentales ponderando, a su vez, la necesidad de
promover la investigación en salud.
115
El estudio monstruo
Wendell Johnson pasó la mayor parte de su vida tratando de encontrar la causa y la cura de la
tartamudez. En 1939, dirigió un experimento realizado con 22 niños huérfanos, de entre 5 y 15 años
de edad, en Davenport, Iowa (EE.UU.).
A los niños del grupo experimental se les proporcionó una retroalimentación positiva sobre su
ejecución verbal, alabando la fluidez de su habla, pero para los del grupo de control, la
retroalimentación fue negativa, poniendo de relieve todas las imperfecciones de su habla y diciéndoles
que estaban desarrollando tartamudez. Los niños del grupo de control sufrieron efectos psicológicos
negativos y algunos problemas del habla retenidas para el resto de sus vidas. Este experimento fue
conocido como “Estudio monstruo”.
El resultado del estudio no se publicó en su momento por el miedo de su director de ver empañada su
reputación.
Algunos consideran que este estudio estaba dentro de los límites de los estándares éticos de 1939,
cuando ni siquiera había Comités de Ética en Investigación como los que hay en la actualidad. Hoy,
no sería aceptable realizar una investigación como esa.
Un experimento didáctico
Supongamos que, en una cursada presencial normal, esta cátedra quiere introducir una nueva estrategia
didáctica, en sustitución de la anterior, porque tiene indicios que sugieren la hipótesis de que el
rendimiento de los estudiantes mejorará. Esto necesita justificarse con un experimento: la mitad de los
estudiantes estudiarán con la nueva estrategia didáctica (grupo experimental) y la otra mitad con la que se
venía empleando (grupo de control).
Pero si preguntamos a un grupo de estudiantes quiénes quieren participar de un experimento para evaluar
esta nueva estrategia, quizás recolectemos una serie de estudiantes que en principio tienen interés en las
innovaciones, o son inquietos o ávidos de conocimiento o diversión. Esta selección no sería adecuada, ya
que, si el curso resultara exitoso, no sabríamos si se debe a las virtudes de la nueva estrategia didáctica o
116
a que los estudiantes que se sometieron a la investigación eran una muestra no representativa de la
población total de estudiantes sino un extracto de mayor rendimiento que el nivel general.
Si se resuelven todas esas dificultades, ya sólo falta que los estudiantes no sepan si su curso pertenece al
grupo experimental o al de control para tener lo que en ciencias de la salud es un ensayo tipo simple ciego.
Tampoco sería conveniente preguntar a los docentes cuál de ellos quiere poner en práctica una nueva
estrategia didáctica, ya que también podríamos recolectar mayoritariamente a los docentes más interesados
en el mejoramiento de la educación y, justamente ellos son los que más se esmerarían en sus clases.
También los docentes deberían estar repartidos aleatoriamente entre los grupos experimental y de control.
O, mejor aún: que sean docentes nuevos quienes participen del experimento, docentes que no tengan
ningún conocimiento de ambas estrategias didácticas y, por lo tanto, que no tengan ninguna expectativa
respecto de ninguna de ellas.
La evaluación de los exámenes, o informes de investigación, o lo que sea que se les exija a los estudiantes,
debería estar a cargo de alguien que no tenga contacto con ellos ni con los docentes. Si se hiciera todo
esto, el experimento sería doble ciego.
117
Aplicación forense
Material didáctico producido para los cursos de la Cátedra Miguel de Introducción al Pensamiento Científico del
CBC de la Universidad de Buenos Aires.
118