Está en la página 1de 516

CIENCIA PURA

L Ó G CA DE
P. R. O C E D M E IN I O S Y

RAZ O N A M E IN OS

ce Nirir cos

R O M A N \/ A L E U E N. A

P R M E R A E D C Ó N 2 o 17
I

Ciencia Pura:
Lógica de Procedimientos
y Razonamientos Científicos
Ciencia Pura:
Lógica de Procedimientos y Razonamientos Científicos.

Primera Edición Digital en Español.


Se prohíbe la reproducción total o parcial de esta obra, así como su
tratamiento informático, o su transmisión bajo ninguna forma o por
cualquier medio, ya sea electrónico, mecánico, por fotocopia, por
registro u otros métodos, sin el permiso previo y por escrito del Ing.
Roiman Valbuena, titular del Copyright.

PRIMERA EDICIÓN EN ESPAÑOL 2017.

DERECHOS RESERVADOS. Copyright ©: MMXVII


Por: Roiman Eduardo Valbuena Castro.

ISBN: (E pub) 978-980-12-9355-2.


Hecho Depósito de Ley: ZU2017000019.

Editado en Maracaibo; Estado Zulia; Venezuela.

roiman.valbuena@gmail.com
roiman_valbuena@hotmail.com
@roimanvalbuena
I

DESEO ENTENDER AL MUNDO… SÉ


QUE NO HAY MEJOR HERRAMIENTA
QUE LA INVESTIGACIÓN CIENTÍFICA…
PARA ELLO SE ME EXIGE… Y ESTOY
DISPUESTO A DAR… IMAGINACIÓN
SIN BARRERAS Y UNA PACIENCIA
INFINITA…

EL CAMINO DE LA IGNORANCIA ES EL
SENDERO MÁS CORTO PARA LLEGAR
A CONCLUSIONES ERRÓNEAS…
I

ACERCA DE LA INTUICIÓN CIENTÍFICA

es Científico aquel quien, haciendo usufructo del método, con fe ciega y sin
bondades
odiscernimiento

N alguno lo sigue. Sino quien conociéndolo, está al tanto de sus

y limitaciones. Entonces, emprende camino propio sabiendo que es éste el


que construye al método y no al contrario. Pues, el método, no es más que un largo y escabroso
camino ya transitado por los procesos inherentes a la ciencia.

Es así como, desde este aparte del libro, en sus inicios, puedo afirmarles que no existe tal cosa
denominada Método Científico, si desea saber qué es esa entidad que emplea el investigador para
lograr su cometido, y cómo se consigue. Emprenda investigación propia sin freno, vacilación ni
limitación alguna. Cuando su objetivo sea alcanzado, voltee y observe el sendero transitado, si se
pregunta cómo llegó allí, sólo hay una respuesta posible: a través de la Intuición y la experiencia,
sólo con ellas es posible lograr descubrimientos sorprendentes, y sin ellas, es imposible la
ciencia. La intuición siempre ha sido y seguirá siendo, coautora y codescubridora de maravillas

científicas.

Escuche y siga a su intuición, ella puede ver y advertirle de cosas, representa el poder
máximo del intelecto a priori expresado en forma de aprehensiones. Es la intuición, a través de
flashes perceptivos generados en el inconsciente, la que construirá el proceso que lo guiará desde
el problema hasta su solución. Hacer caso a la intuición, es optar por seguir un conjunto de
acciones de nuestro genio interno, no consiste en meras sospechas, sino, en una facultad creadora
que todo hombre posee. Es percibir desde el inconsciente para proyectarlo sobre la mente
analítica, pues, la intuición no solo es primera a la razón, sino que es superior a ella.

La intuición no miente, se equivoca o explica, sólo orienta al espíritu y es base del accionar
del agente científico en la consecución de sus metas. Aporta la vía más expedita para lograr
descubrimientos, máximo trofeo del deporte científico. Isaac Asimov solía decir: La intuición es
el arte, propio de la mente humana, de la elaboración de la respuesta correcta, partiendo de
datos que son en sí mismos, incompletos o incluso engañosos. De esta manera doy la bienvenida
a los lectores, así como lo hice en un compendio anterior con el mismo escrito, informándoles
que, este libro, producto de un gran esfuerzo, no trata únicamente de ciencia, sino también, de
Intuición, Deducción e Inspiración.
II

ACERCA DE LA INVESTIGACIÓN CIENTIFICA AVANZADA

indagaciónpor
ntiéndase quepInvestigación
características ropias. desde
parte En Científica
un
el cual, Avanzada [ICA], a aquella, o aquel tipo de

E proyecto científico normal, incluyendo todas sus


se agregarán conjeturas soportadas en el principio de
duda razonable e hipótesis más allá de cualquier cúmulo de datos, que no podrán ser modeladas
sino por algoritmos y mecanismos computacionales. Cuyos eslabones cognoscitivos darán luces
a descubrimientos por sí mismos imposibles desde el cerebro humano en su estructura natural.
Actuando donde la parálisis intelectual se haga presente. Logrando con ello, superar las

limitaciones que el cerebro biológico impone sobre el agente científico.

Se pretende entonces, lograr un cambio radical de las estructuras para producir conocimientos
con el uso y aplicación de una lógica superior a la tradicional, soportada sobre la Lógica del
cálculo proposicional, la Teoría Estadística de la Decisión y los Razonamientos Bayesianos.
En vista de que la mente es la que define qué y quienes somos. Entonces, la recreación de
estados mentales por un agente artificial ayudaría a aumentar la percepción, la comprensión, el
entendimiento y la predicción, tendentes a superar las limitaciones del cerebro biológico.

Serán necesarios entonces, un conjunto de mecanismos que ayuden a perfeccionar tales


procesos. La Lógica y sus Principios Supremos; El Razonamiento Artificial; La Lógica Difusa;
La Lógica Trivalente; Los Métodos Bayesianos o la Teoría de Bayes y Las Cadenas de Markov;
entre otros, son algunos de los procesos que me permito detallar en este texto.

La Investigación Científica Avanzada amerita de un nuevo hombre de ciencia, aquel que a


través de la intuición y la imaginación disciplinada, logre resultados que con el método no se
podrán. Pues, es imposible hacer ciencia con métodos definidos a priori. Para lograr resultados
sorprendentes a veces es necesaria en la experimentación, un toque de anarquía. Este nuevo
hombre de ciencia, ha de operacionalizar un intrincado protocolo de captura de problemas,
escalando en unidades de razón y bajo el rigor y belleza de elegantes ecuaciones matemáticas.

Se dice que una investigación es avanzada, cuando el razonamiento necesario para capturar
las inferencias se origina desde contextos científicos cruzados y múltiples variables, las cuales no
III

pueden ser procesadas por seres humanos sino por sistemas computacionales creados para
razonar artificialmente, con sofisticados agentes de comportamientos inteligentes y una lógica
del sentido común superior a la de los seres humanos como agentes biológicos.

Un agente inteligente es capaz de discriminar entre pensamiento racional e irracional,

penetrando hasta lo más profundo de la razón e identificando la presencia de inteligencia


modelando inferencias probabilísticas bajo un umbral de incertidumbre bastante aceptable.
También está habilitado para representar y adquirir conocimientos con el uso de lenguajes
formales y simples técnicas del cálculo proposicional y de predicados de la lógica tradicional. La
Investigación Científica Avanzada busca el desarrollo de entidades inteligentes basadas en la
solución de problemas, es capaz de desarrollar métodos propios que le admitan un fulminante
desmantelamiento de razones sin fuerza lógica.

Opta por la coordinación de métodos consistentes de inferencia derivados desde dependencias


conceptuales y redes semánticas donde se hace uso de data y se le procesa con razonamiento
bajo incertidumbre. Un agente inteligente penetra más capas de abstracción que un cerebro

biológico de alto coeficiente intelectual. Siendo capaz de entender la naturaleza del pensamiento
humano identificando patrones en el dominio del fenómeno y recreándolos a través de un
modelo computacional.

Un agente inteligente está habilitado para reproducir nuevos conceptos asimilándolos como
creencias para reemplazar ciertas verdades. Discrimina hipótesis y desarrolla experimentos, a
diferencia del investigador humano, ejecuta razonamientos combinatorios de alta velocidad
basados en la teoría de la permutación, logrando resolver problemas usando inteligencia
artificial. Diferentes patrones de observación inducen a la manifestación de diferentes estados en
los agentes, y en función de que no ocurra nada no predicho, deberán ejecutarse simulaciones.

Sólo un capítulo de este libro <<VII>> dedico a este tema. Realmente creo que mucha de la
comunidad científica tradicional deberá prepararse para asimilar este nuevo formato de
indagación, de mucha ayuda sería, está aquí y llegó para quedarse. Es recomendable el
deshacerse de sus viejos paradigmas e ideas y acoplarse a una nueva forma de ver la ciencia, una
ciencia basada en el Modelaje Científico de Datos operacionalizados por Agentes de

Inteligencia Artificial.
IV

SOBRE UNO DE LOS OBJETIVOS DEL TEXTO

ocultas
científico
omo en actual,
apenas uno de someter
los investigación
determinada objetivos
propongo cuando
de este
a texto consiste en erosionar el pensamiento

C juicio despiadado a las supuestas verdades


exista un ápice de sospecha sobre ellas,
aún a costa del sacrifico de la reputación del investigador, buscando que con lo encontrado otros
cambien de forma de pensar. Pues, considero que aquellos charlatanes científicos y estafadores
intelectuales deben ser sacados del campo de la ciencia, así como sus cómplices dentro de las
esferas de poder académico quienes sabiendo de antemano las inconsistencias de una

investigación, las admiten sin mecanismo regulador alguno valiéndose de artificios matemáticos
subyacentes e invisibles en un primer esbozo.

La ciencia verdadera genera conocimiento probable y demostrable, y, una serie de


conocimientos lograrán alcanzar el grado científico sólo si después de su adquisición, es posible
demostrar que están concatenados entre sí por sus relaciones lógicas. Ya que, toda investigación
que se considere científica ha de cumplir con los preceptos de la lógica, su condición de validez
descansará precisamente allí, en la propiedad y atributo que admite la demostración del
conocimiento de ella derivado.

Creo realmente que el centro de la investigación científica descansa sobre dos procesos
esenciales, el planteamiento del problema y la explicación lógica y concatenada de hechos
basadas en una teoría de referencia, pues ambos están relacionados, de allí que se diga que un
investigador es por esencia, un explicador de cosas. En todo caso, un problema correctamente
sistematizado y elegantemente planteado, se convierte automáticamente en una de las más
maravillosas formas de explicación jamás conocida, condición que satisface tanto aspiraciones
académicas como sed de intelección de investigadores. Se constituye éste en el andamiaje con el
cual se afinan y edifican ciencias.

Además, una explicación bien sustentada y debidamente hilvanada, maravilla, deleita y sacia
al entendimiento del hombre común. Penetra hasta lo más profundo de la mente del escéptico,
imposibilitándolo a esgrimir argumento alguno en contra. La explicación perfecta no solo existe,
sino que a través de la investigación científica ha de ser alcanzada a toda costa.
V

El investigador debe separar la entelequia del hecho observable, de modo que en las
explicaciones distanciará emoción de percepción, la primera perturba el pensamiento, la segunda
lo hace fuerte y lúcido. En función de la congruencia, se establecerán criterios como condiciones
de demarcación que indicarán bajo qué condiciones un conjunto de hechos se considerarán
explicados y bajo qué condiciones no.

Otra condición de prevalencia en un buen investigador, y en toda investigación, es su


capacidad para identificar frecuencias fenoménicas, quiere decir, patrones en el dominio del
fenómeno. Reconocer patrones es básicamente identificar que tal o cual fenómeno opera bajo
alguna ley matemática, que sus manifestaciones oscilan con determinada característica o su
período de ocurrencia puede predecirse. El reconocimiento de patrones consiste en una ciencia
cuyo objeto es diseñar métodos para la descripción de objetos y su clasificación, convirtiéndose
en base de la ciencia teorética. De hecho, si un científico no posee cualidades de reconocimiento
de patrones, difícilmente llegará a generar o refutar teorías científicas explicativas.

No obstante, así como objeto procedimientos y formas impropias de accionar en ciencia bajo
un arbitrio corrupto, marcando distancia de todo aquello que intente introducir falacias, indico
las pautas para la consecución de resultados basados en una lógica procedimental consistente.
Para efectos de este texto, un investigador no puede conocer a priori su método, no conoce lo que
varía o el cómo esta variación se produce, y no podrá operacionalizar su investigación hasta
transformar sus objetivos de investigación (Cognoscitivos) a objetivos estadísticos (de acción), o
en su defecto, derivar la ecuación determinista adecuada.

En este texto no se opera con variables sino con teorías <<las variables se constituyen en el
peldaño más bajo de la escalera científica>> con estructuras legaliformes de regularidades
fenoménicas, con niveles matemático - estadísticos de complejidad media y alta, y con
estructuras deterministas de modelos deductivos. Pero se introducen al menos 25 formas
diferentes de investigación, todas con poder demostrativo:

El Razonamiento Artificial para Investigaciones Tecnológicas (5); Los Programas de


Investigaciones Interniveles; la Investigación Abstracta; los Programas de Investigación
Comparativos; la Investigación Explicativa Pura; la Explicativa Causal; los Programas de
Explicaciones Funcionalistas y Genéticas; las Investigaciones Exploratorias; los Métodos Mixtos
(5); 4 enfoques de la Física Teórica y la Investigación Experimental con sus Experimentos
Mentales (6).

De manera que, conocido uno de los objetivos de este texto, los invito a involucrarse en una
aventura exploratoria de conocimiento científico. Más de 400 citas a pie de página utilizo para
VI

ampliar explicaciones sobre algunos temas abstractos. Formas de demostraciones y pasos para
identificar patrones científicos.

Habrá muchos que me acusen de Positivista Lógico y de algunas otras cosas, realmente no sé
por qué les temen tanto y poco me importa. Pero de hecho, mi doctrina científica descansa sobre
la forma de plantear el problema, las rigurosas explicaciones y al menos una forma de
confirmación, no necesariamente se debe usar un lenguaje formal o una teoría axiomatizada para
hacerse entender. Quien se niegue, o es un charlatán, o ignora lo que es la ciencia. Evadiendo
procedimientos científicos de importancia y girando hacia la mediocridad.

Entiendo al positivismo como aquella doctrina filosófica donde la noción de conocimiento se


deriva desde una experiencia directa con el objeto, involucrando una sistematización sensata,
exhaustiva y rigurosa con lenguaje de la lógica donde predomina la confirmabilidad. Pero de
hecho, más de 25 formas diferentes de abordar investigaciones científicas les presento, elija al
menos una y plantee el problema explicando con fuerza y coherencia, direccione toda su
potencia mental a la construcción de argumentos y convenza demostrando. Ello para nada
implica, la rigurosidad del positivismo lógico que a quienes desconocen las matemáticas tanto
horroriza.

Para finalizar, no hay ningún aparte que no haya sido suficientemente explicado pero si hay
otros que todavía no he abordado. Pues con ellos, deseo entender al mundo… bien sé que no
existe mejor herramienta que la investigación científica… para ello se me exige… sin ningún

contratiempo y dispuesto a dar… una imaginación amplia y sin barreras… además de una
paciencia infinita.
VII

ACERCA DEL AUTOR

Valbuena Castro Roiman Eduardo: Ingeniero en Electrónica Mención Telecomunicaciones,


Universidad Rafael Belloso Chacín. Maracaibo, Estado Zulia, Venezuela. Analista de Seguridad
en Redes de Telecomunicaciones e Investigador sobre Delitos Informáticos. Egresado del Centro
Venezolano Americano del Zulia (CEVAZ) año 2003. Diplomado en Docencia Universitaria,
Universidad del Zulia 2008. Profesor en la Universidad Nacional Experimental Politécnica de la
Fuerza Armada UNEFA. Ex docente en la Universidad José Gregorio Hernández. Ex Docente en
el Instituto Universitario Politécnico Santiago Mariño y Universidad del Zulia. Especialista en
Docencia para la Educación Superior; Tesis Mención Publicación (Universidad del Zulia).
Maestría en Telemática en Universidad Rafael Belloso Chacín (Tesis Pendiente). Escolaridad
Finalizada en la Especialización en Metodología de la Investigación, Universidad Rafael
Urdaneta (URU). Aficionado a los estudios de la Física, Mecánica Clásica y Relativista, Teoría
Electromagnética, Física Teórica y Fenomenología Intuitiva aplicada a los Métodos de la Física
Teórica. Así como a la Filosofía de la Ciencia y la Investigación Científica Productiva.

- Analista de Seguridad y Editor del blog de Seguridad Informática:


http://seguridaddigitalvenezuela.blogspot.com/ : Especializado en Modelos Matemáticos
Criptográficos y de Seguridad en Redes de Telecomunicaciones.
- Conocimientos Avanzados en Ingeniería de Ancho de Banda - Interfaces Aire para Redes
Celulares CDMA/ TDMA/ OFDM / HSDPA/ EVDO / Planificación y Optimización de
Radiofrecuencias / Transmisión de Datos y Proyectos de Investigación y Desarrollo
Tecnológico. Colaborador activo para las páginas Web Segu-info de Argentina y
Hackhispano de España.
- Asesor Científico en la estructuración de artículos para revistas clase A.
- Investigador en Ciencias de la Inteligencia Artificial; Modelos Estadísticos para
Razonamientos Aproximados y Teoría Estadística de la Decisión Científica.
- Investigador sobre Procesos de Optimización Lineal y Combinatoria para la Transmisión de
Datos.
8

CIENCIA PURA: LÓGICA DE PROCEDIMIENTOS Y


RAZONAMIENTOS CIENTÍFICOS

ÍNDICE DE CONTENIDO

ACERCA DE LA INTUICIÓN CIENTÍFICA ............................................................................................. I


ACERCA DE LA INVESTIGACIÓN CIENTIFICA AVANZADA .......................................................... II
SOBRE UNO DE LOS OBJETIVOS DEL TEXTO ................................................................................. IV
ACERCA DEL AUTOR........................................................................................................................... VII
ÍNDICE DE CONTENIDO...........................................................................................................................8
SOBRE LA DENOMINACIÓN DE QUIENES SE DEDICAN A LA CIENCIA: INVESTIGADOR,
AGENTE CIENTÍFICO Y CIENTÍFICO................................................................................................... 15
MICRÍTICA A LAS INVESTIGACIONES ANALÍTICAS.....................................................................19
MICRÍTICA A LAS INVESTIGACIONES CORRELACIONALES.......................................................24
MICRÍTICA A LAS INVESTIGACIONES DESCRIPTIVAS................................................................. 30

CAPÍTULO I: Acerca del porqué y para qué de la Lógica en la Ciencia

1.1.- La Lógica en la Investigación Científica ............................................................................................ 34


1.2.- Lógica de Enunciados.........................................................................................................................39
1.3.- Lógica de Predicados.......................................................................................................................... 43
1.4.- Lógica de Clases ................................................................................................................................. 46
1.5.- Lógica de Relaciones..........................................................................................................................48
1.6.- El Principio de Identidad..................................................................................................................... 52
1.7.- El Principio de No Contradicción.......................................................................................................56
1.8.-El Principio o Ley del Tercero Excluido.............................................................................................60
1.9.- El Principio de la Razón Suficiente .................................................................................................... 63
1.10.- El Principio de Correspondencia.......................................................................................................66

CAPÍTULO II: El Origen de las Ideas y el Conocimiento Cientifico

2.1.- El Conocimiento y las Ideas................................................................................................................70


2.2.- Sobre el Significado y Origen de las Nociones................................................................................... 73
2.3.- El Conocimiento Inmediato – Directo o Intuitivo...............................................................................75
2.4.- Los Conocimientos A Priori y A Posteriori........................................................................................76
2.5.- El Conocimiento Demostrativo...........................................................................................................77

CAPÍTULO III: Sobre el Significado de las Leyes Cientificas

3.1.- Acerca de las Leyes Científicas..........................................................................................................81


3.2.- Modelo Kuipers de Reducción de Leyes por Teorías.........................................................................87
3.3.- Sobre la Im/Posibilidad de Leyes Científicas en la Investigación Social ...........................................89

CAPÍTULO IV: Sobre algunos Errores y Problemas en las Ciencias Sociales

4.1. – El Método Científico Informativo.....................................................................................................98


4.2.- Periodismo Científico y Lógica Argumentativa ...............................................................................102
9

4.3.- Encuesta Vs. Experimento. La Falibilidad de las Escalas de Likert.................................................104


4.3.1.-Sobre los Errores entre los Tests y sus Estadísticos..................................................................112
4.3.2.- Limitaciones y Alcances de los Instrumentos: Efectos Techo y Piso.......................................116

CAPÍTULO V: Acerca de las Formas de Razonamiento Científico

5.1 – El Método Hipotético Deductivo Vs. El Método Hipotético Inductivo...........................................119


5.2.- El Método Hipotético – Deductivo o Método de las Hipótesis.........................................................123
5.2.1.- El Método Hipotético – Inductivo ...........................................................................................124
5.3.- El Problema de Superponer Inducción y Deducción ........................................................................126

CAPÍTULO VI: Razonamiento, Hipótesis e Inferencias Científicas

6.1.-Sobre la Relación: Razonamiento – Hipótesis..................................................................................132


6.1.1.- Las Hipótesis Heurísticas.........................................................................................................136
6.1.2.- Las Hipótesis Inductivas y Deductivas..................................................................................... 137
6.1.3.- Conexión de Hipótesis..............................................................................................................138
6.1.4.- Hipótesis Abductivas; Razonamiento Abductivo e Hipótesis Diagnósticas............................. 140
6.2.- Un Pequeño Abordaje de las Inferencias Científicas........................................................................144
6.2.1.- Modelo Stock de Clasificación de Inferencias..........................................................................146
6.2.1.1.- Inferencias Inmediatas.................................................................................................... 146
6.2.1.2.- Inferencia Inmediata Simple por Oposición...................................................................146
6.2.1.3.- Inferencia Inmediata Simple por Conversión.................................................................147
6.2.1.4.- Inferencia Inmediata Simple por Permutación............................................................... 147
6.2.1.5.- Inferencia Inmediata Compuesta: Conversión por Negación.........................................148
6.2.1.6.- Inferencia Inmediata Compuesta: Conversión por Contraposición................................ 149
6.2.1.7.- Sobre las Inferencia Mediatas Conjuntivas y Disyuntivas.............................................149

CAPÍTULO VII: El Razonamiento y la Ciencia más allá del ser Humano: Tecnología

7.1.- El Razonamiento Artificial y el Concepto de Investigación Científica Avanzada ...........................153


7.2.- La Lógica Polivalente: Lógica Trivalente [L3].................................................................................156
7.3.- La Lógica Polivalente: Lógica Difusa............................................................................................... 158
7.3.1.- El Análisis Difuso y la Teoría de las Medidas Difusas.............................................................161
7.4.- La Lógica Polivalente: Lógica Computacional................................................................................. 164
7.5.- Sobre el Razonamiento Artificial......................................................................................................166
7.5.1.- El Razonamiento Bayesiano ..................................................................................................... 166
7.5.2.- Razonamiento Basado en Procesos Markovianos.....................................................................169
7.5.3.- Procesos de Decisiones Markovianos.......................................................................................170
7.5.4.- Teoría Estadística de la Decisión: Procesos de Poisson............................................................170

CAPÍTULO VIII: Acerca de la Correcta Operacionalización de una Investigación

8.1.- Operacionalizaciónes en la Investigación Científica ........................................................................173


8.1.1.- Operacionalización de Términos ..............................................................................................173
8.1.2.- Operacionalización de Definiciones .........................................................................................174
8.1.3.- Operacionalización de Significados..........................................................................................174
8.1.4.- Operacionalización de Conceptos.............................................................................................175
8.1.5.- Operacionalización de Variables Científicas............................................................................176
10

8.1.5.1.- Definición de Variable Científica ..................................................................................176


8.1.5.2.- Operacionalización de Variables Latentes.....................................................................177
8.1.5.3.- Definición de Constante Científica (Variable Constante).............................................. 178
8.1.5.4.- Sobre las Dimensiones...................................................................................................179
8.1.5.5.-Sobre los Indicadores Científicos...................................................................................179
8.2.- La Medición: Su Proceso y su Técnica............................................................................................. 182
8.2.1.- Acerca de la Teoría de Errores..................................................................................................183
8.3.- De Objetivos de Investigación a Objetivos Estadísticos...................................................................183
8.4.- Procedimientos Multivariantes Vs. Procedimientos Multivariados..................................................186
8.5.-Niveles de Medición de las Variables............................................................................................... 187
8.5.1.- Acerca del Error Científico de Medir Variables por Niveles.................................................... 187
8.5.2.- Las Escalas Nominales .............................................................................................................189
8.5.3.- Las Escalas Ordinales............................................................................................................... 190
8.5.4.- Las Escalas de Intervalo............................................................................................................190
8.5.5.- Las Escalas de Razón................................................................................................................191

CAPÍTULO IX: El Problema Científico: Qué es y Cómo Plantearlo

9.1.- Acerca del Problema en la Ciencia...................................................................................................193


9.1.1.- Lo Abstracto y las Analogías en el Problema........................................................................... 200
9.1.2.-Sobre la Redacción del Problema .............................................................................................201
9.2.- Un Acercamiento a los Dilemas........................................................................................................204

CAPÍTULO X: Qué son los Programas de Investigación Científica y la Ciencia Internivel

10.1.- Los Programas de Investigación Científica y la Investigación Internivel.......................................207


10.2.- Teorías en los Modelos de Investigación Internivel........................................................................210

CAPÍTULO XI: Sobre la Abstracción en la Investigación Científica

11.1.- Los Programas de Investigación Abstracta.....................................................................................216


11.1.1.- El Conocimiento Abstractivo..................................................................................................218
11.1.2.- Clases Abstractas y Elementos Abstractivos .......................................................................... 219
11.1.3.- Acerca de los Niveles de Abstracción Científica....................................................................219
11.1.3.1.- Investigación Abstracta Grado I: La Física Naturalista............................................... 220
11.1.3.2.- Investigación Abstracta Grado II: La Matemática.......................................................220
11.1.3.3.- Investigación Abstracta Grado III: La Metafísica........................................................221
11.2.- Intuición, Abstracción y Descubrimiento Científico ......................................................................221
11.3.- Ciencias Abstractas y Ciencias Concretas ......................................................................................222

CAPÍTULO XII: Los Programas de Investigación Comparativos

12.1.- Los Programas de Investigación Comparativos..............................................................................225


12.1.1.- Axioma Comparador...............................................................................................................226
12.1.2.- Unidad Comparadora..............................................................................................................226
12.1.3.- Ángulo Comparador................................................................................................................227
12.1.4.- Unidad Comparada/Comparable.............................................................................................228
12.1.5.- Desviación Relativa................................................................................................................228
12.1.6.- Comparación Interclases.........................................................................................................229
11

12.1.7.- Inferencia Intraclase................................................................................................................229


12.1.8.- Comparación Extraclase .........................................................................................................230
12.1.9.- Inferencia Extraclase...............................................................................................................230
12.2.- Inferencia Causal Comparativa.......................................................................................................230
12.2.1.- Análisis del/los Sistema/s Comparado/s ................................................................................. 231
12.3.- El Método Causal Comparativo......................................................................................................234
12.4.- Consideraciones sobre los Diseños Comparativos Longitudinales.................................................237
12.4.1.- Diseño de Poblaciones Totales ............................................................................................... 238
12.4.2.- Diseño Transversal Repetido..................................................................................................239
12.4.3.- Diseño de Paneles Repetidos.................................................................................................. 239
12.4.4.- Diseño de Paneles Longitudinales.......................................................................................... 239
12.4.5.- Diseños Retrospectivos...........................................................................................................239
12.5. - The Qualitative Comparative Analisys Method [QCA]................................................................. 240

CAPÍTULO XIII: Los Programas de Investigación Explicativos Puros

13.1.- Los Programas de Investigación Explicativos Puros......................................................................244


13.1.1.- Las Explicaciones Nomológicas [Deductivas e Inductivas] ................................................... 246
13.1.2.- Las Explicaciones Probabilísticas...........................................................................................247
13.1.3.- Las Explicaciones Funcionales...............................................................................................248
13.1.4.- Las Explicaciones Genéticas...................................................................................................252
13.1.5.-Las 3 Condiciones de Inexplicabilidad...................................................................................253

CAPÍTULO XIV: Los Programas de Investigación Explicativos Causales

14.1.- Los Programas de Investigación Explicativos – Causales..............................................................257


14.1.1.- Los 3 Tipos de Investigaciones Explicativas Causales Indirectas..........................................259
14.1.2.- Causación Probabilística......................................................................................................... 260
14.1.3.- Causación Hacia Abajo: Downward Causation......................................................................262
14.1.4.- Causación hacia Arriba: Upward Causation...........................................................................262

CAPÍTULO XV: Los Programas de Investigación Exploratoria

15.1.- Los Programas Exploratorios de Investigación............................................................................... 265


15.1.1.- Estadio 1: La Mente Exploratoria del Científico ....................................................................266
15.1.2.- Estadio 2: La Descomposición del Problema .........................................................................268
15.1.3.- Estadio 3: El Diseño de Investigación Exploratoria............................................................... 268
15.1.4.- Estadio 4.- Exploración y Mecanismos Estadísticos ..............................................................269
15.1.4.1.- Análisis de Componentes Principales .......................................................................... 271
15.1.4.2.- Análisis Factorial de Correspondencia y Confirmatorio..............................................271
15.1.4.3.- Análisis de Correspondencia Múltiple.........................................................................272

CAPÍTULO XVI: Un Pequeño Abordaje a los Modelos Mixtos de Investigación

16.1.- Introducción a los Métodos Mixtos de Investigación .....................................................................275


16.2.- Importancia de los Paradigmas en Investigación Mixta..................................................................277
16.3.- ¿Cómo Integrar un Diseño Mixto?..................................................................................................277
16.4.- Topología de los Diseños Mixtos Paralelos....................................................................................279
16.5.- Topología de los Diseños Mixtos Secuenciales..............................................................................280
16.6.- Topología de los Diseño Mixto de Conversión...............................................................................280
12

16.7.- Topología de los Diseño Mixto Multinivel.....................................................................................281


16.8.- Topología del Diseño Completamente Integrado............................................................................281
16.9.- La Teoría en los Modelos Mixtos...................................................................................................282

CAPÍTULO XVII: Acerca del Cómo se Construyen las Teorías Científicas

17.1- Las Teorías Científicas Puras...........................................................................................................288


17.2.- El Método Teórico ..........................................................................................................................295
17.3.- Las Teorías en los Modelos Cuantitativos y Cualitativos............................................................... 301
17.4.- Criterios Lógicos para Estructurar Teorías Científicas...................................................................303
17.5.- El Método Axiomático o Método Demostrativo.............................................................................304
17.5.1.- Esquema Científico del Método Axiomático..........................................................................308

CAPÍTULO XVIII: Algunos Métodos para las Demostraciones Científicas

18.1.- Introducción a la Teoría de la Demostración.................................................................................. 315


18.1.1.- El Sistema Axiomático de Kleene ..........................................................................................317
18.1.2.- La Deducción Natural de Gentzen..........................................................................................318
18.1.3.- Método de Demostración Indirecta por Reducción al Absurdo..............................................320
18.1.4.- Método de Demostración por Inducción Matemática.............................................................321

CAPÍTULO XIX: Acerca de los Problemas de la Investigación Tecnológica

19.1.- Controversias entre Paradigmas, Disidencia Científica e Investigación Tecnológica....................326


19.2.- Las Teorías Científicas en la Investigación Tecnológica................................................................ 337
19.2.1.- Las Teorías Tecnológicas Sustantivas....................................................................................338
19.2.2.- Las Teorías Tecnológicas Operativas..................................................................................... 339
19.3.- Relación entre Ciencia Básica, Ciencia Aplicada, Tecnología y Técnica.......................................343
19.4.- Enfoques Paradigmáticos desde el Ámbito Tecnológico................................................................348
19.5.- El Conocimiento Tecnológico y sus Tipos ..................................................................................... 353
19.6.- Las Ingenierías y La Investigación Tecnológica.............................................................................359

CAPÍTULO XX: La Secuencia Lógica en el Reconocimiento de Patrones Científicos

20.1.- Identificación de Patrones y Generación de Teorías Científicas.....................................................369


20.2.- Patrones Analíticos y Patrones Sintéticos: Semejanzas y Diferencias............................................371
20.3.- Reconocimiento Estadístico de Patrones ........................................................................................373
20.3.1.- Estimación Bayesiana de Parámetros .....................................................................................375
20.3.2.- Teorema de Máxima Verosimilitud........................................................................................ 377
20.4.- Método para Clasificaciones no Paramétricas ................................................................................378
20.4.1.- Densidad de Estimación para el Vecino más Cercano............................................................ 379
20.4.2.- Clasificación del Vecino más Cercano ................................................................................... 379
20.4.3.- Regresión del Vecino más cercano.........................................................................................380
20.4.4.-Densidad de Estimación de Kernel.........................................................................................381
20.4.5.- Regresión Localmente Ponderada...........................................................................................381
20.5.- Generación de Teorías Post Observación y Cotejo de Patrones .....................................................382
13

CAPÍTULO XXI: El Método en la Física Teórica

21.1.- La Física Teórica.............................................................................................................................386


21.1.1.- La Energía............................................................................................................................... 390
21.1.2.- La Materia...............................................................................................................................391
21.1.3.- El Tiempo ...............................................................................................................................392
21.1.4.- El Espacio ............................................................................................................................... 394
21.1.5.- La Física Teórica según el Enfoque Centrado en el Fenómeno..............................................397
21.1.6.- El Enfoque Constructivo de la Física Teórica ........................................................................ 399
21.1.7.- El Enfoque Abstracto de la Física Teórica..............................................................................400
21.1.8.- El Enfoque Unificacionista de la Física Teórica.....................................................................401
21.2.- Los Sistemas Físicos y la Causación Universal............................................................................. 403
21.2.1.- Los Sistemas Físicos...............................................................................................................404

CAPÍTULO XXII: Teoría General del Muestreo Estadístico

22.1.- Muestreo Estadístico: Análisis, Diseño y Aplicaciones..................................................................408


22.2.- Fracción de Muestreo y Factor de Elevación..................................................................................412
22.3.- Cálculo de los Tamaños Muestrales: Algunas Fórmulas................................................................413
22.3.1.- Ecuación 1 para determinar el tamaño de la muestra..............................................................413
22.3.2.- Ecuación 2 para determinar el tamaño de la muestra..............................................................414
22.3.3.- Ecuación 3: Fórmula de Slovin para una muestra...................................................................414
22.3.4.- Fórmulas para Muestras de Distribuciones Binomiales..........................................................414
22.4.- Muestreo Aleatorio Simple............................................................................................................. 415
22.5.- Muestreo Aleatorio Estratificado....................................................................................................417
22.5.1.- Asignación Desproporcionada para el Análisis de Estratos.................................................... 419
22.5.2.- Asignación Desproporcionada para el Análisis Entre Estratos...............................................420
22.5.3.- Asignación Óptima: de Costos y Precisión.............................................................................421
22.6.- Muestreo Aleatorio Sistemático......................................................................................................422
22.7.- Muestreo Probabilístico por Conglomerados <<Clusters>>...........................................................424
22.8.- Muestreo Probabilístico Multietapas............................................................................................... 425
22.9.- Muestreo No Probabilístico: Muestreo por Cuotas.........................................................................426
22.10.- Muestreo No Probabilístico: Muestreo Proporcional....................................................................428
22.11.- Estadísticos Muestrales.................................................................................................................428
22.11.1.- Distribuciones Muestrales.....................................................................................................429
22.11.2.- Media Muestral..................................................................................................................... 429
22.11.3.- Distribución Muestral de Medias..........................................................................................429
22.12.- Error de Muestreo.........................................................................................................................431
22.12.1.- Los Errores de Respuesta Aleatorizada ................................................................................ 433
22.12.2.- Los Errores de Adquisición de Datos ...................................................................................434
22.12.3.- Error de Sesgo en la Selección.............................................................................................. 434

CAPÍTULO XXIII: Introducción a la Investigación Experimental

23.1.- El Método Científico Experimental ................................................................................................436


23.2.- Consideraciones sobre la Observación y el Experimento...............................................................442
23.3.- Los Experimentos Mentales............................................................................................................445
23.3.1.- Los Experimento Mentales Destructivos................................................................................447
23.3.2.- Los Experimentos Mentales Constructivos.............................................................................448
14

23.3.3.- El Modelo Conjunto: Destructivo – Constructivo ..................................................................448


23.3.4.- Experimentos Mentales Mediativos........................................................................................448
23.3.5.- Experimentos Mentales Conjeturales......................................................................................448
23.3.6.- Experimentos Mentales Directos............................................................................................448
23.3.7.- El Gato de Shrodinger............................................................................................................. 449
23.3.8.- Galileo Galilei y la Caída Libre..............................................................................................452
23.3.9.- David Hilbert y su Hotel Infinito............................................................................................453
23.3.10.- El Cerebro en una Cubeta.....................................................................................................455
23.4.- El Control Experimental. ................................................................................................................458
23.5.- Aleatorización Experimental...........................................................................................................462
23.6.- El Método de Control Estadístico...................................................................................................464
23.7.- Los 5 Cánones de Jhon Stuart Mill.................................................................................................465
23.7.1.- Método de la Concordancia...................................................................................................465
23.7.2.- Método de la Diferencia..........................................................................................................468
23.7.3.- Método Conjunto Concordancia – Diferencia........................................................................469
23.7.4- Método de los Residuos...........................................................................................................471
23.7.5.- Método de las Variaciones Concomitantes.............................................................................472
23.8.- La Validez Experimental. ............................................................................................................... 475
23.8.1.- La Validez Interna...................................................................................................................476
23.8.2.- Amenazas a la Validez Interna ...............................................................................................476
23.8.3.- La Historia: ............................................................................................................................. 476
23.8.4.- La Maduración:.......................................................................................................................477
23.8.5.- El Efecto de las Pruebas:.........................................................................................................477
23.8.6.- Sesgo en la Selección:.............................................................................................................477
23.8.7.- Mortalidad:..............................................................................................................................477
23.8.8.- La Regresión Estadística:........................................................................................................ 478
23.8.9.- Ambigüedad sobre la Dirección de las Inferencias Causales: ................................................478
23.9.- La Validez Externa.......................................................................................................................... 478
23.9.1.- Amenazas a la Validez Externa .............................................................................................. 479
23.9.2.- Sesgo en la Selección..............................................................................................................479
23.9.3.- Selección de Estudiantes......................................................................................................... 479
23.9.4.- Sesgo del Voluntario...............................................................................................................480
23.9.5.- Generalización de Entornos de Laboratorio............................................................................480
23.9.6.- Las Replicaciones Exactas...................................................................................................... 480
23.9.7.- Las Replicaciones Conceptuales.............................................................................................480
23.9.8.- Las Replicaciones Sistemáticas .............................................................................................. 481
23.9.9.- Fallas en la Descripción Explícita de la Variable Independiente............................................481
23.9.10.- El Efecto Hawthorne.............................................................................................................481
23.9.11.- La Inadecuada Operacionalización de las Variables Dependientes......................................481
23.9.12.- Efectos Interactivos de Factores Extraños Vs. Tratamientos Experimentales......................482
23.10.- El Diseño de Experimentos........................................................................................................... 483
23.11.- Tipos de Diseños en Investigación Experimental.........................................................................485
23.12.- Diseños Experimentales Verdaderos e Investigación Cuasi Experimental...................................485
23.13.- Diseños Ex - Post – Facto .............................................................................................................486
23.14.- Clasificación de los Diseños Experimentales...............................................................................490
23.14.1. Diseños Intrasujetos...............................................................................................................490
23.14.2.- Diseños Intersujetos..............................................................................................................492
23.14.3.- Diseños Factoriales...............................................................................................................494
23.14.4.- Diseño Experimental de Caso Único (N=1).........................................................................496
BIBLIOGRAFÍA.......................................................................................................................................499
15

SOBRE LA DENOMINACIÓN DE QUIENES SE DEDICAN A LA CIENCIA:


INVESTIGADOR, AGENTE CIENTÍFICO Y CIENTÍFICO

onviene
dedican advertir,
razonamientos
a a mi manera de ver, de las diferencias entre aquellas personas que se

C la actividad científica y prestan servicios a la verdad haciendo uso de


lógicos, además de herramientas estadísticas y matemáticas. Destrezas,
hábitos, objetivos, formas de accionar e inferir los diferencian. Niveles de profundidad, métodos,
meta-métodos y formas de abordar problemas también los hace disímiles. Pues, creo en verdad,
que la clasificación de aquel que se dedique a la ciencia no debe hacerse en función de títulos
académicos, sino, en relación a la fuerza de su inteligencia, profundidad de razonamiento y
potencia mental capaz de procesar. Construyéndose una reputación científica soportada sobre la
fuerza lógica de sus explicaciones y la experiencia.

Me refiero a 3 categorías clasificatorias de la escalera científica. Los Investigadores, los


Agentes Científicos y los Científicos. Superficialmente pareciesen ser lo mismo, en el fondo no.
Investigador es aquella persona que tiene su primer acercamiento a la ciencia (Tesista de Pre o
Postgrado) logrando avanzar significativamente durante muchos años de su ejercicio. Sigue una
línea de investigación, no sale de ella, describe pero evidencia cierta dificultad para explicar,
tiene inconvenientes a la hora de identificar el procedimiento o prueba estadística apropiada y
como condición necesaria nunca ha ejecutado experimentos científicos. Operacionaliza una
ciencia por procesos y no por intuición o abstracción. Cuestión que le hace difícil alcanzar
descubrimientos. Sus publicaciones tienen impactos científicos moderados en su área de
pertinencia, pero sabe que debe adiestrarse en técnicas de presentación de resultados post análisis
de datos, muy consciente está de ello.

Un investigador no experimenta ni teoriza, simplemente se dedica a escalar estructuras del


pensamiento buscando auto descubrimiento. Sus argumentos serán en esencia retóricos,
persuasivos, no demostrados e indemostrables. No se guía por teorías sino por variables y
pretende conocer a priori lo que varía, después se dará cuenta de que las cosas no son así, y toda
investigación científica consiste en una secuencia explicativa de causas y efectos donde a ciencia
cierta se desconoce aquello que realmente varía y cómo tal oscilación se produce.

En razón, ninguna investigación digna de su nombre, puede ser no experimental, ya que, si se


conoce lo que varía y se eligen indicadores hay una manipulación manifiesta. Siendo la
16

operacionalización de variables, el peldaño más bajo de la escalera científica. Un investigador


genera teorías conceptuales y no formales, además de omitir todo criterio de demarcación.
Aunque pareciese más una crítica que una descripción de Investigador, es en esta etapa de la
vida científica donde realmente se aprende lo que es la ciencia. Maravillosa, Misteriosa e
Inexpugnable.

Un investigador es aquel novato que por la simplicidad de su apariencia pareciese débil ante
la acción de develar lo desconocido, pero en verdad no es así. Utiliza su inteligencia para quitar
del camino todo resultado científicamente estéril. A mi manera de ver, consiste en la etapa más

hermosa e importante del auto descubrimiento científico, una etapa cumbre e insalvable. Saltar
desde Investigador a Agente Científico es como pasar desde la niñez a la juventud.

Agente Científico, es aquella persona que además de haber logrado superar la niñez
Investigativa, presenta las siguientes cualidades y/o características. Marca un discurso apodíctico
basado en explicaciones. Describe sólo cuando es necesario pues sabe que la descripción no
explica ni concatena, mucho menos establece causal adecuada o deriva algún equilibrio causal.
No sigue ni se esclaviza al método, descubre que la intuición sirve para algo y la utiliza.
Direcciona su imaginación disciplinada donde observe la existencia de entendimiento angosto,
haciendo comparecer ante su inteligencia todos los hechos numerados en las observaciones.

Es anárquico, sabe que observar por el simple hecho de hacerlo es perder el tiempo, la ciencia
en sí es netamente explicativa. Por ello perturba y experimenta, identifica agentes efectores y los

diferencia de los agentes causales. Magistralmente está en capacidad plena de descubrir y


explicar procesos causales, acausalismos, equilibrios causales y transcausalidades. Hace gala de
sus sentidos cuando se concentra en la identificación de los patrones de ocurrencia de sus
unidades fenoménicas. No cae en parálisis intelectuales pues el marco científico de su mente ha
detectado comportamientos emergentes y ha derivado la mejor opción a seguir.

Un agente científico está al tanto de que la mejor arma de la que dispone es la lógica, ya que
no sigue un orden de procesos, como el investigador sí hace, opta entonces por los principios
lógicos supremos: el de identidad, el de no contradicción, el de la razón suficiente, el del tercero
excluso y el de correspondencia. Como en cualquier etapa de su investigación, por cercanía o
emoción puede engañarse por semejanza, tiende a cuidarse de construir estructuras cognitivas no
firmes. Entonces, acude a los métodos de demostraciones científicas, comúnmente, el método
indirecto de reducción al absurdo.

El agente científico da sus primeros pasos hacia la edificación de estructuras legaliformes,


leyes, con las cuales explicar el nexo necesario y suficiente entre unidades fenoménicas. Sabe de
17

estadística, conoce de lógica y es capaz de ejecutar razonamientos escalados. En consecuencia,


puede superar sus propias limitaciones. Identifica contextos subyacentes y opta por
investigaciones interniveles, crea hipótesis, las demuestra y transforma en teoremas.

Abstrae, compara y discierne haciendo uso de la intuición y la deducción. Nunca actúa


precipitadamente, ello le admite al aislamiento de propiedades de los objetos con el fin de
descubrir relaciones ocultas. Operacionaliza investigaciones exploratorias y abstractas con
procedimientos altamente complejos. Es evidente entonces la diferencia entre Investigador y
Agente Científico, siendo así, el sujeto ya ha finalizado su etapa juvenil y debe acercarse con
sumo cuidado a los desafíos de la etapa adulta, quiere decir, la de Científico.

Científico, dícese de aquella persona cuyos méritos superan el promedio de sus colegas. No
escribe artículos científicos para abultar un curriculum académico, ni repite en cuanto que dicho,
sino que presenta resultados de alto impacto con gran carga de descubrimientos. Las
comunidades de investigadores y agentes científicos siguen sus pasos, se erige como modelo a
seguir, de hecho, él por sí mismo es un fenómeno a investigar. Posee un coeficiente intelectual
en su área de pertinencia que deja perplejos a cualquier pensador sobrio. Genera, contrasta y
refuta teorías científicas. Es experto en el manejo de los niveles de agregación adecuados y sabe
donde existe y porqué, inconmensurabilidad.

Conoce de estadística, de teoría de la medición y la demostración, de lógica matemática y


diferencia bien entre probabilidad y determinismo. Transforma enunciados en refinadas
ecuaciones matemáticas descubriendo relaciones inter teoréticas dando origen a leyes científicas.
No operacionaliza variables directamente sino que le importan más las variables constantes. Su
capacidad de razonamiento le admite a trabajar en contextos científicos cruzados, acude entonces
a la teoría reduccionista buscando la edificación de modelos deterministas y no probabilistas.

Está en capacidad de operacionalizar enunciados universales, particulares y singulares con la


lógica de enunciados y la de predicados en busca de inconsistencias. Explora y extrae teorías
desde niveles abstractos grado II y III agregando fuerza demostrativa y probatoria a sus
inferencias. Hace uso de explicaciones puras, probabilistas, funcionales y genéticas según
considere conveniente. Está en capacidad de generar un marco explicativo direccionado según la

teoría o ley de referencia, explicaciones laterales, hacia arriba o hacia abajo, dependiendo del
contexto científico cruzado donde se encuentre inserto.

Conoce y admite la existencia de criterios de demarcación los cuales no puede, ni es su


intensión, transgredir. En función, elige una de las mejores armas para defenderse en la ciencia,
los números, pues sabe que éstos no existen y que sólo son ideas sobre cantidades que todo el
18

mundo acepta como axiomas con verdades irrefutables. Además, los números hablan. Cuando
tiene dudas las disipa a través de la prueba experimental. Es la persona de mayor valor en un
centro o instituto de investigación. Competente para erosionar el pensamiento de cualquier
investigador o agente científico, diferencia entre inducción y deducción, además, sabe cuándo
superponerlas y cuando no. Es estrictamente hablando, una persona con hábitos, actitudes y
aptitudes sumamente extrañas.

En fin, conviene en un resumen, caracterizar quien es cada quien. Si Ud. sigue una línea de
investigación, conoce a priori tanto su método como sus variables, no ha operacionalizado
teorías científicas o no ha ejecutado experimentos, entonces es un Investigador. Puede haber
pasado 3 días allí o 30 años, su ascenso no dependerá de los títulos académicos acumulados, sino
de la potencia de su inteligencia direccionada al descubrimiento de esencias científicas. Recuerde
que las tesis son Estudios no investigaciones propiamente dichas. Son proposiciones que se
mantienen como argumentos sin contraposición, usadas sólo para la obtención de un grado
académico. No son teorías sino un conjunto de supuestos. Contrariamente, una investigación
resulta de la demostración de los argumentos de verdad en ella contenidos.

Ahora bien, si Ud. operacionaliza teorías científicas en función de complementarlas o


refutarlas. Utiliza una o más leyes con sus correspondientes constantes fenoménicas, ejecuta
investigaciones internivel con más de un nivel de agregación, operacionaliza hipótesis auxiliares
con las cuales conectar niveles y desconoce a priori lo que varía, entonces considérese Agente
Científico.

Así mismo, Científico será toda aquella persona que se dedique a la ciencia y engendre teorías
efectivas desde sus axiomas de nivel abstracto y refute otras a través de reducir al absurdo u otro
método de demostración. Siga mecanismos lógico-matemáticos para encontrar incompatibilidad
en conexiones inter-teoréticas. Operacionalice estructuras legaliformes de uniformidades
fenoménicas observadas y compiladas en una sentencia descriptible a través de ecuaciones y
derivadas desde un experimento. Aquel que siga fenómenos y no líneas de investigación. Y
además, ejecute explicaciones probabilistas complementándolas con explicaciones puras y
esencialmente deterministas.

Para visualizar la diferencia entre el Científico y sus otras dos opciones categóricas, bien vale
la pena la siguiente cita: El científico no apunta a un resultado inmediato. No espera que sus
ideas avanzadas sean tomadas fácilmente. Su trabajo es como el del plantador - para el futuro.
Su deber es sentar las bases para los que han de venir y señalar el camino. Nicola Tesla.
19

MICRÍTICA A LAS INVESTIGACIONES ANALÍTICAS

Continuación,
mi que
manera de ver,
investigaciones porpueden
no
brevemente serlógico,
criterio
expondré miporpunto
tratadas
forman partede
delcomo
separado vista
método
sobre
en de
tipos sutres
conjunto,
tipos yde
investigación

A
con metalógica propia. Me refiero al análisis, a la relación (correlación) y a la descripción. Para
a

ello describiré sus problemas, abordaré discrepancias, evaluaré tensiones y generaré


contraargumentos para soportar y expandir mis ideas. En este primer aparte me centraré sólo en
las críticas que tengo sobre las Investigaciones Analíticas, en apartados posteriores abordaré las
otras. No obstante, sólo consiste en eso, una crítica, y sabemos que toda crítica puede criticarse.

No me opongo al análisis como operación de la inteligencia, o como maniobra de la mente


abstracta que separa lo inseparable aparecido de la nada y encontrado en ninguna parte. Sino al
análisis como método independiente y exiguo que partiendo desde un entorno cerrado pretenda
generalizaciones más allá de lo que la data admita. Viéndose este método imposibilitado para
estudiar entre otros, los conceptos de infinito y persona, pues ambos deben ser abordados por un
nivel de estudio superior al analítico, algo que lo reduce a un simple procedimiento. Entiendo
Análisis como un proceso mental, con origen en la actividad neuronal alterada y abstracta propia
del científico, donde se descompone un ente, material o inmaterial, en sus mínimos bloques

estructurales constitutivos con la intensión de estudiar el comportamiento de cada unidad


fenoménica.

El fin de un análisis consiste en llegar a la unidad mínima (átomo, según la teoría atomista de
Bertrand Russell) elemento o partícula esencial e indivisible, para desde allí, estudiar el cómo se
compone aquel todo unificado, cuando ya no sea posible seguir descomponiendo se ha llegado al
elemento último de estudio. Una investigación analítica carece de mecanismos que le admitan la
manipulación de variables, sólo asiente la observación sin intervención, haciéndosele imposible
el establecimiento de relaciones causales verdaderas, acausalismos o transcausalidades.

Para muchos investigadores, una indagación de este tipo consiste en una fascinante aventura
que sólo pretende ensayar soluciones, aventura digna de espíritus científicos poco evolucionados
en mi opinión. En todo caso, el fin último de la actividad científica, donde se centra todo el
20

accionar, radica en sólo tres pasos principales e insalvables: el de explicar soportado en teorías,
el de demostrar aquello explicado, y el establecimiento de leyes que gobiernen a las unidades
fenoménicas de interés circunscriptas al dominio de la teoría.

La demostración no está al alcance de las inferencias derivadas desde enfoques netamente


analíticos, por mucho que se profundice en las explicaciones. Pues, los marcos explicativos en
los que se soporta la explicanda analítica son basados en la tesis funcionalista. Quiere decir,
cuando el investigador carece de medios y/o evidencias para demostrar las argumentaciones que
sustentan sus explicaciones, opta por descomponer aquella cosa estudiada en sus mínimas partes,
concatenándolas una a una y centrando su atención en aquel elemento referenciado en la
explicanda, omitiendo discrecionalmente aspectos de aquella estructura que lo sostiene.

Allí las explicaciones adquieren la forma de una sucesión de conexiones sistemáticas donde
no será posible el establecimiento de uniones lógicas sino sicológicas. Y a la ciencia le interesa
la lógica, no la sicología, aunque todos tenemos derecho al delirio. Con el uso de explicaciones
funcionalistas, si bien son excelentes en casos cuando el mecanismo donde opera por entero es
cubierto por alguna teoría o ley de la ciencia internivel, se puede incitar al investigador a querer
explicar lo desconocido por lo desconocido.

Introduciendo razonamientos oprobiosos y apagógicos <<razonamientos fundamentados en lo


falso>> que por su imposibilidad de refutación son aceptados como verdaderos pues carecen de
premisas a reducir al absurdo, artilugio meritorio de una razón enferma. Dando a luz a través de
un proceso mecánico, a un acto de corrupción intelectual indigna y despreciable.

Un resultado mal reportado o no verificable y sin contenido científico, automáticamente se


transforma en una opinión sin juicio del investigador, un fraude. Entonces, la metalógica propia
de las investigaciones analíticas entra en conflicto con formas más amplias y avanzadas de
razonamiento. Y al respecto, deseo profundizar un poco más, un estudio analítico consiste en
aquella actividad donde una teoría o simples observaciones son desintegradas desde un todo con
el fin de estudiar un mosaico de sus conceptos y entenderlos en su conjunto, pues se razona que
este concepto ya no aceptará ulteriores descomposiciones analíticas.

Allí se estudian los sub-conceptos parciales para entender en concepto general. Ahora bien,
estudiemos la génesis de los conceptos, aquellos elementos esenciales e indivisibles a ver qué
pasa, pues el objetivo del científico consiste en explicar conceptos y concatenar hechos. De tal
modo que, los conceptos surgen de la comparación de atributos presentes en las unidades
fenoménicas; los juicios nacen de la comparación de conceptos y las inferencias se sobrevienen
de la comparación de juicios.
21

No obstante, los atributos surgen de las nociones no siendo estas más que ideas innatas
captadas con el auxilio de los sentidos, y un estudio analítico no admite el uso de los sentidos.
Entonces, los juicios derivados desde los conceptos como piezas de mosaicos son por esencia
tautológicos, quiere decir, aquellos donde el enlace del sujeto con el predicado se hace por
identidad, imposibilitándolos a la consecución de conocimiento nuevo. Sólo explican lo evidente
ya que, la ley de identidad no es suficiente ni adecuada para establecer un nivel analítico de
estudio.

Si lo que se desea explicar con la investigación analítica opta por el uso de la teoría

funcionalista, serían imposibles las explicaciones de todas las concurrencias lógicas relacionales,
ya que esta teoría carece de poder para explicar esencias. Incluso se le dificulta establecer
relaciones, sólo admite la explicación de funciones.

Y a eso me refiero cuando afirmo que la investigación analítica, tal como actualmente está
concebida, sólo consiste en un simple procedimiento con metalógica errada, pero propia. Surge
también la interrogante: ¿Cómo demostrar las argumentaciones si lo que se explica es el

funcionamiento, la acción y función que cumple el elemento dentro del sistema, y no la esencia
de tal elemento y su relación con otras cosas? Análisis Funcionalista, es la justa denominación
que debe dársele a la investigación analítica actual.

Para poderle denominar lícitamente como Investigación Analítica, debe desaparecer su


metalógica y darle paso a la lógica verdadera, ello sería posible sí y sólo si, se acude al acto
explicativo puro y no al funcional para exponer sus esencias y relaciones, además de eliminar
por completo el sicologismo. Las explicaciones puras no necesitan causas pero si de un patrón
explicativo. Se organizan a través de encadenamientos de eslabones cognoscitivos y jerárquicos,
tales como se organizan en un sistema. Es la única forma de generar sentencias declarativas

firmes con las cuales soportar las argumentaciones e inferencias explicativas que serán
posteriormente usadas en las demostraciones y/o refutaciones.

Al sustituir el funcionalismo por las explicaciones puras, se daría acceso real al análisis de
conceptos donde los particulares y sus predicados conformarán los átomos de nuestro
conocimiento, sin ello, el análisis lógico de los conceptos se haría imposible. Paralelamente, un
sistema como tal, manifiesta al menos los siguientes cuatro elementos constitutivos, la
composición, el entorno, la estructura << donde se establecen las relaciones o conexiones entre
elementos>> y el mecanismo <<inter-sistema que se estudia con el fin de diferenciar los aspectos
que varían de los que no>>
22

Si el acto explicativo en el cual se basa la investigación analítica es incapaz de cubrir estos


cuatro elementos, entonces se está haciendo uso de una insanable falsedad por más que el
investigador crea en sus resultados. Ya que, persuadido estoy, de que la convicción sin

sustentación no puede, ni podrá jamás, ser criterio de verdad. Por esta razón, y como decía
Cervantes, la verdad siempre se alzará sobre la mentira como el aceite sobre el agua.

Y si ha caído el investigador en los brazos de la disonancia cognitiva, declarando erudición a


contra corriente sobre lo verdadero sabiéndolo falso con nocivos fines, entonces es evidente que
manifiesta autoengaño y es bueno que sepa, un idiota y un erudito no podrán ocupar jamás un
mismo cuerpo. Y de esta manera es como la refuto.

No deseo manifestar una tendencia hostil al método, ni mucho menos a quienes de él hacen
uso, a ellos toda la gloria. Simplemente considero que las investigaciones analíticas se sostienen
sobre un proceso que adormece los sentidos y temerariamente se admiten certezas imposibles de
concretar. Los resultados de una investigación están en la obligación de cambiar la forma de ver
el fenómeno, de introducir neologismos explicados satisfaciendo sed de intelección y de

operacionalizar un mosaico de conceptos sin monstruos lingüísticos. Además, necesario es el


observar que el estado del conocimiento previo y el posterior son substancialmente diferentes,
algo inalcanzable desde este enfoque.

En ningún estudio analítico es posible la manipulación o ejecución de acciones, sólo se


admite la observación. En el proceso se descubrirán vínculos y jerarquías, para cada una se
crearán conceptos, se determinarán niveles de análisis y se optará por ciertos mecanismos de
acción. Su fin, plantear hipótesis que puedan ser corroboradas por mecanismo estadísticos o
determinísticos de otro nivel.

En cierto sentido, son imposibles de maravillar al intelecto a través del descubrimiento.


Aunque, ciertamente admito la existencia de ciencias que por sus características no pueden sino
proceder por tales medios, con todos los contra que aquí expongo. Desde mi forma de razonar,
las investigaciones puramente analíticas por sí solas, carecen de sentido con respecto a los
objetivos de la ciencia. Sólo sirven de soporte al contexto explicativo y no es posible la
obtención de inferencias ampliativas a partir de ellas.

Una inferencia ampliativa, esto es, cualquier inferencia en la que la afirmación hecha en la
conclusión va más allá de la que introducen sus premisas conjuntamente. El análisis no admite
manipulación y sólo es posible la ejecución del acto observacional como he descrito, por ende,
cualquier hipótesis que desde estos niveles analíticos se desprenda, ameritará de procedimientos
externos para su dilucidación, y es aquí donde su metalógica se vuelve inoperante.
23

Los resultados de investigaciones analíticas presentan cierto matiz semántico y elegancia


retórica con tintes persuasivos que la incitan a parecer una fábula ilustrada que hace referencia a
una manzana, no dejando ver, el oculto gusano de la mentira. Si un resultado no puede hacerse
extensivo, a saber, generalizarlo, confirmarlo o desconfirmarlo, simplemente esconde una
falsedad subterránea imposible de dar convencimiento a través de la prueba y la demostración.

Pues, evidentemente en vez de manifestar cierta neutralidad valorativa como resulta de la


honestidad científica, cruelmente se ha profanado el intelecto ajeno con una acción volente que
para refutarla sólo hace falta añadir profundidad de pensamiento. Quedan definidos entonces,
sólo algunos argumentos sobre mi oposición a las investigaciones analíticas. En lo interno y a lo
largo de la lectura de este texto, introduzco y sustancio más argumentos dentro de contextos
científicos específicos. Espero no haber herido susceptibilidades, mi intención sólo pretendía
eliminar cierto velo de ignorancia que la comunidad científica ha edificado alrededor de este tipo
de investigaciones.
24

MICRÍTICA A LAS INVESTIGACIONES CORRELACIONALES

avanzadas
segunda de
aexistencia de razonamiento
un que
crítica método
a continuación
independiente
como bienmedescribí
propongo
y argumentar, no recae en sí sobre la

L que entra en conflicto con formas más


en el apartado previo. Mis respetos a los
estudiosos de la estadística, a los matemáticos, a aquellos que han direccionado la fuerza de su
inteligencia al establecimiento de teoremas con los cuales se rigen tan magistrales ciencias. A
quienes usan la belleza y esplendor de las matemáticas como mecanismo para descubrir cosas,
pues seguro estoy que las operaciones con números son el verdadero lenguaje de la ciencia. Si
bien es cierto, las matemáticas auxilian en las explicaciones de hechos y realidades, ninguna
realidad o hecho podrá jamás explicar las matemáticas, por mucho que se intente.

Mi refutación va ahora en contra de ciertos artilugios que investigadores usan para sobresalir
en su campo, pretendiendo la coronación de méritos y títulos académicos llevando al paredón a
la objetividad científica y sacrificándola impunemente. Investigadores de escritorio y de
metodología paleocientífica quienes bien posicionados en esferas de poder académico, sin
mucho esfuerzo colman de falsedades a las publicaciones de revistas especializadas. Gracias doy

a Karl Pearson, quien con su libro: The Grammar of Science (1900), influyó en gran parte de la
detracción que seguidamente explico.

Primeramente, no existen las investigaciones correlacionales, lo que sí realmente concurren


son los Estudios Relacionales. Éstos se centran en buscar la existencia de varios tipos de
relaciones entre variables, así como, la dirección, fuerza y magnitud de estas relaciones. Para ello
evalúan similaridades, relaciones mutuas, cambios simultáneos y equivalentes entre dos
conjuntos de medidas.

En consecuencia, identificadas las relaciones y sus direcciones, entonces se persigue la


determinación de la fuerza manifiesta entre las variables sometidas a estudio. Es cuando el
estudio relacional opta por un mecanismo estadístico que admita, probabilísticamente hablando,
el establecimiento de una magnitud numérica con la cual se pueda explicar la dirección y fuerza
de tal relación manifiesta.

Correlación, como concepto epistémico, se fundamenta en un procedimiento estadístico


mediante el cual se pretende fijar si existe o no relación entre un grupo de variables aleatorias, y
que es determinable a través de una magnitud numérica como coeficiente que oscila entre uno y
25

menos uno. El problema radica en que, se pretende manipular la sicología de la inteligencia del
lector cuando se le presenta una ecuación elegantemente vestida pero escasamente argumentada,
que ni relaciona ni explica la esencia de las interacciones fenoménicas.

Una correlación indica una relación secundaria, pues se basa en la covariación. Una variable
oscila mientras otras también lo hacen como condición necesaria. El Coeficiente de Correlación
de Pearson resulta de dividir la covarianza entre las desviaciones típicas de los datos, y allí es
muy importante determinar su dispersión, algo que muy comúnmente no aparece en estos
estudios. Ahora bien, el problema subyacente es que no se determina el tipo de relación primaria

prevalente entre las variables, y si la investigación sólo se direcciona al procesamiento del


coeficiente cuando ya se dispone de los datos, omitiendo las explicaciones de la génesis de las
relaciones fundamentales y el cómo éstas derivan en una magnitud de correlación. Entonces se
estaría cometiendo un audaz fraude disfrazado y con cierta elegancia matemática.

En consecuencia, una investigación verdadera busca penetrar hasta lo desconocido intentando


develar todo aquello que tan magistralmente la naturaleza oculta a nuestros ojos. El mentiroso

comúnmente tiene éxito sólo si algún inocente alcanza a confiar en él. De tal modo que, la
verdad siempre estará escondida y no puede sino ser desenterrada optando por una técnica activa,
minuciosa, constante e inteligente de indagación. Restarle importancia a las relaciones primarias
y centrarse sólo en la consecución de un coeficiente, deja vacíos explicativos e insatisfacción
intelectual, reduciendo todo a fórmulas sin explicar.

Cierto es que para la lógica de relaciones al menos tres son las relaciones esenciales, y que
están siempre presentes en cualquier conjunto lógico de variable, las simétricas, las transitivas y
las reflexivas <<véase Lógica de Relaciones, Cap. I>> Una relación es una conexión de una cosa
con otra, ya sea por presentar similitudes, diferencias o dependencias. Y son estas relaciones las
que permiten asociar fenómenos científicos. Las investigaciones correlacionales están
imposibilitadas para manipular variables, de hacerlo se convertirían automáticamente en
investigaciones del tipo experimental. Y si no puede manipular experimentalmente, esta tan lejos
de la verdad como mi amiga la investigación analítica.

Conviene decir, una correlación consiste entonces en el estudio de relaciones entre fenómenos
que presentan cierta equivalencia numérica, y si al investigador no le interesa o no se le obliga a
profundizar en el tipo y origen de tales relaciones, carecerían de sentido los estudios
correlacionales perdiendo la esencia de la actividad científica. Esto es sencillamente, un vil y
humillante desprecio al intelecto humano.
26

En consecuencia, una investigación con tales características se convertiría en un arma de


doble filo, con la cual se engaña y se puede ser engañado. Sus reportes no indican que clase de
relación primaria existe, que dirección tiene o qué tipo de relación se manifiesta, sólo se presenta
una magnitud numérica que ni revela ni corresponde. Un número tóxico que es asimilado con
refinación y estilo.

Por ser engañado me refiero a los casos donde el mismo investigador, desconociendo con
mala intención la esencia de las relaciones en su estudio y los supuestos subyacentes en las
teorías estadísticas, confunde correlación con asociación, o manifiesta un coeficiente de
correlación contaminado por variables espurias y/o correlaciones meramente parciales. Errores
de los que podría percatarse si hubiese manifestado en la explicanda, la lógica de las secuencias
fenoménicas que intencionalmente omitió.

La asociación estadística también incluye covarianza y correlación, cuando se demuestra


asociación de algún tipo entre dos o más variables, es indicativo de alguna clase de tendencia o
patrón entre los distintos valores que estas variables aleatorias presentan, de manera que su
análisis se hace necesario en función de observar, de qué forma esta asociación afecta los
resultados. A saber, en este punto recomiendo el no precipitarse en alcanzar metas, sino en
recorrer distancias, siempre que éstas le ayuden en la acumulación de experiencias.

No obstante, la asociación estadística es usada como técnica de control en diseños


experimentales, y si el investigador experimenta, manipula, si manipula no puede denominar a su
estudio correlacional. Entonces, la violación abusiva y deliberada a la secuencia lógica de su
propio estudio, le ha hecho caer en contradicción, sintiendo en sus entrañas el amargo sabor del
néctar del fracaso.

Paralelamente, digamos que el investigador al intentar salvar algunos molestos pasos, ha


obtenido un coeficiente de correlación contaminado por variables espurias que lejos de indicar
relación, manifiesta cierta tendencia a la causalidad. En estadística, una correlación espuria es
aquella en la cual dos acontecimientos carecen de toda conexión lógica y se evidencia la omisión
de un tercer factor no tomado en cuenta.

Es decir, el equilibrio causal presenta alteraciones, existiendo la presencia, denotada en su


ausencia, de al menos un factor determinante causal que discrecionalmente fue omitido, y el cual
es absolutamente necesario para explicar el consecuente. El factor omitido podrá pertenecer a la
cadena causal o transcausalidad, y como explicar consiste en concatenar conceptos, y allí se ha
roto el orden relacional, entonces la correlación espuria hace errónea cualquier explicación del
hecho. De esa manera la explicanda nunca podrá suministrar intelección.
27

Es posible la detección de una relación espuria a simple vista considerando la violación de la


siguiente secuencia lógica: a) Todo evento “x” debe preceder al evento “y”: b) Si “y” no ocurre
entonces “x” nunca ocurrió: c) “y” debe ocurrir cada vez que ocurra “x”. El alcance de las

inferencias también se ve afectado en estos estudios pues, si dos sucesos S1 y S2 acontecen


juntos <<concomitan>>, muy posiblemente S1 sea causa de S2, o S2 cause S1. O hay la oculta
actuación de un tercer suceso S3 que cause ambos. Y, la única forma de inferir con certeza, sería
manipular S1 y observar a S2. Es allí donde realmente el efecto de S1 sobre S2 puede ser
medido, probando al mismo tiempo que S3 como potencial causa está libre de culpas. Algo que
una correlación no puede hacer ya que carece de poder demostrativo y sólo se limitará a
establecer relaciones parciales.

Si la causa ordena y el efecto obedece, entonces no existe correlación. Sino una regularidad
uniforme y constante donde media una extraña fuerza muy fácil de confundir con algún tipo de
relación. Las correlaciones explican el cómo cada fragmento de un fenómeno se relaciona con el
otro, y sólo podrá hacerlo, cuando se formulen entidades teoréticas que examinen relaciones
entre constructos o variables, midiendo sus grados de relación bajo magnitudes estrictamente
numéricas. Donde, los datos aportados por teorías implicadas en correlaciones numéricas
provienen de teorías lógicas o matemática.

Es decir, teorías formales que no son usadas ya que las investigaciones correlacionales común

y erróneamente, son alimentadas por antecedentes descriptivos, y donde no existan teorías no


existirá ciencia. Además, las teorías relacionales sólo pueden desarrollarse luego de que las
teorías descriptivas han sido construidas y validadas. Algo realmente escaso en las comunidades
científicas de la cultura descriptiva.

Entonces, causalidad no es igual a correlación, la correlación es solo un concepto estadístico

para relaciones lineales, pero fenomenológicamente medibles, la causa y el efecto son


interpretaciones sobre una relación determinística. Cuestión que de hecho es muy fácil de
confundir por sus semejanzas, y cuando intencionalmente se viola la cadena lógica en una
investigación transgrediendo las fronteras de otra.

Dos variables podrán estar correlacionadas y no asociadas o viceversa. No implicando para


nada, la existencia de una extraña fuerza conectora que medie entre ellas. Igualmente, se conoce
como correlación parcial entre dos variables, a aquella, cuyo coeficiente de correlación depende
de una tercera no tomada en cuenta en las consecuencias relacionales lineales. La correlación
parcial “X”; “Y” dado “Z”, sirve para identificar en qué escala de medida de la variación lineal
entre “X” y “Y”, puede deberse a la correlación de ambas con “Z”.
28

Un Estudio Relacional lógico y consistente debe presentar como mínimo, el siguiente


encadenamiento. En primer término: recolectados los datos necesarios, se procede a construir un
diagrama de dispersión en función de determinar la existencia de valores atípicos. De existir
valores extremos (atípicos), el coeficiente de correlación de Pearson no será el adecuado. Si el
intervalo entre los valores máximos y mínimos es grande, entonces podrá optarse por la
correlación de rangos de Spearman.

Ya que, cuanto mayor sea el rango, mayor será la dispersión de los datos con alta
probabilidad de presentar valores extremos. Invalidando así, el uso del muy común y simple
Coeficiente de Correlación de Pearson. Acto seguido identificada la relación y determinado su
nombre, se abre paso al Estudio Sobre Medidas de Asociación. Acción que consiste en el
establecimiento de las medidas de asociación y relación recíproca haciendo uso de la teoría y
supuestos de la correlación.

Finalizada la investigación, es de obligatoriedad el planteamiento de un falsador potencial,


quiere decir, una acción o prueba que de ejecutarse y resultar positiva invalidaría el estudio. Para
ello se recomiendan los estudios de concordancia (el Coeficiente de Concordancia de Kendall es
muy usado) Así como, la prueba de la retro-causalidad. Esta consiste en una simple inspección
expost-facto donde sea posible observar que un cambio pequeño en una variable se manifiesta de
igual forma en la otra.

Si un cambio en la segunda variable no afecta a la primera y otro cambio en la primera sí

afecta a la segunda, entonces es evidente que existe una relación esencial de causa efecto, pues el
efecto no tiene incidencia sobre su causa pero la causa sí actúa sobre su efecto. No observándose
así, la concordancia equitativa y esencial de prevalencia correlativa. De esta manera no se
observaría una acción recíproca sino un efecto obedeciendo a su causa que invalida la
correlación.

De tal modo que, considero a la denominada investigación correlacional, un error bajo la

forma del nombre que le han adjudicado, realmente debe denominarse: Estudios Relacionales y
no de correlaciones. Ahora bien, por más que su nombre sea cambiado, la esencia será la misma
si no se le razona desde otras perspectivas. Seguirá conteniendo elementos cuya falsedad lesiona

cruelmente al intelecto, y tanto la pasión combativa del investigador como su pertinaz obsesión
por la verdad, fallecerán debido a una pereza intelectual producto de una actividad científica
estéril y pasiva donde predomina la rutina.

La rutina científica, y adapto lo descrito por José Ingenieros en el Hombre Mediocre, es un


esqueleto fósil cuyas piezas se resisten al paso del tiempo. No es hija de la experiencia, es su
29

caricatura. La experiencia es fecunda y engendra verdades, la esterilidad de la rutina las mata.


En consecuencia, las investigaciones correlacionales que aquí crítico y al uso fraudulento que de
ellas se hace, se fundamentan en un procedimiento cuya simpleza raya en lo absurdo, evitando
que el investigador piense, además de no conseguir demostrar lo que se propone.

Se sostienen sobre el hábito de renunciar a pensar, sobre la costumbre de conseguir todo sobre
la base del mínimo esfuerzo. La pereza mental fractura la concentración y lesiona la memoria.
Una investigación relacional verdadera debe presentar y operacionalizar un árbol relacional con
el cual se puedan explicar por entero, la multiplicidad de relaciones que puedan presentarse.

Y sólo después, posterior a que un profundo razonamiento se haya ejecutado, se hará


presente una concatenación sistemática y lógica de ideas, dando a luz a una ecuación cuyo
coeficiente demostrará una verdad que no hubiese sido posible sin que lo anterior ocurriese. En
fin, la investigación correlacional tradicional, consiste en un tipo de investigación que obliga al
científico a razonar con la lógica de otros.
30

MICRÍTICA A LAS INVESTIGACIONES DESCRIPTIVAS

inohay
se investigaciones
quiere ir más que merezcan un premio de incitación a la Pereza Científica cuando

S allá…son precisamente estas, las investigaciones descriptivas. Es a la


que más se le dificulta someter a la razón por la fuerza del convencimiento, si es que
alguna vez lo ha logrado. Sólo dos neuronas son necesarias para llevarlas a cabo y no tienen por
qué trabajar las dos al mismo tiempo. Realmente consisten en la estafa intelectual más común y
diseminada. Siendo aquí donde presentaré la más breve, fuerte y virulenta de mis críticas.
Citando a Ramón Pérez Ayala, periodista Español: Cuando la estafa es enorme ya toma un
nombre decente. Yo diría, el de Investigación Descriptiva. Pues, ni inspira ni exalta el espíritu de
lo maravilloso, sólo ralentiza el pensamiento hasta lograr parálisis intelectuales, en ella, la
naturaleza del pensamiento pierde su esencia.

Entiendo como investigación descriptiva, a un tipo de investigación donde su objetivo


persigue especificar propiedades, cualidades y/o atributos de los fenómenos a los que haga
referencia en su estudio. Siendo así, entonces: no utiliza la abstracción porque todo es
observable; no explora porque todo es conocido; no puede explicar porque no es su fin; no puede
relacionar porque carece de los medios; no pueden haber inferencias porque no hay cómo
formarlas; no puede experimentar porque no es su competencia y no puede demostrar porque
hace caso omiso a la lógica y la matemática demostrativa. Así cualquiera hace ciencia. Este tipo
de investigaciones no está compuesta de errores, no son cuantificados ni cuantificables, y ¿cómo
alcanzar la certidumbre sino a través de la incertidumbre?; ¿Cómo llegar al calor sino a través
del frio?; ¿Cómo morir si no se está vivo?

Describir es parte del método en su conjunto, de hecho se le considera su primer estadio y


antecede a las explicaciones. Sólo consiste en una única etapa de la investigación y no aporta, ni
puede aportar conocimiento nuevo, la descripción antecede a la investigación teórica que pueda
ejecutarse sobre un objeto. La descripción sin explicación es imposible que se convierta en
ciencia. Además, la explicación y la descripción están separadas sólo por la dialéctica. Su trabajo
no es construir conceptos ni concatenar ideas, mucho menos relacionarlas, asociarlas o
hipotetizar sobre ellas. Describir sin explicar es confundir al entendimiento, éste, junto a la
comprensión, son placeres del intelecto, e insatisfacibles desde el acto descriptivo.
31

En tal ocasión, el sujeto de conocimiento es infra-determinado, la descripción no admite la


duda a priori la cual es importante a la hora de alcanzar certezas. De allí que se diga que una
investigación descriptiva no es científica, pues ni explica ni relaciona, haciendo que carezca de
fuerza demostrativa y probatoria. Allí el científico comúnmente hace gala de ingenio, más,
también priva de razón. Aquí la razón no tiene cabida. Y como diría Descartes: el acto del
pensamiento, por el cual uno cree una cosa, es diferente de aquel otro por el cual uno conoce
que la cree, y por lo tanto muchas veces se encuentra aquél sin éste.

En las ciencias descriptivas por lo general no se producen descubrimientos, allí se cercena el

proceso de intuición cuya génesis es la mente del científico, no puede haber descubrimiento sin
intuición. En escritos de Nietzsche, de los sentidos es de donde procede toda credibilidad, toda
buena conciencia, toda evidencia de la verdad.

Pero para descubrir es necesario escalar hasta un estadio superior del nivel de conciencia, y
las teorías descriptivas, si es que las hay, sólo hacen mención a enunciados singulares de nivel
bajo. Siendo necesario para ascender, de teorías relacionales que están a un nivel medio e
inalcanzables desde este enfoque. Para ello necesitaría construir hipótesis relacionales con nexos
directos a enunciados particulares sólo alcanzables a través de las investigaciones internivel, y
este último tipo de indagación está muy por encima de la simple descripción.

La investigación descriptiva direcciona sus esfuerzos a la simple tarea de recolectar datos sin
enmarcarlos dentro del contexto de alguna teoría, comúnmente números sin sentido, y ¿cómo
saber si tales datos son relevantes sino contrastándolos dentro de un argumento teorético?,
¿cómo interpretarlos en ausencia de teorías? En este tipo de indagaciones el investigador se
juega su reputación científica con resultados absurdos si no se contrastan contra algún argumento
teorético de importancia. Y parafraseando a Sócrates: Si quieres gozar de una buena reputación
preocúpate en ser lo que aparentas ser. Si un investigador desea obtener resultados sensatos,
recomiendo el deslinde de aquella parsimoniosa e inútil rutina pseudocientífica representada en
las investigaciones descriptivas.

Describir es sólo un paso del método y no podrá jamás separarse de él, la descripción no
aporta profundidad de pensamiento, no contrasta ni concatena, no hipotetiza, infiere o explica,
además de carecer de etapa alguna de razonamiento. Describir por el simple hecho de hacerlo no
es ciencia. Es hacer gala de erudición pedantesca sin nada nuevo que aportar. Entonces, la
investigación descriptiva carece de fuerza para semejante pretensión.

Un científico es aquel que partiendo del caos intelectual presente en el fenómeno,


operacionaliza acciones tendentes a su ordenación alejando a su paso el error, valiéndose
32

únicamente de la explicación. En consecuencia, la descripción sin explicación es imposible que


se convierta en ciencia verdadera, sólo sirve para especificar cualidades, atributos o propiedades
de objetos o personas, es decir, para admirar la naturaleza de los eventos sin irrumpir en ellos,
sin modificar, y observar por el mero acto de hacerlo, es perder el tiempo.

Sólo es posible convencer con conceptos científicos a través del acto explicativo concatenado
lógica y coherentemente contra los hechos, y, nunca habrá de someterse por fuerza la explicación
de un hecho. Aquel que asume a la descripción pura como un acto de creación de ciencia real,
ciertamente no ha entendido los principios básicos del quehacer científico, y como certificase
Séneca: No hay viento favorable para aquel barco que no sabe a dónde va.

Debido a las características de su simpleza, no siempre serán necesarios los antecedentes y


mucho menos referentes teóricos <<me refiero a aquellos basados en conceptos porque teoría es
otra cosa>> No obstante, impresiona el observar gran cantidad de investigaciones descriptivas
donde es posible encontrar más citas que en un directorio médico. Similar a las correlacionales,
la elegancia matemática ahora adquiere refinación con cierta apariencia de exactitud y se muestra

a través de gráficas y tablas que refieren y puntualizan atributos. Sin poder obtener algo más
profundo de ellos.

Ciertamente, acepto la investigación descriptiva sólo para acercarse a la ciencia por primera
vez, para tesistas de postgrado, para investigadores curiosos. Pero rechazo aquella acción de
pretender ejecutar investigaciones de ésta índole cuando ya se está en un estadio avanzado del
campo científico. Cuando se les utiliza para coronar algún mérito académico valiéndose de un
fraude intelectual. Procurar seguir ejecutando investigaciones descriptivas sin nada que aportar,
por el simple hecho de deleitarse con gráficas multicolores, es sencillamente, cometer un suicidio
mental. Y un ser con mente muerta me da igual que practique ciencia o vudú.
Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos
Roiman Valbuena 2017.

CAPÍTULO I, ACERCA DEL


PORQUÉ Y PARA QUÉ DE LA
LÓGICA EN LA CIENCIA...

La lógica supone una separación entre sujeto y objeto, por lo tanto, la lógica no es la sabiduría
definitiva.

Robert Pirsig.

=
34

1.1.- La Lógica en la Investigación Científica

Vivimos en un mundo Newtoniano de la Física de Einstein


regida por la lógica de Frankenstein.
David Russell.

La razón misma es falible, y esta falibilidad debe encontrar un


lugar en nuestra lógica.
Nicola Abbagnano.

<<denominada
lógica consiste
argumentación, en ellógica
también estudio
demostración tanto Sededivide
y prueba.
informal>> las formas válidas como inválidas de
(Kant,

L en lógica formal y lógica dialéctica


The Logic, 1819) en su obra la
dividió en analítica y dialéctica1. Es así como, en el cotidiano devenir de la investigación
científica, la lógica formal plantea esencialmente la puesta en práctica de la capacidad que posee
el investigador de resolver problemas rápidamente y sin ayuda de un tercero, ocupándose de las
demostraciones y del pensamiento ordenado. Bajo estas consideraciones, es suficiente con
emplear el razonamiento y el sentido común2 con ciertos grados de profundidad para la
consecución de resultados sensatos.

Desde la división de la filosofía, la lógica formal ha ocupado un lugar importante.

Encargándose del estudio del pensamiento humano y sus leyes, habiendo orientando sobre ellos,
estructuras, métodos, pasos y argumentaciones, que lo condujesen de forma inequívoca a la
cristalización de conocimientos nuevos y lo alejasen de todo aquel erróneo sendero al albor del
maravilloso camino del descubrimiento y la verdad… es por ello que Dios da al hombre alguna
luz con que discernir lo verdadero de lo falso3…

La lógica se organizó en la antigüedad desde Aristóteles4, considerado como el precursor de


la investigación científica tal y como hoy se le conoce, quien además, esquematizó el lenguaje
natural de los humanos emplazado a la construcción de juicios, conceptos y razonamientos.

1
Véase p. 17 de la obra. La analítica se pone de manifiesto por la descomposición de todas las operaciones intelectuales que tienen lugar en el
pensamiento en general; es, pues, una analítica de la forma del entendimiento y la razón. La lógica analítica es estudiada por la filosofía analítica,
trata de la argumentación, el análisis del lenguaje y el rigor lógico con el que éste es expresado. A la lógica dialéctica la denomina lógica de la
apariencia, y que es resultante de un simple abuso de la analítica. Este abuso consiste en volver solamente la forma lógica, para con ello simular
que se está trabajando con conocimiento verdadero, en el que siempre los elementos han de tomarse de conformidad con los objetos por razón de
contenido. A la dialéctica por su lado, se le asocia a los signos y reglas según las cuales es posible saber si una cosa conforma o no, con los
criterios formales de verdad.
2 Al respecto, Kant op, cit. Afirmaba: La lógica no puede ser por más tiempo un producto del sentido común; el sentido común es la facultad de
percibir las reglas del conocimiento de un modo concreto (en aplicación), mientras que la lógica debe ser la ciencia de las reglas del conocimiento
en abstracto.
3“Al habernos dado Dios a cada uno alguna luz para discernir lo verdadero de lo falso, no hubiera yo creído tenerme que contentar un solo
momento con las opiniones de otro, si no me hubiese propuesto emplear mi propio juicio para examinarlas cuando fuera oportuno”. René
Descartes. Discurso del Método.
4 Refiérase a: Aristóteles: Tratados de Lógica. Traducido por: Prof. F. Larroyo. México. 1969. Otra obra de gran importancia y con algunas
secciones en inglés: Le Blond, J. M. (1973). Logique et Methode Chez Aristotele. Tercera Edición, Vrin. Paris.
35

Desde sus inicios ha servido como Principio Antrópico5 tanto para la religión como para las
ciencias. Más tarde en la historia, Russell y Whitehead6, proyectarían sobre ella el uso de un
lenguaje simbólico, tal como el empleado en las matemáticas y encaminado a la expresión de
ideas del pensamiento. La lógica se circunscribe entonces, al estudio de las diversas formas y
arquitecturas del pensamiento. Su objetivo; hacerlo correcto, válido y coherente. Para ello
encadena estructuras mentales aisladas haciéndolas fuertes y con gran poder deductivo, se avoca
entonces sobre la derivación de principios verdaderamente racionales y concluyentes.

Consiste en una disciplina científica cuyo corolario se proyecta sobre el estudio de las formas
Multivariadas de los pensamientos científicos, así como, sobre la validez de sus razonamientos.
Suppes (1999, p. 3) afirma, la lógica es la teoría del buen razonamiento, estudiar lógica no solo
.a ayuda a razonar bien, sino que permite además entender, el cómo opera la razón. Para sus
ífic
tn efectos, las técnicas de la lógica son tanto abstractas como rigurosas. Son abstractas puesto que
ie
C se concentran en propiedades particulares del razonamiento.
nió
ac Así como, su rigurosidad radica en intentar definir todos los términos usados7, lo que
ig
st
ve implica para el científico, la adquisición de una terminología que pueda considerarse seria. Su
nI meta es proporcionar un conocimiento profundo de lo que se está haciendo. Como afirmara
al
nae apropiadamente (Bunge, Seudociencia e Ideología, 1985)… la investigación científica presupone
ic los principios de la lógica…no los discute... (p. 29).
gLó
a Las ciencias fácticas necesitan ir más allá de la simple aplicación de los sistemas lógicos para
L
:a
nue confirmar sus hipótesis, para ello son necesarios la observación y el experimento. Aunque el
alb empirismo no está presente en los teoremas lógicos y matemáticos por tratarse de ciencias
V ideales, su inferencia deductiva alimenta de significados al conjunto de conceptos que envuelven
na
im a una teoría. Es allí donde la lógica presenta la coherencia necesaria, y que usada junto a la
o
R
experiencia, están en condiciones de mostrar vestigios de que la hipótesis planteada sea
medianamente aceptable sobre el hecho fáctico al cual se circunscribe.

No obstante, no será posible separarse del hecho, de que tal hipótesis pueda ser sustituida por
otra en mejores condiciones de explicar el segmento de la realidad en estudio. Permitiendo así, el

5 La Antropía como principio, siempre ha sido un supuesto teórico mediante el cual, todo el orden del universo pareciese destinado a colaborar en
la aparición y posterior desarrollo del hombre en el universo <<No confundir con Entropía>> Todo suceso universal para la Antropía, es
explicable y asociable al perfeccionamiento del entorno que propicie la aparición de la raza humana, muy similar a la teoría de la Panspermia. Se
ha hecho uso extenso de él, por parte tanto de teólogos como por hombres de ciencia. La lógica, por originarse en la mente humana, pareciese
subconscientemente estar asociada a este principio.
6 Russell, Bertrand y Whitehead, Alfred. (1910-1912-1913). Principia Mathematica. Véase.
7 Srinagesh (2006); ofrece algunas recomendaciones basadas en las reglas de definición en lógica, para que el investigador preestablezca y
delimite el significado de los términos que empleará en su trabajo, además del cómo desea que éstos sean interpretados. Explica… cada
definición consiste en dos partes. A) el término o grupo de estos que han de ser definidos, denominados definiendum. B) la palabra, o grupo de
estas que harán la definición, conocidas como definiens. En la exposición de conclusiones no debe quedar duda alguna del significado y contexto
exacto que se hará mención. Condición que permite un entendimiento más profundo de las circunstancias que rodean al fenómeno.
36

enriquecimiento del acervo hacia la acumulación de conocimientos. Los científicos formales se


centran en el plano de la demostración o prueba de ciertos teoremas, posteriormente, los
científicos de las ciencias fácticas emprenderán acciones tendentes a la acumulación de
elementos probatorios suficientes que les permitan verificar las hipótesis contenidas en tales
teoremas.

La lógica es una ciencia que, en mayor o menor cuantía, está presente en todas las demás.
Asignando grados de corroboración que hacen que toda proposición direccionada sobre
determinada área factual, no solo sea coherente, sino también, científicamente demostrable. Esta
aporta las normas bajo las cuales se rige la investigación científica y su método8. A la lógica
formal se le asume, como el raciocinio suficiente y condicional, que presenta estricta coherencia
.a cronológica mental, entre una verdad del tipo formal, y otra del tipo material basada en el
ífic
tn principio de la evidencia.
ie
C
nió La lógica formal es una ciencia formal, y como tal, estudia los elementos que dan lugar a las
ac
ig demostraciones e inferencias válidas en la investigación científica. De hecho, un problema
st
ve científico es básicamente una confusión lingüística con propiedades subsanables a través del uso
nI de la lógica. Es ésta la que estudia el significado y qué desea el hombre expresar con el lenguaje.
al
nae Opera a través de la interrelación de argumentos en su estructura, obviando el contenido
ic discursivo y el lenguaje utilizado, así como el objeto a lo que el estudio haga referencia. Se
g

extiende sobre el estudio de conexiones correctas entre las proposiciones, argumentos, o juicios
a
L
:a de un razonamiento.
nue
bl Al respecto, Piquer (1781) argumenta… las verdades primitivas en cada ciencia pertenecen a
a
V la razón y no al raciocinio. Puesto que no son lo mismo, son distinguibles entre sí por el hecho
na
im que la razón, aunque incluye raciocinio, se extiende a otras cosas que no lo son, entrando hasta el
o
R plano trascendentalista. El raciocinio no tiene ese alcance, sólo es posible aplicarlo sobre objetos
o cosas. Es así como, y según la filogénesis del razonamiento humano, el proceso de
investigación científica se guía por los principios operativos de la lógica, incluyendo sus
proyecciones inductiva y deductiva. No obstante, hay científicos cuyo trabajo gira en torno al
sentido común y la experiencia, sin haber estudiado nunca la lógica.

Al plantear sus resultados hacen uso de aserciones, similares a las del lenguaje científico y
producto del proceso de razonamiento, presentando este, similitudes con el lenguaje de la lógica,

8 <<La lógica en uso es más propia para conservar y perpetuar los errores que se dan en las nociones vulgares que para descubrir la verdad; de
modo que es más perjudicial que útil>> Esta frase se corresponde con el aforismo 12 de Francis Bacon. Quien siempre se opuso al uso de la
lógica derivada de los silogismos aristotélicos en la ciencia. Aparece en Novum Organum. Véase.
37

¿acaso eso no es un tipo de lógica?9 Desde sus inicios, en la lógica se optó por el estudio de los
diversos métodos y principios que le permitiesen diferenciar entre las formas correctas e
incorrectas de razonamiento. Marcando siempre un contraste entre la empleada en la
investigación científica y la usada en la dialéctica cotidiana. A la lógica informal o dialéctica, le
corresponde el uso de un lenguaje coloquial no simbólico, es la lógica que usa el ser humano en
su quehacer diario y forma parte del diálogo argumentativo social. (Ayllón Vega, 2007)
Explica… la lógica informal es propia de la argumentación coloquial, allí se aconseja el uso de
premisas admitidas por los demás interlocutores, se usa para aclarar el significado de lo que se
dice. (p.44).

Para lo que recomienda: no forzar la conclusión; aportar pruebas sólo cuando corresponda; si
.a no hay pruebas suficientes no mantener opinión; no cambiar de tema, además de explicarse con
ífic
tn claridad, brevedad y orden. La lógica informal nada tiene que ver con la investigación científica
ie
C en sí, a pesar de ser imprescindible a la hora de sustentar mediante discurso, los resultados de
nió
ac cualquier proyecto. Sobre todo sirve de puente entre el lenguaje que emplea el científico y el
ig
st lenguaje coloquial del ciudadano común.
ve
nI En las ciencias fácticas, es decir, todas aquellas ciencias que estudian los hechos que se dan
al
nae lugar en el mundo. Se trabaja la lógica con objetos reales que en determinado momento ocupan
ic un lugar y un tiempo, proveen un nivel de verdad contrastable con hechos. Estas se subdividen
g

en ciencias naturales y ciencias sociales. Las primeras se avocan al estudio de la naturaleza y sus
a
L
:a hechos, mientras que las segundas se circunscriben al ámbito humano. La voluntad de la
nue
bl naturaleza y la de los hombres es distinta.
a
V Para la lógica formal, carece de relevancia lo que se dice, lo importante es el cómo se dice.
na
im Cualquier enunciado que provenga de una ciencia formal, llámese lógica o matemáticas, intenta
o
R
establecer relaciones entre símbolos. Por su lado, todo enunciado fáctico evoca sucesos y
procesos. En las ciencias formales es necesaria la conformación de argumentos razonados para
comprobar sus teoremas. Sin embargo, no sucede lo mismo en las fácticas, allí se opta por la
observación y el experimento. La diferencia entre ambas reside en que las ciencias fácticas
corroboran hipótesis, mientras que las formales las demuestran, para ello cada una hace uso de
un método específico.

A continuación, y como epítome a sus definiciones, dentro de la lógica formal se abordarán


varias sub formas lógicas incluyendo: la lógica de enunciados; la lógica de predicados; la lógica

9 El Idealismo Trascendental de la Filosofía Kantiana, hace intentos por comprender el cómo es posible que el espíritu humano, en consonancia
con su mecanismo y asociándolo a los conocimientos a priori presentes en las matemáticas y la física teórica, puedan proveer elementos
cognoscitivos tan sólidos y profundos. Quizás su característica más relevante es que están libres de toda experiencia.
38

clases y la de relaciones. Consecutivamente, se dilucidarán aspectos relacionados a los principios


lógicos supremos: el principio de identidad; el de no contradicción; el del tercero excluido; el de
la razón suficiente y el de correspondencia.

.a
ífic
tn
ie
C
nió
ac
ig
st
ve
nI
al
nae
ic
gLó
a
L
:a
nue
alb
V
na
im
o
R
39

1.2.- Lógica de Enunciados

Por el contrario, si era así, puede ser que sea, y si así fuera,
sería, pero como no es así, no lo es. Esa es la lógica.

Lewis Carroll.

a lógica de enunciados forma parte de la lógica proposicional o lógica de orden cero,

L en escritos de Tomás Miranda Alonso (2000), es el segmento de la lógica formal


encargada de la composición de enunciados mediante el empleo de conectores lógicos.
Las partículas <<No>>; <<Y>>; <<O>>; <<Entonces>>, <<Sí y sólo si>> se llaman juntores o
conectores lógicos (p. 52). En la investigación científica, los conectores lógicos proposicionales
en determinados enunciados permiten al investigador establecer silogismos10 que le lleven a
inferencias válidas. Convirtiéndose en la unidad básica que es sometida a análisis para encontrar
su nivel argumentativo de verdad. La lógica de enunciados presenta una muy importante
propiedad que la habilita para ser usada como una teoría real, y que permitirá demostrar lo
acertado o lo falso de un grupo de argumentos mediante un procedimiento denominado cálculo
de enunciados.

La lógica de enunciados es la rama de la lógica que estudia las formas de unir, combinar y/o
modificar proposiciones enteras como aquellas con las cuales se conforman largas inferencias.
Donde los términos proposición y sentencia son equivalentes y constituyen la unidad mínima e
indivisible del cálculo de enunciados. A estas se les define unitariamente como sentencia
declarativa que a su vez es capaz de contener grados o niveles de verdad o falsedad, y los cuales
son indagados a través del cálculo de enunciados tendentes a generar razonamientos válidos.

En ese sentido, Leibniz en su libro The Art of Discovery (1685) afirma:

La única manera de rectificar nuestro razonamiento, es hacerlo tan tangible como


aquellos razonamientos de los matemáticos. Por esta vía pondremos nuestros errores
a la vista, y cuando existan disputas entre personas simplemente diremos: <<Déjame
calcularlo, sin bullicio ni alharaca para ver quien está en lo cierto>>
El análisis formal de las estructuras argumentativas conlleva al menos, dos pasos; el primero
denominado modelización o formalización lógica, el cual consiste en representar mediante
simbología, todo lenguaje natural escrito y compuesto de oraciones que conforman la estructura

10 Un silogismo consiste en un argumento que se hace constar de tres proposiciones, donde la última se deduce necesariamente de las otras dos y
se le denomina conclusión. Se le considera una forma de razonamiento meramente deductivo. Consta de una premisa mayor, una premisa menor
y una conclusión. La premisa mayor es aquella cuyo sujeto se incorpora como tal en la conclusión. En tanto que el sujeto de la premisa menor es
incorporado como predicado. La inducción como método omite el uso de silogismos, sin embargo, la inducción es un silogismo disfrazado o
encubierto medianamente por la retórica, que puede reducirse a un silogismo claro y evidente.
40

de una inferencia. Este método permite descubrir y destruir sofismas. Otro paso consiste en
seleccionar sólo las estructuras enunciativas que se desean someter a análisis, para con ello
separar a los enunciados analíticos o tautológicos de los verdaderamente sintéticos. Según la

teoría de enunciados, todas las sentencias unidas por conectores de frases están basadas en algún
tipo de implicación, como en el álgebra y las matemáticas. A continuación se presentan algunos
símbolos usados en lógica:

Símbolo Lógico Uso


~ Para establecer negaciones
˅ Para la disyunción o inclusiva
˄ Para la conjunción
→ Para la condición de implicación
←→ Establece Incondicionalidad
~p Se lee No p
.os
P˅q Se lee “p o q”
da P˄q Se lee “p y q”
inc
P→q Se lee “p entonces q”
un P ←→ q Se lee “p si, y solo q”
E
de
aic El cuadro anterior exhibe sólo algunos Conectores Lógicos de Frases 11 de la lógica
gLó
simbólica y proposicional, mediante su uso es posible hacerse de una compilación de ideas
:na
entendibles para todos en el lenguaje de la ciencia. En ese orden, Albert Einstein alguna vez
ue
alb expresó lo siguiente: La mayoría de las ideas fundamentales de la ciencia son esencialmente
V sencillas y, por regla general pueden ser expresadas en un lenguaje comprensible para todos.
na
im Así mismo, la lógica establece reglas para el uso de proposiciones12 compuestas: la disyunción;
o
R la conjunción; la negación; la condicional y la incondicional.

Además, permite y estudia el uso como instrumento, del razonamiento matemático en el

lenguaje escrito. Si se usa correctamente en la investigación científica, asiente a construir teorías


tan sólidas como la del Electromagnetismo de James Clerk Maxwell con sus 4 ecuaciones
vectoriales, sustentada formal y legaliformemente en la Ley de la Acción Mecánica entre
Corrientes Eléctricas de André Marie Ampere, la cual a casi doscientos años, todavía sigue
vigente y no ha podido ser refutada, ni lógica ni experimentalmente. A continuación se presentan
dos ejemplos extraídos de Hurley (2011, p. 453):

1. Todos los siquiatras son doctores.


2. Todos los doctores son colegas graduados.
3. Entonces, todos los siquiatras son colegas graduados.

11Consiste en una frase o simple término que hace que una sentencia larga, como las usadas en las inferencias, puedan ser divididas en dos más
pequeñas.12La Para
lógica con ello aplicar
proposicional las reglas
entendida de los
como lógica
silogismos.
de orden cero, en sentido estricto, consiste en una proposición comúnmente usada como
sinónimo de frase, declaración o enunciación, la cual es posible someterla a prueba para conocer si es verdadera o falsa. Para ello se siguen los
lineamientos de un modelo matemático de argumentación denominado cálculo proposicional.
41

El argumento válido se simboliza así:

1. (x) [Pc ‫ ﬤ‬Dx]


2. (x) [Dx ‫ ﬤ‬Cx]
3. (x) [Px ‫ ﬤ‬Cx]

La frase se compone de dos premisas, una mayor y una menor, que unidas dan origen a una
conclusión, juntas forman un silogismo hipotético cuyo fin es conseguir un enunciado universal
y verdadero. La letra “P” representa al sujeto “Siquiatras” y se añade como sujeto en la
conclusión; la letra “D” al predicado “Doctores” y simboliza al predicado en la conclusión. “C”
significa “Colegas Graduados”. Obsérvese que todos excepto “D” aparecen en la conclusión,
pues se asume ya implícito por la lógica de enunciados. El operador lógico “‫ “ﬤ‬tiene la misma
función que la condición de implicación “→” “Si…Entonces” sólo que en este caso se le
denomina Condicional Material, una función lógica de verdad que toma dos valores. El
.os
da condicional material presenta ciertas propiedades formales tal como en las matemáticas: la
inc
un distributividad; la transitividad; la conmutatividad y la Idempotencia. Ninguna de ellas se trata
E en este texto, al menos no en esta edición.
de
aic Con respecto a los enunciados, Ayllón Op, Cit (p. 42), presenta algunas consideraciones: En
gLó
la lógica formal todo razonamiento consta de varias premisas y una conclusión que se deriva
:a
nue lógicamente de ellas:
bl Premisa: Todo Hombre es Mortal.
a
V Premisa: Sócrates es Hombre.
na
im Conclusión: Por tanto, Sócrates es Mortal.
o
R
Tanto las premisas como las conclusiones son proposiciones enunciativas que pueden ser
verdaderas o falsas. La lógica formal se ocupa únicamente del correcto encadenamiento entre la
conclusión y las premisas, por ende, un razonamiento puede ser lógico y falso al mismo tiempo:

Premisa: Todo Hombre es Francés.


Premisa: Sócrates es Hombre.

Conclusión: Por tanto, Sócrates es Francés.

Por el mismo motivo, un razonamiento puede ser incorrecto <<carente de lógica>>, aunque la
conclusión y las premisas sean verdaderas:
42

Premisa: Algunos Hombres son Europeos.


Premisa: Algunos Hombres son Franceses.
Conclusión: Por tanto, los franceses son
Europeos.

Para Ayllón, los tres juicios anteriores son verdaderos, pero la conclusión no se deriva de las
premisas, allí no hay razonamiento, los juicios son inválidos, ilógicos. Para producir
conocimiento mediante este modelo, no solo se requiere lógica, sino de niveles de verdad. En las
ciencias factuales es absolutamente necesaria la racionalidad que aporta la lógica formal en la

construcción de sus enunciados, no obstante, ello no certifica que se obtenga verdad, por lo que
se exige su verificación experimental.

.s
od
ai
nc
un
E
de
aic
gLó
:na
ue
alb
V
na
imo
R
43

1.3.- Lógica de Predicados

Probamos por medio de la lógica, pero descubrimos por medio


de la intuición.

Henry Poincaré.

Esta
lógica
aPrimer de descansa
Orden
última sobre
predicados,
13, gravita tres principios
esencialmente
denominada también
en una ramificación
cálculo
básicos de de
abordados la lógica proposicional.
predicados o Lógica de
posteriormente

L
mismo capítulo: el principio de identidad; el de no contradicción y el del tercero excluido. En la
en este

lógica de predicados las sentencias carecen de variables libres, lo que trae como consecuencia
que sus valores de verdad sean independientes de sus asignaciones formales. Para Goldrei
(2005), el cálculo de predicados es una importante parte de la lógica, la ciencia del
razonamiento y de las leyes del pensamiento (p. 1). Según Elí de Gortari (1988) Véase concepto
de Lógica de Predicados:

Es en la lógica de predicados donde se cuantifican de manera universal o existencial


todos los argumentos de las formulas, estos se constituyen en argumentos ligados, es
decir, se ligan a variables individuales, el resto son argumentos o variables libres.
Las formulas en que todos los argumentos están cuantificados se denominan
esquemas cerrados, en tanto, aquellos que tienen por lo menos un argumento no
cuantificado se les llaman esquemas abiertos.

Los cuantificadores, tanto en matemáticas, teoría de conjuntos o en lógica, vienen


representados por un conjunto de símbolos que sirven para señalar cuando ciertos tipos de
elementos cumplen o les son propias ciertas características. En la investigación científica, la
lógica de predicados se usa para establecer en valor de verdad contenido en las conclusiones y
razonamientos derivados de una observación o proceso de indagación, para ello basta con
esquematizar lógicamente la semántica con la que se construyeron las sentencias declarativas. En
este caso, el cálculo de predicados permitirá dejar ver ciertos errores al plantear las inferencias,
interfiriendo en la sintaxis interna de los enunciados simples, pues para ella, la sintaxis aporta
criterios que asignan validez a determinados tipos de inferencias.

La lógica de predicados estudia frases del tipo declarativas basándose en la estructura interna

13 En la lógica de orden cero (lógica proposicional) no hay cuantificación alguna. En las de primer orden es posible cuantificar sobre individuos,
pero no sobre conjuntos de individuos (o relaciones entre individuos). Es sólo en la lógica de segundo orden donde es posible cuantificar tanto
sobre los individuos del universo del discurso como sobre los conjuntos de ese universo, es decir, sobre los conjuntos de individuos y las
relaciones entre individuos. La semántica de la lógica de segundo orden es semejante a la del primer orden, excepto en lo que respecta a las
variables predicativas, que se interpretan como variando sobre subconjuntos cualesquiera del universo de la interpretación. Tomado de: Filosofía
de la Lógica (2004). Lógica y Teoría de Conjuntos por: Jesús Mosterin, (pps. 229 y ss.).
44

de las proposiciones que contiene y omitiendo cuestiones de la realidad de los hechos a los
cuales se circunscribe. Simplemente se orienta a estudiar en detalle los objetos y sus relaciones,
de allí surgen elementos de importancia, lo que se afirma con respecto al objeto se considera la

relación con este o su predicado. Así como, se orienta a actuar sobre el objeto, es decir, el sujeto
de quien se afirma o niega en las proposiciones.

En ese sentido, Piquer (1781)14 alega… para que una proposición sea negativa, la partícula
negante ha de juntarse con el verbo; pues si se antepone al nombre, le hace infinito e
indeterminado. Contrariamente, afirmar significa asegurar una cosa consintiendo en ella. Cuando
se presenta la afirmación: <<Pedro es Piedra>>, la cual es afirmativa en el primer orden, no
afirma con ello el Pedro ser Piedra en el segundo.

La diferencia básica estriba en el hecho de que la afirmación por medio de la cual se juntan
los extremos, cualesquiera estos sean, es obra del ingenio; más la afirmación con la que se
.s
od asiente una proposición es obra del juicio. Como todos los conectivos proposicionales están
aic
dre aglutinados en la lógica de predicados, Andrade et, al (2008) establecen ciertas diferencias
P respecto de la lógica proposicional:
de
aic La principal diferencia entre la lógica predicados y la lógica proposicional radica en
gLó que la primera permite analizar la forma interna de las oraciones, mientras que la
:na segunda analiza únicamente el modo en que las oraciones están relacionadas. Si se
ue ejemplifica con la oración: <<Pedro es Calvo>>, donde hay un sujeto “Pedro” y un
alb predicado, la lógica de predicados permite asignar símbolos y formalizar la oración
V para estudiar diversos vínculos con otras oraciones, algo que no puede hacerse desde
na la proposicional. (p. 126).
im
o
R A continuación un ejemplo de Gauch (2003, p. 173), considérese uno de los más populares
argumentos de la lógica: Todos los Hombre son Mortales; Sócrates es Hombre; entonces,
Sócrates es Mortal. Desde la perspectiva simple de la lógica proposicional, este silogismo
contiene 3 diferentes sentencias organizadas en la forma de un argumento, según la simbología
de la lógica se organizaría así: p; q; ∴ r. Se lee, Todos los A´s son B; C es A; por tanto C es B.

Es así como, y según el análisis, la conclusión del argumento no se sobreviene de las premisas,
más sin embargo, este argumento claramente es válido.

Pero su validez no depende de la verdad funcional entre las oraciones del silogismo como lo
plantea la lógica proposicional. Contrariamente, su validez se sostiene sobre las bases de las
partes que componen a las oraciones, y esto requiere de la lógica de predicados. En fin, todos los
argumentos que adquieren validez en su forma proposicional también lo serán en la lógica de

14Refiérase a Lógica: Andrés Piquer (1781). Capítulo VIII: De la Afirmación y Negación de las Proposiciones. (P. 31 y ss.)
45

predicados. No obstante, y como lo afirman Andrade et, al op. Cit, el recíproco es falso, pues
existen argumentos que son válidos desde la óptica de la lógica de predicados, pero inválidos si
se les formalizan exclusivamente en virtud de su forma proposicional.

.os
da
ic
dre
P
de
aic
gLó
:a
nue
bl
a
V
na
im
o
R
46

1.4.- Lógica de Clases

La ciencia es un magnífico mobiliario para el piso superior de un


hombre, siempre y cuando su sentido común esté en la planta baja.

Oliver Wendell Holmes.

común,
a lógica pues
elementos la hace
dedentro
clases de
es una
la mejor
misma
converger con su connaturalidad15.
herramienta
categoría, de queello
para dispone
se requiere
el científico
Según de un para agrupar
argumenta

L Ferrater
Mora (2004), clase, como concepto lógico hace referencia a una serie, grupo, colección,
gran sentido

agregado o conjunto de entidades (llamados miembros) que poseen por lo menos una
característica común. La noción de clase no debe confundirse con las nociones de agregado o del
todo, pues no pueden equipararse en clases a entidades concretas con abstractas.

Las clases son entidades meramente abstractas, aun cuando los elementos que las constituyen
sean concretos. En escritos de Lombraña (1989), las clases se introducen como símbolos
incompletos. Entendiéndose por clase al conjunto de objetos que de algún modo satisfacen a una

función proposicional. De manera que cada función determina una clase, es así como, dos
funciones equivalentes harán mención a la misma clase, es decir, tienen la misma extensión16,
(p. 388). La Lógica de Clases se constituye como un caso muy particular de la lógica de
predicados, opera extendiéndose a conceptos en cuyo contenido se expresa una propiedad de
algún objeto lógico concreto que le hace pertenecer a un grupo o clase abstracta. Este tipo de
lógica hace uso tanto del Álgebra como de la Teoría de Conjuntos.

La investigación científica permite al investigador estratificar coherentemente a todos los


elementos involucrados en el proceso de indagación, aportando una deslumbrante coordinación
de medios para identificar y subdividir acertadamente su área cognoscitiva en variables,
dimensiones e indicadores. Donde cada indicador se corresponde con un subgrupo de las
dimensiones y estas a su vez conforman un subconjunto de las variables. Aunque en
investigación social no se usa comúnmente, en la experimental se estratifican gráficamente las

15 El conocimiento por Connaturalidad, según Joseph Ellis (2003, p. 8), es el resultado de los hábitos propios del hombre especulativo. Hábito
significa la existencia de una permanente disposición relacionada a la naturalidad del objeto y su calificación como operativo. En el caso de la
connaturalidad intelectual, tal hábito del hombre especulativo produce una porción de la realidad que se presta a ser conceptualizada como
conocimiento. El conocimiento por connaturalidad, a diferencia del pensamiento lógico, no es clasificable. Se le asume como axioma que da
origen a todo conocimiento. El conocimiento por connaturalidad no es científico ni racional por entero, es una forma de proceso mental mediante
la cual el intelecto hace aflorar la verdad, para ello percibe, diferencia, contradice, agrupa y construye relaciones sujeto objeto. Es este tipo de
conocimiento el primero en actuar sobre el descubrimiento, proyecta sobre éste una intuición creadora a priori, y es la lógica de clases la que le
dará16 razón científica y argumentos de verdad a posteriori.
Las extensiones son Indicadores y las Clases, en este caso, pueden ser llamadas Dimensiones.
47

clases haciéndose uso de los diagramas de Venn, los diagramas de Euler y los diagramas
dicotómicos de Carroll.

En cualquier investigación científica donde se utilicen varias variables, debe asegurarse


primero el que distintas variables conformen distintos subgrupos, caso contrario se entraría en el
absurdo17, Ídem a las dimensiones y los indicadores. En las investigaciones exploratorias y
experimentales se presenta comúnmente el problema de agrupar en clases a un pool de datos
colectados, cada dato se corresponde con observaciones sobre un gran número de variables, es
decir, se produce la llamada sobre - dimensionalidad de los datos. Para resolverlo, se utilizan 3
técnicas muy conocidas: el Análisis de Componentes Principales (ACP); el Análisis Factorial de
Correspondencia (AFC) y el Análisis de Correspondencia Múltiple (ACM), todas son técnicas
del análisis multivariado en estadística18. Estos procedimientos se constituyen en aplicaciones
más modernas de la lógica de clases.

.s Otra aplicación de la lógica de clases y la teoría de conjuntos en la investigación científica


se
al consiste en el denominado análisis estadístico de datos textuales, muy comunes en
C
de investigaciones cualitativas y sociales. Se usa cuando no se es posible dimensionar las variables
aic
a simple vista, entonces se hacen estudios de ocurrencia y co-ocurrencias de unidades verbales
gLó
sobre un corpus discursivo extraído de entrevistas sobre las unidades de análisis. Actualmente se
:a
nue utilizan dos software bastante potentes para ejecutar este tipo de estudios y encontrar evidencias
bl sobre el discurso, el T-Lab y el Spad-T.
a
V
na
El uso de la lógica de predicados está limitado, puesto que los predicados no conectan
im
o
R términos directamente. El único uso importante de los predicados en una estructura lógica es su
clasificación, los predicados contienen adjetivos que complementan al sujeto o sustantivo en la
sentencia, siendo esto lo que lo inserta en una determinada clase. Para Langer (1967, p. 160), es
aquí donde subyace la íntima relación entre un predicado y la clase a la cual pertenece. El
predicado es el instrumento por excelencia para distinguir clases, pues es donde el sujeto
adquiere las propiedades necesarias para ser diferenciado, sin embargo, previamente este
predicado ha de ser sometido a pruebas de relaciones verdaderas, es decir, a la lógica de
predicados.

17 Reductio ad Absurdum. Consiste en un medio de indirecto de demostración lógica, se explica más adelante en el Principio de No
Contradicción y el Principio del Tercero Excluido. Para más detalles, refiérase al Cap.: XVIII, Sección 18.1.3.- Método de Demostración
Indirecta por Reducción al Absurdo.
18 Refiérase al Capítulo XV. Los Programas de Investigación Exploratoria. Allí se detallan y explican, los usos de cada procedimiento estadístico
sobre los datos hallados, y su procesamiento en niveles exploratorios.
48

1.5.- Lógica de Relaciones

Todas las cosas aparecen y desaparecen debido a la


concurrencia de causas y condiciones. Nada existe
completamente solo; todo está en relación con todo lo demás.
Gautama Buddha.
In Dwight Goddard, Buddha, Truth, and Brotherhood (1934),
44.

na relación es una conexión de una idea o cosa con otra, bien sea por presentar

U similitudes, diferencias o dependencia jerárquica. Según Ferrater Mora (2004, Véase


concepto de Relación), la relación es examinada en la lógica como un predicamento
y, en calidad de tal, es definida como el orden de una cosa respecto de otra. En la lógica no
simbólica, la relación se refiere al carácter condicionado o incondicionado de los enunciados
(juicios o proposiciones). Cuando un enunciado es incondicionado se presentan las proposiciones
categóricas; cuando es condicionado, las hipotéticas y disyuntivas.

La Investigación Científica se basa en el estudio de las conexiones de los fenómenos con el


mundo. Son estas propiedades de relaciones pluri - diversas en los fenómenos lo que lleva al
investigador a indagar sobre los porqués de los cambios en el conjunto de las relaciones. Lo cual
puede hacer que, dependiendo de la variación relacional, este fenómeno se transforme en otro. El
desiderátum de todo investigador cuando se avoca sobre un problema, consiste en intentar
establecer un conjunto lógico de relaciones entre variables, para ello habrá de argüirse de
criterios veritativos que le permitan plasmar toda modificación paulatina y jerárquica entre los
eventos, explicando coherentemente su árbol relacional, de manera que puedan separarse las
variables antecedentes y las sucedientes. Esto sólo es posible si se hace un uso correcto de la
lógica de relaciones.

La lógica de Relaciones tiene su origen en la lógica matemática, donde existen relaciones de


identidad entre individuos o funciones, por ejemplo: <<x = y>> a esto se denomina relación de
equivalencia, o caso contrario <<x ≠ y>> relación de diferencia; también existe el <<x ≅ y>>

relación de aproximación igualitaria. En el terreno de la investigación científica no todas las


relaciones son equivalentes, también existen relaciones de orden temporal, es decir; “A” precede
a “B” si y sólo si, “B” depende de “A”, en este caso habrá una relación causa-efecto, en otras
palabras, si “A” no sucede “B” tampoco. Sin embargo, si “A” tiene sobre “B” los mismos efectos
que “B” sobre “A”, entonces existe relación recíproca <<correlación estadística>> La lógica de
49

relaciones es muy utilizada en el estudio de las teorías de grupos, de hecho es la base para
establecer una teoría de conjuntos.

Según informan Cofré y Tapia (2003), la lógica y la geometría están íntimamente


correspondidas, pues se basan en la clasificación y descubrimiento de relaciones. La geometría
consiste en el estudio de las propiedades de los sólidos, de las superficies, así como de las líneas
y los puntos. Cuando se estudia geometría el cerebro se mueve secuencialmente desde la simple
visualización hasta pasar por los niveles de análisis, deducción informal, deducción formal, hasta
el más alto nivel de rigor que implica a los aspectos abstractos o formales de la deducción. Estos
son los pasos básicos para establecer relaciones.

Desde el punto de vista de la lógica, existen tres tipos principales de relaciones que pueden
expresarse mediante símbolos: las Simétricas; las Transitivas y las Reflexivas. Estas a su vez
contienen dos sub-relaciones más cada una. En el primer caso, una relación es simétrica, como
.s
ne en el caso anterior de las matemáticas, cuando es siempre verdadero que, si “X” comparte una
oi
lac relación con “Y”, entonces “Y” presenta la misma relación con “X”. La evaluación de
Re
inferencias con predicados relacionales plantea problemas que no se habían encontrado hasta
de
ahora. Tómese el ejemplo de Clarke y Behling (1998, p. 185):
aic
gLó
John está casado con Alicia
:a
nue Alicia está casada con John
bl
a Los predicados en las oraciones asignan relaciones a los sujetos, a esto se denomina
V
na
predicado de dos lugares o predicados diádicos,… está casado/a con… afirma una relación entre
im
o dos individuos. Dentro de las relaciones simétricas se encuentra otros dos subtipos, las
R
asimétricas y las no simétricas. Por ejemplo, una Relación es Asimétrica cuando NUNCA es
cierto que si “X” comparte una relación con “Y”, “Y” entonces no comparte la misma relación
con “X”. Preste atención al siguiente modelo relacional: Clara es madre de Alicia… en este
caso nunca se sucederá que Alicia sea también madre de Clara. Por otro lado, una relación se
torna No- Simétrica cuando A VECES es cierto que si “X” comparte una relación con “Y”, este
“Y” no siempre compartirá la misma relación con “X”. Por ejemplo, en la oración John ama a
Alicia, para nada implica el que sea verdadero su reciproco.

Con respecto a las Relaciones Transitivas. Una relación es transitiva si, “X” se relaciona con
“Y”, y este “Y” se relaciona SIEMPRE también con “Z”, de manera que SIEMPRE existirá la
relación entre “X” y “Z”. Por ejemplo: Clara es Hermana mayor de Mónica, y Mónica es
hermana mayor que Lucy. Entonces, Lucy y Clara también son hermanas, y sólo están separadas
por el predicado direccional…Mayor o Menor que…
50

Existen también dos subclases de este tipo de relaciones. Una Relación es Intransitiva sí,
hay una relación evidente entre “X” y “Y”, además “Y” comparte la misma relación con “Z”,
entonces “X” NUNCA compartirá la misma relación con “Z”. Por ejemplo: Carlos es Padre de
Vinicio, y Vinicio es padre de José. Si bien es cierto, entre Carlos y Vinicio existe la misma
relación padre e hijo que entre Vinicio y José, esta correspondencia NUNCA se presentará entre
Carlos y José, pues existe lo que se denomina causal intermediaria. Por su lado, una Relación es
No Transitiva si, cuando “X” comparte con “Y”, y “Y” comparte la misma relación con “Z”,
entonces, “X” A VECES comparte relación con “Z”. Déjese guiar por la siguiente oración: Tus
Amigos no siempre son los Míos.

Los predicados diádicos presentan una tercera propiedad, la reflexividad. Una Relación es
Reflexiva cuando se lleva a cabo siempre entre una cosa y la misma. Puede analizarse mediante
la oración: es de la misma talla de… presenta las mismas propiedades de… se presenta bajo
.s la forma de <<sujeto → relación → sujeto>> Una relación reflexiva es aquella que relaciona a
ne
oi dos cosas y éstas a su vez hacen mención a sí mismas, es una relación donde cada individuo
lac
Re comparte consigo mismo. Para Clarke y Behling op. Cit, existen relaciones totalmente reflexivas
de y reflexivas, aunque para la mayoría de los propósitos lógicos esta diferenciación es irrelevante.
aic
La expresión… es idéntica a… es totalmente reflexiva. Todas las relaciones totalmente
gLó
reflexivas son reflexivas, más recíprocamente no siempre se presenta lo mismo.
:a
nue
Ahora bien, una Relación es Irreflexiva cuando NUNCA se da entre una cosa y
bl
a sí misma. Por su parte, una Relación no es Reflexiva cuando A VECES se da entre una cosa
V
na
im y sí misma. Obsérvese que una relación entre hermanos es una relación simétrica, si hay más
o
R hermanos puede transformarse en una relación transitiva, no obstante, esta última no
necesariamente pueda convertirse en una relación reflexiva dado que nadie puede ser hermano de
sí mismo. Como afirma Miaja de la Peña (2001, p. 27 y ss.), todas las ciencias se proponen
establecer relaciones entre los objetos que cada una de ellas estudia. Sin embargo, la lógica
estudia las relaciones mismas, no puede haber ciencia sin lógica, pues esta es la ciencia de las
ciencias.

La lógica descubre leyes que rigen toda realidad objetiva que el científico aborda,
explicándolas y esclareciendo su funcionamiento, cristalizando las relaciones que las unen. La
lógica de relaciones es absolutamente necesaria cuando se desea sustentar una teoría científica,
es ésta la que otorga características de coherencia a toda proposición que pueda convertirse en un
teorema digno de una clara demostración. Es la que permite concatenar relacionando, supuestos
deducibles de los axiomas.
51

La lógica es aplicada por el hombre en la realización de sus actividades fructuosas. Es la


expresión abstracta, pensada, de los procesos naturales y sociales, convirtiéndose en el
instrumento que usa el hombre en su práctica racional, la lógica de relaciones provoca un ajuste
de las relaciones previamente establecidas como conocimientos, convirtiéndose nuevamente en
punto de partida para el científico.

.s
ne
oi
lac
Re
de
aic
gLó
:a
nue
bl
a
V
na
im
o
R
52

1.6.- El Principio de Identidad

La Lógica puede llevar a un científico desde “A” hasta “B”; la


imaginación, sin embargo, podrá llevarlo a donde desee.

Albert Einstein.

n Principio consiste en una idea primigenia originada en la mente humana, designa un

U punto de partida, alude a una idea rectora o regla ética fundamental de conducta. El
de Identidad proviene de la luz natural del intelecto, cuando éste, al intentar explicar
algún fenómeno, hace descubrimiento de una realidad un tanto abstracta que lo rige. Su
explicación aborda el cómo el evento se sucede o trabaja. De acuerdo al Principio de la lógica
llamado Identidad, las ideas han de ser idénticas a sí mismas. El Principio de Identidad usado
para la comparación de enunciados, no debe ser una tautología19. Pudiendo las ideas ser
representadas simbólicamente bajo el siguiente formato: A=A; B=B o X=X. Este contexto se
justifica y toma sensatez sí y sólo sí, el término o afirmación que precede a la igualdad se usa en
idéntico contexto al término o afirmación que la sucede, adquiriendo el mismo significado. Por
ejemplo:

Todos los perros son animales = Son animales todos los perros

Según plantea David Hume20, <<Y si uno no acepta que algunos de los términos medios son
distintos entre sí, no puede, sin caer en el absurdo, negar que los extremos sean idénticos>> El
axioma real de identidad plantea lo siguiente: Lo que es verdad en un contexto ha de serlo en el
otro. Así mismo, si determinado juicio se afirma de modo que un cambio en sus eventos lo
conviertan en falso, entonces este juicio nunca representó una verdad autentica21. La forma
lógica de una oración es sin lugar a dudas, su estructura.

Esta puede ser compartida con otras oraciones argumentativas o enunciados. Bajo el principio

19 Consiste en un error lógico cuando se presenta la definición de un concepto y se le considera insostenible, pues en ella lo determinante estriba
en repetir con otras palabras, lo concebido en lo determinado. Una tautología, según la retórica, consiste en la manifestación repetida de un
mismo pensamiento, solo que expresado bajo diversas formas, y que resulta equivalente para todas. Según Kant (1819), en su libro: The Logic,
explica…la identidad de los conceptos en juicios analíticos puede ser explícita <<Que expresa con claridad una cosa, algo que está libre de
abstraccionismo. Aunque no deben usarse este tipo de juicios para la corroboración de enunciados según el principio de identidad, una hipótesis
explícita es la base que orienta a un buen proyecto de investigación, ésta la delimita sin tener que abordar las fronteras de las dimensiones,
encausa el problema y permite el encadenamiento de ideas que darán lógica a sus resultados>>, o no explícita <<implícita>>. En el primer caso,
las proposiciones analíticas son tautológicas. Una tautología es una forma válida de la lógica básica, sobre todo para la lógica proposicional. Los
enunciados del tipo tautológicos han de evitarse porque son declaraciones carentes de contenido, no aportan conocimiento científico e implican
una verdad del tipo analítica <<es aquella que adquiere certeza únicamente por los términos que involucra>> Bunge (2001), define a una
tautología como una proposición verdadera en virtud de su forma lógica y con dependencia de su contenido. Al referirse a las teorías afirma…
dos teorías lógicas son la misma si y solo si, comparten las mismas tautologías, es decir, hacen presentaciones diferentes de una misma teoría.
20 Filósofo, Economista e Historiador Escocés (1711 – 1776). Puede leerse en: Srinagesh (2006, p. 1). Según Lakatos (1989), tal comentario de
Hume va dedicado a cualquier volumen de Teología o Metafísica Escolástica. Véase Introducción: Ciencia y Pseudociencia.
21 Bradley, Francis. (2004). The Principles of Logic. Capítulo V. Véase.
53

de identidad, la compartición implica una relación estricta de paralelismo o equivalencia. A los


efectos de la disposición lógica, esta determina la manera en que puede ser fácilmente deducida
de otras sentencias, así como la vía por la cual en otras frases se da la posibilidad de deducir
cualquier conjunto de premisas que éstas incluyan. La deducción en sí tiene un poder racional,
que ha de hacerse corresponder con los objetivos planteados en la investigación. Ahora bien, esta
relación de paralelismo o simetría significativa tiende a variar tan pronto cambia el contexto, por
ejemplo:

Todos los perros son animales…


Todos los animales son perros…

La primera afirmación es lógica y verdadera, no así la segunda. El contexto de esta segunda


afirmación cambió con respecto a la primera, tornándose infundada y ambigua. Bajo estos
parámetros no cumple con el Principio de Identidad. La identidad es una ley del pensamiento
.ad
humano. El Principio de Identidad establece la necesidad de clarificar y precisar el significado
di
nt del término sobre el contexto de estudio. Nietzsche en Stack (2005, p. 105), afirma… nuestra
de
I postulación de “cosas idénticas” en el mundo, es resultado de un tipo de proceso lógico
de
oi inconsciente, que mucho tiempo después fue reformulado y denominado Principio de Identidad.
ip
nc
ir Para Stack op, cit, Nietzsche pudo haber acertado acerca del origen del Principio de
lP
E Identidad, sin embargo, oscurece el hecho de que éste nunca se intentó aplicar directamente
:a
nue sobre fenómenos empíricos, sino, sobre la identificación de conceptos y proposiciones. Este
alb
principio es mejor utilizado cuando, un mismo objeto puede ser representado de diferentes
V
na formas, manteniendo impecable todos sus aspectos cualitativos.
im
o
R Como complemento al Principio de Identidad, Leibniz planteó el Principio de Identidad de
los Indiscernibles22 <<The Identity of Indiscernibles>> Derivado de la ontológica analítica y
aplicable a objetos concretos. Esta ley se basa en que no hay dos objetos que tengan las mismas
propiedades o cualidades. No suelen haber objetos absolutamente idénticos a sí mismos, ni
siquiera en sus propiedades esenciales. Este principio trata de identificar factores de objetos
cualitativamente idénticos, pero que por otro lado los individualizan.

El Principio de Identidad lógica <<no Leibniz>>, se refiere a que un objeto, concepto, juicio
o proposición es idéntico a sí mismo. Contrariamente, lo que Leibniz bosqueja es que no sea el
mismo objeto, sino dos idénticos porque compartan propiedades cualitativas y cualitativas no
relacionales. Se enuncia de la siguiente manera:

22 Leibniz, Wilhelm. (1998, pp. 39 y ss.). Discourse of Methaphysics and Related Writings. Véase.
54

Para cada propiedad F, un objeto “x” tendrá F si y solo si, un objeto “y” tiene F
Entonces podrá decirse que “x” es idéntico a “y”

El Principio lógico llamado Identidad hace referencia ontológica a objetos o cosas, sólo
orientándolo a juicios o enunciados es posible decir que es lógico. Un juicio evoca en sí formas
lógicas, contrariamente, cuando se proyecta sobre objetos o cosas se entra en el plano ontológico.
No obstante, nada impide el utilizar la ley de Leibniz sobre indagaciones en ciencia <<no
aplicable a la mecánica cuántica>> Para Beuchot (2004), la identidad es la propiedad que tienen
dos o más proposiciones de expresar el mismo contenido objetivo, presenta la dualidad explícita

e implícita. Será explícita cuando expresan el mismo contenido objetivo con los mismos
conceptos, aunque se usen diversos términos. Se asume implícita cuando expresan la misma
verdad con diversos conceptos y diversos términos, (p.62).

.ad En la investigación científica, dos indagaciones habrán obtenido los mismos resultados, si los
di juicios conclusivos de la primera, concuerdan idénticamente en su forma semántica lógica y no
nt
de en su semántica lingüística, con los enunciados conclusivos de la segunda. De concordar ambas,
I
de denomínese plagio. A la identidad se le asume como aquella categoría que formula la igualdad
oi
ip de un objeto, de un fenómeno consigo mismo, o designa la igualdad para varios objetos. Dos
nc
ir cosas serán idénticas si y solo si, ambas comparten todas las propiedades que las hacen parecer
lP
E iguales. No obstante, el lector debe estar preguntándose… ¿Cómo se utiliza el Principio de
:a
nue
Identidad en la Investigación Científica?... o… ¿Por qué si soy Investigador nunca he tenido
alb
necesidad de usarlo?
V
na
im En cuanto a la primera respuesta; si usted es investigador experimental e hizo colisionar dos
o
R átomos diferentes de la tabla periódica <<como ejemplo hipotético>>: un átomo de Cadmio
“Cd” del bloque 12 y con peso atómico 48, caracterizado por su alta toxicidad en el cuerpo
humano, pero excelente conductor de electricidad. Contra un átomo de Magnesio “Mg” con
número atómico 12, del bloque 2, siendo el Ion de magnesio esencial para las células vivas. Y
en sus relaciones causa – efecto observó que de la unión de ambos átomos se formó un tercero,
asígnese una denominación hipotética “Cx”, derivando la combinación de dualidades en una sola

estructura, cuyos análisis le llevan a inferir que “Cx” puede usarse sobre seres humanos y está
libre de contaminación por metales, entonces usted ha hecho un nuevo descubrimiento.

Éste, hasta el momento era desconocido. Conviene ahora aplicar raciocinio a esa realidad que
lo rige. Es menester asignarle un nombre e insertarlo dentro de la tabla periódica y situarlo en
una categoría cognoscitiva, tal cual a un niño recién nacido en la sociedad. Deberá detallar a cuál
otro elemento de la tabla se parece, y a cuales es diametralmente opuesto. Como se argumentó
55

previamente, debe usarse el Principio de Identidad para establecer la necesidad de clarificar y


precisar el significado del término, o nombre de lo encontrado, sobre el contexto del estudio que
le dio origen, evitando en todo momento las contradicciones.

Aquí la respuesta a la segunda pregunta; si ninguna vez ha tenido la necesidad de usar el

Principio de Identidad en la investigación científica es porque Nunca ha hecho un


descubrimiento. En las ciencias descriptivas por lo general no se producen descubrimientos, allí
se cercena el proceso de intuición cuya génesis es la mente del científico, no puede haber
descubrimiento sin intuición. Así mismo, describir es sólo una etapa de la investigación y no
aporta conocimiento nuevo, la descripción antecede a la investigación teórica que pueda
ejecutarse sobre un objeto. La descripción sin explicación es imposible que se convierta en
ciencia. Además, la explicación y la descripción están separadas sólo por la dialéctica.

.ad
di
nt
de
I
de
oi
ip
nc
ir
lP
E
:a
nue
alb
V
na
im
o
R
56

1.7.- El Principio de No Contradicción

Ni la Contradicción es indicio de falsedad, ni la falta de


contradicción es indicio de verdad.

Blaise Pascal.

na
al segundo,
contrastarse
a tal
dos
contradicción consiste
nivel, queencosas
hechos, uno debe una proposición
o elementos,
conjugar estar equivocado.
el primerosuresulta
yEn lanegación. Surge,
totalmente
investigación cuando
científica

U
se origina cuando, al plantear los resultados en una indagación, sus juicios conclusivos se
opuesto

construyen a través de una combinación de palabras que entre sí, sugieren los opuestos de las
otras, dejando a la oración carente de sentido en su totalidad. Donde, la verdad de una de las
proposiciones excluye de verdad a la otra. También surge cuando, la consecuencia o efecto de un
acto, se asume contraria con la acción o causa que le dio origen <<Teoría de la Acción>>.

Es por ello que el investigador ha de prestar atención en la escogencia de palabras y


organización de ideas que le llevarán a la emisión de sus subsiguientes juicios conclusivos. No
obstante, no se considera igual a una contradicción que a una diferencia en el planteamiento de
los juicios conclusivos. Al respecto Aristóteles23 explica…

La palabra diferencia tiene tres sentidos, un sentido común; un sentido propio y un


sentido que es aún más común que los demás. Según el sentido común, se dice que
una cosa difiere de otra, cuando presenta una alteración cualquiera, ya con relación a
ella misma, ya con relación a una cosa diferente. En el sentido propio, una cosa
difiere de otra cuando difiere por un accidente que no puede separarse de ella. Y, en
el sentido más propio, se dice que una cosa difiere de otra, cuando es distinta por una
diferencia específica. En general, toda diferencia al unirse a un ser cualquiera, le
altera de algún modo; las diferencias comunes y propias le hacen diferente; las
diferencia más propias le hacen otro…

Según lo anteriormente descrito, las palabras <<Contrario>> y <<Diferente>> no son lo


mismo. Esto lleva al investigador a profundizar en la estructura semántica tanto de sus
conclusiones, como de sus ámbitos de aplicación. Por lo que un juicio conclusivo podrá diferir
de otro y no considerársele contrario o contradictorio a este. Para ello, necesario es el avocarse al
estudio profundo de las conclusiones a partir de premisas contrarias y contradictorias haciendo
uso de silogismos.

23 Aristóteles, El Órganon. Tratados de Lógica. Cap. III. (P. 11).


57

Hay maneras de formar silogismos con proposiciones opuestas <<todo – ninguno; todo – no
todo; alguno – ninguno; alguno – no alguno>> de ellas, sólo son contrarias las más universales,
todo - ninguno. La ley de la no contradicción en lógica, establece que determinado fenómeno no
puede suceder y no suceder al mismo tiempo <<Llueve al mismo tiempo que no llueve>>, <<
Estoy seco pero mojado>> En ese sentido, esta ley imposibilita la creencia en una formulación
en determinada dirección y a su vez creer también en su negación en sentido opuesto. La
negación y afirmación simultánea de una sentencia representa inequívocamente un hecho
inadmisible. Toda aquella formulación que contenga los más mínimos vestigios de contradicción
se estudia bajo este principio, por demás muy usado en el intento de refutar teorías científicas. Al
respecto, Kant (1997, p. 135) explica…

La proposición: «A ninguna cosa le es adecuado un predicado que la contradiga»


.n recibe el nombre de principio de contradicción y constituye un criterio universal,
ió aunque meramente negativo, de toda verdad. Pero sólo pertenece, por ello mismo, a
cic
da la lógica, ya que vale para los conocimientos considerados simplemente como
rt conocimientos en general, con independencia de su contenido. El principio afirma
no que la contradicción anula y suprime tales conocimientos. No obstante, se puede
C también emplear el principio de forma positiva, es decir, no sólo para rechazar la
o
N falsedad y el error (en cuanto basados en la contradicción), sino también para
de conocer la verdad.
oi
ip Según Kant, ha de asumirse el Principio de Contradicción como principio universal que
nc
ir
lP otorga suficiencia plena a todo conocimiento analítico <<detállense los efectos de dependencia
:E que se suceden entre las hipótesis nulas y alternativas>> Mientras Nietzsche presentaba
an
ue argumentos negando que la ley de la contradicción sea el principio más sofisticado, Aristóteles
bl
a afirmaba que este último, era el más efectivo de los principios lógicos24. En la investigación
V
na
científica, y según precepto Kantiano;
im
o
R
Siempre es correcto negar lo contrario de aquello que se halla incluido como
concepto en el conocimiento del objeto y que es pensado en él. Tenemos que afirmar
necesariamente, en cambio, el concepto mismo del objeto, ya que lo contrario de tal
concepto sería contrario al objeto… (p. 135).

Se es o no se es, esta frase simplifica el principio de no contradicción. De dos premisas entre


sí contradictorias, no podrá extraerse más que un juicio incompatible. Según Bunge (2001), en

24 En Moreno Villa (2003), Aristóteles siempre alegó que no era posible afirmar cosas contradictorias de lo mismo. Immanuel Kant en su obra:
Crítica a la Razón Pura (1997), tiende a usar ambos principios, identidad y contradicción, indistintamente. Aunque él junto a Hume sugirieron
que el principio de identidad debía ser separado del principio de contradicción. Sostiene Kant, que la ley de identidad no es suficiente para
establecer un nivel analítico, por lo que la asocia al principio de contradicción. Su diferencia estriba tanto en su forma lógica al sustentar
enunciados como en su forma ontológica al referirse a objetos o cosas. Véase: Cap. II: Deducción de los Conceptos Puros del Entendimiento (pp.
83 y ss.). Aristóteles en el Órganon explica la relación entre Afirmación – Negación y Contradicción: la afirmación es una enunciación que
atribuye una cosa a otra. La negación es la enunciación que separa a una cosa de otra… luego es evidente que para toda afirmación hay una
negación opuesta, y para toda negación hay una afirmación opuesta… llamamos entonces contradicción a la afirmación y negación que son
opuestas. Los silogismos o sentencias que se emitan en los juicios conclusivos de una investigación van orientados en dos sentidos: un
pensamiento del objeto y una enunciación del objeto, los del pensamiento pertenecen a las categorías. Sin embargo, las contrariedades surgidas en
las enunciaciones son expresiones que son sin duda contrarias, y lo son únicamente porque están expresadas contrariamente.
58

lógica, una contradicción implica cualquier número de proposiciones, relevantes o irrelevantes,


verdaderas o falsas. Las contradicciones son fecundas, pues representan una verdad de la vida,
por consiguiente, lo mejor será enfrentarse a ellas y combatirlas cuando aparezcan, además, la
autenticidad de un enunciado orienta al científico hacia el camino del descubrimiento de la
verdad.

Según los planteamientos anteriores, ¿en qué se basa la necesidad de contradicción?, la


contradicción, o mejor dicho, la necesidad de no contradicción en ciencia, implica que ésta puede
tanto alejar como acercar al científico a la verdad. Sin embargo, no hay certeza ni aplicabilidad
tal en sus criterios que otorguen poder veritativo a determinado resultado científico. Sólo es
posible usarlo, como método formal en busca de inconsistencias analíticas en sentencias que
relacionen a los sujetos con sus predicados, puesto que este principio carece de contenido, razón
.n
ió por la cual no es posible esperar de él, una explicación de los porqués, ni de la relación causa –
cic
da efecto sobre determinado fenómeno. Es así entonces, como puede ser usado para encausar la
rt
no razón, sobre la base de enunciados, que al hacer emerger la duda, tiende a disiparla.
C
o Desde el punto de vista epistemológico, Bunge op, cit. afirma que deben evitarse, porque en
N
de
cierto grado son falsas, y el fin de la investigación científica es la búsqueda de la verdad objetiva.
oi
ip También se le considera de suma importancia a la hora de someter el enunciado a todas las
nc
ir
lP pruebas de reducción al absurdo 25. Semánticamente, una proposición contradictoria es
E
:a completamente falsa si p, su constituyente elemental, solo puede tomar los valores de verdad V y
nue F. Pero si p, es una verdad a medias26, entonces <<p y no-p>> también serán medio verdaderas.
alb
Así, a medida que la verdad tiende a debilitarse, crece la contradicción.
V
na
im En teoría de la acción como bien certifica Bunge, es posible afirmar que dos acciones son
o
R contradictorias u opuestas entre sí, al momento que se hace imposible su ejecución simultánea
<<nado bajo el agua a la vez que respiro tranquilamente>>, o si sus consecuencias separadas son

25 Primeramente, según Bunge (2001), la reducción como concepto consiste en una operación epistémica, o un tipo de análisis por el cual el
objeto reducido se conjetura o demuestra que depende de algún otro, lógica u ontológicamente, anterior al primero. Reducir es afirmar que,
aunque A y B parezcan ser diferentes entre sí, en realidad son lo mismo. Nota del autor: el principio de reducción lógica, fácilmente puede ser
aplicado sobre la evaluación de determinada investigación científica, sobre todo si esta se transforma a un modelo matemático, puesto que los
juicios conclusivos se derivan de las premisas. En mi experiencia he podido apreciar, con gran preocupación, el cómo al operacionalizar variables
se tiende a disgregar dimensiones, que aunque en apariencia son diferentes, en el fondo son la misma, considero esto un gran error. Su prueba se
consigue tras someter a escrutinio, no las dimensiones en sí, sino a sus indicadores. Si siendo éstos de dimensiones en apariencia distintas, llegan
a converger tanto en su estructura semántica lógica como en su semántica lingüística, podrá decirse entonces que no existe diferencia entre tales
dimensiones. Tal acción errónea es consecuencia de un mal abordaje del proyecto derivado de una incorrecta revisión de la literatura,
representando además, un gasto innecesario de tiempo. Uno de los métodos más poderosos de contraste para estos casos, consiste en aplicar, si se
dispone de datos empíricos suficientes, las técnicas relativas al análisis factorial exploratorio y luego un análisis factorial confirmatorio, de la
estadística Multivariada. Por su lado, la Reducción al Absurdo consiste en un proceso de razonamiento que deriva en una contradicción para
determinado conjunto de premisas, en este caso no es que son o no lo mismo o contradictorias, son un absurdo. Por lo que ha de concluirse, que el
sistema o fenómeno que se intenta explicar como un todo, es insostenible, a menos que algunas de las premisas sean rechazadas. La lógica
establece procedimientos <<Modus>> para la corroboración, no importa cuál sea su caso.
26 En la
lógica difusa es común el uso de verdades a medias o criterios no cerrados, por ejemplo, para la lógica tradicional es de día o de noche,
pero no ambos estados al mismo tiempo. No obstante, es bien sabido que la intensidad de la luz tiende a atenuarse conforme se acerca la noche.
La lógica difusa establece que entre la luz y la oscuridad, entre el blanco y el negro, existe una escala infinita de grises que deben tomarse en
cuenta, allí se miden distancias entre escalas de grises usando etiquetas lingüísticas. Refiérase al Capítulo VII. : El Razonamiento y la Ciencia
más allá del ser Humano: Tecnología. Sección 7.3. Lógica Polivalente: Lógica Difusa.
59

mutuamente excluyentes. Por ejemplo: caminar y tumbarse, construir y destruir la misma cosa, o
competir y cooperar en el mismo aspecto. Como acción, el Principio de Contradicción afirma
hechos, se limita a presentar discrepancias entre dos argumentaciones, discrepancias que a pesar
de substanciarse más, seguirán siendo incompatibles.

En ocasiones, es posible encontrar investigaciones científicas tan mal sustentadas, que basta
sólo con someterlas a las pruebas silogísticas de reducción al absurdo para corroborar su carencia
de verdad lógica-científica. Tales silogismos aparecen cuando se toma la porción contradictoria
emitida en el juicio conclusivo, y se le añade a esta, otra proposición. Según Aristóteles27, se
forma en todas las figuras y se asemeja a una conversión.

Diferenciándose en que sólo es posible hacer tal conversión cuando ya el silogismo ha sido
.n formado y formulado, y además, se han admitido las dos proposiciones, para ello es necesario
ió que la investigación haya sido finalizada. Mientras que se reduce al absurdo cuando la
cic
da
rt contradictoria, si bien al principio no ha sido concedida, se le asume verdadera bajo toda
no evidencia. En la investigación científica existe contradicción si la verdad carece de fuerza, si no
C
o se ha sustentado una razón suficiente. Es de recalcar que esta prueba obedece a las leyes del
N
de
silogismo enunciadas sintéticamente.
oi
ip
nc Como regla general, el Principio de no Contradicción intenta persuadir al investigador de
ir
lP tratar de combinar estructuras o ideas que sean estrictamente contradictorias. La mente humana
E
:a es capaz de discriminar opiniones que no se acoplan a su estructura racional, de allí surge la
nue
bl duda, y es ésta la razón de ser de la lógica, que mediante prueba disipa. Las verdades no pueden
a
V ser contradictorias, de serlo, para nada serviría este principio, todo sería verdadero a la luz de
na
im cualquier cosa.
o
R
Hasta aquí el lector podrá haberse percatado, que el Principio de no Contradicción pareciese
buscar, sólo el otro lado de la igualdad planteado por el Principio de Identidad. Es por ello que
muchos autores tienden a usarlos simultáneamente. No es menester de este aparte en el presente
texto, pretender explicación más sofisticada y profunda de ambos principios, ni mucho menos
generar discusión alguna sobre los orígenes y concepciones filosóficas, ontológicas,
epistemológicas o metafísicas, que los hacen parecer similares o diferentes. Sólo se aspira que el
lector, movido por el principio de la duda razonable, los aplique en su quehacer científico. Ante
el olvido, prácticamente absoluto y por parte de algunas comunidades científicas, de la
corroboración a través del uso, no sólo de estos principios, sino de los que a continuación se
describen.

27 Primera figura de Reducción al Absurdo. El Órganon, (p. 149 y ss.).


60

1.8.- El Principio o Ley del Tercero Excluido

La Lógica misma no puede dar a nadie la respuesta a las


cuestiones de fondo, pero sin lógica, frecuentemente no se
sabría la importancia de lo que conocemos, es por ello que a
menudo se cae en la falacia y la inconsistencia.
Peter Geach.

que existiendo
formalizado
ste pordos
principio, proposiciones,
también se erige
denominado
Aristóteles, lascomo
cuales
Leyuna
recíprocamente
ley del
del pensamiento,
Tercero se dondeal
Excluido,
nieguen, semenos
establecey
propuesto

E
de ellas ha de considerarse necesariamente verdadera, es decir, una tercera no se da. O bien se
una

admite a “P” como verdadera, o su negación “-P” lo es… (Tautología). Planteado de otra
manera, al hallarse dos proposiciones contradictorias no hay cabida a una tercera posibilidad, por
ende, cualquier término medio queda excluido.

Sin embargo, no ha de confundirse con lo propuesto por la lógica bivalente, aunque muchos
lógicos establecen que son exactamente lo mismo e incluso niegan su eficacia28, en ésta, la
verdad sólo adquiere dos valores, verdadero o falso. Su principal diferencia estriba en que la ley
del tercero excluso se construye a través de expresiones sintácticas pertenecientes a la lógica de
la forma, mientras que con el principio de bivalencia por lógica simbólica, es posible validar y
comprobar la ley, más no así el principio de bivalencia.

Según Ferrater Mora (2004), hay autores que asumen a este principio como una forma
especial de contradicción, otros en cambio, sostienen su mutua autonomía, pues declaran que
este principio es distinto al de contradicción y al de identidad. Por otro lado, desde la segunda
mitad del siglo XIX, los estudiosos de la lógica se dividieron en dos áreas, una de ellas
denominada matemática lógica que aceptaba al principio del tercero excluido y llamados
comúnmente lógicos clásicos. Y otro segmento que no aceptaba su uso tal y como lo había
planteado Aristóteles, a estos se les denominó Intuicionistas Lógicos.

Esta ley, desde el punto de vista intuicionista, es usada muy comúnmente como parte de un
proceso de demostración propuesto en sus inicios por Andréi Kolmogorov, conocido por sus

28 Consúltese los escritos de: Emil Post <<The Two-Valued Iterative Systems of Mathematical Logic>>; Por su lado, los polacos Jan
Lukasiewicz y Alfred Tarski se dedicaron a trabajar en una lógica de tres estados que facilitó el origen del Soft computing y la Lógica Difusa
entre otros. Estos se aparataron de los sistemas lógicos formales o bivalentes, y construyeron sistemas lógicos trivalentes o polivalentes bastantes
robustos y muy usados hoy en día en el diseño de software computacional. Esto ha funcionado como primer eslabón en la cadena de desarrollos
tecnológicos verdaderamente impresionantes. En capítulos posteriores, capítulo VII específicamente, se da una amplia disertación sobre estos
modelos lógicos.
61

estudios estadísticos y matemáticos, además de su prueba no paramétrica Kolmogorov –


Smirnov. Kolmogorov hizo intentos por trasladar la matemática clásica hacia la matemática
intuicionista, este autor en 1925 propuso un increíble sistema intuicionista que logró juntar dos
modelos de sistemas matemáticos formales, el de Brown y Hilbert del cálculo proposicional,
para ello esquematizó un sistema de axiomas pero no hizo pruebas para cuantificar una teoría
completa.

Kolmogorov diseñó un sistema de lógica denominado lógica “Beta” <β>, cuya axiomática se
deshace de aquellas fórmulas que permitían codificar el Tercero Excluido de Hilbert, y de esta
axiomática Hilberiana es de donde extrae todo el conjunto de axiomas positivos. Con su obra de
1925 demuestra que aplicando una correcta interpretación, era posible transformar cualquier
.o conjunto de declaraciones desde la lógica formal hacia la intuicionista. Kolmogorov en sus
di
ul
xc intentos por contribuir a la formalización de una lógica intuicionista y sus propiedades, aseveró
E lo siguiente con respecto al Principio del Tercero Excluso:
or
erc
Te Demostraremos que todas las conclusiones obtenidas con el principio del tercero
lde excluido son correctas, siempre que cada juicio que entre en su formulación se
yLe sustituya por una sentencia afirmando en doble negación. Llamaremos a una doble
negación de un juicio a una Pseudo-Verdad. Entonces, en la metamatemática de esta
o Pseudo-Verdad es legítimo aplicar el Principio del Tercero Excluido. Kolmogorov
oi (1925, p.416)29.
ip
nc
ir
lP En la investigación científica, el principio del tercero excluido se utiliza para dilucidar
E
:a ambigüedades y para eliminar tergiversaciones de ciertas inferencias que puedan contenerlas.
nue
alb Allí el Principio de no Contradicción facilita la exclusión de cualquier tercer valor de verdad no
V tomado en cuenta. Se emplea también para descubrir y eliminar antinomias y falacias lógicas
na
im formales, que si bien parten de la buena voluntad del científico al crear la proposición, esta no
o
R debe ser tomada como verdadera ni falsa, sino indeterminada, pues este principio se erige como
la forma de razonamiento natural para reconocer cosas, y se reconocen por asociación contra
algo parecido que ya se conoce.

Según describe Eli de Gortari (1988), para que este principio sea válido, es necesario suponer
la existencia lógica de aquello en lo que se aplica, en el universo del discurso sobre el cual se
entiende razonar. En el sentido estricto de Mario Bunge (2001), el principio, al igual que las
dicotomías: blanco o negro; bueno o malo; y capitalista y socialista, ha sido incomprendido. Este
error se sobreviene puesto que al principio del tercero excluido se le hace imposible operar
ontológicamente, es decir sobre objetos reales o sobre cosas concretas. Entonces, sólo es posible

29 Puede leerse en el Libro: (Heijenoort, 1879-1931) From Freege to Godel: A Source Book in Mathematical Logic, (1967).
62

aplicarlo sobre proposiciones, actúa dividiendo cada conjunto de proposiciones en afirmaciones


y sus negaciones.

El Principio del Tercero Excluido se encuentra atado a distintas concepciones de la realidad y


no puede aplicarse cuando las clases a las que pertenezcan los objetos sean subjetivas. En ese
mismo orden, Belfiore (2004), aconseja que si se hace uso de una lógica basada en 3, 4 o más
valores de verdad30 <<tal como en las investigaciones tecnológicas>> el principio del tercero
excluido debe ser llamado: Principio de los Infinitos Valores Intermedios.

.o
di
lu
xc
E
ero
rc
Te
lde
yLe
o
oi
ip
nc
ir
lP
:E
an
ue
bl
a
V
na
im
o
R

30 Lógica Difusa, Lógica de Godel, Intuicionista o Dialéctica de Hegel. También Denominadas Lógicas Aproximadas.
63

1.9.- El Principio de la Razón Suficiente

Nada sucede sin razón. Lo que significa que cada cosa es lo que
de alguna manera es. Todo lo que pasa a ser real tiene alguna
razón para serlo. Cualquier cosa que pase a ser posible tiene
alguna razón para tal posibilidad. Cualquier cosa que pase a
ser necesaria tiene una razón para esta necesidad… entonces…
Nada sucede sin razón.
Martin Heidegger.

dilucidación
ara intento
el ser humano,
posibilidad e para cada
elde Principio
acontecimiento
someter por
de Razón
o Suficiente subyace en la necesidad de
fuerza,

P fenómeno natural, rechazando cualquier


la explicación de un hecho. Si bien es

cierto, para el hombre común algunas explicaciones son suficientes, para el científico existe una
verdad necesaria con extensión ilimitada. De la nada, nada viene. Este es otro principio
íntimamente relacionado al de la razón suficiente, y en ciencia, todos los hechos, o son
explicables o habrá que hacerlos hablar. Ningún fenómeno por sí solo es auto-explicable o es

auto-causado, siempre ha de obtenerse al menos una explicación mínima y suficiente para que el
evento se considere entendido. Más, el científico necesitará conocer todas las variables que se
presumen su génesis.

Para Spinoza (1663)31, el onceavo axioma que hace referencia a una exposición geométrica de
los Principios de Filosofía de Descartes, establece: No existe nada a lo que no se le pueda pedir
¿Cuál es la razón? Por la que existe. Su explicación se presenta así: dado que existe es algo
positivo, entonces, no se puede decir que no tiene nada como su causa (axioma 7). Entonces,
habrá que asignársele una causa positiva. De esta manera, el Principio de la Razón Suficiente se
convierte en el primer motivo para el accionar científico.

Ninguna causa puede producir todo su efecto en un mismo instante de tiempo, aunque existen
causas y efectos simétricos <<Concomitantes32 o Epifenoménicos>>, el espacio temporal entre
la causa y su efecto han de ser determinados. Si el espacio de tiempo entre “A” y “B”, donde
“A” precede y “B” sucede, es tan corto que puede ser visualizado, entonces toda razón
explicativa ha de conducir a algún concepto de acción, es decir, incluye alguna interacción entre
objetos físicos. Lo que lleva a inferir, que existe una interacción física como, que la mejor

31 De esta manera Aparece referenciado por The Stanford Encyclopedia of Philosophy. Tema: Principle of Sufficient Reason.
32 Se dice que, cuando una variable oscila en su nivel de intensidad sujeta a que otra también lo haga entonces existen variaciones concomitantes
o concomitancia. Para un mejor entendimiento del término, Véase: Los Cánones de Mill, Método de las Variaciones Concomitantes. Capítulo
XXIII: Introducción a la Investigación Experimental.
64

explicación posible puede ser representada por medio de ecuaciones que describan el estado de
tal sistema.

El mencionado sistema debe presentar tanto consistencia lógica como reciprocidad de


acciones, allí la razón suficiente adquiere patrones de similaridad y reconocimiento, además de
equivalencia, diferenciando toda simetría y proporción, haciéndolas concatenar con ideas
lógicamente consistentes, abarcando entre otras, cualquier idea que posibilite la contradicción.
Para alcanzar con exhaustividad y completitud cualquier explicación soportada en el Principio de
Razón Suficiente, el investigador necesitará descomponer tal razón suficiente en unidades de
razón33.

Donde cada una de estas unidades aportará un sentido de proporción a través del cual se hará
.te posible observar el universo que rodea al fenómeno, y donde cada individuo ocupa su lugar,
nie
fic construyendo relaciones de los unos con los otros. Tratando siempre de establecer dependencias
u lógicas sin digresiones para adaptarlas a la estructura cerebral de quien o quienes recibirán y
S
nó aceptarán tal razón suficiente. En ese sentido, una estructura cerebral se construye a través de
az
R procedimientos lógicos que condicionan a la mente para aceptar ideas, en donde cualquier
al
de argumento contradictorio se torne realmente inconcebible.
oi
ip Es allí donde se concatena cada unidad de razón con otra, haciéndose tan sólidas que logren
nc
ir
lP constituirse en ideas de verdad o realidad, arrojando como resultado, una explicación tan amplia
:E
an y precisa que pueda transformarse para muchos en una razón suficiente. Ésta simplemente se
ue emite a través del denominado juicio auto-consistente basado en el pensamiento reflexivo.
bl
a
V En otro contexto, para Heidegger Op, Cit, cada causa tiene un tipo de razón, pero no cada
na
im razón brinda algo sobre el sentido de causación (p. 117). Por ejemplo, explica el autor: la
o
R sentencia universalmente aceptada y válida: “Todos los Hombres son Mortales”, de hecho
contiene la razón por la cual se observa que Sócrates es mortal, pero no explica las causas de la
muerte de Sócrates. Según Heidegger, Leibniz fue una de las principales figuras en el desarrollo
de una teoría sobre el Principio de la Razón Suficiente, para este último, consiste en uno de los
Supremos y Fundamentales Principios, pero no el más importante.

Leibniz lo denominó; “The Principium Reddenda e Rationis” o “To Render the Reason”, es
decir, El Principio de la Razón Prestada. Y sobre el cual existen 3 preguntas, todas aparecen en
Heidegger op, cit (p. 117 y ss.):

33 Los conceptos de Unidades de Razón y de estructura cerebral fueron tomados del libro de FitzGerald (1887). A Treatise on the Principle of
Sufficient Reason. P. (54-55).
65

1. ¿Cómo es que una razón es siempre una razón prestada?


2. ¿Cómo es que una razón debe ser prestada o rendida, es decir, adelantada explícitamente?
3. ¿A quién o a qué se le pide prestada una razón?

Leibniz respondió a la primera pregunta con una muy interesante observación. Una razón es
una razón prestada, porque la verdad sólo puede ser verdad si una razón puede ser prestada
para ella. Y una razón es prestada simplemente porque rinde cuentas a una sentencia de verdad.
De lo escrito por Leibniz se interpreta que, a medida que se sumen o resten unidades de razón al
juicio que afirma, concatenando para más o para menos una razón con otra, la idea de la razón
prestada se hace más verdadera.

A la segunda pregunta responde de la siguiente manera: La verdad de un juicio se representa


.te como una proporción, es decir, una cuenta. Si nos son dados los juicios restantes sin
nie
justificación, entonces se carece de evidencias concretas y correctas. Los juicios por sí mismos
fic
u no son verdad, un juicio solo es verdadero cuando se especifica una razón para concatenarlo
S
nó cuando existe relación, es decir, cuando se da una cuenta. Es como una donación, cuando la hay,
az
R surge la necesidad de entregarla y rendirla. En ocasión de la tercera pregunta respondió: a los
la
de humanos, pues son quienes determinan los objetos como objetos y los juzgan a través de su
oi
ip representación.
nc
ir
lP Se ha otorgado pues razón suficiente sólo cuando, tanto el receptor de la explicación como
E quien la describe, se sosiegan y satisfacen con la verdad mental, es decir, la explicación se torna
:a
nue
alb conforme a los actos del entendimiento. Y, al contrastar con la verdad real, cada cosa es
V indubitablemente lo que es. La verdad mental es simplemente lógica, la real es la
na
im correspondencia entre las cosas. Satisfacer el Principio de la Razón Suficiente es un verdadero
o acto de ciencia, donde cada investigador ha de usar las destrezas de las que dispone y lo
R
cualifican.

En ese orden, no se abordará más en profundidad o más de lo requerido el tema ni su proceso.

Sin embargo, se recomienda al principiante, desarrollar a motu-proprio las nociones de:


raciocinio; entimema; dilema; paradoja; la ciencia de la argumentación; unidad de razón;
entrelazado de nociones e ideas y destrucción de sofismas. Los capítulos posteriores de este texto
le ampliará más formalmente el panorama en cuestión.
66

1.10.- El Principio de Correspondencia

Toda teoría bien fundamentada, cumple al menos 4 requisitos:


es consistente con todas las observaciones previas; sus
predicciones pueden ser probadas experimentalmente; debe
poder aplicársele al menos un falsador potencial y; debe
ajustarse al principio de correspondencia. En caso contrario,
no es digna de llamarse teoría científica.
Roiman Valbuena.

viene
como a ha
suplantar
l Principio sido posible
a otra, haobservar,
de poder
de Correspondencia explicar
su
establece que, toda nueva teoría, la cual se entiende

E
complementación de conceptos.
por qué su antecesora ha operado tan bien

Según
explicación debe basarse en la junción o
Abbagnano (2004, Véase concepto de:
Complementariedad), se llaman complementarios a dos conceptos opuestos, pero que se
corrigen recíprocamente y se integran en la descripción de un fenómeno. Según Bunge (2001),
la correspondencia como regla metateórica, consiste en un enlace entre lo teórico y lo empírico.

Este principio, más que a la lógica, pertenece a la arquitectura de la razón.

Un ejemplo de ello se hizo evidente cuando Einstein, introduciendo su Teoría de la


Relatividad Especial, suplantó a la Mecánica Clásica Newtoniana, por demás útil y que describe
muy bien a los sistemas macroscópicos. Einstein se vio en la necesidad de establecer conceptos
de correspondencia y de explicar por qué muchas de sus observaciones coincidían, incluso casi
por completo su misma ecuación, siendo ésta una teoría en apariencia diferente. En su discurso,
debió aclarar por qué la tradicional Teoría de Newton había sido tan eficaz. No se trataba en sí de
refutar una teoría, sino de complementarla con otra, es decir, presentaba la combinación
Constructiva – Mediativa de los experimentos mentales34.

En matemáticas se dice que existe correspondencia cuando algunos elementos del conjunto
“X” se relacionan con otros pocos del conjunto “Y”. La correspondencia establece una noción
de orden y jerarquía, evidenciando la existencia de una relación o vínculo. En la investigación
científica, sobre todo en la comparativa, existirá correspondencia unívoca si las poblaciones o
conjuntos a comparar presentan cada una la misma cantidad de sujetos. Si la correspondencia es
uno a uno, es decir, sujeto a sujeto, entonces se denomina cardinal.

Donde para cada “a” del conjunto “X” coexistirá también un “a” en el conjunto “Y”, esto

34 Refiérase a la sección de los Experimentos Mentales en el Capítulo XXIII: Introducción a la Investigación Experimental.
67

asegura de alguna manera la igualdad en cuanto al número entre dos poblaciones equivalentes.
Ahora bien, si en el proceso comparativo existen más de dos poblaciones, se establece una
correspondencia múltiple. Para el científico, cualquier idea de correspondencia ha de ir precedida
por evidencia soportada por la lógica de relaciones y la lógica de clases, pues es ésa la manera de
construir conocimiento, la de relaciones permite visualizar la posibilidad de correspondencia, la
de clases establece la cantidad de conjuntos a corresponderse.

Para la filosofía Hermética planteada en El Kybalion35, siempre hay cierta correspondencia


entre las leyes y los fenómenos, este es un principio de aplicación universal: Como es arriba, es
abajo; como es abajo, es arriba. Según su plano de vibración: nada esta inmóvil; todo se mueve,
todo vibra. De acuerdo a su plano de polaridad:

.a Todo es doble, todo tiene dos polos; todo, su par de opuestos: los semejantes y los
inc antagónicos son lo mismo; los opuestos son idénticos en naturaleza, pero diferentes
de en grado; los extremos se tocan; todas las verdades son medias verdades, todas las
no paradojas pueden reconciliarse. Rinaldi op, cit (p. 53).
sp
re
o De hecho, cuando se habla de temperatura, el frio y el calor no son opuestos, simplemente
C
de están separados por grados y con un mismo instrumento se miden ambos. De la misma manera, y
oi
ip aunque la teoría general de sistemas no es considerada una teoría científica por la amplitud de su
nc
ir contenido e imposibilidad de refutación, se soporta sobre importantes nociones de
lP
E correspondencia, se expresa así: “No hay fenómeno digno de entenderse por sí solo; pues todo
:a
nue forma parte de un sistema <<jerarquía que relaciona>> En todo sistema existen conjuntos
bl macros, mesos y micros, que además de estar relacionados, interactúan los unos con los otros”.
a
V
na Y, si el científico pudo dar una razón suficiente al fenómeno abordado, es menester ahora
im describir y explicar su correspondencia con otros elementos de su entorno.
o
R
En física, el principio fue introducido por el físico Danés Niels Bohr en 1923 en el contexto
de la vieja teoría cuántica, según Bohr, este principio de complementariedad o correspondencia
se expresa así: Una descripción espacio – temporal y una secuencia causal rigurosas de
procesos individuales no pueden ser realizadas simultáneamente, pues debe sacrificarse la una o
la otra36. Bohr planteó simplemente, si bien es cierto, la física clásica y la física cuántica difieren
grandemente, cualquier modificación que hubiere de practicársele a las ecuaciones de la
mecánica clásica cuando aborda temas sub-microscópicos, al ampliar sus resultados al mundo
macroscópico estos deben corresponderse.

Para Bohr, su principio establece que al observar las leyes que gobiernan las acciones y

35 El Kybalion y la Ciencia por Silvia Rinaldi (2003). Véase:


36 Nicola Abbagnano, diccionario de filosofía, Principio de Correspondencia. Véase:
68

reacciones de los objetos grandes, estos no pueden más que originarse de las mismas leyes que se
observan en el mundo microscópico. En el caso de la física, cualquier observación de la física
clásica se origina en la mecánica cuántica. Ahora, preste atención al siguiente ejemplo de
Russell37 (1984) en cuanto a los niveles de organización de la materia: las partículas elementales
se juntan para formar átomos → estos átomos se combinan y forman moléculas → de estas se
forman las micro-moléculas → al combinárseles se da origen a las células simples → de su
combinación nacen las células complejas → de éstas últimas se originan los tejidos y los órganos
→ y esto es lo que da origen a los seres humanos, es decir, a organismos autoconscientes. Esto es
un sistema.

Sin embargo, a Bohr se le cuestionó, puesto que en la mecánica cuántica se presenta el


denominado Principio de Incertidumbre de Heissenberg, este dificulta predicciones tan exactas
.a
inc como en la física clásica. Bohr respondió de la siguiente manera38: cuando se usa el principio de
de correspondencia y se estudian objetos cada vez mayores, las leyes inciertas que gobiernan a las
no
pres partículas subatómicas, deben ir manifestando menor incertidumbre conforme se acercan así a

o las leyes clásicas (p. 45). Asegura también… existe una especie de transición desde lo pequeño
C
de a lo grande según lo cual en ambas teorías debe darse el mismo resultado. Y en el límite,
oi algunos fenómenos podrán explicarse con ambas teorías, a esto se denomina correspondencia. Es
ip
nc decir, este principio permite la correspondencia entre dos teorías que hasta 1923 carecían de
ir
lP
relación alguna.
E
:na
ue
alb
V
na
im
o
R

37 Aparece en El Kybalion.
38 Aparece en: El Ocaso de la Certeza por Salvador Jara Guerrero.
69

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO II: EL ORIGEN DE


LAS IDEAS Y EL
CONOCIMIENTO
CIENTIFICO…

El conocimiento que se adquiere por obligación no tiene ningún poder sobre la mente.

Platón.
70

2.1.- El Conocimiento y las Ideas

El verdadero signo de inteligencia no es el conocimiento sino la


imaginación. La sabiduría no es un producto de la educación,
sino del intento de por vida para adquirirla.
Albert Einstein.
Las ideas son más poderosas que las armas; si no permitimos
que nuestros enemigos tengan armas… ¿por qué hemos de
asentirles el tener ideas?
Joseph Stalin.

lugar en lapor
e entiende
cognoscible conciencia,
delconocimiento,
mundo mediante
a una
exterior laoperación
cual, un de
circundante, sujeto
siendo el y el entendimiento que se da
la mente
cognoscente

S aprehende un objeto
objeto, trascendente al sujeto

cognoscente, condición necesaria para que se reproduzca tal acto. Es cuando el sujeto epistémico
asimila para sí sus cualidades y propiedades. Su razón de ser es la de alcanzar escalando, ciertas
nociones de verdad, de manera que le asienta a comprender los fenómenos que le rodean.

Se dice que un hombre ha adquirido conocimiento cuando demuestra que es capaz de


entender el concepto que representa al objeto y adquiere competencias para juzgarlo. El
conocimiento es el resultado de ejecutar operaciones con las ideas, de su combinación y análisis,
luego de interpretar aquello percibido del exterior. El conocimiento es poder, la ignorancia
oprime… Nada en el mundo es más peligroso que la ignorancia sincera y la estupidez
concienzuda. Martin Luther King Jr.

El conocer se produce a través del trabajo conjunto entre los sentidos y la inteligencia.
Significa que la mente analítica utilice la noción de orden para relacionar, separando así, lo igual
de lo distinto, el efecto de su causa, y ordenar las cosas según ciertas prerrogativas de
operaciones voluntarias. El conocimiento permite al hombre comprender la esencia de las cosas,
lo que son, para qué están allí y porqué. Su adquisición se asocia a la práctica común de cierta
actividad cotidiana.

El conocimiento se transforma entonces en un tipo de fenómeno mental que surge a partir de


las ideas captadas desde los sentidos, donde la información es sometida a las etapas inherentes al
principio de reflexión y finalmente asimilada como creencia. Para que cualquier conocimiento se
cristalice, ciertas fases han de sucederse en la mente. Primeramente, la creencia, la persona cree
que su sentencia es cierta, que contiene verdad o rasgos de ella. Tal acción se fundamenta en la
71

voluntad, en la pasión arraigada hacia lo percibido. Andrés Piquer39, solía decir, nada puede
querer la voluntad sin que la ilumine el conocimiento; <<nibil volitum quin praecognitum>>

La segunda fase se corresponde con la verdad, es allí donde se comparan entonces las ideas,
al contrastar una verdad lógica (formal) contra una material que da como resulta un juicio. Es en
la tercera fase, justificación, donde la creencia en el conocimiento es alimentada, y como de la
comparación resultó un juicio no corrupto, entonces el entendimiento le percibe claramente.
Sepamos diferenciar estricta y coherentemente entre conocimiento y entendimiento. El primero
es la acción mental de la aprehensión de la esencia de la cosa, el segundo, sabiendo lo que la
.ntífico cosa ya es, consiste únicamente en usarla como operación resultante de su inteligencia.

Es así como hasta el momento tenemos a las creencias, la verdad y la justificación, ninguna
ie
toC funcionaría sin la existencia de las ideas. A estas últimas por su lado, se les concibe como una
imen unidad mental, en un primer momento aislada y que puede ser representada como un concepto.
Cuando la conciencia establece relaciones lógicas entre diferentes ideas, se crean nociones
oc
no mentales que dan forma a una proposición, de hecho, toda proposición es una relación entre al
lC
e menos dos ideas. Las ideas en la mente existen como potencias mentales que luego de
sy
ae procesadas por la inteligencia dan orden a las operaciones del entendimiento.
Id
sla Las ideas se generan en la conciencia, y son la evidencia que patentiza una operación
e
d intelectual. Para Locke40, las ideas son aprehensiones del sujeto cognoscente y no propiamente
nge
conocimientos, sin embargo, son estas las que permiten construir el conocimiento humano. Sin
ir
lO ideas las sensaciones carecen de forma, toda sensación es por tanto objetiva. Más, las ideas
E
:na conforman la parte subjetiva que cristaliza conocimientos. La ciencia depende de las ideas, sin
ue embargo, allí la dificultad estriba no realmente en concebirlas, sino, en deshacerse de las viejas.
alb
Locke41 argumenta que las ideas sólo tienen un origen:
V
na
oim Todas las ideas vienen de la sensación o de la reflexión42. Supongamos, entonces,
que la mente sea, como se dice, un papel en blanco, limpio de toda inscripción, sin
R
ninguna idea. ¿Cómo llega a tenerlas? ¿De dónde se hace la mente con ese
prodigioso cúmulo, que la activa e ilimitada imaginación del hombre ha pintado en
ella, en una variedad casi infinita? ¿De dónde saca todo ese material de la razón y del
conocimiento? A esto contesto con una sola palabra: de la experiencia; he allí el
fundamento de todo nuestro conocimiento, y de allí es de donde en última instancia
se deriva.

39 Andrés Piquer (1781; p. 18). Cap. IV: De Las Cosas que Acompañan a los Actos del Entendimiento.
40LIBRO II. CAPÍTULO 1. De las ideas en general y de su origen. En: Ensayo sobre el Entendimiento Humano. (1999) Véase.
41Puede leerse en el mismo aparte.
42 Según la óptica de David Hume, percepción es toda representación alojada en la mente, en consecuencia, las hay de dos tipos: las impresiones
y las ideas. Las primeras son fuertes y bastantes claras a la conciencia, es de allí donde surgen las ideas como copias de tales impresiones alojadas
en la mente pero no tan fuertes como las impresiones. Pues toda impresión deja como marca una idea, a su vez, no hay ideas que no tengan como
origen alguna impresión.
72

A lo planteado por Locke, William Whewell43 (1840; p. 21) agrega: los únicos procesos
mediante los cuales es posible construir la ciencia son la Explicación de Conceptos y la
Concatenación de Hechos. Los hechos se corresponden con los materiales de la ciencia, pero
todos los hechos envuelven ideas. En ese sentido, al observar hechos no es posible excluir ideas,
se debe entonces, para propósitos de la ciencia, asegurarse de que cada idea sea clara y
rigurosamente aplicada.

Basada en ideas innatas, la razón produce un orden que le consiente a establecer la posibilidad
de formular hipótesis plausibles atribuibles a la psicología de procesos cognitivos. En todas las
.ntífico ciencias, ciertas ideas en un primer momento parecen extrañas44, no obstante, son esas
nociones mentales las que permiten establecer secuencias sobre operaciones hipotéticas
ie conformadas como imágenes en el cerebro humano, alzándose sobre el fenómeno y
toC
explicándolo. Según la psicología, toda buena idea se mejora con la concentración, en este estado
imen
se producen los denominados flashes perceptivos o razonamientos de alta velocidad.
oc
no Es en el estado de concentración donde un efecto encuentra su causa. Según Locke Op, Cit.
lC
e El científico necesita haber desarrollado las facultades naturales de percepción, comprensión y
sy
ae memoria. Además de facultades innatas como: la abstracción, la comparación y el
Id
discernimiento. La combinación de ellas da origen a la facultad de teorización. Es allí donde
sla
cada juicio se afina a manera de distinguir y separar las ideas similares de las contrapuestas. Al
e
d
nge comparar ideas en las cuales sus acuerdos y desacuerdos no puedan ser establecidos a primera
ir vista, especialmente si su naturaleza no admite una relación precisa de la una con la otra,
lO
E entonces es necesario establecer coincidencias mutuas entre las partes mediante una tercera idea,
:na
denomínese a este proceso relaciones remotas.
ue
alb
Las relaciones remotas permiten descubrir significados entre ideas usando símbolos
V
na intermedios, en el descubrimiento de relaciones entre ideas se comparan instancias coincidentes
oim
con instancias no coincidentes. Si en un primer momento no existen o no están presentes, se
R
precisa entonces de la intervención de una tercera idea, a esto se llama razonamiento, siendo esto
último lo que a la final permite cristalizar conocimientos. Se dice que se ha completado un acto
de razonamiento, sólo cuando se emite un juicio basado en la comparación de una idea
intermedia con las de sus extremos.

43 Véase: Aphorism Concerning Science: Aphorism I and IV.


44 Einstein presentó varios trabajos que para muchos eran derivados de ideas extrañas: 1- Medir la velocidad de la luz usando como instrumento a
un interferómetro. 2- Concibió la idea para determinar el efecto del calor en la conductividad eléctrica de un material. Ambos fueron rechazados
por Weber su director de tesis. Incluso al cambiar de director, un tercer proyecto le fue rechazado por simple. A raíz de ello no podía encontrar
empleo y no lo aceptaban como profesor en las universidades. En cierta época debió sobrevivir dando clases particulares con clientes que captaba
de publicaciones en los periódicos. Presenta entonces en 1907 su primer artículo sobre la teoría de la relatividad en la Universidad de Berna, el
cual fue rechazado porque no pudo ser comprendido. Quizás la idea más extraña de Einstein fue el afirmar que nunca habló hasta los tres años
puesto que no deseaba hacerlo como otros niños con palabras cortadas, y hasta que no se sintiera formado para dialogar con frases completas no
lo iba a hacer.
73

A la primera se le denomina premisa mayor y contiene al objeto cognoscible, a la intermedia


o conectora se le llama premisa menor y es la que presenta las características atribuidas al objeto,
por último se da la conclusión, juicio mediante el cual se asienta un conocimiento mediante

arbitraje de una idea intermedia. En virtud de que la mente las ordena jerárquicamente,
colocando una después de la otra, se obtiene como resultado un conocimiento que no pudo ser
formado sin las premisas. Se concibe a esto como un acto de razonamiento, y se explica como
resultado de describir exactamente lo que pasa en el cerebro cuando la mente le sigue la pista a
las ideas y las concatena.

.ntífico No obstante, y según precisa Kant, el conocimiento no solo se sirve de las categorías
anteriormente descritas sino que les son necesarios ciertos mecanismos de síntesis, a través de
ie los cuales, el ser humano adquiere conocimientos y estos son 3: los sentidos, la apercepción45 y
toC
la imaginación 46 . El sentido representa la percepción y el reconocimiento de estímulos
imen
sensoriales específicos. La apercepción admite el reconocimiento y categorización de
oc
no combinaciones de recuerdos, así como, entradas sensoriales nuevas y que serán unificadas
lC entendiéndolas como experiencia sensible. Por último, la imaginación, este mecanismo asocia y
e
sy sintetiza ideas sin la acción de algún impulso sensorial.
ae
Id 2.2.- Sobre el Significado y Origen de las Nociones
sla
e
d Para comenzar, denominaré Percepción al procedimiento mediante el cual nuestros sentidos
nge
ir captan las primeras esencias de las cosas y a su vez, éstas son grabadas en la memoria.
lO Condición que posee todo ser viviente pues, cada sentido tiene su tipo de percepción que le es
E
:na propia. Percibir es aprehender para nuestro interior, las características y atributos que nuestros
ue sentidos captan desde cosas exteriores. Las percepciones son la génesis de toda teoría científica
alb
V pues de ellas el intelecto se alimenta, las usa para comparar, para discernir lo verdadero de lo
na
falso. De acuerdo a (Ferrater, 2000), el término percepción alude primeramente a una
oim
R aprehensión, pero cuando esta afecta las realidades mentales se habla de aprehensión de
nociones.

Las percepciones no llevan ni ameritan un orden de sucesión, pero para que el pensamiento
las transforme en ideas, la facultad, acción y condición de percibir debe manifestar cierto orden,
secuencias repetitivas de la misma cosa. Quiere decir, el intentar identificar un patrón repetitivo

45 Apercepción: se le concibe como una operación de la mente y la inteligencia a través de la cual el ser humano asigna sentido epistémico a una
idea, y que posteriormente será guardada por asimilación con el conjunto de ideas preexistentes. Logrando así trascender desde el conocimiento
figurativo o simbólico, al conocimiento operativo, este último, es el que admite la construcción de la realidad.
46 Puede ampliarse este aparte en el excelente libro de Peuquet, Donna (2002). Representation of Space and Time.
74

o secuencial de los elementos grabados en la memoria y procesados por el pensamiento


inteligente, como condición necesaria, dan origen al conocimiento.

No obstante, si hay carencia de uniformidad en el conjunto universal de las impresiones de los


sentidos, y éstas no se suceden siempre igual, el conocimiento no se alcanzaría y el ser humano
cesaría de pensar. El poder de pensar o de asociar grupos y secuencias de impresiones
inmediatas o almacenadas, desaparece si estos grupos y secuencias no tienen elementos
permanentes que les permitan ser clasificadas y comparadas. De manera que, así opera la
facultad perceptiva del ser racional según Karl Pearson (1900).
.ntífico
Como el conocimiento no viene solo ni nace por casualidad, a continuación describo algunas
formas de adquirir conocimientos de manera natural, existen varios tipos de conocimiento fuera
ie
toC del ordinario: el denominado conocimiento Inmediato o directo e intuitivo; los a priori y a
imen posteriori; además del conocimiento demostrativo.
oc
no
lC
e
sy
ae
Id
sla
e
d
nge
ir
lO
E
:na
ue
alb
V
na
oim
R
75

2.3.- El Conocimiento Inmediato – Directo o Intuitivo

Se entiende como conocimiento inmediato al proceso mental encargado de que el hombre


reconozca los objetos que observa, es una facultad de la memoria que le asiente a identificar
inmediatamente a una cosa previamente grabada en ella y donde no media la demostración.
Según la fenomenología del conocimiento, este se corresponde con la etapa sensorial. Desde ese
punto de vista, todo conocimiento inmediato se basa en la experiencia.

La vista capta y la mente interpreta lo que al hombre se le presenta, es el resultado del dato
sensorial de la visión que no involucra ninguna inferencia ni ha sido objeto de raciocinio o
.ntífico
reflexión. Se le conoce como inmediato puesto que a la esencia del objeto conocido no se le
interpone la esencia de ningún otro objeto, no existe proceso intermedio alguno entre el dato
ie
toC observado y la conclusión expresada. Es diferente al conocimiento mediato, el cual se obtiene
imen como producto del razonamiento por la inferencia.
oc
no A la intuición por su lado, se le conoce como el acto inmediato generado en el inconsciente47
lC que permite interpretar la verdad de una proposición o se aprehende a un objeto como concepto.
e
sy También a la forma de conocer inmediatamente la verdad sin la intervención de algún
ae
Id razonamiento lógico y donde no ha intercedido ningún análisis. Para Kant, en ciencias, los
sla conceptos sin intuición son vacíos y la intuición sin conceptos esta ciega. Según
e
d Soyarslan48(2011), el conocimiento intuitivo y la razón, bajo las consideraciones de Spinoza,
nge
ir difieren sólo en términos de su método. Ambos son formas adecuadas de conocimiento pero no
lO
iguales, afirma Spinoza que la más grande perfección humana consiste en entender cosas
E
:na mediante el conocimiento intuitivo, simplemente porque es superior a la razón.
ue
alb Una conceptualización más reciente de conocimiento intuitivo en ciencias aparece reseñada
V en Lindstron; Marton; Ottoson y Laurillard (1993):
na
oim
R El conocimiento intuitivo en ciencias consiste en formular o resolver un problema a
través de una repentina iluminación basada en una percepción global del fenómeno.
Admitiendo que su origen proviene de una amplia variedad de experiencias de tal
fenómeno a lo largo del tiempo. Una de las características más resaltantes del
conocimiento intuitivo es que es difícil de verbalizar. (264 – 265).
El conocimiento intuitivo es momentáneo, desaparece muy rápido, al mismo tiempo que la
sensación que lo genera también lo hace. No se restringe a lo que el hombre pueda percibir a
través de los sentidos, sino que entra hasta el plano intelectual. Este conocimiento es la génesis
de todo saber. La exposición a acciones sensibles no se constituye en sí en un verdadero acto de

47 El conocimiento generado en la conciencia es producto de la mente analítica.


48 Véase: Reason and Intuitive Knowledge in Spinoza’s Ethics: Two Ways of Knowing, Two Ways of Living.
76

saber, sólo admite observar determinado fenómeno particular, y por no presentar conexión con la
razón y el entendimiento, es imposible extraer de él el porqué de cada cosa. Para ello son
necesarios otros tipos de conocimiento.

2.4.- Los Conocimientos A Priori y A Posteriori

A Priori, según (Rosental & Iudin, 2004), término de la filosofía idealista que designa un
saber obtenido antes e independiente de la experiencia. A Posteriori, a diferencia de A Priori,
designa todo aquel saber obtenido de la experiencia. Para Kant49, es aquel conocimiento que se
concibe lógicamente, y no temporalmente, a la experiencia. Lo admite como un tipo de
.ntífico
conocimiento válido, necesario y universal.

ie Entre los conocimientos a priori descritos por el autor, reciben el nombre de puros aquellos a
toC
los cuales no se les ha añadido nada empírico, es decir, es independiente de esta o aquella
imen
experiencia. Como ejemplo: la proposición «Todo cambio tiene su causa» es a priori, pero no
oc
no pura, ya que el cambio es un concepto que sólo puede extraerse de la experiencia. A aquellos
lC que conciben que el mundo se pueda llegar a conocer mediante sólo la intuición y la razón pura,
e
sy deslindándose de cualquier observación o experimento, se les conoce como Aprioristas. Es de los
ae
Id conocimientos a priori de donde Kant extrae el Problema General de la Razón Pura.
sla
e El conocimiento A Posteriori o Empírico, se constituye en un estado mental mediante el cual
d
nge se establecen relaciones entre sucesos o fenómenos en el devenir del tiempo. Se convierte
ir
entonces en el centro de análisis del pensamiento, activándose un proceso que permite al
lO
E
:na intelecto observar variaciones en el objeto, es allí donde se lía tal objeto con su concepto y el
ue pensamiento incrementa su significado. El conocimiento a posteriori es resultado de la
alb experiencia humana, donde las teorías y las ideas pueden ser corroboradas por la realidad, se
V
na torna entonces en una creencia que genera confianza.
oim
R

49Crítica a la Razón Pura. I. IDEA DE LA FILOSOFÍA TRASCENDENTAL. Véase.


77

2.5.- El Conocimiento Demostrativo

El conocimiento adquirido por demostración implica que la mente, a través de la prueba, ha


sido persuadida, y es cuando al menos dos ideas se tornan conformes a los actos del
entendimiento, pues le ha sido presentada una certificación de esa verdad obtenida mediante
ilación de ideas intermedias. Este tipo de conocimiento le permite a la mente asentir que es así y
no de ninguna otra manera, la relación observada entre el fenómeno y la realidad sobre la cual
este actúa.

En ese sentido, puede agregarse que el conocimiento demostrativo es el resultado de una


.ntífico
inferencia de la mente analítica que a través de la evidencia ha disipado cualquier duda, lo que se

ie constituye de hecho, en la esencia de toda ciencia. Una serie de conocimientos lograrán alcanzar
toC el grado científico sólo si después de su adquisición, es posible demostrar que están
imen concatenados entre sí por sus relaciones lógicas.
oc
no Ya que, toda investigación que se considere científica ha de cumplir con los preceptos de la
lC lógica, su condición de validez descansa precisamente allí, en la propiedad y atributo que admite
e
sy la demostración del conocimiento de ella derivado. En vista de que todo conocimiento parte
ae
Id desde nociones previamente adquiridas, es decir, de experiencia. Sólo se conocerá una cosa
sla después de haber conocido su causa. Entonces, la demostración en sí es netamente explicativa, y
e
d se aceptará como demostrado posterior a que este acto se halla ejecutado, la acción demostrativa
nge
ir se perfeccionará entonces a través de las enumeraciones de evidencias o ideas particulares.
lO
E
:na La Apodeixis o demostración según Platón, consiste en una forma de la retórica aplicada por
ue los filósofos donde se justifica lo que se pretende saber, y se hace por oposición a la simple
alb persuasión. Según Aristóteles (Segundos Analíticos), se conoce como demostración al silogismo
V que produce ciencia, entonces, el principio lógico de estas, Apodeixis, consistirá en la
na
oim derivación.
R
Ya que la persuasión se vale de analogías, metáforas y ejemplos para lograr su cometido, y en
vista de que un ejemplo no es más que una inducción. Además, la persuasión amerita de
evidencias que por sí sola no contiene una inducción, ya que las inducciones no garantizan la
transferencia de verdad desde las premisas hacia las conclusiones, pues es esencialmente
probabilística. Lo obtenido a través de la demostración, es decir, lo opuesto a la persuasión,
habrá de denominársele ciencia demostrada.

Aquello de lo que se pueda persuadir puede o no ser verdadero, la persuasión es para el


sofista lo que la demostración para el científico. El aprendizaje por demostración es absoluto y
78

no sofista, ya que, no es lo mismo creer algo que saberlo, para lo segundo es necesaria la
demostración, para lo primero la religión. La demostración se transforma entonces, en el único
medio para obtener un saber cierto sobre algo.

Para la fenomenología del conocimiento, la demostración se corresponde con la etapa

racional, agregando certidumbre a todo aquello que ha sido descubierto. Sin embargo, el
conocimiento demostrativo solo existe en las conclusiones de los silogismos, siendo imposible
que se encuentre presente en las premisas básicas de estos. En escritos de Locke 50: el
conocimiento demostrativo es mucho más imperfecto que el intuitivo (p. 528), simplemente
.tífico porque requiere que el hombre sea capaz de retener semejante serie de ideas particulares.
Algo que excede las capacidades humanas.
ien
toC A ello Platón agrega que solo la intuición intelectual puede ser más verdadera que el
imen conocimiento demostrativo. Cualquier verdad científica siempre estará expuesta ante tres tipos
de analistas; los dogmáticos, los escépticos y los moderados. La demostración a través de la
oc
no evidencia aleja a los dogmáticos e impide el paso a los escépticos, es donde entonces los
lC
e moderados hacen uso de aquello concebido a la luz de la verdad.
sy
ade Según Aristóteles, en (Popper, Escritos Selectos, 2006), el conocimiento, Epísteme o ciencia,
I
sla puede ser de dos tipos: demostrativo o intuitivo. Se entiende por conocimiento demostrativo a
de aquel que se adquiere cuando se dan a conocer las causas, basado en afirmaciones que pueden
nge
demostrarse (p. 94 y ss.). El conocimiento demostrativo es el conocimiento de la esencia de las
ir
lO cosas, es aquel que requiere de entendimiento amplio, cierto y verificable, además de una
E
:na aplicación contextual sobre determinado evento presuponiendo relaciones entre ideas claras.
ue
alb En ese sentido, Santo Tomás también aseguraba que el conocimiento de la causa era
V conocimiento demostrativo. Contrariamente, para David Hume en (Goefrey, 2005), el
na
mi conocimiento está reservado a la matemática pura, y la demostración es sólo una cuestión de
o
R comparación de ideas, (p. 61).

Goefrey (p. 171) argumenta que en la antigüedad había al menos dos tipos de evidencias
asociadas a dos tipos de teorías. En primer término, las causales, estas permitían inferir causas a
partir de signos. Donde la evidencia observacional jugaba un papel importante en el
descubrimiento de tales causas.

El otro tipo de teorías fueron las matemáticas. Hoy día se usa la idea de prueba experimental,
que además de aceptar/rechazar teorías, permite la evidencia probatoria. Locke Op. Cit, aduce

50 Cap. I: Del Conocimiento en General. En: Ensayo sobre el Entendimiento Humano. (1999) Véase.
79

que el segundo grado de conocimiento en ciencias es el demostrativo, sin embargo, existen casos
donde la mente permanece en ignorancia por la desgracia del no saber pensar y al no poder
comparar ideas, no al menos inmediatamente, lo cual explica51 así:

La razón por la que la mente no siempre puede percibir inmediatamente el acuerdo o


el desacuerdo de dos ideas es porque esas ideas, respecto de las cuales se inquiera su
acuerdo o desacuerdo, no pueden ser reunidas por ella para hacerlo patente.
Entonces, en este caso, cuando la mente no puede reunir sus ideas por una
comparación inmediata, para percibir su acuerdo o desacuerdo, o por una
yuxtaposición o aplicación la una de la otra, se ve obligada mediante la intervención
de otras ideas (de una o más, según los casos) a descubrir el acuerdo o desacuerdo
que busca; y a eso es a lo que llamamos raciocinar.
.ntífico

ie
toC
imen

oc
no
lC
e
sy
ae
Id
sla
e
d
nge
ir
lO
E
:na
ue
alb
V
na
oim
R

51 Libro IV del Ensayo sobre el Entendimiento Humano. Capítulo ii. Sobre los Grados de Nuestro Conocimiento. 2. Conocimiento Demostrativo.
80

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO III: SOBRE EL


SIGNIFICADO DE LAS LEYES
CIENTIFICAS…

Las causas primarias nos son desconocidas; Pero están sujetas a leyes simples y constantes, que
pueden ser descubiertas por la observación, siendo el estudio de ellas el objeto de la filosofía
natural.
Opening statement from 'Discours Préliminaire' to Théorie Analytique de la Chaleur (1822), i,
translated by Alexander Freeman in The Analytical Theory of Heat (1878), 1.
81

3.1.- Acerca de las Leyes Científicas

Los Principios y Leyes Científicas no se encuentran ni


subyacen en la superficie de la naturaleza. Están escondidos, y
deben ser arrancados de ella por una técnica activa y
elaborada de investigación.

Jhon Dewey.

na Ley Científica es una construcción intelectual del hombre de ciencia como resultado

U de al menos dos procesos; una actividad mental abstracta y la agrupación de un


conjunto de datos. Consiste en una sentencia legaliforme que describe un orden
relacional sobre un fenómeno, y el cual permanece invariante bajo determinadas condiciones.
Allí, sus prerrogativas o supuestos disipan toda sombra de duda del mecanismo invisible que une

a las diferentes etapas de un evento, relacionándose entre ellas por medio de interacciones,
niveles jerárquicos e intervalos temporales con propiedades matemáticamente explicables. Pues,
toda ley involucra magnitudes y ecuaciones que permanecen fenomenológicamente invariantes.
Las Leyes Científicas presentan un patrón que se modela matemáticamente basado en supuestos
audaces que admiten demostración. Y son los procesos de la Investigación Científica los que
permiten al científico descubrir lo oculto en aquello que ha estado siempre tangible.

Toda ley es objetiva, con rasgos de practicidad e interactividad entre lo que permanece

invariante en el fenómeno y las imágenes que éste imprime en la mente del hombre de ciencia.
Su carácter objetivo descansa sobre el hecho de que todo objeto carece de voluntad propia, por
tanto, sus acciones estarán determinadas por cierta cantidad de reglas, magnitudes y cantidades
que lo describen y les son inherentes, no pudiendo este desprenderse o separarse de ellas.

La practicidad se presenta cuando ya el científico, conociendo la ley que rige y gobierna tal
fenómeno, hace intentos por transformarlo y ajustarlo a su entorno práctico. Henry Poincaré
sostenía que una ley es un vínculo constante entre un antecedente y un consecuente, entre el
estado actual del mundo y su estado inmediatamente posterior. Allí se hace presente una
relación constante que explica el mecanismo regulador del accionar del objeto de estudio.

Para (Bunge, La Investigación Científica: Su Estrategia y su Filosofía, 2004); una proposición


es un enunciado o ley, si y solo si, a posteriori generaliza sobre algunos aspectos sin hacer
referencia a uno único del fenómeno, además, puede ser satisfactoriamente corroborada por el
tiempo en su dominio y pertenece a una teoría. Afirma en consecuencia; una ley en ciencia es
82

una clase especial de hipótesis y consiste en el objetivo central de la investigación científica; por
medio de teorías se unifican leyes, y a través de ellas se pueden entender y prevenir
acontecimientos (p. 265).

En ese mismo orden, a una laboriosa clasificación de hechos, su comparación, relación y


secuencia. Donde finalmente se llegue a un descubrimiento, añadiendo con imaginación
disciplinada una breve sentencia o formula, para resumir en último término y en pocas palabras
un amplio rango de hechos, es un proceso donde a éste y a su fórmula terminada se le denomina
Ley Científica, Karl Pearson (1900, p. 77). Alega también el autor, el conocimiento que provee
una ley científica permite al hombre de ciencia reemplazar o suplir asociaciones mecánicas por
asociaciones mentales y del razonamiento. Una ley científica se relaciona directamente con los
as
ifc procesos y concepciones formadas desde las perspectivas que solo se producen como facultades
t
nie humanas.
C
se
yLe Las leyes ameritan de condiciones iniciales de características sencillas, pero que uniforme y
sla pacientemente acompañan al fenómeno en todas sus instancias. Pues, una ley es lo único que
de
permite explicar el porqué, aquello que varía, lo hace de determinada manera. Convirtiéndose
do
aic indubitablemente, en un requisito para exponer eventos desde su mínima representación hasta
nif
gi llevarlo al nivel predictivo. Allí, gran parte de tales condiciones iniciales han de ser abducidas
S por el científico. Para crear una ley, es recomendable primero construir un modelo concreto e
el
re
bo ideal que aglutine al conjunto de datos y supuestos iniciales, permitiendo así el visualizar a
:S
na través de lo segundo, el cómo interactúa y opera lo primero.
ue
lb Se ejecutará entonces tal observación desde lo más abstracto hasta lo menos abstracto. En lo
a
V menos abstracto, se introducirán teorías de nivel alto que darán soporte al contexto explicativo
na
oim sin concentrase en elementos superfluos y excluibles de él. Cuando el hombre de ciencia dice
R haber descubierto una ley, ha abstraído, comparado, discernido y eliminado, todo material
científicamente estéril. El pináculo de la ciencia es precisamente ese, descubrir leyes que rigen
fenómenos, es la evidencia que patentiza la afinación de juicios y la separación de ideas, pues, no
existe nada más allá de tal descubrimiento, es así como la concreción de una ley consiste en la
medalla de oro de las olimpíadas científicas.

No obstante, no es posible explicación científica que no se soporte sobre alguna teoría, ya


que, las teorías a través de las descripciones amplían las explicaciones abriendo paso de esta
manera a la comprensión. Es en el estadio comprensivo donde el espíritu satisface sus ansias
cognitivas, es allí donde todo adquiere sentido. Para generalizar como resultado de una ley se
requiere abstracción, pero puede existir abstracción sin llegar a la generalización. Desde el punto
83

de vista semántico, toda ley requiere de la concatenación de conceptos, es decir, de contenidos


con gran significado, y una de las formas de liar conceptos de alto nivel científico con los de bajo
nivel entre ciencias de disciplinas científicas diferentes es creando o eliminando puentes de leyes

entre estas. Esto es posible a través del Reduccionismo o su teoría contrapuesta el


Emergentismo52.

Según Rosental – Iudin (2004, Véase concepto de Reducción):

La reducción es una de las formas en la que se expresa la conexión necesaria entre


los elementos de una teoría lógica o científica en general. En la lógica matemática,
expresada en forma de teoría deductiva, la reducción aparece como procedimiento
para obtener axiomas partiendo de las correspondientes proposiciones de la teoría. La
as
reducción establece un nexo racional entre las proposiciones de teorías que poseen
ic un distinto grado de generalidad.
tif
nie El concepto Reducción desde la literatura de Ferrater Mora (2000):
C
se La reducción es un método que se contrapone a la deducción. En la deducción se
yLe derivan unas proposiciones de otras por medio de reglas de inferencia. En la
sla reducción, se deriva el antecedente de un condicional, de la afirmación de un
consecuente. En un sentido más general… la reducción puede referirse, por supuesto,
de
tanto a un objeto real como a un objeto ideal. En el primer caso es una forma de la
do
ac recurrencia o aún la recurrencia misma por la cual un estado más desarrollado se
nif convierte en un estado menos desarrollado. Por eso la reducción es llamada entonces
gi también, según los casos, regresión o involución. En el segundo caso, la reducción
lS equivale al paso de lo fundamentado a su fundamento.
e
re
bo La diferencia radical entre una teoría y una ley es que la primera puede llegar a ser sólo eso,
:S una teoría, será ridiculizada y luchará contra otras en su dominio. Pues tratará de abordar la
na
ue explicación que más se ajuste a la lógica de los hechos observados, quiere decir, propone
bl
a respuestas cuando existen vacíos cognitivos. Contrariamente, una ley predice resultados exactos
V
na según ciertas prerrogativas admitidas para sus condiciones iniciales, son reglas invariantes que
oim acompañan al fenómeno, verdades universales con características determinísticas.
R
Manteniéndose invariante para todas sus instancias.

Una teoría puede y debe cambiar con el devenir del tiempo, no así una ley, ésta se resiste a
todo cambio siempre que sus condiciones iniciales presenten uniformidad e invariabilidad.

52 Reduccionismo: consiste en un efecto específico de un dominio particular de una ciencia que es posible reducir a otra. Desde el punto de vista
filosófico, el término se refiere a la tesis universal de que un efecto en una ciencia como la química, es posible reducirlo a los fundamentos de la
física. Pues, las mismas moléculas que aparecen en la química, en ciertos casos son estudiadas también por la física. Este punto de vista es
conocido como la doctrina de la unidad de la ciencia, “Unity of Science”. Encyclopedia of Philosophy of Science, Routledge (1998). Concepto
de: Reduction, Problem of <<Véase>>. La teoría reduccionista considera que una explicación es entendida como aquella que permite conocer
una propiedad de una entidad en términos de propiedades no relacionales entre sus partes. Donde una ley de nivel bajo puede alimentarse de una
de nivel alto simplemente porque coincidan en sus propiedades. Contrariamente, el Emergentismo, rechaza el uso de cualquier tipo de substancia
como dualismo cuando se usa con el propósito de explicar la aparición de una propiedad de alto nivel. La teoría emergentista aduce que entre
substancias existen propiedades de alto y bajo nivel que no pueden ser asociadas, una molécula que aparece en química no siempre presenta el
mismo comportamiento cuando se le introduce en la física, no se trata de la molécula en sí, sino de su comportamiento. La más fuerte de las
premisas Emergentista es la número 4. Se describe así: “Las propiedades emergentes de un sistema entero pueden afectar el comportamiento de
tal sistema”. A esto se le denomina “Downward Causation” o Causación hacia abajo. También recibe los nombres de: Hierarchical Downward
Control” o Control de Causación Descendente; o como Macro determinación. Sarkar y Pfeifer (2006), The Philosophy of Science. Concepto de
Emergence, Véase.
84

Describe recurrentes patrones en los eventos producto de observaciones derivadas desde


experimentos repetidos. Se expresa generalmente en lenguaje matemático y haciendo uso de
ecuaciones.

Es así como, cualquier evento que acontezca en el mundo material, está atado

indubitablemente a los fundamentos de las leyes de la física, y es por consiguiente, explicable a


través de ellas. De esta manera, si tal evento existe, entonces contiene piezas evidenciales que lo
hacen matemáticamente formulable y sigue un orden causal. Cuando el científico centra su
esfuerzo en tratar de explicar aquel conjunto de hechos observados sobre el objeto, está
simplemente haciendo uso de la razón.

as Y la única forma en que la razón puede descubrir causas verdaderas y valederas, es reducir
ifc
t los pensamientos a conceptos y luego estructurar leyes. Antes de hacerlo, claro ha de estar de la
nie
notable diferencia entre las leyes del pensamiento y las leyes naturales.
C
se
yLe
Las primeras se corresponden con el arte del pensar, de discernir, de escribir e incluso hablar.
sla
Son las que admiten al hombre separar lo verdadero de lo falso. Para (Stock, 1888), las leyes del
de
do pensamiento involucran a tres procesos de la misma índole: la concepción, el juicio y la
aic
nif inferencia de razonamiento. La concepción parte desde una simple aprehensión, es el acto de
gi formar en la mente la idea de algo; por ejemplo: cuando se forma en la mente la idea de una
S
el
re copa, se está ejecutando el proceso de concepción.
bo
:S El juicio se corresponde con un estadio más elaborado, allí se necesitan al menos dos ideas
na
ue para comparar y discernir en el sentido en que el objeto es utilizado, y sirve para declarar sus
lb
a acuerdos y desacuerdos. Por ejemplo: una primera idea de la copa en la mente y una segunda
V
na idea de que está hecha de porcelana, al combinarlas se crea el juicio: “Esta copa está hecha de
oim
porcelana”. La Inferencia de razonamiento, es el paso en la mente de una o más sentencias a
R
otras, por ejemplo: desde dos sentencias como: Cualquier cosa que se hace de la porcelana es
frágil, y Esta copa es de porcelana, evoca entonces un tercer juicio: Esta copa es frágil.

Sostiene también Stock… posterior a la afinación de los tres pasos previos se llega a lo
siguiente: Los conceptos surgirán como resultado de la comparación de atributos; los juicios
serán el resultado de la comparación de conceptos, y la inferencia se sobrevendrá como
resultado de la comparación de juicios, (p. 10). De esta manera se crea la estructura paramétrica
y procedimental para la estructuración de leyes científicas soportadas sobre las leyes del
pensamiento en el hombre de ciencia. Contrariamente, las leyes naturales surgen necesariamente
de la abstracción y la observación, describen comportamientos de la naturaleza y son valederas
universalmente.
85

Un enunciado para leyes lógicas <<lo anteriormente descrito se corresponde con sus primeros
pasos>>, se construye sobre las bases de estructuras formalmente válidas de inferencia.
Esquematizando e hilvanando un modelo de razonamiento concreto y correcto. Es así como toda
ley científica posee la capacidad de explicar y predecir, a través de cierto cuerpo de
conocimientos y con rigurosidad profunda, la esencia del fenómeno aludido, develando todo
conjunto de relaciones importantes pero no observables. En ese sentido, John Stuart Mill en
Echeverría (1998, p. 165) argumenta:

Se dice que un hecho individual ha sido explicado cuando se ha proporcionado la


causa del mismo, esto es, cuando se han formulado la ley o leyes que lo causan y de
las cuales el hecho no es más que una instancia… se dice que una ley o regularidad
de la naturaleza ha sido explicada cuando se han formulado otra ley o leyes, de las
sa cuales la ley inicial no es más que un caso, que puede ser deducido de ellas.
ci
fi
t En atención a lo descrito por Mill, préstese atención a los enunciados que dieron origen a las
Cien
Leyes de Kepler53:
se
ye
L Primera Ley: Los planetas describen órbitas elípticas estando el Sol en uno de sus focos.
sa
l
e Segunda Ley: El vector posición de cualquier planeta respecto del Sol, barre áreas iguales de
d
o la elipse en tiempos iguales.
da
ci
if Tercera Ley: Los cuadrados de los periodos P de revolución son proporcionales a los cubos
nig
S
le
de los semiejes mayores a de la elipse.
er
bo Obsérvese que la segunda y tercera ley han sido deducidas de la primera, la cual no es más
S
:a que un caso. Kepler llega a tales leyes luego de una apreciación entre la observación cuantitativa
ne
u
bl y la construcción teorética, la primera se genera luego de analizar las propiedades de las elipses,
a
V para la segunda y tercera, reducidas desde la primera, utiliza las leyes de la lógica formal y la
na
construcción de enunciados basados en axiomas. Las dos propiedades más importantes de las
mi
o elipses son:
R

1. En toda elipse existen dos puntos llamados focos, tal que, la suma de las distancias desde
los focos hacia cualquier punto de la elipse es constante: a + b = Constante.
2. La forma aplanada de una elipse, y que la diferencia de una circunferencia, recibe el
nombre de excentricidad (grado de aplanamiento). Donde la excentricidad de la
circunferencia es un caso especial de la misma.

53 Johannes Kepler (1571 – 1630), Científico Alemán. Muy conocido por el descubrimiento de las 3 leyes que rigen los movimientos planetarios
y la dinámica celeste, las cuales publicó en dos tiempos: 1609 y 1619. Hizo importantes aportes a la ciencia con sus trabajos sobre física óptica
(1604 y 1611). Se le atribuye también el descubrimiento de dos nuevos poliedros regulares (1619). En 1624, hizo importantes declaraciones
acerca del cómo operan los logaritmos. A pesar de ser un hombre de ciencia, todos sus escritos contienen numerosas referencias hacia dios.
Kepler vio sus trabajos como cumplimiento de un deber cristiano de entender la obra de dios. Siempre estuvo convencido de que dios había
creado el universo en consonancia con cierto plan matemático (Platón y Pitágoras creyeron lo mismo). Posteriormente Einstein, adoptaría tal idea
con la frase “Dios no juega a los dados con el universo”. Hoy día, sus obras sirven como referencia en investigaciones científicas donde se
persiga la creación de leyes. Pues, sus tres leyes, subjetivamente explican los mecanismos necesarios y suficientes para tal fin.
86

Kepler llega como conclusión a sus leyes luego de estudiar estas propiedades de las elipses, y
la construcción teorética la sustentó en el Modelo Heliocéntrico de Nicolás Copérnico. Este es
uno de los ejemplos clásicos de reducción de leyes por teorías.

James Clerk Maxwell54 (1831: 1879); uno de los más famosos físicos británicos por el
desarrollo de la universalmente conocida y brillante Teoría Electromagnética de la Luz, la cual
es explicada a través de cuatro ecuaciones fundamentales de la física: la ley de Gauss para
campos eléctricos; ley de Gauss para campos magnéticos; ley de Faraday y la ley de acción
mecánica entre corrientes eléctricas o ley de Ampere.

Basado en trabajos previos de Hans Christian Oersted, Michael Faraday confirma lo


as siguiente: Una corriente eléctrica produce un campo magnético y un campo magnético variable
ifc
t crea una corriente eléctrica; así como: Una corriente eléctrica variable en un circuito induce la
nie
C
aparición de una corriente eléctrica variable en otro.
se
yLe
No obstante, el centro de atención de la teoría electromagnética de la luz de Maxwell, reside
sla
en la demostración de una relación esencial entre la electricidad y el magnetismo, ya que, sus
de
do fuerzas fundamentales carecen de independencia. Existiendo una relación entre la constante
ac
nif eléctrica y la constante magnética que da como resultado la velocidad de la luz. De esta manera
gi
lS 4 leyes fundamentan las explicaciones de una teoría científica, este ejemplo ha sido la reducción
e de leyes por teoría más perfecta hasta ahora conocida.
re
bo
:S Para describir leyes, toda la potencia mental del científico ha de estar centrada en la
na
ue observancia de los hechos y su correcta concatenación. De la observancia parten las ideas, pero
bl
a no podrá concatenarlas si no alimenta su intelecto con axiomas abstractos, y que posterior a su
V
na formulación, deberá correctamente representarlo hacia el universo discursivo donde dirija su
oim explicación. Toda ley científica es en esencia una creación humana. Donde se formulan
R
proposiciones que serán usadas por hombres de ciencia en su esfuerzo colectivo por explicar,
predecir y controlar al mundo. Para con ello entender el funcionamiento del universo.

Se constituyen como una aproximación primera de la realidad y no como las realidades


mismas, siempre tentativas y sujetas a la posibilidad. Es el mejor instrumento del que la ciencia
dispone para explicar fenómenos. Sobre ellas solo hay dos posibilidades, si son refutadas serán
abandonadas o reemplazadas. Si son experimentalmente corroboradas en su dominio, cualquier
sed de intelección por ende será satisfecha.

54 Tomado y reinterpretado desde: James Clerk Maxwell (1873), A Treatise of Electricity and Magnetism. Volúmenes I y II. Al lector que desee
profundizar sobre las relaciones y ecuaciones matemáticas implícitas en la teoría, refiérase al Volumen I: Cap. IV: Teoremas Generales. En el
capítulo XX de su segundo tomo es donde desarrolla por completo los lineamientos que rigen a la Teoría Electromagnética de la Luz.
87

Ya que todo lo que con ella logre ser explicado adquirirá dimensiones deterministas y no
probabilistas. En este punto ya no hay hechos posibles, por el contrario, el conjunto de
argumentos legaliformes se convierten en sujetos de hecho con capacidad demostrativa y
probatoria. Interconectando iterativamente, largas cadenas de ilaciones teóricas con propiedades
matemáticamente explicables haciendo uso de ecuaciones funcionales.

Con respecto a las ecuaciones funcionales, Falmagne y Doble (2015; p. 27) sostienen que
existen situaciones en ciencia o en matemáticas, donde la intuición del investigador sobre el
fenómeno lo guía hasta una ecuación que involucra a una o más funciones desconocidas. Por
presenta su origen en la intuición, significa entonces que se sucede en una etapa temprana de la
investigación donde el científico asume cierta especificidad acerca de la forma de las funciones.
as
ic
tif 3.2.- Modelo Kuipers55 de Reducción de Leyes por Teorías
nie
C
se El modelo Kuipers de explicación de leyes por teorías consiste en una estructura de
yLe
sla
razonamiento basada en modelos, está sustentado en 10 ejemplos extraídos de la física y
de aplicados a la sociología. Para el autor, las explicaciones de leyes por teorías presentan diferentes
do formas, más sin embargo, contiene sólo 5 tipos de pasos: aplicación (1); agregación (2);
ac
nif
identificación (3); correlación (4) y aproximación (5). Como regla, cada paso requiere de un tipo
gi
lS específico de hipótesis auxiliares, y han de sucederse en orden, pero con ciertas excepciones.
e
re
bo Donde no todas las explicaciones han de contener todos los tipos de pasos, y algunos podrán
:S
na presentarse más de una vez. En el paso de aplicación, la teoría es adaptada al tipo de objeto que
ue con la ley se pretende explicar, implícita o explícitamente. En el paso de agregación, el efecto
lba
V legaliforme total, y que representa a los objetos individuales es calculado. Sin embargo, requiere
na de hipótesis estadísticas auxiliares. En el paso de identificación, se procede a transformar el
oim
resultado de la ley agregada, usando para ello, algunas identificaciones hipotéticas y supliéndolas
R
como hipótesis auxiliares, allí se conectan los términos de la teoría con los de la ley.

En el paso de correlación, toma forma una similar transformación, pero sobre las bases de
hipótesis causales auxiliares. Y por último, en el paso de aproximación, la ley hasta ahora
obtenida es transformada hacia el modelo buscado, sobre las bases de una hipótesis auxiliar
idealizada. Contrario a los pasos anteriores, el último consiste en un paso no deductivo. P. 31.

Kuipers argumenta que las reducciones representan a una sub-clase de explicación de leyes,
conteniendo al mismo tiempo, al menos un paso de agregación, identificación o aproximación.

55 Theo A. Kuipers. Matemático y Filósofo. Profesor Emérito de la cátedra: Filosofía de la Ciencia en la Universidad de Groningen. Países Bajos.
Structures in Science: Heuristic Patterns Based on Cognitive Structures an Advanced Textbook in Neo – Classical Philosophy of Science. Véase.
88

Cuando se presenta el caso de que la explicación a una ley hace referencia únicamente a los
pasos de aplicación y correlación, no se constituirá de ninguna manera en reducción. La Micro
Reducción, consiste en una reducción con un paso de agregación, o simplemente, reducción por
agregación. Por otro lado, una reducción sin agregación, pero con identificación o aproximación
es llamada Isoreducción.

Una reducción con un paso de identificación o simplemente reducción por identificación se


denomina Reducción Heterogénea. A una reducción con los pasos de agregación o
aproximación pero sin correlación, se denomina Reducción Homogénea. Finalmente, toda
reducción basada únicamente en el paso de aproximación, o reducción por aproximación, será
llamada Reducción Aproximativa. Si carece de este paso, pero conteniendo agregación o
as
ic
tif correlación, se denominará Reducción Deductiva. Bajo este modelo, un formato de explicación
nie de leyes por teorías sería el siguiente:
C
se
yLe Una teoría “X” reduce a una ley “L”, o “L” puede ser reducida, para/por “X”, si y
solo si: se presentan una condición sistemática y una condición temporal. Para la
sla
Condición Sistemática: “X” explica “L” de acuerdo con el modelo de los 5 pasos,
de con al menos uno de los 5 pasos, la agregación, o paso 2 provista, no es una trivial
do
identificación de (3) o aproximación de (5). Con respecto a la Condición Temporal:
aic
nif “L” ha sido establecida antes que “X”, es decir, la ley ha sido establecida anterior a
la teoría. Donde la ley ya fundamentada, da paso a la teoría de su fundamento. Es de
gi
S acotar que una explicación cruzada de leyes no es un ejemplo de obtención de leyes
el por reducción. P. 90.
re
bo
:S
na
ue
lb
a
V
na
oim
R
89

3.3.- Sobre la Im/Posibilidad de Leyes Científicas en la Investigación Social

Jamás he sido partidario del Método de las Ciencias Sociales.


No es que he perdido mi humildad y nobleza. Sino que, hay al
menos dos cosas que de él me preocupan: nunca consigue lo
que se propone; y cuando lo hace, es incapaz de demostrarlo.
Entonces, tal método, está condenado a agotarse.

Roiman Valbuena.

ellashombre
claramente no
queSes
Ciencias ociales
lamás que
voluntadun
delsconsidera
se les er
hombre yun los científicos
la naturaleza
bio-social, fenómeno es sociales
complejo,
totalmente no
donde han
se mostrado
distingue
distinta.

A
avances en cuanto a liar al ser humano con los modelos bio-matemáticos usados en las ciencias
Aunque

naturales, ni mucho menos como partículas o grupos de estas usados en la física teórica. En la
Investigación Social las relaciones necesarias entre sujeto y objeto no se profundizan, mucho
menos son formalmente demostrables. Eso la convierte en una ciencia opinática o simplemente
en construcción, pero con gran potencial de desarrollo.

Cuando el hombre no puede discernir de aquellas verdades que le han sido presentadas, y
tampoco puede observar la relación entre el concepto y su hecho, engendra entonces
desconfianza, tendiendo a alejarse de aquello que como cierto le ha sido mostrado. Denominará
entonces opinión, a toda idea invisible que aloje en su mente, y que no pueda fortalecer con
argumentos <<cuestión sobre la cual se disputa una verdad>>, ni mucho menos demostrar a
través de sus propiedades simples y básicas. Pues el hombre con la verdad se sosiega y satisface,
mas no así con la opinión.

En la Investigación Social se dificulta estructurar explicaciones universales de su fenómeno a


pesar de contar con un gran cúmulo de hechos. No obstante, presenta todas las características que
la hacen atractiva para convertirla en una ciencia nueva. En su método, al investigador se le
impide usar la intuición, elemento que forma parte irreductible del marco científico de la mente.
Pero se le exige una honestidad científica <<cada frase que pronuncie ha de ser corroborable por
los hechos>> que el proceso mismo reprime. Su formalismo lo ata a una metodología estéril,
improductiva y vacía, donde cobra más importancia el método que el resultado. Los predicados
de sus conceptos, común y ciertamente, presentan nexos de unidad y coherencia, mas no de
profundidad de pensamiento y abstracción.
90

La naturaleza de los argumentos sociales, en su gran mayoría, provienen de la retórica56, allí


se generan argumentos meramente y no absolutamente probables <<argumentos persuasivos>> o
simplemente dialecticos derivados de opiniones aceptadas57. Confundiéndose comúnmente en el
discurso, la argumentación con el argumento, la primera se corresponde únicamente con los
mecanismos necesarios y suficientes para soportar al segundo. El/los argumento/s se constituye/n
entonces como una cadena, en la cual las premisas extraídas de los datos se transforman en

.l eslabones.
ai
co
S Allí, la argumentación ha de ser tan larga como para soportar la cadena de argumentos, y a

ic medida que avance, la fuerza lógica de cada eslabón ha de solidificar el desarrollo de la
ag
it estructura cognitiva. Hilvanando y esquematizando, el árbol jerárquico y relacional que une a los
se
v agentes efectores con los agentes causales, dejando ver en el proceso, a la extraña fuerza que une
nI
la a los efectos con sus causas, como condición necesaria entre dos cosas. Sin embargo, la
ne
sa argumentación persuasiva empleada en la retórica hará que cualquier eslabón pueda ser roto a
ci través del simple uso de una refutación puntual, dejando sin basamentos científicos a lo que se
ientíf
pretendía explicar. Cualquier argumento estrictamente orientado a la persuasión se constituye de
sC
ey facto, en un Pseudo razonamiento.
Le
e La persuasión científica deja vacíos cognitivos e inquietud de espíritu, más, es el
d
ad convencimiento de la causa el que sacia, pues éste se asegura de que es así, y no de ninguna otra
ild
forma, la condición de verdad que ha sido presentada. En las ciencias puras, los procesos de la
bi
so mente llevan una dirección. (Hume, 1739) Arguye que la mente usa cierto método que le permite
p/
mI conectar diferentes ideas: la semejanza, la contigüidad y la causa y el efecto <<contigüidad;
al semejanza y contraste>> originando así las leyes del asociacionismo sicológico.
er
bo
S Esta asociación consecuente no se produce en Investigación Social debido al abuso de la
:a
ne descripción sin explicación, la descripción por sí sola no concatena ni contrasta, mucho menos
u
bl establece contigüidad, deriva el equilibrio causal o establece causal adecuada. Allí el científico
a
V
na comúnmente hace gala de ingenio, más, también ocasionalmente priva de razón. La mayoría de
imo los resultados en Investigaciones Sociales no pueden probarse empíricamente, y al no guiarse por
R leyes y teorías sino por variables, es muy común que se presenten coherencias anómalas
asociadas a la percepción individual.

En ese sentido, sólo se puede conocer lo que no cambia <<ley>>, lo que cambia

56 La Retórica estudia el razonamiento persuasivo o probable. Es el método de algunas ciencias sociales, que se fundamentan en la observación,
mas no describen hechos ciertos sino voluntarios. Santiago Fernández Burillo. Curso de Filosofía Elemental. Sección 3.6: Las Ramas de la
Filosofía. Definiciones. Véase.
57 Hay gente con tan pocas agallas para afirmar algo que creen, que ni siquiera se atreven a decir: "Hace frío", por mucho frío que sientan, si
antes no lo escuchan decir a otras personas. Aforismo atribuido a Georg Christoph Lichtenberg.
91

<<variable>>, habrá de estudiarse. Siempre que, obtenido lo primero, se operacionalice en


función de explicar lo segundo. Pues si el fenómeno existe y evidencia sus efectos, habrá que
interrogársele y pedírsele explicación.

Denzin (1970) citado por Norman Blaikie en su libro: Designing Social Research (2010, pp.
131 - 140), afirma: las teorías en la investigación social presentan subdivisiones: Grandes teorías,
teorías de medio rango, teorías sustantivas y teorías formales. Según este autor, las grandes
.l
ai teorías representan un sistema de teorías, con una exposición conceptual de esquemas que
co
S intentan constituir las más importantes características de una sociedad en su totalidad; las teorías
nó de medio rango se encuentran ubicadas entre las grandes teorías y las generalizaciones
ic
ag
it empíricas; en el tercer nivel se consiguen las teorías sustantivas, las cuales se aplican a
se
v problemas específicos.
nI
al
No obstante acota, que tanto las de medio rango como las sustantivas, se expresan a un nivel
ne
sa que pueden ser usadas por los investigadores; finalmente, el desarrollo de una teoría formal se
ci
ientíf basa en la ahora impugnada58 idea de explicaciones universales, que de la vida social se puedan

sC desarrollar.
ey
Le En el mismo sentido, y como ejemplo, bien vale la pena citar a Popper59, quien explica: un
e
d sistema axiomático, y un sistema de ecuaciones son análogos, ambos sirven para representar
ad
ild teorías por niveles. Tal como lo descrito previamente. Es decir, cualquier modelo de postulados
bi
so teóricos podrá ser traducido a ecuaciones matemáticas. Comparativamente, el referido sistema
p/ axiomático deberá ser interpretado de manera que pueda considerarse como un sistema de
mI
hipótesis empíricas o científicas. Y si los eventos sociales desean ser correctamente interpretados
al
er y científicamente predichos, entonces han de poder axiomatizarse sus cadenas causales, o sus
bo
S acausalismos <<Eventos sin explicaciones causales>> a través de modelos de teorías formales. Y
:a
ne de hecho, por ser una idea impugnada, sus científicos no se han atrevido a desafiar
u
bl cuestionando, tal aseveración.
a
V
na Quimérica a todas luces, pues, hoy día el fenómeno educativo se está estudiando a través de
mi
o los enfoques de la física teórica. Los procesos de migración han sido abordados recientemente
R
como fenómenos basados en teorías de campos, y tantos las enfermedades epidémicas como los
estudios de redes sociales han girado hacia una perspectiva bio-matemática formalizada y
demostrable. Los economistas están haciendo uso del operador Lagrangiano, función matemática

58 Con el término IMPUGNADA, se hace referencia a que no hay necesidad, o al menos eso expresan gran cantidad de sus científicos, de leyes
universales y sus explicaciones en tales ciencias, ya que sus problemas se abordan y resuelven desde contextos locales e históricos. Idea falsa en
su totalidad. No obstante, la realidad social está actualmente demandando un cambio en sus estructuras científicas, pues los problemas sociales
están59 siendo resueltos por la tecnología y no por las investigaciones puras de sus científicos.
La Lógica de la Investigación Científica. Véase: Los Sistemas Teóricos, (p. 68-72).
92

ampliamente usada en la física, con el fin de encontrar restricciones máximas y mínimas a


ciertos problemas económicos.

No obstante, no se trata de adaptar eventos forzadamente a determinada distribución


matemática, trata más bien del desarrollo de modelos matemáticos específicos que den respuesta
al cómo se comporta una variable, siempre regido por un patrón invariante y constante de las
unidades fenoménicas que componen al evento. Entonces, hay más falta de disposición que de
.l capacidad de acción.
ai
co
S En sus investigaciones, son comunes los hechos analíticos con poco o ningún contenido

ic
ag científico, y la contradicción interna entre las partes de sus sistemas es la que la torna endeble. Se
it
se basa en conceptos imprecisos y no sometidos a la lógica de enunciados, de predicados, de clases
v
nI o de relaciones. Además, se hace imposible la visualización de un tercero excluido o la presencia
al
ne de una razón suficiente. En la Investigación Social tales conceptos imprecisos al
sa operacionalizarlos, derivarán en la imposibilidad de reproducir empíricamente, o a través de la
ci
fí medición, un resultado concreto y objetivo. Se busca la certeza sicológica antes de la evidencia
t
ne
i lógica. Más sin embargo, presentan cierto matiz semántico que los hacen medianamente
sC
ey aceptables.
Le
e Tal ciencia, se centra en explicar acciones y no comportamientos, pero son estos últimos los
d
ad
ild que ameritan entendimiento. A pesar de, sus investigaciones arrojan excelentes resultados
bi cuando inmediatamente se aprovechan sobre ciertos hechos sociales, es decir, investigaciones
so
p/ aplicadas. O cuando se circunscriben a describir el funcionamiento de determinado aparato
mI
social, descripciones netamente funcionalistas donde sus conceptos son aceptados como
al
er opiniones sin criterio de demarcación alguno.
bo
S
:a Las Ciencias Sociales hacen uso de teorías puramente conceptuales y no formales de
ne
u
bl demostración matemática, es decir, teorías sustantivas para problemas específicos. Usan
a variables pero no contrastan contra leyes invariantes puesto que carecen de ellas, y su esfuerzo
V
na por edificar leyes propias, a pesar de sus circunstancias, ha sido realmente escaso. Todo aquello
mi
o que sobre la tierra se mueva e interactúe, es posible explicarlo mediante ecuaciones de la física,
R
incluyendo el accionar del hombre. Si la Inteligencia Artificial ya posee un modelo matemático
aproximado del libre albedrío humano, ¿por qué no se han generado teorías formales que
expliquen y se anticipen al comportamiento del ser social?

Cuando en una ciencia como esta, sus basamentos teóricos sólidos se convierten en una
entidad abstracta y opaca, indeterminada e imprecisa, da pie a que sobre los hechos observados
se acontezcan respuesta e inferencias erróneas. Sus argumentos carecerán por consiguiente, de
93

unidad y fuerza lógica. Dando luz a inferencias Pseudo Científicas cuyas conjeturas aisladas
disgregan en vez de concentrar e identificar el patrón que lía a sus unidades fenoménicas.

El lenguaje ordinario en ciencias es correlacionable con los términos ley y teoría, donde el
vector separación entre unidades fenoménicas ha de ser transparente y explicable. Un concepto,

o explicación de un hecho, que no pueda someterse a verificación empírica simplemente carece


de significado, y por consiguiente, de verdad. Históricamente, la Investigación Social ha hecho
.l abuso de la descripción, describe sin realizar inferencias, esto lleva a ejecutar una representación
ai
co
S simplista del fenómeno, y así no se llegará nunca a ningún descubrimiento.

ic Si el hombre es un ser social, y además es creación de la naturaleza, entonces a esta última
ag
it
se habrá de interrogársele y modificársele, pues, el sólo admirarla es perder el tiempo. Hasta que la
v
nI Investigación Social a través de sus agentes científicos, no llegue a desarrollar teorías amplias e
al
ne integrales de explicación y predicción de hechos, liándolos a su vez con sus respectivas
sa invariantes fenomenológicas, no podría decirse que es realmente una ciencia, aunque haga uso
ci

t del método.
ne
i
sC En la obra de Sarkar y Pfeifer60 (2006), se introduce una importante discusión filosófica
ey
Le sobre si las Ciencias Sociales son diferentes a las ciencias naturales. Además, se cuestiona el
e papel que juegan las leyes en el modelo social. La pregunta que inicia el debate es: ¿Existen
d
ad
ild leyes en las ciencias sociales?... para los empiristas, las leyes son de suma importancia y se
bi constituyen en la base de las explicaciones, las teorías, la confirmación y la predicción. Sin
so
/p embargo, no está claro de que por las características de tal ciencia, realmente existan leyes allí.
mI
al En un principio se argumenta que en estas ciencias no se debería siquiera intentar crear
er generalizaciones o grandes teorías, puesto que los fenómenos sociales son esencialmente
bo
S
:a históricos y locales.
ne
u Cualquier pensador con cierto grado de sobriedad, interpretaría que donde no se pueda
bl
a generalizar, confirmar o desconfirmar, estructurar leyes o al menos descubrir fenómenos… no
V
na hay ciencia. Aunque en cierto grado se consigan verdades que ayuden a resolver problemas.
mi
o
R La segunda pregunta del debate es: ¿Pueden las teorías de las ciencias sociales rendir
predicciones comprobables?... se aduce entonces que, debido a la complejidad del fenómeno
social, sus teorías requerirían idealización. En función de las características matemáticas y
lógicas formales de tales idealizaciones, a las teorías se les haría difícil la predicción. Y como
resultado se argumenta que una teoría de este tipo no sería comprobable.

60The Philosophy of Science: An Encyclopedia. Véase Concepto de Social Science.


94

Más aún, si la acción humana es explicada a través de agentes, deseos y creencias, la


Investigación Social estaría encerrada en un círculo intencional61, dificultando grandemente la
consecución de afirmaciones comprobables. Rosemberg (1988) en Sarkar y Pfeifer (2006, p.

xxiii).

Una tercera pregunta que viene a la palestra es: ¿Es distinta la metodología usada en las
ciencias sociales?... puesto que esta envuelve a humanos y su comportamiento a gran escala,
.l entonces la experimentación deja de ser importante. Se argumenta entonces que el entendimiento
ai
co
S de la acción social es netamente hermenéutico. Siendo así, difiere entonces de la metodología de
nó la que se vale la ciencia natural.
ic
ag
it
se Luego de tal afirmación se sobreviene una cuarta pregunta: ¿Cuál es la naturaleza de las
v
nI explicaciones en las Ciencias Sociales?... citando a Hempel (1962) en Sarkar y Pfeifer Op. Cit,
al
ne se introduce el argumento de que la explicación en la Investigación Social no difiere a la función
sa que cumple en la física. No obstante, otros lo cuestionan. Si no existen leyes en esta ciencia, se
ci
ientíf deduce entonces que cualquier explicación científica en las ciencias sociales no podrá ser

sC capturada, ni ser cubierta por un modelo legaliforme. Dando lugar a explicaciones científicas
ey meramente funcionales.
Le
e
d A continuación introduzco una interesante disertación de Lee C. McIntyre62. Complexity and
ad
ild Social Scientific Laws. En primer lugar hace una cita a May Brodbeck “On the Philosophy of the
bi Social Science” las leyes en ciencias sociales, si las tuviésemos, contendrían muchas más
so
p/ variables que aquellas usadas en la física. La multiplicidad y complejidad de factores en el
mI
fenómeno social imponen limitaciones sobre lo que razonablemente se puede llegar a conseguir.
al
er
bo Existen muchos argumentos que tienen por objeto mostrar que las leyes científicas en la
S
:a investigación social son imposibles o imprácticas. Por ejemplo, las ciencias sociales y las
ne
u
bl naturales estudian objetos por esencia distintos. Mientras los fenómenos en ciencias naturales
a están muy bien aislados, son estacionarios, recurrentes y simples. El fenómeno humano es por el
V
na
contrario, interactivo, variable, singular y complejo, Popper (1965). En este punto Lee se plantea
mi
o dos preguntas cuyas respuestas son no. ¿Son ambos argumentos persuasivos?, ¿Sirven ellos para
R
demostrar que es imposible o impráctico tener leyes en la investigación social?

Allí se examinan otros argumentos afirmando que por la real esencia de los sujetos en ambas
ciencias, éstos serían suficientes para garantizar la imposibilidad o impracticidad de leyes

61A este efecto se le denomina Razonamiento Circular. Véase el apartado 6.1.2: Las Hipótesis Inductivas y Deductivas Cap. VI: Razonamiento,
Hipótesis e Inferencias Científicas. Allí se amplía su significado.
62 Lee C. McIntyre. (1994). Complexity and Social Scientific Laws. Aparece en: Readings in the Philosophy of Social Science. Michael Martin y
Lee C. McIntyre. Editores. Massachusetts Institute of Technology.
95

sociales. Según el argumento de complejidad, el científico social todavía no está habilitado para
encontrar ninguna ley que explique el comportamiento humano. En las ciencias sociales el sujeto
está en constante cambio debido a la continua realimentación de las relaciones entre la influencia
crítica de las variables que subyacen en el comportamiento humano, y que se sobrevienen como
resultado de su propia conciencia.

Como humanos, somos afectados por otros, y nuestras decisiones son alimentadas por
.l decisiones de otros recíprocamente. En consecuencia, es obvio que los humanos como sistema
ai
co
S nunca permanecerán estacionarios el tiempo suficiente como para determinar relación causal

ic entre variables. Una vez que pensamos en lo que tenemos, el sistema ha tenido tiempo de
ag cambiar. Y, para la edificación real de una ley, se hace necesaria la estabilidad y/o regularidad
it
se
v del fenómeno bajo investigación. Más allá, si el sistema humano es prohibitivamente complejo,
nI
al no estaríamos capacitados para descubrir tales patrones. No obstante, presenta ciertas
ne
sa argumentaciones contrarias. Al parecer se hace una interpretación ingenua del argumento de
ci complejidad. El cual no es del todo complejo como tal, sino sólo como es descrito y definido en
ientíf
a determinado nivel de investigación.
sC
ey Seguramente el nivel de complejidad del sistema humano, como el de cualquier otro
Le
de fenómeno, depende de manera crucial del nivel de descripción e investigación que se esté
da ejecutando. En resumen, no se puede decir que en ningún nivel el fenómeno es tan complejo
ild
como para no encontrar leyes. La complejidad es sólo una función del nivel de investigación que
bi
so se esté aplicando. Por ende, es posible describir el fenómeno a otro nivel de investigación donde
p/
mI las leyes se hagan posibles 63. Es muy fácil adoptar una posición donde se argumente, el
al fenómeno es muy complejo como para descubrir leyes.
er
bo
S Finalizada la disertación filosófica de los autores, y luego de estudiar las argumentaciones
:a
ne previas, se concluye con el hecho de que para nada implica que un cambio en los
u
bl acontecimientos convierta la negación de que es imposible la estructuración de leyes en las
a
V Ciencias Sociales, en una afirmación. Un juicio, o enunciado pre-teorético es diferente a una
na
mi teoría, y ya que las ciencias sociales se sustentan, en mayor o menor cuantía en estos, se dice
o
R entonces que a tales juicios es imposible falsarlos, porque consisten sólo en enunciados no
estructurados.

La diferencia radical entre Investigación Social y la investigación en ciencias naturales estriba


en que: el hombre como ser social y natural al mismo tiempo, está expuesto a una dualidad, la
interacción con su entorno y la interacción con su racionalidad de ser pensante. Por ende,

63 Quiere decir, recurrir a la Teoría Reduccionista. Amplíese su significado en el apartado de las Teorías Científicas Internivel. Sección: 10.2.
96

cualquier ley que pueda obtenerse de este binomio, ha de contener hipótesis de ambas, para así
estructurar un modelo legaliforme amplio y explicativo de los 2 mundos. Algo para nada fácil…
más no así imposible.

Según Leonardo Da Vinci, un pájaro es un instrumento que trabaja bajo una ley matemática.
Y, si tal premisa aplica para un ave… ¿por qué no ha de aplicarse al ser social?... ¿qué modelo
matemático guía el accionar del hombre en la tierra?... queda en manos de los Investigadores
.l
ai Sociales descubrirlo.
co
S

ic
ag
it
se
v
nI
al
ne
sa
ci
ientíf

sC
ey
Le
de
da
ild
bi
so
p/
mI
al
er
bo
S
:a
ne
u
bl
a
V
na
mi
o
R
97

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO IV: SOBRE


ALGUNOS ERRORES Y
PROBLEMAS EN LAS
CIENCIAS SOCIALES…

La ciencia, mi muchacha, está hecha de errores, pero son errores útiles, pues llevan poco a poco
a la verdad.

Julio Verne.
98

4.1. – El Método Científico Informativo

He tenido la oportunidad, en diversas ocasiones, de compartir


con quienes dicen llamarse científicos… en un primer
momento les pregunto: ¿Cuál ha sido tu descubrimiento más
importante?... y luego de un largo e incómodo momento de
silencio… continuamos hablando…

Roiman Valbuena.

delmétodo
lobjetivo
remover depermite
fenómeno.
errores, a la ciencia moverse en cierta dirección persiguiendo algún
El papel
entendimiento
funciona

E y comprensión que le consienta dilucidar ciertos aspectos


del método en las ciencias es precisamente ese, escudriñar y
como aquellas máquinas que separan el huevo de la
cáscara. El científico, sabiendo que lo encontrado no será la respuesta final y única, puesto que
cualquier teoría concebida podrá ser reemplazada por otra en mejores condiciones, orientará sus
últimos esfuerzos a informar, lo más precisamente posible, lo hallado. Esperando que otros le
hagan conocer errores que él no vio. En ocasiones, la perspectiva no deja ver a los ciegos64.

El Método Científico por excelencia es el experimental, aunque sobre muchas ciencias es


difícil ejecutar la experimentación pura, uno de sus axiomas fundamentales es la
reproducibilidad, quiere decir, un experimento será válido si y solo si, cualquier otro científico,
no importa el lugar, puede repetirlo, arrojando los mismos resultados bajo las mismas
condiciones. Para ello necesita informar y publicitar los efectos obtenidos bajo ciertas
circunstancias. Allí es donde entra en juego el Método Informativo, se circunscribe a la
recolección de información científica necesaria y suficiente, para conseguir redactar un artículo
dirigido a revistas especializadas esperando un merecido reconocimiento.

Entonces, el Método Científico Informativo consiste en un procedimiento en el que se

recopila la información a difundir; se confronta y almacena; se enlazan las ideas más importantes
del resultado teórico o experimental, para luego redactar con orden coherente lo que se pretende
dejar saber. La publicación es el resultado de toda actividad científica, y no se constituye en sí,
como la acción de creación de ciencia realmente dada. Aunque sigue las pautas del método, sólo
sirve para informar y representar con claridad, tanto los hallazgos como las desideratas del
científico, bajo ningún concepto se considerarán ciencia en sí a otros elementos descritos
diferentes al descubrimiento o la idea teorizada.

64Aforismo atribuido a Georg Christoph Lichtenberg.


99

Este procedimiento funciona como un tipo de Homeostasis Científica y como mediato entre el
conocimiento empírico derivado del proceso experimental y la capacidad imaginativa que provee
un discurso descriptivo. Los resultados de una investigación deben comunicarse de manera
expedita y oportuna, es por ello que al artículo científico se le estima como el mejor medio para
informarse de nuevos descubrimientos. Siendo la presentación de los datos la que lo transforma
en la pieza central del ajedrez del método informativo, es lo que hace hablar a un artículo
científico.

Las ciencias fácticas tienden a usar diversos métodos de trabajo, entre ellos el Experimental y
el Informativo u Observacional. Se dice que es observacional puesto que en sus niveles
preoperatorios, la data recabada, confrontada y almacenada, no es resultado de una observación
.o directa, participante y bajo situaciones de control en el campo o laboratorio experimental. Si no,
tiv
compilación de un sin número de revisiones bibliográficas usando en algunos casos fuentes
a
rm primarias. Este método no permite el descubrimiento… y aunque puede añadir nuevos
nfo
I conceptos, simplemente disemina lo ya descubierto, bien sea por el mismo científico a través de
oic
la experimentación, o por otros.
tíf
nie
Si bien es cierto presenta comúnmente hallazgos, el objetivo de toda ciencia es la
C
o
od reproducibilidad y objetividad a través de la evidencia científica. Cualquier persona puede hacer
tlMé
un hallazgo, pero sólo el científico descubre, el hallazgo es producto de lo fortuito, de la
E casualidad. Contrariamente, el descubrimiento es fruto de un proceso arduo y sistemático de
:na
ue indagación planificada, aunque en ciertos casos se presente la Serendipia65. Es absolutamente
alb imposible tropezar con un descubrimiento científico… para descubrir es necesario discrepar
V haciendo uso del juicio. En ocasiones, introducir un poco de anarquía en el proceso podrá ayudar
na
oim a encontrar ciertas cosas maravillosas.
R
La redacción científica se basa en la descripción, esta última se constituye en un proceso
inherente al Método Científico y no podrá separarse de él. Este Método Informativo no hace uso
de teorías axiomatizadas en la mayoría de los casos donde se evita de alguna manera
experimentar o teorizar, es decir, se describe en ausencia de teorías, y donde no hay
descubrimiento o teorías no hay ciencia. Usa comúnmente variables, pero no contrasta contra

65 Se conoce como Serendipia a un descubrimiento o hallazgo importante y accidental mientras se esperaba encontrar otra cosa. Aunque en
muchas obras es asociado a la casualidad, a lo fortuito, realmente presenta ciertas propiedades y nexos con los conocimientos por connaturalidad
y la intuición. El descubrimiento de la penicilina por Alexander Fleming y del Caucho Vulcanizado por Charles Goodyear son dos obras
serendépicas de suma importancia para la sociedad. El Viagra, también entra dentro de los descubrimientos serendépicos e inesperados, pues la
erección prolongada resultó ser un efecto secundario de este fármaco que en un primer momento pretendía dar solución a problemas de
hipertensión y angina de pecho. En el aparte de la física teórica en este texto, específicamente en el denominado: Los Sistemas Físicos y la
Causación, se presenta a la Casualidad como una ley asociada a un segundo plano de causación, cuya característica es la combinación de una
serie de hechos y circunstancias que no son posible evitar ni predecir matemáticamente. Las casualidades se presentan en la naturaleza sin la
intervención humana. Es imposible encontrarse con casos de Serendipia originados en un artículo científico, más la Serendipia también es
ciencia. Cuando el coeficiente intelectual del científico supera los 130 puntos, por deducción lógica, es difícil atribuirle un descubrimiento a la
casualidad, y es donde la intuición y la connaturalidad se transforman en los primeros sospechosos.
100

leyes invariantes <<caso de la investigación social>> No se puede descubrir la cura al cáncer


escribiendo un artículo científico; un pugilista no ganará un campeonato mundial repasando un
libro de boxeo; así como nunca será posible tampoco desarrollo tecnológico alguno sólo
informando; necesarias son la teorización y la experimentación.

Sin embargo, gran parte del progreso científico desde el nacimiento de la ciencia se ha dado
gracias a este método. Es el eslabón principal que une a las largas cadenas de comunidades
científicas66. En la antigüedad un investigador se sentía más libre de actuar por sí solo, con el
surgimiento de estas comunidades debe adaptarse a ciertas reglas. Con todo, de estas
asociaciones siempre ha sido muy criticado su lado oscuro, de hecho, uno de los autores que
ataca ferozmente a ciertas prácticas de estos grupos es Tomas Kuhn cuando escribe la Estructura

.vo de las Revoluciones Científicas.


it
a Se han hecho impopulares debido a sus prácticas tendentes a perpetuarse en busca de
rm
nfo intereses académicos y económicos, habiendo llegado a convertirse en claustros de ilustrados
I
oic privilegiados con control absoluto en las revistas que tienen a su cargo, ellos deciden quién
tíf publica, cómo lo publica, qué se publica y que no. Como afirmase en su momento Bernard de
nie
Voto: Las Grandes Revistas Nacen de las Manos de los Directores, y Mueren a Manos de
C
o Hombres de Negocio.
od
tlMé
Existen tres tipologías de científicos: los experimentalistas; los teoristas y los
E
:na comunicacionistas. En muchos casos los dos primeros no han sido adiestrados correctamente en
ue la difusión de información o en las técnicas de ensayos literarios, es por ello que recurren a los
alb
V comunicacionistas. Son estos los encargados de propagar la información obtenida a través de la
na
redacción científica cuando los primeros no pueden hacerlo por sí mismos. Por esta razón, no son
oim
R fáciles de ocultar las críticas a este método, no por el procedimiento en sí, sino que de su abuso
se ha producido la denominada Prostitución Científica, donde gran cantidad de investigadores
tienden a escudarse bajo este modelo y nunca llegan a ejecutar ni la experimentación y mucho
menos la teorización <<amén del trabajo de campo>>, tocando al punto de saturación de
artículos científicos con casi el mismo índice y univocidad discursiva. Al respecto, Santiago
Ramón y Cajal (1999, p. 127) escribe lo siguiente:

66 Una comunidad científica es, en la sociedad moderna, un grupo social relativamente bien definido. Es una cofradía en la cual los individuos se
reconocen como miembros de un solo cuerpo… y que en consecuencia, tiene su propia coherencia. Fourez (2006).
101

Mr. Billing, sabio bibliotecario de Washington, agobiado por la tarea de clasificar


miles de folletos, en donde, con diverso estilo, dábanse a conocer casi los mismos
hechos, o se exponían verdades ya de antiguo sabidas, aconsejaba a los publicistas
científicos la sumisión a las siguientes reglas: 1) Tener algo nuevo que decir; 2)
Decirlo; 3) Callarse en cuanto que dicho; 4) Dar a la publicación título y orden
adecuados…Nada más ridículo que describir sin poder aportar a la cuestión ningún
positivo esclarecimiento, sin ningún otro estímulo que lucir imaginación
calenturienta, o hacer gala de erudición pedantesca con datos tomados de segunda o
tercera mano…
El abuso en la escritura de artículos científicos como opción a evitar la experimentación y la
teorización buscando reconocimiento científico y académico, además de haber dado origen a
<<Científicos de Escritorio>>, ha generado caos y confusión dentro de los sistemas formales de
educación en ciencias, puesto que el conocimiento no llega a ser sustantivo y mucho menos

.o profundo, se torna científicamente endeble, refutable y laxo de nuevos aportes. A pesar de, se
tiv exige Honestidad Científica, es decir, no se afirme nada carente de prueba. Hay investigadores
a
rm que no hacen intentos por adentrarse en las investigaciones aplicadas o en física… ciencia es
nfo
I ciencia… no hay ciencias para unos o para otros.
oic
tíf El uso apropiado del método informativo provee observaciones tan precisas y ricas en datos
nie
que llevan al científico a sugerir hipótesis que puedan ser demostradas experimentalmente. Y, se
C
o dice que se ha hecho Ciencia, cuando una actividad científica tiene un resultado tan impactante y
od
tlMé
asombroso que genera un nuevo modo de pensar, conducirse y observar el fenómeno, marcando
E de esta manera, un antes y un después.
:na
ue Sólo es posible innovar en ciencia perturbando, sacando de contexto y modificando al objeto
alb
V de estudio. Son estos cambios, junto a las explicaciones, los análisis y las inferencias, lo que
na
alimenta a una ciencia. Pero, toda explicación se soporta sobre hipótesis, además, perturbar y
oim
R modificar es netamente experimentación. En ciencia se dice que se han descubierto nuevos
hechos, cuando las consecuencias observadas contradicen a lo predicho por las teorías, es allí
donde el investigador a través de la noesis percibe desconfianza, genera conocimientos por
abstracción y guiado por su instinto, arremete contra la teoría buscando vulnerarla en su
insaciable sed de conocimiento.

En lo tocante a la forma, el escritor de un artículo ha de redactar de manera tal, que pueda ser
entendido por cualquiera que se considere formado y habilitado para ello. No es menester del
autor bajar hasta un nivel simplista, más es trabajo del lector, el intentar subir hasta el horizonte
que le permita entender lo que se describe, analiza, explica, contrasta e infiere. Su función es
escalar estructuras del pensamiento.
102

4.2.- Periodismo Científico y Lógica Argumentativa

El periodismo científico es considerado como una ciencia de segunda mano, su fuente


primaria son observaciones y su proceso se circunscribe a sus análisis, alimentadas por trabajos
de otros científicos. Un buen artículo informativo se soporta en argumentaciones científicas
basadas en el dialogo razonado y la evidencia de primera mano. Muchos son los textos que
indican las pautas a seguir para redactar, pero pocos son los que realmente muestran cómo
convencer con la lógica argumentativa, a continuación algunas sugerencias:

Evite ambigüedades léxicas porque en ciencia son inaceptables; Evada cualquier tipo de
razonamiento sibilino; No planteé hipótesis antinómicas o contradictorias; Introduzca
razonamientos lógicos basados en argumentos, si describe un proceso, explique su mecanismo;
.
vo Cuando ejecute explicaciones científicas evite las falacias Ad Populum, en otras palabras, no
it
a
rm intente convencer con discursos políticos a un auditorio netamente científico; De ser posible
nfo emplee aforismos en sus conclusiones, pero concaténelos coherentemente.
I
oic
tíf Cribe sus ideas y oriéntelas a convencer; ejecute comparaciones corteses. Nunca intente
nie siquiera, dar explicaciones de lo desconocido por lo desconocido <<Explicatio Ignoti per
C
o
od Ignotum>>, podría encontrarse con sorpresas. De igual manera, antes de cualquier inferencia
tlMé ejecute meta-razonamientos, de forma que pueda identificar a tiempo cualquier razonamiento

E apagógico carente de evidencias <<demostrar algo a partir de lo falso>>


:na
ue Cree nuevos conceptos67 y relaciónelos inteligentemente con aquello que ha descubierto,
alb
ponga de manifiesto la esencia misma del objeto estudiado. Verifique que no existe
V
na contradicción en las afirmaciones. Cerciórese que las relaciones presenten una correcta
oim dependencia jerárquica. Si describe un evento relacional presente las magnitudes numéricas
R
correspondientes, garantice que no exista correlación espuria. Si el fenómeno estudiado es del
tipo causa – efecto, indique qué ley une al efecto con su causa, o qué teoría lo explica.
Especifique si las hay, cualquier causal intermediaria que pueda actuar sobre el fenómeno.
Combine descripción con explicación, recuerde que es la explicación la que transforma ideas en
conceptos científicos.

Si el artículo va dirigido a refutar una teoría, es donde el publicista ha de hacer uso de las
destrezas que posee partiendo de las premisas y conclusiones que su contrario pudo aportar,
presente entonces contrastabilidad y sugiera alguna manera de someterla a prueba. No convierta

67 Un concepto científico se da cuando se crean una serie de palabras o símbolos que juntos referencian a determinado objeto, bien sea mental u
ontológico, ambos con la idea dan significado a los símbolos haciéndolos entendibles. Para Clarke, R, J. (2005). Research Methodology. El
investigador social reconoce que los conceptos en su modelo son basados en opiniones, valores, tradiciones, culturas y reglas que no pueden ser
definidas con precisión.
103

su ensayo en una batalla de egos ni pretenda sofismas. Si intenta vulnerar una teoría
complemente conceptos. Recuerde que de la nada, nada viene. Disgregue unidades de razón y
haga entendible las ideas. De ser posible practique con un interlocutor, busque a alguien difícil
de convencer pero que pueda refutar sus análisis, sabrá que ha ganado al momento que las tesis
de su interlocutor pierdan fuerza evidenciando un discurso digresivo <<no se centra en el tema,
se va por las ramas>>, allí habrá impuesto su razón. Sature con verdades, pues nadie se satisface
con falsas razones. No disuada… convenza probando y demostrando. Marque siempre un
discurso apodíctico.

Al finalizar, y antes de enviarla a la revista, haga una síntesis auto reflexionando <<sobre la
razón misma>> siendo a la vez autoconsciente <<piense sobre su propio pensamiento>> Si
.o decide alguna vez asistir a determinada conferencia, tenga presente lo que expresa Fred Allen:
tiv
Conferencia: reunión de personas importantes que no pueden hacer nada solas y deciden juntas
a
rm que no hay nada que hacer. No olvide nunca que la lógica sirve para algo… úsela… pero
nfo
I recuerde que la lógica es un proceso de la ciencia…más es independiente de ella. Puede haber
oic
tíf lógica sin ciencia… pero lo contrario no sucede.
nie
C
o
od
tlMé

E
:na
ue
alb
V
na
oim
R
104

4.3.- Encuesta Vs. Experimento. La Falibilidad de las Escalas de Likert.

Tortura a los números y te lo dirán todo…


Gregg Easterbrook.

No me molesta que me hayas mentido, estoy molesto porque de


ahora en adelante no te puedo creer.

Friedrich Nietzsche.

as encuestas y los experimentos, podría decirse, son los dos polos opuestos de un imán.

L Su diferencia más notable reside en el tipo de pregunta o problemas de investigación


que ambos están en capacidad de abordar. Las encuestas comúnmente reflejan las
opiniones de cierta cantidad de voluntarios a los que se les suministra un cuestionario. Estas
recogen sentires aleatorios de diferentes personas acerca de un producto o asunto particular. El
experimento por su lado, se convierte en un estudio del tipo causal y más comprensivo del
evento, busca la objetividad y la reproducibilidad a través de la prueba científica. En ese sentido,
René Dubos68 alguna vez argumentó lo siguiente: El experimento tiene dos propósitos, a
menudo independiente el uno del otro: permite la observación de nuevos hechos hasta entonces
insospechados o aún no bien definidos; y determina si una hipótesis de trabajo se ajusta al
mundo de hechos observables.

En la Investigación Científica existen diferencias significativas entre un estudio donde se


utilice a la encuesta como técnica de recolección de información y otro apoyado en la
experimentación. Un estudio basado en encuestas podrá contener o no, una o más hipótesis, lo
ideal ha de ser al menos una. Allí el científico intenta ejecutar un análisis de relaciones entre
variables sin manipularlas. Contrariamente, la experimentación provee de uno de los mejores
métodos por excelencia de probar hipótesis, el ensayo y el error. Primeramente, el
experimentador habrá de definir el problema en todo su amplio contexto, orientado siempre a
obtener la mejor forma de plantear sus hipótesis.

Posteriormente, la somete a prueba buscando su confirmación o desconfirmación, siempre


bajo estimaciones estadísticas cuantitativas y a la luz de todo nuevo descubrimiento resultante
inequívocamente del control aplicado, donde además se cristalicen las relaciones observadas. En
este caso, el experimento se convierte en un poderoso método de descubrimiento, permitiendo

68 Microbiólogo Estadounidense. Esta cita aparece en un excelente libro de Rafael Moreno González (1974). Antología de la Investigación
Científica.
105

develar un organizado cuerpo de conocimientos hasta los momentos invisibles. Las encuestas
también pasan por una etapa observacional y se usan para medir otras cosas, su diseño debe ser
rígido y blindado contra toda parcialidad, prejuicio o tendencia que lleven a admitir conclusiones
erróneas. Son comúnmente explotadas en la investigación social donde se hace uso de la
sicometría. Su diseño se basa en conceptos pre-teoréticos y, por lo general, sus conclusiones
llegan a agrupar un conjunto de hechos analíticos69.

.t Sus hallazgos no son sorprendentes y se hace difícil la abstracción sobre cantidades o


rke
números. Las encuestas suelen aportar resultados basados en un gran cúmulo de observaciones y
i
L sus juicios conclusivos imposibilitan la demostración. Eso no implica que lo anterior sea el único
de
sal modo de hacer ciencia, más, aporta una forma de validación y contraste externo diferente. Las
sc encuestas, si bien son una vía válida de investigación científica, y de hecho poderosas en cuanto
E
sla a sus resultados al ser bien estructuradas, están confinadas a proveer un conocimiento del tipo
e autoevidente derivado de una errónea interpretación, es decir, sus juicios conclusivos se
d
ad
ild conforman a través de enunciados como los siguientes:
bi
la
Posterior a la aplicación del cuestionario a la muestra poblacional objeto de estudio
F se determinó que <<Los solteros no están casados70>>; puesto que el 90% de los
a
L. solteros encuestados manifestó no estar casados. Así también como <<En el polo
to
ne norte hace frio>>; o, de los consumidores encuestados, 81% reveló <<Es uno de los
rim mejores productos del mercado>>
e En sus resultados el investigador se limita a emitir juicios analíticos carentes de toda lógica
xp
E. argumentativa y sin contraste alguno contra determinada teoría. Sobre la base de esas vertientes
s
V (Kant, Crítica a la Razón Pura, 1997)71 explica…los juicios analíticos son simplemente
at
sue
explicativos, no hacen progresar el conocimiento, sólo se limitan a explicitarlo. Los juicios
nc
E analíticos se componen de proposiciones analíticas, en éstas el valor de verdad sólo posee cierto
:na
significado por los términos que involucra. En todo juicio analítico el significado del concepto
ue
alb predicado está incluido en el significado del concepto sujeto. Estos juicios sólo se restringen a
V explicar pero no añaden conocimiento nuevo al que ya contenía el concepto sujeto (p. 15).
na
oim
R
69 Un hecho analítico es aquel que es posible abordarlo desde lo más complejo a lo más simple, o en sentido inverso, haciéndose uso de una
secuencia finita y ordenada de pasos. Al abordársele en sentido inverso, normalmente consiste en una secuencia lógica de sentencias que
permiten desembocar en un axioma. Obsérvese que planteado de esa manera un hecho analítico es completamente deductivo. Al análisis suele
entendérsele como la descomposición de un todo en sus partes primigenias constitutivas <<algo que realmente cuestiono>>, sin embargo, cuando
se estudian los hechos analíticos y tratan de recomponerse usando el método sintético, sus partes no concuerdan, no por el mal abordaje de la
investigación en algunos casos, sino, por los datos subjetivos que aporta una encuesta y que son usados en la recomposición del sistema. Desde el
punto de vista tautológico, un hecho analítico no posee condiciones que lleven a emitir juicios verdaderos. Haciendo con ello que los juicios
conclusivos del investigador carezcan de contenido científico, es decir, no hay descubrimiento, y si no hay descubrimiento no hay ciencia, estos
sólo se producen con la experimentación y el sometimiento a réplicas de sus componentes causa-efecto.
70 Esta afirmación sólo es válida y verdadera en virtud de los significados de las palabras o términos que involucra. Si cambiamos la afirmación
por: <<Ningún soltero es feliz, o Todos los Solteros están conformes>>, le daríamos características sintéticas. Es decir, las frases en este caso no
serán verdaderas o falsas por los significados de las palabras que las componen, sino en virtud de la experiencia individual de cada soltero. Y esto
no puede ser determinado a través del significado de sus palabras constitutivas, mucho menos a través de una encuesta.
71 Véase Juicios Analíticos y Sintéticos.
106

Para poder causar conocimiento verdadero, el juicio debe ser sintético, es decir, el significado
del concepto predicado no incluye al del concepto sujeto, sino que agrega uno nuevo. Con ciertos
grados de diseminación, estos juicios añaden información nueva y están basados en la
experiencia, por lo que no se puede llegar a ellos a través de una simple encuesta, es necesaria la
abstracción a partir de la experiencia, y una de las más poderosas formas de producirla es a
través de la experimentación científica, cuya fiabilidad supera a la de las encuestas.

.t El constructo de fiabilidad cuando se emplea en la arquitectura de cuestionarios, y que


rke
además, se convierte en componente fundamental de la validez, presupone cierto grado de error
i
L en su aplicación. Éste depende del contexto y de la disposición del encuestado, elementos fuera
de
sal de todo control. La fiabilidad es una función de la probabilidad e introduce una incertidumbre,
sc funciona bajo ciertas condiciones y sólo durante determinado tiempo.
E
sla
e Un error grave en las investigaciones que involucran cuestionarios consiste en la omisión
d
ad discrecional de aquellas cuestiones que lo hacen inválido <<Disonancia Cognitiva>>
ild
Centrándose únicamente en sus bondades y no en sus fallas. En el diseño experimental a la
bi
la
F fiabilidad se le conoce como validez. Mientras que la fiabilidad de un cuestionario es calculable,
a la de un experimento puede llegar a ser observable.
L
.to
ne
Entre los modelos de encuestas más usados se encuentra el escalamiento de actitudes
rim
e propuesto por Renkis Likert. Una escala Likert consiste en un proceso de escalamiento
xp
E. sicológico72 unidimensional y normalmente usada en la construcción de cuestionarios. Allí el
s encuestado puede seleccionar aquellas opciones que mejor se alineen con su punto de vista. Éstas
V
at
sue se han hecho de uso generalizado en investigaciones en ciencias sociales, incluso se ha llegado a
nc un uso tan extendido que se considera abusivo.
E
:na
Sin embargo, presenta serios cuestionamientos. Renkis Likert sintió inquietud sobre las
ue
alb numerosas ilustraciones que infructuosamente se habían realizado sobre el estudio de las
V
na actitudes sociales, e hizo intentos por mejorar los aportes de Gardner Murphy73 (1929 y otros),
oim quien quiso asociar magnitudes cuantitativas al estudio de las actitudes sociales.
R
Likert además, pretendió emitir consideraciones sobre el Escalamiento Sicológico planteado
por Thurstone74 (1927), cuyo método había mostrado rendir una excelente y satisfactoria
fiabilidad, sobre todo, en términos de correlaciones entre puntuaciones cuantitativas y casos

72 El escalamiento sicológico es un proceso de medición de dimensiones sicológicas que carecen de referente físico, es decir, no son susceptibles
de medición directa. Por ejemplo: la belleza y el amor. Se le asume contrario al escalamiento sicofísico que si posee referentes. No obstante, fue
Thurstone (1927a), y quien oponiéndose al escalamiento sicofísico introdujo el sicológico.
73
Murphy, G. (1929). An Historical Introduction to Modern Psychology. New York. Harcourt, Brace and Company.
74
Thurstone, L. L. A' law of comparative judgment. Psychob Rev., 1927. Sb. 273-286.
107

históricamente evaluados por jueces. No obstante, el escalamiento Thurstone es extremadamente


complejo desde el punto de vista matemático, pero mucho más poderoso.

La Teoría de la Especificidad de Likert75 se basó en las siguientes premisas; [se podía


definir la personalidad como un componente de muchos hábitos independientes, mientras que
aquellos hábitos que enfatizan una relativa unidad hacia un punto general de factores de
significancia, y los cuales serían eficaces para la predicción del comportamiento, en una
.t situación o en otra totalmente diferente, también eran posibles definirlos]. En otras palabras,
rke
i diferencial de actitudes.
L
de Sin embargo, problema 1, las escalas Likert son del tipo ordinal, es decir, llevan un orden
sal
sc sucesoral y allí 3+4 no es 7, este tipo de medida admite la clasificación de una muestra de
E
sla individuos con respecto a algunas características pero los puntos de las escalas que separan a los
e individuos no garantizan equivalencia, dificultando la sumatoria entre sus componentes
d
ad elementales a pesar de estimárseles como escala aditiva.
ild
bi Este tipo de encuesta normalmente se presenta de la forma de cuestionario auto-administrado,
la
F lo que significa que la lectura a nivel del encuestado puede ser mal entendida. Por más que al
a
L. sujeto de actitud se le suministre una serie de pautas para responder, se le está entregando una
to
ne autorización premeditada de sesgo, incontrolada e incontrolable. Donde hay la posibilidad de que
rim
e los ítems sean inducidos a generar emociones de manera indeseable, pudiendo confundir la
xp
E. medida de la actitud de interés.
s
V
at Problema 2, se hace difícil conocer a ciencia cierta por qué motivos se desaprueba una
sue
nc afirmación u objeto de actitud, por lo que dos individuos con opiniones aparentemente distintas
E podrían a llegar a obtener las mismas puntuaciones. Como regla general Likert plantea que dos
:na
ue personas con actitudes distintas han de contestar de manera diferente, allí el problema surge con
alb la denominada Teoría de Reacción al Objeto76, en otras palabras, se reacciona en función de los
V
na pareceres con respecto al objeto y no en dirección sicológica de la composición semántica de la
oim afirmación que intenta medir la actitud, ejemplo:
R

75 Se sugiere al lector, y para un mejor entendimiento de esta teoría, adentrase en la lectura del planteamiento del problema de la obra: Likert,
Renkis (1932). A Technique for a Measurement of the Attitudes. Archives of Psychology, Vol. 22 140, 1-50.
76 Denominada también Teoría de Acción Razonada. Esta teoría incluye una serie de consideraciones del tipo Volitivo sobre el sujeto. Una
conducta Volitiva permite plasmar mediante hechos, los pensamientos de una persona para convertirlos en acciones razonadas producto de la
inteligencia. Para Schiffman y Kanuk (2005), representa una integración completa de los componentes de la actitud en una estructura diseñada
para la obtención de explicaciones y predicciones mejores respecto del comportamiento, (p. 261). Los autores afirman que la intensión se mide
mediante normas subjetivas y que éstas influyen sobre el modo de actuar del sujeto <<introducir subjetividad significa acudir a la probabilidad>>
Según Larson (2010), el comportamiento volitivo puede ser influenciado por sentimientos, actitudes o predisposiciones culturales regidas por
normas. A la teoría de acción razonada se le considera una teoría del tipo persuasiva, donde los patrones de conducta social ejercen una influencia
coercitiva sobre el comportamiento. En ese sentido, Likert pretende medir actitudes y no comportamientos. La actitud es una disposición que un
sujeto asume frente a determinada situación, contrariamente, un comportamiento es simplemente una consecuencia de tal actitud y su medición se
hace de manera diferente. En conclusión, Likert mediante su escala mide actitudes y no comportamientos, para medir estos últimos, ameritaría
replantear su teoría.
108

Las Armas aún si no son utilizadas Ocasionan la Muerte

Así, un sujeto de actitud no será capaz de distinguir el contenido intermedio de la afirmación:


Aún si no son utilizadas. Y se limitará a reaccionar en dirección al objeto <<Las Armas>>: Las
Armas Ocasionan La Muerte. Derivando de esta manera, en la obtención de datos a todas luces
erróneos. La teoría de reacción al objeto centra su atención en la reactividad de los ítems como
acción razonada y predispuesta por efectos coercitivos externos al sujeto, generando emociones

.t de alto impacto que afecten el continuo constante unidimensional que pretende la escala. De
rke
manera que dos sujetos de actitud diferente pueden reaccionar de igual forma ante el objeto de
i
L
de actitud.
sal
sc Problema 3, Likert afirma que la actitud es un hábito suficientemente compacto como para
E ser tratado como unidad, op. Cit (P. 8), premisa refutada en varias ocasiones pues, se ha
sla
e comprobado que una persona reacciona mejor o positivamente hacia el objeto de actitud, cuando
d
ad ha tenido experiencia grata y plena, y no cuando la enfrenta en sentido negativo. Predisposición
ild
sicológica.
bi
la
F Likert claramente establece;
a
L.
to La fiabilidad de las dos mitades se debería encontrar mediante la correlación de la
ne suma de los estados impares de cada individuo frente a la suma de los estados totales,
rim incluso. Debido a que cada declaración es respondida por cada individuo, los
e cálculos se pueden reducir mediante el uso de la suma en lugar de la media. (P. 48).
xp
E.
s En párrafo previo se argumentó por qué no se podía usar la sumatoria en escalas Likert, por
V
at otro lado, es común encontrar resultados de investigaciones bajo escalas de actitud cuyo dato
sue
nc central corresponde a la media <<Craso Error, Problema 4>> Problema 5, en la construcción de
E la escala se recomienda intercalar juicios de valor en sentido positivo con los del sentido
:na
ue negativo77, caso contrario se produce el efecto sicológico de respuesta automática. Es decir, si
alb las primera 5 afirmaciones orientaban en sentido positivo del objeto de actitud, el cerebro
V
na automáticamente deduce que las siguientes también lo serán, obteniéndose un pool de respuestas
oim en un solo sentido haciendo que el test carezca de significancia sicológica78.
R
En ese sentido, la significancia sicológica adquiere mayor relevancia con los Escalogramas de
Guttman, allí las afirmaciones varían en intensidad y ameritan de prueba piloto. Su forma más

77 Es a todas luces erróneo la omisión de reactivos en sentido negativo del objeto de actitud, incluso han de existir ítems indiferenciadores, es
decir, no aportan valor ni peso a lo que se investiga. Como diría Nietzsche <<Renunciar a los juicios falsos sería renunciar a la vida, negarla>>
Sin embargo, es común encontrar evaluadores expertos de instrumentos de recolección de datos que recomiendan dejar sólo los positivos. Esta
arbitrariedad se produce por desconocimiento de los principios estadísticos en los que descansan las escalas de actitud, extrayendo los
conocimientos para la construcción de escalas sólo de los libros de metodología y no de los de estadística. Es muy común que un metodólogo
pretenda conocer el método pero desconoce las teorías probabilísticas involucradas en él. Lamentablemente, muchos de ellos nunca hablan…
solo repiten.
78Probabilidad de que los datos obtenidos se deban al azar y no a la construcción del instrumento.
109

común de evaluación descansa sobre la técnica de los 5 pasos de Cornell. En un primer estadio,
se crea una tabla donde se busca la ruptura del patrón de intensidad, es decir, los ítems
comienzan a carecer de los niveles de intensidad adecuados debido a que presentan errores de

inconsistencia, eso no es posible con el diferencial de actitudes tipo Likert.

Se procede entonces a calcular un coeficiente de reproducibilidad, factor que indica si el test


es reproducible o aplicable a otros sujetos. Si CR > 0,9. Se dice que las respuestas del

.t cuestionario se ajustan al Modelo Guttman.


rke
i
L
de (( )( ))
sal
sc El programa de procesamiento estadístico SPSS Versión 19 presenta 6 casos para evaluar
E validez y confiabilidad de un Escalograma de Guttman. En ese sentido, hace uso del Alfa de
sla
e Cronbach y de la fórmula de Spearman Brown, además de un proceso de validación por la
d
ad
ild fórmula de las dos mitades. Ahora bien, Likert crea su Escala en el año 1932, asunto previamente
bi descrito. No obstante, en su validación, hoy día, se usa el denominado Alfa de Cronbach, el cual
la
F no fue desarrollado sino entre [1943 y 1951]79.
a
L.
to El coeficiente alfa compara un indicador en función de la longitud total del test, es decir, la
ne
rim cantidad de reactivos o ítems. Y la covarianza80 proporcional total resultante, entonces, la
e aplicación del Alfa de Cronbach es derivada a posteriori y no tomada en cuenta a la hora del
xp
E. diseño original de la escala Likert.
s
V
at El método que si toma en cuenta Likert al plantear y diseñar las escalas, es el de las Dos
sue
nc Mitades y el Método Sigma como coeficiente de correlación entre puntuaciones de Spearman
E
:na Brown [1910]81. En el desarrollo posterior de la prueba Alfa no participó Renkis Likert, sino que
ue su origen se remonta hacia los trabajos de varios autores entre ellos Guttman, Louis (1945). «A
alb basis for analyzing test-retest reliability» Psychometrika 10 (4): 255–282>> Entonces, podría
V
na decirse que las mal formuladas nociones para el uso de las escalas de Likert vienen desde
oim
interpretaciones erróneas sobre el cómo aplicar la estadística sobre las escalas de actitud.
R
En cuanto a la prueba de las dos mitades sugerida por Likert, Cronbach, L. J. (1946). A case
study of the split-half reliability coefficient. The Journal of Educational Psychology, 37 (3), 473

79 Cronbach, L. J. (1943). On estimates of test reliability. The Journal of Educational Psychology, 34 (4), 485-494. Cronbach, L. J. (1946). A
case study of the split-half reliability coefficient. The Journal of Educational Psychology, 37 (3), 473-480. Cronbach, L. J. (1947). Test
“reliability”: its meaning and determination. Psychometrika, 12 (1), 1-16. Cronbach, L. J. (1951). Coefficient alpha and the internal Structure of
tests.80 Psychometrika, 16 (2), 297-334.
La covarianza entre dos variables aleatorias es una medida indicadora de cuanto las dos variables varían juntas. Si dos variables aleatorias son
independientes entre sí, su covarianza será cero. Lo contrario no sería cierto.
81 Brown, W. (1910). Some experimental results in the correlation of mental abilities. British Journal of Psychology, 3 (3), 296-322. Spearman,
C. (1910). Correlation calculated from faulty data. British Journal of Psychology, 3 (2), 271-295.
110

480. Describe lo siguiente: la habitual división par – impar de elementos para determinar la
fiabilidad por la prueba de las dos mitades, no garantiza, de forma alguna, equivalencia entre
las dos partes de la prueba. Y, la fórmula de Spearman Brown, citada para su uso también por

Likert, sólo es aplicable cuando la equivalencia ha sido garantizada. A lo que encarga una
solución poco ortodoxa, pero recomendable.

El Método Paralelo – Split, o Método de las Dos Mitades Paralelas. Sin embargo, para ello

.t sería necesario un diseño deliberado donde las dos mitades sean similares en forma, contenido y
rke
dificultad. Esto es ventajoso, ya que en una división única, las medias pruebas son
i
L comparables, las mitades son representativas de la totalidad, y el procedimiento requiere poco
de
sal más de trabajo que el par-impar o el método aleatorio de división. Todo esto aparece en el
sc Abstract de la obra. Es de recalcar que los Escalogramas de Guttman si cumplen con todos estos
E
sla criterios.
e
d
ad Problema 6, es fácil de comprobar el hecho de que es estadísticamente imposible, a menos
ild
que esté mal estructurado el cuestionario, que las distribuciones frecuenciales de las respuestas
bi
la en sentido positivo, siempre superan a las del sentido negativo. No importa el tipo de afirmación,
F
a es muy común conseguir tales resultados. Una mal asignación de los valores numéricos a los
L
.to
ne ítems del test pueden derivar en un coeficiente de correlación negativo. Y para demostrar la
rim validez de los ítems indiferenciadores, su coeficiente de correlación ha de ser cero. Es decir, esta
e
xp magnitud numérica indica que un ítem es respondido de la misma manera por el grupo entero. Lo
E. que significa que no se están observando diferentes actitudes para el mismo continuo sicológico.
s
V
at
sue Problema 7, el coeficiente de fiabilidad alfa de Cronbach usado en las escalas Likert es
nc manipulable con software estadístico, dicho de otra forma, al obtenerse o imitar haber
E
:na obtenido82 los datos necesarios para el cálculo de la confiabilidad, basta con variar el nivel de
ue
heterogeneidad de los datos para hacer incrementos en el coeficiente.
alb
V Problema 8, otro asunto importante dentro del sistema de escalas Likert consiste en la
na
oim cercanía de las afirmaciones: Totalmente de Acuerdo y Parcialmente de Acuerdo. ¿Cuál es la
R diferencia absoluta entre Total y Parcial?83 Su proximidad es tan estrecha que se dificulta

82 Lamentable pero cierto, en Internet es posible conseguir tablas completas con los valores entre 5 puntos y un punto de la escala Likert,
arrojando confiabilidades de hasta 0,96. De hecho, si lo desea, Ud. mismo puede definir el valor de confiabilidad deseado, y sólo posterior a ello
es83 que
Comose proceden
opción a esta
a llenar los cuestionarios
disyuntiva con los
se recomienda el Método
datos sugeridos.
del Escalograma de Guttman. Este aporta soluciones al problema de medir la variable
en una sola dirección, como el caso Likert, aquí también se obtiene una escala de entrelazamiento con nivel ordinal. Esta escala es acumulativa y
presupone que una respuesta positiva a un ítem, hace pensar que los anteriores también lo han sido. Su diferencia con el método Likert es que sus
juicios escalan en intensidad, dicho de otra manera, algunos ítems tienen más fuerza que otros. Allí no se calcula el coeficiente de confiabilidad
sino un coeficiente de Reproducibilidad. Donde se calcula también una Reproducibilidad Mínima. El coeficiente de Escalabilidad de Guttman es
posible calcularlo posterior a la aplicación del test, así como en pruebas pretest y postest en grupos de control sobre diseños experimentales. Esto
no es posible con las Escalas Likert. Su principal ventaja en el caso de esta pregunta, es que permite diferenciar distintas posiciones para un
mismo sujeto dentro de la escala, evitando la diatriba de la cercanía entre una opción y otra. Sin embargo, su uso es tan esporádico que es común
que lo objeten en las universidades, sobre todo, cuando el tutor o jurado sólo han estado en contacto con las escalas Likert.
111

conseguir una variación entre una y la otra. Implicando que al encuestado le da igual contestar a
la primera o la segunda, a la final los 5 puntos de la primera se acercan a los 4 de la segunda.
Aquí entra en juego el problema de la equidistancia entre las categorías de la dimensión.

Las escalas Likert son unidimensionales, continuas y constantes, allí existe una distancia de
separación inmensurable pero evidentemente desigual entre las categorías donde los grupos de
respuestas serán colocadas. Si la distancia entre las categorías no es constante dentro de lo
.t continuo se afecta gravemente la validez.
rke
i Así mismo, Problema 9, se ha comprobado sicológicamente que el encuestado al tomar la
L
de opción Nula o Indeciso, tiende a creer que afecta negativamente al tema en cuestión, así como,
sal
sc intentará parecer más moderado que extremista omitiendo el uso de valores extremos. Esto le
E lleva a ubicarse dentro de las dos elecciones que representan las partes positivas y negativas.
sla
e Ambas opciones, por estar tan cercanas, convierten subjetivamente al cuestionario en
d
ad dicotómico84, pues hace que el encuestado sólo se dedique a contestar positiva o negativamente.
ild
bi Problema 10, los cuestionarios en general, presentan el serio problema denominado: Efecto
la
F de Regresión Estadística. Para visualizarlo debe recurrirse a los sistemas Pretest y Postest.
a
L Campbell y Stanley (1963), citados en: Arnau, Anguera y Gómez (1990, p. 110-111), afirman
.to
ne que los errores ocasionados por no haber tenido en cuenta el efecto de regresión estadística, han
rim
e originado muchos problemas… una de las causas más importantes de este efecto recae sobre la
xp
E. falta de fiabilidad de los cuestionarios. Así, cuanto menor es la correlación entre ambos
s cuestionarios o pruebas, mayor será la regresión hacia la media.
V
at
sue
Por otro lado, la manera ideal de colocar puntuaciones en esta escala es:
nc
E
:na -2: -1: 0: 1: 2
ue
alb Allí están contenidas todas las opciones, las del lado izquierdo representan el modo correcto
V de puntuar el objeto de actitud negativo, y las del lado derecho el modo correcto de los positivos,
na
oim el cero no suma ni resta puntos a la escala, así al sumar las opciones de cada lado, en ningún
R momento se obtendrán mayores puntuaciones sobre los objetos de actitud positivos. De hacerse
de manera incorrecta, se colocaría mayor puntaje a todo aquel que conteste de manera positiva,

infravalorando los aportes de los que su objeto de actitud es disímil. La gráfica siguiente presenta
mejor las deferencias.

84 Renkis Likert recibió su grado de PHD en 1932 en la Universidad de Columbia por este trabajo de las escalas, no obstante, en su tesis original
las escalas eran dicotómicas. Aunque UD. no lo crea.
112

1:
2: Ni
3:
4:
5: Modo
de acuerdo
en
de
Parcialmente
Totalmente en
de
ni Incorrecto:
Desacuerdo
en Desacuerdo
Acuerdo.
Desacuerdo
Acuerdo Modo Correcto:
-2: Totalmente en Desacuerdo
-1: Parcialmente en Desacuerdo
0 : Ni de acuerdo ni en Desacuerdo
1: Parcialmente de Acuerdo
2: Totalmente de Acuerdo.

4.3.1.- Sobre los Errores entre los Tests y sus Estadísticos

Añadiré a partir de aquí, una serie de consideraciones ya no tipo cuestionamiento a las escalas
.t
rke de Likert, sino, a la toma en cuenta de los métodos, procedimientos estadísticos y pruebas usadas
i
L para calcular validez, confiabilidad y otros indicadores de importancia generalmente omitidos
de
sal por parte de los investigadores.
sc
E Aunque parezca increíble e irreal, es aquí donde se cometen la mayor cantidad de anomalías a
sla
la hora de reportar los resultados estadísticos de un trabajo. Todas refieren a las fórmulas usadas
e
d en relación con la estructura interna de los test, además de su construcción y selección de la
ad
ild muestra sobre la cual el instrumento es aplicado. Tenga presente el investigador que debe estar
bi
la en capacidad de diferenciar entre el tipo de test y el procedimiento estadístico adecuado para
F
a determinar fiabilidad. Comienzo entonces…
L.
to
ne La fórmula alfa “α” es un caso especial del coeficiente de Kude – Richardson de
rim
equivalencia. Alfa “α” consiste en estimado de la correlación entre dos muestras aleatorias de
e
xp
E. ítems de un universo de ellos. Alfa sirve como coeficiente de equivalencia y, excepto para test
s
V cortos, es el factor más importante a calcular para darle fiabilidad al cuestionario. El índice ⃗⃗⃗⃗
at
sue derivado de alfa “α”, es un índice de homogeneidad inter ítem. La comparación se hace a través
nc del enfoque Guttman–Loevinger85.
E
:na
ue En este tipo de test la escalabilidad no es un requisito como en los Escalogramas de Guttman.
alb No obstante, comúnmente se sucede que se asigna un valor numérico a la confiabilidad sin haber
V
na tomado en cuenta la homogeneidad, ni haber ejecutado la correlación entre las dos muestras
oim respectivas que surgen a partir de la división en dos mitades del test.
R

85 Se denomina Modelo Guttman Loevinger ya que presenta una combinación de los supuestos teóricos de estos dos científicos. Louis Guttman
desarrolla un continuo unidimensional para un concepto que se desea medir usando para ello sus Escalogramas. Jane Loevinger en 1947 presenta
su coeficiente de escalabilidad de Loevinger. Este coeficiente se define en términos de errores de una escala Guttman que compara un patrón de
respuesta observado con el patrón teórico ideal que debiera seguir una escala acumulada. Es decir, selecciona la proporción entre los coeficientes
KR-20 y KR 21 dicotómicos de Kude Richardson. Allí se compara la proporción entre el coeficiente acumulado calculado KR-20 y el coeficiente
teórico del mismo para una escala ideal con las mismas dificultades. Pues, existen situaciones donde los patrones teóricos calculados y los
observados no coinciden entre sí. Posteriormente este coeficiente fue propuesto para ser aplicado a escalas politómicas como la de los test que
aquí menciono.
113

Ahora bien, existe cierta relación demostrada86 entre la fórmula de Spearman Brown y el
Coeficiente de Alfa de Cronbach, detállense las dos fórmulas:

Formula de Alfa de Cronbach Fórmula de Spearman Brown


∑ ]
[
( )

Si observamos la fórmula de Spearman Brown, donde es el promedio de correlación inter


.t ítems, su lado izquierdo alude al coeficiente alfa y su lado derecho responde a la fórmula de
rke
i Spearman Brown. Cualquiera de las dos podrá ser usada sí y sólo sí, se asume que las varianzas
L
de de los ítems son iguales, para tal argumento las fórmulas serán equivalentes. Caso contrario, los
sal
resultados numéricos serán diferentes y ambas tendrán aplicaciones según sea cada caso. Hoy
sc
E día, difícilmente un investigador tome precaución del tema y omitirá detalles que invalidarán su
sla
e trabajo.
d
ad
ild La fórmula de Spearman Brown y el coeficiente de alfa son equipares en virtud de igualdad
bi de varianzas usando correlaciones medias entre los elementos internos. Un coeficiente de
la
F confiabilidad demuestra que el test diseñado es correcto en función de cierta colección de ítems
a
L para rendir sentencias interpretables sobre diferencias individuales. En esos casos son
.to
ne recomendables los sistemas de pre y post test. Con respecto al método de las dos mitades (Half–
rim
Split), se usa para re-puntuar cada mitad de los ítems y en cuyo caso, logrará obtener dos
e
xp
estimaciones.
E.
s
V Posteriormente, se aplica la fórmula de Spearman Brown para obtener un coeficiente similar a
at
sue la correlación entre las dos formas. Se recomienda aplicar un re-test luego de un intervalo usando
nc
E un test idéntico, esto indicará el cómo son las puntuaciones que luego podrán ser llamadas
:na
coeficientes de estabilidad. Refiérase a la gráfica a continuación:
ue
alb
Índice o Coeficiente de Fiabilidad
V
na Test Tipo Coeficiente Apropiado Significado
oim Correlación entre dos instrumentos
paralelos cuyo objetivo es medir el
Formas Paralelas Coeficiente de Equivalencia mismo continuo sicológico pero de
R
manera diferente.
Test - Retest Coeficiente de Estabilidad Indica hasta qué punto las
puntuaciones de un primer test se
mantienen durante un segundo test.
Grado con el cual los ítems de un test
Dos Mitades Indicador de covariación de
miden el mismo constructo.
Consistencia Interna

86 Nydick, Steven graduado de PHD en la Universidad de Minnesota en Sicología Cuantitativa y Métodos Sicométricos. Egresado de pregrado de
la Universidad de Siracusa en Matemáticas y Sicología, en (2012), basado en lo escrito por: Lattin, Carrol y Green. (2003). Redacta un artículo
denominado: The Relationship between Spearman Brown and Cronbach´s Alpha. Allí, en cuatro páginas logra demostrar que si las varianzas son
iguales, las fórmulas de Cronbach y Spearman Brown son equivalentes.
114

Si dos sujetos son encuestados en un primer momento con un test, y en una segunda ocasión,
se les administra una forma distinta pero equivalente, y como resultado sus puntuaciones son
altamente correlacionadas, el coeficiente resultante de las dos formas será llamado coeficiente de
estabilidad y equivalencia. Quiere decir que el test es estable longitudinalmente en el tiempo. En
las pruebas de las dos mitades, a la fiabilidad se le asume como el grado con el cual los ítems de
un test miden el mismo constructo. Téngase siempre en cuenta de que para garantizar fiabilidad
en un test, al menos 85% de los ítems han de haber sido respondidos.
.t
rke Una prueba de por sí, puede no ser internamente homogénea, sin embargo, si se planifica una
i
L
de forma equivalente, puede llegar a presentar una alta correlación con la primera. Cuando se hace
sal mención a los criterios de fiabilidad, no importa cuán alto resulte el coeficiente de equivalencia,
sc éste siempre tendrá menor aceptación que el coeficiente de precisión, el primero se basa en la
E
sla comparación de diferentes ítems, el otro en dos pruebas contentivas de los mismos ítems. El
de
coeficiente o índice de precisión se calcula sacando raíz cuadrada al coeficiente alfa.
da
ild √.
bi
la
F La fórmula de Kude Richardson asume que los ítems correspondientes de un test paralelo
a
L presentan el mismo contenido común y el mismo contenido específico. Aunque existen casos
.to
ne especiales de aplicabilidad de esta fórmula: . La primera se usa cuando los ítems
mi del test son dicotómicos, o podrían tener una distribución binomial en el conjunto de los
re
xp reactivos. La segunda se aplica cuando se cumple el criterio de dicotomía, y además presenten
E.
s igual índice de dificultad.
V
at
sue La covariación se presenta a través de un indicador de covariación obtenidos desde las dos
nc
mitades, es decir, una mitad varía conforme a otra también lo hace. Y, dado que algunos test
E
:na aumentan su dificultad a medida que se avanza en las respuesta de sus ítems, se recomienda
ue
alb dividirlo en dos mitades, par e impar, y no en dos mitades absolutas.
V El estadístico a utilizar en el análisis de fiabilidad dependerá de los objetivos de conocimiento
na
mi que el investigador se haya trazado y de los objetivos estadísticos considerados convenientes.
o
R Pudiendo usarse más de uno en cada caso. Podrían presentarse procesos donde se necesite un
análisis específico, que no sea estrictamente necesario sino para dilucidar una hipótesis de

trabajo no vinculada a la investigación.

Por ejemplo, si el equipo de investigación presentar ciertos grados de desacuerdo en los


procedimientos, técnicas, instrumentos o incluso difieren en los estadísticos a usar para las
hipótesis, podrá hacer uso interno de un test efectivo y poderoso denominado Test
Intercalificador. El cual consiste en una medida de acuerdo o desacuerdo, se logra al hacer que
115

dos o más personas califiquen conductas y determinen el grado de acuerdo entre ellas usando el
indicador Kappa de Cohen. Este tipo de calificaciones establecen concordancia absoluta entre
las muestras.

(Cohen J. , 1960), introduce este coeficiente como forma de medir el acuerdo entre dos
evaluadores para una escala de datos categóricos nominales. Aunque en sus inicios presentó
errores al calcular el estimador de varianzas, en 197187 se hicieron las correcciones y
.t modificaciones al Coeficiente Kappa para situaciones que envuelven a múltiples observadores y
rke
múltiples categorías. Se recomienda usar Kappa sólo bajo estas dos condiciones: 1) un mismo
i
L
de ensayo de cada muestra es estudiada por dos evaluadores; 2) un mismo evaluador valora dos
sal ensayos de cada muestra.
sc
E
sla A continuación la forma modificada de valorar Kappa:
e Valor del Índice Kappa Grado de Acuerdo
d
ad
ild <0 Sin Acuerdo

bi 0,1 → 0,2 Insignificante


la
F 0,3 → 0,4 Bajo
a 0,5 → 0,6
L. Moderado
to 0,7 → 0,8
ne Bueno
rim 0,9 → 1 Excelente
e
xp
E. Otra herramienta poderosa consiste en el cálculo del Coeficiente de Concordancia de
s
V
at Kendall, se usa para medir el grado de asociación de las evaluaciones ordinales cuando
sue
nc múltiples calificadores intervienen y tasan las mismas muestras. Sirven en gran medida para
E conocer el grado de concordancia entre atributos de las variables en estudio. Al igual que Kappa,
:na
ue varía entre 0 y 1, donde, cuanto mayor sea el valor mayor será el grado de asociación.
alb
V Comúnmente se emplea en conjunción con el Coeficiente de Correlación de Kendall, allí cada
na evaluador es delimitado con un coeficiente de correlación que le es propio con el fin de
oim
identificar su concordancia contra la de un modelo estándar conocido o bajo experimentación.
R
Ello ayuda a determinar si un calificador es consistente pero no muy exacto. Luego de lo
planteado para Kappa y Kendall, ¿Cuál usar?, bien, use Kappa cuando su nivel de medición sea
nominal u ordinal. Kendall sirve para cuando las variables se midan por escalas (ordinal) y para
cuando se tiene un modelo específico de referencia para cotejar.

87 Todavía en 1987 este coeficiente presentaba inconvenientes, varios trabajos hasta la fecha habían surgido para criticarlo debido a su tendencia
a fluctuar con los tipos de muestras base. Esto dificulta construir un modelo específico para la toma de decisiones. Esta variabilidad hace que si
no se toman las debidas precauciones, el coeficiente Kappa derivado del estudio podría llegar a cuestionarse. Aparece en: Uebersax, John. APA
Psycnet. American Psychological Association. Diversity of Decision-Making Models and the Measurement of Interrater Agreement.
Psychological Bulletin, Vol. 101(1), Jan 1987, 140-146.
116

4.3.2.- Limitaciones y Alcances de los Instrumentos: Efectos Techo y Piso

Sobre el Efecto Techo, muy pocas veces he podido apreciar en la construcción y validación
de cuestionarios, y que debiese ser más normal, la introducción y cálculo de los efectos techo y
piso de la estadística. El efecto techo se sucede como una limitación cuando la puntuación más
alta en un test ha sido alcanzada y sus unidades de análisis tienden a agruparse en torno al límite

superior. En este “techo”, la variable independiente deja de ejercer fuerza sobre la dependiente,
.t allí toda oscilación de la variable independiente ya no podrá ser capturada por el test.
rke
i Quiere decir, representa un nivel donde la varianza de la variable independiente ya no puede
L
de
sal ser medida o estimada limitando el alcance del instrumento, ya que todas sus unidades están

sc agolpadas en un solo punto sin movimiento alguno. Pues los sujetos estudiados sobre la variable
E observable ya han alcanzado su máxima puntuación.
sla
de
El Efecto Piso por su lado, es la situación contraria del efecto techo, es cuando el cuestionario
da
ild arroja las medidas más inexactas posibles y cercanas a su pie, sus unidades están agolpadas
lib
a ahora en la base. El también denominado efecto base se alcanza cuando los datos capturados por
F los instrumentos tocan el límite inferior. Ambos efectos comprometen la fiabilidad del test
a
L.
to causando problemas en algunos tipos de análisis <<el de varianza sobre todo>> ya que reduce la
ne
posibilidad de medir la cantidad de variación real en las variables.
mi
re
xp Desde el punto de vista estadístico, el efecto techo ocurre cuando la variable dependiente “y”
E.
s logra igualarse en las condiciones impuestas para su control y para su tratamiento, pues ambas
V
at han alcanzado sus máximas puntuaciones. Los dos efectos tienen su origen a defectos en las
sue
nc pruebas para los diseños experimentales, y problemas en interpretar lo que realmente debe ser
E medido en los cuestionarios de las ciencias sociales. Ambos efectos pueden ser detectados
:na
ue cuando son conocidas las puntuaciones máxima y mínima que puede alcanzar un test, y
alb observando las gráficas derivadas desde sus datos, un sesgo negativo marca la presencia del
V
na efecto techo y uno positivo la del efecto piso. Un investigador, si desea ser denominado como
mi tal, ha de prever este tipo de situaciones.
o
R
Para finalizar, a continuación un compendio de observaciones que deben tenerse en cuenta a
la hora de diseñar un cuestionario:

• Según la tabla estadística de Arkin y Colton, para poblaciones inferiores a 500 individuos una
muestra representativa debe ser superior a la mitad de la población.

• Ha de prestarse sumo cuidado a la secuencia relacional concurrente entre: objetivos,


propósitos, técnica e instrumento.
117

• Se hace necesaria la apreciación y encadenamiento entre: diseño de la investigación, técnica


usada en el diseño e instrumentos usados en la técnica.
• Si existe una elevada cantidad de indicadores, se hará necesaria la aplicación de un muestreo
sobre ellos con el fin de reducirlos. Básicamente consiste en aplicar un análisis discriminante
y se seleccionan por orden de importancia.
• Una escala Likert se diseña para una escala de medición ordinal y no puede evaluar más de un
constructo a la vez.
.t
rke
En resumen, a los investigadores se les recomienda usar la encuesta sólo bajo estos dos
i
L
de supuestos, caso contrario, intente la experimentación:
sal
sc - Sólo se desea establecer relaciones entre variables mediante observación.
E - Se es imposible la manipulación, al menos de las variables independientes.
sla
e
d Es posible conducir encuestas en un laboratorio, así como también es posible llevar a cabo
ad
ild experimentos en comunidades. Sin embargo recuérdese, una encuesta jamás podrá producir
bi descubrimientos relevantes ni mucho menos juicios conclusivos del tipo Sintéticos. Todo
la
F
a experimento persigue: establecer causalidad; cristalizar explicación causal a través de principios
L.
to verdaderamente concluyentes y, deducir cierta cantidad de predicciones que puedan sucederse
ne
sobre el fenómeno.
rim
e
xp Para Popper88, dar una explicación causal de un acontecimiento implica la deducción de
E.
s enunciados que describen al fenómeno basado en premisas deductivas. Originándose estas en
V
at una o varias leyes universales y determinada cantidad de enunciados singulares que hayan sido
sue
considerados como condiciones iniciales. Para una explicación causal completa son necesarios
nc
E estos dos ingredientes. Las condiciones iniciales describen lo que en investigación experimental
:na
ue se suele llamar causa, y el efecto89 representa la predicción. A todas luces imposibles de obtener
alb con una encuesta.
V
na
oim
R

88 Aparece en la Primera Edición del Libro: La Lógica de la Investigación Científica. 1991. México. Pp. 57-74.
89
La Relación Causa-Efecto como principio es contrapuesta. Todo efecto ha de provenir de una causa que lo justifique, no es posible un efecto
cuya causa se determine imposible, para un mejor entendimiento recomiendo hacer lectura del Principio de No contradicción Lógica en este
texto. Capítulo I.
118

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO V: ACERCA DE
LAS FORMAS DE
RAZONAMIENTO
CIENTÍFICO…

El razonamiento científico es un tipo de diálogo entre lo posible y lo real, entre el podría ser y
el hecho.

Peter Madawar.
119

5.1 – El Método Hipotético Deductivo Vs. El Método Hipotético Inductivo

Estoy convencido de que es imposible exponer los métodos de


inducción de una manera sólida sin descansar así sobre la
teoría de la probabilidad. El conocimiento perfecto por sí solo
puede dar certeza, y en la naturaleza el conocimiento perfecto
sería infinito conocimiento, que está claramente más allá de
nuestras capacidades. Tenemos, pues, que contentarnos con
conocimientos parciales. El conocimiento mezclado con la
ignorancia produce dudas.
deducción
apveracidad
rocedimiento mediante
o falsedad de
<<Conducir William Stanley Jevons.

a partir de>> consiste en una operación de la inteligencia, un

L el cual, iniciando desde proposiciones, se intenta demostrar la


una inferencia como consecuencia lógica de una cadena de
enunciados, llámense premisas y conclusiones, aplicando para ello las leyes de la lógica. Se
constituye como un método donde el científico marca su índice discursivo desde lo general a lo
particular con escalas intermedias, es decir, inicia en lo abstracto pero se sumariza y lo hace
entendible en lo concreto. La deducción se origina desde principios generales denominados leyes

o axiomas que permiten la concatenación entre los objetos de estudio y los fenómenos de la
naturaleza, además de coexistencias y nexos estables, diseminando y proyectando en cierto
grado, conocimientos que expliquen el cómo aquello particular se produce desde lo universal.

En tiempos recientes, el razonamiento deductivo se ha convertido en una rama de estudio de


la sicología y las neurociencias cognitivas. Allí se estudian a los individuos interpretando sus
destrezas mentales para relacionar enunciados a través de un indicador denominado “Cogency”

“Fuerza Lógica”. Según George Stock90 (1888, p.133), el razonamiento deductivo es el que da
origen a inferencias deductivas, y estas son de dos tipos: Inmediatas y Mediatas. Una inferencia
inmediata se llama así porque se ve afectada sin la intervención de un término medio, que se
requiere en la inferencia mediata. Sin embargo, se diferencian en lo siguiente: una inferencia

inmediata es aquella derivada de una proposición simple. Contrariamente, la mediata se obtiene


de dos proposiciones conjuntas91.

Gran cantidad de inferencias deductivas requieren de cierto grado de abstracción para lograr
una correcta vinculación, pues lo que es una verdad en una dirección puede no serlo en otra,

90 Chapter II: Of Deductive Reasoning. Aparece en: Deductive Logic. Londres, Longmans, Green and Co.
91 No debe confundirse con el Término Entimema o silogismo truncado, pues, es muy común en la retórica y en ocasiones se usa para intentar
esconder falacias no formales.
120

preste atención al siguiente ejemplo92:

Premisa Mayor:→ ”Calvin se muerde las uñas mientras trabaja”

Premisa Menor:→ ”Calvin está trabajando”

Conclusión:→ ”Calvin se está mordiendo las uñas”


Debido a que la última afirmación debe ser verdad cuando ambas declaraciones anteriores lo
son, estas premisas implican la conclusión. Por el contrario, afirmar que “Calvin se muerde las
uñas mientras trabaja” y “Calvin se está mordiendo las uñas” no quiere decir que Calvin está
trabajando, porque también es posible que Calvin se muerda las uñas fuera del trabajo. Es decir,
.o
ic en un enunciado deductivo siempre que las premisas sean ciertas la conclusión también lo será.
tíf
nie La comparación de estos resultados sobre sujetos experimentales da luces a la formulación de
C una revisión de la teoría de la mente y la teoría de la lógica. La lógica deductiva como rama de la
ot
nie
filosofía y las matemáticas están claras en el contenido y contexto de aplicación de la deducción,
am más sin embargo, es la sicología la que trata de reconocer vínculos entre las respuestas naturales
no
az humanas y las decisiones lógicas basadas en matemáticas, puesto que la razón es limitada, la
R
e matemática no.
sd
a
rm Audi93 (1995), define como deducción a; una secuencia finita de sentencias, donde a la última
o
F se le admite como una conclusión (lo que es deducido). Deducción es sinónimo de derivación. El
sla
e concepto de deducción es una generalización del concepto de prueba. Una prueba consiste en
d
arc una secuencia finita de sentencias, cada una de las cuales es un axioma o sigue de preceder
ce
sentencias en la secuencia como lo plantean las reglas de la inferencia, donde la última sentencia
A
:na
de la secuencia se convierte en un teorema. Es así como toda ciencia deductiva es axiomática.
ue
alb
La deducción se soporta sobre la validez, define con precisión y no asentado en opiniones y
V
na creencia como en la investigación social94. En deducción, sus argumentos se basan en reglas y
oim
principios que posteriormente son usados en el razonamiento teoremático, allí un argumento será
R
válido si ninguna otra premisa resulta también verdadera, en otras palabras, está libre de

contradicciones. Según este método, las premisas son absolutamente necesarias para toda
conclusión científica, y sus generalizaciones son las más poderosas que razonamiento alguno

92 The MIT Encyclopedia of Cognitive Sciences. (1999). Wilson y Keil Editores. Deductive Reasoning, Pps. 225 y ss. Véase.
93 Audi Robert. The Cambridge Dictionary of Philosophy.
94 Hegel (1770 – 1831), en su Libro: La Ciencia de la Lógica, introduce un concepto denominado: Entendimiento Reflexivo, adoptado por la
filosofía (aquel que abstrae separando y estudia tal separación), y que consiste en lo siguiente: superar todo aquello concreto inmediato,
determinándolo y dividiéndolo. Al superar aquellas determinaciones divisorias habrá que relacionarlas mutuamente. Más, este proceso surge de la
observación de la necesaria contradicción y es el que introduce a la razón como aquello superior al intelecto humano común. Ahora bien, en la
investigación social no se profundiza en el valor de verdad que aporta la contradicción (si bien las contradicciones lógicas deben eliminarse,
algunas no tan lógicas resultan fructíferas), se puntualiza más sobre aquello concreto inmediato y que bien se le podría denominar Conocimiento
de las Apariencias, pues, no se especifican las necesarias relaciones sujeto objeto. Establecer una relación sujeto objeto de esta manera, hace que
no sea posible el reproducir concordancia, y la verdad queda restringida por la subjetividad. Tales prerrogativas derivan en que un saber obtenido
de tales actividades científicas se vea reducido a simples opiniones.
121

pueda arrojar, contrario a la inducción, sus inferencia son exactas, demostrables y no


probabilísticas.

Deducir es concebir un juicio corto habiendo iniciado desde nociones más extensas, y es
donde una verdad general (ley) puede ser reducida a una particular. Según extractos de
Nicomedes Martin Mateos (1862, p. 115 y ss.), la deducción se soporta sobre un principio
evidente e incontestable de lo suyo, pues lo que se dice o afirma sobre un género, aplica también
para las especies que este contiene. Puesto que deducir es un constante enlace de sentencias que
se sigan las unas de las otras presentando nexos de igualdad, no contradicción, tercero excluido y

.o relación, el axioma de deducción podría plantearse así: Dos cosas iguales a una tercera son
ic
tíf iguales entre sí. Las reglas simplemente son dos: 1) Reflexionar si el principio general es
nie
legítimamente adquirido determinando exactamente su valor; 2) Reflexionar con el mismo
C
ot cuidado sobre los datos de la particularidad, para ver si los posee todos.
nie
am La Inducción por su lado, es una operación del pensamiento y la razón, mediante la cual,
no
az partiendo desde materiales intelectuales necesarios y suficientes, se expresa una conclusión
R general soportada sobre un conjunto de premisas obtenidas desde la observación, la experiencia,
e
sd
a o simplemente originada como evidencia experimental. Todo principio general usado en ciencias
rm
o para construir los axiomas que soportan a una teoría es resultante de la inducción. Más, lo único
F
sla que puede justificar un razonamiento inductivo, es que pueda ser probado por deducción cuando
e se parta desde principios evidentes e indemostrables contenidos en el ejercicio inductivo.
d
arc
ce Según Aristóteles, una inducción es una deducción que, en lugar de deducir un extremo de
A
:na otro mediante el término medio, como hace el silogismo verdadero, deduce el término medio de
ue un extremo, valiéndose del otro extremo95. No obstante, a la inducción se le considera como un
alb
tipo de argumentación que se ha transformado al pasar los años, en una fuente de creencias y una
V
na
forma de ampliación del razonamiento. En escritos de Andrés Piquer (1781);
oim
R Llamaré inducción a la manifestación de un universal por la enumeración de todos
los particulares... Son innumerables los errores que se cometen en las ciencias por el
mal uso de la inducciones; pues sin hacer bien las enumeraciones de los particulares,
se sientan máximas universales, que sólo son ciertas cuando aquellas incluyen a
todos sin faltar ninguno, (p. 61).

Nicomedes Op, Cit, aporta las siguientes consideraciones; la deducción es el modo de


razonar por el que procedemos del género a las especies y a los individuos, (p. 115). Sostiene
que al ejecutarla no se trata de servirse de los individuos para adquirir conocimiento de lo
general, contrariamente, se usa el conocimiento de lo general para conocer a los individuos. No

95 Puede leerse en Moreno Villa (2003, p. 150).


122

es posible deducir sino después de la inducción, pues la deducción para la ciencia es garantía de
certidumbre. Ambas operaciones, inducción y deducción están conexionadas entre sí, tanto así
que la segunda no puede existir sin la primera, y la primera no puede ser aplicada y verificada
sino por medio de la segunda.

La inducción en muchos casos parte del principio de asociación de ideas, este consiste en un
patrón mediante el cual cada elemento, signo, cosa o detalle del conocimiento, que se da lugar en
la conciencia, ocurren juntas o en sucesión. Donde se producen conexiones fuera de algún acto

sensible, haciendo emerger ideas que se sigan consecutivamente pudiendo considerarse como
.o fuente de imaginación o ilusión. La imaginación es fuente de verdades si estas pueden ser
ic
tíf probadas a posteriori, más no así la ilusión. Llámese a la imaginación o las ideas como los
nie
particulares enumerados y no ejecutados, y lo universal a la conclusión que los agrupa.
C
ot
nie
am
no
az
R
e
sd
a
rm
o
F
sla
e
d
arc
ce
A
:na
ue
alb
V
na
oim
R
123

5.2.- El Método Hipotético – Deductivo o Método de las Hipótesis

Hemos llegado a la escena del crimen. Permítanme planificar


las principales acciones. Al acercarnos al caso recordemos, la
mente ha de estar absolutamente en blanco, eso siempre es una
ventaja, pues no hemos forjado teoría previa alguna. Estamos
aquí simplemente para observar y sacar conclusiones a partir
de allí. Razonemos hacia atrás… es decir… deduzcamos.

Sir Arthur Conan Doyle. The Adventure of Cardboard Box.


(1893). Aventuras de Sherlock Holmes.

oda
derivan
una ciencia
teoría deductiva
de de
ellas presenta
teoremas
referencia su seguido,
acto se en
se llega
→→subsiguientemente
metodología96, a un primer momento
la observación,
plantean las hipótesis se parte desde
persiguiendo
necesarias

T
que sirvan para confirmar o rechazar las hipótesis → por último, se procede a la confirmación o
y se
datos

desconfirmación de aquella predicción planteada por la teoría. Desde el punto de vista de este
método, el científico cuando se avoca al estudio de un fenómeno, hace uso de una teoría u otra,
propia o no, sin embargo, ésta necesita ser evaluada sometiendo a prueba predicciones
observacionales conocidas como consecuencias deductivas. Tenga presente siempre dos
operaciones mentales de suma importancia, la intuición y la deducción, sin ellas es prácticamente
imposible cristalizar conocimientos.

Cuando la predicción se corrobora, es decir, al comparársele con la experiencia se torna


conforme, entonces se acepta la teoría, si la predicción es falsa, se rechaza. Significa que en la
realidad no se observa lo que la teoría plantea, e implica modificar la hipótesis o sencillamente
descartarla. Es la lógica formal la que describe en sí cómo ha de ejecutarse toda ciencia
deductiva. Stuart Mill97 (1858), asevera que en las ciencias deductivas hay cosas que no pueden
observarse directamente, entonces habrán de probarse.

Si el fenómeno pudiese fijarse de una vez por observación directa, entonces no habría
necesidad de series de raciocinios ni existirían ciencias deductivas o demostrativas. Para
proceder con una investigación, el científico ha de estar claro sobre lo que pretenden él y la
ciencia para la cual opera, en función de ello Aristóteles expresa lo siguiente: al que ignora cuál
es el objeto de la ciencia que estudia, no le es fácil llegar a saber en qué cosas se consigue dicho

96 En muchos libros se puede encontrar que el Método Hipotético Deductivo sigue los siguientes pasos: Observación – Planteamiento de
Hipótesis – Deducción de conclusiones y Verificación. Más sin embargo, el primer paso que consiste en la observación generalmente viene
Véase:deCapítulo
cargado97 IV: p.
teorías, por lo 287.
que se
Depresenta
las Series de Raciocinios
como inicio para este
y detexto,
las Ciencias
una teoría de referencia.
Deductivas.
124

objeto, y de qué manera98. En párrafos de Liebig99 (1867), desde el nacimiento de la ciencia han
existido dos métodos para el estudio de los fenómenos de la naturaleza; la inducción y la
deducción. Ambos son caminos que conducen al mismo término, pero difieren del punto de

partida, cuando los dos métodos se hallan reunidos, la inducción precede a la deducción. Según
Liebig, es así como la deducción convierte en apodíctico y verdadero, aquello concebido desde
la inducción.

La deducción como método parte desde el conocimiento del fenómeno hasta su explicación,
es allí donde se convierten hechos en conceptos. Liebig Op, Cit, afirma que cuando se usa la

.o deducción para conducir a buen fin una investigación científica, ha de proveerse mediante
ic
tíf operaciones de la inteligencia de conocimientos exactos y una justa apreciación de las
nie
circunstancias, basta con que se presenten obstáculos nuevos o leyes desconocidas que sirvan de
C
ot intermedio entre los fenómenos y su concepción, para que esto se convierta en un estorbo que no
nie
pueda eliminar sin recurrir a la imaginación. Basta con que falte algún hecho para que el espíritu
am
no se halle cara a cara con un vacío que no podrá llenar. Más en la actualidad no se admite este
az
medio en las explicaciones científicas, necesarias son operaciones inductivas.
R
e
sd
a 5.2.1.- El Método Hipotético – Inductivo
rm
o
F La inducción para muchos no es considerada un método100 <<hecho indiscutible y en
sla
e cierto sentido Aristóteles así lo plantea>> sino como una regla o procedimiento usado en la
d
arc investigación científica. Para John Stuart mil101, la validez de todos los métodos inductivos
ce depende de la suposición de que cada evento, o el comienzo de cada fenómeno, deben tener
A
:na alguna causa, algunos antecedentes, de la existencia de la que es invariable e
ue
alb incondicionalmente consiguiente. La inducción es observable y no siempre puede ser
V confirmada, la deducción es abstracta.
na
oim El método hipotético inductivo se compone de los siguientes pasos generales:
R
1) En un primer estadio se procede a la observación y registro de los hechos, se busca recopilar
la mayor cantidad de datos posible.

98 Gran Ética–o Magna Moralia. Libro Primero. Cap. I.


99 El Desarrollo de las Ideas en Ciencias Naturales e Importancia de la Inducción y la Deducción en las referidas Ciencias.
100Desde hace mucho tiempo ha existido una lucha eterna por desenmascarar cuál es el verdadero método de la ciencia. Aristóteles propuso los
silogismos contraponiéndose a la metafísica y a los conocimientos científicos derivados de la inducción. Francis Bacon por su lado, rechaza el
uso de silogismos deductivos y escribe lo siguiente como soporte a la metodología inductiva: <<Uno y otro método parten de la experiencia y de
los hechos, y se apoyan en los primeros principios; pero existe entre ellos una diferencia inmensa, puesto que el uno sólo desflora de prisa y
corriendo la experiencia y los hechos, mientras que el otro hace de ellos un estudio metódico y profundo; el uno de los métodos, desde el
comienzo, establece ciertos principios generales, abstractos e inútiles, mientras que el otro se eleva gradualmente a las leyes que en realidad son
más familiares a la naturaleza>> Aforismo 22. Libro Primero. Novum Organum. Contra Aristóteles y muchos de sus seguidores escribe lo
siguiente: <<No combatimos en modo alguno la gloria de los autores antiguos, dejémosles todo su mérito; no comparamos ni la inteligencia ni el
talento,101 sino los métodos; nuestra misión no es la del juez, sino la del guía>> Aforismo 32.
Véase: A System of Logic: Ratiocinative and Inductive (1843), Vol. 2, 107.
125

2) Acto seguido, se ejecuta el análisis de aquello que ha sido observado, definiendo claramente
cada concepto nuevo que tenga a bien crearse.
3) Subsiguientemente, viene la clasificación de los elementos, diferenciando qué elementos

pertenecen a una clase y cuales a otra.


4) Por último, se ejecuta la formulación de la/s hipótesis, enunciados universales o
generalizaciones.

Toda investigación inductiva comienza desde la observación de algún hecho que inquiete al
científico y posteriormente pueda plantearse como problema. Cuando se procede al análisis, es
.o menester descomponer claramente todo aquello observado en virtud de examinar y estudiar cada
ic elemento por separado, este procedimiento lógico del intelecto le afirmará obtener nuevos
tíf
nie
conocimientos, liando y diferenciando los conceptos abstractos de los concretos. Es el proceso
C
ot mediante el cual alcanza los materiales intelectuales necesarios y suficientes que le permitan su
nie
clasificación y diferenciación de otros del conjunto. Al descubrir la estructura que compone al
am
no objeto investigado, delimitará todo aquello que considere esencial de aquello superfluo, aunque
az
lo segundo también sea parte constitutiva del fenómeno.
R
e
sd
a En correspondencia al tercer paso, la clasificación involucra a la lógica de clases y de
rm
o relaciones, la de clases le servirá para agrupar elementos dentro de una misma categoría si
F
sla poseen al menos una característica en común. No ha de olvidarse que no puede haber clases
e concretas sino meramente abstractas. Los objetos que allí se agrupan sí deben ser por entero
d
arc
ce concretos102. En cuanto a las relaciones, es allí donde el científico comienza a corresponder cada
A conexión o idea con otra, siempre y cuando emerjan similitudes o diferencias, o de alguna
:na
ue manera se haga presente determinada dependencia jerárquica. Estableciendo relaciones de
alb igualdad, de diferencia, correlaciones o relaciones causa – efecto. En ese paso, ya ha de estar
V
na preparado para formular la primera hipótesis, pues, el análisis de las partes precede a un árbol
oim relacional descriptivo – explicativo del contexto bajo estudio.
R
En lo que respecta al cuarto proceso, la generalización de una hipótesis no es una medida de
éxito, ni mucho menos se considera suficiente para resolver un problema. Cuando se da origen a
una generalización empírica, se está asegurando que existe relación entre las propiedades del
objeto que a todas luces es observable. Planteado de esa manera, la hipótesis va más allá de lo
que realmente puede ser corroborado por los datos, implicando que la relación observada en unos
pocos casos, también aplica para aquellos no observados.

102 Esta aseveración es válida para cuando en la etapa de clasificación ya se ha identificado por entero cada entidad y se ha salido del plano
abstracto al concreto. Sin embargo, según el objeto investigado el análisis adquirirá formas distintas. En la medida que la estructura analítica
como proceso, o como estructura del pensamiento le asienta el avance, la inteligencia racional le llevará desde lo más complejo hacia lo más
sencillo, en la etapa intermedia de este camino desaparecerán poco a poco los elementos abstractos y se comenzarán a ver los concretos.
126

Su basamento según Bacon <<Errado desde mi apreciación>>, es que: cada conjunto de


hechos de la misma naturaleza está normado por una ley universal que lo hace invariante. Esta
aseveración Baconiana que de hecho muy comúnmente se aplica, ha derivado en que las
hipótesis obtenidas por inducción sean imposibles de probar. El siguiente aparte trata mejor el
asunto.

5.3.- El Problema de Superponer Inducción y Deducción

Si bien es cierto, la lógica deductiva tiene bien demarcados sus procedimientos, el problema
al superponer ambos métodos se presenta, cuando se intenta dar justificación racional al uso de
.o
ic una inferencia inductiva a todas luces imposible de probar. Para ello los inductivistas han
tíf
nie desarrollado una lógica inductiva103 que les permita la confirmación de teorías sobre las bases
C del cálculo de probabilidades, es por ello que toda investigación cualitativa tendrá mediana
ot
nie validez si y solo si, es capaz de generar un esquema probabilístico que asienta eliminar gran
am
no parte de la incertidumbre que genera. Esta imposibilidad de justificación es la que siempre ha
az amenazado al método inductivo. Los modelos de razonamiento basados en la lógica informal, o
R
de comúnmente denominada lógica del pensamiento crítico, son de por sí, conclusiones de la
sa
rm inteligencia inductiva. Para Mill Op. Cit:
o
F Hay poderosos motivos científicos para dar a toda ciencia el carácter de deductiva en
sla
cuento sea posible… todas las ciencias naturales en un principio fueron
de
arc experimentales, donde cada generalización se apoyaba en una inducción especial.
Cada paso en la deducción es siempre una inducción. Entonces, la oposición no se
ce encuentra entre los términos inductivos y deductivos, sino entre deductiva y
A experimental. En las ciencias experimentales las inducciones aparecen aisladas, pero
:na
pueden convertirse en deductivas por el mero progreso de los experimentos. Cuando
ue se establece por deducción o por experimento directo, que las variaciones de un
alb
fenómeno particular acompañan uniformemente las de otro fenómeno mejor
V conocido, se dice entonces que fue un descubrimiento experimental basado en
na deducción, (p. 300 y ss.).
oim
R La inducción se vale de la observación y de demostraciones indirectas que parten de lo
particular hacia lo particular, o de lo particular hacia lo universal, este tipo de razonamiento
introduce el azar como factor en ciertos casos, y no hay ciencia posible de aquello que, de alguna
u otra manera, dependa del azar. Moreno Villa (2003) argumenta que la inducción para el
hombre es un procedimiento fácil y claro, pero su uso es limitado no pudiendo suplantar al
silogismo deductivo. La inducción es válida si y solo si, se agotan todos los casos posibles (p.
153).

103 La lógica Inductiva, o también denominada lógica del razonamiento inductivo, consiste en una disciplina que estudia las posibles aplicaciones
de pruebas estadísticas basadas en la probabilidad, y que sirvan de soporte a las inferencias inductivas. Persigue brindar argumentaciones válidas
a todo razonamiento inductivo a través de la generación de parámetros y grados probabilísticos. En ese sentido, el Razonamiento aproximado
Bayesiano es una alternativa. Véase: Razonamiento Bayesiano. Cap. VII: Sección: 7.5.1.-
127

Según Aristóteles en extractos de Moreno Villa, la inducción puede usarse no en ciencias,


sino en la dialéctica y en la oratoria, es decir, como instrumento de ejercicio y persuasión. En sus
trabajos, Mónaco104 llama a no confundir ambas perspectivas, inducción y deducción. Explica
que fue Becker, en los años 50, quien introdujo el cualitativismo hermenéutico basado en la
inducción designándolo como un conjunto de técnicas relativas a la recolección de datos. Y que
posteriormente fue elevado al rango de método105 o paradigma por: Glaser; Hamilton; Patton;
Proshansky; Filstead y Guba entre otros, todos ellos investigadores sociales. Sostiene también
que la hermenéutica106 no es una doctrina filosófica adecuada para justificar la necesidad
de un método propio. Asumiendo que ambas tienen posturas irreductibles y contrapuestas.
.o
ic Popper (1980, Véase: El Problema de la Inducción, p. 27 y ss.), afirma que los problemas de
tíf
nie la inducción son insuperables incluso introduciendo probabilidad. Cuando se refiere al tema
C
ot Deducción vs. Inducción alega lo siguiente:
nie
am La metodología científica es esencialmente deductiva. Dada una teoría T, deducimos
no consecuencias de la misma, C1, C2,…Cn. Dichas consecuencia han de ser
az
contrastadas empíricamente, entendiendo la contrastación como la posibilidad de
R refutar T si los datos empíricos no coinciden con las predicciones Ci, obtenidas a
e
sd partir de T.
a
rm A esto se denomina Verificación y Falsación. Por otro lado, suponer que exista un principio
o
F de inducción, y que toda ciencia es inductiva, implicaría que un enunciado desde lo singular
sla
e
d (plano sensible) conduzca hasta un universal (plano inteligible) también inductivo. Es decir, un
arc
principio de orden superior y así sucesivamente. De resultar cierto, llevaría inevitablemente a
ce
A una regresión infinita, como ejemplo: A se justifica por B; B se justifica por C; C se justifica por
:na
D…, y así repetidamente sin fin. Impidiendo cerrar el círculo lógico y derivando en inferencias
ue
alb medianamente probables en el mejor de los casos. Los limites superior e inferior de la ciencia es
V la verdad y la falsedad, de esta manera no se llegaría a ningún lado. Cualquier inferencia
na
oim obtenida de esta forma se arriesga, tarde o temprano, a resultar falsa.
R
104La Falsa Disyuntiva entre lo Cualitativo y lo Cuantitativo en la Investigación. Aparece en: Calello y Col (2002). P. 119.
105 Para Popper, tal Método Científico no existe, y explica: La inducción como método no debe confundirse con la inducción como forma de
razonamiento o inferencia. Argumenta también: “No hay un Método Lógico o una Lógica del descubrimiento”, en su defecto, todo
descubrimiento contiene un elemento irracional o una intuición creadora. Véase: Verdugo, Carlos. Ensayo: La Filosofía de la Ciencia de Popper
(1996, p. 4).
106 La Hermenéutica es un arte orientado a la interpretación de textos, en especial aquellas obras consideradas sagradas, puesto que la verdad
para una religión puede no serlo sobre otra. Trata de hacer interpretaciones del fenómeno social, su inevitable subjetividad ha sido foco de
discusión durante mucho tiempo. La hermenéutica es comúnmente utilizada en la investigación cualitativa, no solo como enfoque plural y
tradicional, sino como método de análisis. Para la filosofía, es una doctrina del tipo idealista, según la cual los hechos o manifestaciones de índole
social no deberían describirse ni explicarse objetivamente, sino subjetivamente. Kant en su obra: Crítica a la Razón Pura (p.17-19), afirma que
las categorías <<En investigación cualitativa: Cada uno de los grupos básicos en los que puede incluirse o clasificarse todo conocimiento, o,
subdivisiones del mismo bajo la forma de conceptos puros>>, deben estar unificadas al espacio y tiempo, como reglas que las unen a través de la
autoconciencia como base para producir la unidad de la experiencia. Las categorías permiten sólo el pensar los objetos, no intuirlos, y mucho
menos están <<sometidas a un orden de sucesión>>, lo que dificulta su falsabilidad. Kant fundamentó la universalidad del conocimiento en la
trascendentalidad de las categorías, donde el intelecto construye al objeto. Esa apreciación vale una cortés comparación con lo establecido por:
Dilthey Wilhelm: Crítica de la Razón Histórica (2000, p. 109-115), donde precisa… el valor objetivo de las categorías brotan a partir de las
vivencias, y asume como primera determinación categorial la temporalidad. Para este autor, al contario de Kant, las categorías constituyen en sí,
conexiones sistemáticas, y las categorías supremas designan las posiciones más altas de concepción de la realidad.
128

El otro problema que alega Popper sobre las inferencia inductivas recae sobre el cómo
interpretar un enunciado probabilístico. Para él, existen dos tipos de estos enunciados: el
numérico basado en matemáticas y el interpretativo o no numérico. Con el primero surge la
pregunta de cómo descifrarlo ¿Qué hace tal afirmación numérica?, con el segundo se presentan
las interpretaciones subjetivas y objetivas, ambas introducen ambigüedades. Por su lado, Mario
Bunge107 (2000, p. 713), califica a las inferencias inductivas como estructuras lógicamente no
válidas o cuasi-tendenciales, pero a menudo fecundas, conocidas también como inferencias
incoadas. Afirma que la única estructura inferencial legal y válida es la deductiva. “La
conclusión” que va de la conclusión propiamente dicha a las premisas, no es concluyente en
.o sentido lógico, y confusamente se la ha asignado el nombre de inducción.
ic
tíf
nie
Contrario a Popper, Leibniz afirma que la racionalidad de las conclusiones inductivas
C
ot depende de la racionalidad de las probabilidades108. En escritos de Francis Bacon y Basil
nie
Montagu109, La única esperanza de la ciencia es la genuina inducción. En ese sentido, Francis
am
no Bacon contribuyó significativamente al desarrollo del método inductivo, indicando en sus
az
denominadas tablas de ausencia y presencia el cómo debía llevarse a cabo la enumeración
R
e tendente a la consecución de inferencias legítimas. Estas tablas permiten analizar y codificar los
sd
a
rm procesos de razonamiento. Carnap cree, al igual que Bacon, que así como la implicación lógica
o es el concepto clave para la lógica deductiva, así el grado de confirmación110 es el concepto
F
sla
clave para lógica inductiva.
e
d
arc
Cuando un científico defiende y hace uso de inferencias inductivas, claramente ha incoado
ce
A
:na (dado los primeros pasos) hacia una teoría basada en una actitud sicológica, justificada por la
ue teoría de la probabilidad, simplemente se siente bien con ella, más no ha hecho uso del
alb conocimiento reflexivo. Por ello Popper Op, Cit, sostiene que, la creencia en una lógica
V inductiva se debe, en gran parte, a una confusión de los problemas sicológicos con los
na
oim epistemológicos; esta confusión ha originado dificultades tanto en la lógica del conocimiento
R como en su sicología, (p. 39 y ss.). Una cosa es sentirse satisfecho por el hecho de haber incoado
una idea, una teoría o una posible respuesta, eso es sicología del conocimiento. Otra muy
diferente es separar la sicología de la Epísteme que exige toda ciencia.

107Véase el apartado de: Las Inferencias Científicas.


108 Aparece en Gower Barry (2002, P. 212) Capítulo XI: Rudolf Carnap. Scientific Method as Bayesian Reasoning.
109 Francis Bacon and Basil Montagu, The Works of Francis Bacon (1831), Vol. 14, 32. A continuación el aforismo 14 del Novum Organum
<<El silogismo se compone de proposiciones, las proposiciones de términos; los términos no tienen otro valor que el de las nociones. He aquí por
qué si las nociones (y éste es punto fundamental) son confusas debido a una abstracción precipitada, lo que sobre ellas se edifica carece de
solidez;110
Rudolf no tenemos,
Carnap admite el criterio más que en una legítima inducción>>
pues, confianza
de demarcación inductivo denominándolo como confirmabilidad, su teoría de grado de confirmación la usó
para intentar darle sentido a una inferencia inductiva desde la lógica probabilitaria. Este supuesto admite que todo razonamiento inductivo es un
razonamiento en términos de probabilidad. Carnap también acepta el hecho real que en toda inferencia inductiva hay la presencia de un elemento
sicológico, su lógica en sí es antipsicologista. Similarmente Popper lo llamó: Grados de Contrastabilidad, pero este está muy alejado de la
probabilidad. Popper no aceptó el concepto de Confirmación, pues siempre argumentó que la teoría perfecta y confirmable no existe ni existirá
nunca. Véase Popper Karl (1980). Cap. IV.
129

Para el científico y según Piquer Op, Cit (p. 62), es menester mucha reserva, gran exactitud,
y suma diligencia para no engañarse con las inducciones. Un médico da una medicina para
quitar una enfermedad, la repite otra vez y logra la curación. Forma entonces por inducción una
máxima general falsísima, creyendo que tal medicina es remedio cierto para semejante dolencia.
Otro que afirma la existencia de errores potenciales en la inducción es el mismísimo Francis
Bacon, creador y defensor a ultranza de este método.

En su obra Great Instauratio, buscaba nada más y nada menos que una total reconstrucción
de las ciencias, las artes y todo el conocimiento humano. Bacon se opuso a la inducción por

.o enumeración con la idea de que la inducción que procede por simple enumeración es básica y
ic simplista, sus conclusiones precarias y expuestas al peligro de una contradictoria instancia, por lo
tíf
nie
general decide sobre un número demasiado pequeño de los hechos que están a la mano. Su idea
C
ot de inducción formal se basaba en eliminar o excluir hechos observados negativos, pues con una
nie
sola instancia negativa es suficiente para eliminar una generalización.
am
no
az Siempre argumentó que el atraso en las ciencias se debía al uso de un método inadecuado. De
R hecho a la inducción se le conoce como el método Baconiano. Mientras Aristóteles defendía el
e
sd
a razonamiento en las ciencias, Bacon proponía la evidencia derivada de los experimentos usando
rm la inducción. Sin embargo, ciertos problemas surgieron cuando se quiso elaborar teorías
o
F
sla explicativas basadas en observaciones particulares. Allí aceptó el uso de los silogismos
e aristotélicos que tanto había descalificado argumentando: No hay inducción ninguna que no se
d
arc
pueda reducir a silogismo111. Según Bunge112, la ciencia avanzada y la tecnología comienzan
ce
A donde la inducción deja de funcionar. Puesto que ambas suponen hipótesis que sobrepasan las
:na
ue observaciones.
alb
Bacon en su libro, Novum Organum, sistematizó un complejo sistema de lógica inductiva. Su
V
na
proceso más o menos se describe así: se hace comparecer ante la inteligencia, todos los hechos
oim
en los que uno se encuentra la propiedad dada, pues, la ausencia de la propiedad indica la
R
ausencia de la forma. Sin embargo, acepta que citar todos los hechos sería interminable, lo que
Popper denominó, en el ejemplo previo, regresión infinita. Por eso es preciso colocar todos los
hechos positivos al lado de los negativos, e investigar la privación de la propiedad sólo en los
sujetos que más relación tienen con aquellos en los que la propiedad existe o aparece.

A esto lo denomina, <<Tabla de Desaparición o Ausencia en los Análogos>>; <<Tablas de


Hechos Positivos y Negativos>>, <<Tablas de Ser y Presencia>>, y <<Tablas de Grados de

111 Aparece en el Novum Organum y en The Advancement of Learning (1605).


112 Bunge Mario. Diccionario de Filosofía (2001). Concepto de Inducción. Véase.
130

Comparación>> Bacon nunca terminó su obra. Existen 8 elementos de suma importancia que
fueron planificados y nunca se desarrollaron. Los más importantes son: el tercero, <<Sobre la
Rectificación de la Inducción>>, y el octavo: <<Sobre las Escalas Ascendentes y Descendentes
de las Leyes Generales>> aparecen todos en Novum Organum, Aforismo 21 del capítulo 2.
Quizás de haberlos esquematizado correctamente, la inducción hoy día fuese otra, y las
investigaciones cualitativas podrían tomarse como verdadera ciencia113. Una observación de
importancia para quien desee revisar la obra, es que el Novum Organum adolece en su totalidad,
de cálculo numérico alguno. Es decir, de haber existido alguna forma de demostración en tal
método, no hubiese hecho uso de la lógica matemática bajo ninguna circunstancia.
.o
fic En fin, la inducción sólo puede ser justificada deductivamente. Utilícese para generar
ít
nie hipótesis que puedan ser probadas experimentalmente. Deshágase de todos aquellos supuestos a
C
ot priori que puedan aumentar la dependencia probabilística de una inferencia inductiva. Tenga
nie
siempre presente que es la inducción la que precede a la deducción. Cuando se construye una
ma
no hipótesis por inducción se involucra al campo sicológico, no permitiéndole su demostración
za
R lógica. El inductivista persistentemente se ha sentido atraído hacia cualquier método que le
de
permita salvar el abismo de las matemáticas… más, la matemática es la génesis de la ciencia
sa
mr verdadera. Es más fácil encontrar a dios en los números que en las oraciones.
o
F
sla
de
arc
ce
A
:na
ue
alb
V
na
mi
o
R

113Aforismo 21 del Novum Organum: <<Después de haber formado las tablas de primera comparecencia y procedido según ellas a la
separación o a la exclusión y a la primera vendimia, es preciso pasar a los otros auxiliares de la inteligencia relativos a la interpretación de la
naturaleza, y a la inducción verdadera y perfecta. Para proponer estos diversos auxilios, cuando se requieran las tablas, tomaremos por asunto lo
cálido y lo frío, citando solamente algunos ejemplos, variaremos los asuntos; pues no conviene introducir confusión en las investigaciones, ni
forzar demasiado la doctrina. Ante todo hablaremos de los hechos privilegiados; en segundo lugar, de los auxiliares de la inducción; en tercero,
de la rectificación de la inducción; en cuarto, del arte de variar las investigaciones según la naturaleza del sujeto; en quinto de las prerrogativas
de la naturaleza, en lo referente a las investigaciones y al orden que en ellas debe emplearse; en sexto lugar, de los límites de las investigaciones,
o del conjunto de todas las naturalezas en el universo; en séptimo, del arte de llegar a la práctica, o de lo que es relativo a las necesidades del
hombre; en octavo, de los preliminares de las investigaciones; y en fin, de la escala ascendente y descendente de las leyes generales>>
131

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO VI:
RAZONAMIENTO, HIPÓTESIS
E INFERENCIAS CIENTÍFICAS.

Aquel que no quiere razonar es un fanático; quien no puede es un tonto; y quien no se atreve es
un esclavo.

Sir William Drummond.


132

6.1.- Sobre la Relación: Razonamiento – Hipótesis

Todas las interpretaciones hechas por un científico son


hipótesis, y todas las hipótesis son provisionales. Deben
siempre ser probadas y revisadas en caso de ser satisfactorias.
Por lo tanto, un cambio en la mente de un científico, y en
particular en un gran científico, no es un signo de debilidad,
sino más bien la evidencia para continuar con la atención a los
respectivos problemas y la capacidad para poner a prueba las
hipótesis una y otra vez.

Ernst Mayr.

colocan
consecuencias
e entiendeporpordebajo
lógicas.del
Sea les
hipótesis axioma
todaentiende
en conjetura, enunciado o serie de estos, que se
aquella

S una teoría y de los cuales se extraen sus


también como cada uno de los elementos que
soportan una demostración, en las hipótesis se supone, se imagina y se recela pero no se cree. Ya
que, pasan desde las simples especulaciones cuando usando la capacidad de discernimiento, se
expresan como proposiciones condicionales que posteriormente puedan verificarse. Es decir,
hipotetizar significa buscar un conocimiento a partir de un supuesto, presentando por adelantado
una conjetura que ulteriormente se compruebe, y al demostrarse se convierte en un teorema.

John Stuart Mill llegó a conceptualizarlas como una suposición sobre las cuales no existen
suficientes evidencias, pero donde subyace una posibilidad real y cierta de corroborar por
deducción, pues lo observado sobre el fenómeno se torna conforme y acorde con las leyes que lo
rigen. Toda hipótesis científica ha de abrazar fuertemente a la entidad física que refiere, es decir,
debe necesariamente sustentarse sobre leyes científicas. No obstante, no siempre es posible

percibir sensorial y directamente el fenómeno, y si no existen leyes conocidas acreditables al


evento, entonces utilícese la capacidad de discernimiento para establecer relaciones, es allí donde
entra en juego la intuición.

El conocimiento intuitivo, partiendo de hechos observados en un fenómeno y sobre los cuales


no puede encontrar nexos o relación causal, cede su dominio al conocimiento demostrativo, el
cual a través de la razón y la experiencia en un primer momento simplemente especula y
conjetura. Posteriormente actúa basado en la metonimia de sus unidades fenoménicas usando lo
pasado y lo presente, admitiendo entonces una demostración por conclusión. Heidelberger y
Schiemann (2009), sostienen que a una hipótesis se le toma normalmente como una conjetura
que permite obtener un conocimiento como ganancia. Las conjeturas no solo son útiles para la
producción de conocimiento, sino, que las teorías científicas no son más que una simple
133

colección de conjeturas y para las cuales existen suficientes argumentos. En la investigación


científica se usan a las hipótesis como estrategias implícitas de razonamiento, asumiéndolas
como una proposición puesta por delante. Tan importantes son, que toda investigación científica
comienza y termina con una.

La inicial es la que guía todo el proceder del investigador, y este, a través de una
deslumbrante coordinación de medios, las somete a prueba contra una teoría, donde el centro del
debate circunda a la verdad o falsedad de una razón todavía virgen. Martin Fisher advertía el no
confundir hipótesis con teoría, esta última consiste solo en una posible explicación, en cambio,
una hipótesis se usa para corregir teorías, y a la final es este el propósito de toda ciencia.
si Cuando la hipótesis es la génesis de la investigación, se construye basada en una instancia
se
tó específica de un fenómeno particular, alimentada por cierto número de casos observados pero
pi
H con relaciones indeterminadas que ameritan evidencia probatoria. Estas interacciones agregan

ot unidades de razón que incrementan el entendimiento alterando el conocimiento.
nie
am Se dice que toda investigación concluye con una hipótesis puesto que sus implicaciones
no
az lógicas y sus evidencias observacionales extraen el conocimiento que antes era sombrío y oscuro
:R
sometiéndolo a la luz de la razón, allí el científico hace uso de una exquisita capacidad de
nció
ela discernimiento, honestidad científica y abstracción, sabiendo que la hipótesis que
R comprobó/planteó hoy, puede fácilmente ser refutada/corroborada mañana. Es preciso recordar
la
re que el método científico como tal, es sólo una conjetura, por tanto una mera hipótesis aún sin
bo
:S demostrar114.
na
ue Para Poincaré 115 (2007), el entendimiento de las hipótesis se basa en determinar la
alb
complejidad del fenómeno, de serlo, el científico deberá reducirlo a sus mínimas unidades
V
na fenoménicas organizadas por su instinto de simplicidad y capacidad abstractiva. Por otro lado, en
oim
R 114Basado en esta realidad, Popper alega: <<Como regla general, comienzo mis lecturas del método científico afirmándole a mis estudiantes que
tal método no existe…>> El método científico de Popper consiste básicamente en la formulación de ideas innovadoras y en su sometimiento a las
más razonables, rigurosas y eficaces refutaciones posibles. Popper llega, en palabras suyas, a «una nueva teoría del método de la ciencia, a un
análisis del método crítico, el método de ensayo y error: el método que consiste en proponer hipótesis audaces y exponerlas a las más severas
críticas, en orden a detectar dónde estamos equivocados» (Popper, K. R., 1985, pág. 115). Sus razones sobre la no existencia del método
científico las plantea en el prefacio denominado: On The non Existence of Scientific Method. Aparece en su Libro: Realism and the Aim of the
Science (2003).
115 Henri Poincaré, Físico y Matemático Francés (1854 - 1912), Formuló la denominada Conjetura o Hipótesis de Poincaré acerca de la forma
del universo y cuyo resultado daría luces sobre la fórmula general que le dio origen. Con ella se conseguirían respuestas a los procesos físicos que
intervinieron en su creación. Tal conjetura formaba parte de los denominados siete problemas del milenio planteados por el Instituto Clay de
Matemáticas de Cambridge Massachusetts. De hecho, la conjetura de Poincaré era el problema número siete y el único hasta el momento en
haber sido resuelto después de 100 años. El Instituto Clay puso a disposición un millón de dólares a cualquier matemático que pudiese resolver
alguno de tales enigmas. Su resolución se le atribuye al matemático Ruso Gregori Perelman en (2003), quien demostró la conjetura. En 2010 el
Instituto Clay constató y verificó los datos aportados por Perelman invitándolo a recibir su premio, la respuesta del científico simplemente fue:
“Sé cómo controlar el universo, entonces porqué tendría que correr detrás de un millón de dólares”. En 2006 Perelman rechazó también la
medalla FIELDS, equivalente al premio nobel de matemáticas con una bolsa de 15 mil dólares. Para el Instituto Clay una conjetura es una
hipótesis sobre las cuales existe fuerte evidencia de ser cierta, sin embargo, no hay demostración que las pruebe. Esta es la evidencia fidedigna de
que toda investigación comienza con una hipótesis y termina con una. La conjetura de Poincaré se basa en el concepto de homología como
abstracción definido así: <<Una curva cerrada en una variedad que bordea una superficie nunca será equivalente, por una deformación continua a
una curva que no bordea ninguna superficie, ya que la deformación continua de la curva se extiende a una deformación continua de la superficie
que bordea>> El Enunciado de la Conjetura puede leerse en el excelente libro de: Jhon Morgan y Gang Tian: <<Ricci Flow and the Poincaré
Conjecture>>.
134

ciencias como la física por ejemplo, la experimentación no es posible sin ideas preconcebidas
disimuladas en la noción de coherencia, esa es la principal herramienta para conectar hipótesis.
Un discurso es coherente cuando sus unidades de razón están atadas lógicamente, entre sus

partes no existe contradicción y semánticamente se plantea de forma tal que cumple con los
postulados de la lógica deductiva. Allí sus correlatos son claros, describen interrelaciones y
hacen referencia directa al cognoscendum.

Sólo se llega a la verdad sugiriendo hipótesis y comparando observaciones, el método se basa


en principios de precisión y transparencia. Como entender las hipótesis se relaciona con el nivel
de complejidad del fenómeno, el científico ha de aplicar todo el conocimiento de que dispone
si para darle justa estructuración, y este puede ser de varios tipos. Si el fenómeno al que hace
se

pi referencia se conoce a través de otro menos conocido, y que está ausente, se dice que plantea su
H hipótesis usando el conocimiento abstractivo <<El caso de la Conjetura de Poincaré>> Si el

ot objeto ha impreso en la mente del científico alguna imagen, por observación o por contacto
nie
am directo, es posible afirmar que plantea su hipótesis a través de una cognición intuitiva.
no
az Si el científico decide plantear no una sino varias hipótesis sucesivas, como en el caso de las
:R
nció grandes teorías científicas y abarcando al mismo fenómeno, entonces su sistema hipotético debe

ela presentar: relación; coherencia; coincidencia y cohesión, derivadas del conocimiento


R comprensivo. Préstese cuidado ya que puede haber coincidencia sin cohesión, coincidir implica
la
re que cada elemento de A se corresponde con alguno de B, donde hay concordancia y siempre se
bo
:S produce el mismo resultado. No obstante, cohesión solo significa que hay un enlace entre al
na menos dos cosas. Es decir, dos cosas pueden estar unidas sin coincidencia alguna por efectos de
ue
alb la ley de la casualidad.
V
na Para el científico, las hipótesis son siempre el resultado del encadenamiento de ideas que se
oim
originan en su mente, pues su psiquis ha sido alterada por ideas simples captadas desde cosas
R
interiores o exteriores. Y como tales cosas no son más que cambios continuos, reflexiona
entonces como producto de tales variaciones, esto altera el pensamiento y produce un nuevo
cambio en sus ideas, reconózcase de esta manera a las hipótesis como un tipo de potencia mental

producto de cambios sucesivos asociados a una infinita sed de cognición.

Para Bunge116 (2004), hipótesis epistemológicamente significa supuesto, o punto de partida


de una argumentación. Afirma que toda hipótesis es corregible a la vista de un nuevo
conocimiento, y cualquier hipótesis va más allá de la evidencia (dato) que intenta explicar…
sostiene que las hipótesis científicas más interesantes contiene predicados que no pueden

116 Cap. V. Hipótesis. 5.1.- Significado de las Hipótesis, p. 195 y ss.


135

observarse, y no pueden reducirse a conjunciones o datos… así mismo argumenta que no es


posible establecer hipótesis basadas en una sola experiencia. Pero…y según lo planteado por
Bunge, ¿cuánta experiencia es necesaria para plantear una hipótesis?, el científico puede trazar
su hipótesis cuando todas las posibles relaciones entre los hechos conocidos a través de la
experimentación han sido ampliamente razonados e integrados coherentemente como un solo
cuerpo de conocimientos.

Evidenciando solo una separación profusa entre aquello conocido y lo que se pretende llegar a
conocer. Ciertamente, una sola experiencia para el científico no basta, pero la conciencia en
ocasiones propone una visión un tanto confusa de los procedimientos tecno operativos de la
si razón incitándola a plantear hipótesis a priori de la forma si… entonces…, es suficiente con
se
tó conocer algún si para proceder con un entonces… Georg Christoph Lichtenberg117 en uno de sus
pi
H aforismos describe lo siguiente: Debemos creer que todo tiene una causa, como cuando la araña

ot teje para capturar moscas. Lo hace sabiendo previamente que existen tales cosas llamadas
nie
am moscas.
no
az Se denomina razonamiento hipotético a aquel basado o fundamentado en conjeturas que unen
:R
nció a una secuencia de hechos sobre la existencia de determinado objeto, o de las causas de

ela particular fenómeno. No obstante, cuando la relación directa entre tal efecto y su causa no ha
R sido verificada, se usa una idea intermedia (conjetura) para establecer nexo plausible, allí se
la
re toma lo pasado y lo presente, circunstancias que han precedido y sucedido al fenómeno, para con
bo ello intentar esbozar lo que será en un futuro, denomínese a esto último conclusión.
:S
na
ue Tal conclusión contendrá sólo explicaciones tremebundas con una gran carga probabilística.
alb No es sino hasta su demostración, cuando una hipótesis se torna clara, tersa y transparente, pues
V
na ha evaporado toda sombra de duda de ella y ha dado paso al conocimiento de la causa del
oim
fenómeno. Allí desaparecen dos cosas más, toda generalización temeraria previamente adoptada
R
y la hipótesis misma, dando luz a un teorema que explica y demuestra las sucesivas
consecuencias de tales hechos concatenados. No obstante, y como diría Paulo Coelho; después
que se tengan todas las respuesta, de seguro las preguntan cambiarán.

Las hipótesis son las más importantes herramientas usadas para direccionar una investigación
y se componen de al menos dos partes, una primera denominada Cuerpo Básico de
Conocimientos y otra de nombre Sistema Hipotético. La inicial se corresponde con la colección
de conocimientos previamente adquiridos y probados, la última es la que dará sustanciación a
todas y cada una de las explicaciones y relaciones, es la que lía, concatena y establece juicios, es

117 Científico y Escritor Alemán (1742–1799).


136

la sometida a prueba basada en el cuerpo de conocimientos.

6.1.1.- Las Hipótesis Heurísticas

La heurística consiste en el arte y el método mediante el cual se inicia, sostiene y concluye


una discusión marcada por la polémica, sus partes son los principios, las reglas y las estrategias
donde se busca la verdad a través de un diálogo soportado sobre un índice discursivo que
persigue información. Es una estrategia que permite sistematizar un discurso informal a través de
unas reglas positivas y negativas118 que dibujen en la mente del científico el camino más idóneo

para dar solución a ciertos problemas y estructurar hipótesis bastante plausibles. La heurística
si involucra el aprendizaje, el descubrimiento y la resolución de problemas de manera experimental
se
tó o aplicando la metodología de ensayo y error.
pi
H
– Heurística es una palabra de origen griego que designa “Descubrir” “Encontrar”, como
ot
nie ciencia consiste en un proceso que estudia toda actividad creadora o innovadora y se avoca sobre
am la solución de problemas que comúnmente no pueden ser resueltos por métodos tradicionales. El
no
az pensamiento humano y la connaturalidad científica hacen uso de la heurística, estimulando así
:R las ideas que puedan ser fructíferas a la ciencia. La heurística permite la apertura de caminos
nció
mediante el uso de teorías construidas antes o después de ciertos procesos, métodos y técnicas
ela
específicas que permitan salvar el abismo de un problema coordinando medios para obtener un
R
la
re descubrimiento.
bo
:S Heurística puede considerarse también como algo relativo, ya que sus teorías no son usadas
na
ue de manera unívoca por las comunidades científicas, hay teorías heurísticas netamente
alb axiomatizadas y formales, así como teorías cuyo contenido es puramente conceptual como las de
V la investigación social. La heurística está muy relacionada con las hipótesis y las teorías formales
na
oim de demostración matemática, en este caso se hacen uso de la lógica formal y la ciencia
R deductiva, allí el proceso heurístico reproduce resultados de forma matemática. Contrariamente,
el método heurístico de teoría conceptual desarrolla conjeturas mediante las cuales intenta
reproducir matemáticas y no demostrarla.

La heurística en la teoría conceptual asiente a desarrollar conceptos y refutarlos a través de la

118 Imre Lakatos, discípulo de Popper, Matemático y Filosofo Húngaro, crea los denominados Programas de Investigación Científica como
contraposición al Falsacionismo Poperiano y cuyas bases presentan gran conexión con la teoría Justificacionista. Los programas de investigación
de Lakatos consisten en una unidad de análisis epistemológico que persigue enfrentar a dos teorías rivales contra los datos de la experiencia. Allí
hace uso de las heurísticas, entendidas como acuerdos metodológicos que orientan al científico sobre los caminos que deben seguirse y los que
deben evitarse. En tal método, la heurística positiva direcciona hacia los que han de seguirse y la negativa intenta proteger a lo que Lakatos
denomina núcleo firme de la teoría. Al hacer uso de la heurística negativa impide la aplicación de la lógica formal y el Modus Tollens sobre el
núcleo firme, haciendo más difícil su refutación. Estos programas de investigación no han sido tan exitosos como se suponía puesto que toda
buena teoría ha de ser sometida constantemente a reformulaciones o refutaciones de su contenido, y su núcleo firme debe estar al alcance de
todos, si su núcleo firme, o lo que se conoce como primeras hipótesis que derivan en teoremas y obtenidas de axiomas no es accesible, entonces
dificulta la aceptación de tal teoría. Nota del Autor: estos Programas de Investigación de Lakatos, difieren grandemente a los planteados en este
texto. Se asemejan sólo en su nombre.
137

prueba, allí se introduce un tipo de razonamiento que consiente intervenir en el problema sobre
la base de la creatividad. Se razona sobre procesos, se particulariza y generaliza, en perfecta
consonancia con el pensamiento heurístico. En el enfoque de teoría heurística conceptual, sus

científicos aducen que la matemática involucra verdades eternas que formalmente no son
posibles de criticar o refutar, destacando un resultado infalible soportado en la demostración, no
siendo esa la única forma de producir conocimientos.

La forma de programar hipótesis en el enfoque Heurístico se produce de dos maneras,


primeramente; es posible el planteamiento previo basado en conocimientos empíricos, luego se
contrastan, acumulan y examinan datos obtenidos de resultados intermedios. La otra manera de
iss hacerlo es concebir la hipótesis a mitad o al final del proceso de indagación <<este paso permite
et
ó refinar y perfeccionar hipótesis>> Cuando en el proceso de investigación converge un grupo de
pi
H científicos con paradigmas diferentes, como es normal, entonces las hipótesis heurísticas se

ot sincronizan con los procesos de investigación y formulación de teorías de los enfoques mixtos.
nie
Por ejemplo, cuando el diseño es mixto – secuencial, las hipótesis heurísticas avanzan y se
ma
no alimentan de las preguntas o procedimientos de una fase dependiente de los eslabones de la
z
a cadena anterior. Es decir, el científico podrá plantear y desarrollar su hipótesis heurística hacia
R
:
nció atrás o hacia adelante del proceso, con dirección del análisis a la síntesis (hacia adelante), o
ela inversamente desde la síntesis hasta el análisis (hacia atrás)119.
R
la
re 6.1.2.- Las Hipótesis Inductivas y Deductivas
bo
:S
na Contario al razonamiento deductivo y a su forma de generar hipótesis, se dice que una
ue
alb suposición es de origen inductivo cuando se hace uso de un tipo de inferencia que introduce
V incertidumbre y arrastra con ella un error. Una inferencia inductiva incluye cualquier tipo de
na
aprendizaje de lo particular a lo particular, e insertando en ese proceso, la creación y aceptación
imo
de conceptos del mismo origen. La inducción es muy usada en la dialéctica cotidiana, se ha
R
hecho costumbre introducir inducciones en el dialogo habitual que carecen de legitimidad. En la
ciencia, la inducción siempre ha sido una fuente dudosa de obtener conocimiento, pero son
fructíferas en la medida en que son demostradas y probadas por deducción.

Al plantearse hipótesis basadas en inducción120 debe evitarse la circularidad contenida en

119 Debido al amplio contenido del proceso de investigación heurística, no se aborda con suficiente profundidad el tema en esta edición del
presente texto. Si el lector lo desea, puede profundizar a motu proprio en su contenido en la excelente obra de Clark Moustakas (1990). Heuristic
Research: Design, Methodology and Applications. Publicaciones Sage.
120 Aprendizaje por Inducción: se le conoce como un tipo particular de proceso donde el sujeto cognoscente adquiere conocimiento cuando es
expuesto a una serie de estímulos, donde percibe sensaciones de los eventos. Tal interacción abre las posibilidades de descubrir patrones causales
explicativos, permitiéndole formar juicios en base a eventos previamente observados. No obstante, el juicio deriva en errores y se puede
fácilmente caer en la falacia, cuando se pretende generalizar en función de sólo un pequeño número de casos.
138

sus razonamientos 121 , sin embargo, no existen estudios concluyentes acerca de cuánto
razonamiento inductivo y deductivo se da lugar en el cerebro, la mente o la conciencia, lo que
lleva a sugerir el analizar la coherencia entre las ideas antes de plantear “x” o “y” hipótesis. El
acto de razonar consiste en concatenar silogismos, dicho de otra manera, precisar de dos ideas
sobre las cuales se desee inquirir una tercera a posteriori.

Y es esta última, la que realmente permite descubrir la/s relación/es entre las otras dos. Y ello
es imposible sin introducir coherencia, tanto entre la esfera de la mente como en la esfera del
mundo real y material. Debido a que en toda investigación la inducción precede a la deducción, y
que ambas trabajan juntas operando tal maquinaria en la obtención de conocimientos, el
iss problema realmente no es plantear una de un tipo u otra de otro tipo, la raíz de todo descansa en
et
ó cómo conectar ambas en función de su coherencia explicativa, premisas, y postulados.
pi
H
– 6.1.3.- Conexión de Hipótesis
ot
ne
i
ma Para conectar hipótesis tome en cuenta estas recomendaciones; existen ciertas formas
no anómalas de coherencia que se dan lugar en la conciencia, la primera de ellas es la Coherencia
za
R
: Intrínseca, o aquella que asiste inseparablemente al objeto y consiste en uno de sus atributos
ión acompañándolo en cada una de sus circunstancias. Puesto que una hipótesis deductiva va de lo
ac
le general a lo particular (descendente) y una inductiva 122 va de lo particular a lo general
R
al (ascendente), si un científico “X” concibe una hipótesis deductiva “a”, y otro científico “Y”
re
bo genera una segunda hipótesis inductiva “b”, y el fenómeno que se desea explicar se presenta en
:S un sistema amplio y conectado con la naturaleza, entonces debe existir un punto de coincidencia
a
ne
u entre ambas puesto que el atributo que acompaña al objeto o evento ha de estar presente tanto en
lba “a” como en “b”. Haciendo posible que tal fenómeno pueda ser abordado por disciplinas
V
na distintas usando para ello las teorías del mecanismo o la teoría de acción.
imo
R Se considera anómala en el caso de que “a” creada por “X” y “b” creada por “Y” no coincidan
en sus sentidos ascendente y descendente. Preste atención al siguiente ejemplo: Carlos y Mario
son dos observadores pasivos que acaban de presenciar un accidente automovilístico. Carlos
explica a las autoridades los pasos del accidente desde su inicio hasta la llegada de la

121 El razonamiento circular, o razonamiento Pseudocientífico, consiste en un tipo de juicio en el cual se soporta una premisa basada en la
premisa misma y no en la conclusión. Se le conoce también como un tipo de falacia lógica o argumentación retroalimentada. Considérese el
siguiente ejemplo: “a” es cierta y válida porque “b” lo es… así mismo… “b” es cierta y válida porque “a” lo es. Es como decir: “Dios es Dios
simplemente porque es Dios”. Bo Bennett, escritor del famoso libro: 300 Falacias Lógicas, explica el razonamiento circular de la siguiente
manera: todo razonamiento circular introduce una definición circular, ésta consiste en definir un término usando al mismo término dentro de la
definición, es como usar el término definición para definir definición, “Definición se define como…”. Por otro lado, preste atención al siguiente
ejemplo: “Juan es un genio simplemente porque es inteligente”, donde la palabra inteligente es sinónimo de genio. Al construir hipótesis basadas
en inducción este tipo de razonamiento debe evitarse. La Circularidad dentro del razonamiento inductivo consiste en un error del mismo tipo que
el de Regresión Infinita. Para una explicación más amplia de Regresión Infinita como forma de razonamiento Refiérase al apartado: 5.3.- El
problema122 de Superponer Inducción y Deducción. Cap. V: Acerca de las Formas de Razonamiento Científico En este texto.
Hace referencia a una hipótesis inductiva basada en la lógica del mismo tipo y para la cual se ha calculado un coeficiente de probabilidad.
139

ambulancia, contrariamente, Mario hace lo mismo en sentido inverso. El investigador quedará


satisfecho estableciendo hipótesis del porqué y cómo sucedió el accidente, si y solo si, entre las
declaraciones de Carlos y Mario existen elementos discursivos que involucren y vinculen
coherentemente a todo el conjunto de circunstancias. Si esto no sucede, entonces existe una
forma anómala de coherencia asociada a la percepción, muy común en ciencias. Entendiéndose
percepción como una forma de aprehensión que afecta las realidades mentales de los científicos.

Existe otra forma de coherencia denominada Coherencia Instantánea, allí no importa lo que
suceda, ambos científicos interpretarán lo mismo pues el evento acaecido y que se desea estudiar
se rige por alguna ley natural y universal que lo explica, y de la que es indubitablemente
iss invariante, este tipo de coherencia da Potencia a la Hipótesis.
et
ó
pi Es decir, los supuestos descansan y ascienden desde lo más abstracto hacia lo menos
H
– abstracto, construyendo así una forma de noción simple hasta llevarla a una forma
ot
nie completamente formada o viceversa. Una tercera forma de coherencia es la denominada:
ma Correlación Distancia Independiente123, allí las hipótesis intentan vincular a través de
no
za consecuencias lógicas y concatenando supuestos, las distancias entre las partes más próximas y
R más lejanas de un sistema. Donde los vectores de distancias próximas y lejanas son
:
nció
independientes entre sí. A este tipo de coherencia es muy poco accesible desde el razonamiento
la
Re
natural de un científico, se presenta comúnmente en investigaciones con razonamiento artificial,
la
re donde el sistema que se estudia exhibe gran cantidad de datos aislados y no correlacionados.
bo
:S Cuando construya hipótesis razone, argumente y exponga con acierto sus pensamientos,
na
ue premisa significa emitir un juicio seguido de otro. Vincule correctamente, vincular significa
alb establecer consecuencias lógicas entre un conjunto de premisas. Haga ejercicios de meta
V
na razonamiento, es decir, razone sobre su propio razonamiento. Evite la Disonancia Cognitiva124,
mi en ciencia es un arma de doble filo. Cuando plantee hipótesis deductivas evite los Entimemas,
o
R
consiste en un argumento en el cual una de las premisas no ha sido suficientemente definida o no
existe.

123 Muy usadas en los Programas de Investigación Analíticos. Puede ampliarse este tema en el libro de Lazlo Erwin: The Connectivity of
Hypotheses (2003, pp. 49 y ss.).
124 Consiste en una Teoría de la Sicología Social, basada en la premisa de que la gente se muestra más motivada a observar consistencias entre
sus creencias, actitudes y acciones. Es común que un científico encuentre inconsistencias disonantes al plantear determinadas hipótesis, pues sus
creencias le llevan a evitar el tratar de eliminar tales inconsistencias. Se recomienda al científico, si una investigación se relaciona directamente
con sus creencias, calcule primero el Coeficiente de Razón de Disonancia total antes de exponer sus hipótesis ante un auditorio científico. Véase
el Concepto de Disonancia en: Wilson y Keil (1999), The MITEncyclopedia of Cognitive Science, PP. 223 y ss.
140

6.1.4.- Hipótesis Abductivas; Razonamiento Abductivo e Hipótesis Diagnósticas

Abducir significa determinar algo basado en una condición previa, proceso inferencial
estrictamente relacionado a la investigación científica. Allí se asume como regla que todo el
conjunto o set de proposiciones adoptadas como precondiciones pueden explicar las
conclusiones obtenidas. Una sentencia del tipo !Está Mojado… Entonces ha llovido ¡es una
abducción, una inferencia basada en el descubrimiento. Según la lógica, a la abducción se le
estima contraria a la deducción. Sin embargo, se diferencia de la inducción ya que esta última
genera hipótesis basadas en observaciones, y para ser ciertas ameritan percepción.

Contrariamente, en la abductiva es necesario determinar la precondición, equivale a una


iss
et falacia lógica cuando afirma un consecuente solo porque se tienen varias explicaciones.
ó
pi Recuérdese que la lógica trata sobre las reglas del cómo pensar… pero por sí misma no penetra
H
– en aquello que ha sido objeto de pensamiento. Además, resulta complejo el intentar tratar las
ot
nie abducciones desde la teoría lógica de la silogística. La conclusión abductiva ¡Entonces ha
am
no Llovido¡ se genera como consecuencia de un razonamiento lógico basado en la experiencia, no
az obstante, en este caso, no existen evidencias de que porque esté mojado halla llovido, otras
:R
nció causales pudiere haber.

ela
Considérese al razonamiento en general, como un tipo de potencia mental de que ha sido
R
la dotada cada criatura y que le permite ejecutar acciones ulteriores previa comparación de ideas.
re
bo Allí el hombre persigue liar lo que expresa mediante el lenguaje y lo que piensa, cuyo resultado
:S
na derivará indefectiblemente en un juicio. Según Locke (1999), todo juicio consiste en la
ue presunción de que las cosas sean de alguna manera determinadas, sin llegar a percibirlo.
alb
V Concatena entonces réplicas y ataques sobre aquellos juicios intentando descubrir paradojas e
na
oim incoherencias mediante el choque entre proposiciones contrarias y contradictorias, estableciendo
R así relaciones de oposición y construyendo de esta manera conocimiento como resultado de una
actividad mental. No obstante, debido a su forma, los razonamientos pueden ser de varios tipos,
y el razonamiento abductivo se identifica con las siguientes características.

En una deducción se obtiene “C” a partir de dos premisas previamente establecidas “A” y
“B”, donde “C” será verdad si ambas premisas también lo son. En la abducción, o razonamiento
abductivo, se intenta explicar “C” a través de “A” o “B” (comúnmente una sola), tomando a
alguna de ellas (A o B) como hipótesis explicativa. Por ejemplo:

En deducción: dados (p ‫ ﬤ‬q), desde p se deduce q.


En Abducción: dados (p ‫ ﬤ‬q), desde q se abduce p.
141

Para una abducción es necesario que p sea suficiente para explicar q. Ambas son usadas
dentro del proceso científico del razonamiento causal, y donde la abducción también es conocida
como hipótesis diagnóstica.

En deducción: dados (Causa ‫ ﬤ‬Efecto), de las causas se deducen los efectos.


En abducción: dados (Causa ‫ ﬤ‬Efecto), de los efecto se abduce la causa.

En muchos casos una hipótesis abductiva es similar a un entimema, la abducción introduce


conclusiones no seguras pero bastante plausibles y que deben considerarse. Contrariamente,
yerra en el hecho de que no es posible establecer conclusiones basadas en dos premisas que solo
presentan un predicado común, necesaria es una tercera. Es harto conocido que tanto la
iss
et inducción como la abducción no son válidos en la ciencia, más, a través de ellas se engendran
ó
pi hipótesis altamente aceptables que posteriormente pueden ser corroboradas por la deducción.
H

ot Es el razonamiento abductivo el que da origen, a través de nexos causales y gran creatividad,
nie
al cuerpo de conocimientos que permitirá formar y posteriormente evaluar hipótesis explicativas.
am
no El lector no ha de olvidar que solo las hipótesis causales contienen la potencia explicativa para la
az
:R data efecto, y que ambas han de pertenecer a un segmento del dominio de la teoría. Thagard y
nció Cameron (1997), explican que en el modelo Konolige´s de abducción, están contenidas dos
ela definiciones:
R
la
re Primera: sea L un lenguaje de primer orden. Entonces, una simple teoría causal se compone
ob de {C, E, Sigma} Donde sigma es una explicación abductiva si:
:S
na
ue 1.- C, es un conjunto de sentencias de L, y son las causas;
2.- E, es un conjunto de sentencias de L, y son los efectos;
alb 3.- Sigma, es un conjunto de sentencias de L, y pertenecen al dominio de la teoría.
V
na
oim Segunda125: sea {C, E, Sigma} una simple teoría causal. Una explicación de un conjunto de
R observaciones O del subconjunto E, es un finito conjunto A del subconjunto C, Tal que:

1.- A es consistente con sigma.


2.- Existe una tasa sigma de probabilidad tal que {A \ O} 126 (A probablemente concuerde con las
observaciones)
3.- A es subconjunto mínimo sobre aquellos conjuntos que cumplan las 2 primeras condiciones, es decir, no
hay subconjunto propio de A coherente con sigma que implica O.

Las implicaciones lógicas se establecen como pre condiciones para el desarrollo de problemas
abductivos, allí las abducciones pueden derivarse únicamente de creencia para las cuales el

125 Se lee: una explicación de un conjunto de observaciones de los efectos, es un conjunto finito A del subconjunto de las causas. Es decir, las
observaciones se obtienen de los efectos y estos se derivan de un subconjunto de causas no observadas.
126 Vdash, el símbolo de barra invertida dentro de las llaves es muy usado en la lógica de programación para asimilar conocimientos e interpretar
lenguajes. La abducción pertenece a la teoría epistémica de la inteligencia artificial, allí recibe múltiples interpretaciones.
142

investigador busca explicaciones. Según Atocha (1998), la abducción es un proceso de


razonamiento, cuyo producto son explicaciones con cierta estructura inferencial. El esquema
lógico de la abducción puede verse como una relación entre tres elementos: la observación o
creencia, la explicación abductiva y la teoría de trasfondo.

No existe algún tipo de lógica que permita corroborar la coherencia estricta y racional entre
una verdad del tipo formal y una del tipo material a través de un razonamiento abductivo, pero es
el procedimiento del que se vale el científico para resolver problemas simples y luego estructurar
los complejos, es el método que usa el científico para satisfacer restricciones. La abducción

forma parte del proceso de razonamiento artificial incluido en la redes Bayesianas, es una forma
iss esquemática de representación del conocimiento, allí se asume como un método para establecer
et
ó influencias e inferencias causales entre múltiples variables.
pi
H
– Según la Teoría del Diagnóstico de Reiter127, un problema diagnóstico puede ser mapeado
ot
nie dentro de un problema abductivo, al introducir sus hipótesis toman la forma de hipótesis
am compuestas, donde la solución para el problema diagnóstico se corresponde con la explicación
no
az para el problema de abducción y viceversa. Allí se establecen vínculos de coherencia entre los
:R datos y las hipótesis, donde las hipótesis más amplias explican toda la data. Por ejemplo: Palma,
nció
Marín, Sánchez y Palacios (2002, p. 205 y ss.)128, explican un modelo basado en lógica difusa
ela
R para un diagnóstico abductivo aplicado en enfermedades coronarias.
la
re Hi– es el patrón de la hipótesis principal;
ob
:S IMi– es el conjunto de manifestaciones anormales implicadas por la hipótesis Hi;
na
ue
IHi– es el conjunto de sub-hipótesis admitidas por Hi, y;
alb
V Ri = <Li, Xi> es la red temporal restrictiva, donde Li representa al conjunto de duraciones
na difusas entre las etiquetas de tiempo definidas en Xi.
oim
Hi representa un diagnóstico que puede explicar las manifestaciones anormales observadas
R
sin ser inconsistente con las manifestaciones normales también observadas. Y, por ser una
relación causa – efecto, la explicación diagnóstica basada en abducción, debe abarcar del mismo
modo, los intervalos temporales apreciados y medidos entre los eventos. A este proceso se le
denomina Diagnóstico Temporal basado en Abducción.

Cooper & Col129. (2013, p.262 y ss.) Alegan, que el proceso básico para la prueba de
hipótesis diagnósticas basadas en abducción, se corresponde con el ciclo básico de los procesos

127 Abductive Inference: Computation, Philosophy, Technology. Editado por Jhon y Susan Josephson. 1996. Cambridge University Press. P. 161.
Véase.
128 A Model Based Temporal Abductive Diagnosis Model for an Intensive Coronary Care Unit. Véase.
129 Modeling High – Level Cognitive Processes. Véase.
143

cognitivos usados por las redes Bayesianas y es el siguiente:

1. La presentación o conocimiento de los síntomas ha de conducir abductivamente, a una o


más hipótesis.
2. Si sólo una hipótesis es sugerida, entonces esta debe ser presentada como diagnóstico.
3. De otra manera, se selecciona un síntoma con el fin de testear una o más hipótesis, y de
acuerdo a la estrategia previamente establecida.
4. Se revisan las hipótesis según la valencia del aprendizaje de los síntomas seleccionados.
5. Se repite el proceso desde el paso 2, hasta que la conclusión aparezca en forma de una
hipótesis simple, es allí entonces donde el diagnóstico es dado.
si
se

pi
H

ot
nie
am
no
az
:R
nció
ela
R
la
re
ob
:S
na
ue
alb
V
na
oim
R
144

6.2.- Un Pequeño Abordaje de las Inferencias Científicas

La lógica se ocupa del lenguaje que el científico ha de utilizar,


relaciona al sujeto con su predicado y da luz a los principios.
Allí la mente evalúa proposiciones, produce un orden y
establece conclusiones mediante inferencias. Entonces, el fin de
la lógica en la ciencia no es determinar si una inferencia es
verdadera o falsa, sino corroborar que una conclusión sea
realmente aceptable como una conclusión verificando que no
ha entrado en el absurdo.

Roiman Valbuena.

e entiende por Inferencia <<extraer una cosa de otra>>, al proceso mental, basado en

S sicología cognitiva, mediante el cual, una posibilidad provisional o agente con


significado cognitivo (premisa aceptada), es movida intencionalmente hacia otra
proposición condicional (también aceptada). Allí, el significado cognitivo individual de las
premisas es entonces conectado, reproduciendo de esta manera, una inferencia de razonamiento
pero esquematizada como concepto con significado lingüístico. Se le entiende también como una
operación de la inteligencia donde el ser pensante pasa desde la aprehensión del objeto o dato, a
la consecuencia. Donde se acepta a la premisa sucediente sólo porque la antecedente también lo
fue, tal como lo dicta la ley de la silogística deductiva. A este proceso de conexión de una
primera idea con una segunda se denomina implicación130. El primer paso como proceso mental
pertenece a la sicología cognitiva, el segundo a la lógica, y esta última condiciona que ambas
premisas han de ser verdaderas.

Desde el punto de vista de la lógica matemática como ciencia formal, una inferencia científica
es también, el procedimiento mediante el cual se parte desde un enunciado verdadero y se
persigue conseguir otro u otros de la misma índole, empleándose para ello una secuencia
denominada cálculo lógico o algoritmo lógico sistemático. El hombre de ciencia aplica la
sicología cognitiva para transformar una situación dada (situación problemática) en otra deseada,
usando para ello ciertos mecanismos de la razón, logrando así resolver un problema. En función
de ello, las inferencias presentan ciertas características:

1) Se usan como forma de construcción de conocimientos alterando iterativamente el


pensamiento;

130 El condicional de implicación de la lógica proposicional consiste en un símbolo que permite establecer una relación causa – efecto entre dos
enunciado.
145

2) Se constituyen como la estructura paramétrica y procedimental mediante la cual se comparan


dos juicios o ideas y se discierne sobre ellas, derivándose de esta manera en un desenlace que no
hubiese sido posible sin las relaciones especiales observadas en las premisas aceptadas.

3) Una inferencia es diferente a una conclusión, pues para esta última son necesarias
observaciones repetidas que provean la misma carga informativa.

4) En el proceso inferencial se usan Metareglas <<reglas que aplicables a las reglas>>.

5) El proceso inferencial también incluye el denominado Razonamiento Metanivel, aquel que


.s involucra al conocimiento de lo que se conoce, adoptando en su accionar, condicionales de
aic
tíf implicación lógica.
nie
sC En ese mismo sentido, una implicación o condicional de verdad, nunca ha de oponerse a lo
ia falso, sino a lo absurdo, algo carente de significado y por tanto ni verdadero ni falso. La
nc
re implicación en sí no se constituye en garante de la verdad, sino como condición necesaria para
nfe
I ella. Es la intuición designadora del científico la que permite liar dos ideas primitivas y
sla
e transformarlas en una derivada con gran significado, haciendo gala de gran potencia mental
d cuando ejecuta el desplazamiento de valores lógicos que admiten separar la verdad del engaño.
aje
rd
o No obstante, el asunto no es tan sencillo, la mente ha de estar sobria cuando, al relacionar los
Ab
o momentos temporales previos a la admisión de la inferencia, se está clara de qué o cuáles
ñue
qPe circunstancias han de estar presentes cuando la inferencia se da. Y donde puede llegar a
confundirse la genialidad con la razón. Según John Locke131 (1999), no existe conocimiento sin
n
:U discernimiento… pues es la diferencia entre ingenio y juicio la que separa a algunos hombres y
na
ue los sitúa por encima de otros:
alb
V El ingenio, de manera fundamental, estriba en reunir varias ideas, juntando
na
rápidamente aquellas en las que se pueda ver alguna semejanza o relación, de manera
oim que se producen cuadros felices y visiones agradables a la imaginación; por el
R contrario, el juicio es totalmente opuesto, desde el momento en que actúa separando
cuidadosamente aquellas ideas entre las que puede encontrar la menor diferencia,
para, de este modo, evitar que por la semejanza se produzca engaño, ya que podría
tomar una cosa por otra debido a su similitud.

El científico jamás ha de confundir a la lógica con la intuición en ciencia, la primera se ocupa


únicamente del lenguaje que el científico ha de utilizar, relaciona al sujeto con su predicado y da
luz a los principios. Allí la mente evalúa proposiciones, produce un orden y establece

131 Capítulo XI: Acerca del Discernir y otras Operaciones de la Mente. Véase.
146

conclusiones mediante inferencias. Entonces, el fin de la lógica en la ciencia no es determinar si


una inferencia es verdadera o falsa, sino corroborar que una conclusión sea realmente aceptable
como una conclusión verificando que no ha entrado en el absurdo. No obstante, es la unión

lógica -intuición la que permite obtener descubrimientos sorprendentes. Y, dado que la teoría
perfecta no existe, toda inferencia involucrará por consiguiente, una gran carga probabilística.

6.2.1.- Modelo Stock132 de Clasificación de Inferencias

Aunque no son los únicos tipos de inferencias aplicables y usadas en las ciencias, la siguiente
clasificación presenta una estructura basada en razonamiento deductivo:
.s
aic
tíf 6.2.1.1.- Inferencias Inmediatas
nie
sC Una Inferencia Inmediata se origina de aquel acto mental mediante el cual se deduce una
ia
nc proposición e inminentemente se introduce en otra, en su accionar no se constituye, o supone, en
re
ef lo que propiamente podría llamarse razonamiento. Se entiende también como aquella que no
nI
sla hace uso de un término medio, es decir, se infiere una proposición de otra proposición simple.
e Una inferencia inmediata se tornará valida si y solo si: la consecuencia derivada contiene la
d
aje
misma carga informativa que la premisa. Y, si en la consecuencia o conclusión, aparece una zona
rd
o vacía de conocimiento que también está presente en la premisa.
Ab
o
ñue Todos los infieles
hombresson
sonhombres
infieles Todas las aves vuelan
qPe Todas las que vuelan son aves

n
:U
na 6.2.1.2.- Inferencia Inmediata Simple por Oposición
ue
alb De acuerdo a Stock (1888, p. 135), consiste en una inferencia basada en las relaciones entre
V
na proposiciones que comparte los mismos términos, difiriendo ambos en calidad o en cantidad. Elí
oim de Gortari (1988, Véase Concepto de Inferencia por Oposición), afirma: es la que se ejecuta
R basada en una única proposición categórica, universal o particular133, que funciona como
premisa para obtener una o varias proposiciones categóricas, universales o particulares, como
conclusiones. Es decir, la oposición subyace en el acuerdo o desacuerdo que pueda surgir entre
sus partes, donde ambas proposiciones contienen el mismo sujeto y predicado pero con una
cantidad opuesta.

132 George Stock, Lógica Deductiva. De las Inferencias en General. P. 132 y ss. Véase.
133 Una Proposición categórica es universal cuando contiene el término <<Todos>> y es particular cuando contiene el término <<Algunos>>.
Ejemplo: Todas las aves vuelan… categórica universal. Sólo algunas aves vuelan… Categórica particular. La diferencia entre universal y
particular es lo que se dice tiene que ver con la cantidad.
147

6.2.1.3.- Inferencia Inmediata Simple por Conversión

Una inferencia simple por conversión consiste solo en transponer sus términos, alternando
sujeto con predicado y viceversa, tal como en el ejemplo anterior, al hacerlo, no debe afectarse el
valor de verdad contenido en la premisa original. Allí al antecedente se le conoce como
conversor, y al consecuente como convertido o proposición que ha sufrido la transformación.

Ferrater Mora (2004, Véase concepto de Conversión), argumenta que los lógicos han
admitido 3 modos principales de conversión: a) la simple, donde el sujeto y el predicado
conservan la cantidad o la extensión; b) la conversión donde solo conserva la extensión se
.s
aic denomina conversión por accidente; c) la conversión por contraposición, en la cual el sujeto y el
tíf
nie predicado se convierten por medio de la anteposición negativa a cada uno de los términos
sC invertidos. Al no cumplirse esta última condición surgen sofismas, a continuación un ejemplo de
ia
nc conversión válida: Ningún animal es racional a Ningún ser racional es animal. Obsérvese que se
re
ef ha antepuesto el elemento de polaridad negativa <<Ningún>> que es universal, a los términos
nI
sla invertidos.
e
d Según Ferrater Mora, la siguiente conversión no es válida: Todos los hombres bondadosos
aje
rd hablan con franqueza… a… Todos los que hablan con franqueza son bondadosos. Allí se
o
Ab aprecia claramente la introducción de un sofisma. Argumenta subsiguientemente George Stock
o (1888, p. 143)… para que se reproduzca una inferencia por conversión han de cumplirse con dos
ñue
qPe reglas: 1) no deben aparecer términos distribuidos en el conversor que no hayan sido también
n distribuidos en el convertido; 2) la calidad del conversor ha de ser la misma del convertido.
:U
na En escritos de Joseph Devey (1854, p. 97), para asegurar con evidencias que la calidad del
ue
alb juicio ha de ser conservada, y que ningún término del conversor no haya sido distribuido en el
V
na convertido, se presenta el siguiente ejemplo: puesto que “Todas las Sales son Fundibles”, no es
oim posible inferir que “Todas las Cosas Fundibles son Sal”. Porque en este caso habría de emplearse
R el predicado universal en el conversor y que solo tomó características particulares en el

convertido.

6.2.1.4.- Inferencia Inmediata Simple por Permutación

En lógica y matemáticas se llaman permutaciones de “n” elementos a las distintas


agrupaciones que se pueden formar con estos “n” elementos, de tal forma que una agrupación
difiera de otra solamente por el orden de colocación de sus elementos. Variando así, la
disposición de los elementos dentro de la serie a la cual pertenecen. Para George Stock op, cit, en
lógica, una permutación (Obversión) consiste en un tipo de Inferencia Inmediata donde se
148

produce un cambio de calidad134 en una proposición y un cambio del predicado por un término
contradictorio. La permutación admite expresar negativamente todo aquello que ha sido
expresado afirmativamente y viceversa. Por ejemplo:

Todo A es B → No A no B Todos los hombres son obreros


Ningún hombre es no obrero

En las permutaciones a la premisa se le denomina Obvertiente y a la conclusión Obversa,


donde debe existir equivalencia lógica entre proposiciones. La validez de las permutaciones
descansa sobre el principio de tercero excluido según afirma Stock. Donde uno u otro par de
.s términos contradictorios han de ser aplicables a determinado sujeto, tal que, cuando uno sea
aic
tíf predicado afirmativo, el otro sea negativo y viceversa. Allí la regla es muy sencilla: cambiar la
nie
calidad de la proposición y cambiar el predicado por un término contradictorio.
sC
ia
nc 6.2.1.5.- Inferencia Inmediata Compuesta: Conversión por Negación
re
ef
nI Negación. En Rosental –Iudin (2004, Véase Concepto de), expresa el cambio cualitativo de
sla
las cosas. Operación lógica de formar un enunciado partiendo de otro, siendo el primero
e
d
aje verdadero y el segundo falso o viceversa. Para Martínez María (2006, p. 3);
rd
o
Ab Término que se emplea para clasificar al conjunto de procedimientos gramaticales
usados para llevar a cabo el acto de negar. Se asocia a la expresión de que en una
o determinada característica, una relación o el estado de cosas configurado por un
ñue
predicado es falso, no existe o es contrario a la realidad. Toda negación se basa en la
qPe
existencia previa de una premisa positiva, allí se rechaza, total o parcialmente, el
n contenido de la afirmación preexistente.
:U
na
ue Para la conversión por negación se usan dos pasos, la permutación y la conversión simple, no
alb
obstante, es posible ejecutarla en uno solo. Ejemplo135 donde se transforma a una proposición
V
na categórica universal positiva en una proposición categórica universal negativa:
oim
R (A) Todos los Poetas son Imaginativos
(E) No hay Personas sin Imaginación que no sean Poetas

El término conversión por negación ha sido limitado arbitrariamente al procedimiento


inferencial exacto de permutación seguido por la conversión sencilla. Para lo que no parece
haber, sin embargo, una buena razón ¿por qué el término conversión por negación debe ser por
lo tanto restringida en su significado, en lugar de ser extendida a la combinación de permutación
con conversión, no importa en qué orden los dos procesos se realicen? Si esto no se hace, las

134 Consiste en el carácter afirmativo o negativo de la cópula en cuestión.


135 Existen 4 formas típicas de proposiciones categóricas: A = Universal Afirmativa. E = Universal Negativa. I = Partícula Afirmativa. O =
Partícula Negativa. En este caso, se ha sucedido una permutación y una conversión simple desde la premisa inicial hasta la conclusiva.
149

inferencias tan legítimas como las que pasan bajo el título de la conversión por la negación se
quedan sin un nombre.

6.2.1.6.- Inferencia Inmediata Compuesta: Conversión por Contraposición

Consiste en la primera de las fórmulas compuestas. Se les entiende como a una combinación
de la Obversión. En su proceder se ejecuta la permutación de los términos sujeto y predicado de
la proposición, anteponiéndoseles allí una partícula negante. Tal conversión sólo es posible
cuando la conversión del término denominado sujeto mantiene la misma extensión que tenía
cuando era predicado. Sobre el tema, Kant argumenta que este tipo de inferencia inmediata
.s
aic consiste en aquella transposición (metátesis) de los juicios, en la cual sólo permanece la
tíf
nie cantidad. Contrariamente, la casualidad (calidad) se modifica. Por consiguiente, concierne
sC únicamente a la modalidad de los juicios, por cuanto transforma un juicio asertórico en uno
ia
nc apodíctico136.
re
ef
nI Kant así mismo sostiene que la regla general: Todos los juicios universales afirmativos se
sla pueden contraponer Simpliciter <<falacia por accidente>>, puesto que si se niega al predicado
e
d como aquello que contiene al sujeto se niega entonces la totalidad de la esfera, y entonces es
aje
rd posible negar solo una parte de la misma. En sus estudios sobre lógica, Lombraña (1989, p. 162)
o
Ab aporta un ejemplo de conversión por contraposición: de Todo Incompetente es Inofensivo, se
o sigue… Todo no Inofensivo es no Incompetente. Y de, Algunos Crédulos no son Fieles, se
ñue
qPe sigue… Algunos no Fieles no son no Crédulos. Para Stock, la conversión por contraposición

n descansa sobre el postulado universal: Lo que es verdadero en una forma, también lo será en
:U
na otra forma de palabras que transmitan el mismo significado.
ue
alb 6.2.1.7.- Sobre las Inferencia Mediatas Conjuntivas y Disyuntivas
V
na
Una conjunción es aquella clase de palabras o conjunto total de estas que se usa para enlazar
oim
R proposiciones. En los discursos se emplea como conector de frases, sentencias o clausulas. Una
disyunción por su lado se usa para deslindar, desunir o separar una frase de otra, usándose para la
elección entre dos opciones <<Es salado o dulce>>. También existen las disyunciones inclusivas,
allí es posible admitir ambas posibilidades simultáneamente <<Carlos es Jefe o es Obrero>>
siendo Carlos encargado de la jefatura de los obrero y al mismo tiempo uno de ello.

Dado que el razonamiento se considera una importante habilidad humana que separa al
hombre de ciencia del hombre común, los modelos teóricos empleados por los científicos se

136 En lógica, un juicio asertórico es aquel que de cierta manera no excluye de la posibilidad de una contradicción lógica. Contrariamente, un
juicio apodíctico (verdadero) es aquel demostrable y que no admite contradicción.
150

convierten en la principal herramienta para dar origen a razonamientos inferenciales. En tales,


existen al menos dos claramente diferenciables: los que hacen uso de las teorías formales y los
basados en modelos mentales.

La opción de uso de uno u otro dependerá también de al menos dos factores: la dificultad de
la inferencia y la complejidad de las reglas. En el modelo mental se asume posibilidad de
consistencia cuando hay un vínculo evidente o subyacente inmediato entre las premisas, o en el
caso de presentarse la posibilidad de elección entre ellas…p entonces q; p o q. No obstante, para
evitar un excesivo uso memorístico que pudiese hacerle caer en falacia, el científico generará
.s inferencias con la menor carga informativa posible, haciendo a este modelo útil para algunos
aic
tíf casos pero no práctico para otros. Si la inferencia presenta complejidad, entonces ha de usar el
nie modelo legaliforme de la lógica formal, aunque sea más extenso y complejo.
sC
ia Aristóteles hace referencia a los silogismos o inferencias mediatas en sus Primeros
nc
re Analíticos, y hace alusión a la demostración en los Segundos Analíticos, mas, en este aparte del
ef
nI texto, sólo se abordarán las formas de inferencias mediatas Conjuntivas y Disyuntivas, dejando
sla
por fuera algunas consideraciones de importancia para otros temas pero no de mucho valor para
e
d
aje este. Además, se introducirá en el siguiente aparte un tipo de inferencia Mediata Compleja
rd denominada Dilema. En cuanto a los silogismos, todos son producto del pensamiento, allí las
o
Ab
premisas son unidas por semejanza y contigüidad, donde la conclusión se sobreviene de la causa
o
ñue y el efecto. Los 3 axiomas de las Inferencias Mediatas son:
qPe
Axioma 1.- Si dos términos convergen con un tercer término, entonces, todos los términos convergen
n
:U entre sí. (Axioma de Identidad).
na
ue Axioma 2.- Si un término converge y otro no con respecto a un tercer término, entonces, ellos
alb
divergen los unos con los otros.
V
na
Axioma 3.- Si dos términos divergen con respecto a un tercer término, entonces, ellos pueden o no
oim
estar de acuerdo los unos con los otros.
R
El primero de los axiomas se refiere al principio silogístico de los todos afirmativos, el
segundo a los todos negativos. El tercero apunta hacia los casos bajo los cuales no puede llegarse
a ninguna conclusión. Es decir, si existe algún acuerdo entre las dos premisas y la conclusión,
como en los casos previstos en el primer y segundo axioma, entonces existe una conclusión de
algún tipo; si es de otra manera, no existe conclusión posible.

Entonces, una proposición conjuntiva nunca certifica ni niega ninguna de las proposiciones
constitutivas de la conclusión o juicio, solo afirma que hay una relación entre ellas. La diferencia
entre una inferencia inmediata y una mediata circunda a la importancia del término medio. En la
151

lógica aristotélica, la razón misma de la conclusión se circunscribe a la radical importancia del


término medio, pues, es este el que lía a las premisas.

Por ejemplo: Todas las Aves Vuelan;


Todos los Murciélagos Vuelan;

Entonces, allí no es posible inferir que un murciélago es un ave y viceversa. Sólo es posible

afirmar que existe una relación. Otro ejemplo:

Todas las Aves ponen Huevos;


.s Ningún Murciélago pone huevos;
ac
itíf
Entonces, es posible inferir con confianza que ningún murciélago es ave. Obsérvese que en el
nie
sC primer ejemplo ambos términos divergen con respecto al tercero, axioma 2. En el segundo
ia ejemplo ambas premisas divergen entre sí, pero convergen en la conclusión, axioma 3.
nc
re
nfe
I
sla
e
d
aje
rd
o
Ab
o
ñue
qPe
n
:U
na
ue
alb
V
na
oim
R
152

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO VII: EL
RAZONAMIENTO Y LA
CIENCIA MÁS ALLÁ DEL SER
HUMANO: TECNOLOGÍA...

Actualmente estoy trabajando en inteligencia artificial. Básicamente, en la comprensión del


lenguaje natural, para con ello conseguir que las computadoras entiendan el significado de los
documentos.
Ray Kurzweil.
153

7.1.- El Razonamiento Artificial y el Concepto de Investigación Científica Avanzada

Cuando la connaturalidad y noesis del científico, usando sus


acostumbrados protocolos operacionales de estructuras
primigenias, se hacen científicamente estériles. No pudiendo
procesar metonimia ni establecer causación. Entonces será
necesario embeber los medios de la razón en mecanismos más
avanzados de razonamiento, argumentación, demostración y
prueba. Es así como se origina la Investigación Científica
Avanzada [I.C.A].

Roiman Valbuena.

para evadir
e denomina
finalidad es razonamiento artificial, a todo aquel conjunto de mecanismos empleados

S las restricciones propias que el cerebro impone al hombre de ciencia, y cuya


hacerse de estrategias que admitan la expansión del pensamiento a través de
la utilización de modelos basados en formas alternativas de argumentación y prueba,
desarrollando de esta manera una representación de conocimientos más avanzados. Razonar
artificialmente implica crear entidades inteligentes capaces de ejecutar razonamientos científicos
más allá de las potencialidades del hombre, logrando liar al cerebro humano con los modelos
lógicos computacionales mejorando su desempeño.

Significa plantear en esencia, la capacidad de aumentar el poder de percepción, de


entendimiento, de predicción y manipulación sobre entidades no biológicas pero con
conciencia137. Extendiendo los alcances de la investigación científica más allá de la razón138, de
la metodología y del método. Aunque: La ironía máxima de los sistemas inteligentes sería crear
sistemas capaces de cometer errores139.

Dos elementos motivan la caracterización del cerebro como computador: el más fundamental
asume que la definición de sistema nervioso es netamente representacional. Es decir, los estados
del cerebro representan los estados de algún otro sistema, del mundo exterior y del cuerpo en sí
mismo, donde una transición entre estados puede ser explicada como operaciones
computacionales.

El segundo deriva desde el dominio de la teoría matemática que define la computabilidad

137 La frase <<pero con conciencia>> se usa en un contexto limitado, ya que en el experimento de la habitación china, usado para rebatir el test
de Turing, una máquina ejecuta una acción sin llegar a entender qué hace y porqué, es sencillamente una acción mecánica programada sin
capacidad de discernimiento alguno. Simplemente se direcciona sobre la acción pero no discrepa ni razona como facultad que el ser humano sí
posee. Compárese este ejemplo con el del Cerebro en una Cubeta <<En este mismo texto aparece: Capítulo XXIII Introducción a la
Investigación138 Experimental. Experimentos Mentales>>.
Denomínese NOESIS, concepto que aparece en la cita inicial del subcapítulo, a una actividad atribuida enteramente a las acciones del
pensamiento, es un tipo de epifanía e intuición eidética que llevan al científico a oponerse a cualquier percepción sensible. Consiste según Platón,
en uno de los grados más elevados del conocimiento.
139 James H. Fetzer: Artificial Intelligence: It´s Scope and Limits.
154

como un alto estado con sentido abstracto. Esto último, en relación a que el cerebro puede ser
visto como un dispositivo cuyas entradas y salidas logran ser caracterizadas en términos de
funciones matemáticas.

En ese orden, antecedentes neurobiológicos han arrojado datos afirmando que el cerebro se

comporta como una máquina causa – efecto140. El pensamiento significativo, o pensamiento


.a
da productivo <<atribuido ya en los años 40 al sicólogo Max Wertheimer>> junto a las
z
na neurociencias cognitivas, derivan como consecuencia que el cerebro también hace uso de señales
v
A digitales cuyas representaciones son símbolos. Las células cerebrales <<Neuronas>> responden
ac
if a señales externas que son asimiladas y entendidas en una secuencia paso a paso igual que un
ít
ne algoritmo.
i
C

ic Por su lado, a la investigación científica, tal como hoy día se le conoce, debe dejar de
ag
it ejecutársele acudiendo únicamente a los mecanismos de la razón y del método, pues allí la
sve
capacidad de discernimiento pierde fuerza cuando se opera con múltiples variables que a su vez
nI
e pueden presentar infinidad de estados en intervalos de tiempo extremadamente pequeños. La
d
ot ciencia del siglo XXI precisa de resultados que con el método tradicional no se podrán lograr,
ep
nc donde, nada puede estar tan oculto que no se pueda descubrir.
o
lC
e En ese sentido, nace el Concepto de Investigación Científica Avanzada. Entendiéndosele,
ly
ai como aquella investigación que parte desde un proyecto científico normal, en el cual se
ic
tif
r agregarán conjeturas soportadas en el principio de duda razonable, que no podrán ser modeladas
A sino por mecanismos computacionales, y cuyos eslabones cognoscitivos darán luces a
ot
nie
descubrimientos por sí mismos imposibles desde el cerebro humano en su estructura natural. En
am
no este campo se buscan resultados a través del pensamiento productivo, actuando donde el
az
entendimiento sea angosto o la parálisis intelectual se haga presente.
lR
E
:na La Investigación Científica Avanzada ameritará, por su intrincado protocolo de captura de
ue problemas, de un nuevo hombre de ciencia, aquel que confíe en su intuición pero desconfíe del
alb
método. Pues, en el pasado nunca existió, y en el futuro tampoco podrá existir, un método único
V
na para orientar investigaciones. Habrá entonces que intentarse con varios, eligiendo siempre aquel
oim
que demuestre eliminar más efectivamente las casualidades. La mente del hombre de ciencia ha
R
estado, está y siempre estará influenciada por ideas y teorías.

Es decir, el científico observa y estudia al fenómeno a través de un vidrio con cierto color,
este apasionamiento hará que toda conclusión involucre al mismo color <<Disonancia

140Parte del contenido científico de este párrafo, fue extraído y adaptado desde: Concepto <<Computation and The Brain>>, en The MIT
Encyclopedia of Cognitive Sciences. Véase.
155

Cognitiva 141 >> Aplaudiendo lo agradable y desvirtuando lo desagradable. El razonamiento


artificial hará, por ende, que toda influencia a priori pueda ser tomada por relación y proximidad,
eliminando todo aquel conjunto de datos, que posterior a su análisis, no aporten información.

Una investigación es avanzada, cuando se evidencia descubrimiento a través del usufructo del
pensamiento humano embebido en un algoritmo computacional. Donde el fracaso corrosivo del
.a
da modelo tradicional y menguado, sea tan evidente, que amerite el cambio radical de las
z
n
av estructuras para producir conocimiento. O, cuando la lógica bivalente deja de ser efectiva y se
A acude a otros modelos de razonamiento que sobrepasan las capacidades humanas.
ac
if Introduciéndose allí, los modelos de la Inteligencia Artificial <<IA>>; las Redes Neuronales; la
ít
ne
i Lógica Polivalente; la Lógica Difusa o los Razonamientos Bayesianos.
C

ic Por ejemplo, si determinado estudio amerita la observación de una situación donde el estado
ag
it de las variables evoluciona con el tiempo142, entonces se hace necesario un método basado en
sve
nI intervalos, ninguno mejor que el Método del Razonamiento Temporal. De manera que permita
de razonar sobre el presente y el pasado, además de establecer convincente y efectivamente, una
ot
ep relación de hechos acumulados en un intervalo específico de tiempo. El razonamiento temporal
nc se utiliza en problemas donde se calculan situaciones probabilitarias, de manera que se obtenga
o
lC una técnica para transformar una situación en otra. Allí el científico podrá usar las tres categorías
e
ly principales del razonamiento temporal: los Sistemas Algebraicos143; la Lógica Temporal y la
ia
ic
tif Lógica de Acción.
r
A
ot
nie
am
no
za
lR
E
:na
ue
alb
V
na
141 Conflicto mental que surge al considerar de forma simultánea creencias o actitudes contrapuestas. La cantidad de disonancia depende de la
oim intensidad relativa de los elementos disonantes. La disonancia puede darse en diversos tipos de estados o procesos psicológicos, aunque el núcleo
de la investigación de la teoría de la disonancia cognitiva está formado por el estudio de la disonancia en la elección y la consiguiente
R justificación y efectos derivados de la elección. La disonancia cognitiva puede estar presente en dos tipos de fenómenos de cierto interés para los
filósofos, a saber, el del autoengaño y el de la falta de voluntad. ¿Por qué intentan las personas que se autoengañan creer en algo que, en algún
sentido, saben falso? La persona puede recurrir al autoengaño cuando ese conocimiento produce disonancia. ¿Por qué cometen las personas sin
voluntad actos que saben equivocados? Se puede llegar a carecer de voluntad cuando la disonancia surge a partir de las consecuencias esperadas
por142 En
hacer lo que es correcto.
investigaciones dondeTomado de: la
se estudia Diccionario
conmutación de Filosofía.
Akaleléctrica; el comportamiento Audi
(1999). Robert de lasEditor.
neuronas;
Disonancia
o cuando
Cognitiva. de.integrado
un sistema
se revisaConcepto Véase.

con múltiples condiciones, por lo general la causa y el efecto son contiguos, se hace difícil representar intervalos de tiempo que se superpongan.
Temporal Reasoning. The MITEncyclopedia of Cognitive Sciences. Véase.
143 Los sistemas algebraicos se concentran en las relaciones entre puntos de tiempo y/o intervalos de tiempo, que se representan por variables con
nombre. Un conjunto de ecuaciones cualitativas o cuantitativas restringen los valores que podrían ser asignado a las variables temporales. Por su
lado, la lógica temporal sirve para representar relaciones entre proposiciones a lo largo del tiempo.
156

7.2.- La Lógica Polivalente: Lógica Trivalente [L3]

Un comportamiento emergente es aquel que no se puede


predecir a través del análisis en cualquier nivel más simple que
del sistema en su conjunto... el comportamiento emergente, por
definición, es lo que queda después de que todo lo demás ha
sido explicado.

George B. Dyson
"Darwin among the Machines: The Evolution of Global
[V:
valores
e denomina
I: F]. suele
lógicos de
lógica sus
aparecerproposiciones
también
trivalente, bajoson
al sistema tres:
denominación
la lógico [1:
matemático
[Verdadero]; Intelligence,"[p. 9, 1997]

no determinístico donde los

S
al Principio del Tercero Excluso Aristotélico que se enuncia así: <<Cuando existan dos
[Indeterminado] y [Falso] →
½:0]. Este sistema se opone

proposiciones que recíprocamente se nieguen, al menos una de ellas ha de considerarse


necesariamente verdadera, es decir, una tercera no se da>> C.S. Pierce elaboró los primeros
conectivos proposicionales trivalentes hasta ahora conocidos, habiendo descubierto simetrías y

generalizaciones que permitieron a otros investigadores profundizar en el tema. A Jan


Lukasiewicz <<Matemático y Filósofo Polaco>> se le atribuyen trabajos posteriores. El
144 también aparece como uno de los
científico estadounidense Clarence Irwin Lewis
desarrolladores de la lógica trivalente.

La Investigación Científica Avanzada en épocas recientes ha tenido que recurrir a los


artilugios de una lógica muy superior a la tradicional, sobre todo, por la cantidad de variables y
relaciones de ellas que amerita. La lógica L3 incluye teorías de la demostración, teorías de
modelos L3, un teorema denominado eliminabilidad de la regla de corte 145 [Hauptsatz]. Un
teorema de interpolación y un teorema de consistencia, básicos y necesarios para las
demostraciones. Incluye también un cálculo secuencial S3 – S2 donde su formalismo utiliza
símbolos de juntores y cuantores. La semántica para L3 admite dos subclases de semántica: la de
interpretaciones y las de valoraciones.

Hay una condición axiomática del principio de trivalencia que explicita lo siguiente: [Toda

144 Lewis escribió un libro en 1918 y que fue publicado mucho tiempo después en 1960 denominado: <<A Survey of Simbolic Logic>> En su
Capítulo I: Sección VII: p.107. Apartado dedicado a Pierce. Aparecen los primeros vestigios de una lógica diferente a la bivalente en manuscritos
de Robert Grassmann, con cálculos notablemente diferentes al tradicional cálculo Booleano. Pierce básicamente operacionalizó el cálculo de
sentencias equivalentes o razonamiento simbólico y los complementó con las descripciones de Hugh MacColl´s en su libro: <<Simbolic Logic
and It´s Applications>> 1878-80. Donde aparecían 4 tipos de enunciados: [Verdadero]; [Falso]; [Cierto]; [Imposible] y [Variable], este último
con las opciones (no cierto y no imposible) que posteriormente Pierce desarrolló.
145
Este teorema es similar al planteado por Godel en su lógica aproximada ahora denominado Teorema de Incompletud de Godel, donde se
afirma que en un sistema axiomático cualquiera, hay proposiciones que son indecidibles. Véase El Método Axiomático o Método Demostrativo
en este mismo texto. Para Hauptsatz consiste más en un método de prueba o teoría de prueba y demostración.
157

fórmula tiene un valor de verdad en el conjunto V; I; F;] una fórmula es verdadera o falsa según
el n-tuplo designado en la descripción que en ellas aparecen, y pertenezcan al dominio positivo o
negativo del predicado. Sin embargo, en el mismo sentido clásico, amerita interpretación al ser

indeterminado y muy comúnmente, podrán observarse comportamientos emergentes en los


sistemas bajo estudio. Esto último, no habría sido posible sin la aplicación de un nuevo método
de indagación. Es decir, la perturbación de un sistema produce innovación.

Algún nuevo resultado podrá ser indeterminado para la lógica y la metalógica en L3, pero con
gran significado tanto para la semántica del científico como para la del sistema. La lógica L3
asume gran cantidad de justificaciones por inducciones, tal cual se ejecuta en cualquier
.]
3 experimento científico. Pero que por ello, al igual que en la experimentación, sólo pertenecen a
L[
et un razonamiento temporal que posteriormente es operacionalizado por la teoría de la
ne
la demostración. Básicamente, la lógica L3 trata de esquematizar un árbol de fórmulas “F” a partir
ivr de un conjunto finito “M” de supuestos, allí las fórmulas son duales y parten todas de “F”, y cada
T
ac sucesor de “M” es una conclusión de una premisa anterior tal como sucede con el razonamiento
ig
ó teoremático en el método axiomático o método demostrativo.
L
:e
t
ne No obstante, por el principio de trivalencia surgen tres opciones: [1: ½: 0] →[V: I: F]; o
lliva
fórmula para el conjunto finito “M” de supuestos donde una deducción [B3]146 para “F” a partir
Po
del conjunto “M” es un árbol cerrado. Es decir, un árbol tal que para cada una de sus ramas [R],
ac
ig hay al menos una fórmula [G] que pertenece a “F” a partir del subconjunto finito “M”. La lógica
ó
L
a trivalente está siendo manejada ampliamente en sistemas donde existe presuposición,
L
:a condicionalidad e imprecisión.
ne
u
bl Las empresas de telecomunicaciones la utilizan sobre el diseño de diagramas lógicos para
a
V
na redes de telecomunicaciones complejas que ameritan control en la automatización de procesos de
147
mi flujos de datos con tráfico denso. Barbat (2007), describe un mecanismo de software para
o
R hacer frente a la amenaza de la indecibilidad <<o tercer término de la lógica L3>> llamado
DOMINO. [Desision Oriented Mechanism for “IF” as a Non Deterministic Operator]. Muy
eficiente cuando actúa sobre las opciones de indecibilidad derivadas de cualquier tipo de futuro
contingente.

146 Conjunto infinito de descripciones que no aparecen en “M”. B = conjunto de fórmulas que satisfacen ciertas condiciones en el conjunto [V: I:
F]. puede encontrase más información sobre el operador B3, o la condición de operación B3 en Blau (1980): Three Valued Analysis of Precise,
Vague, and Pressupposing Quantifiers.
147 Barbat, Boldour (2007). DOMINO: Trivalente Logic Semantic in Bivalente Syntax Clothes. Publicado en: International Journal of
Computers, Communications and Control. Vol. II. N.4. pp. 303 – 313. Véase.
158

7.3.- La Lógica Polivalente: Lógica Difusa

El cerebro humano funciona como un ordenador binario que


sólo puede analizar exactamente los ceros y unos (o blanco y
negro) basados en la información. Nuestro corazón es más
como un equipo químico que utiliza la lógica difusa para
analizar la información que no puede ser fácilmente definida
en ceros y unos.

Naveen Jain.

eque
entiende
se
razonamientopor Lógica Difusa [LD], al conjunto de conceptos, construcciones y técnicas

S refieren a modos de razonamiento que son aproximados y no exactos. El


humano es, por naturaleza, de este tipo148. Fundamentalmente, la lógica
difusa consiste en una generalización de la lógica bivalente tradicional y descansa sobre sus
mismos principios matemáticos. La lógica polivalente <<donde la lógica difusa es sólo uno de
sus modelos>> en épocas recientes ha sido abordada desde los campos de la filosofía y la lógica
matemática. Aristóteles en su tiempo ya dudaba de las mismas leyes de bivalencia, sobre todo,
cuando las proposiciones hacen referencia a hechos futuros no acaecidos o indeterminados. La
LD analiza conceptos formales con atributos difusos <<denomínese difuso a todo aquello
impreciso, indeterminado o poco claro>>

La LD descansa sobre la Teoría de Medidas Difusas, en principio, la teorización clásica,


basada en la métrica y la geometría, asignó números a longitudes, áreas y volúmenes. Este

proceso consistía en una simple comparación de la medida de un elemento con su unidad


estándar. No obstante, aparece entonces el problema de la Inconmensurabilidad149, el cual
reveló que medir era más complicado de lo que realmente parecía. Con el rápido avance del
análisis matemático aplicado a la ciencia y a la tecnología, una ruptura paradigmática se
sobrevino en consecuencia, Revolución Científica según Thomas Kuhn y Paul Feyerabend.
Entonces, nuevos métodos de medición fue necesario investigar basados también en la
acostumbrada teoría de conjuntos.

Suponga todo el conjunto de números reales entre O y 1 <<Tradicionales de la lógica

148 Concepto tomado de: MIT: Encyclopedia of the Cognitive Sciences. Véase Fuzzy Logic. Pp. 335.
149Cuando una teoría científica o tradición es reemplazada por otra en una revolución científica, los conceptos envueltos normalmente cambian
de manera radical. Por ejemplo: obsérvese las diferencias entre el concepto de masa, en la mecánica Newtoniana y en la Mecánica Relativista. En
la primera la masa es independiente de su velocidad; en la segunda la masa se incrementa conforme se acerca a la velocidad de la luz.
Inconmensurabilidad concepto de: Routledge Encyclopedia of Philosophy, Véase. Inconmensurabilidad: todo aquel asunto relativo, y que
enmarcado en una teoría, presenta anomalías, indeterminabilidad y contradicciones, que conllevan a su resolución con cambios precipitados
enmarcados en una nueva teoría. La inconmensurabilidad hace alusión a que cuando dos teorías no son compatibles en sus lenguajes no puede
haber punto de comparación. También hace referencia a ciertos casos matemáticos donde la medición se torna imposible.
159

bivalente>>. Cuando se remueven los bordes ¿Qué queda?, ⌊ ⌋… ¿Cuál es la

medida que realmente se obtiene al eliminar los límites? No importa la respuesta, esto va más
allá del método clásico de la teoría de la medición. A raíz de ello aparece la Teoría de los
Modelos Difusos, básicamente, una teoría para conceptos graduados, en la cual todo es materia
de grados, es decir, y desde un punto de vista objetivo, una teoría basada en conceptos

lingüísticos donde todo es elástico y lingüísticamente manejable a través de proposiciones y


etiquetas.

Por ejemplo, en la proposición: [Carla es Bonita], existen conflictos entre atributos difusos,
pudiendo ser vista como una restricción difusa entre la variable implícita “Belleza” <<de
Carla>>, contra la misma variable explícita. Pues, habría que definir “Belleza”, en términos de
.a
s medidas exactas con dominios positivos y negativos del predicado para establecer una relación
uf
i
D un poco más clara, pero todavía numéricamente imprecisa. Caso contrario, como de hecho lo es,
ac
ig se crea una relación indeterminada. Cuando existen restricciones entre variables implícitas y
ó
L explicitas, definidas en el conjunto restrictivo de variables, se denominan restricciones
:e
t
ne concomitantes. La LD conforma un sistema lógico impreciso, en donde cualquier valor de
la
vi verdad pertenece a un subconjunto difuso medible en un intervalo dado.
lo
P
aic Allí, cada unidad ha de corresponderse con una etiqueta de proximidad lingüística:
óg
L Verdadero; Falso; No Verdadero; Muy Verdadero; Bastante Verdadero; No Muy Verdadero y
a No Muy Falso150. En una tabla de verdad difusa, o tabla de verdades imprecisas, existen al
L
:a
ne menos dos reglas de inferencia difusa: (i): La Regla de la Inexactitud; (ii): La Regla donde todo
u
bl depende de aquel significado previamente asociado a la verdad primaria, y definida por
a
V
na aproximación lingüística al uso de los modificadores: Mucho; Bastante; Más o Menos, entre
imo otros. Cuando la inferencia es del tipo inexacta, se estiran los valores hasta su etiqueta más
R cercana definida como cuantor.

En este caso, el razonamiento aproximado o difuso se constituye como un proceso de


asignación de ecuaciones relacionales que arroja una solución aproximada a un sistema151. Para
que tal sistema sea difuso, sus premisas también han de serlo. A Continuación un ejemplo de
Zadeh Op.cit:

150 Para el investigador novato, esta clasificación podrá confundirse con un escalamiento tipo Likert. Aclaratoria del autor: en mi opinión, valga
lo que valga, el escalamiento Likert debe ser usado con sumo cuidado <<Véase el Apartado: Encuesta Versus Experimento: “La Falibilidad de las
Escalas de Likert. Cap. IV: Sección 4.3” en este mismo texto>> en el escalamiento Likert se miden, o al menos eso se pretende, sentires al azar
(Ni siquiera aleatorios) que dependen del contexto y disposición del encuestado. Contrariamente, la lógica difusa mide estados indeterminados de
sistemas físicos asociados a funciones matemáticas previamente definidas en un conjunto de opciones difusas pero que pertenecen al dominio
positivo o negativo de un predicado también definido con antelación, y en base a ello, toman decisiones. Si bien es cierto, las escalas Likert
operan bajo la teoría de acción razonada, la lógica difusa lo hace bajo un esquema muy parecido pero mejor argumentado, denominado,
razonamiento aproximado y análisis difuso.
151 Gran parte del contenido de esta sección fue extraído de: Zadeh, L.A. Fuzzy Logic and Approximate Reasoning. Aparece en: Synthese (1975,
del mismo Autor). Volumen 30. Pps. 407 – 428. Véase.
160

Premisa Mayor Difusa: La Mayoría de los Hombres son Vanidosos


Premisa Menor no Difusa: Sócrates es un Hombre

Conclusión Difusa: Es Muy Probable que Sócrates sea Vanidoso

Las palabras señaladas en cursiva son etiquetas definidas dentro del conjunto difuso. Ahora
bien, obsérvese que la premisa menor no contiene etiquetas. No obstante, basta con que la
premisa mayor sea etiquetada para que la conclusión haga uso de alguna otra etiqueta definida
para el conjunto. Véase este otro ejemplo de Zadeh:

Premisa Mayor: “x” es pequeño

Premisa Menor: “x” y “y” son aproximadamente iguales

Conclusión: entonces: “y” es más o menos pequeño


.a
s
Difu Las conclusiones de enunciados difusos están enmarcadas dentro de las teorías de la
ac posibilidad y la probabilidad. La LD involucra a su vez a dos conceptos de suma importancia,
ióg
Fuzziness (Borrosidad); fuzzification; y Granularidad o Granulación. La borrosidad se refiere a
L
:te las clases, es decir, sus límites allí no están claramente definidos. En la lógica de clases
ne
la aristotélica es donde se agrupan los elementos dentro de una misma categoría, lo que permite
liv
Po identificar y agrupar a cada miembro con otro/s sólo porque presentan características comunes.
ac
ióg Toda clase es abstracta y por ello pertenece a la teoría de conjuntos, es el predicado quien
L indica y describe las propiedades del sujeto insertándolo en su respectiva clase. Fuzzification,
a
L hace referencia a la sustitución de un conjunto clásico y bien definido con límites claros, hacia
:na
ue un conjunto donde los límites son difusos para poder aplicar la teoría de los modelos difusos.
alb
Por ejemplo: extraer el número 7 de un conjunto bien definido hacia el conjunto donde se
V
na represente [aproximadamente igual a 7: ≈ 7].
oim
R Para Zadeh, son 3 los conceptos que rigen la cognición humana y que están clasificados
dentro de la lógica difusa: la granulación; la organización y la causación. La granulación
equivale al análisis, donde se descompone el todo en sus partes. Esta es por naturaleza
jerárquica, para la lógica difusa cada gránulo se corresponde con un dato de información. La
granularidad se refiere al agrupamiento de estructuras, mientras que la granulación se refiere a la
partición de un objeto dentro de un conjunto de gránulos. Con cada gránulo conformando un
grupo de objetos elaborados por indistinguibilidad, similaridad, proximidad o funcionalidad. La
organización por su lado, apunta hacia la integración de cada parte en un todo [Método de la
Síntesis], y la causación representa la asociación de cada efecto con su respectiva causa.
161

7.3.1.- El Análisis Difuso y la Teoría de las Medidas Difusas

Antes de explicar el proceso de análisis difuso es necesario conocer que son y cómo operan
las funciones y los conjuntos difusos. Una función difusa es equivalente a una función
matemática donde se afirma que determinada cantidad “y” es una función de otra cualquiera “x”,
si y solo si, el valor de “y” viene determinado por el valor de “x” () Donde “x”

adquirirá la denominación de variable independiente y “y” la de variable dependiente. Además,


toda función matemática abarca un conjunto de números en los cuales puede operar, es decir, la
cantidad de asignaciones numéricas asignables a la variable independiente, llámese a ello
“dominio”. El rango será aquel que la función asocia con los números en el dominio.

.a No obstante, las funciones difusas presentan ciertas características diferenciables. Allí son
s
uf concebibles diferentes grados de “Fuzzification” (Clases con límites no definidos) bajo las
i
D siguientes condiciones152:
ac
ig
ó
L 1. Podrá existir un Crisp Mapping153 desde un conjunto difuso del dominio que genere otro
:e
t
ne conjunto difuso. La imagen resultante podrá volver a ser mapeada o muestreada.
la
vi 2. El mapeo o muestreo por sí mismo podrá ser difuso, difuminando la imagen obtenida en
lo
P un primer argumento Crisp. Esto permitirá crear una función difusa, denomínese a este
aic
óg proceso “Fuzzyfiying Functions” o Fuzzificación de funciones. Estos dos primeros pasos
L son los que permiten crear funciones difusas: Dubois y Prade (1980ª. P. 106)154
a
L 3. Cualquier función de la matemática ordinaria: logarítmicas, exponenciales, cuadráticas,
:a
ne
u cubicas etc. Podrá contener propiedades difusas o ser restringidas por operadores de
bl
a restricción difusos.
V
na Préstese atención al siguiente ejemplo planteado desde Zimmermann pero adaptado al caso:
imo
R Sea “X” un conjunto de temperaturas, “Y” la posible demanda de energía de los hogares. Donde “X”
claramente representa a la variable independiente, se crea entonces la función: () Observe ahora
el proceso de Fuzzificación de funciones. Denomínese “A” al conjunto difuso de “Temperaturas Bajas”, y
“B” al conjunto difuso “Alta Demanda de Energía”. Al asignar “Temperaturas Bajas” → “Alta Demanda
de Energía” se obtiene una función difusa, donde la restricción condicional podrá ser la correlación
negativa: “A menor Temperatura → Mayor Demanda de Energía”→ ()

152 Extraído y adaptado desde: Zimmermann, H. (2001). Fuzzy Set Theory: and It´s Applications. Cuarta Edición. Kluwer Academic Publishers.
Cap. 7 Fuzzy Analyses. P.93: Véase.
153 Una relación Crisp representa la presencia o ausencia de asociación o interconexión, o la asignación de grados de fuerza de asociación entre
dos o más elementos dentro de un conjunto. El término no tiene referente de traducción al español y tampoco es recomendable traducirlo por ser
un término técnico. Crisp Mapping significa emprender una búsqueda de relación o asociación entre dos o más elementos de un conjunto difuso
para154 crear una función definiendo en grados la posición de cada uno de sus miembros. Jerarquizando.
Esta referencia aparece en Zimmermann op. Cit.
162

Para que realmente exista una relación difusa, ha de haberse ejecutado el Crisp Mapping de
asociación, lo que previamente se hizo. Posteriormente, la asignación de grados de fuerza de
asociación por similaridad, proximidad o funcionalidad. Asignando al mismo tiempo, etiquetas

lingüísticas difusas y elásticas (Granulación, al asignar jerarquías se está granulando): Muy Bajo
– Medianamente Bajo – Moderadamente Bajo – Extremadamente Bajo – <<Luego>> – Muy
Alto – Medianamente Alto – Moderadamente Alto – Extremadamente Alto… es decir, límites
difusos con valores medibles (Teoría de Medidas Difusas) dentro del intervalo difuso. Donde
cada etiqueta representa a un concepto graduado y elástico ajustable a la escala. Además, se crea
.a un subconjunto de funciones para cada cuantificador denominadas ecuaciones relacionales. Esto
s
uf
i hace que una operación basada en sistemas difusos sea manejable a través de gráficas.
D
ac
ig En todo conjunto difuso existe un nivel de incertidumbre o entropía difusa, para Kosso
ó
L (1992), esta medida varía entre 0 y 1 sobre el hipercubo unitario 1n. Donde la entropía aumenta
:e
t
ne
la a medida que el conjunto difuso se desplaza hacia el centro del cubo. El análisis de datos en LD
vi
lo implica determinar la respuesta a la pregunta de investigación e involucra la división del
P
ac procedimiento en cuatro pasos ascendentes en el nivel de complejidad 155. En el nivel 1 se
ig
ó ejecuta un simple análisis de frecuencias, allí se evalúan los datos confiables y el resto son
L
a
L marcados para su eliminación. En el segundo nivel, se lleva a cabo un reconocimiento de
:na
patrones, agrupando (granulando) los datos según cada caso y dándoles una estructura formal.
ue
alb Estos dos primeros niveles se corresponden con el área de análisis exploratorio, sin elegir
V
na todavía, algún modelo matemático de comparación o prueba. Es en el tercer nivel, donde la data
oim examinada se hace corresponder con algún modelo matemático. Si la investigación es
R
cuantitativa, se aplica análisis de regresión para establecer relaciones por aproximaciones.

Caso contrario, si la investigación es cualitativa, este proceso se lleva a cabo en el segundo


nivel, donde los gránulos son agrupados por similaridad conceptual. El cuarto nivel se

corresponde con la evaluación y conclusiones de la investigación. Existe un procedimiento


alternativo denominado Análisis de Clusters Difusos, en él se particiona un conjunto dado en
pequeños clusters llamados: subconjuntos, grupos o clases. Bajo condiciones de homogeneidad
dentro del clúster o heterogeneidad con otro.

En conclusión, la teoría de los modelos difusos no debe considerarse como piedra de tranca
para los investigadores, realmente viene a representar un nuevo método de análisis a nuevos
problemas donde subyacen elementos inconmensurables, sobre todo, en tecnología. La lógica

155 Puede encontrarse más información sobre los procedimientos de análisis difuso en: Hoopner, Frank (1999). Fuzzy Cluster Analysis: Methods
for Classification, Data Analysis and Image Recognition. John Wiley & Sons.
163

difusa, como parte de los modelos lógicos polivalentes, y uno de los pilares de la Investigación
Científica Avanzada, permite añadir certeza a la incertidumbre. Hasta ahora, el potencial de la
teoría de los modelos difusos permanece aún oculto. Sin embargo, áreas emergentes como: la
bio-informática; la bio-ingeniería; los sistemas expertos y las web-tecnológicas, que manejan
grandes cantidades de datos, están ofreciendo oportunidades aun no explotadas a nuevos
investigadores.

.sa
ifu
D
ac
ig

:te
ne
la
liv
Po
ac
ig

a
L
:na
ue
alb
V
na
mi
o
R
164

7.4.- La Lógica Polivalente: Lógica Computacional

El más extenso cálculo computacional conocido, se ha llevado a


cabo durante los últimos mil millones de años, y ha tomado en
cuenta a la población de todo el planeta… este ha sido el
cálculo de la evolución de la vida. El poder de este cálculo se
ilustra por la complejidad y belleza de su coronación: El
Cerebro Humano.

David Rogers.

En Gary William Flake, The Computational Beauty of Nature


(2000), 415.

ematemática,
entiende portalLógica
caracterización cualuniverso
del se le
Computacional, a todo aquel proceso que intenta aplicar la lógica

S conoce, sobre sistemas computacionales. Consiste en la


del discurso implícito en la lógica o algún lenguaje de
programación hacia una lingüística computacional. Trata en esencia, la programación de
computadores que muestren niveles de inteligencia similares a los de los humanos, allí la lógica
permitirá entender el cómo opera la razón. La lógica computacional forma parte de los
desarrollos de la Inteligencia Artificial, usa los mismos principios de la lógica simbólica creada a
mitad del siglo XX, y su algebra manipula símbolos para resolver problemas. Se desarrolla por
los intentos de crear un lenguaje común entre humanos y computadoras.

La Inteligencia Artificial a través de la Lógica Computacional ha tratado, en época reciente, el


desarrollo en masa de artefactos que ayuden al humano a aprender, básicamente objetos físicos
productos de la tecnología, hechos con el propósito de ayudar a mejorar la capacidad de
cognición. No obstante, estos artefactos cumplen una función dual, enseñan y aprenden,
observan patrones de niveles de inteligencia humana y simplemente los transforman en un

proceso computacional primitivo.

Este modelo realiza un proceso cognitivo específico, una tarea o clase de tareas que

reproducen un comportamiento que constituye un conjunto de predicciones que se pueden


comparar con los datos de la actuación humana. Dominios de tareas que han recibido
considerable atención incluyen la resolución de problemas, la comprensión del lenguaje, las
tareas de memoria, y la interacción persona-dispositivo156.

156 Para más información sobre los Modelos Cognitivos que usan la Lógica Simbólica Véase: Cognitive Modeling, Symbolic. En: MIT
Encyclopedia of Cognitive Sciences.
165

Según Robert Kowalski157, existe una relación estrecha entre la lógica y el pensamiento
humano, pues, la lógica, en todas sus variedades, trata de formalizar las leyes del pensamiento.
Para el autor, la Lógica Computacional funciona principalmente como lenguaje del pensamiento
de un agente inteligente de la Inteligencia Artificial. Su gramática determina la forma de los
pensamientos del agente. Su semántica, el contenido o significado de estos pensamientos. Y por
último, un motor de inferencias o procedimiento de prueba, que genera, deriva o infiere nuevos
pensamientos como consecuencia de los existentes.

La lógica computacional es una rama amplia e interdisciplinaria cuyas raíces se encuentran en


la Inteligencia Artificial <<IA>>, las ciencias computacionales y las matemáticas. Su campo se
.cional extiende tanto hacia los fundamentos teóricos como prácticos para el desarrollo de herramientas
y procesos automatizados. Para poder entender el cómo opera la lógica computacional, es
at
u
p necesario entender también, los diversos tipos de razonamiento de la cognición humana: los
mo
razonamientos analógicos, por inducción, por deducción y por abducción.
C
ac
ig De allí se derivan los motores de inferencia basados en gramática y los razonamientos
ó
L artificiales basados en evidencias. La lógica computacional también hace uso del denominado
:e
t
ne Modus Ponens, o razonamiento hacia adelante, donde se derivan conclusiones de simples
lliva
condiciones iniciales. Y el razonamiento hacia atrás, proceso inverso donde planteada una
Po
ac conclusión se derivan cierta cantidad de condiciones.
ig
ó La lógica computacional hace uso extensivo de las neurociencias computacionales, cuyo fin
L
a
L es el de explicar, basado en términos computacionales, cómo el cerebro genera comportamientos.
:a
ne Ciertos modelos computacionales del cerebro exploran el cómo las poblaciones altamente
u
bl interconectadas de neuronas son formadas durante el desarrollo, y el cómo estas representan
a
V
na procesos, almacenan, actúan y son alteradas por informaciones externas de su ambiente. Allí, la
mi Teoría Computacional de la Mente, sostiene que la mente es un simple dispositivo
o
R computacional digital, almacena representaciones simbólicas y las manipula de acuerdo a ciertas
reglas sintácticas que son expresadas en el lenguaje del pensamiento158.

En fin, la lógica computacional es un campo de investigación amplio y diverso en la


Investigación Científica Avanzada, los centros de investigación que más desarrollo han
presentado recientemente son: [ECCAI] European Committee for Artificial Inteligence;
[CoLogNet] European Net of Excellence on Computational Logic, entre otros.

157 Científico Lógico y de las Ciencias de la Computación. Imperial College de Londres.


158 Neurociencias Computacionales; Teoría Computacional de la Mente; MITEncyclopedia of Cognitive Sciences. Concepto de: Véase.
166

7.5.- Sobre el Razonamiento Artificial

La Inteligencia Artificial [I.A] alcanzará niveles humanos en


torno al 2029. A más tardar, digamos, en 2045, habremos
multiplicado la inteligencia de la máquina biológica humana
de nuestra civilización, al menos mil millones de veces.

Ray Kurzweil.

queduda,
ciencias
in naturales
rigen los suele
fenómenos.
el aconocimientoserhadeldeLos
tipo eventos según la ciencia que se estudie, en las
estratificarse
determinístico,

S pues éste está delimitado por leyes


pueden sucederse o no, similar a una

distribución binomial en estadística. No acontece así en las ciencias humanas, es decir, el


conocimiento es netamente probabilístico, pues actúa sobre él una gran carga de incertidumbre.
Se le conoce como conocimiento incompleto e imperfecto, amerita exploración, diagnóstico y
ciertas reglas para su interpretación. A estas últimas, deben aplicárseles una serie de procesos
matemáticos que admitan un manejo claro de la incertidumbre que de allí se deriva.

Si bien es cierto, existen férreos defensores de la absoluta certeza en cuanto al conocimiento


científico, debe hacerse justa distinción entre el conocimiento demostrable y el conocimiento
probable. El primero no amerita discusión. El segundo debe aceptarse como hipótesis con grados
de plausibilidad, es decir, será la teoría de la probabilidad la que aportará y preservará la

integridad de las hipótesis imaginarias que serán admitidas como razonamiento probable de un
agente inteligente. Un razonamiento probable concibe conclusiones que admiten cierto grado de
certidumbre, así como uno que otro grado de probabilidad. El método de la ciencia permite un
razonamiento probable siempre y cuando se estudie bajo qué condiciones este se acepta. En ese
sentido, presento a continuación una serie de métodos de razonamiento que brindan un enfoque
probabilístico de una inferencia.

7.5.1.- El Razonamiento Bayesiano

Para Rudolf Carnap159, el método científico consiste básicamente en un Razonamiento


Bayesiano. Se denomina razonamiento bayesiano al proceso estadístico mediante el cual, basado
en observaciones o cierta clase de evidencias, el método de Bayes permite inferir la probabilidad
de que determinada hipótesis resulte verdadera o falsa. Se trata de un enfoque en el que se
modifica una distribución previa a la luz de los resultados de un experimento. Allí, se establece

159 Rudolf Carnap: Scientific Method as Bayesian Reasoning. Aparece en: Barry Gower, Scientific Method: An Historical and Philosophical
Introduction. P. 212 y ss.
167

como medida de certeza de una hipótesis, una magnitud de probabilidad. En el razonamiento


aproximado Bayesiano, se llaman probabilidades subjetivas, a las probabilidades que describen
el grado de conocimiento o ignorancia de ciertas entidades no variables. Se determinan en base a
la intuición o a la experiencia previa e independiente de cualesquiera observaciones actuales o
futuras.

Los métodos Bayesianos se basan en distribuciones, donde, al igual que los tipos de
conocimiento, se opera con distribuciones A Priori y A Posteriori. Es bueno recalcar que los
conocimientos A Priori son puros y están libres de toda experiencia, los A Posteriori son
aquellos derivados netamente de la experiencia. En el cerebro humano, la razón y la lógica están
atadas, este encadenamiento produce conocimiento, entrelaza nociones y ocasiona reciprocidad
de acciones, y es éste último paso el que completa una acción conductual consecuencia del Ratio
.l
ia
ic Cognoscenti o fundamento del conocimiento.
tif
r
A El aprendizaje Bayesiano160 usa modelos basados en parámetros, a estos últimos se les
ot
nie operacionaliza como una incertidumbre de la data dada, posteriormente se codifica toda la
am incertidumbre sobre los parámetros del modelo y se estructura como probabilidad. Según John
no
az Venn y Charles Peirce, la probabilidad de un evento puede ser tomada como su frecuencia
lR
e de ocurrencia.
re
ob Teorema o Regla de Bayes161: suponga que A1; A2,….. An. Son eventos mutuamente excluyentes
:S
na cuya unión es el espacio muestral S, es decir, uno de estos eventos debe ocurrir. Allí la
ue
alb probabilidad de cada evento es distinta de cero. Entonces, si A es un evento cualquiera, se tiene
V el siguiente teorema:
na
oim Regla de Bayes
R Dónde: () son probabilidades a priori
()()
( ) ∑ ()( ) ( ) es la probabilidad de A en la Hipótesis162 Ak
( ) son las probabilidades a Posteriori

Esto permitirá encontrar las probabilidades de los diversos eventos A1; A2,….. An, que hacen que
A ocurra. Por esta razón al teorema de Bayes suele conocérsele como un teorema sobre
probabilidades de causas. En otras palabras, puede predecir la probabilidad de ocurrencia de un
evento “x” estado éste condicionado a otro evento “y”. No obstante, lo que hace importante un

160 Véase: Bayesian Learning. Concepto de. En MITEncyclopedia of Cognitive Sciences.


161 Tomado de: Probabilidad y Estadística. Serie Schaum. 3ra edición. P. 8, y 372 y ss.
162 Las pruebas de Hipótesis Bayesianas tienen una manera diferente de proceder, en el contraste de Hipótesis normales se trabajan con los
errores tipo I y tipo II. No obstante, en la teoría Bayesiana de la decisión se usan pruebas α (alfa) de Bayes, donde su media ponderada se conoce
como Riesgo de Bayes.
168

razonamiento aproximado Bayesiano, es que provee la posibilidad de invertir las relaciones


probabilísticas entre “x” y “y”. Dado “y” se puede inferir sobre “x”.

El paradigma central del razonamiento probabilístico consiste en identificar, en tal universo,


todas las variables relevantes y diseñar un modelo probabilístico de sus interacciones. La

inferencia bayesiana se derivará de la introducción de evidencias a tal conjunto de variables en


un estado conocido. Posteriormente, serán calculadas las probabilidades necesarias siempre
condicionadas a tales evidencias. Preste atención al siguiente razonamiento aproximado
bayesiano163:
El inspector Clouseau arriba a la escena de un crimen. La víctima yace tendida en el suelo junto a la
posible arma homicida, un cuchillo. El mayordomo (B) y la criada (M) son los principales
sospechosos. El inspector tiene una creencia a priori del 0,6 de que el mayordomo es el asesino, y del
0,2 de que la criada lo es. Estas creencias son independientes en el sentido de que, P (B, M) = p
l. (B).p(M). Existe la posibilidad de que el mayordomo o la criada hayan asesinado a la víctima, o en su
ia
ic defecto, ninguno. El conocimiento criminal A Priori del inspector se formulará matemáticamente
tif como sigue:
r
A
ot
nie dom164(B) = dom(M) = {Asesino; No Asesino}
P (B = Asesino) = 0,6 → P (M= Asesina) = 0,2165 → Hipótesis Bayesianas
am P (cuchillo usado / B= no asesino; M= no asesino) = 0,3
no P (cuchillo usado / B= no asesino; M= asesina) = 0,2
az
P (cuchillo usado / B= asesino; M= no asesina) = 0,6
lR
P (cuchillo usado / B= asesino; M= asesina) = 0,1
e
re
ob
:S Adicionalmente, P (K, B, M) = P (B ǀ B,M).p(B)p(M)::: asumiendo que el cuchillo es el arma
na homicida, ¿Cuál es la probabilidad de que el mayordomo sea el asesino? Se usará “b” para los dos
ue estados de “B”, y se usará “m” para los dos estados de “M”: observe el procedimiento matemático:
alb
V ( ) ∑ ( )= ∑ ( () ) ∑∑( ( )()
)() ()
∑ ( )()
na = = ∑ ∑ ( )()

oim ()
R ()
)()
(

Entonces, sabiendo que el cuchillo fue el arma asesina, el razonamiento aproximado Bayesiano arroja
fuerte creencia (73%) de que el mayordomo lo hizo. Obsérvese que todas las cantidades a priori
fueron usadas (en ausencia de cualquier otra información). Pero fue el modelo quien proyectó los
resultados a posteriori.

Esto hace del Razonamiento Bayesiano una poderosa herramienta para la Investigación
Científica Avanzada cuando se emplea la teoría de acción razonada. En conclusión, los hechos

163 Tomado de Barber, David. (2012). Bayesian Reasoning and Machine Learning. P. 10. Véase.
164Se lee: el dominio de la función para el mayordomo es igual al dominio para la función de la criada. Para ambos aplica una distribución
binomial,
165 [sucede – node
Tales magnitudes sucede]
probabilidades asignadas por el inspector están basadas en observaciones, evidencias y conocimientos a posteriori de
otros casos, pero a priori para este. Suele tomarse en cuenta: frecuencia de ocurrencia (más hombres se ven envueltos en este tipo de crímenes
que las mujeres). Fuerza de la víctima vs. Fuerza del asesino. Tipo de lesión, lugar, posición del cuerpo. Para este modelo el inspector asignó una
probabilidad del 60% para el mayordomo y solo del 20% para la criada. Con la opción del 20% para el caso que ninguno resulte culpable.
169

por sí solo no hablan, es el científico quien los examina. Los números no son buenos cómplices,
pues al interrogárseles tienden a decirlo todo.

7.5.2.- Razonamiento Basado en Procesos Markovianos

En la Investigación Científica Avanzada, es necesario determinar criterios para la toma de


decisiones cuando se hace uso de un razonamiento aproximado. Markov, Andrei Andreevich
(1856 – 1922), a través de sus trabajos sobre las Cadenas de Markov, crea el concepto de
dependencia Markoviana, el cual evolucionó en una moderna teoría y su aplicación está
orientada hacia los procesos estocásticos166. En teoría de la Probabilidad, la Cadena de Markov
consiste en un proceso, donde se afirma que la sucedencia de un evento dependerá únicamente
del evento inmediatamente precedente.
l.
ia
ic Un proceso estocástico es una familia de variables aleatorias. En la práctica, sirve para
tif
r modelar un gran número de fenómenos temporales donde el azar entra en juego. Se pueden
A
ot distinguir algunos tipos de procesos estocásticos según ciertas propiedades matemáticas: a)
nie
Cadenas de Markov; b) Procesos Estacionarios; c) Procesos de Incrementos Independientes; d)
am
no Procesos de Martingale.
az
lR
e Cualquier sucesión de observaciones X1, X2…Xn. Será un proceso estocástico si cumple con
re
ob al menos los siguientes dos requisitos: a) los valores de las observaciones no se pueden predecir
:S exactamente; b) sin embargo, es posible especificar probabilidades para distintos valores
na
ue posibles en cualquier instante de tiempo. En las cadenas de Markov, la variable X1 describirá al
alb
proceso en su estado inicial y la variable Xn en cualquier instante de tiempo n. Tal que, [Xn +1]
V
na será la probabilidad de un estado futuro y será predecible, siendo totalmente independiente de los
oim
estados anteriores.
R
Una Cadena Markoviana no tiene memoria, y es esta característica de falta de memoria la que
hace fuerte al proceso, pues, conocido el historial de un fenómeno hasta un estado determinado,
su último estado compilará todo un conjunto de datos relevantes que permitirán describir un
nuevo estado próximo futuro. En la prueba de su segundo teorema se demuestra que para
cualquier evento “A”, determinado por “Xa…Xn.” variables aleatorias, podrá ser escrita como
una unión disjunta numerable de sucesos elementales.

Es decir, cada eslabón depende únicamente de su eslabón precedente. Donde, conocido el


estado presente de la variable aleatoria X1, su estado futuro es independiente del pasado. El

166 Un proceso estocástico podrá ser de tiempo continuo o de tiempo discreto, donde el aspecto matemático para cada uno variará. Tomado de:
Springer: The Concise Encyclopedia of Statistic. Stochastic Process Concepto de: Véase.
170

estado de cada variable, numéricamente establecido de las observaciones se conoce en el proceso


Markoviano como Espacio de Estados. Y, su tiempo de ocurrencia se conoce como Tiempo
Paramétrico. Las cadenas de Markov no garantizan el equilibrio estadístico, prerrogativa
mediante la cual, la probabilidad de distribución de estados permanece constante en el tiempo.

7.5.3.- Procesos de Decisiones Markovianos

Los Procesos de Decisiones Markovianos, definidos en lo adelante como “Markov Decision


Processes MDP´s”, consisten en una teoría poderosa y elegante que permite resolver problemas
en sistemas estocásticos de manera inteligente. Los MDP´s podrán variar dependiendo de la
bibliografía consultada y según el sistema donde este se aplica. No obstante, la siguiente
secuencia es la más común167.
l.
ia
fic En cualquier época de decisión, el estado del sistema es plenamente conocido por el
it agente y las acciones resultantes serán típicamente no deterministas; Una acción
r
A ejecutada en un estado puede inducir al sistema a múltiples estados con diferentes
ot
nie probabilidades de transición conocidas por el agente.
ma El objetivo de los procesos de decisiones Markovianos es controlar el sistema a través de
no
za apropiadas acciones mientras son optimizadas bajo algún criterio. En la Investigación Científica
R
le Avanzada, con la ayuda de la inteligencia artificial, se usan para la toma de decisiones
re
bo secuenciales direccionadas a la resolución de problemas por los agentes inteligentes sin
:S
na intervención directa del razonamiento humano, sino, éste último, embebido en un algoritmo
ue matemático y ejecutado por un agente inteligente computacional. Sin embargo, existen ciertos
alb
procesos que coadyuvan a otros en la toma de decisiones, de los muchos existentes se presentará
V
na solo uno de ellos, los de Poisson.
mi
o
R 7.5.4.- Teoría Estadística de la Decisión: Procesos de Poisson

Un Proceso de Poisson consiste y forma parte de la Teoría Estadística de la Decisión. Donde


un sistema es capaz de mover el pensamiento hacia una secuencia de estados, allí, la transición
entre estados se sucede en respuesta a una secuencia de acciones ejecutadas por un agente en
varias épocas de decisión. Es muy común, cuando se opera con sistemas estocásticos que
ameritan decisión, combinar los Procesos Markovianos con los Procesos de Poisson, aunque
realmente son diferentes entre sí, cuando trabajan juntos produce efectos maravillosos.

Considérese un fenómeno simple como la llegada de clientes a un servicio de una tienda,


donde cada uno se contabiliza como potencial cliente (habrá quien compre y quien no).

167Mausan and Andrey Kolobov (2012), Planning With Markov Decision Processes. Capítulo 2. Véase.
171

Entonces, el proceso es posible describirlo por el registro de la secuencia de tiempo de arribo


entre un cliente y otro, asumiendo que al menos dos clientes no llegarán jamás al mismo tiempo.
Pues, y por lógica, dos clientes no podrán ocupar simultáneamente, el mismo puesto de una
cola. Si se toma T0 = 0 como el momento de apertura de la tienda; y los siguientes valores de T1,
T2,…Tn, como tiempo de arribo de clientes, donde Tn representa el tiempo de arribo del último
cliente.

Se definirá entonces a Zi = Tn – (Tn-1) para cada n=1, 2,3...entonces Zi podrá interpretarse


como el tiempo entre el último y su anterior (n-1) ocurrencia para el inter arribo entre todas las
enésimas ocurrencias. Según el proceso previamente descrito, se pudo apreciar que los tiempos
de ocurrencia “T” y los tiempos de inter arribo “Zi” son inciertos y estocásticos, entonces, tanto
“T” como “Zi” podrán ser asumidas como variables aleatorias. Tal proceso es denominado del
l.a
iic tipo Poisson, puesto que por definición, los tiempos de arribo e inter arribo son independientes e
tif
r idénticamente distribuidos.
A
ot
nie Desde el punto de vista de la sicología cognitiva, es el pensamiento el que mueve a la
am inteligencia en una dirección específica, ejecuta operaciones con las ideas, las combina y analiza,
no
az para luego establecer relaciones lógicas y agrupar, tales ideas, en clases o categorías. Es esta
lR secuencia de operaciones hipotéticas, cargadas de incertidumbre, la que es adherida a nuevas
e
re
bo formas de razonar, produciendo así, resultados innegablemente sorprendentes.
:S
na
ue
alb
V
na
oim
R
172

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO VIII: ACERCA DE


LA CORRECTA
OPERACIONALIZACIÓN DE
UNA INVESTIGACIÓN…

La ciencia de las operaciones, más específicamente, la derivada desde las matemáticas, además
de poseer su propia verdad abstracta, tiene mucho valor.

Ada Lovelace.
173

8.1.- Operacionalizaciónes en la Investigación Científica

Una vez me preguntaron ¿Qué es la Investigación Científica?...


y me limité a responder: la investigación científica no es más
que lógica aplicada y operacionalizada por personas con
inteligencia, aptitudes y hábitos sumamente extraños.
Roiman Valbuena.

entiende por
eiinvestigación
nvestigador operacionalización
sistematiza
científica. Ella al separar
le admite conjunto
características pordesegmentos
puntuales que
procesos mediante los cuales el

S les son propias a toda


subprocesos internos que
hacen entendible las ideas cuando se operan constructos complejos. Permitiéndole una mejor
administración del proceso indagatorio que será aplicado y el cual debe responder a criterios bien
definidos de la lógica de clases y de relaciones. Se operacionalizan términos, definiciones,
significados, conceptos, complejos y difusos; teorías científicas completas; procedimientos
estadísticos; leyes científicas, variables, dimensiones e indicadores.

La operacionalización en sí de cualquier investigación científica, amerita del uso de


terminologías propias e intencionales del quehacer investigativo, incluye además, neologismos
específicos para el área donde se circunscribe lo investigado. Es menester entonces, dar a
conocer los vocablos más comunes, y entiéndase por operacionalización de éstos, a la acción
científica mediante la cual cada expresión es hecha corresponder, amplia y sistemáticamente,
tanto con lo que se desea explicar dentro de un contexto relacional y lógico, como con la
metodología adoptada para ello. Podrán hacerse uso de cuadros, gráficas, tablas o cualquier otro
mecanismo idóneo. Por ejemplo, en este libro existen citas a pie de página, podría decirse que es
una forma alternativa de operacionalizar ciertas unidades puntuales de interés dentro del
contexto explicativo:

8.1.1.- Operacionalización de Términos

Un vocablo o término consiste en la mínima unidad lingüística, quiere decir, cada palabra de
una oración es un término. Con ellos se conforman frases y sentencias comunes que son usadas
en la construcción de leyes y teorías científicas. Cada oración hace referencia a un sujeto y el
predicado asigna atributos. Un término mal empleado dentro del proceso explicativo es
fácilmente refutable con los procedimientos de cálculo de la lógica de enunciados y la de
predicados. Queda entendido, solo se operacionalizan términos que por su relación con el
concepto y contexto de estudio puedan llegar a ser difusos, caso contrario, se toma su definición
literal exacta.
174

8.1.2.- Operacionalización de Definiciones

Definición, según (Audi, Diccionario Akal de Filosofía, 2004), especificación del significado
o, alternativamente, del contenido conceptual de una expresión. Por ejemplo, «período de quince
días» es una definición de «quincena». Según las reglas de las definiciones estas no pueden ser:
demasiado estrictas (podría excluir elementos que debiese incluir); demasiado amplias (incluye
elementos que no debiese incluir); y mucho menos ser una definición circular168.

Como ejemplo: la definición de variable encontrada en la mayoría de los libros de


metodología de la investigación hacen referencia a una definición circular del término <<Véase
.ntífica
operacionalización de variable más adelante>> En la operacionalización de definiciones es
bueno y recomendable caracterizar al menos los siguientes 3 tipos de definiciones: la Definición
ie
C Contextual; por medio de ella se deja claro el significado de la expresión de referencia, dentro

ic del contexto de un concepto más amplio y al cual se encuentra circunscripta.
ag
tis
ev La Definición Explícita, es un tipo de definición absolutamente necesaria en la investigación
nI
la científica para cuando se hace uso de la teoría del mecanismo o explicaciones funcionales. Por
nse medio de ella se advierte al lector el significado preciso, explícito de algo, que por ende
ne
identifica ampliamente al objeto referido. Y por último, pero no menos importante, la Definición
ióac
Real, por medio de ella se dejan conocer las condiciones necesarias y suficientes para que algo
liz
a sea identificado como ese algo y no como otra cosa. Generalmente, su significado alude a un
no
ic único objeto, diferenciando que ningún otro posee tales cualidades o propiedades. Por
ar
e ejemplo169: «elemento con número atómico 79» como definición de «oro».
p
O
:a
ne 8.1.3.- Operacionalización de Significados
u
bl
a
V Un significado consiste en el contenido que permanecerá en la mente y será grabado allí
na
mediante el uso de un símbolo gráfico de características lingüísticas. Puesto que el significado
mi
o
R involucra lenguaje y mente, y estos a su vez evocan intencionalidad, entonces un significado es
un símbolo lingüístico que fija posición sobre las condiciones que satisfacen al objeto al que
haga referencia. Es decir, el significado determina la descripción precisa de un símbolo dentro de
un lenguaje.

168 Una definición es circular si sucede que el definiendum ocurre en el definiens, como en «una ley es un mandamiento legal», o, también, si el
primer término es definido mediante un segundo término, el cual, a su vez, es definido con el concurso del primero. Esto es lo que sucede en «una
ley es el deseo expreso de un legislador y un legislador es aquel que dicta las leyes». Así como las definiciones circulares no son permitidas,
tampoco lo son los tipos de razonamiento mediante los cuales éstas se forman. Razonamiento Circular: es la falacia por la que se razona
impropiamente de forma circular. El razonamiento circular no se debería considerar como algo inherentemente falaz, pero puede resultar falaz
cuando se usa para disfrazar o dar cobertura al fracaso en alcanzar una prueba completa. El problema surge cuando la conclusión que se desea
probar169 se supone dentro de las premisas que debe garantizar el proponente del argumento.
Referencia tomada desde Audi, Op, Cit.
175

El descubrimiento científico trae consigo, además de intrincados procesos lógicos, una gran
cantidad de nuevos vocablos. Los cuales incluyen o les son construidos signos para significar
conocimientos hasta ese momento desconocidos. Todo nuevo signo usado para representar
significado despliega al menos dos dimensiones, una acústica o sonora y una gráfica para ser
plasmada en la escritura. La Operacionalización de Significados en la Investigación Científica
versa sobre la forma gráfica, mental y acústica170 que se le dará al conjunto de símbolos
construidos y cómo el científico desea que estos sean entendidos e interpretados dentro de la

teoría explicativa.

.tífica No obstante, sólo es posible operacionalizar significados cuando existan descubrimientos o el


esquema explicativo elegido haga uso de constructos complejos, difusos o abstractos, si no los
Cien
hubiere, carecería de sentido asignar significancia imaginaria a unos símbolos que no fueron
nó producto de un ente emergente de las interacciones fenoménicas estudiadas, o extraídos y
ic
ag puestos aparte en una operación de la inteligencia abstracta.
it
se
v
nI 8.1.4.- Operacionalización de Conceptos
al
nse Un Concepto es básicamente la representación mental de objetos, características, cualidades,
ne
ió situaciones o hechos producto de la actividad pensante. Es una construcción donde participan
ac
zi mente e intelecto cuyos resultados son plasmados mediante imágenes y estructuras lingüísticas
la
no desarrolladas para simbolizar ideas. El conocimiento científico como tal, desde sus inicios, no ha
ic
ar sido sino una concatenación sistemática de conceptos interrelacionados.
e
p
O Un concepto científico es básicamente, el proceso mediante el cual las ideas son
:a
ne sistemáticamente transformadas en una investigación a medida que se avance en las
u
lba explicaciones. Por ello, a los conceptos científicos se les asume entonces como una interacción
V
na simbólica entre quien lee y quien explica el hecho. Para Mouton y Marais (1988, p. 58); Un
mi concepto consiste en la más básica de las construcciones lingüísticas mediante las cuales la
o
R gente ordena y categoriza la realidad… son los instrumentos primarios que se usan para
compartir experiencias, son por sí mismos, símbolos de significados.

En toda investigación científica surgen realidades, interacciones y propiedades nuevas sobre


los fenómenos y que necesitan ser definidas. Entonces el concepto conforma la base del esquema
explicativo que ha de usar el científico para hacer entender sus ideas, y es por medio de los
conceptos que es posible hacer entender los fenómenos. Según (De Gortari, Introducción a la

170 Hoy día el uso de significados sonoros o acústicos es de amplio uso en investigaciones sobre inteligencia computacional y el análisis de
señales. De hecho, la ciencia que más hace uso de ellos es la del Reconocimiento de Patrones. De esta manera se ha logrado que un robot
obedezca órdenes.
176

Lógica Dialéctica, 1979), es el resultado de la determinación de alguna característica del


universo, y su validez radica en su correspondencia con lo que representa. De tal modo que, un
concepto científico es la síntesis en la cual se expresan los conocimientos adquiridos. Por ello
necesitan ser definidos y operacionalizados.

8.1.5.- Operacionalización de Variables Científicas

Procedimiento mediante el cual son disgregadas, sistemática e inteligentemente, las partes


que constituyen a la variable científica con el fin de abordárseles separadamente. De manera que
asienta la obtención de inferencias válidas como resulta del proceso indagatorio sobre cada
.ntífica
unidad. La operacionalización de variables científicas contiene sub-elementos, tales son: la

ei variable científica en sí ya definida; las dimensiones que pudiese abarcar el concepto científico
C bajo estudio y los indicadores o unidades medibles.

ic
ag
it 8.1.5.1.- Definición de Variable Científica
se
v
nI
Se entiende por Variable Científica como todo aquello mediante el cual se admite la captura
al
ne de una dimensión de inestabilidad y aspectos que oscilan por nivel, frecuencia, grado o tipos
se
nó dentro de un universo para un concepto científico. Todos ellos susceptibles de medición por
ic
az tanto, adquieren diferentes dimensiones cuantitativas, siendo ésta, centro de atención y objeto de
il
a estudio en la investigación científica. Allí, surgen valores elucidables por medio de
no
iac
razonamientos ya que, si no existiesen diferenciaciones en las unidades fenoménicas aludidas en
re
p las investigaciones, ninguna explicación podría ser posible.
:O
na El primer paso para abordar una investigación científica consiste en determinar qué varía y
ue
alb cómo lo hace, con qué interacciona y cómo se sucede tal interacción. Es decir, tal acción se
V fundamenta en escalar en unidades de razón desde las variables hasta las leyes que explican al
na
oim fenómeno. Al inicio del acto investigativo sólo se disponen de conjeturas acerca del problema,
R nada concreto. Luego los datos aportarán luces acerca de qué es lo que realmente presenta
inestabilidad de importancia, de allí se obtendrán las variables171.

Aquel investigador que pretenda conocer las variables a priori sin haber descubierto la
naturaleza de sus oscilaciones fenoménicas, no está sino haciendo uso de una insanable falsedad.
Omitiendo cualquier criterio de verdad marcado por un acto de corrupción intelectual que sólo
persigue la coronación de un título académico.

171 Es a todas luces un error pretender conocer a priori la variable científica. Aunque resulte extraño, el investigador no sabrá cuál es su variable,
cómo se comporta, con que unidades interacciona o cuántas relaciones y de qué tipo presenta, hasta no ejecutar un análisis exploratorio de datos.
Certificada entonces la intensidad oscilatoria, la lógica de la clase a la cual pertenece y la dirección de sus relaciones, habrá descubierto su
variable.
177

La definición de variable en muchos libros de metodología está enmarcada dentro del


contexto de una definición circular, esto ha llevado a cometer innumerables errores a la hora de
operacionalizarlas debidamente. A continuación algunos ejemplos: (Cerda, 1991); Variable =
“Conjunto de características y aspectos de un fenómeno”; (Rojas Soriano, 1998); Variable =
“Característica, atributo, propiedad o cualidad que puede estar o no presente en los individuos,
grupos o sociedades. Ambas definiciones de variable están incompletas.

Otras definiciones como: (Hernández, Fernández, & Baptista, 2003), Variable = “Propiedad
que puede variar y cuya variación es susceptible de medición”; (Castañeda Jiménez, 2000),
.a Variable = “Algo que varía, características o cualidades del objeto de estudio que puede tomar
ci
fí distintos valores en el proceso de investigación”; ambas hacen referencia a una definición
t
ne
i circular. Por ende, aunque son entendibles, están mal desarrolladas. La expresión definidora
C
nó (defienens) se encuentra dentro del término definido (Variable) como Definiendum con
ic
ag referencia circular obvia. Por ejemplo: Medicina = Ciencia que estudian los médicos.
it
se
v Un término que haga referencia a definiciones circulares no es realmente un término bien
nI
la definido, por consiguiente, presentará significados confusos y no podrá ser usado en
nse
ne investigaciones científicas, mucho menos en la construcción de teorías o hipótesis. Un método
ió efectivo y recomendable de prueba para detectar definiciones circulares consiste en identificar el
ac
izl término que se define (Definiendum = Variable), posteriormente se nivelan las condiciones de
a
no definición (Condiciones para el Definiens). Luego, se busca si hay coincidencias en que al
ic
ar menos uno de los términos usados en las condiciones es igual al término que se define.
e
p
O
:a 8.1.5.2.- Operacionalización de Variables Latentes
ne
u
bl Se denomina variable latente a aquella variable que no puede ser observada directamente,
a
V
na pero que surge de efectos derivados desde variables que sí pueden ser observadas. En estadística,
mi consisten en variables ocultas que no pueden ser manipuladas sino inferidas de los resultados e
o
R interacciones arrojadas por los datos. Y que se circunscriben a determinados modelos
matemáticos ya que de ellos emergen y se manifestarán bajo la forma de patrones de
interrelaciones.

Comúnmente se trata de variables medibles en la realidad, pero para las cuales no existen
instrumentos capaces de registrar sus verdaderas oscilaciones. Las hay de dos tipos, las métricas
y las categóricas. Además, son operacionalizables bajo la siguiente forma: las primeras pueden
analizarse a través del análisis factorial soportado en su estructura latente. Las categóricas por su
lado, se descomponen en análisis de perfiles y clases.
178

Por no haber estado presente en el inicio de la investigación, ni se sospechaba de su


existencia, tomará entonces la forma de inferencia, cuyo fin será explicar las relaciones entre
variables manifiestas usando un conjunto de variables latentes unidas bajo la forma de
implicaciones lógicas. Las variables latentes emergen desde modelos matemáticos denominados
Modelos de Variables Latentes.

El agente científico usará su sicología cognitiva para transformar una situación en otra,
ornamentando una coherencia discursiva en base a lo no visualizado. El proceso inferencial
admitirá en las inferencias metareglas, razonamientos Metanivel y alteraciones iterativas del
.ntífica pensamiento que será manifestado en la explicación. Las variables manifiestas se ven afectadas
por el error de medición. A las latentes se les debe circunscribir a un procedimiento que las
ie descontamine de este.
C

ic Según (Salkind, Encyclopedia of Research Design, 2010), las variables latentes son
ag
tis composiciones lineales de las variables observables, y pueden ser obtenidas por métodos
ev
nI exploratorios y confirmatorios. La medida o el grado con el cual a un indicador se le asocia con
la una variable latente de le denomina indicador de carga.
nse
ne Entonces, las variables latentes son solo conceptos tomados en cuenta cuando estos se
ióac indexan y pasan a formar parte del comportamiento observado. Si se desea conocer la relación
liz
a causal entre variables latentes o cómo se interrelacionan unas con las otras, debe optarse por la
no
ic construcción de un Modelos de Ecuaciones Estructurales. Tenga presente el agente científico que
ar
e la operacionalización de variables latentes representa una ampliación de la explicación y no una
p
O acción a priori como cuando se operacionalizan variables observables.
:a
ne
u
bl 8.1.5.3.- Definición de Constante Científica (Variable Constante)
a
V
na Entendamos como constante científica a todo aquello que a pesar de los cambios ha
mi
o mantenido un estado con magnitudes numéricas fijas, inalteradas e inalterables. Llamaré variable
R
constante, a aquella variable la cual ha sido intencionalmente usada en un experimento y no ha
sufrido cambio alguno para todos los tratamientos o posterior a cierta cantidad de estímulos. La
aceleración de gravedad es un ejemplo de una variable constante usada comúnmente en
experimentos de la mecánica clásica.

En un primer momento se dice que es variable porque se operacionaliza como tal y se espera
medir sus oscilaciones. Acaece entonces, que tal estado oscilatorio nunca se sobrevino,
contrariamente, mantuvo valores fijos durante todo el proceso de medición, y lo hizo porque con
una alta probabilidad, la variable constante podría operar en un entorno que la ata a depender de
179

otros cambios que no se suceden, ejemplo clásico de las leyes científicas. Como muestra: la
fuerza de gravedad depende de la masa del cuerpo, en este caso la tierra, y como la masa de la
tierra es fija, entonces su fuerza de gravedad no varía. De allí la relación entre ambas
terminologías.

En todo experimento científico existen constantes y variables experimentales como


condiciones teóricas, las primeras son comúnmente usadas como control y se contrastan contra
las experimentales que si fluctúan. Entonces, en una investigación científica se operacionalizan
ambos términos, las variables y las constantes. De hecho, es un error comparar variable a
.tífica variable si no se infiere en función de aquello que a pesar de las circunstancias se ha mantenido
inalterado, aun cuando otras transformaciones se hallan sucedido.
Cien
El hecho de comparar variable a variable da origen a un error muy común denominado Efecto

ic de la Doble Variación, en investigación social a este efecto se le denomina “opinión” y ha hecho
ag
it que tal ciencia sea considerada meramente opinática ya que carece de fuerza científica -
se
v demostrativa y de la cual es imposible obtener una inferencia seria. Una constante es entonces
nI
al algo invariable, uniforme y regular para toda observación, la velocidad de la luz es siempre
nse
constante. Pero como tal, debe ser operacionalizada experimentalmente.
ne

ac 8.1.5.4.- Sobre las Dimensiones
zi
la
no Una dimensión alude al tamaño o extensión de alguna cosa dentro de un espacio conceptual
ic
ar posible. Este espacio aludido pertenece, por lógica de teoría de conjuntos, a una agrupación de
e
p
O elementos dentro de aquella longitud de variabilidad. El término Dimensión por sí mismo
:a
ne adquiere características polisémicas. En este caso, me refiero al espacio que ocupan los
u
lba elementos que admiten capturas de magnitudes numéricas que permiten definir el
V
na comportamiento de un fenómeno a través del procesamiento de los datos derivados de sus
imo características inestables, indicadores científicos.
R
8.1.5.5.- Sobre los Indicadores Científicos

Un indicador científico es todo elemento que en el planteamiento del problema se manifiesta


de la forma de causalidad, son los que revelan anomalías en el conjunto de hechos o
circunstancias descritas. Sirven como elementos de señalización a las particularidades de un
fenómeno y es donde se centra la atención pues, permiten observar y medir la realidad. Se les
considera atributo de indagación con características medibles; un indicador sensible es real; un
indicador ideal es una categoría. A continuación el flujo de las Operacionalizaciónes en
Investigación Científica:
180

Término Definición Significado Concepto Dimensiones Indicadores

Variable y
Constante

1.
Indicador 1 2.
3.
4.
1.
Indicador 2 2.
3.
.tífica Variable Dimensión 4.

2.
Indicador 3 1.
3.
Cien 4.
1.
nó Indicador n… 2.
3.
ic 4.
ag Cuadro de Operacionalización para un Modelo Observacional
it
se
v El indicador se convierte en uno de los últimos, pero el más complejo de los eslabones en la
nI
la cadena operativa del proceso científico. Se describe así: identificado el término de interés se le
nse
ne define; de allí se le asigna significado; con tal significado se construye el concepto del cual se
ió extrae la variable; el concepto se desintegra en dimensiones; de allí se obtienen indicadores para
ac
zi cada dimensión del concepto. Es entonces cuando es posible ascender desde conceptos abstractos
la
no a indicadores operacionales producto de una imaginación disciplinada guiada por la razón. Si el
ic
ar indicador de la variable es ideal, entonces se convierte en una categoría.
e
p
O
:a Se denominan categorías a los conceptos que operando solos o en conjunto, admiten la
ne
u clasificación de objetos omnipresentes de una realidad en el pensamiento. Tales, hacen emerger
bl
a propiedades, etapas y relaciones extensibles a los fenómenos de la cognición. Una categoría
V
na asigna posiciones en una escala jerárquica a cada uno de los grupos en que pueden ser
imo clasificados los distintos objetos presentes en una dimensión. Según Kant172, las categorías son
R
cada uno de los doce modos más generales mediante los cuales la razón construye su juicio.

Cuando se operacionalizan indicadores y se construyen categorías, un objeto ha de pertenecer


a una y sólo a una de las escalas jerárquicas usadas en la clasificación. Caso contrario, se entraría
en el denominado “Error de Categoría o Error Categorial”, un primer tipo consiste en la
colocación de una entidad en un lugar equivocado. Un segundo tipo de error categorial es

172 Categorías O Conceptos Puros Del Entendimiento. Las categorías permiten sólo pensar los objetos, no intuirlos. Tampoco están sometidas a
orden de sucesión, por lo que no pueden ser incluidas en una teoría científica dada su imposibilidad de Falsación. Según la tabla de categorías
puras de Kant, existen 4 principales y posteriormente 3 más dentro de cada una para un total de 12. A saber, la Cantidad: contiene a <<la unidad,
la pluralidad y la totalidad>>; la Cualidad: contiene a <<la realidad, la negación, la limitación>>; la Relación: contiene a <<Inherencia y
subsistencia, Causalidad y Dependencia, Comunidad (acción recíproca entre agente y paciente) >> y la Modalidad: contiene a <<Posibilidad –
Imposibilidad, Existencia – No Existencia, Necesidad – Contingencia>>.
181

atribuirle a la entidad una propiedad que no le es posible tener, por ende, sería imposible medir
algún atributo en un sujeto u objeto que no lo posee, con clara discrepancia contra la lógica de
clases.

Cuando en una investigación científica existen gran cantidad de indicadores, no


pudiéndoseles operacionalizar a todos, entonces ha llegado el momento de aplicar muestreo
aleatorio sobre ellos por nivel de importancia y/o pertinencia. Otra técnica consiste en utilizar o
bien sea, la teoría combinatoria o procedimientos de permutación, ambos casos, aunque sería lo
ideal, están, por el momento, fuera de los alcances de este texto. Elegir indicadores tal como se
.ntífica procede con el muestreo intencional hace que la investigación, no los instrumentos, pierda
confiabilidad.
ei
C El indicador funciona como una variable estadística aleatoria e independiente que incide

ic sobre la dimensión y nunca al contrario. Quiere decir, si la dimensión y el indicador varían
ag
it concurrentemente, éste último no podrá ser operacionalizado científicamente pues haría espuria
se
v cualquier inferencia de allí derivada. Cuando tanto la dimensión como el indicador concomitan,
nI
al se está ante la presencia de dos variables para ser estudiadas por relación o causalidad. Por ende,
ne
se lo ideal ha de ser una relación causa – efecto entre dimensión e indicador, siendo el indicador el

ic agente causal y la dimensión el agente efector. De allí la alegoría: un indicador científico es todo
az
il elemento que en el planteamiento del problema se manifiesta de la forma de causalidad, son los
a
no que revelan anomalías en el conjunto de hechos o circunstancias descritas.
iac
re
p
:O
na
ue
alb
V
na
oim
R
182

8.2.- La Medición: Su Proceso y su Técnica

Si hay alguna diferencia entre ciencias bien desarrolladas como la física, contra otras
ciencias poco desarrolladas como la sicología o la sociología, es el grado con el cual sus
objetos son medidos, (Roberts, 2009). Por su lado (Bunge, La Investigación Científica, 1985),
afirma que en ciencias la observación tiene que ser cuantitativa pues los objetos concretos
adquieren esas propiedades, y la observación cuantitativa es netamente medición.

Entonces, la Medición consiste en la actividad que lleva al científico a asociar números con
cantidades físicas identificables en los indicadores, ya que de allí son extraídos. Todo proceso de
.tífica
medición inicia posterior a la definición de aquella cantidad a computar. Entiéndase Cantidad
Cien como la propiedad observada que puede ser contada, basada en este criterio, entonces puede ser

nó expresada numéricamente admitiendo así varios o infinito número de grados. Por ende,
ic
ag definiremos Magnitud como algo en relación al tamaño de una cosa u objeto con respecto a
it
se algún atributo que le es propio.
v
nI
al Existen al menos dos tipos diferentes de medición; la fundamental y la derivada. La primera
nse surge cuando los conceptos fundamentales en una investigación científica son operacionalizados
ne
ió y sometidos a cálculo por primera vez. Es decir, su cantidad o magnitud no es derivada de
ac
zi ninguna otra medida y es estimada directamente de las observaciones. Por ejemplo: la Masa; la
la
no Temperatura; la Altura; el Peso; el Volumen. Las mediciones derivadas se obtienen a partir de
ic
ar las otras medidas. Densidad; Resistencia Eléctrica; la Potencia o el Área. Entonces, el científico
e ha de estar claro sobre qué mide, que instrumento usa para ello y cómo lo hace.
p
O
:a
ne Si el investigador tiene problemas a la hora de medir, es recomendable seguir las
u
bl
a prescripciones que aporta la Teoría de la Medición, básicamente investiga las condiciones y las
V
na singularidades de dichas asignaciones numéricas, el cómo y porqué se hacen desde el punto de
mi vista lógico. Aborda en profundidad dos aspectos de suma importancia para el área científica, la
o
R medición subjetiva que proveen las investigaciones cualitativas y la interpretación de una

magnitud numérica emanada del cálculo de probabilidades.

Un enunciado probabilístico proviene de la aplicación de un procedimiento estadístico o de


una prueba estadística173. En ambos casos ocurre que la medición no fue tan precisa como se
quiso, y a raíz de ello se introdujo una incertidumbre o grado de probabilidad en la inferencia.
Cuestión que deriva en la construcción de un enunciado probabilístico, entendiéndoseles como

173Advierto las diferencias entre estas dos terminologías, un procedimiento estadístico se usa para llevar a cabo cierta acción planteada en los
objetivos para determinada investigación. Si la indagación no plantea hipótesis entonces se usan procedimientos estadísticos. Caso contrario, si la
investigación amerita de la prueba de alguna hipótesis planteada para el estudio, entonces se selecciona algún método de prueba según sea el
caso. Resumiendo: Los procedimientos estadísticos se usan cuando no existen hipótesis y las pruebas estadísticas cuando sí las hay.
183

aquellos que indican el grado de evidencia, o cantidad de argumentos de prueba en la cual la


confirmación se fundamenta. Entonces, la incertidumbre, será todo aquello que cree inquietud,
duda, expectativa o dificultad a la hora de tomar decisiones. Las incertidumbres siempre rodean

y abrazan a las unidades medidas con alto de grado de probabilidad de inyectar ideas e imágenes
falsas, conduciendo a una mala interpretación de la naturaleza de los hechos.

El concepto de error por sí mismo involucra el denominado análisis de incertidumbre. En


investigación experimental, procedimiento matemático que conduce a la ubicación de la
incertidumbre dentro de rangos aceptables. Donde tal rango ha de ser probabilísticamente
.ntífica estimado. Para lo cual, cualquier valor en duda se manifieste dentro del rango mencionado,
asignando de esta manera algunos grados de certeza.
ei
C 8.2.1.- Acerca de la Teoría de Errores

ic
ag Se denomina teoría de errores a aquella corriente ideológica encargada de generar mecanismos
it
se
v para identificar las fuentes que inducen errores en las mediciones. Ninguna medición es perfecta,
nI
al por algún motivo <<humano o debido al instrumento>>, se genera una incertidumbre.
ne
Denominaremos error a toda aquella diferencia resultante de comparar el valor verdadero de un
se
nó parámetro o magnitud para un objeto, contra un valor obtenido experimentalmente.
ic
az
il Según la teoría de errores, éstos carecen de leyes que los rijan por tanto no son
a
no
iac determinísticos sino estocásticos. En función, se pueden disgregar en dos grupos, los aleatorios y
re los sistemáticos. Los primeros no pueden ser eliminados pero sí minimizados, se originan de
p
:O interacciones propias entre y quien mide y lo que debe ser medido cuando intervienen
na
ue instrumentos. Los errores sistemáticos pueden eliminarse por el simple progreso de los
alb experimentos.
V
na
8.3.- De Objetivos de Investigación a Objetivos Estadísticos
oim
R Un objetivo es todo aquello que expresado en lenguaje escrito o con palabras, manifiesta una
intención y una acción a seguir, la investigación científica en sí declara una intención, pero es el
verbo quien patentiza la acción. Un objetivo científico es entonces aquella oración que indica el
lugar por donde debe direccionarse la búsqueda con el fin de encontrar respuestas a una pregunta
derivada de una propuesta de investigación. Un objetivo general concentra su accionar en metas
propias de la investigación y habitualmente abrazan todo el problema, indicando el por qué una
investigación se lleva a cabo.

Por su lado, para los objetivos específicos su fin es precisar requerimientos que por su
184

naturaleza puedan aportar al objetivo general, apuntan a la obtención de datos y se focalizan en


un segmento del problema, en esas propiedades inestables del estudio. Para en su conjunto
determinar una respuesta global, satisfaciendo así, las restricciones impuestas por el alcance del
objetivo general. Es de recalcar que una meta es diferente a un objetivo, la primera consiste en el
resultado deseado más inmediato que pretende el investigador, el objetivo se convierte entonces
en el procedimiento de computar la sumatoria de todas las metas.

La correcta elección del objetivo general, en un primer momento, obedece a la identificación


del tipo de investigación a desarrollar. Por ejemplo: si se posee una serie de datos obtenidos
.ntífica experimentalmente y se desea Demostrar <<sinónimo de Explicar; de Evidenciar y de
Probar>> que realmente son lo que pretenden ser, entonces se hace evidente la existencia de
ei una hipótesis previa.
C

ic Para ello la investigación será del tipo Explicativa Causal. Quiere decir, existen dos posibles
ag
it respuestas, se demuestra o no se demuestra, para ambos casos deben explicarse las causas.
se
v Entendiéndose como causa a la fuerza de algo que produce un resultado basado en evidencias,
nI
al con centro de atención en la direccionalidad del agente causal y la caracterización de cada
ne
se componente de la cadena transcausal. Puesto que en estos casos es innegable una relación

ic forzada entre eventos, el verbo del objetivo es válido. También lo serán: Definir; Interpretar e
az
il Inferir, cuando sean necesarias en las explicaciones, aclaratorias sobre interpretaciones de
a
no magnitudes estadísticas.
iac
re
p Si tal demostración involucrase interacción entre al menos dos variables, donde los cambios
:O
en una se corresponden con los de la otra, se estaría hablando de correlación. Es decir, existe una
na
ue relación numérica, como concepto estadístico medible, que explica la variación entre los dos
alb
V fenómenos. Esto dejaría por fuera los verbos: Interpretar, Definir e Inferir. Pero introduciría a los
na verbos: Determinar y Establecer.
oim
R Cierto es que, existen grandes diferencias entre objetivos de investigación y objetivos
estadísticos. Los primeros buscan saberes, cognición, se obtienen a través de la adecuación de
esfuerzos que logren satisfacer sed de intelección. Por sí mismo un objetivo de conocimiento es
incapaz de procesar datos a través de mediciones, es entonces cuando entran en juego los
objetivos estadísticos.

Un objetivo estadístico requiere de procedimientos y técnicas propias de tal ciencia y se


sobrevienen producto de la concatenación entre, objetivos de investigación <<Cognoscibles>>,
propósito de la investigación, técnica usada para alcanzar el propósito e instrumentos utilizados
para operacionalizar la técnica.
185

Los Datos se
Pruebas
Paramétricas Distribuyen
Normalmente

Instrumento Ambas incluyen


Objetivos de Predicado
Propósito:
del Técnica para utilizado para Ambas son Pruebas
alcanzar el Estadísticos
procedimientos
Investigación Objetivo General propósito operacionalizar la de Hipótesis
técnica

Pruebas No Los Datos No se


Paramétricas Distribuyen
Normalmente

Esquema Lógico: De Objetivos de Investigación a Objetivos Estadísticos


.tífica
Ahora tomemos el siguiente ejemplo de Objetivo General: “Estudiar la Prevalencia en

Cien Conductas de Trastornos del Sueño en Jóvenes entre 18 y 22 años en la ciudad de….” En
medicina y epidemiología, Prevalencia se corresponde con la proporción de enfermos o

ic infectados en una determinada población. El verbo cognoscitivo es “Estudiar”, según el
ag
it Diccionario de la Real Academia Española: Ejercitar el entendimiento para alcanzar o
se
v comprender algo. Efectivamente, el verbo elegido es correcto ya que es muy amplio y no
nI
la específico, “Comprender algo” es indeterminado y le es imposible procesar datos a través de
nse
mediciones, para ello se hace necesario un objetivo estadístico, y hacia allá vamos.
ne

ac Examinemos entonces el contenido del Propósito de la Investigación174. El mismo se obtiene
izl
a al eliminar el verbo del objetivo general: “Estudio de la Prevalencia en Conductas de Trastornos
no
ic del Sueño en Jóvenes entre 18 y 22 años en la ciudad de….” Como toda prevalencia se
ar
e corresponde con una proporción de enfermos, entonces se deben encontrar procedimientos o
p
O
:a pruebas estadísticas con las cuales se pueda manejar el propósito. En efecto, existen las pruebas
ne
u de hipótesis para proporciones de una, dos y k muestras. Además de la Prueba “Z” para
bl
a diferencias de proporciones. También existe la denominada diferencia de estimación “Π”.
V
na
mi Cada una tiene su procedimiento especificado, más ello no cambia la elección del objetivo
o
R estadístico. En función, podremos elegir como objetivos estadísticos: 1- ) Determinar la
Proporción/Prevalencia; 2- ) Estimar la Proporción/Prevalencia. De manera que ya hemos
operacionalizado el cambio desde objetivos cognoscitivos o de investigación a objetivos
estadísticos.

174 Con “Propósito” me refiero más a la idea o plan de investigación que a sus metas u objetivos. Indica e implica deseo y voluntad, pero no
incluye metodología científica alguna que sí está implícita en un objetivo de investigación.
186

Objetivo General: “Estudiar la Propósito: “Estudio de la la


entre 18 y del
Trastornos
de….”
Prevalencia 22enaños enenlaJóvenes
Conductas
Sueño ciudad
de Objetivo de Jóvenes
en laentre
Prevalencia
Trastornosendel18
ciudad y 22 años
Sueño
de….”
Conductas ende Objetivos Estadísticos:
Investigación: Determinar la Proporción/Prevalencia;
“Estudiar” Estimar la Proporción/Prevalencia

Operacionalización de Objetivos de Investigación a Objetivos Estadísticos

8.4.- Procedimientos Multivariantes Vs. Procedimientos Multivariados

Se dice que un estudio es multivariante cuando se está en presencia de más de una variable
.tífica
independiente, lo que conlleva a la obtención de al menos una respuesta diferente por cada
Cien estímulo y cuyo efecto recae sobre la dependiente. Por ejemplo: una variable independiente y

nó una dependiente es simplemente un análisis univariante si solo se obtiene y estudia una única
ic
ag respuesta. Un estudio bivariado es aquel donde hay dos variables independientes, y un estudio
it
se multivariante contiene al menos dos, regularmente más, variables independientes o causales.
v
nI Univariado, bivariado o multivariado no hacen referencia a la cantidad de variables en sí, sino a
al
nse la cantidad de respuestas. No obstante, es muy común que estén sincronizadas, variables y

ne salidas.

ac
zi Puesto que el procedimiento estadístico cambia con la cantidad agregada de variables
la
no independientes, denominaremos Multivariado, al conjunto de métodos estadísticos, generalmente
ic
ar más de dos, de allí que sea variado y múltiple, que permiten el análisis simultáneo de un
e
p conjunto de datos con presencia de más de una variable independiente. Los datos multivariantes
O
:a se originan en observaciones donde cada valor proviene de una variable aleatoria diferente. De
ne
u tal modo que, las variables involucran atributos de la misma unidad de análisis, por ende, es muy
bl
a común que estén correlacionadas.
V
na
imo Los análisis multivariantes son del dominio de la estadística multivariada, se operacionalizan
R sobre la reducción o simplificación de datos, se usa para ordenarlos y agruparlos. Investiga la
dependencia entre variables con el objeto de predecir y probar hipótesis. En consecuencia, en la
operacionalización de objetivos estadísticos en este caso, podrán usarse cualquier conjunto de
objetivos que satisfagan las acciones previas. O cualquier objetivo acorde a la determinación de

interrelaciones entre atributos de varias variables conexas de una u otra forma: Asociar; Definir;
Determinar e Identificar características propias que compartan individuos de una misma
población.
187

8.5.- Niveles de Medición de las Variables

Medir variables por niveles se traduce en la asignación de una variable dentro de una escala.
Así entonces, a una escala de medida se le entiende como a la asignación de números a objetos o
eventos en concordancia con cierta cantidad de reglas que han y deben ser satisfechas. Según la
teoría de (Stevens, 1946), allí deben concordar al menos estos tres elementos, las reglas mediante
las cuales serán satisfechas las restricciones de números en cada escala; las propiedades
matemáticas de los grupos y sus estructuras que resulten de tales escalas; y los procedimientos
estadísticos aplicables sobre las medidas hechas para cada escala.
.ntífica
Stevens crea las escalas basado en la existencia de cierto isomorfismo, como en las teorías y
las leyes científicas, que unen a los objetos con ciertas propiedades numéricas. Los objetos de
ie
C estudio invocan operaciones empíricas que permiten determinar sobre ellos: su igualdad

ic
ag (clasificándola); ordenar rangos y para determinar cuándo las diferencias y cuando las relaciones
it
se entre las propiedades de los objetos sean iguales.
v
nI
al Estos mismos isomorfismos se presentan en los números, allí es posible identificar miembros
nse de una serie numérica y clasificarlos. De la unión de ambos surgió un modelo para ser aplicado
ne al mundo real. De acuerdo a Stevens, Op. Cit, el tipo de escala dependerá del tipo de operación.
ióac
liz Tal operación está limitada por la naturaleza de aquella cosa a ser escalada. En cierto sentido, de
a allí surge el mito de que “A cada variable le corresponde una escala, y la escala es la que
no
ic
ar determina el procedimiento estadístico a utilizar”, <<Mito que pretendo esclarecer en el siguiente
e
p aparte>>
O
:a
ne 8.5.1.- Acerca del Error Científico de Medir Variables por Niveles
u
bl
a
V En muchos escenarios científicos he tenido la oportunidad de pronunciarme sobre los
na
innumerables errores que involucra la medición de variables por niveles como lo hace la ciencia
imo
R social, en vez de hacerlo con el acostumbrado método de la ciencia experimental. Error similar
se sucede con la elección de la muy nombrada fórmula de Sierra Bravo para calcular muestras
sobre poblaciones que no siguen una distribución binomial con una probabilidad de Bernoulli.

Me limitaré a presentar sólo una, de tantas objeciones. A continuación explico: las escalas
derivadas desde (Stevens, 1946) y clasificadas en Nominal, Ordinal, Intervalo y Razón 175,
presentan ciertas incoherencias lógicas cuando se afirma que cada escala, por separado,

175 Hasta 1941 aproximadamente, los niveles de medición eran sólo dos: Escalas Intensivas y Escalas Extensivas. La escala ordinal y la de
intervalo pertenecían a las intensivas. Las de intervalo y razón estaban dentro de las extensivas. Obsérvese que la escala de intervalo pertenecía a
ambas, y esto ocasionaba problemas. La escala nominal no existía para la época y surge mucho después como un caso especial de escalas sin
relación alguna con magnitudes numéricas.
188

determina el estudio estadístico pertinente, con clara discrepancia hacia los supuestos
matemáticos que rodean a cada estudio.

El nivel de medición antes mencionado fue concebido para estimaciones cuantitativas sobre
eventos sensoriales de la sicología, considerado para la época, y hasta ahora, un excelente aporte

a la teoría de la medición en sicología. Entiéndase bien, SICOLOGÍA. Allí hay una clara
confusión entre la teoría sicológica de la medición y la teoría estadística. Donde el mismo
Stevens se plantea como pregunta: ¿Es posible medir las sensaciones humanas?, la interrogante
en sí evidencia relación entre ambas teorías, relación que de hecho no existe, ya que ninguno de
.ntífica los requerimientos de las escalas, incluyendo los antes citados, se incluyen en los requerimientos
matemáticos de la mayoría de los procedimientos estadísticos.
ei
C Stevens según su tabla de transformaciones matemáticas, ver más adelante, sostiene que para

ic escalas nominales y ordinales los procedimientos adecuados son los no paramétricos. Y para
ag
it escalas de intervalo y razón serán paramétricos. A lo que Lord (1953; p. 751) citado en (Gaito,
se
v 1980), responde: Los Números no saben de donde ellos provienen. En todo caso, “las
nI
al propiedades de un conjunto de números con una medida de escala, no debe afectar la decisión de
nse
la técnica estadística apropiada para interpretarlos”. Gaito Op, Cit, aduce que las escalas de
ne
ói medidas son irrelevantes para las hipótesis estadísticas. Los números asignados en una operación
ac
liz de medición son un problema de las medidas y no un problema estadístico.
a
no
ic
ar
e
p
O
:a
ne
u
lba
V
na
imo
R

Fuente: Stevens (1946): Tabla de Clasificación de las Escalas


189

Gaito (1980), citando a (Siegel, 1956), maneja dos posibles inconsistencias sobre el mismo
enfoque. Describe el ejemplo de que fueron listadas dos pruebas, un primer test binomial se
asignó a una escala nominal, y una prueba de los signos fue medida con una escala ordinal. No
obstante, los supuestos de ambas pruebas descansan en la distribución binomial176. De allí se
plantea la pregunta, ¿por qué debe existir la necesidad de diferentes escalas en el caso de la
misma distribución subyacente? Claro está, el nivel de medida no es el que condiciona el
estadístico a utilizar sino la distribución de los datos. A lo que Gaito afirma, “los significados
sicológicos no conciernen a la estadística, y el tipo de escala usada tiene muy poca relevancia
sobre si se usan pruebas paramétricas o no paramétricas”
.ntífica
Stevens (1946) describe lo que denomina Nociones de Transformaciones Permisibles, y en
ei 1966, Baker, Hardyck y Petrinovich deciden ponerla a prueba. En un primer momento
C
nó construyeron datos con tres tipos diferentes de distribuciones [Normal: Regular: Exponencial],
ic
ag todas ellas miden escalas de intervalo. Seleccionaron para el experimento par de muestras
it
se
v aleatorias de las transformaciones originales, de allí obtuvieron “i” valores de cada par. En la
nI
al mayoría de los casos, el muestreo resultante fue una distribución “t”, muy similar a la teorética, a
nse lo que concluyeron: la probabilidad estimada para la distribución “t” se ve muy poco afectada
ne por el tipo de escala usada.
ói
ac
liz Gaito concluye que Stevens prestó servicios a la teoría de la medición sicológica con el
a
no desarrollo de la idea de las escalas. Su noción giró en torno a una mala interpretación que a
ic
ar través del tiempo ha sido difícil de eliminar. En ningún libro de estadística o matemáticas,
e
p
O aparecen las propiedades de las escalas como requerimiento para el uso de procedimientos
:a
ne estadísticos. Tal requerimiento, es sólo producto de la imaginación de un gran número de
u
lba sicólogos debido a la confusión entre ambas teorías. Aclarado el asunto, en el siguiente aparte se
V describen cada una de las muy nombradas Escalas de Stevens.
na
mi
o 8.5.2.- Las Escalas Nominales
R

Si una variable representa categorías que de por sí les son propias con independencia de las
circunstancias, se dice que es una variable nominal. Es la primera dentro de los niveles de
medición. Este tipo de variables no admiten operaciones aritméticas puesto que sus valores son
entendidos como etiquetas y no se les puede asociar a determinado número, de hacerlo, se

176Una distribución binomial es una distribución de probabilidad discreta estadística donde una variable aleatoria “x” mide su éxito o su fracaso
por una secuencia de ensayos en una distribución de Bernoulli. Es decir, sólo hay dos posibles respuestas a los experimentos, éxito o fracaso
<<probabilidad de ambos>>. La prueba de los signos es una prueba binomial ya que sus puntajes están en base a los signos más y menos [+: -]
Por su lado, un test binomial, aunque sigue una distribución del mismo tipo, normalmente es medido con parámetros de nivel ordinal como la
mediana. En este ejemplo fue medida con un nivel nominal obteniéndose los mismos resultados. En ambos casos se usan pruebas no
paramétricas, demostrándose experimentalmente una de las inconsistencias de la teoría de Stevens.
190

entenderá como un atributo y no como una cantidad. Se dice que son variables ya que identifican
a cada elemento dentro de un conjunto de ellos en estudio, y las características pueden variar de
elemento a elemento. En razón, sólo pueden usarse frecuencias, moda y coeficientes de

contingencia en su procesamiento. Muy utilizadas estas escalas en lo que los investigadores


sociales llaman investigaciones descriptivas.

Toda variable incluye valores y escalas. Donde cada elemento tendrá un valor para cada
variable. Por ejemplo: la variable Género; toma sólo dos valores: Masculino o Femenino. La
variable y al conjunto de valores que pueda tomar es lo que llamaremos escala, que de por sí ha
.ntífica de ser diferente para cada variable. El nivel de medida nominal de una variable se usa con un fin
clasificatorio para establecer igualdades o desigualdades. La variable Estado Civil puede tomar
ie alguno de estos valores dentro de la escala: Casado – Soltero – Viudo – Divorciado. Algunas
C
nó variables nominales pueden ser: nacionalidad; lugar de nacimiento; nombre; domicilio; actividad
ic
ag preferida; profesión, entre otras.
it
se
v 8.5.3.- Las Escalas Ordinales
nI
la
nse Las variables ordinales son aquellas usadas para representar orden o para diferenciar atributos
ne
entre sus elementos. A diferencia de la escala nominal, donde sus valores no se pueden ordenar,
ióac
aquí sí. Su trabajo es la de alcanzar un rango entre las cualidades de sus unidades. Contrario al
liz
a nivel nominal, aquí no existen sólo categorías, también se incluye información de rango. Siendo
no
ic sus participantes un tanto diferentes, ya que están separados por orden. Supóngase el nivel de
ar
e medición para las notas de un estudiante:
p
O
:a
ne Pésimo – Bastante Malo – Malo – Regular – Bueno – Bastante Bueno – Excelente.
u
bl
a Una variable ordinal contiene información acerca del orden de los sujetos, pero le es
V
na imposible determinar una cantidad específica para ese orden. En estas escalas se infiere sobre
mi
o cuanto mayor es un participante de otro, pero se le es imposible determinar una magnitud exacta
R
que lo defina. Los estadísticos permisibles son: desviación estándar; percentiles; la mediana y
prueba de Kruskal Wallis177, entre otros.

8.5.4.- Las Escalas de Intervalo

Si una escala presenta una secuencia ordenada y a su vez admite la cuantificación de la


distancia simétrica entre sus objetos, se está ante la presencia de un Nivel Intervalo de medición.
Donde los intervalos situados en sus puntos de adyacencia han de ser iguales. La escala de

177 Esta prueba es usada para determinar si las medianas provenientes de dos o más grupos difieren cuando tengan datos que no sean simétricos y
si provienen de la misma población. Aquí no se requiere que los datos presenten una distribución normal.
191

intervalo consiste entonces, a diferencia de la nominal y la ordinal, en una verdadera escala


cuantitativa con ciertas propiedades inherentes: la proporción que separa a un intervalo de otro,
cualquiera o cualesquiera estos sean, es siempre equivalente e independiente de la unidad usada.

En una escala intervalo se especifican equivalencias tal como en una escala nominal, o con
relaciones de mayor a menor como la ordinal. Además, admite la proporción entre dos intervalos
cualesquiera. Las operaciones empíricas básicas de este tipo de escala permiten la determinación
de igualdad de intervalos o diferencias. Se admiten los siguientes estadísticos: la media, la
desviación estándar, la Correlación de Orden de Rangos o la Correlación de Rangos de
.ntífica Spearman y el Coeficiente de Correlación Producto Momento de Pearson.

Por sus propiedades cuantitativas es posible optar por el uso de pruebas paramétricas si se
ei
C cumplen todos los supuestos y no entran en conflicto con las distribuciones estadísticas de los

ic datos: Prueba “T” y prueba “F”. El punto cero de una escala intervalo se alcanza por convención
ag
it o conveniencia.
se
v
nI
al 8.5.5.- Las Escalas de Razón
ne
se Este tipo de escalas se utilizan para determinar proporciones, orden de rangos e igualdad de

ic intervalos. Por sus característica cuantitativas per se, cualquier procedimiento estadístico le sirve.
az
il Además que busca similaridad entre grupos y utiliza coeficientes de variación. Consiste en una
a
no escala numérica donde sus valores pueden ser transformados a través de la multiplicación por un
iac
re valor constante. Ejemplo: transformar grados centígrados a Fahrenheit.
p
:O
na Las escalas de razón consisten en el único tipo de escala que admite transformaciones a las
ue escalas logarítmicas para el uso de decibelios. Su cero de referencia es de origen natural y admite
alb
V el cero absoluto, quiere decir, un punto donde lo medido carece o pierde la propiedad a ser
na
medida.
oim
R
192

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO IX: EL
PROBLEMA CIENTÍFICO:
QUÉ ES Y CÓMO
PLANTEARLO

En los problemas comunes de la vida humana, la ciencia nos dice muy poco, y los científicos,
como personas, sin duda no son ninguna guía. De hecho, son a menudo la peor guía, ya que
tienden a concentrarse, como un láser, en sus propios intereses profesionales, y saben muy
poco sobre el mundo.

Noam Chomsky.
193

9.1.- Acerca del Problema en la Ciencia

Un problema es una entidad que nos llama, atrae nuestra


atención, está vivo. Genera e imprime en la mente del científico
una cadena de dudas y gran cúmulo de preguntas se agolpan
en su cerebro. Entonces, es cuando arremete en frenética y
agotadora labor dentro de un maremágnum de intrigas. Allí,
con punzante lógica y orden cronológico, alcanza el clímax
ante el apasionante desafío de contestar la pregunta de
investigación. Lo más insólito de ello es que, todo omega de un
problema es el alfa de otro.

Roiman Valbuena.

enomínese problema científico, a todo conjunto de hechos o circunstancias que de

D una u otra manera dificultan el entendimiento de un fenómeno impidiendo la


capacidad de actuar sobre él. Pues, ciertos mecanismos invisibles invocan el
desconocimiento del cómo y porqué se sucede un hecho que a todas luces pertenece a una

realidad, y cuyos atributos han de ser indagados. Es toda discrepancia entre lo que es y el cómo
debe ser que amerita intervención, y es precisamente el problema el que abre el camino hacia el
descubrimiento de la verdad. Todo problema científico consiste en una secuencia de
percepciones sensibles sobre objetos reales, o categoriales sobre objetos ideales, y trae consigo
una arquitectura implícita de construcción de conocimientos. Como afirmase Albert Einstein: Si
me diesen una hora para resolver un problema, invertiría 55 minutos en analizarlo y solo 5
minutos en buscar su solución.

Un problema correctamente sistematizado y elegantemente planteado, se convierte


automáticamente en una de las más maravillosas formas de explicación científica jamás
conocida, condición que satisface tanto aspiraciones académicas como sed de intelección de
investigadores. Se constituye éste en el andamiaje con el cual se afinan y edifican ciencias. De
allí que se diga que la acción y efecto de construir conocimientos es indubitablemente una
operación humana que en un primer estadio busca la comprensión de una realidad para
ampliarla. Seguidamente, comprendido y ampliado el problema a través del usufructo de la
investigación científica, queda el reto de continuar extendiendo su alcance cuando se acude a los
mecanismos de la razón en busca de nuevos problemas que puedan presentarse.

Un planteamiento del problema no es más que una concatenación lógica e ininterrumpida de


vacíos cognitivos entre lo que es y lo que debe ser con respecto a los hechos científicos. Todo
planteamiento permite la proyección de conocimientos previos en determinada dirección,
persiguiendo determinación resolutiva de todo aquello trazado como pregunta, y se sostiene
194

sobre una serie de condicionantes que han de estar presentes en la solución. Entonces, no
importa/n la/s característica del/los problema/s siempre existirá un curso de acción alternativo,
donde más importante será el cómo se lo piensa y analiza, que el problema en sí. Según Albert

Einstein, Usted nunca resolverá un problema al mismo nivel en que fue creado, necesario es
ascender en el nivel de conciencia.

El primer paso en una Investigación Científica consiste en demostrar que el problema existe
y hay necesidad de indagar sobre el hecho. Además, coexisten un objetivo y un mecanismo para
su abordaje, es esta primera secuencia de pasos la que determina el nivel del problema, acotando
.o
lr hasta y desde donde debe ascenderse. Un error común consiste en intentar resolver un problema
ate
nla desde el nivel descriptivo hacia el mismo nivel <<Descripción → Descripción>> Así como un
P
o problema explicativo sólo puede ser abordado cuando se escala conscientemente hasta el nivel
óm
relacional y más.
C
y
sée En ciencia, no importa el nivel, todo problema consta de al menos 3 partes: lo conocido, lo
u
:Q sospechado y lo encontrado. Pasos que están incluidos dentro de la arquitectura de procesos
oic
tíf cognitivos del científico. Aunque Locke178 argumenta que el conocimiento en general se refiere
nie
a las ideas:
C
a
mble Creo que el conocimiento no es sino la percepción del acuerdo y la conexión, o del
ro desacuerdo y el rechazo entre cualesquiera de nuestras ideas. En esto consiste
lP solamente. Cuando exista semejante percepción, habrá conocimiento, y donde no la
E haya, aunque podamos imaginarla, vislumbrarla o creerla, nuestro conocimiento será
:na
siempre muy escaso.
ue
alb
No es menos cierto, las neurociencias en épocas recientes han aportado antecedentes
V
na fidedignos sobre la interpretación individual de los datos sensibles captados por cada
oim
individualidad científica, dentro la percepción del acuerdo y la conexión, o del desacuerdo y el
R
rechazo entre cualesquiera de nuestras ideas, se le atribuye a las descripciones funcionales que se
ejecutan en cada sección del cerebro, y donde las conexiones o desconexiones están más

desarrolladas en algunos individuos y más obscuras en otros.

Lo anteriormente descrito se corresponde con los principios básicos de organización de la


inteligencia, dado gracias a que los Coeficientes Intelectuales “IQ” de los científicos tienden a no
ser el mismo, entonces las reglas de condición acción también variarán, por lo que cada uno
agregará grados de profundidad a sus razonamientos y representaciones lógicas.

Como resultante, el nivel de profundidad de un problema variará dependiendo de la pericia o

178 Libro IV, Capítulo Primero: Del Ensayo sobre el Entendimiento Humano.
195

impericia del investigador. Quiere decir, los científicos raras veces siguen un camino directo
desde el problema hasta su solución cuando se avocan en profundidad al estudio de un
fenómeno. Donde la distancia que separa a un evento de su explicación se acorta a través de un
objetivo, siendo necesario para este último, un procedimiento que no siempre ha de ser el mismo,
tendiendo a variar en función de la ontología, perceptibilidad y abstracción que une al objeto de
estudio con el sujeto que lo estudia.

Plantear objetivos en una investigación no es más que emprender la búsqueda de evidencia


probatoria cuando existen sospechas de que por ese camino realmente es posible conseguir
respuestas a la corroboración o demostración lógica de hechos. Sabiendo de antemano que las
.o
lr respuestas a una investigación están atadas a condicionamientos, entonces tales, deben ser
ate
descritos en función de operacionalizar toda acción posible en esa dirección.
nla
P
o Ningún objetivo ha de traspasar jamás los límites de la teoría pero si los del método. En otras
óm
C palabras, seguir los pasos del método tal como es descrito en los textos, no es siquiera una
y
sée opción, y consiste únicamente en una mala concepción de los procedimientos para hacer ciencia.
u
Q Por ello, un problema no deberá ser ordenado mecánicamente como los ingredientes en una
co:
tífi receta para dar respuestas correctas a una pregunta científica.
nie
C Su comprensión, explicación, la dilucidación del vínculo causa – efecto, y la demostración
a
mble científica de su relación o de su causalidad, no siempre ameritarán del mismo encadenamiento,
ro de ser así, existiría sólo una ciencia, y esto solo es cierto en el reino de lo absurdo. Implicaría
lP
:E ignorar la intuición, esclavizar al investigador atándolo al método y hacer caso omiso a la
na
ue Serendipia.
alb
Es la intuición, encuadrada en el marco científico de la mente, la que a través de flashes
V
na
perceptivos generados en el inconsciente, admite al científico apreciar globalmente al fenómeno
oim
sin intervención de razonamiento lógico alguno. Allí, y por medio de ejercicios cerebrales,
R
posteriormente interpretará patrones teniendo en cuenta que la percepción siempre será más
fuerte que la vista, y que los sentidos tienden a engañar con facilidad. Es en el problema donde el
investigador como observador ha de situarse en una posición adecuada, la mejor que pueda
encontrar, pues un mismo hecho puede parecer diferente a otros observadores, pero es en el
proceso de observación donde emergen aspectos y cantidades en un primer momento
inobservables. Es el que permite absorber lo evidente e intuir sobre lo inobservable, intentando
en todo momento no engañarse por semejanza.

Es también en esta etapa de la investigación donde el científico hace gala de dos importantes
herramientas, el pensamiento y la inteligencia. Sabiendo que es el pensamiento el que hace
196

trabajar a la inteligencia bajo determinada forma y dirección específica, intentará entonces,


mantener la mente ocupada en los patrones del fenómeno y no en otra cosa.

Efectivamente, cuando la mente del hombre de ciencia está ocupada intentando enlazar los
datos compilados con la teoría de referencia, está ignorando su intuición, en vez de hacer lucro
de ella, entonces la percepción se reduce. Por tanto, la mente ha de estar abierta siempre ante un
todo y no enfocada en la teoría, más aún, cuando sólo se está descubriendo el problema. Es en el
estado de meditación propio del hombre de ciencia cuando los procesos lógicos del inconsciente
determinan que cosa se parece o difiere de otra.

. Es sobre la diatriba que surge cuando se discrepa entre lo intuitivamente percibido y cuyo
rlo
ate flujo natural inquieta, y las inconsistencia en el cuerpo de conocimientos de la disciplina que se
nla
aborda, la referencia que hace Einstein con la frase: Si me diesen una hora para resolver un
P
o problema, invertiría 55 minutos en analizarlo y solo 5 minutos en buscar su solución.
óm
C
y Téngase presente que sólo existirá conocimiento posterior a haber hurgado en todos los
sée
u rincones del problema. Después de haber sensorialmente percibido, observado, contrastados
:Q
oic datos contra hechos, a saber, luego de librar de toda contradicción a aquellos patrones en el
tíf
nie dominio del fenómeno que marcaban distancia entre lo que sabíamos y lo que desconocíamos.
C Habiendo numerado todas sus causas post observancia y cotejo de sus efectos. Tenga presente mi
a
mble estimado lector, un problema podría no presentar síntomas, no obstante, ha de contener al menos
ro una causa. En este sentido, la explicanda se direccionará hacia los porqué un efecto pasa
lP
:na
E inadvertido ante la causa que lo produce. Existen de hecho los problemas sin síntomas, pero
jamás existirá alguno sin causa.
ue
alb
Un planteamiento del problema básicamente emerge desde la dialéctica del pensamiento
V
na
científico, y en efecto, es totalmente intencional. Entonces, es menester del hombre de ciencia
oim
esquematizarlo desde lo abstracto, pasando por lo a priori y puro, hasta lograr hipotetizar ciertos
R
efectos derivados de causas no claras, pero cuyas bases sean afirmaciones que en sus
postrimerías se demuestren, persiguiendo en todo momento el <<Nervus Probandi>>, o el
argumento más convincente de que el problema además de que existe, amerita intervención.

Cuando el investigador plantea un problema, este ha de llevar implícito el conjunto de


mecanismos e instrumentos necesarios para su resolución. Una de las génesis de los problemas
científicos se presenta cuando la acumulación de contradicciones, vacíos explicativos e
incoherencias entre lo conceptual y lo real, que vinculan a investigaciones previas con ulteriores,
se hace insostenible.
197

Provocando así, una parálisis intelectual sólo dirimible a través de la acción investigadora
coherente y demostrable ya que la ciencia es por definición, una actividad que se aboca tanto
sobre la solución como la creación de problemas. El planteamiento del problema se transforma
entonces, en un índice discursivo marcado por la polémica de unos conocimientos contra otros.
Conocimientos consecuencia de actividades científicamente estériles y que han derivado en
estructuras cognitivas sin soportes lógicos que admitan características de validez.

Bajo estos criterios, ningún problema es un ente concreto ni puede llegar a serlo <<sobre todo
cuando se ejecutan percepciones categoriales sobre objetos ideales>> se diferencian unos de

otros a través de las leyes de la perspectiva. Son solo entidades abstractas que se dejan conocer a
.o
lr través de un discurso descriptivo – explicativo de derivación de consecuencias a partir de la
ate
observación. Recuerde que el Epísteme sólo se logra en el nivel más alto de la escala del
nla
P conocimiento, entonces, escale, profundice, extraiga y ponga de manifiesto a toda unidad
o
óm fenoménica escondida y hasta entonces no explicada, pues, es la única forma en que es posible
C
sy afirmar que se ha dado respuesta a la pregunta de investigación.
ée
u
Q El científico nunca ha de olvidar que una inferencia es diferente a una conclusión, para esta
co:
tífi última son necesarias observaciones repetidas que provean la misma carga informativa, lo
nie
necesario en ciencias son las inferencias y su fuerza lógica, ya que, las observaciones repetidas
C
a podrán variar de una investigación a otra e interpretarse heterogéneamente por cada
mble
ro
individualidad científica.
lP
:E Al plantear un problema, necesario es atar a unidades fenoménicas, no cometa el error de
na
ue esclavizarse a la metodología… átese a su intuición… a su capacidad de observación y
alb razonamiento… no deje que la teoría lo distraiga pero no la eche a un lado… tenga en cuenta que
V sólo una contradicción en el proceso explicativo es suficiente para anular todo conocimiento
na
oim hecho patente con la explicanda.
R
Afine entonces sus sentidos y dedíquese a percibir y caracterizar estímulos causales sobre las
unidades fenoménicas… de allí observe y contraste entonces con la teoría. Recuerde que la
verdad sólo puede ser verdad si una razón puede ser prestada para ella179, encuentre entonces
esa razón.

Se dice que existe un problema cuando una o algunas características particulares de un


fenómeno oscilan en su nivel de intensidad y/o frecuencia. Y, para poder emprender
acertadamente una investigación real, han de coexistir en tiempo y espacio, aquello que fluctúa

179 Frase atribuida a Leibniz


198

<<Variable>> y aquello que no lo hace <<Invariante o Ley>>, pues es lo único que permitirá
contrastar lo que varía contra lo que no180. Preste atención a que si determinado elemento dentro
de un fenómeno existe, no pudiendo este ser eliminado, es entonces indudable que está unido al

sistema mediante alguna ley.

Por otro lado, si la evolución de un fenómeno depende y coincide con la aparición de otro, o,
si la variación de un fenómeno particular está condicionada a la variación de un segundo
fenómeno, solo pueden establecerse dos condiciones. O el segundo es causa o efecto del primero,
o ambos están conectados mediante alguna ley causal, pues es obvio que entre ellos existen
Variaciones Concomitantes181.
.o
lr
ate Si tales condiciones son obviadas en la descripción del problema siendo previamente
na conocidas, difícilmente sea aceptable cualquier inferencia derivada o explicación que el
l
P
o investigador tenga a bien ejecutar, pues se constituye esto en la diferencia entre inicio y fin de
óm
C una investigación. Y es de esa diferencia de donde el científico deduce, afina, explica y
sy
ée construye el conocimiento de la causa.
u
:Q
oic Es un error comparar variable a variable si no se describe y explica en función de aquello que
tíf
nie a pesar de las circunstancias se conserva y mantiene inalterado, aun cuando otras
C transformaciones se hallan sucedido. Además, no olvide nunca que es la dialéctica la que separa
a
mble lo descrito de lo explicado. En ese sentido, organice magistralmente sus ideas y escoja palabras
ro que impacten sobre la psiquis del lector a través de explicaciones por asociaciones. En un
lP
E planteamiento de problema se describen y explican las lagunas de comprensión respecto al
:na
estado del conocimiento actual, nunca se hacen inferencias a priori allí. Sin embargo, es el lugar
ue
alb perfecto para introducir los supuestos que conformarán la/s hipótesis.
V
na No cometa el error de emprender una investigación científica persiguiendo únicamente
oim
aprendizaje propio, si lo hace, difícilmente encontrará la pertinencia social de tal proyecto, no
R
atinará el proceso científico adecuado y es muy probable que tenga que justificarlo en función de
su interés personal sin ningún aporte a la comunidad científica. Contrariamente, todo problema
debe ser sustentado y argumentado suficientemente en términos concretos y claros, de manera
que admita su abordaje a través de los mecanismos de la ciencia. Permitiendo el paso de lo

infinito a lo finito, de lo abstracto a lo concreto, o desde el conocimiento angosto hasta los


principios explicativos que disipan toda duda.

180 En la Investigación Social no suele practicarse este procedimiento, allí no existen leyes, entonces se contrasta contra conceptos y opiniones
que181 también varían, presentándose de esta manera el efecto, no deseado por cierto, de la doble variación.
Estos dos últimos casos pertenecen a los 5 cánones de Jhon Stuart Mill. Se describen mejor en la sección de la Investigación Experimental en
este mismo texto.
199

Un problema es un problema científico si y solo si este tiene solución, existe al menos una
forma de revolverse, y consiste en la anticipación de un evento que ha de enfrentarse en un
futuro. Pues, es imposible darle solución a un problema filosófico o religioso con los
mecanismos del método de la ciencia. A un problema científico no siempre es posible darle
solución determinista, es decir, perpetuamente será la forma de resolverlo.

En vez, se le admite solución temporal conforme a los objetivos planteados, no siendo esta la
única sólo porque satisfacen el espíritu de la comprensión y el entendimiento, logrando así
transitoriamente, trascenderlo. Como tal, un problema científico podrá emerger desde su esencia
ideal, abstracta o concreta, ser netamente teórico o con características de practicidad, pero su
.o
lr principio lo conmina a indagar soluciones a través de la operacionalización de demostraciones.
ate
n Un Problema Científico consistirá entonces, en un obstáculo o impedimento para acceder a la
la
P
o comprensión total de un fenómeno particular y podrá ser esquematizado de diferentes maneras
óm
C cuando se le observa desde diferentes aristas. Aunque no existen recetas para los ingredientes de
sy
ée un problema, son obtenidos como una operación de la inteligencia y de la autoconciencia, como
u
Q facultad creadora que todo hombre posee, donde se esquematiza y categoriza a los objetos y
co:
tífi elementos a los que se haga referencia, usando como herramientas, a la estrecha relación entre
nie descripción y explicación. En ese sentido, ningún problema puede ni debe parecerse a otro.
C
a
mble
ro
lP
:E
na
ue
alb
V
na
oim
R

.a
ic
ne
i
C
al
ne
a
me
l
bo
r
P
le
d
ac
re
c
200

9.1.1.- Lo Abstracto y las Analogías en el Problema

Un problema abstracto, como en la lógica, la matemática o la física teórica, se presenta en la


mente del científico como manifestaciones sensorialmente dadas. De allí comúnmente se parte
desde un universal hasta descender hacia un particular cuando se hace uso del análisis deductivo,
o desde un particular hacia otro particular si se procede inductivamente, actuando por separado
sobre cada unidad extraída o abstraída desde un general o particular de referencia. Conformando
menudas partes de lo que en un principio fue un todo.

Más en ciencias, es imposible operar en lo abstracto, necesario es escalar en el nivel de


. conciencia, trayendo esas menudas partes hasta lo concreto, lo material, de manera que le
rlo
ae permita actuar sobre aquello abstraído. Para poder plantear un problema abstracto, necesario es
t
nla
escalar hacia un estado alterado de conciencia o meditación profunda, allí las habilidades
P
o
óm cognitivas se organizarán hacia un ciclo de producción máxima. Fue en este estado cuando
C Einstein logró concebir la teoría de la relatividad, es decir, el secreto del universo.
sy
ée
u Es en el estado de trance absoluto cuando se puede, como experimentalista o teorizador,
Q
co:
tífi
operar en lo abstracto ejecutando una serie de experimentos del pensamiento, y que
nie posteriormente traerá hasta el plano ontológico mediante procesos de analogías. Puesto que a un
C fenómeno abstracto es imposible observarlo directamente, necesario es entonces combinar tal
a
mble serie de ideas con el razonamiento analógico.
ro
lP Es decir, óptese por unidades de razón encadenadas lógicamente y haciendo gala de gran
:E
na potencia mental, que permitan presentar una sistematización de vinculación entre todo
ue
antecedente y su respectivo consecuente, a través de un organizado protocolo de captura de
alb
V problemas. Cuya cadena para el desarrollo de ideas sea consecuencia de una simetría argumental
na
con patrones causales que den a luz al conocimiento comprensivo de algo que en un primer
oim
R momento fue obscuro e incomprendido.

Razonar analógicamente desde lo abstracto significa explicar una cosa a través de otra mejor
conocida, imagínese que usted intenta explicar cómo son las urbanizaciones en el <<Cielo,
donde Dios vive>>, no hay otra manera de proceder sino por analogías. Nunca tema a

equivocarse si ha puesto en práctica su autoconciencia, las analogías son comunes durante el


proceso de planteamiento y resolución de problemas;
201

Pero daré a conocer lo poco que he aprendido para que alguien mejor que yo pueda
atisbar la verdad y, en su obra, pueda probar y criticar mi error. Así, me regocijaré a
pesar de todo de haber sido un medio a través del cual salga a la luz la verdad182.
El planteamiento del problema lleva implícito ciertas limitantes al investigador ¿qué es lo que
puede conocer y que no? Además del cómo llegar a ello. Estas respuestas sólo provienen de
usted mismo, de su intuición, discernimiento y capacidad de acción, difícilmente un
intermediario tendrá la misma visual que usted. Entonces, ningún jurado actuando como tercero,
podrá adjudicarse autoridad de verdad, erigirse, o al menos intentar refutar sentencias que el
investigador tenga a bien describir en el problema con posterior demostración.

.o Aunque existen malévolas élites científico académicas de sacerdotes con máximo


lr
ate conocimiento y poder absoluto sobre la verdad, solo podrán, y están allí para ello, separar
nla aquello que se dice cierto de aquello que no lo es y por consiguiente es falso. Si y solo si,
P
o disponen de los medios para refutarlo…actuando como verdaderos jueces y no como
óm
C obstructores de un proceso que apenas inicia. En ese sentido, Peter Madawar183 alguna vez
y
sée expresó lo siguiente: La mayoría de los hombres de ciencia no han recibido ninguna instrucción
u
:Q formal en el método científico, y (…) quienes parecen haberla recibido no muestran una
oic
tíf superioridad sobre quienes no la recibieron.
nie
C 9.1.2.- Sobre la Redacción del Problema
a
mble
ro El efecto lingüístico con el cual se desarrolla la temática de un problema ha de ser totalmente
lP
E intencional, es decir, ha de intentarse en lo posible inducir en la mente del lector, toda serie de
:na
sensaciones que el investigador ha percibido, es cuando el científico presta sus ojos para que
ue
alb otros observen el cómo aquello se produce e interactúa.
V
na Es donde se plasma mediante manuscrito, la interpretación de los patrones observados, la
oim calidad de la prueba de que el problema existe y la profundidad de pensamiento con su
R
correspondiente necesidad de abordarlo. Por ello, debe plantearse de manera que se entienda
como un experimento plausible con relaciones suficientemente determinadas entre sus partes
constitutivas.

Allí deben evitarse palabras indeterminadas y las descripciones sin explicaciones o


descripciones innecesarias basadas en la denominada ciencia descriptiva. Aunque, con cierto
grado de exactitud es posible afirmar que no existe tal cosa denominada ciencia descriptiva,

182 Alberto Durero. Aparece en la Introducción del libro Conjeturas y Refutaciones: El Desarrollo del Conocimiento Científico. De Popper Karl
(1991).
183 Científico Británico (1915 – 1987) nacido en Brasil, Premio Nobel de Fisiología (1960) por sus descubrimientos sobre la tolerancia
inmunológica adquirida.
202

describir es sólo un paso dentro del método ya que no aporta ninguna profundidad de
pensamiento, reflexión o evidencia, la ciencia en sí es netamente explicativa.

No es menester de la descripción, ni mucho menos está a su alcance, explicar, o al menos


concatenar hechos ni sucedencia. Consiste únicamente en representar simbólicamente elementos

dentro de un fenómeno sin incluir etapa alguna de manipulación y/o razonamiento. Por ende,
toda verdad descriptiva carecerá de significado hasta que pueda someterse a verificación
empírica.

La Investigación Científica del tipo Descriptiva no existe, puesto que carece de sustento y

.o sentido con respecto a los objetivos de la ciencia, es como intentar caminar sin levantarse de la
lr
ate silla. Se justifica sólo en aquellas ciencias que no pretendan descubrimientos, o por sus
nla
tipologías solo se desean conocer propiedades y características particulares de objetos o cosas, es
P
o
óm
decir, una acción meramente contemplativa, y eso no es ciencia.
C
sy Existen varios tipos de descripción dirigidas al área científica: la técnica; la exhaustiva; la
ée
u estática y la dinámica, todas deben ir acompañadas de su respectivo discurso explicativo. La
Q
co: descripción técnica es usada para señalar detalles de cualidades y propiedades de cada unidad
tífi
nie fenoménica, se caracteriza por su precisión, claridad y objetividad. La descripción exhaustiva se
C usa cuando hay necesidad de extraer la mayor cantidad de detalles precisos, implícitos e
a
mble inherentes al objeto de estudio. Describa exhaustivamente, de forma detallada y propia, al
ro conjunto de indicadores al que haga referencia.
lP
:E
No obstante, sea selectivo en los rasgos más significativos que han de someterse a estudio. Si
na
ue el problema aborda una secuencia causa – efecto en una cadena transcausal, use los mismos
alb
V protocolos operacionales del tipo técnico, exhaustivos y selectivos del paso previo, no olvide de
na
ningún modo explicar qué ley une al efecto con su causa, bajo qué condiciones se presenta el
oim
equilibrio causal, e identifique con énfasis, la causa adecuada. Más, separadamente, ejecute una
R
descripción estática de la causa y una dinámica del efecto si los intervalos temporales de
sucedencia así lo permiten.

Posteriormente, proceda inversamente, deje estático el efecto mientras se produce la dinámica


de la causa. No olvide la existencia de algo que media entre la causa y su efecto, una causa no
podrá nunca separarse de su efecto, pues están adheridas a la tercera ley de Newton, acción y
reacción. Entonces, no se centre en ellas, sino en aquella relación esencial determinada por la
extraña fuerza que media entre ellas. Si hay correlación entre variables <<Recuerde que los
estudios causales son diferentes a los relacionales>>, realice descripción estática y dinámica por
separado, dejando conocer el cómo cada causa produce su efecto y viceversa.
203

Puesto que ninguna causa produce su efecto de forma inmediata, entonces, razone, interprete
e infiera sobre los intervalos temporales. Si la causa produjere su efecto de manera instantánea,
concurriría entonces una mecánica de acción, detállese y explíquese a través de la teoría del
mecanismo, pues es evidente que milita una interacción física entre ellos. No olvide en absoluto
que al conocimiento es imposible encontrarlo en los árboles, ni se produce por casualidad, ya que
lo que proviene del azar de ningún modo podrá denominársele ciencia. El conocimiento se
sobreviene únicamente del accionar del hombre de ciencia. Para Carl Sagan, La ciencia es más
una forma de pensar que un cuerpo de conocimientos en sí. En la ciencia no hay conocimientos,
el conocimiento está en cada uno de los hombres de esa ciencia, y donde ninguno es mejor que

.o otro, sino, más afinado.


lr
ate
El fin de toda investigación científica es indubitablemente el descubrimiento, entiéndasele
nla
P como toda aquella acción que evidencia el usufructo de los procesos del pensamiento científico
o
óm al poner de manifiesto algo que estaba oculto o era incomprendido. Es cuando el investigador
C
y devela todo el halo de misterio bajo el cual se ocultaban ciertas, o la totalidad de las
sée
u características de un fenómeno, es donde se patentiza la magnificencia del pensamiento humano
:Q
oic operacionalizado lógicamente. Descubrir consiste en afirmar que algo existe… describiendo al
tíf
mismo tiempo lo que es… descubrir amerita percibir, entonces, debe ser acreditado a algún ser
nie
C humano.
a
mble
ro
Descubrir significa percibir anomalías y actuar en consecuencia sobre ellas. El preludio a todo
lP descubrimiento radica en interpretar, con mayor o menor curiosidad, las unidades fenoménicas
E
:na inesperadas que hacen que una anomalía sea realmente una novedad digna de escudriñar, bases
ue que sustentan el planteamiento de todo problema. Téngase presente que las respuestas a una
alb
V investigación están atadas a condicionamientos, tales, deben ser descritos en función de
na
operacionalizar toda acción posible en esa dirección.
oim
R Será ese el camino exacto por donde ha de romperse la armonía de lo obvio y se logrará
solventar el misterio. Todo hombre de ciencia usa su intuición para descubrir, la lógica le sirve
únicamente para probar y demostrar. Elí de Gortari no se equivocaba cuando afirmaba que los
problemas científicos se expresan en el pensamiento bajo la forma de contradicciones, y son
éstas, las que lo impulsan con la exigencia de encontrarles solución. Para finalizar, bien vale la
pena citar a Enrico Fermi; En toda Investigación hay sólo dos posibilidades: si el resultado
confirma la hipótesis, entonces usted ha hecho un descubrimiento. Y si el resultado es contrario
a la hipótesis, entonces usted también ha hecho un descubrimiento.
204

9.2.- Un Acercamiento a los Dilemas

Si Ud. cree en el “Libre Albedrío Bíblico”, le sugiero, estudie la


Inteligencia Artificial al menos por un mes y luego repítase la
pregunta, ¿existe realmente el libre albedrío? Si comienza a
dudar. Pregúntese entonces, ¿Cómo es que puedo discernir de
mi propio pensamiento? Si la respuesta es que posee Libre
Albedrío. Entonces Ud. está en un Dilema.

Roiman Valbuena.

entiende
econsidera
legir pordos
entre dilema,
escenario a un argumento
alternativas
dilemático silogístico
a una situación
mutuamente en el cual
y laqse
que dificulta
excluyentes ue les a un contrario a
selección
obliga

S son adversas. Se
entre dos o más
opciones, y que lejos de aportar soluciones origina un problema. Pues, en el silogismo podrán
distinguirse sentencias con poco sentido que no representan la esencia ni el estado de las cosas.
Los argumentos dilemáticos no podrán usarse para justificar causas porque van contra su
existencia, son contrafácticos. Sin embargo, son los grandes dilemas los que confrontan a los
científicos haciendo que la ciencia progrese. Los dilemas son de amplio uso en los
Experimentos Mentales y los Experimentos Filosóficos, allí se introducen intencionalmente
argumentos dilemáticos que evoquen una situación hipotética.

Para la lógica, un argumento con dos premisas hipotéticas, las cuales dan como resultado a
una tercera premisa, y que afirma el antecedente o que deniega su consecuente, o una conclusión
la cual afirma su consecuente pero deniega su antecedente, es un dilema. Preste atención al
siguiente dilema moral: <<Si confieso mi falta seré echado de la universidad; si no la confieso
no podré afirmar que seré un profesional honesto>>, los dilemas en lógica no tienen la misma
profundidad y aplicación que los dilemas morales de la vida cotidiana del ser humano.

Todo argumento formado por dos proposiciones contrarias, de manera que negada o afirmada
cualquiera de ellas, quedare demostrado lo que se intenta probar, será considerado dilema. Teseo,
un héroe de la antigüedad traído al mundo de la pluma de Thomas Hobbes, lleva su barco a

reparar a un astillero. Allí, los carpinteros deciden reemplazar todas y cada una de las piezas con
el fin de entregarle al héroe un barco totalmente renovado.

No obstante, uno de los carpinteros decide tomar las piezas viejas para con ellas armar otra
embarcación. Cuando Teseo observe ambos barcos ¿cuál cree que pensará es realmente el suyo?
Los dilemas son comúnmente usados en las estrategias de negociación; en política, filosofía,
205

juegos sicológicos y como medio para dilucidar descubrimientos científicos con gran carga de
metalógica. No obstante, un argumento dilemático no explica, confunde. Y no podrá ser usado
en el planteamiento de un problema ya que es indeterminado.

Cuando se usa a la imaginación disciplinada sobre resultados científicamente estériles con el

fin de encontrarles provecho, se erigen entonces, e intencionalmente, estructuras cognitivas


camufladas sobre modelos matemáticos de equilibrio intuitivamente inspirados en la obtención
de conocimientos a través del procedimiento estímulo – respuesta. En este proceso, se persigue
construir un conjunto de estimadores de significancia comparada para determinar los efectos del

dilema sobre tal o cual resultado científico. Uno de los dilemas científicos más comunes versan
sobre la experimentación genética sobre seres humanos, o las aplicaciones militares de las
microondas de radar.
.s
a
em La primera si bien ha permitido el acceso público a la secuencia del genoma humano,
li
D
slo ayudando a prevenir enfermedades. Ha creado un conjunto de nuevos problemas con
a consecuencias éticas, morales y legales. ¿Cómo saber si la información de mi código genético es
ot
nie correcta?; ¿Quién garantiza que tal información será privada? Del mismo modo, los nuevos
am avances en ciencia y tecnología están aliviando problemas: de energía; de alimentación;
rc
eAc degradación del medio ambiente y salud. Pero han creado nuevos, los transgénicos; la
destrucción de los suelos a través del Fracking o fracturación hidráulica, o los efectos de las
n
:U
na microondas celulares de baja potencia sobre el cuerpo humano.
ue
alb Recuerde, cualquier situación que involucre la selección entre opciones donde una de ellas es
V desagradable es un dilema. El científico siempre intentará explicar cualquier fenómeno
na
oim observable en términos de principios científicos, estos últimos también son explicados a través
R de otros principios científicos más profundos denominados leyes. Aunque inferir principios

científicos no es fácil, no evite los dilemas, el deseo por conocer difícilmente estará alineado con
las evidencias observadas; todo dilema trae consigo sufrimientos, desesperanza y agonía.

No obstante, el amor por el descubrimiento puede superarlo todo. Cuando se aborda un


problema complejo, y a su vez se cree en la posibilidad de resolverlo, se ha aceptado la
existencia de un dilema, puede tomarle 10 segundos o 10 años, es la esencia de este dilema el
odiar el problema pero amar su solución, si no desea denominarlo dilema óptese entonces por
admitirlo como parte del proceso de razonamiento científico.
206

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO X: QUÉSON LOS


PROGRAMAS DE
INVESTIGACIÓN
CIENTÍFICA Y LA CIENCIA
INTERNIVEL…

El ejemplo clásico de Programa de Investigación victorioso, es la Teoría Gravitacional de


Newton. Probablemente el Programa de Investigación más exitoso que ha existido nunca.

Imre Lakatos.
207

10.1.- Los Programas de Investigación Científica y la Investigación Internivel

La Investigación Internivel permite el acercamiento a un


fenómeno imposible de explicar con una sola ley o teoría.
Necesario es un conjunto de ellas. Al abordársele, se apreciará
en un primer momento lo que cualquiera puede ver. Pero la
correlación teorética y legaliforme permitirá descubrir cosas
que nadie jamás imaginó que estuviesen allí.

Roiman Valbuena.

un
ser
e entiende
Proyectopor
de Consiste
separados. Programa ende
uncInvestigación
Investigación uando
modelo
éstedepresenta
análisis a laniveles
diferentes secuencia
para ejecutar
Científica, ejecución
investigaciones
quede
han y de

S
confluyan más de dos teorías, y por consiguiente, cada una introducirá una o más leyes. En los
deben de
donde

Programas de Investigación los problemas son inseparables de sus objetivos, y puede presentarse
una concatenación de los mismos tal como en una investigación mixta.

Aquí no se establece tipo y diseño de investigación, pues la ciencia nunca evalúa una única

teoría, ni sigue un único camino para dar respuesta a un problema. Es en esta etapa donde la
teoría es apoyada por los hechos y se circunscribe a sus leyes. Y será al final, donde el científico
propondrá y ejecutará un experimento tal, que no ha de vislumbrarse duda, sobre cómo el
fenómeno se inicia, opera, interacciona y evidencia sus efectos. Pues, es cuando las leyes de las
matemáticas reflejan inequívocamente una verdad.

Un Programa de Investigación Científica presenta ciertos niveles jerárquicos, para los que
requerirá de diferentes niveles de explicación cuando se han agregado leyes a cada nivel. Adopta
co – operaciones tanto simétricas como asimétricas similares a los diseños de los modelos mixtos
de investigación. Se asumen allí, diferentes niveles de agregación 184, diferentes tipos de
explicación y descripción para cuando el científico ha adquirido la destreza de escalar unidades
de pensamiento y razón, denomínesele a esto último, Razonamiento Escalado Explicado.

Un Programa de Investigación se relaciona directamente con la Investigación Internivel. Se


parte desde un conocido, atravesando un sospechado hasta finalizar en un encontrado. No
obstante, será el mismo problema quien señale el curso de acción a seguir. El problema indicará
desde donde debe ascenderse y el lugar para detenerse, en el camino se establecerá un vector
graduable para el/los objetivo/s. Las escalas intermedias serán propias de una Investigación

184Para un mejor entendimiento de este concepto, Refiérase a Modelo Kuipers de Reducción de Leyes por Teorías. Capítulo III: Sección: 3.2 en
este mismo texto.
208

Internivel, relacionando, asociando, o separando teorías. Aquí no se eliminan teorías o


reemplazan, contrariamente, se toma en cuenta incompatibilidad y se les separa, pero se estudia y
presta mucha atención a la inconmensurabilidad en un nivel o inconmensurabilidad en el
Internivel.

Durante el desplazamiento por el vector de posición las observaciones variarán, así como los
patrones del fenómeno. Es en esta etapa donde la intuición, connaturalidad e IQ del científico

.l marcarán el camino a seguir basado en las leyes de la perspectiva. Una investigación del tipo
ve Causa Efecto es una investigación Internivel si, un mismo efecto obedece a varias causas. Y para
irn
te cada causa es posible establecer una ley diferente que forme parte de una teoría también
nI
nió diferente.
ac
ig Estas teorías podrán estar asociadas o agregadas, más sin embargo, la respuesta a la pregunta
st
ve
nI de investigación quedaría incompleta sin la coexistencia de diferentes niveles de explicación.
la Para cada estadio del fenómeno, una explicación. Para el entendimiento total de la causación, un
ay
ífic manuscrito de explicaciones. La Investigación Internivel constituye una de las formas en las
tn
ie cuales se presenta la Investigación Científica Avanzada, dado que el ser humano no vive en un
C
n universo accidental, entonces todos los acontecimientos estarán regidos por leyes asociadas a

ac teorías.
ig
st
ve
nI La Investigación Internivel hace uso de términos, conceptos y sentencias que subyacen en uno
de o más principios, sirviendo de puente con hipótesis auxiliares que conectan a un nivel con otro, o
sa
simplemente se quedan en el Internivel y lo explican. Allí se hacen uso de conceptos de micro
am
rog nivel hasta ascender a un nivel alto, usando en muchos casos, el Principio de Correspondencia.
r
sP En ciertas etapas podrá operar con modelos teoréticos provisionales con un número finito de
o
L principios.
:a
nue
bl La Investigación Internivel es algo compleja, pues, amerita de la axiomatización de algunas
a
V cadenas de causas y la Matematización de algunos postulados. Recuérdese que en ciencia, un
na
im conjunto de enunciados de una teoría es válido si cumple al menos dos condiciones, los
o
R enunciados no admiten contradicción y pueden ser expresados en forma de ecuaciones
matemáticas, caso contrario, no son dignos ni pueden ser usados en una teoría.

Una investigación internivel sirve para encontrar conexiones entre teorías científicas,
estableciendo relaciones inter – teoréticas cuando existen contextos científicos cruzados. Bajo
este escenario, las teorías de bajo nivel regularmente dependen de estructuras evidenciales
aportadas por ciencias que hacen uso de teorías de nivel alto, habiendo aplicado métodos y
técnicas experimentales. En consecuencia, se hace necesaria la reducción sucesiva de teorías con
209

el fin de encontrar satisfactoria cadena explicativa a los eventos que acaecen en los interniveles.

De ser cierta la existencia de relaciones científicas cruzadas entre teorías que prevalecen al
mismo tiempo en diferentes niveles analíticos, se procederá al establecimiento de relaciones aún
más profundas y no detectadas. Allí el científico, con cierto grado de sobriedad y basado en

atributos invisibles todavía no aportados por los niveles analíticos aplicados, hará uso de
artificios estadísticos y matemáticos como: regresiones lineales, correlaciones canónicas o
ecuaciones estructurales según sea el caso.
l.ve
in
rte McCauley185 (2007) argumenta que, dada la existencia de diferencias entre las relaciones
nI internivel o relaciones científicas cruzadas, e intranivel, sucesivas relaciones lineales, la
nió
ac profundidad del nivel explicativo aplicado por el científico no debe ir más allá de lo que la teoría
ig 186
st cubre. En la misma dirección apunta Mario Bunge (1967) cuando afirma que la existencia de
ve
nI muchos fenómenos impone un límite a las explicaciones en cada subsistema, pues lo ideal sería
al
ay abordar lo desconocido a través de explicaciones funcionales.
ci
fí En contextos internivel pueden coexistir teorías incompatibles siempre que quede claro y
tn
ie
C terso al entendimiento, el nivel de estratificación donde cada teoría ha de operar. Siendo así,
nió entonces será necesario para ellas, la observancia separada y particular en donde los niveles de
ac
ig descripción y explicación se cruzan. Como cada teoría hace uso de una o más leyes, en
st
ve
nI consecuencia, cuando coexistan al menos dos leyes en un nivel se entenderán como explicación
de estadística o probabilística. Hasta que un modelo determinista logre suplir los vacíos explicativos
sa
am y la incertidumbre derivada de la primera.
rrog
Ni en la Investigación Internivel, ni en ningún otro tipo de indagación, hay forma lógica de
sP
o descubrir leyes elementales. Es el científico quien busca saber lo que hay detrás de ciertas
L
:na
apariencias fenoménicas. Cuando un fenómeno no es posible explicársele haciendo uso de una
ue
alb sola ley o teoría, entonces habrá de optarse por una estrategia plurimetódica, un modelo
V metodológico Internivel que permita al reduccionismo abordar el problema. Siéntase libre el
na
im investigador de usar la Investigación Internivel dentro de un Programa Científico de
o
R Investigación, les aseguro que no dejarán de maravillarse cuando transiten por sus sendas.

185 McCauley, Robert. (2007). Reduction: Models of Cross – Scientific Relations and Their Implications for the Psychology – Neuroscience
Interface.
186 Sección en:
VéaseAparece 9.5:Philosophy
Interpretative Explanationsand
of Psychology andCognitive
Reduction
Science. Editado
of Laws. P. 34 ypor
ss.Paul Thagard.
210

10.2.- Teorías en los Modelos de Investigación Internivel


lve
irn Una teoría internivel refiere a un conjunto de supuestos científicos separados en un agregado
nte
I general de leyes y axiomas donde el reduccionismo187 juega un papel importante. Dentro de este

iac universo se constituyen diferentes enfoques que hacen mención a una estructura teorética cuando
stig el fenómeno a abordar involucra a varias leyes que operan a diferentes niveles de agregación188.
ve Una teoría será internivel cuando las entidades por ella representadas, descritas y explicadas,
In
de posean la propiedad de poder ser agrupadas de acuerdo a sus niveles de agregación. Donde, los
so
lde correlatos en un nivel comparten elementos con sus entidades de niveles inferiores. Téngase
o siempre presente que un hecho sólo ha sido explicado cuando se dan a conocer sus causas, caso
M
so
l contrario, la investigación no ha finalizado.
nse
aí Muchos filósofos de teorías internivel suponen que la reducción exitosa de una teoría de nivel
ro
Te superior a un nivel teorético inferior dará lugar a la sustitución de la primera por la segunda. Para
.l
ve que ello sea posible, se hace necesario que la teoría baja haga uso de sólo términos de nivel bajo
irn
te y entidades del mismo tipo. Por ejemplo, en el modelo de teorías internivel de Schaffner189
nI
nió (1993b), se requiere que la teoría a reducir admita el reemplazo parcial o irregular que se
ac sobreviene como resultado de la visualización de una mayor cantidad de conexiones complejas
ig
st
ve entre las partes de diferentes teorías internivel. Conviene advertir que la reducción consiste en
nI una forma de manifestar la conexión necesaria entre elementos de una teoría científica.
al
ay Permitiendo la creación de puentes relacionales entre proposiciones de teorías de diferente nivel.
icf
ít En efecto, y bajo criterios de Schaffner, se dice que una teoría es internivel cuando las
nie
C entidades que la teoría representa pueden agruparse según el nivel de agregación. Donde,
n
ió entidades de un nivel de agregación pueden compartir partes con entidades de niveles inferiores.
ac
ig
st Pero las propiedades definitorias de la entidad en el nivel superior, requiere principios
ve
nI organizativos que no se encuentran en el nivel inferior.
de
sa Entiéndase a los diferentes niveles de una teoría, a la forma, en relación a su construcción
am
rog sintáctica, semántica y explicativa, que fue usada para darle origen. Por ejemplo, una teoría de
r nivel alto se construye usando enunciados universales; una de nivel medio hará uso de
sP
o
L
:a 187 El reduccionismo, para la filosofía de la ciencia, consiste en una de las formas mediante la cual sería posible lograr la unidad de todas las
nue ciencias. En este contexto, es la opinión de que intuitivamente ciencias "de alto nivel "se pueden reducir, en cierto sentido, a las ciencias "de bajo
nivel". La reducción presupone la existencia de leyes puente, leyes que caracterizan de forma exhaustiva los conceptos de cualquier ciencia de
bl alto nivel, y en cuyas generalizaciones se manifestaron en su uso, conceptos y generalizaciones en el siguiente nivel inferior. Desde la visión de
a las neurociencias cognitivas, el reduccionismo es la posición mediante la cual se sostiene que las teorías o cosas de un tipo de forma exhaustiva
V pueden dar cuenta de las teorías o cosas de otra clase. Así, por ejemplo, dentro del reduccionismo de las ciencias cognitivas se sostiene que las
na teorías de las neurociencias explicarán el éxito de las teorías psicológicas y, por lo tanto, revelarán que los estados psicológicos y procesos no son
que los estados
más188Entiéndase cómoyla
losunión
procesos
o adición de parte
corporales. MITde Encyclopedia
una teoría o ley
of científica otra usando
CognitiveaScience. para of
Concept ello hipótesis auxiliares
Reductionism. Véase.
im
o sucedidas en orden que
R permitan su conexión.
189 Schaffner, K. (1993b) ‘Theory Structure, Reduction, and Disciplinary Integration in Biology’, Biology and Philosophy 8: 319-47. (An
analysis of theory structure in terms ofintegrated interlevel theories thatallow for partial reduction and integration.)
211

enunciados particulares y una de nivel bajo de enunciados singulares. Ello refiere a la extensión
lve de lo explicado por la teoría y lo cual recae sobre los sujetos. Como las explicaciones están
in
rte basadas en inferencia y juicios, entonces es menester clasificarlos y allí se encuentras tres
nI
elementos de importancia:
nió
ac
ig
st • El Sujeto: es de quien se afirma o niega algo en la explicación;
ve
nI • La Cópula: es el concepto que relaciona al sujeto con el predicado, relación que se
de establece por medio de una afirmación o negación en la explicación;
so
lde • Predicado: consiste en la idea construida basada en algo que se afirma sobre el sujeto;
sMo
En el nivel explicativo más bajo de una teoría de nivel alto encontraremos la frontera más alta
lo de una teoría explicativa de nivel medio, esa frontera podrá ser cubierta por explicaciones de
nse
aí ambas teorías usando términos comunes, enunciados universales mezclados con enunciados
ro
Te particulares. Así como, descriptores legaliformes de ambos universos (allí se visualiza un nivel
.l
ve de agregación).
in
rte
nI Una teoría de nivel alto normalmente refiere a niveles abstractos190 o explicativos
nió
relacionales y demostrables a través de enfoques lógico-matemáticos idealizados o estadísticos
ac
ig semejantes. Una teoría de nivel medio podrá contener etapas relacionales también, no obstante,
st
ve su común denominador es netamente explicativo, pudiendo encausar una cadena de
nI
al explicaciones desde arriba hacia abajo usando regresiones lineales si el fenómeno aludido lo
ay
ífic admite, o usando series de tiempo si lo que se evalúa son secuencias e intervalos de sucedencia.
tn A un encadenamiento mental de este tipo lo denominaremos Razonamiento Internivel Escalado
ie
C Explicado.
nió
ac Por último, una teoría de nivel bajo no puede sino hacer uso de esquemas descriptivos a partir
ig
st
ve de enunciados singulares. Allí nada es abstracto, todo es observable, es donde opera el ser
nI
de humano e interacciona con otros. Es donde se ejecuta directamente la investigación social. De
sa allí que se diga que una investigación descriptiva no es científica, pues ni explica ni relaciona,
am
rrog haciendo que carezca de fuerza demostrativa y probatoria.

sP Simplemente especifica propiedades de sujetos, elementos o personas y se usa para plantear


o
L hipótesis que podrán ser abordadas desde niveles más altos, hasta llegar a una explicación del
:na
ue
alb fenómeno social cubierta por entero de teorías y leyes, ello representaría el máximo trofeo para
V
na 190 La abstracción presenta al menos tres categorías: I) el propio de la física o ciencia de la naturaleza, es aquel mediante el cual se consideran los
im objetos purificados de la materia. II) El segundo grado de abstracción corresponde a la matemática, es aquel en el cual se consideran los objetos
o purificados tanto de materia (en cuanto al principio de individualización) como de materia sensible. Las entidades resultantes son la cantidad, el
R número o la extensión en sí. Y el tercer grado de abstracción, propio de la metafísica, es aquel en el cual se consideran los objetos separados de
toda materia. Los objetos resultantes pueden existir sin materia y ser concebidos sin ella. Concepto tomado de: Ferrater Mora (2001), Abstracción
y Abstracto, Concepto de: Véase. Nota del autor: Una teoría alta de nivel abstracto se concibe haciendo uso de la investigación abstracta.
212

la ciencia social, hasta el momento eso está lejos de alcanzarse. Refiérase a la gráfica para
lve mayores detalles sobre lo descrito, en las flechas conectoras es donde operan las investigaciones
irn
te Internivel:
nI
nió
ac Teoría de Nivel
de
Alto
Medio
Bajo EnunciadosUniversalesy
tig Leyes
Generales
sve
nI
Hipótesis Auxiliares que Investigaciones
Internivel
de
so
lde
Relaciones
Inconmensurabilidad
Internivel
Inter-Teoréticas
conectan niveles Contextos
o Nivel de Agregación
(Hipótesis Puente). Enunciados
Investigaciones
Internivel Científicos Cruzados
M
so
l
nse
íar
oTe
Particulares con
l.ve Leyes Tipo
del Mismo

irn
te conectan
Hipótesis
Nivel
(Hipótesis Puente).
deAuxiliares
nivelesque
Agregación Enunciados
Investigaciones
Internivel
nI
nió
ac Relaciones
Inconmensurabilidad
Internivel
Inter-Teoréticas
stig Reducción de
Teorías
ve
nI
al
ay
ci

tn Singulares. No
ie Existen Leyes en
este Nivel.
C
nió
ac Escalera Teorética Internivel
ig
st
ve El abordaje del tipo práctico para las investigaciones y generación de teorías internivel de
nI
de Schaffner, amerita que la comunidad científica de interés asuma un conjunto de sentencias de
sa
mutuo acuerdo. Así como, un conjunto de inquieres que consideren importantes, patrones de
am
rrog
razonamiento aplicados para responder a sus preguntas, además de directivas metodológicas
sP usadas para dar soluciones y ejecutar experimentos191.
o
L
:a El abordaje de una investigación internivel para generar teorías del mismo tipo amerita de un
nue
bl Marco Explicativo, desígnese a éste como una cadena jerárquica de argumentos donde cada uno
a
V atiende a un nivel específico. Si las ramas explicativas, puras, causales o relacionales, son
na
im extendidas en diferentes direcciones, hacia diferentes teorías, entonces es evidente la necesidad
o
R
191Algunos conceptos y términos aquí usados fueron extraídos y reinterpretados desde: Routledge Encyclopedia of Philosophy, Versión 1.0,
London and New York: Routledge (1998).
213

de uso de un modelo explicativo internivel. Detállense los esquemas explicativos internivel


lve cuando se extienden jerárquicamente sobre diversas ramas científicas:
in
rte
nI
nió Química
ac
ig
st
ve
nI
de
Se usan similares
so Química Orgánica teorías para explicar Química Inorgánica
lde diferentes cosas
o
M
so
l
nse
Contiene Elementos
aí que Comparte con Mismo Nivel Contiene Elementos
ro Analítico. Principio que Comparte con
la Química
de Correspondencia la Química Orgánica
Te Inorgánica
.l
ve
in
rte
nI
Contexto Científico
nió Cruzado
Inter-Teorética
- Relación
ac
ig
st
ve
nI Modelo Comparativo para Un Mismo Nivel
al
ay Este primer modelo gráfico se corresponde con investigaciones explicativas para causaciones
icf laterales, es decir, como no existe un subnivel entre la química orgánica y la inorgánica y ambas
ít
nie
están a la misma altura, entonces el marco explicativo ha de ser abordado por las denominadas
C
n explicaciones laterales. Esto es cierto sí y sólo sí, se logra esclarecer el porqué, el fenómeno

ac
ig aludido, no incide sobre niveles superiores o inferiores de ambas químicas. Y además se explica
st
ve el por qué la causa sólo produce efectos al nivel estudiado. Puede hacerse uso de explicaciones
nI
de bajo la teoría del mecanismo, explicaciones funcionales o relaciónese a través de la tesis
sa conexionista. Caso contrario, descompóngase jerárquicamente la causación del evento y use
am
rog teorías explicativas para cada nivel.
r
sP
o
L
:a
nue
bl
a
V
na
im
o
R
214

Teorías
Celulares
Biología
Biológicas Posee sus Propias
lve Teorías
irn
te
nI Investigación
nió Internivel

ac Representan un subnivel
tig depende de
jerárquico teoríasque
biología
las
teorético de la Principio
sve Reduccionista

nI
de Investigación
so Internivel
lde
o Teorías
Moleculares
Biológicas Representan un subnivel
jerárquico teorético que
M depende de las teorías de la
so
l biología Celular
nse
Investigación
aí Internivel
ro
Te
Representan un subnivel
.l jerárquico teorético que
ve Teorías bioquímicas
depende de las teorías de la
irn biología Molecular
te
nI
nió Modelo Teorético Jerárquico Multinivel
ac Con respecto al segundo gráfico, del modelo teórico jerárquico multinivel. Defínanse las
stig
ve leyes actuantes en la biología relacionándolas a las teorías biológicas celulares (allí hay una
nI
al frontera, un internivel). Luego complemente conceptos (Véase: Cap. I: El Principio de
ay Correspondencia) que relacionen y sirvan de soporte explicativo entre todas las teorías,
ci
fí diferenciando aquellas donde la complementación de conceptos haya sido ejecutada.
tn
ie
C Preste atención a los elementos actuantes en cada nivel frontera y sírvase de los modelos
nió
ac explicativos hacia abajo (Downward Causation) y hacia arriba (Upward Causation). Todos ellos
ig
st son muy bien descritos en el aparte de las Investigaciones Explicativas Puras y Explicativas
ve
nI Causales en este mismo texto. Marque cierto énfasis en la explicación secuencial temporal de
de
sa eventos cuando se pasa de una teoría a otra.
am
rrog Usted sólo logrará una teoría internivel si consigue organizar un marco explicativo que
sP justifique y dé a pensar lo que sucede en las fronteras entre dos teorías de diferente nivel. Mi
o
L intensión hasta aquí, fue la de hacer entender lo que significa e implica una investigación de este
:a
nue tipo. Ahora ya Ud. tiene una idea de lo que significa Investigación Internivel.
bl
a
V
na
im
o
R
215

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XI: SOBRE LA


ABSTRACCIÓN EN LA
INVESTIGACIÓN
CIENTÍFICA…

La belleza de la física radica en el grado en que los fenómenos aparentemente complejos y no


relacionados, pueden ser explicados y correlacionados a través de un alto nivel de abstracción
por un conjunto de leyes que son sorprendentes en su simplicidad.

In Principles of Electrodynamics (1972, 1987), 105. — Melvin Schwartz.

In Principles of Electrodynamics (1972, 1987), 105.


216

11.1.- Los Programas de Investigación Abstracta

El amor es un tipo de abstracción…[Y luego están esas noches


cuando duermo solo; cuando me hundo en la almohada sin ti;
cuando escucho pasos que no son tuyos; como no puedo
evocarte por completo, tengo que aceptar sólo una idea en tu
lugar]

David Levithan, the Lover's Dictionary.

e denomina Programa de Investigación Abstracta, a aquella secuencia de indagación

S mediante la cual el científico identifica, extrae y separa mentalmente algo de otro algo,
usando para ello únicamente, su intrincado laboratorio de la mente. Abstraer es el

proceso de separar, lo abstraído es lo puesto aparte, lo separado. Una Investigación Abstracta


consiste básicamente en pensar estructuras mentales para crear interrelaciones estructurales
donde alojar el fenómeno mental. Son estas interacciones de estados intelectuales las que dan
origen a procesos cognitivos. Allí logrará formarse una primera idea de todo aquello que resulte
común a ciertas instancias, y puesto que las ideas no son más que impresiones de los sentidos,
siendo la imaginación una facultad sensorial, entonces, no existirá nada en la mente que no haya
sido colocada allí por los sentidos. En la abstracción el científico fija su atención en una
propiedad única de la cosa despojándola del resto, y se encargará de operacionalizar sólo en lo
abstraído.

Ningún hecho abstracto que permanezca en la mente de nadie causa nada ni tiene efecto sobre
nada. Además, en vista de que un proceso de abstracción es totalmente intencional, el científico
hará uso de metalógica ante cualquier nuevo descubrimiento que lo conturbe, aunque todavía
éste permanezca en la profundidad de sus pensamientos. La abstracción diferencia entre sentido

e intelecto, para Descartes: el razonamiento abstractivo es superior al de los sentidos. El


empirismo amerita de un contacto directo con el objeto, mas no así el abstraccionismo. Las
abstracciones nunca han sido producto de la imaginación, aunque así se las piense, se
sobrevienen como resultado propio de la razón discursiva, es decir, la razón discutiendo en la
mente del científico.

No obstante, ¿qué estructuras poseen la mente y el conocimiento?; ¿qué es la mente?; ¿cómo


está estructurada?; ¿dónde se aloja el fenómeno mental? Cuestiones nada fáciles de responder.
La mente está estructurada aproximadamente, en una variedad de procesos escalonados, allí se
crean conceptos y términos para ser usados sobre la cosa abstraída, e inmediatamente relaciona
asociando y separando teorías cuando la estructura mental ya está completa. Para ello necesario
217

es estar claro sobre bajo qué criterios un científico atina a separar lo importante de lo superfluo,
¿qué es lo importante?, ¿qué es lo superfluo? Cuando el científico crea conceptos abstractos lo
hace sabiendo que lo abstracto se opone a lo concreto, que el conocimiento que aporta el
concepto es sólo una idea impresa sobre el objeto, que esas ideas solo tienen cierto grado de
generalidad, que ninguno de los objetos a los que haga referencia el concepto ocupan ni lugar ni
tiempo, pues sólo aparentemente son. Entonces, nada que afirme el concepto sobre ellos,
denomínese la cosa abstraída, está equivocado.

Aislar alguna propiedad de un objeto tiene como fin descubrir un nexo oculto, es allí donde la

realidad es vista por los órganos sensoriales. Ante estas observaciones, el científico sabe que
existen al menos dos formas de abstracción. Cuando la cosa es un fenómeno mental y carece de
.a
tac esencia, materia y forma. Y, cuando la cosa existe y debe atinar en el proceso adecuado que le
rt
sb lleve a separarla del sistema donde está inserta, manteniendo invariable todos sus atributos y
A
nió propiedades. Para cada venir amerita de un proceso diferente, de Analogías y de Metáforas
ac Visuales.
ig
st
ve Las analogías no son más que formas de representar cosas a través de otras mejor conocidas.
nI
de Las metáforas visuales funcionan como una especie de conexión entre lo que se ve y lo que se
sa piensa. Las analogías son más comunes en las ciencias (verdades abstractas), allí todo concepto
am
rog mental es formulado por algún sistema de lenguaje únicamente aceptado por el propio
r
sP pensamiento. Las analogías postulan objetos del pensamiento a través de una secuencia
o
L
:a temporal, entonces buscarán un objeto real para comparar y esquematizar.
nue
alb Las metáforas son mayormente usadas en las artes (arte abstracto), y evocan argumentos
V metafóricos. En las analogías se examinan las cosas por sus causas y efectos, incluso se
na
im hipotetiza sobre su función, estableciendo relaciones con otras abstracciones. En cambio, en las
o
R metáforas visuales, no son necesarios las causas o sus efectos, mucho menos ameritan de
explicaciones, son más importantes para hacer entender sentimientos, padeceres o impresiones.

Denomínese analogía192 a una inferencia sobre si dos cosas convergen en cierto aspecto,
entonces probablemente también converjan en otros. La analogía se utiliza para persuadir;
permite transferir un mismo concepto a través de diferentes situaciones. Por ejemplo: un caudal
de agua es similar a una corriente eléctrica, por la primera circulan unidades denominadas gotas
compuestas de oxígeno e hidrógeno. En ese mismo orden, una gran cantidad de electrones libres
que circulan por un cable conductor conforman una corriente eléctrica. Ambos conceptos
presentan paralelismos transformándose en mecanismos de creatividad y descubrimientos

192 MIT Encyclopedia of Cognitive Sciences. Analogy, Concepto de: Véase. Incluye los conceptos y procesos de Mapping y Evaluación.
218

científicos. Es a través de los procesos de analogías cuando una representación abstracta pasa a
crear otra, una segunda categoría relacional.

Varios pasos son necesarios para crear analogías lógicas consistentes, el Mapping, proceso
mediante el cual se crea la estructura representacional de un caso y se le proyecta sobre otro. La

Evaluación, contiene dos sub-procesos más: la adaptación o representación y la abstracción. En


el primero se emparejan procesos análogos, en la segunda, se hace converger todo lo análogo en
una misma estructura. De manera que se aisle conceptualmente una o algunas propiedades del
objeto, cosa o materia sometida a análisis, logrando así conservar sólo lo que el científico
necesita, desechando todo aquello que no provea carga informativa.

.a 11.1.1.- El Conocimiento Abstractivo


tac
trs Se entiende por conocimiento abstractivo a aquel que prescinde de la realidad, hace caso
b
A
n omiso a ella mientras la cosa abstraída permanezca en el plano abstracto. Se le estima como un

ac tipo de conocimiento donde media la razón, es básicamente un conocimiento mediato alimentado
ig
st por la intuición. Según193 (Guerrero, 2002); el conocimiento abstractivo es mediato, no tiene que
ve
nI ver con la existencia de la cosa y se limita a formar proposiciones sobre las representaciones de
de
sa los objetos singulares en la mente, P.226.
am
rog Todo concepto científico es una abstracción, pues, permaneció escondido hasta se le extrajo,
r
sP aplicando intrincados protocolos operacionales del método de la ciencia. A este tipo de
o
L conocimiento se le deduce como la captación misma de la esencia de la cosa, el objeto abstraído
:a
nue queda momentáneamente en suspenso mientras se identifica su esencia, si es que la tiene, o si es
bl
a que existe. Para ello se prescinde de la existencia del objeto pero se opta por acudir a los
V
na sentidos. Nietzsche194 en uno de sus aforismos: Cuanto más abstracta sea la verdad que quieres
im
o enseñar, tanto más tienes que atraer hacia ella incluso a los sentidos.
R

193 Guerrero, Rafael. (2002). Historia de la Filosofía Medieval. Capítulo referido a: La Filosofía del Mundo Islámico. Ediciones Akal.
194 Más allá del Bien y del Mal.
219

11.1.2.- Clases Abstractas y Elementos Abstractivos

El conocimiento abstractivo genera clases abstractivas 195 , un conjunto de eventos es


denominado una clase abstractiva si (i): para cualquiera de sus dos miembros, uno se extiende
sobre el otro; y (ii): si no hay ningún evento que se extienda sobre cada evento de la serie. Quiere
decir, las clases abstractivas forman una serie en que el predecesor se extiende sobre el sucesor
sin término final (Intente construir sobre un cuadrado, una serie de cuadrados cada vez más
pequeños, uno dentro de otro, y observará que se extienden sin final).

El primer miembro de la serie tiene como parte a su sucesor y así indefinidamente.


Entonces un elemento de la serie no puede sino provenir de su antecesor y tener como parte a su
.a
tc sucesor. Esto evita la indiferenciación entre miembros de una misma clase, o miembros de la
ar
ts serie, como existe un orden, entonces existe una relación asimétrica. Para cada clase abstracta
b
A
n existe al menos un método abstracto, es decir, un método declarado para una clase particular.
ói
ca Este método para diferenciar clases declarado por Whitehead pertenece únicamente a las clases
gi
ts abstractas de la lógica matemática, no obstante, describe exactamente lo que pasa en el cerebro
ev
nI cuando la mente le sigue la pista a las ideas y las conforma. Es básicamente la génesis de toda
ed
sa idea científica.
ma
rg
or 11.1.3.- Acerca de los Niveles de Abstracción Científica
P
.aso Tanto la investigación abstracta como la exploratoria, se corresponden con los grados más
tacL
:
rtan altos y profundos de indagación científica jamás concebidos. Sobran razones para tal afirmación,
sAbe
ub
l se parte desde la nada y sin nada buscando nada en ninguna parte, sólo los vestigios de una
nóaV
icn presunción intuitiva a la cual se le sigue la pista. Hasta finalizar en algo haciendo uso única y
aga
itm exclusivamente de los mecanismos de la razón. Separando, clasificando y juntando ideas a través
seo
vnR de esquemas mentales y operacionales.
I
ed
sa Nada abstracto puede ni debe evocar percepciones, ya que, todo ente abstraído emerge de una
ma
rg realidad no concreta, carente de todo referente espaciotemporal y es el pensamiento, propio de la
or
P razón discursiva, quien construye y sintetiza aquello separado y que en un primer instante había
so
sido operacionalizado por la intuición.
L
:a
ne
ub Luego de que la intuición ha alimentado al intelecto, el agente científico en un primer
la
V momento hace uso de abstracciones reflexivas, es decir, un tipo de abstracción opuesta a toda
na
mi
o 195Tomado e interpretado desde: An Enquiry Concerning The Principles of Natural Knowledge. (2011). Dedicado a Eric Alfred Whitehead.
R Cambridge University Press. Véase También: Whitehead (1917). The Anatomy of Some Scientific Ideas. Revísese: Alfred North Whitehead.
Principia Mathematica (1910).
220

experiencia sensible, y así debe ser, donde el aprendizaje de lo abstraído se extiende hacia un
plano superior de pensamiento. En la abstracción reflexiva el sujeto es capaz de desintegrar las
propiedades particulares de un objeto mental dando formas y contenido a cada uno, habiendo
buscado en los lugares más oscuros de la conciencia.

11.1.3.1.- Investigación Abstracta Grado I: La Física Naturalista.

Primer Grado de Abstracción: La Física. Para cada nivel de abstracción se corresponden


diferentes niveles de representaciones mentales. Quiere decir, diferentes habilidades del
pensamiento para representar cambios y transformaciones. El primer grado se corresponde con la
física o ciencia natural, allí aparecen nociones donde el científico captura, junta o desintegra,
.a todas las propiedades de los objetos purificados en materia. Separadas las partes, se estudian sus
tac
trs individualidades lejos de las propiedades de la materia, en ese punto transforma percepción en
Ab
información siguiendo esquemas y procesos de visualización.
nió
ac En este nivel a todo objeto o ente abstraído, puesto aparte, se le despoja de todas sus
ig
st
ve propiedades espaciotemporales características de la física, pero al que se supone el ser. En una
nI investigación abstracta de grado I los abstractos son ontológicamente admisibles, a saber, si la
de
sa verdad de sus proposiciones admiten su existencia pueden ser insertados en una teoría científica.
am
rog
11.1.3.2.- Investigación Abstracta Grado II: La Matemática.
r
sP
o En la investigación abstracta de segundo grado se prescinde de toda materia sensible y se
L
:na
estudia la cantidad, al ente o quantum. Es el nivel donde se desarrolla La Matemática. Es donde
ue
alb el entendimiento logra trascender a todo conocimiento de los sentidos, a saber, el científico hace
V
na presente otro nivel de profundidad. Allí omite cualquier aspecto de la cosa que no refiera a una
im cantidad. El primer grado de abstracción amerita de los sentidos, el segundo no.
o
R
La primera abstracción, según la primera operación de la mente de Santo Tomás de
Aquino196, se trata de una abstracción lógica dirigida a la esencia de la cosa. La segunda
operación de la mente se trata de una abstracción real, pues se centra en la existencia de la cosa,
sin ente ni materia. El mismo Santo Tomás afirma que de acuerdo al objeto cognoscible la
abstracción se divide en dos: i) según la primera operación de la mente, es incoada e imperfecta.
ii) según la segunda operación de la mente, es acabada y perfecta. Quiere decir, la abstracción en
general consiste en una operación síquica mediante la cual se llega a conocer una cosa sin
alcanzar a conocer otra cosa a la que se encuentra unida. Cuando se habla de abstracción pura,
este segundo grado es el más extremo.

196 (Beuchot, Introducción a la Filosofía de Santo Tomás de Aquino, 2000). Teoría del Conocimiento → El Realismo de Santo Tomás. Véase.
221

Pues es en este nivel donde debe prestarse cuidado al deslinde entre los elementos que
componen o acompañan a la cosa, el científico ha de poseer bien definidos criterios para
deslindar al objeto real construido o separado en su mente, de la cantidad y su número. Y el
objeto lógico matemático construido dentro de la abstracción.

11.1.3.3.- Investigación Abstracta Grado III: La Metafísica.

El grado más alto de la visión intelectiva que puede proyectar un ser humano se corresponde
con el Nivel Metafísico. Allí el objeto está libre de cualquier referencia intrínseca, por cercana o
lejana que se considere a los sentidos e incluso a la imaginación. Lo que allí se concibe no puede
ser percibido ni imaginado. Pero la inteligencia admite la captura intelectiva de lo inobservable.
.a Según la clasificación de (Chakravartty, 2007), inobservables son todas aquellas entidades o
tac
trs procesos que no pueden ser observados.
b
A
nió No obstante, lo inobservable se divide en dos sub conjuntos, lo detectable y lo indetectable.
ac Los primeros son todas aquellas entidades o procesos que no son observables, pero que pueden
ig
st
ve detectarse haciendo uso de instrumentos. Lo indetectable, como segunda categoría, agrupa a
nI todas aquellas entidades y/o procesos que no son ni observables ni detectables, pero que cuya
de
sa existencia por si mismas sirven para apoyar explicaciones emanadas desde teorías científicas.
am
rog
11.2.- Intuición, Abstracción y Descubrimiento Científico
r
sP
o Robert Hooke en 1665 descubre la existencia de células (Investigación Abstracta de Grado
L
:a
nue I), la unidad básica de anatomía. Permitiéndoles de esta manera a los biólogos, entender mejor el
alb funcionamiento de los organismos vivos. Hooke intuyó y luego abstrajo la idea de la existencia
V de algo, basado en el hecho de que si en el universo existían cosas inmensamente grandes, dentro
na
im del cuerpo humano debiesen existir también cosas pero mucho más pequeñas. Si Galileo con su
o
R telescopio pudo observar planetas, un instrumento parecido le permitiría ver cosas diminutas. Así
fue como usó al microscopio para la observación dentro de la estructura del cuerpo humano.

Benjamín Franklin en 1746, sospechaba que la estática y la iluminación eran dos formas
distintas de la misma cosa. Su experimento de la electricidad, basado en ideas abstractas y
conjeturas observacionales, consistió en una de las más famosas aplicaciones de este tipo de
Investigación Abstracta.

Cuyo resultado, en 1752 develó la verdadera naturaleza de la electricidad. En 1790, Benjamín


Thompson, descubre la naturaleza del calor. En 1846, William Thomas Morton, dentista
estadounidense junto a otro científico, sintetizó las funciones del óxido nitroso y el éter etílico
222

para ser usados en una operación. Allí observaron la ausencia de dolor en el paciente, posterior al
suministro de un éter derivado de la combinación previa. Se había hecho efectivo el
descubrimiento de la Anestesia197.

11.3.- Ciencias Abstractas y Ciencias Concretas

Las Ciencias Abstractas198 operan con conceptos equivalentes de modo bajo los cuales la
facultad de percibir discrimina objetos. Las concretas asimilan sus conceptos introduciendo los
contenidos de la percepción en el objeto. Ambas parten de las percepciones: <<Sensación –
Impresión y almacenamiento de los impreso>> Las Ciencias Abstractas se edifican a través de
los modos de percepción. Las concretas se direccionan sobre el contenido de lo percibido. Ahora,
.a los dos modos bajo los cuales el científico percibe y separa o discrimina impresiones de los
tc
ar sentidos son: tiempo y espacio.
ts
b
A
n Las ciencias abstractas subsumen, en general, con relaciones de discriminación, aplicando por
ói
ca igual tiempo y espacio sin centrarse en el modo de percepción. No obstante, y según la
gi
st Clasificación de Spencer, el lenguaje de las ciencias abstractas ha de identificar el cómo, el
ve
nI espacio y el tiempo son pensados, pues, allí no siempre hay una encarnación concreta de
de
sa cualquier cosa sobre la que se haga referencia.
ma
rog Entonces, la relación general de discriminación puede ser cualitativa o cuantitativa. Si se
r
P especifican solo cualidades y se les interpreta serán entonces cualitativas. Caso contrario, al
so
L operar con las cuantitativas se ha optado por hacer uso de la lógica y las matemáticas, allí se
:na
ue discuten y descubren leyes para las cuales se identifican y discriminan cosas, o comúnmente
alb
como se les denomina, leyes del pensamiento. El espacio y el tiempo guían al científico hacia la
V
na concepción de cantidad y número, entonces, existe una amplia gama de Ciencias Abstractas que
mi
o operan con cantidades y números. Sobre la existencia del espacio y el tiempo Spencer alega199:
R

Ya sea como algunos sostienen, Espacio y tiempo son formas de pensamiento;


o como yo sostengo, son las formas de las cosas, que se han convertido
formas de pensamiento a través de la experiencia organizada y heredada
de cosas; no es menos cierto que el espacio y el tiempo son contrastados
absolutamente con las existencias reveladas a nosotros en el espacio y el tiempo;
y que las ciencias que se ocupan exclusivamente de espacio y tiempo,
están separadas por la más profunda de todas las distinciones de las Ciencias
que se ocupan de las existencias que contienen espacio y el tiempo. Espacio
es el resumen de todas las relaciones de convivencia. El tiempo es el resumen

197 Todos estos descubrimientos son detallados en: Kendall Haven (2007). 100 Greatest Science Discoveries of All Time. Véase.
198Parte del contenido de esta sección fue extraído, adaptado y reinterpretado desde: Karl Pearson. (1900). The Grammar of Science.
Especialmente el Capítulo XII: Spencer´s Classification. Véase También: David Hume. (1739). Treatise of Human Nature. Section VII: Of
Abstract Ideas.
199 Esta cita aparece en Pearson Op. Cit. P. 511.
223

de todas las relaciones de secuencia. Y tratar como lo hacen en su totalidad con


las relaciones de convivencia y la secuencia en su general o especial
formas, Lógica y Matemáticas conforman una clase de las Ciencias más
ampliamente diferenciada del resto, que cualquiera de las demás puede provenir de la
una o de la otra.

Esta nota presenta una clara distinción entre la realidad fenoménica de espacio y tiempo,
contra su modalidad perceptual y sus concepciones equivalentes. Nociones conceptuales de
espacio geométrico y tiempo absoluto. Entonces, asúmase al espacio y el tiempo como formas de

percepción abstracta dignas de ser usadas en una investigación del mismo tipo. Abstraer en
ciencias es sencillamente apreciar el cómo nuestro cerebro se deleita con nuestro intelecto, es
encontrar lo que no existe buscando en ningún lugar. La abstracción puede proporcionar piedras
.a de tropiezo para la gente con inteligencia extraña. Gustave Flaubert.
tac
trs
Ab
n

ac
ig
st
ve
nI
de
sa
am
rog
r
sP
o
L
:na
ue
alb
V
na
im
o
R
224

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XII: LOS


PROGRAMAS DE
INVESTIGACIÓN
COMPARATIVOS…

La ciencia puede haber encontrado una cura para la mayoría de los males; Pero no ha
encontrado remedio para el peor de todos: la apatía de los seres humanos.

Helen Keller.
225

12.1.- Los Programas de Investigación Comparativos

La ciencia camina hacia adelante en dos pies llamados teoría y


experimento, pero el progreso continuo sólo se logra si se usan
ambos. Entonces, el propósito de la ciencia es desarrollar, sin
prejuicio o preconcepción de algún tipo, un conocimiento de
los hechos, las leyes, y los procesos de la naturaleza.

Robert A. Millikan200.

eel cual se
de por
entiende
función similitudes
consigue lay/o
Programa separación
de de Posterior
diferencias. dos Comparativo,
Investigación o mása laelementos
separación,
o se
al procesoprocede
y se
entonces
científico
grupos, indaga
mediante

S
la acción inmediata de aislar características, propiedades, magnitudes o cantidades que puedan,
en
con

por independencia entre los ítems, sufrir cambios individuales y por tanto ser objeto de
observación, medición, descripción, análisis, contraste, hipotetización, explicación, inferencia y
teorización.

Un programa de investigación comparativo bien concebido desde el punto de vista lógico,

requiere que los grupos a comparar manifiesten los mismos problemas o fenómenos. Si bien es
cierto, las unidades comparadas podrán pertenecer a conjuntos, clases o dimensiones diferentes,
al menos una unidad descriptible, analizable y explicable de cada uno ha de ser expuesta y sobre
la cual se ejecutará el estudio.

Comparación es simplemente una figura retórica mediante la cual se identifica a dos o más
elementos y se les clasifica solo por presentar y compartir como mínimo, una característica
común. Los Programas de Investigación Comparativos podrán adquirir al menos las siguientes
dos dimensiones, de tipo transversal y del tipo longitudinal. El primero consiste en un estudio no
evolutivo donde se confrontan las manifestaciones o fenómenos de la unidad puntual de interés
haciendo un corte perpendicular sobre el escalonado historial del evento.

El segundo, consiste en un tipo de indagación donde se amerita de datos históricos de


evolución del fenómeno, de su comportamiento. Contrario a los estudios transversales, aquí se
toma un inicio de la serie y un fin de la misma, es decir, una cronología de una secuencia de
datos, considerando en algunos casos, la división por segmentos que serán sometidos a contraste
buscando encontrar razones que justifiquen ciertos cambios evolutivos de diferenciación entre
las unidades.

200Robert Andrews Millikan. Físico Experimentalista Estadounidense. En 1909 desarrolla su muy famoso Experimento de la “Gota de Aceite”,
su objetivo era determinar la magnitud de la carga de un electrón. Allí también determinó la existencia de pequeñas unidades de carga que pueden
ser cuantificadas. Este trabajo le mereció, en 1923, el Premio Nobel de Física.
226

Un estudio de diseño evolutivo podrá hacer uso o no, de series de tiempo201, con ellas se
alcanzará un entendimiento más profundo del fenómeno observado, además de permitir avanzar
en el conocimiento generando nuevas visiones y desarrollando nuevas teorías. Como un

programa de investigación comparativo se ejecuta sobre unidades que conllevan cierta


homogeneidad y patrones de similaridad o diferencia, entonces sus unidades de estudio han de
estar suficientemente correspondidas con sus contrapartes, las unidades de comparación.

Para ello será necesaria la definición explicita, sin ambigüedad alguna, de la pregunta de
investigación. De la selección de comparadores y niveles de análisis, así como del tipo de
explicación a emplear y la generación de inferencia a partir de lo explicado (interpretación).
.tivos
Todos estos pasos operativos involucran a un cuerpo de conocimientos con conceptos nuevos a
ar usarse dentro de los programas de investigación comparativos, a continuación los describo:
a
p
mo 12.1.1.- Axioma Comparador
C

ic Premisa o postulado que justifica algo en función de razones y se asume será aceptado como
ag
it principio particular en la estructura comparativa. Por ejemplo, si se está cotejando Calidad
sve
nI Educativa entre Países, existe un conjunto de normas establecidas por la UNESCO que han sido
de
desarrolladas luego de minuciosos estudios y de los cuales se han derivado reglamentaciones. Se
sa
ma considerarán válidas entonces para investigadores internacionales su uso.
rog
r Para las ciencias naturales un axioma comparador tendrá forma de ley natural dependiendo
P
so del nivel de universalidad a la que pertenezca. Por ejemplo, la ley de la gravedad es universal, y
L
:na será considerada axioma comparador cuando las investigaciones requieran de inferencias acerca
ue de los porqués, al comparar dos cuerpos en caída libre, estos caen con la misma aceleración de
alb
V gravedad.
na
mi 12.1.2.- Unidad Comparadora
o
R
Consiste en un ítem reglamentado para todos los elementos pertenecientes a similares
conjuntos. Unidad usada en las comparaciones pero independiente de éstas. Por ejemplo, la

relación talla – peso de niños entre 2 a 4 años nacidos en Venezuela: un niño de 3 años debe
medir entre 101,3 cm máximo y 87,3 cm mínimo; y pesar entre 16,90 kg máximo y 11,04 kg
mínimo. Con un rango de talla de 14 cm y un rango de peso de 5,86 kg.

Una unidad comparadora no consiste en un axioma comparador para ciertos casos, pues para

201 Una serie temporal es una sucesión de observaciones de una variable tomados en varios instantes de tiempo. Tales observaciones han de ser
ordenadas y equidistantes con características de univariabilidad o multivariabilidad. Un análisis de series de tiempo consiste en un método que
intenta definir el cómo una serie temporal puede hacer predicciones.
227

America latina la relación talla peso es diferente que para Europa, Asia, America del Norte o
África, por presentar características particulares cada escenario. Por tanto, es posible, basado en
estos índices, ejecutar comparaciones de otros países con Venezuela, con diferente relación talla

– peso y disímil rango.

La relación talla – peso consiste en la unidad comparadora, conjunto que agrupa al menos
dos elementos, talla y peso (unidades comparadas). La relación funge como conjunto cuyos
sub-conjunto son las unidades comparadas. Ahora bien, la diferencia, tanto de talla como de
peso, no podrá ser tomada como varianza ya que no cumple hasta el momento sus requisitos, si
bien es una medida de amplitud, de variabilidad o dispersión, adquirirá el nombre estadístico
.tivos
pertinente en la inferencia. Si las unidades comparadas tienen el mismo punto de origen y su
ar propagación longitudinal obedece a una línea recta, entonces la separación entre los dos vectores
a
p recibirá el nombre de Ángulo Comparador.
mo
C
nó 12.1.3.- Ángulo Comparador
ic
ag
it Se conoce como a la separación entre dos variables o unidades comparadas cuando en un
sve
nI estudio longitudinal o transversal de al menos dos medidas, una se proyecta sobre la otra
e ocasionando una amplitud de rango angular más o menos grande. A medida que el ángulo
sd
a
am comparador sea más pequeño, mayor similitud tendrán las unidades comparadas, pues sus
rog pendientes tienden al equilibrio, o viceversa. Refiérase a la gráfica.
r
P
so
L
:na
Variable 1
ue
alb Variable 2
V
na
oim Ángulo entre variables
R

Explicación del Concepto Ángulo Comparador


228

Si se observa bien en la gráfica, a partir del punto 1,1 en el eje “Y” las rectas se cruzan. Allí
hay similitud absoluta. En un estudio transversal donde al menos dos de las unidades comparadas
se comporten de manera lineal, el ángulo de separación entre ellas marca una tendencia a la

diferencia. Tal divergencia debe ser aclarada en la explicación. A mayor ángulo mayor
diferencia, a menor ángulo mayor similitud. De presentarse el caso, el procedimiento explicativo
involucrará entonces un cierto componente causal, es decir, por qué si en un momento hubo
similitud absoluta, tenían los mismos valores, se observa ahora marcada tendencia hacia la
diferencia.

12.1.4.- Unidad Comparada/Comparable


.tivos

ar Ítem específico para una categoría, clase, conjunto o elemento. Hace referencia a la mínima
a unidad de análisis en el estudio y la cual se contrasta contra otra/s.
p
mo
C

ic Unidad Unidad
Comparadora 1 Comparadora 2
ag
it Relación Talla -Peso Relación Talla -Peso
sve
nI
e Comparable
Unidad
Talla Comparable
Peso
Unidad Unidad Unidad
sd Comparable Comparable
a Talla Peso
am
rog
r
P Modelo de un Esquema Delimitativo de Unidades Comparadoras y
so
Comparables para dos grupos
L
:na
ue
12.1.5.- Desviación Relativa
alb
V
na Desviación, en términos de unidades numéricas, de lo facto vs. lo reglamentado. Consiste en
oim una distancia entre un suceso cierto y un suceso reglamentado. De las similitudes contra las
R
diferencias. Se entiende de esta manera ya que cuando se ejecuta una investigación comparativa,
y se definen sus unidades comparables, éstas no siempre pueden ser operacionalizadas como
variables de razón o intervalo para poder usar el estadístico desviación estándar, a menos que, la
distribución de los datos lo admita.

Éste, por ser una medida de dispersión para un conjunto de datos que difícilmente se obtenga
de una sola observación al comparar, y donde tampoco existe la unidad denominada media
aritmética por el mismo motivo expuesto, entonces será mejor no asignarle denominaciones
estadísticas hasta que los objetivos de conocimiento sean transformados en objetivos estadísticos
229

para la acción y desarrollo en sí de la investigación. No obstante, para estos casos se recomienda


el uso de tablas comparativas.

12.1.6.- Comparación Interclases

Es el proceso mediante el cual se comparan o contrastan, elementos de una misma clase,


categoría o conjunto. Su objetivo es encontrar similitudes y/o diferencias para unos mismos
elementos dentro de una misma clase. Tal proceso se lleva a cabo dentro del análisis crítico de la

estructura del sistema comparado.

.tivos 12.1.7.- Inferencia Intraclase

ar Inferencia interna a la clase. Inferencia acerca de los porqués una unidad comparable difiere
a de otra aun cuando pertenecen a la misma clase, categoría o conjunto. Se constituyen como la
p
mo
C estructura paramétrica y procedimental mediante la cual se comparan juicios o ideas individuales

ic y se discierne sobre ellas, derivándose de esta manera en un desenlace que no hubiese sido
ag posible sin las relaciones especiales observadas en las premisas aceptadas. Según la teoría de
it
sve
conjuntos, un género puede contener varias especies, y éstas podrán presentar diferencias entre
nI
e ellas aun cuando sean cubiertas por el mismo género.
sd
a
am Preste atención a este ejemplo derivado de las categorías taxonómicas: [reino → animal];
rog
[tipo → vertebrados]; [clase → mamíferos]; [orden → primates]; [familia → homínidos];
r
P
so [género → homo]; [especie → homo sapiens]. Entonces, una inferencia intraclase ha de presentar
L esclarecimiento al porqué dos homo sapiens, si pertenecen a la misma especie, presentan leves o
:na
ue marcadas diferencias. O con respecto a los mamíferos dentro de los vertebrados. Es un hecho
alb
cierto la no existencia de conocimiento sin discernimiento, el comparar dos ideas es discernir,
V
na entonces una inferencia intraclase se basa en el discernimiento entre observaciones particulares.
oim
Y se obtienen posteriores a las Comparaciones Intraclase.
R

Modelo esquemático para Inferencias Intraclase de sólo 5 categorías


230

12.1.8.- Comparación Extraclase

Aquí se siguen los mismos pasos de la comparación intraclase. No obstante, se contrastan


elementos de clases, categorías o conjuntos diferentes. Se buscan similitudes y/o diferencias
entre dos o más especies/elementos.

12.1.9.- Inferencia Extraclase

Si son aves, ¿por qué no todas vuelan? ¿Será porque no todas pertenecen a la misma especie?
Inferencia acerca de los porqués una cosa es igual a otra aunque pertenezcan a clases, categorías
.tivos o conjuntos diferentes. Las inferencias Intra y Extraclase se sobrevienen como resultado
aportados por los análisis críticos, estudios matemáticos o probabilísticos de la estructura del
ar
a sistema comparado. Una inferencia extraclase es resultado de una comparación extraclase.
p
mo
C 12.2.- Inferencia Causal Comparativa

ic
ag Una inferencia consiste en un proceso discursivo generado por el científico y mediado por su
it
sve razón, donde se asume han sido eliminadas todas las hipótesis implausibles, aceptando sólo a
nI aquellas con mayor grado explicativo y de confirmabilidad basadas en el principio de la
de
sa evidencia. Una inferencia está en la obligación de responder al cómo y bajo qué condiciones se
ma establecería significancia a una serie de datos.
rog
r Por consiguiente, entiéndase como Inferencia Causal Comparativa al conjunto de elementos
P
so
L y/o evidencias, que posterior a la aplicación de mecanismos propios de la investigación
:na
pertinente, han hecho posible la derivación de consecuencias acerca de los porqués, siempre que
ue
alb se sucedan las mismas causas, se siguen los mismos efectos. O, el estudio de los porqués, si las
V causas son las mismas, ciertos efectos son diferentes, lo cual ameritará de un conjunto de
na
mi explicaciones que esclarezcan la conexión necesaria y suficiente que hace que tal efecto sea
o
R consecuencia de determinada causa. Es menester dejar claro, si el diseño no se corresponde con
una investigación causal explicativa no es necesaria una inferencia del mismo tipo.
Contrariamente, si el diseño es netamente observacional, simples descripciones bastarán para dar
a conocer los resultados, aunque, como he venido sosteniendo, una descripción sin explicación
está vacía.

Una Inferencia Causal del tipo Comparativa centra su atención en la causa de las diferencias
o similitudes, no en la extraña fuerza (Causa) que hace producir cambios (Efectos), y donde será
posible el uso de abstracciones o analogías que abran el paso al entendimiento de las diferencias
o similitudes buscadas. Las explicaciones comparativas son propias de inferencias del mismo
231

tipo, una explicación de esta índole abre paso al conocimiento comparativo, un tipo de
conocimiento abstracto derivado de la separación mental de características particulares de entes
que manifiestan gran similitud. A partir de allí, se da apertura al entendimiento y la comprensión
de los porqués se evidencia la presencia de similitudes o diferencias entre los elementos
analizados y circunscritos a determinado universo de similaridad.

En diseños experimentales a un enfoque muy similar al causal comparativo se le denomina


<<Diseño Ex post Facto>> Ejemplo: el hecho de bombardear con rayos “x” ciertas estructuras
genéticas ha demostrado la aceleración de mutaciones, provocando cambios sustanciales en las
Moléculas de Ácido Nucleico. Ahora, si siempre se ejecuta el bombardeo con rayos “x” a la
.tivos
misma intensidad, y a las mismas estructuras genéticas, ¿por qué la mutación difiere?
ar
a
p 12.2.1.- Análisis del/los Sistema/s Comparado/s
mo
C En este aparte definiré como análisis, a un procedimiento del pensar donde el científico hace

ic comparecer ante su inteligencia, todos y cada uno de los elementos contenidos dentro de un
ag
it conjunto mayor. Su objeto consiste en dar inicio a una concatenación sistemática de procesos
sve
nI aislatorios con el fin de extraer unidades últimas e indivisibles y someterlas a rigurosas
e observaciones buscando similitudes y/o diferencias. A mi manera de ver, las investigaciones
sd
a
am puramente analíticas, al igual que las descriptivas, carecen de sentido con respecto a los
rog objetivos de la ciencia. La una y la otra sólo sirven de soporte al contexto explicativo ya que
r
P
so ninguna tiene poder demostrativo. Ni la descripción ni el análisis admiten manipulación, por
L ende, cualquier hipótesis que desde estos niveles se desprenda, ameritará de procedimientos
:na
ue externos para su dilucidación.
alb
V A un sistema por su lado, se le entiende como aquel todo unificado que contiene a los
na elementos que serán blancos de observación en el análisis. Un análisis del sistema comparado no
oim
R podrá aplicarse cuando la categoría bajo estudio sea superior al método analítico, si ello sucede,
el científico ha de hacer gala de sus destrezas y optar por incrustar tal sistema en un método que
le admita el uso de una categoría de estudio de nivel superior.

En ningún estudio analítico es posible la manipulación o ejecución de acciones, sólo se admite


la observación. En el proceso se descubrirán vínculos y jerarquías, para cada una se crearán
conceptos, se determinarán niveles de análisis y se optará por ciertos mecanismos de acción. La
comparación como juicio mental, adquiere dimensiones de omnipresencia, quiere decir, no existe
la identificación precisa de objeto alguno si antes no se ha ejecutado un proceso comparativo en
el inconsciente.
232

Al igual que la identificación de patrones, tales mecanismos de acción se orientarán a separar


diferenciando la naturaleza e implicación de la pertenencia de los ítems comparados con el
mismo sistema. Procederá también con la ejecución de clasificaciones agrupando en conjuntos y
la unión basada en criterios como forma de entender diferencias y/o similitudes. La secuencia del
análisis debe presentar cierta elegancia lógica y alcanzar el siguiente encadenamiento:

Fase pre-analítica, aquí se definirá el axioma comparador; se clasificarán las unidades


comparadoras; se caracterizarán sus unidades comparadas/comparables dentro de las unidades
comparadoras. Se ejecutará el proceso comparativo, cuya primera fase analítica se fundamenta
en identificar la fuente de variación, puntuación, medidas o valores que oscilan inestablemente
.tivos
como propiedad de una variable, y localizable a través de un determinado número de casos.
ar
a Fase Pre - Analítica
p
mo Axioma Comparador → Se Define
C Unidades Comparadoras → Se Clasifican
nó Unidades Comparables → Se Caracterizan
ic
ag
it La segunda fase analítica en un estudio comparativo recae sobre la ejecución de las
sve
comparaciones descriptivas, allí se busca el establecimiento del grado de similitud y/o diferencia
nI
e
sd entre dos o más unidades comparables. Y, posterior al cotejo prudente y necesario, se identificará
a la desviación relativa observada. Se ejecutará entonces, una tercera fase analítica, allí se
am
rog someten las unidades de estudio a observaciones rigurosas posterior al cotejo de una serie de
r estados manifiestos e interacciones que arrojarán evidencias sobre la presencia de patrones
P
so
L complejos de interacción estadística. Como las observaciones han sido registradas cuidadosa y
:na
cronológicamente, además se han descrito las relaciones subyacentes acaecidas y espaciado por
ue
alb intervalos ciertos eventos atípicos, entonces ya se dispone de datos suficientes para alimentar la
V cuarta fase analítica.
na
oim Una cuarta fase analítica se hará presente cuando se seleccionen tanto el tipo de explicación
R
a usar, como el patrón explicativo a seguir. Se corresponde con la etapa donde se establecen
relaciones basadas en los datos aportados desde la fase descriptiva, de manera que ya los estados
manifiestos y la evidencia de patrones son conocidos, a partir de allí se les someterá a los estudio
estadísticos pertinentes y se derivarán inferencias causales explicativas en caso de su existencia,
recuerde que si no existe variación ninguna explicación será posible.

Un estudio comparativo netamente observacional como el que hasta aquí propongo, se basa
únicamente en ejercicios inductivos. Entonces, explicaciones deductivas raramente tendrán
cabida en este escenario. El científico optará por el modelo explicativo que mejor se adapte a sus
necesidades: explicaciones puras; probabilísticas; genéticas; funcionales, y en último caso de
233

presentarse, alguna condición de Inexplicabilidad. Esto posterior se sucede cuando los hechos no
pueden ser satisfechos por el conjunto de mecanismos usados para explicarlos, evidenciando la
existencia de vacíos de conocimiento imposibles de cubrir. La quinta fase analítica vendría
entonces representada por la generación de teorías explicativas y predictivas sobre el fenómeno
dilucidado.

Fases Analíticas
Fase 1 → Identificación de Fuente de Variación
Fase 2 → Comparaciones Descriptivas
Fase 3 → Establecimiento de Relaciones
Fase 4 → Tipos de Explicación y Patrón Explicativo
Fase 5 → Teorías sobre lo observado
.tivos Fases de una Investigación Comparativa

En el encadenamiento previo debe prestarse atención los siguientes indicadores: la data bajo
ar
a estudio ha de poder ser comparada <<comparabilidad de la data>> criterio de suma importancia
p
mo
C y excluyente pues, comparar significa describir variables. La comparabilidad lógica refiere, en
nó gran medida, al nivel de medición de las variables o al tipo de distribución estadística que los
ic
ag datos manifiesten, preferiblemente, la segunda opción. Explico, las variables nominales y
it
sve
ordinales son las ideales para la ejecución de los programas de investigaciones comparativos, las
nI
e primeras son aquellas que son descritas por sus integrantes pudiendo presentar en muchos casos
sd
a distribuciones binomiales, presencia o ausencia del atributo.
am
rog
Las segundas se caracterizan por representar a una categoría e identifican a un subgrupo de
r
P pertenencia basado en un orden lógico, por medio de ellas también son fácilmente detectables
so
L relaciones de igualdad o desigualdad, incluso permiten evidenciar si una categoría es mayor o
:na
ue menor a otra. Las de intervalo representan unidades de magnitud y distancia. Mientras que las de
alb
razón son similares a las de intervalo solo que carecen de cero absolutos, es decir, una medida
V
na cero significa ausencia de medida real, aquí el problema surge al intentar comparar un valor
oim existente y cierto, contra uno de valor cero.
R
Sobran entonces razones para afirmar que debe prestarse cuidado en no mezclar, sin

conocimiento estricto de lo que se hace, este tipo de variables con sus correspondientes
distribuciones estadísticas, ya que sus medidas se realizan de manera diferente, dificultando los
análisis pertinentes, las explicaciones resultarían ilógicas y haría imposibles las inferencias.

Fusionar al menos dos medidas de variables diferentes es como intentar medir temperatura con
un vernier.

Otro indicador a prestar atención es a la equivalencia entre conceptos, quiere decir, ha de


existir similitud entre los conceptos que definen a cada unidad comparable, conceptos
234

interrelacionados pero dentro del mismo universo de comparabilidad. Por ejemplo, el concepto
de “molécula” es el mismo para la física y la química, pero difieren en su uso y aplicación
(ejemplo claro la física molecular). Además, se considera absolutamente obligatoria la presencia
de similitudes tanto en medidas como en sus escalas. Así como, de los tipos de relaciones
observadas. Un concepto consiste en una unidad de pensamiento, una idea, y se hace presente en
los análisis post observaciones. En la conformación de su estructura es de vital importancia los
elementos sintácticos (símbolos usados) y su semántica (qué significan tales símbolos),
atendiendo siempre a que la función de un concepto es aportar al conocimiento.

Dentro del contexto explicativo ha de hacerse mención a ciertas similaridades funcionales,


.tivos
cuando varía la misma característica (sobre todo cuando se opta por el uso de la teoría del
ar mecanismo como esquema explicativo), si no son posibles de manera directa podrán usarse
a
p analogías. Durante el estudio y debido a características oscilatorias de los fenómenos, un patrón
mo
C variable se hará presente, si varía la misma característica entonces existe similaridad funcional

ic como ya se ha mencionado, si no lo hace, entonces existe la presencia de diferenciación entre las
ag
it variables.
sve
nI Por último, si la variación de uno o más fenómenos se sucede conjuntamente a lo largo de
e
sd
múltiples observaciones, entonces es indudable que hay al menos una ley matemática que rige y
a
am gobierna sus estados. Recomiendo, si se está en presencia de un estadio no avanzado del estudio,
rog
ejecútense los procedimientos prescitos en el capítulo de la identificación de patrones y
r
P
so generación de teorías, ya que, es menester identificar el modelo matemático que lía y rige los
L
:na estados de tales unidades fenoménicas.
ue
alb 12.3.- El Método Causal Comparativo
V
na
Ciertas interrogantes han de ser contestadas antes de abordar los diseños bajo el método
oim
causal comparativo: ¿el método causal comparativo investiga causas y efectos?, Si. ¿Manipula
R
variables?, No. ¿Asigna aleatoriamente a los participantes a los grupos?, No, los grupos son
formados intencionalmente y a priori para el estudio. ¿Envuelve a grupos de comparación?, Si.
¿Estudia grupos o individualidades?, estudia dos o más grupos de individualidades con una
variable independiente202.

Según (Salkind, Encyclopedia of Research Design, 2010), un diseño de investigación causal


comparativo consiste en un diseño que busca encontrar relaciones entre variables dependientes e
independientes luego de que la acción del evento ha ocurrido. El objetivo consiste en determinar

202 Salkind, Neil. (2010). Encyclopedia of Research Design. Causal Comparative Design. Véase.
235

si la variable independiente ha influido en el resultado y/o comportamiento observado de la


variable dependiente, a través de la comparación entre dos o más grupos de individuos. Conviene
advertir las cercanas similaridades y diferencias entre los estudios causales comparativos, muy
comúnmente denominados también estudios ex post facto, con los correlacionales y los
experimentales.

En cierto sentido, el lector debe estar claro sobre qué diseño elegir a la hora de ejecutar su
estudio. De allí que se expongan éstas similitudes y diferencias. Las principales similitudes entre
los estudios causales comparativos y los correlacionales, radican en que sus diseños intentan

determinar relaciones entre variables, pero a ninguno se les permite manipulación. Dejando en
.tivos
entredicho, una verdadera demostración de la relación causa efecto. Alega Salkind Op. Cit, la
ar real existencia también de algunas disimilaridades entre éstos diseño.
a
p
mo En los causales comparativos se investigan las relaciones entre variables a través de la
C
nó comparación de dos o más grupos de individuos. Mientras que en los estudios correlacionales se
ic
ag trabaja con un solo grupo de individuos, pues no amerita de comparación alguna con otro grupo.
it
sve Examinando los efectos de una o más variables independientes sobre las dependientes con el
nI mismo grupo de sujetos.
e
sd
a Puesto que los estudios causales comparativos tienden a ser similares a los diseños
am
rog experimentales, también se advierten algunas semejanzas y diferencias entre ellos. Ambos, el
r causal comparativo y el experimental, paralelamente, hacen comparaciones entre dos o más
P
so
L grupos de sujetos. Allí sus unidades de análisis son comúnmente divididas en grupos donde el
:na
foco de estudio se centra en la observación de la variable independiente. Al diseño experimental
ue
alb se le permitirá la selección aleatoria de los sujetos a los grupos y puede asignar sujetos a los
V diferentes niveles de la variable independiente. Mientras que el diseño causal comparativo no
na
oim podrá hacerlo y deberá trabajar con los grupos que intencionalmente y a priori, eligió para el
R estudio.

Ambos diseños, causal comparativo y experimental, se asemejan cuando persiguen


determinar si los efectos sobre la variable independiente se manifiestan de alguna manera sobre
la variable dependiente. En los estudios causales comparativos el investigador hace observancia
de los efectos y luego persigue la determinación de las causas. Contrariamente, en los diseños
experimentales, el investigador crea la causa (estímulo) y la aplica sobre dos grupos diferentes
seleccionados aleatoriamente (de control y experimental), para luego observar si el estímulo
aplicado generó alguna diferencia sobre la variable dependiente medible en los grupos.
236

Otra diferencia radica en que el diseño causal comparativo es una investigación que se sucede
posterior a los hechos <<Ex Post Facto>>, adquiriendo la forma de un estudio retrospectivo
partiendo desde lo observado, efecto, hasta lo no observado, causa. Es decir, la investigación
tendrá lugar luego de que los grupos han sido formados y las condiciones se han dado. Además,
el diseño causal comparativo no puede diseñar los tratamientos (imposibilidad de manipulación)
que el experimental sí puede.

Luego de estas consideraciones bien tiene cabida la pregunta: ¿Cuál diseño es mejor?, la
respuesta correcta radica en el hecho cierto de la no existencia de uno mejor que otro, todo
dependerá de lo que se manifieste en la pregunta de investigación; del tipo de distribución
.tivos
estadística que sus datos manifiesten; de la dirección que tomen los objetivos de la investigación
ar y de la necesaria actuación de los objetivos estadísticos con sus correspondientes pruebas. Si no
a
p es posible la manipulación directa de la variable independiente, la experimentación no tiene
mo
C cabida. A continuación se presenta un organigrama lógico para el método causal comparativo:

ic
la
ag Desarrollo de
Pregunta de
it Investigación
sve
nI
e
sd Determinación de
las variables
a dependientes e
am Emparejamiento
independientes

rog
r
P Selección de
so Sub
Homogéneos
– Grupos Aplicar a los de
participantes
control
Métodos experimentales
participantes
grupos para
y de No Aplicar Métodos
de Control a los
L Participantes
:na control

ue
alb Análisis de
Covarianza
V
na Recolección de
Datos
oim
R
Desarrollar un
Usar Datos Pre- instrumento de
existentes Recolección de
Datos

Analizar e
Interpretar la Data

Inferencial
Estadística Estadística
Descriptiva

Reporte de lo
Encontrado

Diagrama de flujo para conducir estudios causales comparativos.


Fuente: Salkind (2010)
237

12.4.- Consideraciones sobre los Diseños Comparativos Longitudinales

Un diseño longitudinal consiste en un tipo de investigación centrada en los datos, es decir,


enfatiza en la forma y secuencia de recolección de las observaciones. Donde las medidas de
interés sobre las unidades de estudio, generalmente más de dos, se ejecutan secuencialmente
durante un tiempo dado. Aunque estos diseños resultan largos, complejos de procesar y costosos,
permiten develar un organizado cuerpo de conocimientos ocultos en la profundidad de la data.
Un estudio longitudinal admite la temprana detección de patrones de cambio donde los efectos
de la historia sobre la variable en estudio se hacen por intervalos.

.tivos Las repetidas observaciones sobre la misma variable por largos períodos de tiempo ofrecen
más evidencias sobre las particularidades a comparar. Un estudio longitudinal presenta al menos
ar
a dos elementos de interés para el investigador, involucra correlación y observación. Como la
p
mo
correlación se ejecuta sobre la misma variable a lo largo de un intervalo, entonces se le denomina
C
nó autocorrelación203. Y, por ser imposible la experimentación con manipulación directa de la
ic
ag variable, pasa a ser del tipo observacional. La siguiente gráfica muestra los tipos generales de
it
sve diseños longitudinales:
nI
e
sd
a Medición en una población
De Tendencia
am (Poblaciones Totales)
rog
r
P
so Longitudinales
Diseños De Evolución de
L Grupos (Cohortes)
:na
ue
alb
V Diseños de Páneles
na
oim
R
Se denomina diseño longitudinal de tendencia a aquel que busca la aparición de cambios a
través del tiempo en una población, siempre la misma. Los estudios por cohortes son estudios de
grupos (sub poblaciones derivadas de cálculos muestrales) donde se mide al mismo grupo en
distintos instantes de tiempo. Las cohortes estarán conformadas por individuos que presenten la
característica común a ser estudiada. Y, los estudios longitudinales por paneles tratan de obtener
información periódica siempre sobre los mismos individuos. Los análisis en estos estudios se
ejecutan con un procedimiento estadístico denominado análisis de datos de paneles por modelos
de regresión estadística.

203 Autocorrelación o correlación serial, consiste en la medida de correlación para una muy particular serie de tiempo con los mismos retardos o
distancias entre las observaciones que también son correlacionadas.
238

Los términos “Cohorte” y “Panel” aunque se usan ambos en estudios longitudinales, difieren
en cuanto a sus casos específicos de aplicación. La idea general para los estudios por cohortes es
aquella donde la variabilidad observable se hace sobre un grupo de miembros que tienen más de
una característica en común (cohorte). Por ejemplo: los programas de doctorado, maestría y
especializaciones se organizan por cohortes. Todos estudian el área que seleccionaron pero su
fecha de graduación difiere, así como podrá también diferir el contenido programático cursado.

En estudios experimentales comúnmente se seleccionan grupos aleatorios de sujetos y se les


expone a un tratamiento específico, a estas unidades que comparten las mismas características de
estímulos aplicados se les estratifica por cohortes. Por ejemplo: diferentes pacientes con un
.tivos
mismo tipo de cáncer que han sido estudiados a diferentes niveles o tipos de radiación para luego
ar ejecutar otros experimentos individuales sobre ellos y proceder a comparar resultados. Los
a
p estudios por paneles no necesariamente ameritan de tales especificidades.
mo
C
nó Los estudios longitudinales tienen al menos dos propósitos fundamentales: se usan para
ic
ag describir patrones de cambio, estableciendo la dirección positiva o negativa, de [X→ Y] o de [Y
it
sve → X]. Y de interpretación de magnitudes, una relación de magnitud cero indica la ausencia total
nI de relación causal. El cambio como magnitud, típicamente es medido en referencia desde uno o
e
sd dos tiempos cronológicos. (Menard, 2002), describe 4 tipos básicos de diseños longitudinales:
a
am los diseños de poblaciones totales; el diseño transversal repetido; el diseño de paneles repetidos;
rog
r y los diseños de paneles longitudinales. Fuera de estos cuatro modelos existen también los
P
so diseños retrospectivos. Con el objeto de ilustrar el escenario, a continuación describo, muy
L
:na superficialmente204, a todos ellos.
ue
alb 12.4.1.- Diseño de Poblaciones Totales
V
na En estos diseños, la totalidad de la población (población censal) es entrevistada o medida en
oim
cada período de estudio. No existe muestreo. Dado que algunas unidades de estudio han muerto
R
y otras han nacido entre un período y otro, los casos del período 2 no serán iguales a los del
período 1. No obstante, si se acortasen los períodos, una abrumadora mayoría de casos del
primer período se verían reflejados sobre el segundo, siendo los mismos entre ambos. Es un tipo
de diseño donde muy sutilmente se analizan los cambios en las relaciones entre variables a lo

largo del tiempo. Los otros 3 diseños que siguen, necesitan del cálculo de una muestra
poblacional.

204Una explicación más amplia y detallada de estos diseños y algunos otros aparecerá en una próxima edición de este texto, incluida dentro del
capítulo de la Investigación Experimental. Hago la referencia, muy superficialmente, ya que estos diseños requieren, o la utilización de series de
tiempo o el uso de regresiones lineales para algunos casos. Allí, el investigador ha de tener vastos conocimientos de estadística, diseño de
experimentos y análisis vectorial.
239

12.4.2.- Diseño Transversal Repetido

En estos diseños el investigador calcula una muestra probabilística sobre la población en cada
período estudiado. Donde las muestras contienen diferentes conjuntos de casos para cada
período, si el solapamiento de datos es muy pequeño, se considerará despreciable. Pero los casos
particulares bajo estudio han de ser comparables. Para los análisis de cambio se requiere de
agregar niveles205. También sirve para evaluar cambios en los valores de las variables y para
establecer relaciones entre variables a lo largo del tiempo.

12.4.3.- Diseño de Paneles Repetidos


.tivos
El diseño de paneles repetidos reduce los problemas de la mortalidad de paneles y medidas
ar
a repetidas en estudios retrospectivos, se denomina mortalidad a la pérdida de unidades de análisis
p
mo cuando los estudios se ejecutan durante largos períodos de tiempo. La retención de un particular
C
nó número de casos sobre muchos períodos de medición de cambios, permite a corto plazo, medidas
ic
ag de cambio sobre individuos o casos de nivel. El reemplazo de sub – muestras perdidas durante el
it
sve período de medición por una nueva pero similar, permitirá el análisis a largo plazo de patrones
nI de cambio agregados. Si el tiempo entre causa y efecto es más pequeño que el periodo para el
e
sd cual los casos son retenidos en la muestra, es posible la ejecución de un análisis estadístico de
a
am tiempo causa.
rog
r 12.4.4.- Diseño de Paneles Longitudinales
P
so
L
:na En los diseños de paneles longitudinales el mismo conjunto de individuos o casos es usado en
ue cada período. Al llevarlo a la práctica, pudiese haber variación de un período a otro como
alb
V resultado de los datos perdidos. Puede sufrirse la pérdida de datos cuando se estudia a
na individualidades y algunas mueren entre un periodo de medición y otro. Particulares casos
oim
surgen cuando el sujeto ya no desea seguir participando en el estudio o se muda de locación y al
R
investigador se le hace difícil encontrarlo. Estos son ejemplos de desgaste de paneles.

12.4.5.- Diseños Retrospectivos

Un estudio retrospectivo es un estudio longitudinal que mira hacia atrás en el tiempo. Por
ejemplo, un investigador puede consultar los registros médicos de los años anteriores de un
paciente en busca de una tendencia. Un policía puede hacer uso de los registros criminales de un
sospechoso en busca de indicios. O, un profesor puede buscar en el historial de notas de un
alumno para determinar si ha mejorado o desmejorado sus calificaciones.

205 La agregación de niveles incluiría un Muestreo Multietapas si las capas disminuyen en unidades muestrales a lo largo del estudio.
240

12.5. - The Qualitative Comparative Analisys Method [QCA]

El Análisis Comparativo Cualitativo de Datos, en lo adelante Qualitative Comparative


Analisys (QCA), consiste en un enfoque analítico basado en un conjunto de pasos y
herramientas de investigación que combinadas generan análisis detallados y minucioso de ciertos
casos de estudio. Los cuales son posteriormente usados para las comparaciones en situaciones ya

formalizadas, es decir, donde existen modelos predefinidos. Sus orígenes se remontan hacia 1987
cuando el científico social estadounidense Charles Ragin 206, profesor de sociología de la
Universidad de California, crea la fundación para el análisis comparativo de datos y de la cual
hace referencia en su libro dirigido al método comparativo.
.tivos
Este procedimiento es considerado bastante bueno para cuando los datos a estudiar son pocos
ar
a o medios, así como la cantidad de variables. En otros casos donde las variables son múltiples
p
mo
debe combinársele con los procedimientos establecidos por la estadística multivariada y sus
C
nó análisis multivariados de datos. Toda investigación cualitativa se acerca a la realidad pero no la
ic
ag totaliza, es decir, carece de poder demostrativo y se le dificultan las generalizaciones empíricas.
it
sve No obstante, su uso se ha hecho extendido por científicos sociales, sobre todo, en los estudios
nI
e sociológicos. El QCA, como todo procedimiento científico tiene sus ventajas y desventajas.
sd
a Según el propio Ragin, puede describirse desde dos vertientes con formas de principios.
am
rog
Primeramente, puede ser usado para describir causalidades complejas donde se piense,
r
P existan suposiciones subyacentes en el fenómeno bajo estudio. Allí será posible la combinación
so
L de análisis detallados dentro de los casos formalizados para ampliar su comprensión. Cuando se
:na
ue asume cierta la causalidad compleja subyacente, el objetivo central del QCA será la búsqueda de
alb una explicación exhaustiva del fenómeno bajo investigación, entendiéndose a esta última como
V un tipo de explicación ampliativa soportada por datos y evidencias. En este paso la causalidad
na
oim compleja, si existiere, ha de ser formulada de manera que se entienda el sentido de causación y
R las posibles combinaciones de factores causales que puedan guiar hacia la ocurrencia de ciertos
efectos predecibles sobre determinados fenómenos.

El segundo principio del QCA se trata como una combinación de análisis dentro de los casos y
la comparación entre casos ya formalizados. A partir de los datos obtenidos desde el primer

proceso, es decir, la formalización, se crearán casos diferentes y difusos que podrán ser descritos
como condiciones de salida. Es de hacer énfasis en que el QCA se crean y operacionalizan

206 Ragin, Charles C. The Comparative Method: Moving Beyond Qualitative and Quantitative Strategies. University of California Press 1987.
241

conjuntos difusos207. Es en este segundo principio donde se describe la secuencia metodológica


de acción del QCA.

En el primer momento se define la pregunta de investigación → se seleccionan los casos de


estudio → se ejecutan los análisis dentro de los casos → se definen o redefinen los conjuntos

difusos dependiendo del ciclo de avance (puede haber varios) → acto seguido se llega al punto
medular del proceso donde son formalizados los análisis cruzados de casos. Dependiendo de la
salida o lo que se pretendía con la pregunta de investigación, el ciclo podrá realimentarse hacia la
selección de otros casos o el desecho de alguno específico. También podrá retornarse hacia el
análisis cruzado de casos redefiniendo y/o ajustando los conjuntos difusos ya formados. → El
.tivos
último proceso arrojará los resultados finales. A continuación la descripción gráfica208:
ar
a
p
mo la
Definición de
Pregunta de
Investigación Selección
Casos dede
Interés casos
de
Análisis de
losdentro
casos
de
Re-
los
conjuntosdifusos
Definición Análisis
formalizado
casos de
cruzados Resultados
C Finales

ic
ag
it
sve Es importante recordar que los resultados obtenidos a través del análisis formalizado QAC, no
nI
e proveen de forma alguna evidencia de relación causal. Lo que sí aportan, son patrones de
sd
a asociación con niveles significativos a través de los conjuntos de casos de observación, y son
am
rog éstos, la base para una ulterior determinación de conexiones causales. Si el investigador
r
P cualitativo logra dominar esta técnica, podrá crear modelos teoréticos complejos de interacción
so social basados en las comparaciones sistemáticas de casos cruzados para conjuntos de datos
L
:na
inferiores a 50 unidades.
ue
alb En sus resultados observará un incremento substancial de la transparencia de los análisis
V
na como soporte de sus patrones explicativos, logrando con ello una aproximación sumamente real
oim para un modelo persuasivo y de argumentación ideal. Como característica inequívoca que ha de
R
identificar a todo buen agente científico.

A continuación se describen una serie de pasos del QCA con tres fases similares a la anterior
pero con algunos casos agregados209: en la primera fase se seleccionan los casos y se les
describe. Se presentan condiciones iniciales realimentadas, se observa la salida y se crea el
modelo formalizado de máxima complejidad. En este caso la salida no es cualquier efecto
aleatorio o al azar producto de las interacciones. Contrariamente, definir la salida de interés

207 Se sugiere al lector para un mejor entendimiento de la creación y asignación de unidades sobre conjuntos difusos refiérase al capítulo VII.
Sección 7.3.- La Lógica Difusa. 7.3.1.- Análisis Difuso y Teoría de Medidas Difusas.
208Tomado con permiso de SCHNEIDER & WAGEMANN, 2007, pp.63-73. Algoritmo de Quine-McCluskey usado para minimización.
209
Tomados desde: QCA y el túnel de complejidad con pasos concretos y lazos de realimentación. Aparece en: The Sage Handbook of Case –
Based Methods. (2009).
242

consiste en adaptar cualquier efecto a un modelo teorético para analizarlo. No forma parte en sí
de la investigación, sino del marco científico de la mente del agente científico. Allí las salidas
son las posibles conexiones con las condiciones potenciales de interés.

A la segunda fase se le denomina Momento Analítico apropiado para el QCA, sus pasos
incluyen la dicotomización, la creación de la tabla de la verdad, la minimización, la solución y la
presentación de la fórmula mínima que debe responder lógicamente al modelo formalizado en la
fase 1. En esta segunda fase se hacen uso de herramientas computacionales de amplia aceptación
como: FSQCA = Fuzzy Sets / Qualitative Comparative Analisys. Se le entiende como a una
herramienta que facilita la creación y manipulación de conjuntos difusos, contiene tablas para la
.s
otiv operacionalización de etiquetas difusas y fórmulas para los Crisp Mapping.
ar
a Otra herramienta de apoyo es TOSMANA = Tool for Small –N Analisys (QCA), es una
p
om herramienta de la investigación social usada para analizar datos de cierto pequeño número de
C
nió casos. Con ella es posible la dicotomización de los datos y el análisis de la tabla de verdad
ac
tig resultante. Ambas herramientas permiten el ahorro de tiempo en los extensos análisis de data
sve emparejada y contrastada. De aquí se obtiene una síntesis y una minimización de todos los casos
nI de conocimiento de la fase 1. La dicotomización se refiere al umbral de configuración para la
e
sd
medición de los datos. Donde se examina de forma binomial los atributos de interés.
a
am
rog En esta etapa muchas características pueden ser dicotomizadas para un mejor análisis de la
r
P variación observada. Por ejemplo: la presencia o ausencia de la característica particular de
so
L interés; Si/No; Alto/Bajo; 0/1; incluso los umbrales pueden ser definidos dentro de los conjuntos
:na
difusos si les son asignados valores numéricos a las etiquetas difusas: Extremadamente Grande;
ue
alb Muy Grande; Grande; Medianamente Grande; No Muy Grande. Tanto las tabla de verdad como
V los procesos de dicotomización se entienden mejor en los métodos del algebra booleana.
na
oim En la tercera fase se presenta la factorización de la fórmula y la interpretación en conjunción
R
con los patrones cruzados de casos y la generalización. A esta fase se le denomina fase de

interpretación. De allí se producen dos salidas a realimentar, una va a la acumulación de


conocimientos sobre los casos estudiados y son almacenados como conocimiento teorético. La
segunda consiste en volver al inicio, a la fase 1, buscando comenzar de nuevo con una mayor

complejidad.
243

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XIII: LOS


PROGRAMAS DE
INVESTIGACIÓN
EXPLICATIVOS PUROS…

Usar una multitud de palabras en una explicación oscurece en vez de ilustrar, siendo una carga
para la memoria, y la primera apta para ser olvidada, antes de llegar a la última. De modo que
el que usa muchas palabras para explicar cualquier tema, como el sepulcro, se esconde, en su
mayor parte, en su propia tinta.
The Wisdom of God Manifested in the Works of the Creation (1691). -John Ray.
244

13.1.- Los Programas de Investigación Explicativos Puros

Una explicación bien sustentada y debidamente hilvanada,


maravilla, deleita y sacia al entendimiento del hombre común.
Además, penetra hasta lo más profundo de la mente del
escéptico, imposibilitándolo a esgrimir argumento alguno en
contra. La explicación perfecta no solo existe, sino que ha de
ser alcanzada a toda costa.

Roiman Valbuena.

coherente
Explicación
e denominadonde
permite
se determinar
responda
Explicación alaquello
Científica
porqué,
Puracómo, para
al arte de qué
indeterminado, dejando
o cuándo
organizar de
y terso
un evento.
un discurso
claro elamplio
caráctery

S
problemático, y no completamente comprendido de alguna cosa. La Explicación Pura no
La

involucra causas, no las necesita, al usarlas se convierte en una Investigación Explicativa Causal
alejándose de su pureza. Allí se omiten leyes científicas, no las relaciona, pero debe basarse en
alguna teoría, secuencia o patrón explicativo. Explicar significa expandir el entendimiento,
separando partes cuyas unidades ameritan de independencia para así sustituir lo impreciso por lo
preciso. Separadas las partes, se establece el tipo de conexión entre cada cosa dentro de un
fenómeno para con ello comparar dimensiones.

El primer paso para que se suceda el entendimiento consiste en la desidentificación,


proceso mediante el cual el sujeto cognoscente, pierde la identidad de aquello, o con aquello que
hasta cierto momento aceptaba y conocía como verdadero, como esencia cierta o vaga sobre la
cosa. Y pasa entonces a formarse una nueva esencia de ella mediada por la razón y soportada en
la explicación. El entendimiento consiste en un paso operativo de la mente y la intuición sensible
pero influenciada por un discurso explicativo que hace mover unidades cognoscentes. De hecho,
la esencia de lo que se sabía, simplemente ha sido movida en la conciencia, y esto no se ha
sucedido sino por la acción de una inteligencia remota operacionalizada sobre otra. He aquí la
esencia del acto explicativo puro.

La separación de cada parte independiente, y su respectivo encadenamiento en eslabones


cognoscitivos, se produce única y exclusivamente a través de la coherencia discursiva. No es
sino hasta que el acto de entendimiento ha sido perfeccionado, cuando la comprensión entra en el
juego. Ésta se activa cuando, alcanzado el estado de lucidez máxima a través del entendimiento,
el sujeto operacionaliza acciones, es decir, actúa en determinada dirección justificada por una
explicación que asienta sus bases en la demostración.
245

Siendo así, entonces entender es percibir, comprender es actuar en determinada dirección. Es


donde se dice que la explicación actúa como una acción que penetra en lo anterior,
reconstruyéndolo y moviéndolo hacia un posterior. Es en este estadio de excitación sobre el
sujeto cognoscente, donde el agente científico hace uso y gala de la fuerza de su inteligencia,
ornamentando sus discursos, hasta lograr la ¡Explicación Perfecta!

La Explicación es un acto expresado en presente continuo, indica una serie de pasos para un
mismo asunto y toma cierto tiempo. Muchos esquemas explicativos se sostienen sobre una
estructura narrativa, y narrar necesita de lógica, inteligencia y creatividad. Lo Explicado, es la
.s acción finalizada afirmándose la completud del proceso basado en el principio de la evidencia y
or
u el de la razón suficiente. Si hay algo que diferencia al hombre de ciencia del sofista, es su
P
so capacidad de demostrar en vez de persuadir. La demostración amerita de explicación e involucra
vi
tlica
convencimiento, y la explicación abre paso a la acción de comprender. Para ser efectivo en la
px segunda, ha de afinarse la primera. Cuando el agente científico da origen al acto explicativo, éste
E
nó lleva implícito un conjunto de creencias y deseos manifiestos de algo, incluyendo intensiones
ic
ag con las cuales ilumina su firmamento intelectual pretendiendo que esa luz irradie otras mentes.
it
sve
Aunque ciertas cosas pueden explicarse sin llegar a comprenderse (Explicación Imperfecta),
nI
e se dice que una explicación es imperfecta cuando posterior de ejecutado el acto explicativo como
sd
a tal, éste ha sido incapaz de suministrar comprensión, es decir, la sed de intelección no ha sido
am
rog satisfecha. Y, el objetivo general de una Investigación Explicativa Pura es ilustrar con conceptos,
r y a través de un discurso sobrio y coherente, la pregunta de investigación. Extendiendo sus
P
so
alcances, más allá de la simple descripción. Un discurso explicativo bien hilvanado, ha de
L
:na
contener detalles del cuerpo de conocimientos que hacen entendible las concomitancias
ue
alb fenoménicas del evento aludido, facilitando la asimilación mental de la realidad por la razón.
V
na Un vacío explicativo se hace presente cuando al agente científico, consciente o
oim inconscientemente, actuando sobre el problema, se le dificulta o no alcanza en su totalidad
R
identificar la relación lógica entre el fenómeno físico observado y el fenómeno mental
internalizado. Quiere decir, los términos manifiestos en sus sentencias declarativas para hacer
entender lo físico explicado no son totalmente entendidos, y para resolverlo debe dilucidar
primero su conflicto mental. Donde, y como criterio universal de la lógica, el entendimiento
requiere de la asimilación absoluta de los términos usados en las sentencias declarativas.

El resultado de una Investigación Explicativa Pura ha de conducir a un conocimiento


profundo del cómo y los porqués. Es la evidencia que patentiza un correcto discurrir
metodológico, pues, el investigador ha organizado magistralmente una estructura argumentativa
246

profunda a través de un procesamiento lexicológico o infográfico adecuado. Demostrando así,


excelentes hábitos de clasificación y pensamiento lógico. El objetivo de la ciencia es explicar
cosas, entonces el científico se convierte en un explicador de cosas.

Toda explicación involucra enunciados que afirman o niegan algo, es decir, razones y sus

argumentos, y como las explicaciones no siempre se ajustan a las leyes de cobertura pero su
intensión ha de ser alcanzarlas, entonces se hacen necesarias las Inferencias Explicativas.
Constituyéndose éstas en un tipo de inferencia originada a partir de un conjunto de datos de una
hipótesis, hacen mención a una estructura o proceso que fácilmente podría ser explicado por la
.sPuro data.

Cuando se hace uso de hipótesis e inferencias en un discurso explicativo, se ha optado por los
ov
it mecanismos de la razón, entonces, ha de estarse claro en no confundir Pensar con
ac
il Pensamiento210, pues, pueden añadirse conjeturas erróneas a lo explicado, ya que es menester
px
E hacer distinción entre lo que pertenece a la sicología y lo que pertenece a la lógica, la explicación

ic amerita de lógica, no de sicología, la sicología nunca ha sido y nunca llegará a ser demostrable.
ag
it Una explicación no viene sola, se construye a través de dos bloques esenciales, el
sve
nI Explanandum y el Explanans211. El Explanandum <<Explicandum>>se convierte en cualquier
e
sd cosa que amerite o necesite ser explicada, y el Explanans <<Explicans>> aquella cosa sobre la
a
am cual recae la explicación, ya sea como causa, evento antecedente o condición necesaria. El
rog
Explanandum se convertirá en la conclusión del argumento, pero las premisas son los Explanans.
r
P
so A continuación se presentan algunos tipos de explicaciones algo relacionadas con las puras.
L
:na
13.1.1.- Las Explicaciones Nomológicas [Deductivas e Inductivas]
ue
alb
En base a que todas las explicaciones poseen direccionalidad. Hempel212 (1965), propuso un
V
na modelo Nomológico Deductivo (N-D). Allí se afirma que una explicación es un argumento que
oim
deduce una descripción de los hechos a ser explicados desde leyes generales y descripciones de
R
hechos observados. Para que el Explanans pueda explicar exitosamente el Explanandum, deben
darse ciertas condiciones. Primero, el Explanandum debe derivarse como consecuencia lógica
del Explanans, y las sentencias que constituyen a este último han de ser verdaderas. En este
modelo se asume que el Explanans ha de contener al menos una ley natural.

210 El pensamiento es una entidad intemporal e inespacial, invariable y no psíquica. El objeto de la lógica es el pensamiento, pues, estudia su
estructura, relaciones y formas con independencia de los actos psíquicos y de los contenidos intencionales. Los pensamientos tienen una realidad
formal distinta. El pensar por su lado, es un acto psíquico que tiene lugar en el tiempo. Puede ser mostrado y no demostrado. El producto de lo
pensado es siempre intencional, contrariamente, el producto del pensamiento es razonado. Las inferencias explicativas y las hipótesis, son
producto del pensamiento, de la razón y no del acto de pensar. Ferrater Mora (2000). Concepto de Pensamiento, Pensar. Véase.
211 GORDON MARSHALL. "Explanandum and Explanans (Explicandum and Explicans)." A Dictionary of Sociology. 1998. Encyclopedia.com.
212May.
2 2015 C.
Hempel, <http://www.encyclopedia.com>.
G. (1965). Aspects of Scientific Explanation. New York: Free Press.
247

De acuerdo a Friedman y Kitcher213 (1974), una explicación radica en un proceso de aplicar


un esquema, y un esquema de explicación consiste en un objetivo explicación, que es una
cuestión que debe resolverse, además de un patrón explicativo, que proporciona una forma

general de responder a la pregunta. Un patrón nomológico deductivo centra su atención sobre los
modelos mecánicos de las causalidades. El concepto de Explicación Inductiva, basado en
observaciones particulares, descansa en el hecho de que es un concepto epistémico no
confirmable.

Siendo así, una explicación inductiva se convierte en probabilística y su conocimiento será,


.sPuro por consiguiente, conocimiento improbable e incompleto. Aquí no es posible usar la teoría
general de la confirmación. Una explicación probabilística inductiva refiere casos específicos a
ov hipótesis generales, donde cada uno de los fenómenos específicos representa casos214.
it
ac
il Entonces, para poder ejecutar explicaciones medianamente aceptables, ha de recurrirse a
px
E teorías que operacionalicen la probabilidad de las hipótesis, estas son dos: las lógicas, que
nó conciben a la probabilidad como una relación lógica entre sus proposiciones. Y las teorías
ic
ag
it estadísticas, que interpreta la probabilidad de la hipótesis como el límite de la frecuencia relativa
sve
de sus casos confirmatorios, entre todos los casos atinentes a la cuestión, Hempel Op. Cit. (P.
nI
e 20). Como la Explicación Inductiva es Probabilística, entonces se continuarán en el apartado
sd
a siguiente.
am
rog
13.1.2.- Las Explicaciones Probabilísticas
r
P
so
L Reciben el nombre de explicaciones estadísticas o probabilísticas, a una clase de explicación
:na
de leyes basadas en un parámetro que debe ser interpretado. Este tipo de explicaciones son del
ue
alb tipo inductivo, y su diferencia según Salmon 215 , contra las del tipo deductivo, radica
V fundamentalmente sobre la pregunta de si la relación entre el Explanans y el Explanandum ha de
na
oim ser entendida como una relación de alta probabilidad, o como una de relevancia estadística.
R
Sus interconexiones son expresadas usualmente en términos de funciones matemáticas.
Hempel afirma que los argumentos en este tipo de explicaciones pueden ser usados no solo para
contar hechos particulares o eventos, sino regularidades generales también. Las cuales, en este
caso, han de presentar características estadísticas. No obstante, uno de sus peculiares problemas
lógicos se refiere a la sistematización de la explicación. Esta toma el rol de sentencia
probabilística en la explicación, predicción y post dicción de eventos individuales o un finito

213 Citados en MIT Cognitive Science. Explanation Concepto de: Véase.


214 Carl Gustav Hempel (2005). La Explicación Científica: Estudios sobre Filosofía de la Ciencia. Editorial Paidós.
215 Wesley, Salmon. Aparece en: The Nature and Function of Scientific Theories: Essays in Contemporary Science and Philosophy. (1970).
Editado por: Robert Colodny. University Pittsburgh Press.
248

conjunto de tales. A continuación dos ejemplos de explicaciones, inductivas y deductivas.

Explicación Deductiva: Forma Lógica de la Explicación:


Este
en un
porque
un
sodio es una
cristal
mechero
mechero
desprenden salunde
deencendido,
roca decolor
encendido. sal,torna
sodio,cuando
amarillo al le
la se
y todas
flama
las sales de
en
colocárseles
coloca
amarilla Todos los “F” son “G”
X es “F”
X es “G”

Explicación Inductiva: Forma Lógica de la Explicación:


John
casos
fuede
rápidamente
le Jones de
estaba
su infección
administrada
infección porpenicilina,
casi
posterioresestreptococos
la administración
a seguro
por y casi
dese recobrarse
todos alos
estreptococos, de
él
recuperan Casi Todos los “F” son “G”
X es “F”
.s
or X es “G”
u
P penicilina.
so
vi Resulta evidente la diferencia entre los ejemplos. Primero, la premisa mayor en el caso
tlica
deductivo es una generalización universal. No obstante, la premisa mayor en el segundo caso es
px
E una generalización estadística, pues, no está demostrado que TODOS los casos de infecciones

ic por estreptococos sean curados con penicilina, bastará con que uno solo no lo sea para dejar
ag
it inválida la generalización. El doble lineado del segundo caso indica que la conclusión sigue a un
sve
nI argumento inductivo216.
e
sd
a 13.1.3.- Las Explicaciones Funcionales
am
rog Se denomina Explicación Funcional a aquella que se ejecuta sobre un objeto o cosa, la cual,
r
P formando parte de un sistema como un todo, ejerce una ocupación específica en su
so
L mantenimiento. Este tipo de explicaciones surge de preguntas como: ¿Cuál es la función de la
:na
ue sangre en el cuerpo humano?, allí su Explanans podría sugerir lo siguiente: la sangre sirve para
alb proporcionar un óptimo intercambio gaseoso, transporta oxígeno y nutrientes a los diferentes
V
na órganos del cuerpo.
oim
Una explicación del tipo funcional se usa cuando el agente científico carece de medios y/o
R
evidencias para demostrar las argumentaciones que sustentan las explicaciones, quiere decir, no
se atreve y no debe explicar lo desconocido. De manera que se centra en explicar el cómo
funciona aquello observado. Las explicaciones funcionales son comúnmente denominadas
explicaciones teleológicas <<explicaciones del fin de cada cosa>> Indican que algo tiene un fin
o un propósito determinado. Implican la ejecución de actos consecutivos <<sistematicidad>> y
tienen proyecciones futuras si la cosa mencionada no opera debidamente.

Una Explicación Funcional podría hacer uso o no de descripciones o descomposiciones

216 Wesley Salmon, Op.cit. p. 176. Véase.


249

funcionales. Una descomposición funcional consiste en una explicación sicológica aplicada


sobre la cosa aludida, allí se coordinan actividades o secuencias individuales para cada
componente creando un orden explicativo para cada unidad. Una explicación funcional también

podrá hacer uso de las Teorías de la Acción o del Mecanismo; del Funcionalismo o del
Conexionismo217.

En sus formulaciones más simples, la Teoría del Mecanismo es bien conocida por tratarse de
una ciencia aplicada, allí se usan ecuaciones y modelos matemáticos en el estudio y diseño de
máquinas que ameritan de la aplicación de fuerzas físicas. La máquina es la “cosa” que realiza
.sPuro algún trabajo, en cambio, al mecanismo se le concibe como al conjunto de elementos que forman
parte constituyente de tal máquina y sobre los cuales, como unidad, recae la explicación.
ov
it El Funcionalismo218 por su lado, es estudiado por la filosofía de la mente. Opera sobre las
ac
il actividades que ejecutan la cosa o elemento aludido sin importar su estructura o composición
px
E física. De acuerdo a la tesis funcionalista, la mente es un sistema físico con un conjunto de
nó posibles estados inducidos por elementos internos y externos. Basado en estas premisas, un
ic
ag cambio en el estado externo de la máquina puede inducir a oscilaciones en el comportamiento de
it
sve
los elementos internos a ella.
nI
e
sd Por lo que la explicación habrá de cubrir exhaustivamente estos casos si no existiere causa
a
am efecto que involucre a alguna ley natural, pues dejaría de ser una explicación pura para
rog
convertirse en una explicación causal. Contrario a la teoría del mecanismo, donde sí hay
r
P
so referentes físicos, una explicación bajo la tesis funcionalista puede ser inmaterial o sin referentes
L
:na físico alguno. Pues, no todas las relaciones causales recaen sobre objetos o cosas con referentes
ue físicos.
alb
V La tesis Conexionista afirma que la mente posee un modelo de conexión propio al igual que
na
una red de neuronas. No obstante, se centra en hacer representaciones funcionales usando
oim
R básicamente análisis matemáticos de patrones de actividades internos al sistema. Para ello opta
por teorías de la representación apelando a conceptos como prototipos.

Aunque este modelo también tiene sus teorías contrapuestas, hay quienes afirman que una
representación conexionista carece de partes constituyentes, debido a ello, estos modelos no
pueden explicar sistematicidad. Y, si se toma en cuenta el concepto de sistematicidad desde el

217 Todos estos conceptos aparecen en: MITEncyclopedia of Cognitive Sciences.


218 A continuación un aporte de Hempel desde el punto de vista epistemológico hacia las Explicaciones Funcionales: <<La información que
típicamente nos proporciona el análisis funcional de un ítem i, no brinda un fundamento adecuado deductivo ni inductivo para preferir a “I” sobre
cualquier otra de sus alternativas. La impresión de que el análisis funcional efectivamente proporciona este fundamento, y por tanto explica la
ocurrencia de i, se debe sin duda, por lo menos en parte, al beneficio del conocimiento post facto: cuando tratamos de explicar un ítem i, ya
sabemos presumiblemente que i ha ocurrido>>. Aparece en: Estany, Ana (2006, p.238). Introducción a la Filosofía de la Ciencia. Universidad
Autónoma de Barcelona. Aparte referido a: La Explicación Científica. Véase.
250

punto de vista sicológico, no haría falta el conexionismo. Pues, cualquier evento funcionalista
podría ser explicado por cualquier teoría de la mente por muy simple que esta sea219.

Las explicaciones funcionales refieren al funcionamiento de entidades, se utilizan en la


investigación analítica para explicar el funcionamiento de los mecanismos que hacen posible la
operación de los sistemas complejos. En la acción, una explicación funcional cita la presencia de
un determinado componente haciendo énfasis en la función que cumple dentro del sistema.

Ahora bien, ¿qué explica una función? O ¿qué hace que una función pueda ser explicada?,
una explicación funcional sirve para rendir respuestas satisfactorias al ¿qué?, ¿cómo? o ¿por
.sPuro
qué? Aunque una pieza se encuentre sola en la dinámica de la dialéctica explicativa, ésta

pareciese tener vida propia, fines, objetivos y metas que están involucradas en su trabajo al hacer
ov
it que algo, cumpla una función. De allí que se haga mención a que una explicación funcional se
ac
il considera una explicación teleológica. Entonces, estudiar alguna entidad dentro del sistema
px
E podría interpretarse como el intento de conseguir las respuestas a cierto número de preguntas.

ic
ag En explicaciones funcionales, cuando se adscribe un ente a determinado contexto, se dice que
it
sve se está ejecutando una adscripción funcional. Si ésta se inserta en un análisis, la explicación
nI podría tomar estas formas según (McLaughlin, 2004): ¿Por qué el ser humano tiene corazón?, o
e
sd ¿qué hace el corazón?
a
am
rog Ambas respuestas harán referencia al funcionamiento de un sistema, representa por así
r decirlo, la teleología del corazón. Y, aunque sustentará sus argumentos en otro mecanismo
P
so
L (sistema circulatorio) como nexo causal explicativo, no perderá de vista la entidad central de
:na
análisis.
ue
alb El investigador o el agente científico deben prestar cuidado a dos acepciones comunes en las
V
na explicaciones funcionales, función e intención. Una función de por sí, por naturaleza, no
oim
presupone genuina intencionalidad, ésta sólo podrá endosársele a aquellas entidades que posean
R conciencia. Se considera que una explicación funcional ha sido correctamente ejecutada, cuando
tal función logra responder exhaustivamente la pregunta de investigación, cuando ha cumplido
con todos los requisitos para facilitar comprensión, y cuando la sed de intelección ha sido
satisfecha.

En ocasiones el investigador emitirá juicios bajo la forma de explicaciones funcionales en


términos de sentencias funcionales específicas, denomínese función → causal suficiente y causal
necesaria → intención de hecho y no manifiesta. La segunda consiste en explicación de acciones

219 Jerry Fodor y Zenon PyLyshyn, citados en: MITEncyclopedia of Cognitive Sciences. (p. 186). Véase.
251

en términos de conciencia y que son comúnmente denominadas explicaciones intencionales que


sólo funcionan, como ya he advertido, sobre entidades conscientes.

En investigación explicativa existe un precepto que reza: toda acción que pueda ser explicada
intencionalmente sin mayores problemas, no son de interés para la sicología. Ellos sólo se
interesarán tan pronto como, alguna acción no pueda ser explicada simplemente por la
intencionalidad, Theo Kuipers (1995).

Cualquier otra acción carente de intención manifiesta podrá ser cubierta sin mayores
contratiempos por la investigación científica tradicional, posterior a haber separado la lógica, de
.sPuro
la sicología. Ya que, una explicación funcional como la que aquí describo, y debido a las

relaciones entre el Explanans y el Explanandum, necesita de lógica y no de sicología. Éste último


ov
it tipo de explicación dejémoslas a los teoristas de la mente y sus causalidades mentales o a los
ac
il sicólogos.
px
E
nó Al margen de lo anterior, una explicación funcional bien ejecutada suministra el poder
ic suficiente para armar predicciones. Por añadidura, cualquier explicación Ad Hoc220 inserta
ag
it
sve dentro de una arquitectura netamente funcional ha de ser desechada. Una explicación Ad Hoc es
nI Es Post Factum, pues, las generalizaciones que contiene, aunque se ajustan a los datos, no
e
sd habrían podido predecirlos, dicho de otro modo, la explicación Ad Hoc es sabiduría posterior a
a
am los hechos, simples excusas no generalizables sino accidentalmente, por casualidad, pues no hay
rog
fundamento para ampliarla a otros casos.
r
P
so Cuando un agente científico desarrolla una explicación basada en la teoría funcionalista o
L
:na
fisicalista, no está sino concatenando mentalmente niveles de ocurrencia de eventos efectores
ue
alb que son consistentes con determinados modelos matemáticos que los describen. Entonces, la
V explicación científica expresada, subsumirá a una ley física que determine acciones. Aquí, el
na
acto explicativo es separado para cada evento antecedente y el papel que cada uno juega en la
oim
R aparición de un consecuente. El modelo explicativo quedará por entero cubierto cuando las
conexiones lógicas de cada evento individual y las ocurrencias sean deducibles desde sus
condiciones iniciales.

220 Mario Bunge (2000, p. 495).Poder Explicativo. Véase.


252

13.1.4.- Las Explicaciones Genéticas

Las Explicaciones Genéticas consisten en un modelo de explicación causal donde se presenta


una secuencia de eventos, y cuyo objetivo central gravita en indagar sobre el evento primario, es
decir, la génesis de toda la cadena de causas, lo que yo denomino como <<Principio de Nexo de
Causa Genética>> Donde el último evento será verdadero si y solo si, se demuestra que está
unido al suceso primario a través de eslabones consecutivos. Manifestando inequívocamente que
el efecto es reflejo fiel de una causa que lo origina. Algo parecido afirmaba (Hume, 1739), Todo
efecto supone necesariamente una causa, siendo efecto un término relativo del que causa es el
.sPuro correlativo.

El lector no ha de confundirlo con la Explicación Genética en el sentido Mendeliano del


ov
it término, o de Epigenómenos, enfermedades de origen genético. En una explicación genética, o
ac
il de consecución de la causa primaria221, ha de mostrase y correctamente explicarse, el conjunto
px
E lógico y completo de los componentes de relaciones causales.
n
ói
ca Según Nagel (2006), la tarea de las explicaciones genéticas es determinar la secuencia de
gi
ts sucesos principales a través de los cuales un sistema originario ha evolucionado y se ha
ve
nI
transformado en otro. Una explicación genética consiste y se le considera un caso especialísimo
e
sd de explicación causal. Y, una explicación de este tipo será satisfactoria cuando, y solo cuando, en
a
am sentido científico, es posible su contraste y además, es independiente del fenómeno que explica.
rog
r
P A toda explicación genética es posible abordársele desde el enfoque nomológico – deductivo,
so
L siendo así, a la causa se le considera como una serie más o menos completa de circunstancias y
:na
sucesos que podrán ser descritos usando para ello un conjunto de proposiciones. Tales, deben
ue
alb evidenciar el carácter evolutivo del sistema, encadenando las proposiciones a través de eslabones
V contentivos de gran número de enunciados singulares que directamente hagan referencia hacia
na
oim eventos pasados. En vista de que este tipo de explicación involucra causas, se pide al lector
R indagar sobre el asunto en el apartado referido a los Programas de Investigación Explicativos
Causales.

221 Posterior a haber llegado a algunas conclusiones respecto a la voluntad como causa, es posible afirmar: sólo lo conocido o, la única voluntad
que podemos lógicamente inferir que existe, no está, de ninguna manera, asociada a un poder arbitrario que origine, altere o detenga un
movimiento. Esto pareciese ser sólo una causa secundaria, como un estado en una rutina, pero uno donde el lado cognoscible de la rutina cambia
de lo físico a lo físico. Algo fuera de allí es imposible ser estudiado por la ciencia. En este accionar no yace poder alguno que origine tal
secuencia de movimientos. Entonces es aquí donde nuestra ignorancia comienza. Por esta razón, no podemos inferir sobre la posibilidad de la
existencia de una primera causa, pues no existe nada para soportarlo lógicamente en nuestra experiencia. Razón por la cual no es posible pasar de
lo conocido hacia algo totalmente diferente en lo desconocido. La ciencia no sabe nada de las primeras causas, lo que marca un permanente o
temporal límite a nuestro conocimiento. Pues, sería un error inferir algo más allá de nuestra impresión sensorial donde el conocimiento y la
inferencia son palabras sin sentido. Para ello habría que estudiarse a la ignorancia dentro de la esfera del conocimiento. Entonces, en una causa
genética, nuestra ignorancia comienza. Karl Pearson, The Grammar of Science. (1900; P.127 y ss.). Adaptado y reinterpretado por el autor.
Véase.
253

13.1.5.- Las 3 Condiciones de Inexplicabilidad222

La Inexplicabilidad representa para el científico una expresión de frustración por incapacidad


de cubrir la meta propuesta, por más que ha concebido alternativas, ejecutado operaciones con
conceptos y procedido íntegramente sin violación de secuencia lógica alguna. Se ha topado con
una parálisis intelectual que lejos de ayudar, le ha dado a probar del amargo néctar del fracaso.
Pues, no ha conseguido acertar acerca del contenido que la explicación requería, entonces, lo
explicado ha finalizado sin lograr aportar evidencia o convencimiento, muchos menos,
demostración. Quiere decir, la sed intelectiva sigue viva y con ansias de ser satisfecha. El buen
.sPuro explicador debe hacerse entender con pocas pero precisas palabras, y con ellas, impregnar el

intelecto de su interlocutor como se le hace al ganado con hierro incandescente.


ov
it Si algo se explica y no llega a comprenderse, la acción se convierte en una explicación
ac
il
px imperfecta. Varios motivos pudiere haber, el principal, que el receptor de la explicación o la
E razón que sustenta la verdad entre en conflictos con creencias. Si el hecho se verifica, se hará

ic presente una tendencia hostil hacia la explicanda, no importa el nivel y profundidad de verdad
ag
it que manifiesten sus premisas, entrará en escena un tercer y no invitado actor, la disonancia
sve
nI cognitiva. Y ésta, comúnmente se presenta en personas dogmáticas o estúpidas, entonces, no
de existirán argumentos sensatos con posibilidades de convencer y saciar de conocimientos a una
sa
ma persona que crea en lo absurdo. Y en cierto sentido, al dogmático le sirve de protección pues,
rog jamás se ha conocido de una persona estúpida que se haya vuelto loca.
r
P
so La condición de Inexplicabilidad quiere decir que quien explica no ha entendido que un
L
:na problema es un problema científico si y solo si, este tiene solución. Que pierde su tiempo
ue tratando de aportar verdades y demostraciones donde sólo se debe persuadir con palabras que al
alb
V interlocutor le gustaría oír. Las creencias contienen falsedades hábilmente mezcladas con
na irracionalidad, y a las únicas personas que se oponen a las verdades son aquellas que viven de
mi
o quimeras o simplemente navegan sobre un rio de mentiras. De todos modos, negar una verdad no
R
cambia los hechos.

En vista de que la irracionalidad tiene su lógica, la Inexplicabilidad también la tiene.


Denomínese Inexplicabilidad científica a aquellas situaciones donde los hechos no pueden ser

satisfechos por el conjunto de mecanismos usados para explicarlos, es decir, el Explanans es


insuficiente o no satisfactorio para manifestar al Explanandum. La necesidad de cognición
manifiesta no consigue correspondencia o ha sido absolutamente negada.

222 Los conceptos de este aparte, las condiciones de Inexplicabilidad, son extraídos desde: Achinstein, Peter. (1983). The Nature of Explanations.
Capítulo referido a: The Limits of Explanations. Oxford University Press. El resto es propiedad del autor de este Libro.
254

Varias pueden ser las razones, según Hempel, una baja probabilidad en eventos aleatorios es
inexplicable, además, las identidades en un sistema no merecen explicación. No obstante, en
cada ciencia hay y existe siempre algo inexplicable. Pero, ¿Qué es lo último que debe ser
explicado?; ¿En qué consiste la idea de Inexplicabilidad? Para (Achinstein, 1983), las 3
condiciones de Inexplicabilidad se describen a continuación:

Condición I: lo explicable puede ser formulado como una pregunta indirecta “q” cuya forma
directa es “Q”. Y se iniciará con explicabilidad relativa al conjunto de instrucciones “I”.
Entendiéndose como Inexplicabilidad en la forma que cualquier satisfacción “I” sea denegada.
.sPuro Regla 1: Producto Visual de Explicación e Inexplicabilidad: [“q” es explicable en la forma
que satisface “I” si y solo si, (Ǝx) (“x” es una explicación de “q” que satisface “I”].
ov
it • Explicación de la Condición: [“q= Evento” es explicable en la forma que satisface
ac
il “I”=Entendimiento/Comprensión si y solo si, (Ǝx) (“x=Secuencia de un fenómeno” es
px
E una explicación de “q” que satisface “I”].

ic Condición II: Teoría del Par Ordenado: [“x” es una explicación de “q” que satisface “I” si
ag
it
sve y solo si, “x” es un par ordenado cuyo primer miembro es un contenido proposicional dado con
nI respecto a “Q” que satisface “I”, y cuyo segundo miembro actúa como explicador] Por ejemplo:
de
sa a la pregunta del ¿Cómo fueron creadas las especies?, en el amplio sentido de explicabilidad
ma expresado en (I), Las especies fueron creadas por los deseos de Dios de la existencia. Esta
rog
última frase representa la respuesta a cómo fueron creadas las especies. Así mismo, como
r
P
so proposición, la explicativa, satisface al conjunto de instrucciones para la respuesta encontrada en
L la biblia.
:na
ue
alb En otro sentido, [“q” es inexplicable en la forma que satisface “I” si y solo si es posible,
V (Ǝa)(Ǝs)(Ǝu)(“a” es un acto en el cual “s” explica “q” pronunciando “u”, y “u” expresa una
na
mi proposición que satisface “I”]→ [“q” es correctamente explicable en la forma de satisfacer “I”,
o si y solo si, “x” es una explicación de “q” que satisface “I”, y “x” es correcta] En este caso,
R
cualquier proposición se tornará incorrecta siempre que sus proposiciones constituyentes sean
falsas.

Condición III: una explicabilidad podrá ser construida para significar no solo lo
correctamente explicable, sino también, lo apropiadamente explicado. Es decir, ha de ser
explicada de tal forma que sean satisfechas las instrucciones apropiadas. [“q” es (correcta y
apropiadamente) explicable en la forma que satisface “I”, si y solo si, (Ǝx) “x” es una
explicación de “q” que satisface “I”, y “x” es correcta, e “I” representa a un conjunto apropiado
de instrucciones a seguir para la explicación de “q”]
255

Existen diferentes razones para que “q” pueda no ser explicada en la forma que satisfaga “I”.
Una posibilidad es que “I” no es satisfacible por ninguna vía. Segundo, incluso si las
instrucciones han sido satisfechas, cualquier respuesta que satisfaga “I” podría ser incorrecta; en
el caso de que “q” pueda ser no explicable para las condiciones (II) y (III). Tercero, incluso si
“q” puede ser respondido correctamente en la forma que satisfaga “I”, lo siguiente podría no ser
un conjunto apropiado de instrucciones a seguir para explicar “q”; si es así, entonces “q” es
inexplicable en el sentido de (III), incluso siendo explicable para (I) y (II).

Cuando se intenta explicar un fenómeno debe analizarse qué tipo de explicación alcanzará a
.sPuro ser la más satisfactoria, aún más allá, ¿cómo llegar a ella?, ¿qué tipos de enunciados debe
contener la explicanda? o ¿qué tipo de conexiones necesarias y sucesiones continuas, deben
ov desarrollarse en los enunciados? Las respuestas a estas preguntas sólo están inscriptas en el
it
ac marco científico y lógico de la mente de cada investigador. En ningún otro lado.
il
px
E

ic
ag
it
sve
nI
e
sd
a
am
rog
r
P
so
L
:na
ue
alb
V
na
oim
R
256

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XIV: LOS PROGRAMAS


DE INVESTIGACIÓN
EXPLICATIVOS CAUSALES…

Un intento prematuro de explicar algo que te emocione, destruirá tu percepción en lugar de


aumentarla, porque tu tendencia será explicar más que buscar.
Victor K. McElhenty, Insisting on the Impossible, 245.-Edwing Herbert Land.
257

14.1.- Los Programas de Investigación Explicativos – Causales

Creo que todo lo que hacemos o vivimos tiene su causalidad,


eso es bueno, sin embargo, no podemos ver a través de ella.

Albert Einstein.

e denomina Programa de Investigación Explicativo Causal, a la acción científica

S mediante la cual, el investigador describe, explica y esclarece la conexión necesaria y


suficiente entre al menos dos cosas o sucesos. Donde el segundo evento, denominado
efecto, está condicionado por el primero, llamado causa o agente causal, en tiempo y espacio. Es
decir, no existe más efecto que donde hay una causa <<Principio de Causalidad Universal>>
Las Explicaciones Causales, contrario a las puras, ameritan de leyes y teorías para hacer entender
las causas, desde ese punto de vista, el sujeto de conocimiento contiene carga teórica. En otras
palabras, dependen de una teoría o cadena de explicaciones sistemáticas que las ilustren. El fin
de toda Investigación Explicativa Causal es hacer efectivo el convencimiento de que tal causa,
produce determinado efecto. Para ello es necesaria la eliminación, total y absoluta, de vacíos
explicativos.

Se concibe entonces como Explicación Causal, a aquella que subsume a la explicación


direccionada sobre alguna ley causal, y la cual pertenece a alguna teoría de causalidad. Será
entendida como Explicación Causal simple, si y solo si, con una sola ley o teoría es suficiente
para hacer entender el cómo determinado efecto es producto de determinada causa.

Contrariamente, si determinado efecto es producto de variados orígenes causales, no


pudiendo ser éste explicado con una sola ley o teoría, el investigador debe hacer gala de su
destreza optando por un Programa de Investigación Causal Explicativo de varios niveles.

Según explica (Hegel, (1770-1831)), la verdad del fenómeno Causa - Efecto, consiste en una
relación esencial; hay algo que media entre la causa y su efecto. Una relación siempre tiene dos
lados, pues, hay una acción existente <<Causa>> y una acción reflejada <<Efecto>>, donde cada
lado representa un subsistema independiente. Esta relación esencial contiene la unión
determinada de ambas.

Un efecto no es más que un reflejo de su causa, donde cada determinación representa un lado.
Entonces, una relación Causa - Efecto no podrá tratarse por separado, ambas son lo mismo pero
con polos opuestos. El efecto sólo existe porque su causa también existe, está unido él mismo
con su otro. Por eso, cada efecto tiene una existencia independiente y es reflexión esencial de sí
258

misma223. La Causa y el Efecto comparten una relación estricta de paralelismo o equivalencia.


Según el Principio de Identidad, un efecto comparte propiedades con su causa que los hacen
parecer iguales.

Empero, hay independencia de acciones y sucesiones del uno con el otro. Toda fuerza es una
causa, la misma funciona como el agente que provoca cambios y hace mover mecanismos.
Cuando alguien pregunta por un suceso, no está sino haciendo referencia a sus causas. Entonces,
causa y explicación están separadas únicamente por la dialéctica aplicada sobre el hecho causal

.s descrito.
el
as En ese sentido, Hegel afirma que, en una relación Causa –Efecto, el segundo es producto del
ua
C primero, es decir, no existe un inmediato <<A menos que concurra contacto físico>>, sino, una
-
so relación de independencia reflejada en el efecto, cuyo único origen es su opuesto, denominado
vi
ta causa. Entonces, hay una relación entre el condicionado <<Efecto>> y su condición <<Causa>>,
ci
l que determina la sucedencia como acción recíproca224.
px
E
nó Como un efecto primario puede convertirse en causa para un eslabón secundario, en una
ic
ag cadena infinita, entonces sólo existe una explicación posible; Una Causa y su Efecto conforman
it
sve una relación entre un todo y sus partes, es decir, tienen vidas separadas pero pertenecen a un
nI
mismo sistema, donde cada parte está recíprocamente condicionada. Entonces, y para propósitos
e
sd
de este aparte, el fin de una investigación Explicativa Causal se fundamenta en identificar y
a
am
rog clarificar, en qué consiste la mediación <<Fuerza>> que hace posible un efecto posterior a su
r causa. Para ello Hegel afirma:
P
so
L
:na El efecto no contiene, por ende, en general nada, que la causa no contenga.
Inversamente la causa no contiene nada que no se halle en su efecto. La causa es
ue causa sólo porque produce un efecto, y la causa no es otra cosa que esta
alb determinación, la de tener un efecto, y el efecto no es otra cosa que el tener una
V causa. En la causa misma como tal se halla su efecto, y en el efecto se halla la causa;
na si la causa no actuara todavía, o si hubiese cesado de actuar, no sería causa, y el
oim efecto, cuando su causa ha desaparecido, ya no es efecto, sino una realidad
R diferente225.
En su formulación más simple, no deberá entenderse a la Causalidad igual al Principio de la
Razón Suficiente, causalidad es explicar qué fuerza media y se manifiesta entre ésta y su efecto.

223 Puede ampliarse el entendimiento de esta relación en la obra de: Hegel. La Ciencia de la Lógica. Capítulo III. “La Relación Esencial”: Véase.
224 Retro-Causalidad o Retro-Cronología, consiste en un conjunto de teorías e hipótesis físicas sobre el entendimiento de las causas y los efectos
en la mecánica cuántica. Mediante ellas se afirma que un evento puede tener causalidad reversa, esto es que se sucede primero el efecto y luego
su causa. ¿Puede realmente un efecto cambiar o elegir su causa?, si ello fuese posible, entonces el tiempo podría manipularse con el control
remoto de un tv. El concepto surge como paradoja filosófica y como experimento mental a partir de ciertos descubrimientos de Einstein en la
observación de la mecánica cuántica y los cuales operacionalizó como teorías en sus denominados agujeros de gusano. Lo cierto es que la única
forma de viajar al futuro es atravesando al presente, pues para cuando se inicie el viaje ya será pasado. La tecnología como ciencia sí le ha
prestado225
Sobreatención al caso
la Relación y se encuentra
de Causalidad: La desarrollando
Causalidad Formal. También en
investigaciones en Hegel. Véase. su primer hito, la tele-trasportación, ya fue alcanzado.
esa dirección,
259

La Razón Suficiente sólo se emplea para elaborar el argumento de causación. Según describe
Hume (op, cit, p. 42); Si dos objetos, perfectamente parecidos entre sí, se dejan ver en el mismo
lugar a diferentes momentos, y coinciden en la dependencia de uno con respecto al otro, es
evidente que, entre ambos existe una relación y extraña fuerza denominada causa efecto.

Para inferir una relación causa – efecto deben cumplirse al menos los siguientes requisitos: la
causa, en tiempo y espacio, siempre acontecerá primero que el efecto; como ambas pertenecen al
mismo sistema su relación ha de ser demostrable; la fuerza de la causa ha de ser proporcional a

.s la manifestada en el efecto; el marco explicativo que circunscribe al efecto, lo que lo revela, debe
el ser armónico, congruente y plausible con los hechos y el entendimiento.
as
ua
C En consonancia con Abdus y Yen226 (2010), Causa y Efecto refiere a una relación entre dos
-
so fenómenos, donde uno es la razón de ocurrencia del otro. Allí, normalmente el término efecto
vi
ta puede ser estadísticamente explicado como resultado de una Regresión Lineal o un Análisis de
ci
l Correlación227 entre dos variables “X”, y “Y”, explicada como efecto.
px
E
nó 14.1.1.- Los 3 Tipos de Investigaciones Explicativas Causales Indirectas
ic
ag
it
sve Una investigación explicativa de causas podrá presentar las siguientes tres formas de abordaje
nI indirecto, denomínese así, a toda aquella investigación explicativa causal que obvia, en parte o
e
sd por completo, a los elementos e intervalos temporales presentes en la cadena transcausal, el
a
am siguiente gráfico detalla la idea de investigaciones explicativas causales indirectas:
rog
r Primera: cuando se orienta desde la causa hasta el efecto, omitiendo muchas de las
P
so
explicaciones de la secuencia de pasos antes de la ocurrencia de la consecuencia, se conoce
L
:na como Investigación Explicativa Causal Parcial e Indirecta, centra su accionar en explicar sólo
ue
alb unos pocos eslabones de la cadena transcausal, dejando ciertos vacíos explicativos. El lector se
V preguntará, ¿Qué sentido tiene omitir pasos y secuencias explicativas que harán más entendibles
na
las ideas a desarrollar en la investigación?, pues, sencillamente algunos pasos deben, por
oim
R obligación, ser omitidos cuando no se dispone de la tecnología necesaria para operacionalizar o
demostrar ciertas hipótesis que harían más entendibles las unidades fenoménicas de ocurrencia.

226 Abdus Wahed y Yen Chib Hsu. Encyclopedia of Research Design. Editada por Salkind, Neil. Concepto de: Cause and Effect. Véase.
227 La Regresión Lineal consiste en un procedimiento estadístico mediante el cual, se busca determinar la relación entre una variable dependiente
y una o más variables explicativas independientes. Se llamará lineal si la curva obtenida como respuesta, y derivada de los datos, se ajusta a una
línea recta. Es decir, en su estructura, el comportamiento de la variable dependiente puede explicarse a través de un segundo conjunto de
variables independientes. La regresión lineal amerita, en muchos casos, de un Análisis de Regresión: el cual consiste en un mecanismo estadístico
basado en un modelo que describe el funcionamiento del evento o fenómeno bajo estudio. Allí es posible predecir los valores de la variable
dependiente, pues, está sujeta a cambios, propios de su intrínseca interacción con el sistema donde actúa. Donde, las variables <<Causales>> o
independientes, ejercen cierta fuerza o influencia sobre la variable Efectora, de esa manera es posible predecir el comportamiento del efecto
conociendo el proceso que da origen a la causa. La correlación por su lado, consiste en un procedimiento mediante el cual, los cambios en una
variable se hacen corresponder con cambios en otra. No implicando para nada, la existencia de una extraña fuerza conectora que medie entre
ellas. Por lo que habrá de prestarse suma atención a las explicaciones derivadas desde este tipo de análisis.
260

Tercer Tipo
Ex Post Facto

Unión
Causa Determinante Efecto
Cadena Causal

Cada Eslabon Representa a una


Única Unidad Fenoménica
Estudiada en un Intervalo
Temporal Específico

Primer Tipo
Omite muchas
Explicaciones y
Eventos de la
.s Cadena Causal

el
as Segundo Tipo
ua Predictiva

C
-
so Segunda: Cuando partiendo de la causa, sólo se investigan los elementos y unidades
vi
ta fenoménicas que hacen posible el efecto, y los cuales, no están considerados en absoluto dentro
ci
l de la cadena causal. Como su objetivo es anticiparse a él, entonces adquiere la forma de una
px
E
investigación predictiva. Tercera: cuando se inicia desde el efecto como acción refleja y se

ic desean conocer sus causas, omitiendo toda secuencia causal y centrándose en la retro causalidad,
ag
it tomando la forma de una investigación Ex Post Facto.
sve
nI
Tenga presente el investigador, ninguno de estos modelos que aquí propongo, lejanamente se
e
sd
asemejan a las acostumbradas indagaciones causales, predictivas o ex post facto. Por el
a
am
rog contrario, se diferencian de las anteriores debido a la operacionalización conjunta y sistemática
r de Teorías, Leyes, Variables y Variables Constantes. De la existencia de causaciones internivel
P
so simétricas ascendentes o descendentes, con sus correspondientes teorías asociadas y agregadas.
L
:na Del uso de enunciados singulares e hipótesis de nivel medio en cada secuencia explicativa. Y de
ue la opción, si el agente científico así lo decide, de explicaciones basadas en la teoría
alb
V reduccionista.
n
a
oim 14.1.2.- Causación Probabilística
R
Se manifiesta cuando el agente científico declara una generalización probabilista, donde el
cambio o transición que lleva al efecto, posterior a la causa, consiste en una medida enteramente
posible pero no garantizada. Una Causación Probabilista centra su accionar en un análisis
numérico de las relaciones observadas en el sistema donde interactúan un antecedente y un
consecuente, pudiendo derivarse desde regresiones lineales simples, múltiples o análisis de
correlación.

En este tipo de estudios, el efecto no siempre ha de presentarse bajo la causa adecuada, sobre
261

todo, si existieren Multi Agentes Causales. Donde, un determinante causal no siempre,


probabilísticamente hablando, ha de ser suficiente para activar el efecto. El hecho de que exista
correlación, numéricamente hablando, entre ambos eventos, no implica bajo ningún sentido, que
una es la causa y la otra el efecto, hasta que el agente científico demuestre causalidad.

La existencia de correlación en un proceso causal, puede inducir al científico a derivar


inferencias basadas en la Falacia de la Causa Falsa228: denominada en ocasiones post hoc, ergo
proter hoc <<Tras esto y, por tanto, a causa de esto>>: consiste en el error de sostener que
debido a la relación entre dos fenómenos, basada únicamente en una analogía numérica, donde
.s
el ambos varían conjuntamente <<Existe Concomitancia>>, uno ha de ser la causa del otro. Esta
as
ua
magnitud numérica sólo aporta ciertos indicios no determinantes sobre la existencia de
C
- causalidad real. El problema surge cuando se admite la evidencia de correlación, como hecho
so
vi cierto de causalidad no demostrada e indemostrable.
ta
ci
l En estadística, una correlación espuria es aquella en la cual dos acontecimientos carecen de
px
E toda conexión lógica y se evidencia la omisión de un tercer factor no tomado en cuenta. Es decir,

ic el equilibrio causal presenta alteraciones, existiendo la presencia, denotada en su ausencia, de al
ag
it menos un factor determinante causal que discrecionalmente fue omitido, y el cual es
sve
nI absolutamente necesario para explicar el consecuente. El factor omitido podrá pertenecer a la
de cadena causal o transcausalidad, y como explicar consiste en concatenar conceptos, y allí se ha
sa
ma roto el orden relacional, entonces la correlación espuria hace errónea cualquier explicación del
rog hecho. De esa manera la explicanda nunca podrá suministrar intelección.
r
P
so Es posible la detección de una relación espuria a simple vista considerando violación de la
L
:na siguiente secuencia lógica: a) Todo evento “x” debe preceder al evento “y”, seguimiento de la
ue cadena causal: b) Si “y” no ocurre entonces “x” nunca ocurrió, relación lógica entre eslabones
alb
V transcausales: c) “y” debe ocurrir cada vez que ocurra “x”, relación de verdad y conexión lógica
na
transcausal. Existe y puede darse también el caso de una Correlación Parcial229. Es decir, se
mi
o conoce como correlación parcial entre dos variables a aquella, cuyo coeficiente de correlación
R
depende de una tercera no tomada en cuenta en las consecuencias relacionales lineales. La

correlación parcial “X”; “Y” dado “Z”, sirve para identificar en qué escala de medida de la
variación lineal entre “X” y “Y”, puede deberse a la correlación de ambas con “Z”.

Es bueno recalcar que cuando “X” y “Y” no están correlacionadas con “Z”, se obtendrá un
coeficiente de correlación igual al coeficiente de correlación parcial. Evidenciándose que el valor

228 Diccionario Akal de Filosofía (1999), Robert Audi Editor. Cambridge University Press. Falacia de la Causa Falsa, Concepto de: Véase.
229 Tomado de: Dodge, Yadolah (2008 of Statistic. Editorial Springer. Concepto de: Partial Correlation, Véase.
262

de la correlación, atribuible y medible en la escala, no se debe en este caso, a la presencia de “Z”.


Las Explicaciones Causales probabilista presentan su límite, es decir, existe una demarcación
donde el proceso explicativo debe detenerse, de allí en lo adelante, sólo se admite

experimentación para dilucidar si realmente la magnitud numérica que la identifica se cumple o


no.

Esto hace que determinados eventos efectores, o cambios sucedidos en la transcausalidad, no


puedan explicarse si la probabilidad es baja, muchos eventos quedarán a expensas de

.s demostraciones experimentales puntuales. Entonces, Causalidad no es igual a correlación… la


el
as correlación es solo un concepto estadístico para relaciones lineales, pero fenomenológicamente
ua medibles, la causa y el efecto son interpretaciones sobre una relación determinística.
C
-
so 14.1.3.- Causación Hacia Abajo: Downward Causation
vi
ta
ci En este aparte se presenta una nueva fuente de causación, la causación hacia abajo,
l
px
E Downward Causation. Consiste en un proceso explicativo de la causa basada en el Principio
nó Reduccionista: donde el comportamiento de todo un sistema está determinado, por entero, en
ic
ag base al comportamiento de sus partes, elementos o subsistema. En este tipo de explicaciones,
it
sve
necesario es hacer entender, el por qué el todo y sus partes interactúan de esa manera. El proceso
nI
e causal hacia abajo involucra, en mayor o menor cuantía, a los conceptos de tiempo, espacio y
sd
a causalidad como categorías230.
am
rrog
En la causación hacia abajo, es menester estratificar un árbol jerárquico por niveles de los
P eventos, de manera de poder asociarlos a un determinado eslabón de la cadena transcausal. Allí,
so
L han de explicarse las interacciones en el nivel y los interniveles. Donde la cadena explicativa
:na
ue debe contener la misma cantidad de eslabones que la cadena causal, es decir, ningún eslabón ha
alb de exceptuarse del proceso explicativo. Para cada eslabón una explicación, para una cadena, un
V
na conjunto de explicaciones.
oim
R 14.1.4.- Causación hacia Arriba: Upward Causation

La causación hacia abajo refiere a los efectos que se ejercen desde los niveles altos hacia los
bajos en determinados fenómenos. Contrariamente, la causación hacia arriba, obedece a los
efectos desde los niveles bajos hacia los altos. Ambos podrán coexistir en presencia de la teoría
del mecanismo. Donde se explica el porqué, los eventos percibidos en un fenómeno presentan
determinado orden, incluyendo el por qué se repiten y el cómo éstos ocupan un lugar en un
tiempo específico.

230 Heylighen (1995). Citado en: Logic and Reality (2008): Sección 8.6.1. Downward Causation: por Joseph Brenner. Editorial Springer.
263

Se dice que hay causación, hacia arriba o hacia abajo, cuando un evento en un momento
acciona y ejecuta fuerza sobre otro, de mayor o menor jerarquía. Al primero se le acepta como
primer movimiento mecánico o agente causal, y al segundo, como agente efector y sobre el cual
recae la fuerza aplicada, de allí lo importante no son los movimientos, sino el cómo este es
producido por esa fuerza.

En las sociedades democráticas, el poder del pueblo sirve para elegir presidentes. A su vez, el
presidente decreta leyes que han de ser cumplidas por el pueblo, esto es un ejemplo de causación
.s bidireccional, donde cada estudio amerita separación. Toda fuerza es una causa que produce un
el
as movimiento. Si la dinámica de acción entre niveles, hacia abajo o hacia arriba, pero sólo una a la
ua
vez se presenta, se dice que es unidireccional. No obstante, en la interacción interniveles, podrán
C
- presentarse efectos nuevos denominados efectos emergentes. Quiere decir, se producen
so
vi únicamente por el estudio Internivel, pudiendo no estar presentes cuando la explicación se
ta
ci orienta en una sola dirección. Caso muy común en sistemas jerárquicos y asimétricos de
l
px
E organización.

ic Un evento en un nivel podrá presentarse también en un nivel superior o inferior. Se
ag
it
sve denominará Causación Lateral si existiere dependencia fáctica o contra-fáctica, y manipulación
nI de energía sobre variables efectoras al mismo nivel. No surtiendo efecto hacia niveles superiores
e
sd o inferiores. Toda causación lateral involucra explicación sobre 2 cosas: la fuente de causación y
a
am el por qué no afecta otros niveles. Haciendo entender que la realidad efectora sólo actúa allí.
rog
r
P
so
L
:na
ue
alb
V
na
oim
R
264

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XV: LOS PROGRAMAS


DE INVESTIGACIÓN
EXPLORATORIA…

Equipado con sus cinco sentidos, el hombre explora el universo a su alrededor y llama a tal
aventura Ciencia.

Edwin Hubble.
265

15.1.- Los Programas Exploratorios de Investigación

No cesaremos nunca la explorar, y el final de toda nuestra


exploración será llegar donde comenzamos y conocer el lugar
por primera vez.
T.Allí,
la
S. nube
Eliot.

de
conocimiento
xplorar
ignorancia seenvuelve
significa altera
indagarcuando
al fenómeno
sobreelalgo
entendimiento
con impidiendo
se descubrir.
el fin de la actuación
incrementa una
Es vez
sobre
cuandodisipada
unaél.penumbra

E
que obstaculizaba la observancia mental del hecho. Toda Investigación Exploratoria produce una
el

parálisis intelectual al primer acercamiento, entonces el científico, paciente y asertivo,


planificará un ciclo de observaciones intelectualmente rigurosas con las cuales desarrollará un
entendimiento básico. Posteriormente, con una visión integradora y coherente, compilará
pequeñas cantidades de información y se apreciarán nóveles descubrimientos. Es así como la
Investigación Exploratoria consiste en un eslabón intermedio entre la investigación básica y la
aplicada para el desarrollo de un conjunto de actividades prioritarias en áreas específicas.

La Investigación Exploratoria se fundamenta en un procedimiento mediante el cual, el


investigador obtiene los primeros vestigios de entendimiento sobre el fenómeno. Observa,
compara y descifra pero no actúa precipitadamente. Observa patrones, compara intervalos de
sucedencia entre eventos y discierne sobre la cercanía o lejanía de ciertas unidades fenoménicas
con respecto a un evento común. Allí agrega unidades de razón a determinada cantidad de

proposiciones, y al concatenarlas construye conceptos, incrementando el entendimiento y


alterando el conocimiento.

En los Programas Exploratorios de Investigación la meta consiste en estimar una visión del
problema que antes no se tenía, para con ello conseguir una caracterización de los elementos que
a éste rodean. Habiendo iniciado desde lo desconocido y procedido bajo un enfoque sencillo de
sumisión a las reglas y mentalmente flexible. Los estudios exploratorios son interesantes cuando
existe la ausencia absoluta de conocimiento… la nada, o simplemente se especula sobre el
funcionamiento de algo.

En estos estudios, enfrenta al fenómeno sólo a través de la intuición y los conocimientos a


priori. Esta secuencia bien definida de pasos le admitirá extraer conocimiento máximo. Sin
ninguna otra herramienta, se adentra en el fenómeno buscando vulnerarlo e intentando extraer de
él, comprensión de sus causas haciendo observancia de sus efectos, develando así, el misterioso
266

mecanismo bajo el cual opera. En un primer acercamiento necesitará excavar hasta la


profundidad de la data con respecto a sus capas de abstracción.

15.1.1.- Estadio 1: La Mente Exploratoria del Científico

Es en el estadio de abstracción donde un efecto encuentra su causa231, el científico entrará


en un período de concentración donde captará flashes perceptivos, allí podrá crear y explicarse
sus primeros conceptos para luego concatenar hechos usando únicamente para este primer
estadio, el conocimiento inmediato. No obstante, ameritará del conocimiento mediato, de la
razón, para probar. Como un científico nunca sabe, solo supone a través de medias verdades, ha
. de plantearse hipótesis por conjeturas, recogiendo errores por el camino y abriendo paso a

ic
ag descubrimientos, abstrayendo, comparando y discerniendo, es así como logrará construir ciencia
it
sve y él lo sabe. Esto le atrae, si la ciencia fuese fácil no valdría la pena intentarlo.
nI
e Cuando el científico, a través de intrincados protocolos operacionales basados en intuición y
sd
rio deducción, logra establecer un mecanismo audaz de aprendizaje, se sobrevendrán acciones
ot mentales coercitivas y fundamente informativas que lo guiarán hacia experiencias nuevas. Será
ar
lo entonces cuando dirija su artillería analítica inscripta en el marco científico de la mente, sobre
xp
E todo aquel comportamiento emergente que pueda ser manejado por los mecanismos de la razón.
sa
am En la Investigación Exploratoria, este escalamiento razonado consiste en el preámbulo, o
rog estructura generatriz que el investigador pone en marcha cuando aborda un fenómeno nuevo y
r
P del cual no sabe, a ciencia cierta, qué resultados esperar.
so
L
:na Obtenida la primera pequeña cantidad de información, evitará en lo posible toda temeraria
ue
generalización y callará con prudencia hasta que su disciplinada imaginación organice las ideas y
alb
dé paso de lo menos formado a lo más formado. Es entonces cuando el pensamiento produce un
V
na cambio sobre aquello que ha sido pensado.
oim
R El pensamiento produce el cambio, y la materia, objeto o cosa pensada lo recibe, dando el
primer barniz de entendimiento a un evento primariamente obscuro. A saber, todo acto de
entendimiento concurre con un orden jerárquico de las propiedades que afloran cuando lo menos

231 1628. William Harvey descubre cómo funciona el sistema circulatorio humano. Para la fecha, muchos pensaban que el sonido dentro del
pecho (latidos) eran la voz de la conciencia. Otros creían que la sangre era creada en el hígado para ser consumida por los músculos, y que las
arterias sólo contenían aire. Se pensaba también que la sangre de las arterias y las venas era distinta. Harvey mientras más pensaba más dudaba,
entonces, dio inicio a una estrategia de pensamiento análisis con cierto toque de disciplina. Experimentó con animales uniéndoles arterias y venas
a ver qué pasaba. Trababa la circulación y luego la soltaba para observar hacia donde se dirigía la sangre en cada caso. De allí comprobó que
tanto arterias como venas estaban conectadas en un sistema circulatorio simple. Afirmando que la sangre siempre fluye de las arterias a las venas.
Detalló que el corazón y sus latidos, actuaba únicamente como músculo que bombeaba sangre a pulmones y arterias. Demostró que la sangre no
era consumida, como para la época se pensaba, sino que circulaba continuamente por el cuerpo llevando oxígeno y nutrientes. Harvey es
considerado hasta ahora, el padre de la Fisiología Moderna. Kendall Haven (2007). 100 Greatest Science Discoveries of All Time. Véase.
267

formado adquiere una nueva forma, al contrastarse, deriva en un saber cierto, denomínese a ello,
una potencia mental aplicada a un acto exploratorio que ya ha arrojado su primera evidencia.

Como esta primera evidencia fue capturada netamente a través de la intuición, no


interviniendo ningún instrumento científico más que su propia mente, y fue su potencia mental la
que le dio forma, no podrá garantizarse verdad sobre el hecho hasta no ser sometido a medios
formales de demostración y/o experimentación. En los primeros estadios de una Investigación
Exploratoria, el investigador ha de estar claro, y puesto que es su mente la que está operando, ha
de saber diferenciar entre fantasía e imaginación.

.
nó Como una actividad exploratoria requiere básicamente de ejercicios cerebrales, liar ambos
ic conceptos puede inducir al error. La fantasía es una sucesiva representación de imágenes
ag
it mentales, lo que la diferencia de la imaginación, que también produce el mismo efecto, es que la
sve
nI fantasía no admite razón y evoca felicidad. Contrariamente, cuando la razón actúa, separa y junta
e cosas, crea clases y relaciones, eso es netamente imaginación, algo imposible con las fantasías.
sd
rio
Es la imaginación la que produce sensaciones, aprehensiones y dudas dignas de exploración,
ot
ar dilucidación y demostración.
lo
xp
E
sa
am
rog IMAGINACIÓN
FANTASÍA NoCrea Razón
Relaciones
Admite
Clases y No Científica
r
P
so
L
:na
MENTE
ue
alb
Base del
V Razonamiento
na Científico
oim
R
268

15.1.2.- Estadio 2: La Descomposición del Problema

Es bien conocida la cercana e inseparable relación entre la estructura del problema y su


dificultad para resolverlo. En este estadio ya el científico ha de haber esquematizado una
problemática más específica en base a los primeros descubrimientos. Cuando se subdivide a un
objetivo general en varios específicos se está ejecutando la descomposición de un problema en

varios sub-problemas. Cualquier solución hallada a un sub-problema específico, que coincida


con cualquier solución para el problema general, será asimilada como válida y directamente
relacionada.

. Contrariamente, podrá haber soluciones particulares no coincidentes con el problema general,


nió
ac entonces, ello implica la creación de sub-problemas independientes, y se podrá, a partir de ellos,
tig
sve crearse un nuevo mecanismo exploratorio sobre tal evento, hasta encontrar, si es que existieren,
nI elementos componentes directamente conectados.
de
so
ir La solución de un problema es medible a través de un rendimiento, éste último se constituye
ot de al menos 3 componentes: La Completud Procedimental; Optimizabilidad del Mecanismo
ar
lo
xp y del Tiempo. La completud se refiere a la esquematización mental y físicamente procedimental,
E que garantizará la misma solución, siempre que el mismo problema se repita. La Optimizabilidad
sa
del mecanismo abarca el aspecto y pregunta sobre si será posible ejecutar la completud
ma
rog procedimental con menos pasos. Por último, el tiempo, la segunda opción será válida si y solo si,
r
P el tiempo requerido, posterior a la optimización del mecanismo, es inferior al tiempo de
so
L
:na completud procedimental y arroja los mismos resultados.
ue
15.1.3.- Estadio 3: El Diseño de Investigación Exploratoria
alb
V
na Las tareas que involucra una investigación exploratoria dependerán del tipo de ciencia y
mi necesidades de información. Básicamente, los pasos son los que se siguen a continuación:
o
R
1) Definición de la Información necesaria;
2) Establecer las Fases Intermedias del Diseño;
3) Caracterización de medidas, valores, escalas y sus procedimientos de interpretación;
4) Especificación de/los Tipo/s de Instrumentos;
5) Aplicación de Mecanismos Estadísticos;
6) Desarrollo de un Plan de Análisis de Datos;
7) Ensayo de una Primera teoría sobre lo encontrado;
269

De la lista anterior sólo se especificarán algunos elementos. Como la Investigación


Exploratoria consiste en un mecanismo flexible y no estructurado232, la información necesaria
para el inicio será siempre vaga y no determinante. A menos de que, por las características
propias de la ciencia a la que haga referencia, se amerite de un conocimiento específico, y la
búsqueda se centre en ello y no en otra cosa.

En el caso especial de un Diseño de Investigación Exploratoria Internivel, este primer


aparte compilará dos vertientes: datos de una teoría de nivel inferior y de una teoría de nivel
superior, ya que el diseño es intermedio, entonces se harán las correlaciones respectivas, directas
y cruzadas de lo tenido contra lo hallado, intentando establecer un vector de regresión lineal que
.
nó coincida y una a la teoría baja con la alta.
ic
ag
it Las fases intermedias podrán variar dependiendo del tipo de evento a estudiar, del cómo sus
sve
nI unidades fenoménicas se manifiestan, y qué se desea conocer. Es cuando el investigador
e comienza a darse cuenta de qué puede conocer y que no. Con frecuencia se harán presente
sd
rio eventos serendépicos <<Descubrimientos netamente basados en azar y comúnmente más
ot
ar importantes que el objetivo perseguido>> que direccionarán la investigación por otros senderos.
lo
xp
E 15.1.4.- Estadio 4.- Exploración y Mecanismos Estadísticos
sa
am Este estadio da inicio con el denominado Análisis Exploratorio de Datos, consiste en un
rog
r enfoque de estudio donde los datos son analizados sin intentar aplicar cualquier modelo
P
so particular. Se utiliza cuando el investigador tiene el primer contacto con los datos. También
L
:na sirve para encontrar desviaciones cuando ya existen modelos comunes definidos233. Toda
ue
Investigación Exploratoria se limita a examinar el problema pero no ofrece soluciones
alb
conclusivas, solo pretende mejorar ostensiblemente el entendimiento de su naturaleza.
V
na
oim
R
232 Bien vale la pena citar el procedimiento de exploración y posterior verificación experimental que dio origen al termómetro por parte de 3
grandes científicos, y la exploración ejecutada por George Beadle sobre los genes. El termómetro, instrumento usado para medir temperatura y
basado en mercurio <<metal líquido que se dilata con el calor y contrae con el frio>>. Fue objeto de varias observaciones. Primero, Galileo
Galilei diseñó un tubo de vidrio que en su parte inferior contenía una esfera que al llenarse con agua y calentarse, este líquido subía. Por
problemas obvios de congelamiento y evaporación, se hicieron nuevos intentos con alcohol y una escala numérica. Posteriormente, Anders
Celsius, introdujo una nueva escala cuya referencia eran los puntos exactos de ebullición y congelamiento del agua divididos entre cien. La
indagación exploratoria se centró en observar los puntos donde el agua cambia de estado, en el de calor máximo se produce la ebullición y en el
mínimo el congelamiento, es decir, cambia de líquido a gaseoso y de líquido a sólido. Este intervalo fue dividido en cien partes llamados grados
Celsius. Lo mismo sucedió con la escala de grados Kelvin usadas para medir temperaturas absolutas (-273,15 grados Centígrados). Una serie de
observaciones exploratorias también fueron ejecutadas por George Beadle en 1934 con el descubrimiento de la Función de los Genes. Los genes
están encordados a lo largo de los cromosomas y contienen especificaciones para la operación y crecimiento de células individuales. Beadle
descubrió que cada GEN <<Molécula de Ácido Nucleico>>, dirige la formación de una enzima en particular y ésta actúa sobre las células. Beadle
eligió una pequeña hogaza de pan que contenía Neuroesporas, una simple estructura genética de la cual estaba bien documentado. Separó a las
colonias en bandejas para que crecieran en medios comunes y luego bombardeó cada colonia con rayos “x”, conocidos por acelerar mutaciones
genéticas. A las 12 horas, la mayoría de las colonias continuaron su crecimiento normal, sin efecto alguno. Solo unas pocas habían muerto y otras
vivían sin lograr prosperar, la mutación genética les impedía crecer, pues la información original contenida en el gen, había sido modificada.
Aparece en: Kendall Haven (2007). 100 Greatest Science Discoveries of All Time.
233 Concepto extraído desde: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Exploratory Data
Analysis, Véase.
270

Para lograr inferencias conclusivas convincentes, se debe acudir a dos secuencias primarias
de suma importancia, para en segunda instancia, dar paso a magnitudes numéricas a través de
procesos estadísticos. Inicialmente se adopta una secuencia descriptiva – causal y una explicativa
– causal. La primera ejecuta operaciones con conceptos de significancia lingüística que brindan
cierta belleza simbólica y adhiere atributos a lo explicado.

Es en la segunda, en la etapa explicativa – causal, donde se hacen presente un conjunto de


adjetivos que engalanan a las ecuaciones matemáticas, tornando sobrios y audaces, a aquellos
atributos invisibles pensados, pues, comienza a formarse el Status Nascendi <<Estado naciente,
de surgimiento de algo>> Es cuando la explicación convence y satisface. Cuyos demoledores
.
nó efectos son apreciados a través de un descubrimiento nuevo.
ic
ag
it Este estadio es jerárquico, se identifica primero el mínimo nivel efectivo para lo que se desea,
sve
nI y de allí es dividido entonces en sub áreas buscando aprendizaje. Todo proceso de aprendizaje
e envuelve actividades exploratorias y la observación detallada de consecuencias. Se dice que un
sd
rio
proceso exploratorio está asociado con las propiedades del objeto o fenómeno, y a cada
ot
ar propiedad típicamente se le denomina información.
lo
xp
E Es en el estadio exploratorio de la investigación donde el científico centra sus esfuerzos en la
sa
construcción de la existencia de prueba <<Nervus Probandi>> Allí perfecciona la observación
am
rog sobre los mecanismos que envuelven al fenómeno, permitiéndole la captación de patrones y
r
P lenguaje dentro de un contexto muy limitado. Este proceso influenciará en el desarrollo y
so
L progresivo crecimiento de las acciones dentro del sistema, asimilando patrones de aprendizaje
:na
por experiencia. En vista de que el investigador no necesita de todo lo que observa, activará un
ue
alb proceso selectivo de información bajo varios cánones: un ajuste de conformidad sobre lo
V observado, es decir, la utilidad de la prueba; y todo aquello que lo lleve a reducir la
na
oim incertidumbre.
R
Tal secuencia procedimental también tiene fines inherentes propios, la maximización de la

información y la generación de hipótesis. Toda interpretación científica es una hipótesis. El


encadenamiento de hechos, el establecimiento de coherencia, el proceso de discernir para
constituir relaciones y el intento de esquematizar una demostración por conclusión, son el origen
del razonamiento hipotético. Si dos evidencias no están conectadas, entonces se utilizará una
conjetura para saber si existe o no relación posible, por muy remota que éstas sean. Es aquí
donde entran en juego las siguientes herramientas estadísticas para el análisis multivariado de
datos.
271

15.1.4.1.- Análisis de Componentes Principales

En la investigación exploratoria se emplea el análisis multivariado de datos posterior a la


compilación, minuciosa y basta, de pequeñas cantidades de información. El objetivo del análisis
de Componentes Principales consiste en descomponer tales datos extraídos de observaciones,

para con ello proceder a detectar un modelo o mecanismo operativo escondido en el fenómeno.
En estos modelos estadísticos el concepto de varianza es de suma importancia234. El análisis
inicia cuando se crea una matriz “A” denominada matriz de datos, con “v” variables y “n”
objetos, éstos últimos se corresponden con observaciones, muestras o experimentos. Mientras
que las variables se corresponden con medidas ejecutadas sobre cada objeto.
.

ic Todo ello permitirá conocer mejor el fenómeno y tomar decisiones con respecto al conjunto
ag
it de parámetros estudiados. Este análisis de componentes principales estudia medidas múltiples de
sve
cada unidad de análisis sometida a investigación. Allí se podrán observar las interrelaciones
nI
e entre variables y explicarlas en términos de sus dimensiones. Los procedimientos estadísticos
sd
rio explicados en esta sección se corresponden con una aplicación muy moderna de la lógica de
ot
ar clases. Es en esta etapa de la investigación cuando el científico comienza a ver los frutos de su
lo
xp trabajo, pues ya ha agrupado elementos dentro de una misma categoría y comienza a verificar la
E
sa relación de una cosa con otra, pues, afloran las similitudes, diferencias o dependencias
am jerárquicas invisibles en el primer estadio. Ya el árbol relacional buscado está tomando forma.
rog
r 15.1.4.2.- Análisis Factorial de Correspondencia y Confirmatorio
P
so
L El análisis de componentes principales previo, le permitirá al investigador reducir la cantidad
:na
ue de variables presentes en una dimensión minimizando la pérdida de información. El Análisis
alb Factorial235 de Correspondencia, consiste en un proceso analítico de transformación de data
V
na estadística (medidas), hacia una combinación lineal de variables independientes.
oim
En el proceso, se buscan grupos de variables (factores) que entre sí, presenten una alta
R
correlación. Entonces, al verse reducido el fenómeno se facilita su explicación. Allí se usan
tablas de contingencia o tablas de valores cruzados, obteniéndose una representación gráfica de
la asociación y correspondencia para factores (variables) entre filas y columnas.

234El Análisis de la Varianza consiste en una técnica para separar la variación total de la data en un conjunto de componentes lógicos asociados
con una fuente de variación específica. Ello con el fin de comparar la media de varias poblaciones. Esta fuente de variación conforma un nuevo
parámetro denominado <<Error de Varianza>>. El investigador ha de estar claro de que esta técnica sólo puede ser usada bajo las siguientes
condiciones: las muestras tomadas al azar son independientes; la distribución de la población es aproximadamente normal; y, todas las muestras
tienen la misma varianza. Tomado de: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Analysis
ofVariance, Véase.
235 Un Análisis Factorial consiste en una serie de métodos que permiten reducir un conjunto de variables a un número menor y más manejable,
donde cada una es función de una o más de sus variables originales.
272

Una de sus aplicaciones básicas consiste en determinar la contribución de las variables


originales a los nuevos factores obtenidos. El resultado ha de ser nuevo para el científico, pues se
deriva de una investigación exploratoria libre de los conocimientos a priori. Un segundo análisis
a ejecutar subyace en el Análisis Factorial Confirmatorio236, de hecho, una investigación
exploratoria consta de dos partes, la exploración en sí, y la confirmación de lo hallado. El
análisis factorial confirmatorio amerita un proceso donde se estudia y evalúa, qué cantidad de
factores, organizados en su conjunto, se corresponden con la teoría admitida para explicar el
fenómeno.

Es decir, el investigador opta por el análisis factorial exploratorio cuando aún, con el conjunto
.
nó de datos presentes, se le imposibilita la acción de plantear una hipótesis, pues, el modelo no
ic
ag presenta una estructura subyacente clara. Caso contrario, si el investigador logra confirmar una
it
sve
estructura teórica subyacente, entonces estará en capacidad de estructurar las hipótesis necesarias
nI
de para dilucidar los aspectos más importantes del fenómeno explorado.
so
ir Para ambos casos, análisis factorial exploratorio o confirmatorio, se recomienda al
ot
ar investigador, indagar sobre los supuestos de aplicación para cada caso, ambos, están fuera de los
lo
xp alcances de este texto237.
E
sa
15.1.4.3.- Análisis de Correspondencia Múltiple
am
rog
r Primeramente, un análisis de correspondencia consiste en una técnica exploratoria de la
P
so Estadística Multivariada para análisis gráficos y numéricos de casi cualquier matriz de datos,
L
:na trata principalmente tablas de frecuencia. Puede ser usado también para estudiar la presencia o
ue ausencia de datos, clasificaciones y preferencias, así como comparación de datos emparejados,
alb
V entre otros, (Greenacre & Blasius, 2006). Básicamente, un análisis de correspondencia múltiple
na se utiliza cuando existe más de una variable cualitativa, en las cuales se presentan más de una
oim
R categoría. Allí se proyecta estudiar las relaciones de dependencia o independencia de un
conjunto de estas variables. Su objetivo es transformar una tabla de contingencia en perfiles de

fila y columna normalmente representados por números enteros.

Se hace uso de un Análisis de Correspondencia Múltiple en Investigación Exploratoria


cuando se pretende visualizar o describir cierto conjunto de acciones que indiquen la presencia o
ausencia de asociación entre dos o más variables. Para ello se crea una matriz de filas por
columnas, se denota entonces como “I” al conjunto de “n” individuos, y como “Q” al conjunto

236Confirmatory Data Analysis. Evalúa y prueba resultados analíticos usando para ello la estimación de parámetros y pruebas de hipótesis.
237 Para más información sobre la Estadística Multivariada y el Diseño de Experimentos Véase: Kim Esbensen (2002). Multivariate Data
Analysis and Practice: An Introduction to Multivariate Data Analysis and Experimental Design.
273

de preguntas de un cuestionario238. Se crea entonces una tabla [Ix Q] tal que, se genere una
celda (fila x columna) contentiva de [i; q] elementos; a esto se le denomina categoría de una
pregunta “q” seleccionada por un individuo “i”.

El número de categorías de preguntas “q” se denota como Kq, y todo el conjunto de

categorías se denota como “K”. El número de individuos que han seleccionado una categoría k
es entendido como nk, con la condición: [nk >0]. Entonces se procede a identificar [Fk=nk/n],
como la frecuencia relativa de individuos que han seleccionado la categoría k. El Análisis de
Correspondencia Múltiple arroja entonces dos nubes de puntos, una para individuos y otra para
categorías. La distancia entre dos puntos de individuos se puede interpretar de la siguiente
.
nó manera: si la distancia es pequeña, su contribución al fenómeno es similar; si es muy grande sus
ic
ag contribuciones son diferentes. Asumiéndose errónea la comparación entre dos puntos que
it
sve
emerjan de categorías diferentes.
nI
de En fin, la Investigación Exploratoria resulta grandemente satisfactoria cuando sus
so
ir procedimientos se han ejecutado de manera impecable y además, se ha evidenciado un
ot
ar descubrimiento nuevo. Pues, el científico se ha impuesto sobre lo desconocido, ha escudriñado,
lo
xp separado, juntado y hecho inferencias sobre aquello que en un primer momento no entendía. “El
E
sa hombre no puede descubrir nuevos océanos a menos que tenga el coraje de adentrarse en él y
am perder de vista la costa”. André Gide239.
rog
r
P
so
L
:na
ue
alb
V
na
oim
R

238 Es de recalcar que la palabra cuestionario es común en investigación social, allí se le asocia con personas que responden a un conjunto de
preguntas. No obstante, en otros tipos de investigación, un individuo o cosa, posee características inherentes propias que lo describen, y basados
en esos datos, se procede a llenar la tabla mencionada denominada cuestionario.
239 André Gide. Escritor Francés y Premio Nobel de Literatura 1947.
274

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XVI: UN PEQUEÑO


ABORDAJE A LOS MODELOS
MIXTOS DE INVESTIGACIÓN…

El origen de la ciencia radica en el deseo de conocer las causas; Y el origen de toda falsa
ciencia está en el deseo de aceptar causas falsas más que en ninguna; O, lo que es lo mismo, en
la falta de voluntad de reconocer nuestra propia ignorancia.

William Hazlitt (1778-1830) Escritor Británico; Crítico Dramático, Comentador


Social, Filósofo y Pintor.
275

16.1.- Introducción a los Métodos Mixtos de Investigación

La Investigación Mixta implica la combinación de la hermosa


locura por el descubrimiento… con el misterio de lo oculto que
espera por ser conocido…. Todo dentro del amplio contexto de
la convergencia paradigmática y la lucidez de la naturaleza…

Roiman Valbuena.

uando
estosena el
ypregunta/s su vez,
deproceso de investigación
investigación,
acuerdan se dice que
estrategias de trabajoequipos
se ejecutadiferentes
convergen
separadas entonces parainvestigación
una dar
derespuesta
investigadores,

C
un proceso de indagación Multi - Estratégico. Como epítome a los modelos mixtos, conviene
a la/s
mixta
o

partir de su conceptualización, es importante señalar que se hace introducción a los métodos


mixtos puesto que muy pocos libros de metodología de investigación editados en el país hacen
mención a ellos;

Los métodos mixtos representan un conjunto de procesos sistemáticos, empíricos y


críticos de investigación, e implican la recolección y análisis de datos cuantitativos y
cualitativos, así como su integración y discusión conjunta para realizar inferencias
producto de toda la información recabada (Metainferencias), y lograr un mayor
entendimiento del fenómeno bajo estudio, Hernández et al (2010, p. 546).
Según Creswell (2009, p. 4);

Los métodos de investigación mixta son un enfoque de investigación que combinan o


asocian a los modelos cualitativo y cuantitativo. Envuelven enfoques filosóficos del
que hacen uso de ambos modelos en un mismo estudio. El método mixto va más allá
de una simple recolección de datos.
Desde el punto de vista de su enfoque utilitario, Yin (2009, p. 63);
Los métodos mixtos de investigación permiten a los investigadores direccionar sus
esfuerzos hacia preguntas de investigación más complicadas, y colectar un rico y
fuerte arreglo de evidencias que algún método por sí solo no pueda lograr.

La definición que aporta este texto: al proceso de combinar más de un tipo de método de
investigación como alternativa del investigador en su búsqueda continua de una mejor estrategia
que le permita conducir la investigación, se denomina métodos mixtos de investigación o
investigación mixta. Implica el manejo de diferentes tipos de datos, colectados a través de
diversos instrumentos, para cuyos casos podrán converger una variedad de investigadores con
paradigmas contrapuestos. La investigación mixta es un enfoque en el cual se asume que la
mixtura de los métodos cualitativo y cuantitativo admite la capitalización de esfuerzos,
orientándolos a solventar la dificultad que representa la debilidad de cada uno.
276

El método mixto permite tanto el legitimar el uso de una táctica Multi-Estratégica, como el
examen en profundidad de un fenómeno desde diferentes aristas, proporcionando inferencias a
partir de variados orígenes. En investigación mixta es común encontrar múltiples preguntas que
orienten el accionar científico en determinada dirección, a las cuales es imposible responder
desde un único enfoque de estudio. En función de ello, es importante hacer distinción entre
Estudios o Investigaciones Multimétodos y Métodos Mixtos de Estudio o Investigación Mixta.

Las Investigaciones multimetódicas se caracterizan por la recolección y análisis de data


diversa, pero sus investigadores comparten un único paradigma, lo que provoca una
convergencia Inferencial desde el punto de vista paradigmático y filosófico del problema.
.n
ói Contrariamente, los métodos mixtos de estudio aceptan la convergencia multimetódica, en donde
ca
gi el grupo investigador posiblemente difiera en sus paradigmas, y a pesar de sus diferencias
st
ve
nI inferenciales, aceptan los resultados del estudio tal como el grupo entero converja.
de
so Un diseño de investigación mixta implica la combinación de estrategias metodológicas tanto
tx
i cualitativas como cuantitativas en un solo diseño, involucra además la asociación entre los
M
so razonamientos inductivos y deductivos con los pros y contras que esto conlleva. Tanto los
étod
métodos mixtos como la investigación tecnológica planteada en este texto, basan su sustento
M
so filosófico bajo el enfoque pragmatista. Los pragmáticos son investigadores que admiten
l
a cualquier modelo de investigación siempre que éste se adecúe a la lógica.
nió
cuc
Las dimensiones de los diseños de investigación mixta tienden a variar conforme lo hacen los
do
rt propósitos y los paradigmas que en ellos se ven envueltos. En primer lugar, el grupo de
nI
:na investigadores ha de estar claro del porqué de la mixtura, transformándola en una argumentación
ue
alb razonable mediante la cual sea posible dilucidar cuál o cuáles, dentro de los diferentes tipos de
V mixtura, va más acorde con sus objetivos. En segundo lugar, sopesar los grados de profundidad
na
necesarios que lleven a una correcta interacción entre procesos.
imo
R
Cuya secuencia temporal orientará el accionar del grupo científico, tendente a la
minimización del uso de recursos y la maximización de resultados. El fin de toda investigación
científica se centra en establecer relaciones entre los hechos con el fin de aclararlos usando la
lógica explicativa. En el diseño mixto se intenta explorar el continuo de manera iterativa, y para
lograrlo, uno de los dos debe ir primero, entonces surge la real interrogante que de por sí, amerita
una profunda investigación.
277

16.2.- Importancia de los Paradigmas en Investigación Mixta

La naturaleza humana es realmente compleja, pero no por ello el universo se ha detenido.


Denominaré paradigma al modelo mental en el cual se basa el hombre de ciencia y guía su
accionar a la resolución de problemas. Modelo donde descansan sus creencias, pareceres y
virtudes, netamente una percepción intuitiva, y que le admite perseguir prognosis. La
investigación mixta inicia justamente cuando varios científicos, con modelos mentales diferentes
y hasta contrapuestos, convergen en una sola investigación.

La situación se complejiza cuando examinamos la naturaleza de los datos emanados desde


.n cada enfoque, los cualitativos consisten en hechos y situaciones del diario vivir, puede haber

ac texto, imágenes, sentimientos y percepciones. La data cuantitativa por su lado es en esencia
ig
st
ve números, pues sus científicos han logrado asociar intencionalmente y relacionar lógicamente,
nI cantidades con todos los fenómenos, observables o no. Ello ha permitido que cualitativistas y
de
so cuantitativistas puedan coexistir en un mismo equipo con fines científicos, cada uno aceptando
tx
i las debilidades del enfoque del otro. Entonces surge la necesidad de dilucidar el cómo convergen
sM
od paradigmas diferentes en un solo diseño de investigación.
toé
M 16.3.- ¿Cómo Integrar un Diseño Mixto?
so
l
a
nió La respuesta se sobreviene obvia si se presta cuidado a las siguientes consideraciones. La
cuc Investigación Cuantitativa se inicia sobre la base de observaciones que luego serán
trod
transformadas en unidades numéricamente medibles para ser comparadas con otras unidades. Su
nI
:na objetivo es responder a hipótesis sobre simetrías, asimetrías, relaciones, distribuciones, o
ue determinar causas a partir de sus efectos. Para ello hará uso de análisis estadísticos y pruebas
lba
V paramétricas. En su proceso inicial, partirá o bien de una muestra definida o de una población
na conocida que surge del planteamiento del problema. Si parte de la muestra, es deber estimar
im
o estadísticamente, el tamaño de la población sobre la cual recaerá su inferencia. Si parte de la
R
población conocida, entonces ejecutará el debido Muestreo Estadístico Probabilístico
Representativo de la población, cuyo parámetro validará sus inferencias.

Ahora bien, la investigación cualitativa inicia por meros ejercicios inductivos, es decir, parte
de observaciones que intentan identificar la naturaleza profunda de las realidades. Recoge datos,
categoriza e interpreta. Estructura la información coherentemente delimitando objetivos
generales, pero determina objetivos específicos sobre la marcha (según Martínez Miguélez).
278

Establece conclusiones generales sin hacer su respectiva enumeración de particulares 240,


atiende y responde al grado de similitud probable, entre una situación investigada en un contexto
y otra en otro contexto muy similar. Para ello se sostiene sobre la teoría de que la similitud entre
una investigación y otra es función directa de la similitud que exista entre ambos contextos.

El investigador cualitativo no formula hipótesis, pues se considera abierto a todas.


Operacionaliza a sus unidades de análisis como las realidades observadas y emergentes de la
interrelación entre los sujetos bajo estudio. Sus investigaciones carecen de categorías previas, de
variables, de dimensiones o indicadores, pues se asume que todo será conceptualizado a partir de
la realidad emergente abordada. Entonces, ¿Cómo debe hacerse la mixtura?
.n

ac El común denominador entre los autores, es que simplemente carece de directrices o
ig
st principios a seguir. Además, será difícil determinar cuán exitosa habrá sido una investigación
ve
nI mixta, y más aún, sobre qué modelo recae el mayor peso del éxito. Muy por el contrario de lo
de
so que describen otros autores, el éxito de una investigación mixta no recae sobre los diseños en sí,
tx
i sino a la capacidad de análisis y estrategias aplicadas en su diseño por los investigadores. En
sM
od función de la congruencia, mezclemos una a una estas características y analicemos las
toé situaciones.
M
so
l Una investigación mixta funciona como un sistema, donde cada resultado mixto general será
a
nió mayor a sus partes mínimas constitutivas, eso es una ventaja. Ambos enfoque pueden ser
c
utrod combinados durante las diferentes etapas del proceso de investigación. El planteamiento

compilará un solo escrito pero la formulación debe ser dual, por presentar enfoques distintos
nI
:a podrá coexistir más de una población, de ser así, entonces el muestreo se tornará complejo. Allí
nue
el tamaño de la muestra no es probabilísticamente importante para el enfoque QUAL, ya que no
lba
V siempre se busca generalizar resultados, más no así para el enfoque QUAN. Lo que hará difícil el
na
im muestreo cuando la data sea analizada de manera simétrica.
o
R
Para el enfoque QUAL la muestra inicial puede ser distinta a la muestra final si las unidades
son seleccionadas por criterios. Y es posible la agregación de nuevas unidades si ello representa
aportes a la investigación. Así como, será posible la exclusión de unidades que no cumplan con
lo planteado en la teoría inicial de referencia. El enfoque QUAN no excluye casos, a menos que
se encuentren fuera de los límites de aceptación del intervalo de confianza para la muestra.

El muestreo QUAL por sus características es netamente intencional, pues se basa en un


procedimiento en que seleccionan situaciones, sujetos, casos o lugares con los que se relacionan

240 Para más detalles sobre la enumeración de los particulares revise el aparte referido a: El Problema de Superponer Inducción y Deducción.
279

los elementos o personas de interés para la investigación. Es decir, maneja criterios de selección
por realidad social.

Para dar inicio a una investigación mixta sería lícito preguntarse, ¿Qué tipo de datos necesito
primero?, o ¿Con qué tipo de datos dispongo para comenzar? La topología del diseño ha de estar
acorde con las etapas en las cuales se divida el proceso indagatorio. En la investigación mixta los
diseños se planifican y ejecutan según su topología, tales diseños presentan comúnmente las
siguientes familias de implementación, Teddlie y Tashakkori (2009); Biber y Nagy (2010); y
Creswell (2009), a continuación, en el siguiente aparte, se especifica cada uno:

.n 16.4.- Topología de los Diseños Mixtos Paralelos



ac
ig Un Diseño Mixto Paralelo del tipo convergente es el tipo más común de los métodos mixtos,
st
ve busca recoger datos cualitativos y cuantitativos de manera simétrica en el tiempo, usando los
nI
de instrumentos propios de cada enfoque. Sin embargo, ambos tipos de datos se procesan de manera
so
tx separada para luego mezclarlos en el estudio con el objeto de obtener inferencias convergentes y
i
sM divergentes. Se analizan y aceptan las convergentes pero se estudian nuevamente las divergentes
od
oét hasta encontrar respuestas a sus características de divergencia, de manera de hacerlo lo más
M convergente posible.
so
l
a El muestreo en estos modelos se ocupa de seleccionar unidades de análisis mixtas para el
nió
c estudio a través de su uso recíproco y simultáneo. Aplicándose sobre estas unidades tanto
ud
or estrategias probabilísticas para prueba de hipótesis, como de muestreo por propósito no
tn
I probabilístico. En el estudio han de analizarse ambos datos simultáneamente, tanto el cualitativo
:a
nue como el cuantitativo, de hacerlo con uno solo no se cumpliría con los criterios del diseño
bl
a paralelo.
V
na
im El problema con los diseños mixtos paralelos se presenta cuando se hace procesamiento
o
R conjunto y simétrico de la data, pues, en ocasiones es necesaria una inferencia de la etapa previa
para proceder a cotejar si los instrumentos utilizados en cada enfoque arrojan tendencias
similares, si convergen o no. Si no convergen surge la pregunta: ¿Cuál de los instrumentos no
está haciendo bien su trabajo? En ambos casos se introduce la interrogante, ¿cómo determinar si
hay convergencia o divergencia si se utilizan dos modelos cuyo procesamiento estadístico es
diametralmente opuesto?

Como en este diseño no es posible un patrón escalonado de recolección de datos, por tratarse
netamente de un estudio del tipo transversal, entonces puede presentarse una coherencia anómala
280

derivada del proceso de muestreo intencional no probabilístico. Derivando en cierta manera, en


una parálisis intelectual como resultado de la no visualización, clara y explícita, de la mecánica
de la mente sobre el evento estudiado. Allí el componente QUAL presenta el rol dominante, para
casos particulares, el investigador cualitativo se ve motivado a elegir este diseño debido a su
interés de compartir alguna información cuantitativa, es decir, para el inicio dispone de datos
cuantitativos y desea encontrar los cualitativos.

El investigador podrá disponer, por ejemplo, de estadísticas demográficas de la población con


el fin de encontrar elementos cualitativos a lo largo del estudio. Allí la data cuantitativa será
colocada, anidada, o embebida a la data cualitativa asumiendo la primera un rol secundario pero
.n
ió de suma importancia para el análisis simétrico. En el diseño mixto paralelo, el estudio
ac
ig
st cuantitativo es adherido al cualitativo dando mayor poder explicativo al evento estudiado.
ve
nI En este diseño los investigadores deben abocarse a la identificación del punto, o puntos de
de
so conexión <<similar a los hitos en los proyectos>>, momentos en los cuales ha sido planificado
tx
i que la data sea combinada y delimitada únicamente por la pregunta de investigación. Es común
sM
od que los investigadores usen la triangulación para la data QUAL, y la QUAN es usada para
toé corroborar los hallazgos cualitativos, según Biber y Nagy (2010, p. 71); eso se denomina;
M fertilización cruzada de ideas.
so
l
a
nió 16.5.- Topología de los Diseños Mixtos Secuenciales
c
utrod
En el diseño mixto secuencial la mezcla se produce a través de fases planificadas
nI
:a cronológicamente en el estudio (QUAL—QUAN), las preguntas o procedimientos de una fase
nue
dependen de los eslabones de la cadena anterior. Estos diseños implican una etapa cualitativa y
bl
a una cuantitativa, o viceversa sin orden estricto, recalcando que cada etapa genera su propia
V
na
im pregunta de investigación, éstas se fusionan y evolucionan hacia la solución conforme avanza el
o estudio. En el proceso de muestreo se usan tanto las estrategias probabilísticas como las
R
orientada por propósito, solo que las secuencialidad del diseño conlleva el aplicar uno y
posteriormente el otro, este segundo se operacionalizará en funciones de las necesidades de datos
proyectadas por el primero.

16.6.- Topología de los Diseño Mixto de Conversión

El Diseño Mixto de Conversión es también un modelo de diseño paralelo, la mixtura ocurre


cuando un tipo de data es transformada y analizada tanto cualitativa como cuantitativamente.
Este diseño suministra respuestas a aspectos relacionados a la misma pregunta de investigación
281

desde dos ópticas diferentes. Un ejemplo interesante resulta cuando se opta por el caso de un
diseño factorial mixto, allí, por tratarse de un diseño mixto con enfoque experimental, son
combinados diversos factores de tratamiento con una o más variables cada uno. Éstas podrán

derivarse de elementos Intersujetos e Intrasujetos241, y podrá el estudio ser abordado por


investigadores de ramas diferentes. Por ejemplo, docentes y sicólogos en busca de respuestas a
varios estímulos experimentales. Donde la data será analizada desde ambos enfoques, cualitativo
y cuantitativo. Esto proporciona una visual más amplia y comprensible de aquello estudiado.

16.7.- Topología de los Diseño Mixto Multinivel

.n
ió A estos diseños se les considera tanto paralelos como secuenciales, la mixtura sucede luego
ac de someter la data a múltiples niveles de análisis. Tanto la data cualitativa como la cuantitativa
ig
st
ve de cada uno de los diversos niveles son sometidas a análisis e integrada para dar respuesta a
nI
de ciertos aspectos inherentes a la misma pregunta de investigación o aquellas relacionadas. El
so muestreo multinivel utiliza una estrategia más general y común, se opta por el modelo
tx
i probabilístico o el orientado con propósito dependiendo de los niveles de análisis a usar. Aquí se
sM
od combinan convenientemente tanto las técnicas de muestreo paralelas como las secuenciales. Se
ot
é usa cuando en el diseño se amerita concatenar diversas unidades de análisis.
M
so
l 16.8.- Topología del Diseño Completamente Integrado
a
nió
c En estos diseños la mixtura ocurre de manera interactiva durante todas las etapas del estudio.
utrod
En cada una, un enfoque afecta la formulación del otro, lo que ocasiona el que múltiples tipos de
nI
:a implementación ocurran durante el proceso. Creswell y Plano Clark (2001, p. 69), explican que
nue
con respecto a los objetivos planteados los investigadores se obligan a tomar decisiones sobre la
bl
a elección de sus diseños de manera tal que reflejen interacción, prioridad, sincronización y
V
na
mixtura, orientado a ello pueden concebirse hasta 6 diseños principales, bastante similares a los
im
o anteriormente citados:
R

1. El Diseño Exploratorio Secuencial


2. El Diseño Explicativo Secuencial
3. El Diseño Transformativo Secuencial
4. El Diseño de Triangulación Recurrente
5. El Diseño Anidado o Incrustado Concurrente de Modelo Dominante
6. El Diseño Anidado Concurrente de Varios Niveles

241 Para un entendimiento más amplios de estos diseños Refiérase a: Capítulo XXIII: Introducción a la Investigación Experimental. Diseños
Intrasujetos – Diseños Intersujetos – Diseños Factoriales.
282

16.9.- La Teoría en los Modelos Mixtos

Creo, sin excepción, que la teoría sigue la práctica. Siempre


que hay un conflicto entre la teoría y la práctica, la teoría es
incorrecta. En lo que a mí respecta, hacemos teorías de lo que
la gente ha hecho…

David Baker.

Sinmodelos
os
interpretación
embargo, desurge
mixtosdatosun gran un
proporcionan
permite flexibilidad
mejor entendimiento
inconveniente alcuando convergen
del problema
investigador, investigadores
el método
de investigación.
de análisisdee

L
diferentes paradigmas sobre un diseño mixto. El mezclar métodos implica una rigurosa selección
de las teorías a usar e hipótesis a contrastar, aún más compleja que con los enfoques
individuales. Donde el proceso de selección de teorías nunca debe asemejarse al mero acto de
encerrar un conjunto de supuestos mixtos en una caja, elegir teorías de ambos enfoques y
mezclarlas a ver que sale.

Los métodos mixtos se avocan a la solución de problemas intrincados, se interesan por las
circunstancias que son difíciles y adversas, su estructura multifacética permite hacer inferencias
derivadas de ambos enfoques. Estos modelos usan al proceso de triangulación como su
fundamento, uno de los retos de la investigación mixta se sostiene sobre el hecho de conjugar
dos modelos, donde muchas veces se pone en duda su validez. Por las características propias de
cada diseño, el muestreo se torna en extremo complejo242, a razón de que convergen diferentes
tipos de instrumentos de recolección de datos para una población variada.

El uso, aplicación, contraste y generación de teorías en los modelos mixtos es tan diverso
como cada uno de sus diseños. En la investigación cuantitativa se elige primero una teoría y a
través de ella se identifican nudos críticos de la problemática, entonces, se concibe la pregunta de
investigación y otras hipótesis para probarla. En el positivismo comúnmente se hace uso de la
teoría en paralelo al diseño de investigación, puesto que aporta explicación a las variables que
han de explotar en el proceso. Domina la cuantificación numérica del fenómeno mediante el uso
de instrumentos como la observación empírica y la medición. El investigador marca distancia del

242 Nota: Hernández et, al (2010), sólo hace una propuesta tentativa y abierta a sugerencias sobre el proceso de muestreo. Véase: Muestreo para
Estudios Mixtos (Ampliación de Conceptos). Cap. 12. Ampliación y Fundamentación de los Métodos Mixtos. Muestra Estratificada Guiada por
Propósito. (p. 18). En CD anexo que acompaña la obra. Así mismo, Teddlie y Tashakkori ofrecen una lista de tipos de muestreo con aplicabilidad
en investigación mixta con sus respectivos ejemplos: el aleatorio; el aleatorio estratificado; por clusters y el muestreo probabilístico múltiple. Del
mismo modo, ejemplifica la técnica de muestreo para lograr representatividad y comparabilidad, además del muestreo especial sobre caso único.
Para un compendio más detallado Refiérase a: Teddlie y Tashakkori. (2009). Foundations of Mixed Methods Research: Integrating Quantitative
and Qualitative Approaches in the Social and Behavioral Sciences. Cap. 8 Sampling Strategies for Mixed Method Research. (pp. 169-195).
283

objeto y asume imparcialidad, se orienta a la verificación de teorías bajo las discreciones de la


lógica deductiva.

Contrariamente, en la investigación cualitativa el investigador podrá concebir una teoría que


explique el fenómeno en el transcurso del estudio. En este tipo de enfoque se da prioridad a la

participación, el investigador se convierte en su propio instrumento y se sumerge en el proceso


sin distanciarse. La investigación se torna parcial y negociada, abordando múltiples realidades, y
en ella se genera teoría sustentada sobre la lógica inductiva. Sin embargo, en Etnografía, el
investigador comúnmente coloca la teoría al inicio de su estudio, esta le proporciona un marco

orientatorio mientras obtiene conocimiento profundo del fenómeno.

Uno de los problemas radicales que ha caracterizado a los diseños de investigación mixtos
.os desde sus inicios ha sido precisamente el de la convivencia investigativa bajo pensamientos
tx
i diferentes por parte de los participantes. Determinado grupo científico siempre necesitará ver
sM
para poder creer; y en efecto, sus contrarios deberán creer primero para poder ver. A lo que se
ol
de recomienda la adopción, al menos momentáneamente de los supuestos del pragmatismo y el
o
M paradigma socio crítico o transformador, ambos paradigmas dominantes en los diseños mixtos y
so
l en la investigación tecnológica desde el punto de vista social.
nae
ír
oTe El pragmatismo se orienta a la solución de problemas presentes y actuantes en el mundo real,

a pero que en su esencia sean problemas prácticos, donde el resultado se pueda juzgar por su
L
:a
nue utilidad, tal como en el utilitarismo científico de Stuart Mill. Aquí se abordan múltiples
alb realidades, combinándose enfoques pluralistas que usan sólo aquello que trabaja, funciona u
V opera en la dirección deseada. Para Creswell y Plano Clark (2007); el paradigma socio crítico o
na
im transformador ha logrado irrumpir con fuerza en la investigación mixta. Bajo este enfoque se
o
R facilita la comprensión de la realidad a través de la praxis, y orienta la acción cognoscitiva hacia
la liberación social, de manera que pueda usarse para su transformación desde su interior. En ese
orden, los métodos mixtos son culturalmente competentes, donde los enfoques cualitativos dan a
conocer los procesos, y los cuantitativos permiten describir los resultados.

La revisión de la literatura es relevante no importa el enfoque de indagación, se usa para


determinar cuáles teorías servirán de soporte en la respuesta a la pregunta de investigación,
representa también la búsqueda e interpretación de datos en relación a variables, dimensiones,
indicadores, categoría o sub categorías a emplear durante el proyecto. Consiste en el paso previo
al planteamiento del problema, e indica el estado del arte referenciando elementos para la
interpretación de resultados. Una buena revisión de la literatura ofrece ventajas a los
284

investigadores, permitiéndoles conocer de antemano el terreno por el que han de transitar para
probar o generar su teoría.

El investigador cuantitativo persigue probar su teoría para posteriormente sustentar bajo


cuantificación numérica, una explicación lógica que dé respuesta a su pregunta de investigación.
De igual manera, el cualitativo podrá formarse una teoría a medida que avanza el estudio, esto le
permitirá perfeccionarla y colocarla al final del mismo, como resultado de su interacción con el
fenómeno, su fin último, generar otra. En cambio, en investigación mixta se ejecutan ambos
procesos, se prueban y generan teorías simultáneamente.

Según (Creswell J. , Research Design: Qualitative, Quantitative, and Mixed Method

Approaches, 2009) y (Mertens, 2008); en estudios mixtos una teoría posee las propiedades
.os suficientes que la califican para ser aprovechada por ambos enfoques. La incorporación de una
tx
i perspectiva teórica es negociable por el grupo científico en ciertos diseños. Aun cuando en los
sM
ol secuenciales del tipo exploratorio, explicativo y transformativo, cada grupo puede proceder
de separadamente. Lo que realmente importa aquí es el análisis que se ejecute al final de cada etapa
o
M (inferencias), ya que de este dependerá el inicio de la siguiente. La adopción de una perspectiva
so
l
nae teórica en etapa temprana del diseño mixto es de suma importancia, su construcción se
ír recomienda a través de las siguientes acciones:
oTe
a Primeramente, en la introducción es recomendable que aparezca parte de la perspectiva
L
:na
teórica indicando, cuál o cuáles grupos de teorías planean los investigadores ingresar al estudio;
ue
bl identifíquense la hipótesis más relevante del sistema teorético, esto podrá visualizarse bajo la
a
V forma de mapa con la ruta a seguir; explíquese de manera precisa, cómo se hará uso de las
na
im teorías, con especial énfasis en la dirección que serán medidas las variables; si es posible
o
R diséñese un mapa que interrelacione esquemas mentales del tipo teorético, de manera que sean
visibles las hipótesis y sus relaciones gráficamente. En segundo lugar, ingrese dentro de la
estructura del estudio, una sección especialmente dedicada a la perspectiva teórica, donde haga
descripción de las debilidades encontradas en las teorías a usar y justificación del porqué se
adoptan.

No confunda Marco Teórico con Perspectiva Teórica, en nada se asemejan. El marco


teórico está compuesto por 3 elementos; el marco teórico en sí, el marco de referencias y el
marco de conceptos a utilizar durante el estudio. Su función es encuadrar la investigación en
determinada dirección, pero no aborda el historial teorético bajo el cual se encierra el proyecto,
no especifica el nivel de sus axiomas ni su relación con otros del sistema. De él se extraen
285

elementos que han de comparase con los antecedentes a la investigación posterior al


planteamiento de conclusiones e inferencias estadísticas, apoyando con ello el razonamiento
deductivo. Si bien es cierto, allí se esbozan las hipótesis de trabajo, su área se circunscribe sólo a
los supuestos para ese estudio. La operacionalización de la variable es diferente a la
operacionalización de las teorías, e incluso disímil a la operacionalización de las hipótesis. La
primera trata de la investigación actual, la segunda, trata la longitunalidad de los modelos
teoréticos, incluyendo al presente.

En cambio, una Perspectiva Teórica incluye un árbol relacional entre axiomas, hipótesis y

supuestos, <<no se confunda con dimensiones e indicadores>> incluyendo sus niveles de


universalidad. Se relaciona directamente con la estructura teorética. Aquí se hace mención a
.os
enunciados universales, singulares y particulares, sometiéndolos al escrutinio semántico y
tx
i sintáctico debido en función de encontrar discrepancias lógicas y praxeológicas entre ellos. La
M
so
lde perspectiva teórica engloba un gran número de supuestos e hipótesis interrelacionadas que no
o siempre están presentes en el marco teórico.
M
so
l
nae Incluye y describe un nivel de abstracción en sus axiomas, en donde al científico le es
ír imposible operar con los instrumentos que posee. Sus enunciados particulares se modelan con la
oTe
estadística descriptiva. La relación entre teorías de nivel medio se hace a través de correlaciones
a
L
:a estadísticas. Permite someter a razonamiento deductivo enunciados propios de los axiomas de
nue nivel alto. Provee los medios necesarios para exponer las hipótesis o supuestos a los criterios de
bl
a falibilidad y Falsación haciendo uso de la heurística positiva o negativa de los programas de
V
na investigación de Lakatos, o a los Modus Tollens – Pollens del modelo Popperiano. Hechas las
im consideraciones previas, si el marco teórico no contiene al menos una gran cantidad de estos
o
R
últimos elementos, es mejor denominarlo Marco Referencial de la Investigación y no Perspectiva
Teórica.

A continuación nueve pasos para la organización de un estudio mixto, Creswell (2009):

1. Determine si el método mixto es necesario para resolver la problemática;

2. Considere la factibilidad del estudio mixto;


3. Escriba preguntas de investigación tanto para el enfoque cualitativo como para el cuantitativo;

4. Haga revisión sobre qué tipos de datos colectar;


5. Asigne un peso relativo y una estrategia de implementación para cada diseño;
6. Presente el modelo visual;
7. Determine el cómo será analizada la data;
286

8. Asigne un criterio para la evaluación del estudio, y;


9. Desarrolle su plan de trabajo;
En torno a las teorías científicas antes expuestas, hay quienes esgrimen opiniones críticas

desfavorables pero de consideración. (Gimbel, 2011, Compilador), hace síntesis al respecto. Los
enfoques examinados243 hasta aquí presentan similitudes, todos comienzan con la premisa de
que no existe cosa tal que la ciencia, a través del método científico, no pueda resolver o explicar.
Todos los enfoques comparten la presunción de que el universo es un lugar razonable, y el
razonamiento humano es suficiente para proyectar un entendimiento sobre él.

A tal postura la denomina Modernismo. Los modernistas colocan a la racionalidad en un


lugar especial, expresando así el hecho de que es posible por esa vía, obtener un conocimiento
del mundo superior a los que accionan de diferente manera. Al revisarse el pasado reciente de la
.os
tx ciencia, bajo una orientación histórica, no se observará un proceso ordenado de avance científico
i
sM tal como los descritos en los libros, contrariamente, es distinguible un marcado caos intelectual
ol
de que produce cosas maravillosas.
o
M
so
l
nae
ír
oTe
a
L
:a
nue
alb
V
na
im
o
R

243 Se refiere a los enfoques sintáctico, holístico y semántico, todos previamente descritos.
287

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XVII: ACERCA DEL


CÓMO SE CONSTRUYEN LAS
TEORÍAS CIENTÍFICAS…

Es un error capital teorizar antes de tener datos. Insensiblemente uno comienza a torcer hechos
para adaptarse a teorías, en lugar de teorías para adaptarse a los hechos.

Jean Baptiste Fourier.


288

17.1- Las Teorías Científicas Puras

Si se pudiera demostrar que existió un órgano complejo, que


no pudo haber sido formado por modificaciones pequeñas,
numerosas y sucesivas, mi teoría se destruiría por completo.

Charles Darwin.

Usted puede hacer observaciones… desarrollar teorías para


adaptarlas a ellas… puede incluso intentar la experimentación
para refutar tales teorías… si no logra nada… entonces tiene
algo…
Kary Mullis.

la
na base
formas delcientífica
de
teoría conocimiento
pensamiento
es unacientífico.
y análisis, Consiste
y desde
construcción en una operación
el nacimiento
humana de ladesde
emergente ciencia
las siempre
auto-consistente
más complejas

U hade

inteligencia guiada por la razón pero alimentada por la intuición. Quien no entiende el papel de
sido
la

las teorías científicas simplemente no ha llegado a concebir qué es la ciencia. Denominaré


progreso científico a aquella medida en la cual las comunidades de hombres de ciencia se
conforman con el fin de desarrollar controles, mecanismos, descripciones, explicaciones y
métodos, con los cuales sea posible predecir eventos en el dominio de un fenómeno. Y para eso
son las teorías, para marcar el ritmo de cambio en el avance de la ciencia.

Se hace ciencia cuando se investiga, paciente, constante y asertivamente, aquello que


desconocemos. Pues no es posible revelar lo desconocido sin una teoría sostenida en un cuerpo
de conocimientos que marquen el camino para la demostración de la verdad. Me niego a seguir
viendo como se crea un mundo basado en el error derivado desde investigaciones que se niegan a
ser probadas, quiero pensar que lo hacen inconscientemente, quien quiere y procura la verdad no
procede con engaño, pues toda malicia levanta sospechas.

Propongo someter a juicio despiadado a las supuestas verdades ocultas en determinada


investigación cuando exista un ápice de sospecha sobre ella, aún acosta del sacrifico de la
reputación del investigador. Una investigación mal ejecutada es un arma de doble filo, sirve para
engañar y ser engañado. Una verdad científica no es como en la teología, eterna e inmutable,
contrariamente, debe ser constantemente reformulada. Y como solía decir Carl Sagan, las
afirmaciones que no puedan ser probadas o afirmaciones inmunes a la falta de pruebas son en
esencia inútiles, pues ni inspiran ni exaltan el espíritu de lo maravilloso.
289

En este aparte del texto se intentaré adentrar al lector en la naturaleza y proceso de


concepción de teorías científicas explicativas sostenidas sobre unidades fundamentales
estructuradas en la mente humana; la razón, la intuición, la demostración y la experiencia. En
perfecta conexión con sus correspondientes técnicas matemáticas. Éstas últimas son las que
justifican, clarifican y hacen entendibles las ideas.

Una teoría bien formulada es aquellas que es capaz de revelar en completitud y exhaustividad
el fenómeno, en otras palabras, es aquella conjetura cuyo enfoque se centra en el fenómeno. Sólo
entendiendo los basamentos teoréticos puros, es posible derivar los operacionales, y con ello
comprender, el cómo se conciben y ponen en funcionamiento las grandes tecnologías.

(Hawking, 1988) Sostiene que una teoría es sólo un modelo matemático que describe

.as nuestras observaciones, y sólo existe en la mente del teorista. Una teoría consiste entonces, en
r una cadena de deducciones, postulados o enunciados lógicos, orientados a determinada área
u
P
sa científica. Se construye a través de un conjunto de hipótesis o supuestos244 que sirven para
fic
ít revelar el problema planteado, todo apoyado en observaciones previas.
nie
sC Se dice también que, cuando aquello observado o percibido depende de una teoría y de su
ría
oe interpretación, el fenómeno presenta cierta carga teórica, no pudiendo este desprenderse de ella.
T En ese sentido, existen tantos tipos de teorías como campos científicos tiene la ciencia. Ellas
sa
L permiten hacer inferencias y se les usa para dar explicaciones.
:na
ue Sin embargo, poseen un conjunto de características propias definidas dependiendo del teórico
alb
que se estudie. En un primer momento es posible clasificar a las teorías como de dos tipos; las
V
na
científicas y las no científicas.
oim
R Las primeras son aquellas que permiten colectar un grupo de datos u observaciones,
procesarlos para encontrar significados, y posteriormente desarrollar un conjunto de
explicaciones por asociaciones entre sus constructos245 con el fin de solidificar o refutar otra
teoría. Las teorías científicas246 se asocian con hipótesis científicas y se manejan con la

244 Supuesto, premisa e hipótesis. Los supuestos no necesitan conocerse para ser verdaderos; pueden ponerse en consideración de un argumento,
es decir, para hallar sus consecuencias lógicas y así evaluarlas. Tomado de: Bunge Mario; Diccionario de Filosofía.
245 Término empleado por los Sicologistas para referirse a las Variables. Para Dimmer y Dominick (2006, p. 44). Un constructo es un concepto
que tiene tres características distintivas: a) Es una idea abstracta que puede ser representada por conceptos de niveles más bajos, en otras palabras,
un constructo es una combinación de conceptos. B) Debido a su abstracción un constructo no puede ser observado directamente. C) Los
constructos son comúnmente utilizados sobre investigaciones con propósitos particulares, en función de ello, su significado exacto se relaciona
sólo con el contexto donde es encontrado.
246 Como ejemplo de teorías científicamente aceptadas: La Teoría de la Gravedad de Newton; La Teoría de la Mecánica Cuántica; y La Teoría
del Electromagnetismo de Maxwell.
290

rigurosidad que le es inherente. Las teorías denominadas no científicas247 son aquellas que, por
originarse de hipótesis no científicas o pseudocientíficas, no es posible comprobar su nivel de
verdad o falsedad.

A una teoría por el sólo hecho de suponérsele pseudocientífica para nada implica el que se le
estime falsa, lo que realmente importa, es que como no presenta los atributos que la hagan
pertenecer a una ciencia, entonces, como parámetro incuestionable, no ha de formar parte de
ninguna estructura científica. Una teoría es meramente una herramienta la cual se somete a
contraste aplicándola, de sus resultados dependerá el si es o no apropiada.

Considérese también que es totalmente imposible teorizar antes de haber ejecutado


observaciones y obtenido datos suficientes para su autorefutación, es así como, una teoría fácil

.as de refutar nunca fue realmente una teoría. Para (Popper, Objetive Knowledge: An Evolutionary
r Approach, 1972), Siempre que una teoría se te aparece como la única posible, toma esto como
u
P
sa una señal de que no has entendido ni la teoría, ni el problema que se pretende resolver.
fic
ít
nie Una teoría es una visión, un tanto racional o construcción intelectual del científico que lo
sC incita a dar sus primeros pasos en el abordaje de un problema. Puede presentarse como un
ría
conjunto de descripciones de la realidad percibidas a través de los sentidos. Se le asume como
oe
T una explicación verdadera de los hechos. Para (Ferrater, 2000), Consiste en un sistema deductivo
sa
L en el cual ciertas consecuencias observables se siguen de la conjunción de hechos observados y
:na
la serie de hipótesis fundamentales del sistema.
ue
alb
En este punto me permito una pequeña digresión donde solicito al lector, no confundir
V
na teoría con tesis. Muchos investigadores principiantes tienden a liar ambas terminologías,
oim
cuestión que de hecho es un error. Mientras que teoría hasta este aparte ha sido un término
R
suficientemente conceptualizado <<así como se hará en los subsiguientes párrafos>> una tesis es
entendida como una proposición que es mantenida como argumento en determinado tema.

Un avance de una disertación cuyo punto de vista originario es producto de una investigación,
muy usado como requerimiento para la obtención de un grado académico. Desde la óptica de la

investigación social y la educación, se le entiende como un sujeto de discusión. Para la filosofía


y la lógica, consiste en una afirmación no demostrada especialmente cuando se presenta como

247 La Teoría de la Evolución Darwiniana, a pesar de ser una teoría científica, se contrapone a la Teoría del Creacionismo, ésta última
considerada como pseudocientífica.
291

premisa en un argumento y ni siquiera llega a ocupar el rango de teorema248.

Una tesis sirve de argumento para soportar la candidatura a un grado académico, en los
doctorados suele denominarse disertación, y en filosofía se le asume como sinónimo de tratado.
Una tesis es producto de un profundo análisis de teorías, y aunque puede derivar en alguna teoría

científica, su denominador común es que ésta no se presenta axiomatizada, ni tampoco han sido
sometidas a experimentos sus hipótesis o demostrado sus teoremas. Por constituirse en un
documento original y único que no ha sido leído por nadie más, carecerá entonces de teorías
subsiguientes que se le contrapongan.

Para Aristóteles en Ferrater Mora (2000, Véase concepto de Axioma), una tesis no puede
demostrarse y no es indispensable, forma parte de uno de los principios inmediatos del silogismo

.s y es usado como base en las demostraciones. Aunque en apariencia está al mismo nivel que un
ar axioma, una tesis no es un principio a todas luces evidente. Es sólo un juicio planteado en
u
P
sa oposición a la corriente del pensamiento de un filósofo importante. De una tesis no
ic
tíf necesariamente se obtiene conocimiento, pero de una teoría axiomatizada sí.
nie
sC Cuando una tesis se estructura se convierte en una hipótesis, y estas conforman el esqueleto
ría
de una teoría, es decir, una tesis está implícita en una teoría pero no hay teorías en una tesis, sólo
oe
T supuestos. La redacción de una tesis difiere en gran medida de la secuencia lógica de una teoría.
sa
L Mientras que la tesis presenta relación estricta y coherente entre ella y su discurso, una teoría
:na
ue adquiere un orden formal lógico y experimentalmente demostrable de explicación causal.
alb
Una tesis envuelve la idea central que será desarrollada en el estudio, orientada siempre a la
V
na
construcción de hipótesis que permitan contestar asertivamente la pregunta de investigación
oim
previa organización metodológica. Contrariamente, las teorías se organizan por sus
R
consecuencias y relaciones lógicas y no por procesos. Aclarado el asunto luego de esta digresión,
continuemos con el tema de las teorías científicas explicativas.

Kerlinger (1979), citado en Creswell (2009, p. 51) expone, una teoría es un conjunto de
definiciones y proposiciones interrelacionadas, que presentan una vista sistemática del
fenómeno, especificando relaciones entre variables. Su propósito, explicar el fenómeno. Bajo
este concepto a una teoría se le asume como un conjunto de variables conexas, formadas por
proposiciones o hipótesis, que expliquen la relación entre variables en términos de magnitud y
dirección.

248 Un teorema consiste en una verdad lógica y matemática. Radica en una proposición que el teorista estructura y deriva de ella consecuencias
lógicas demostrables. En consecuencia, un teorema sirve para demostrar una compilación de supuestos de una teoría.
292

No obstante, cada disciplina científica maneja su estructura teórica de manera diferente, unas
hacen énfasis en la epistemología y otras en su poder explicativo. Con respecto al enfoque
epistemológico, disciplinas como la sicología y la sociología, han sido las que en épocas
recientes han jugado un rol preponderante en la generación de teorías epistemológicas en sus
respectivas áreas, aunque tal aseveración tiene sus detractores249.

Para Newton, una teoría consiste en un sistema en el cual un fenómeno empírico particular es
explicado, relacionándolo a un pequeño número de definiciones y principios generales. Una
teoría es comúnmente asociada con una construcción intelectual, ciertamente es así. En
ocasiones podrá tomar la forma de un enunciado causa-efecto, es decir, cuando “X” cambia, “Y”
cambia. Empero, planteada de esta manera no concurre con las condiciones mínimas necesarias
para serlo. Una teoría generalmente relaciona e involucra, principios abstractos inobservables,
.as
pero que al explicar parte de la naturaleza observable, son tomados en cuenta.
r
u
P
sa Uno de los aspectos más resaltantes del ciclo de indagación científica consiste en admitir
fic
ít errores cuando algo no anda bien. Las teorías están expuestas a constantes cambios, nuevos
nie
sC científicos y métodos de investigación agregan procedimientos tecno operativos que hacen
ría desviar la dirección científica en cuestión, lo que ocasiona, el que a una teoría se le considere
oe inaplicable o se le admita desde otra perspectiva. Estas variaciones periódicas van en beneficio
T
sa del acervo científico y del enriquecimiento de la Honestidad Científica.
L
:na
En ese sentido y según (Lakatos, 1989), el contexto del siglo XVII cuando nace la ciencia, a
ue
alb ningún científico digno de ese nombre se le podían permitir conjeturas; tenía que probar con
V hechos cada frase que pronunciara <<al parecer en estos días eso se ha perdido>>, las teorías no
na
oim probadas por los hechos eran consideradas pseudociencia pecaminosa. Una herejía al seno de la
R comunidad científica. La Honestidad Científica exigía que no se afirmara nada carente de

prueba. Se fundamenta en expresar solamente teorías muy probables, o incluso, en especificar


para cada teoría científica, la probabilidad de la teoría a la luz de la evidencia. Entonces, la
Honestidad Científica consiste en250 especificar por adelantado un experimento tal, que si el

249 La sicología y la sociología, a pesar de su enorme acervo de datos empíricos y generalizaciones de bajo nivel, siguen considerándose aún, en
un estadio subdesarrollado. Porque no abundan en teorías lo suficientemente amplias y profundas como para dar razón del material empírico
disponible. Bunge, Mario (2004, p. 334). Al respecto Kuhn argumenta: hay hombres que sostienen que la sicología, por ejemplo, es una ciencia
porque posee sus características. Otros responden que tales características no existen o son insuficientes para hacer de ese campo una ciencia. Sin
embargo, habrá de revisarse lo que se entiende por ciencia para una actividad específica, y para la comunidad que la práctica. Véase: The
Structure of Scientific Revolutions. Cap. XIII. Progress through Revolutions. (P. 160-163). Según Popper, el acto de concebir o inventar una
teoría, no me parece que exija un análisis lógico ni sea susceptible de él. La cuestión acerca de cómo se le ocurre una idea nueva a una persona —
ya sea un tema musical, un conflicto dramático o una teoría científica— puede ser de gran interés para la psicología empírica, pero carece de
importancia para el análisis lógico del conocimiento científico, puesto que la lógica del conocimiento se contrapone a la sicología del mismo.
Refiérase a: La Lógica de la Investigación Científica. La Eliminación del sicologismo. (p. 30-31). J. B. Watson por su lado afirmaba; <<Para que
la psicología sea científica debe seguir el ejemplo de las ciencias físicas. Es decir, materialista, mecanicista, objetiva y determinista>>
250Este último comentario, aunque aparece en escritos de Lakatos (p. 6 y ss. Versión en PDF), consiste en un extracto de “Los Criterios de
Refutación” Popperianos. Para más detalles Véase: Popper, K. (1963a).
293

resultado contradice la teoría, esta debe ser abandonada, (p. 17).

En ciencia es imposible probar que una explicación elaborada a través de una teoría sea con
toda certeza la final y única, todo queda en manos del probabilismo, éste no solamente facilita la
distinción entre dos términos o conceptos contrapuestos, sino que suministra una escala continua
desde las teorías débiles de probabilidad baja, hasta las teorías poderosas de probabilidad
elevada. Lakatos op. Cit, explica que en 1934 Karl Popper defendió que la probabilidad
matemática de las teorías científicas o pseudocientíficas, no importa la magnitud y nivel de
evidencia, es cero.

Si Popper tiene razón las teorías científicas no sólo son igualmente incapaces de ser
probadas, sino que son también igualmente improbables. Se requería un nuevo
criterio de demarcación y Popper propuso uno magnífico. Una teoría puede ser
.s científica incluso si no cuenta ni con la sombra de una evidencia favorable, y puede
ar ser pseudocientífica aunque toda la evidencia disponible le sea favorable. Esto es, el
u carácter científico o no científico de una teoría puede ser determinado con
P
sa independencia de los hechos. Una teoría es «científica» si podemos especificar por
ic adelantado un experimento crucial (o una observación) que pueda falsarla, y es
tíf
nie pseudocientífica si nos negamos a especificar tal «falsador potencial». (p. 7).
sC
ría Una teoría siempre persigue una dirección cognoscitiva y se le usa para explicar todo aquello
oe
T que es, o pasa en esa dirección. Basta con formular una explicación conformando un cuerpo
sa detallado de conocimientos sobre el fenómeno para que ésta se convierta en teoría. (Popper, La
L
:na
Lógica de la Investigación Científica, Reimpresión 1980), es de opinión… no hay ninguna teoría
ue
alb a la cual no se pueda cuestionar…una teoría no solo debe poder ser sometida a prueba a través
V de experimento y expuesta al criterio de falsabilidad, sino que ha de ser escrita de manera tal
na
que pueda admitir posibilidad de Falsación251. Según Kosso (2011, p. 8), una teoría es
oim
R verdadera si describe cosas inobservables que realmente existen, y lo hace de forma exacta, de
otra manera considérese falsa.

En su razonamiento sobre la Teoría Estática, Bunge (2004, pp. 332 y ss.), afirma que la
actividad científica debe centrase en torno a teorías, su construcción, desarrollo, contraste y
verificación; y no en torno a la recolección y clasificación de datos sin sentido, o sin
posibilidades de discrepancia contra alguna teoría, esto generará inferencias inaplicables y

efímeras.

En su desarrollo expositivo explica… en una teoría debe hacerse distinción entre su forma y

251 Para el autor, los dos enunciados, Falsabilidad y Falsación son diferentes. Falsabilidad es un criterio de carácter empírico de un sistema de
enunciados, es decir, una teoría ha de poseer la característica de poder ser contrastada por la experiencia. Mientras, la Falsación tiene que ver con
reglas especiales que determinen en qué condiciones es posible considerar falsado un sistema, y se refiere más a los Modus de la Lógica. Véase:
Popper Karl (1980), Falsabilidad y Falsación, (p. 82-83).
294

su contenido, entre su estructura lógica y la interpretación. Basta con simples esqueletos con
ciertas propiedades puramente lógicas para tener teorías. Donde la semántica y la sintaxis van de
la mano. Continúa el autor;

La estructura gramatical con la cual se conforman enunciados teoréticos, contiene


elementos suficientes como para convertirla en un arma de doble filo, un lado puede
hacer tambalear su nivel argumentativo. El otro, si ofrece soporte al constructo,
ubicándolo en el contexto, lo solidifica, asignándole características y apariencia de
irrefutabilidad… Los sistemas de hipótesis son sistemas que incluyen lo conocido, lo
meramente sospechado, y lo que puede producirse acerca de un tema dado… Las
teorías científicas tratan de modelos ideales que se suponen representan, de un modo
más o menos simbólico y con alguna aproximación, ciertos aspectos de los sistemas
reales, y jamás todos sus aspectos. Las teorías por lo general son entes abstractos que
no pueden verse, sin embargo, los materiales reales se comportan de un modo muy
distinto del prescrito para sus modelos teoréticos, pero éstos son indispensables.
.s Ningún científico podrá hacer rechazo sobre determinada teoría por el simple hecho
ar de no representar en completitud a su objeto. Todas las teorías científicas son
u primeramente imparciales, en el sentido de que tratan sólo algunos aspectos de sus
P correlatos252; y aproximadas, puesto que no están libres de errores. En tal sentido, la
sa
ic
tíf teoría científica perfecta no existe ni existirá nunca.
nie Gimbel253 (2011) aporta nuevos elementos a la discusión sobre las teorías científicas, el autor
sC hace referencia a 3 modelos teoréticos en especial: Los Sintácticos; los Holísticos y los
ría
oe Semánticos. El primer modelo corresponde a teorías científicas compuestas por un conjunto de
T sentencias, con posibilidades de ser verdaderas o falsas, y que pueden ser probadas usando para
sa
L ello una combinación entre el razonamiento lógico y la observación empírica. Apuntan a
:na
ue establecer un conjunto completo de leyes naturales conformadas por enunciados universales,
alb
agrupándolas de manera que expliquen los fenómenos de la naturaleza.
V
na
Las teorías Holísticas son aquellas en donde las teorías científicas conforman redes e
oim
R interrelacionan enunciados, cada uno interconectado con el otro. Los holistas argumentan que no
es posible aislar una pieza de una teoría y probarla sin hacerlo con todas las demás
simultáneamente. Por otro lado y de acuerdo a las teorías Semánticas, las teorías científicas son
mucho más que mapas. En este caso, no solo representan un set de proposiciones verdaderas o

falsas, sino modelos teoréticos completos.

252 Para una comprensión más profunda sobre los correlatos y su clasificación, Refiérase al apartado dedicado a las Hipótesis; SIGNIFICADO
DE253 LAS HIPÓTESIS. en Bunge Mario Op, Cit. (pp. 194 y ss.)
Véase: los Capítulos referidos a: Syntactic View of Theory (pp. 1 y ss.); Holistic View of Theory (pp. 171 y ss.), y Semantic View of Theory
(pp. 231 y ss.). En: Gimbel, Steven. (2011, Compilador). Exploring the Scientific Method: A New Approach to Teaching and Learning
Philosophy of Science. The University Chicago Press.
295

17.2.- El Método Teórico

Un sistema teórico no se limita solo a los hechos que han sido


observados… y cuyas relaciones lógicas son deducibles de
otros factores que también han sido observados… ha de
procurarse especial énfasis en la interrelación íntima de sus
enunciados generales sobre hechos empíricos, con los
elementos lógicos y la estructura del sistema…

Talcott Parsons.

l método
dependiendo
desde para la
del enfoques
diferentes áreaestructuración
y científico eny creación de teorías científicas podrá variar
científico-analíticos,

E cuestión. Así como podrán combinarse teorías


ello es totalmente válido y se usa para
hacerse de una visual más amplia del fenómeno. Para ello se siguen esquemas mentales,
algoritmos o estructuras usadas en la investigación científica, la teoría que pueda concebirse
adoptará valores obedeciendo a su nivel de abstracción254 o complejidad, y sobre la base de su
poder explicativo. Todo procedimiento, técnica, regla, o incluso, acto de relajación mental que le
lleve a un estado idóneo de concentración y análisis, será denominado método para engendrar
teorías.

El prerrequisito indispensable para entender el razonamiento científico consiste en deducir


qué son, cómo operan y cuáles son las estructuras de las teorías científicas. No ha de confundirse
con la metodología, esta es sólo la adopción de una estrategia sistemática orientada a resolver un

problema, haciendo uso de un método. Las teorías se usan para resolver problemas, pero al
concebírselas, se crean otros. A las teorías científicas se les analiza desde dos vertientes, su
composición abstracta y su estructura formal, y de lo segundo es que trata este aparte, de dar
forma y coherencia científica a una teoría desde el punto de vista de la lógica matemática. Así
mismo, el método teórico ha de ser neutral y estrictamente planificado, incluirá elementos del
proceso teorizador y estará en capacidad de enlazar tanto ideas como estructuras mentales
aisladas255.

254 Abstracción, según Aristóteles: Operación Cognoscitiva mediante la cual, a partir de los datos sensibles que nos suministran nuestros
sentidos, el entendimiento obtiene las esencias universales contenidas en las cosas. Rosental-Iudin (2004) la consideran una de las facetas o
formas de conocimiento que consistente en la separación mental de varias propiedades de los objetos y de sus relaciones, con delimitación o
desmembramiento de una propiedad o relación determinada. Bajo la concepción de Ferrater Mora (2000), debe distinguirse entre la abstracción,
lo abstracto y lo abstraído. La abstracción implica el proceso de abstraer, significa “poner aparte”, lo abstraído es “lo puesto aparte”. Y la entidad
abstraída consiste en una disminución de la realidad. Se sugiere al lector referirse al diccionario filosófico del autor para conocer en profundidad
los 3 grados de abstracción planteados por los escolásticos actuales.
255
Nota del Autor: Entiéndase que existe una marcada diferencia entre idea y estructura mental. Una idea representa sólo un concepto, es decir,
una única unidad de pensamiento. Mientras que una estructura mental está compuesta enteramente de ideas, en el caso de las teorías, una idea
aislada no aporta significado ni mucho menos conocimiento, a menos que pertenezca a un gran sistema mentalmente estructurado, y orientado a
explicar un fenómeno dentro de cierto campo factual.
296

Las ideas científicas están compuestas por dos elementos básicos e irreductibles anclados en
la mente humana, la experiencia y la razón. Éstas ayudan a construir teorías a través de
asociaciones lógicas entre constructos y supuestos. Estos últimos se relacionan a manera de que
lleven a alianzas de interdependencia o dependencia. Podrán demostrarse a través de
deducciones puramente lógicas, sin embargo, la lógica en sí no necesariamente forma parte de
una teoría sino que es un componente fundamental para su prueba o refutación256. Si la
teoría es en extremo abstracta, necesitará reducirse y simplificarse al máximo para dar paso a la
demostración experimental, y en ocasiones habrá de usarse el Método Axiomático para
descomponerla en sus mínimas unidades.

Normalmente forman parte del método y su entorno, los estudios experimentales y la


estadística. Se les utiliza para recolectar muestras y armar un conjunto de datos que servirán de
apoyo en la explicación de un problema. Mientras mejor argumente el científico su teoría de bajo
.eórico nivel más compleja resultará su refutación, mientras más abstracto y menos concreto sea su
axioma de nivel alto, mejor.
T
o El método que se utilice para la construcción de una teoría, ha de subjetivamente sugerir
od
tlMé
también, el método a usar para su Falsación. El método teórico significa partir de la base de
E postulados generales, bien sea hipótesis, supuestos o principios, para deducir de ellos
:na
ue conclusiones, es decir, el trabajo habrá de dividirse en dos partes.
alb
V En primer lugar, se descubren sus principios. Posteriormente, se tendrán que extraer
na
conclusiones, éstas, han de ser de menor generalidad que cualquiera de sus premisas. Para esta
oim
segunda parte, necesaria es una excelente preparación académica y por supuesto una base
R
empírica del método científico. La tarea de establecer principios que servirán como puntos de
partida para sus deducciones se relaciona mucho con la intuición de cada científico.

El afirmar que existe un método teórico específico, con posibilidades de usarse y aplicarse de
manera sistemática para conseguir el objetivo planteado, sería por demás absurdo y fuera de toda
realidad. Al investigador le corresponde hilvanar tales principios, percibiéndolos a través de un
ciclo de indagaciones profundas sobre hechos empíricos u observaciones directas e incluso

256 Nota del Autor: Los enunciados sintéticos son aquellos que necesariamente deben ser contrastados a través de investigaciones empíricas o
deducciones lógicas, en un primer momento pueden considerarse falsos o verdaderos. En contraste, un enunciado analítico desde el mismo
momento en que se concibe se le estima verdadero, bastará sólo hacer una simple revisión del mismo para corroborar su nivel argumentativo de
verdad. La lógica es necesaria para los sintéticos pero no para los analíticos. Para comprender mejor esta analogía se recomienda al lector
referirse al estudio de los enunciados sintéticos y analíticos. Véase Popper Karl (1980); Enunciados Universales y Existenciales (pp. 66 y ss.).
Refiérase también a: Immanuel Kant (1962) Cap. IV, Distinción entre los Juicios Analíticos y Sintéticos. (pp. 32 y ss.). Indáguese sobre los tres
tipos de juicios que el autor argumenta existen en la ciencia: Los Juicios Analíticos a Priori; Los Juicios Sintéticos a Priori y Los Juicios
Sintéticos a Posteriori. Bunge (2004), trata el tema de los enunciados a través del análisis de conceptos, ofreciendo detallada visión acerca de la
sintaxis y la semántica que debe componer a una teoría bien explicitada. Véase el Cap. II Concepto (pp. 41 y ss.).
297

aplicando el abstraccionismo, cuyos rasgos generales le permitirán adquirir el conocimiento


suficiente como para fundar de manera lógica y coherente, su primer supuesto.

Una vez establecida con éxito la primera formulación a través de la deducción lógica, las
subsiguientes se formarán concatenándolas. Por lo que la primera deducción debe conducir a la
segunda, éstas a una tercera, y así sucesivamente. Hasta lograr conformar una estructura arbórea
compuesta por enunciados universales, particulares y singulares257. Es indiscutible que las
teorías científicas desde el mundo antiguo hasta ahora, han sido sometidas a cambios continuos
y permanentes para el bien de la humanidad. Algo para nada cuestionable ni mucho menos
producto de asombro, la ciencia simplemente es y seguirá siendo así.

Ésta cambia a consecuencia de la temporalidad de las ideas científicas, y cuando nuevos


supuestos entran con la fuerza suficiente como para pasar a formar parte de nuevos axiomas,
conformando entonces un sistema teórico sólido y desarrollado.
.eórico
(Popper, La Lógica de la Investigación Científica, Reimpresión 1980), indica que un sistema
T teórico es desarrollado cuando está formulado de un modo tan claro y definido, que sea posible
o
od el reconocer con facilidad que cualquier nuevo supuesto, es una modificación, y, por ello, una
tlMé
revisión del mismo, (p.64). Los axiomas se eligen de modo tal que todos los demás enunciados
E pertenecientes al sistema teórico puedan deducirse de ellos por medio de transformaciones
:na
ue puramente lógicas o matemáticas, (p. 69).
alb
V Para que un sistema teórico esté completamente axiomatizado, desde la óptica Popperiana,
na
oim han de haberse formulado un conjunto de enunciados que satisfagan los siguientes 4 requisitos
R fundamentales:

a) El sistema de axiomas está exento de contradicción258 (ya sea contradicción interna de


ellos o de unos con otros); lo cual equivale a que no es deductible del sistema un enunciado
arbitrario cualquiera;

b) El sistema es independiente, es decir, no contiene ningún axioma deductible de los restantes

257 La lógica clásica (y de modo análogo la lógica simbólica o logística) distingue entre enunciados universales, particulares y singulares.
Enunciado universal es el que se refiere a todos los elementos de una clase determinada; particular es el que lo hace a algunos de los elementos
de ella, y singular el que hace mención de un elemento dado, un individuo. Esta clasificación no está basada en razones concernientes a la lógica
del conocimiento, sino que fue elaborada con vistas a la técnica de la inferencia. Todas las aplicaciones de la ciencia se apoyan en inferencias que
partiendo de hipótesis científicas (que son universales) llegan a casos singulares; o sea, en la deducción de predicciones singulares. Más, en todo
enunciado singular es menester que aparezcan conceptos —o nombres— individuales. Refiérase a Popper Karl (1980), Cap. 13; Universalidad
Estricta258 y Numérica, y Cap. 14: Conceptos Universales y Conceptos Individuales.
De acuerdo a: Miaja de la Peña (2001, p. 147). Una proposición contradictoria es una proposición compuesta que es falsa en todos los casos,
cualquiera que sea el valor de verdad de sus proposiciones simples. Por su lado, Popper con ello indirectamente sugiere evitar la formulación de
proposiciones indeterminadas o contingentes <<como las usadas ocasionalmente por los Justificacionistas>>, las cuales son proposiciones
verdaderas en algunos casos y falsas en otros, todo dependerá del valor de verdad de sus proposiciones simples componentes. Esto evitaría la
correcta axiomatización del sistema.
298

(o sea, que solamente se llamará axioma a un enunciado si no es posible deducirle del resto del
sistema); Estas dos condiciones se refieren al sistema axiomático como tal; en cuanto a las
relaciones del mismo con el conjunto de la teoría, los axiomas han de ser:

c) Suficientes para deducir todos los enunciados pertenecientes a la teoría que se trata de
axiomatizar;
d) Necesarios para el mismo fin : lo cual quiere decir que no deben contener supuestos
superfluos;

Popper explica… dentro de un sistema teórico es posible hacer distinción entre enunciados
pertenecientes a diferentes niveles de universalidad. Donde los axiomas se encontrarán en el
nivel más alto, y de ellos será posible deducir otros, situados en niveles inferiores. Los
enunciados empíricos de elevado nivel tienen siempre el carácter de hipótesis con respecto a los

.eórico enunciados de nivel inferior deductibles de ellos, (p. 72). Del mismo modo advierte, estos
enunciados axiomáticos de elevado nivel podrán ser falsados cuando se falsen los enunciados
T menos universales. Es de esta manera como la ciencia es posible, y se desarrolla gracias al
o
od método de conjeturas y refutaciones.
tlMé
Popper ha sido calificado hasta el presente, como uno de los mejores del pasado siglo XX, en
E
:na
relación a sus teorías de racionalidad científica y criterios demarcatorios. Mediante los cuales
ue
alb siempre intentó fundar unas bases racionales, reflexionando… todo aquel que desee dedicarse a
V la ciencia, deberá conocer muy bien las reglas del juego científico… Se considerará científico
na
sólo a aquel que genere y refute teorías científicas. Reglas bajo las cuales en su filosofía
oim
R científica sostuvo que la corroboración, o grado de verificabilidad de verdad o falsedad de una
hipótesis, no es una medida definible, y sobre la cual la evidencia la confirma.

Contrariamente, argumentaba que el grado de corroboración de una hipótesis por la evidencia,


se convierte en una función del rigor que provee la prueba, y por tanto, una medida de su éxito.
Dentro de la estructura axiomática, las hipótesis representan los eslabones que unen
determinados supuestos con otros, Ferrater Mora Op. Cit, argumenta que una hipótesis “es algo
puesto debajo”. Lo que se pone debajo es un enunciado, y lo que se coloca “encima” de él es otro
enunciado o serie de enunciados. La hipótesis es pues, un enunciado (o serie articulada de
enunciados) que antecede a otros constituyendo sus fundamentos. Es así como una hipótesis se
convierte en el eslabón de una cadena de deducciones que han de ser sometidas a prueba.

Son las hipótesis las que permiten y abren paso al conocimiento científico, estas ayudan a
reformular aquello que no se ajuste a la realidad. Y el perfeccionamiento de teorías a través de su
299

continuo sometimiento a prueba, es condición necesaria y el precio que ha de pagarse por el


progreso científico. Si se pretende un resultado diferente al de una teoría previa, entonces no
habrá de hacerse siempre lo mismo y es menester refutarla.

Aunque el criterio de falsabilidad Popperiano basado en la lógica deductiva es bastante

efectivo a la hora de someter a prueba enunciados, esta no es la única herramienta259. Para ello
el investigador está en su derecho de elegir libremente su método de prueba. Teniendo en cuenta
siempre que el científico y el experimentalista por lo general son personas distintas.

En el sentido estricto del pensamiento de Mario Bunge, surgen deferencias acerca del método
para la construcción de una teoría, para ello, han de tomarse en cuenta los siguientes aspectos
básicos:

a) Sistematizar el conocimiento estableciendo relaciones lógicas entre entidades antes


inconexas….en particular, explicar las generalizaciones empíricas derivándolas de hipótesis
. de nivel superior…
eórico

b) Explicar los hechos por medio de hipótesis que impliquen las proposiciones que expresaban
T
o dichos hechos…
od
tlMé
c) Incrementar el conocimiento derivando nuevas proposiciones (por ejemplo previsiones) de
E las premisas, en conjunción con información relevante…
:na
ue d) Reforzar la contrastabilidad de las hipótesis sometiéndolas al control de las demás hipótesis
alb del sistema…
V Estas 4 proposiciones son aproximaciones metódicas a la teorización científica. No obstante,
na
oim Bunge aporta una artillería analítica al respecto; Ningún conjunto de conjeturas se considerará
R como una teoría científica factual a menos que forme parte de un sistema hipotético-deductivo
propiamente dicho, si no suministra explicación y previsión, y si no es contrastable, (p. 335). Así
mismo, unas cuantas teorías científicas no solo satisfacen estas cuatro desideratas básicas, sino
otros adicionales:

e) Orientar la investigación;
i. Mediante el planteamiento o reformulación de problemas científicos fecundos

259 El Falibilismo es estimado como la versión sofisticada del Falsacionismo según Lakatos. Esta nueva estrategia de sometimiento a prueba de
enunciados universales, deja entrever la posibilidad de que una teoría refutada a través del Falsacionismo, habiéndosele encontrado falsa, su
conocimiento puede en principio considerarse erróneo, y sabiéndolo, todavía se le juzgue como una teoría con posibilidades de uso. Allí se
introducen las diferencias entre justificación y Falsación. De acuerdo a los Justificacionistas, el conocimiento científico siempre ha consistido en
proposiciones probadas. Sin embargo, argumentan la necesidad de pruebas extralógicas. Es decir, <<La teoría es falsa, pero parte de su contenido
es utilizable>> separándola de toda validez formal y justificándola en la afirmación: “Las Teorías Científicas están en constante Revisión”. No
obstante, basta hacer revisión de los escritos Popperianos para encontrar que la teoría falibilista ya había sido por él considerada. A lo cual
manifestó refiriéndose a la invalidez de la justificaciones inductivistas <<cuando una teoría se refuta, también se puede refutar el método que la
produjo. Cuando un método se refuta, también se refuta el principio en el que se basó>> Popper (1985b). Véase También: Imre Lakatos (2001).
The Methodology of Scientific Research Programmes: Philosophical Papers, Volume 1. Especialmente el Capítulo referido al: Falibilism Versus
Falsificationism. (p. 10).
300

ii. Mediante sugerencias sobre la recolección de nuevos datos que serían inimaginables sin
la inspiración de la teoría

iii. Inspirando nuevas líneas de investigación


f) Ofrecer un mapa de un sector de la realidad, esto es, una representación o modelo
(generalmente simbólico, no icónico o imaginativo) de objetos reales, y no un mero sumario
de datos, además de un procedimiento para producir nuevos datos (previsiones).
Todas las teorías que satisfagan estas 6 desideratas, por lo general son vistas como grandes
teorías científicas. Sobre todo, si generan un nuevo modo de pensar. La complejidad de la
relación teoría – realidad, además del hecho que la teoría es mucho más que recolección e
interpretación de datos, hace sugerir que mientras más próximo esté el planteamiento y
construcción de sistemas teóricos en determinado campo científico, más rápidamente se podrán
obtener beneficios cognitivos de él.

Para (Creswell & Plano, Designing and Conducting Mixed Methods Research, 2011), en la
.eórico
investigación científica una teoría puede parecerse a un argumento, discusión, o a un acto
meramente racional, que ayude a explicar o predecir el fenómeno. Por otro lado afirman, el
T
o proceso de revisión de la literatura debe ser empleado para determinar qué teorías podrían ser
od
tlMé usadas durante la ejecución del estudio. Esto motivado a que los diversos manejos de las teorías

E por parte de los investigadores, desde los modelos cuantitativos, cualitativos y mixtos260, son en
:na
esencia, diferentes.
ue
alb
V
na
oim
R

260Debido al extenso contenido y múltiples enfoques en estos modelos no se abordarán todos en profundidad. Para una mejor comprensión de
los Métodos Mixtos y el cómo se genera teoría a partir de sus diseños Refiérase a: Advances in Mixed Methods Research: Theories and
Applications. Editado por: Manfred Max Bergman (2008). Designing and Conducting Mixed Methods Research. Creswell, John; Clark, Vicky.
(2011). Y, Mixed Methods research: Merging Theory with Practice. Hesse, Biber; Sharlene, Nagy. (2010).
301

17.3.- Las Teorías en los Modelos Cuantitativos y Cualitativos

Usted puede utilizar todos los datos cuantitativos que pueda


conseguir, pero todavía tiene que desconfiar de ellos y utilizar
su propia inteligencia y juicio…

Alvin Toffler.
No todo aquello que pueda ser contado cuenta… y no todo lo
que cuenta puede ser contado.

Albert Einstein.

su
colocándola
os prueba y comúnmente
investigadores
verificación, en lugar usan
cuantitativos
al inicio supropuesta
de la teoría debEl
ladesarrollo. proceso
asada
estudio. consiste
enEsto,
la lógica deductiva,

L teniendo en mente
en un primer
momento en presentar su teoría, armarse de una artillería de medios que le permitan colectar
datos para probarla, y por último, orientar intervención analítica para reflexionar sobre el mejor
proceso para someterla a confirmación. Dependiendo del contraste, la teoría se convertirá en sólo
un extracto del estudio entero, donde ha de destacar, la estructura organizativa del trabajo para la
pregunta de investigación, o la/s hipótesis planteada/s, y por supuesto, el procedimiento de
recolección de datos.

Creswell y Clark (2011: p. 57), recomienda enclavar la teoría muy temprano en el estudio, es
decir, en la introducción, en la sección de revisión de la literatura, inmediatamente después de las
hipótesis o pregunta de investigación, en su defecto, en sección separada dedicada

exclusivamente a ella y su Operacionalización. No obstante, hace énfasis en esta última opción,


con el fin de que los lectores puedan claramente identificar la teoría y diferenciarla de los demás
componentes.

Advierte sobre el hecho… no importa el lugar donde se coloque, éste tendrá sus ventajas y
desventajas, como detrimento a esta opción, es de considerar que el aislamiento de la teoría en
sección aparte, puede llevar al lector a no identificarse con los demás elementos que la
componen.

Los investigadores cualitativos por su lado, usan la lógica inductiva y se diferencian de los
cuantitativos a raíz de los siguientes procedimientos: el investigador colecta información a través
de diversos instrumentos, entrevistas u observaciones; realiza preguntas abiertas a los
participantes, o graba notas de campo; posteriormente analiza la data para conformar temas o
302

categorías; acto seguido, busca patrones generales, o teorías provenientes de los temas o
categorías; y por último, plantea generalizaciones o teorías de pasadas experiencias, soportadas
en la literatura. Creswell Op. Cit, (p. 63-64).

Obsérvese que para este caso, la teoría es lo último que se plantea. Sin embargo, en una
investigación cualitativa de diseño emergente, la teoría podrá aparecer al inicio del estudio,
siendo posible su modificación o ajuste, según se haga observación sobre los participantes. Es
menester recordar que las teorías del tipo inductivista presentan problemas con respecto a sus
contrapartes deductivas, su Falsación. Creswell ofrece su recomendación acerca del uso de
.os
tiv teorías en investigaciones cualitativas: el primer paso consiste en dilucidar si la teoría puede ser
at usada con propósitos cualitativos; si es posible, entonces identifique cómo será aplicada en su
il
a estudio, puede practicarse con explicaciones por adelantado; para finalizar, ubique la teoría
u
C
sy según el propósito, de manera que sea consistente con su uso.
otiv
at Una teoría diferirá de otra no únicamente por su estructura, sino por su complejidad. Sin
it
na embargo, esa no será su distinción esencial. Su diferencia radicará en los principios explicativos
u
sC que ésta sea capaz de ilustrar, en cuyos contextos han de subyacer las posibilidades de creación
elo
de nuevos conceptos, perspectivas o visiones del mundo. Al respecto, Edwin Hung (2006, p. 19
dsMo
21) referencia a Kuhn y su forma de Categorización de Sistemas, cuya actividad clasificatoria se
lo efectúa en dos pasos. En el primero se construye un sistema de categorías, constituido por un
nse
ría conjunto de símbolos, en acto seguido, la agrupación de objetos en tal sistema.
oe
sT Es así como la actividad científica Kuhniana consiste en dos pasos: el primero se avoca a la
a construcción de una teoría conceptual; el segundo consiste en la descripción del fenómeno de
L
:na
acuerdo a tal teoría. A este primer paso se llama ciencia teorética, y al segundo, ciencia aplicada,
ue
alb o simplemente ciencia descriptiva.
V
na
oim
R
303

17.4.- Criterios Lógicos para Estructurar Teorías Científicas

A continuación se presentan una serie de consideraciones a tomar en cuenta a la hora de


estructurar debidamente una Teoría Científica Explicativa. Primeramente se requiere que la
teoría a la que se haga referencia explique amplia y exhaustivamente el fenómeno, es decir,
expóngase todos los antecedentes de los hechos que dan origen al suceso investigado, hágase

corresponder con una explicación causal del tipo deductiva y explíquese enteramente la historia,
tanto del fenómeno abordado como el origen y adecuación de la teoría que lo explica.

.s Defínase científicamente, todo término o concepto contenido en el sistema teórico,


ov
it bosquéjese un mapa, bien sea real o mental de toda entidad abstracta que una tercera persona no
at
il
a pueda visualizar, hágase visualizable y de ser posible diseñe un experimento mental. La etapa
u
C
sy descriptiva ha de evidenciar al menos una descripción estática y dinámica de lo que acontece;
otiv sepárense todas aquellas secciones que correlacionan una variable con otra siempre que se
at originen de axiomas diferentes; verifíquese que en las relaciones causales se ocurra primero la
it
na causa y luego el efecto y; cerciórese que ha tomado en cuenta y eliminado cualquier tercer factor
u
sC extraño al sistema. Posteriormente, ante el conjunto de preguntas subsiguientes, la respuesta debe
elo
dsMo ser positiva para todas ellas, de serlo, entonces usted tiene potencialmente una teoría científica,
caso contrario, revise y reintente:
lo
nse
- ¿Los axiomas de nivel alto son suficientemente abstractos…?
ría
- ¿El sistema sigue la secuencia: Axioma – Definición - Teorema…?
oe
sT - ¿La teoría se soporta sobre un sistema deductivo compuesto por silogismos…?
a
L - ¿En la conclusión el sujeto es el mismo que el de la premisa mayor…?
:na
ue - ¿El sujeto de la premisa menor se corresponde con el predicado de la conclusión…?
alb - ¿Ninguna de las conclusiones arroja o admite la aparición de una paradoja…?
V
na - ¿Las conclusiones se corresponden sólo con estados altamente probables y no se constituyen
oim en la palabra final…?
R - ¿Los teoremas del sistema son demostrables…?
- ¿Resultaron negativas todas las pruebas de reducción al absurdo aplicadas al sistema…?
- ¿Las Hipótesis unen a los supuestos…?
- ¿Afirmaría usted que el Sistema está exento de contradicciones…?
- ¿El sistema admite demostración experimental…?
- ¿El sistema es Lógicamente Falseable…? Es decir, ¿Podrá presentarse determinada situación
teórica, o demostración empírica en la cual la teoría pueda invalidarse…?
304

17.5.- El Método Axiomático o Método Demostrativo

El gran objetivo de toda ciencia es cubrir el mayor número de


hechos empíricos por deducción lógica a partir de la menor
cantidad de hipótesis o axiomas.

Albert Einstein.

Las paradojas son menos paradójicas en su referencia a la


verdad que la mayoría de los axiomas más plausibles.

Raheel Farooq.

basa ensobre
Método
lteoría lasAxiomático
mismas
sus mínimos
secuencias
bloques
consiste en las
el que se erigen
enestructurales a partir
procedimiento lamediante
matemática
de una serie
el cual se modela una

E de enunciados. Se
y la lógica formal y
que permite concatenar supuestos, teoremas, postulados e hipótesis, tendente a la demostración

lógica de los elementos cognoscitivos a los que haga referencia261. Se diferencia del Método
Teórico en razón de que la axiomatización permite transformar cualquier cadena de supuestos o
postulados en ecuaciones matemáticas.

Mientras el Método Teórico permite construir teorías tanto sintáctica como semánticamente,
el axiomático las modela abstracta, formal y matemáticamente. De una observación abstracta y
minuciosa se derivan teorías, y de allí no salen más que preguntas inteligentes, y es el método
axiomático el encargado de responderlas haciendo uso de demostraciones. Bajo criterios de

(Cohen M. y., 1934); una teoría se divide en dos conjuntos de enunciados: los llamados
primitivos o postulados, y los derivados, denominados comúnmente teoremas.

En la axiomática, se plantean tanto los primitivos como los teoremas, todo bajo las reglas que
dicta para ello la lógica de inferencia deductiva. Un teorema se constituye en una proposición
que puede ser demostrada, mientras que los enunciados primitivos los definen las reglas de juego
de la teoría axiomatizada. Axiomatizar implica la acción de demostrar, a partir de los axiomas de

261 En la investigación científica avanzada se intenta crear agentes inteligentes basados en lógica, estos son capaces de ejecutar encadenamientos
de raciocinios tanto hacia adelante como hacia atrás, usando motores de inferencia progresiva. Allí cada inferencia ha de cumplir con los criterios
de equivalencia, validez y satisfacibilidad. Dos sentencias son equivalentes si ambas poseen los mismos valores de verdad. Será válida si es
verdadera en todos los modelos. Y, se considerará satisfactoria si es verdadera para al menos un modelo. Esta secuencia de pasos abren el camino
para embeber la Ingeniería del Conocimiento en un Agente Inteligente. Un ingeniero de conocimiento es alguien que investiga un dominio
concreto, aprende qué conceptos son importantes en ese dominio, y crea una representación formal de los objetos y relaciones del dominio. La
ventaja de este modelo respecto al tradicional radica en la capacidad de hacer frente a la completud, pudiendo penetrar más capas de abstracción
que el cerebro humano común. Para ello hacen uso de demostradores de teoremas, razonadores automáticos basados en lógica de primer orden.
Estos eligen un conjunto de cláusulas y axiomas utilizables externos a los primeros. Posteriormente, derivan un conjunto de ecuaciones conocidas
como rescritores o demoduladores. De hecho, Natarajan Shakar, utilizó uno para ejecutar una demostración formal y rigurosa del Teorema de
Incompletud de Gödel. Una relación más estrecha entre el Método Axiomático y los Demostradores de Teoremas se abordará en una próxima
edición de este texto. Parte del contenido de esta cita fue extraído de: Russell, Stuart y Norvig, Peter. (2004, p. 295). Inteligencia Artificial: Un
Enfoque Moderno. Véase.
305

determinada teoría, que sus proposiciones son consistentes y están libres de contradicciones a la
luz de la matemática y la lógica formal. Se hace necesario antes de la aplicación del Método
Axiomático, el que la teoría se encuentre ya suficientemente argumentada, axiomatizar no es otra
cosa que matematizar el sistema, se usa para reproducir desde cualquier investigación científica,
un modelo matemático capaz de traducirse a lenguaje computacional y usarse en la predicción
automatizada.

Este proceso parte de los postulados de la lógica formal tradicional, donde se acepta al

principio de no contradicción como el axioma supremo. Para el método se asume que todo
conocimiento implícito en determinada conclusión científica es derivado natural obtenido
.o
vi demostrativamente a partir de unos principios, en donde todo el sistema ha de estar exento de
ta
rt
so contradicciones 262. Es allí donde el proceso se convierte en una herramienta para la
me construcción intelectual de conocimiento. Para (De Gortari, Diccionario de la Lógica, 1988):
D axioma es…cualquier proposición no susceptible de demostración ni de refutación lógica, pero
o
do
té que se presume será aceptada como válida por cualquier persona capaz de comprender su
M significado.
tico

xiomá Según el diccionario de la RAE Axioma significa: Proposición tan clara y evidente que se
admite sin necesidad de demostración. Cada uno de los principios fundamentales e
A
o indemostrables sobre los que se construye una teoría. Para Aristóteles en Ferrater Mora (2000);
od
tlMé los axiomas son principios evidentes que constituyen el fundamento de toda ciencia. Se

constituyen en proposiciones irreductibles, principios generales a los que se reducen todas las
:E
na demás proposiciones y en las cuales estas se apoyan. Por sus características, en ningún axioma su
ue
alb predicado se considera verdadero. En consideraciones de Bunge (2001), Axioma;
V
na Su concepto contemporáneo no incluye la idea de una proposición evidente o
oim intuitiva. De hecho, los axiomas <<postulados>> de las teorías científicas son en alto
R grado contraintuitivos: tampoco se requiere que sean verdaderos. Los axiomas no son
demostrables pero son justificables263 por sus consecuencias.
En cuanto al Método Axiomático, éste se centra en conocer qué papel juega el método en las
matemáticas, no obstante, según (Rosental & Iudin, 2004), presenta las siguientes características:

262 Requisito presentado en cualquier teoría axiomática; según dicho requisito, en el marco de la teoría dada no pueden ser al mismo tiempo
inferibles cierta proposición P y su negación ˉP. Dada la diferencia que existe en entre los aspectos sintáctico y semántico de las teorías
axiomáticas esta exigencia de no contradicción se formula de dos maneras: la teoría no es sintácticamente contradictoria si en ella no resultan al
mismo tiempo inferibles cierta proposición y la que la niegue; la teoría no es semánticamente contradictoria si posee por lo menos un modelo, es
decir, cierta zona de objetos que satisfaga la teoría en cuestión. Véase Rosental –Iudin (2004), CARÁCTER NO CONTRADICTORIO DE LA
TEORÍA AXIOMÁTICA.
263 Se agradece al lector para una mejor comprensión del término remítase a la Teoría Justificacionista.
306

Es uno de los procedimientos de estructuración deductiva de las teorías científicas,


mediante el cual: 1) Se elige cierto conjunto de proposiciones de una determinada
teoría y estas se admiten sin demostración (Axiomas); 2) los conceptos en ellas
contenidos no son claramente determinados en el marco de la teoría dada; 3) se fijan
las reglas de la deducción y las reglas de la definición en la teoría dada, reglas que
permiten correspondientemente, pasar de unas proposiciones a otras e introducir
nuevos términos (conceptos) en la teoría; 4) todas las demás proposiciones de la
teoría dada se deducen de (1) sobre la base de (3).
En física y en matemáticas, un sistema axiomático es consistente si no son deducibles de él
conclusiones contradictorias. La teoría axiomática es un sistema formal que establece
correlaciones directas entre sus elementos (signos), y que está en capacidad de describir
.o cualquier multiplicidad de objetos que la satisfagan. El Método Axiomático es eficaz, persigue la
vi obtención de características que permitan establecer el perfil no contradictorio del sistema, su
ta
rt
so completitud e independencia entre sus axiomas.
me
D Según Gödel en Rosental-Iudin Op, Cit. Es imposible estructurar un sistema axiomático
o
do universal264, entonces, la axiomatización se constituye sólo en uno de los métodos con que se

M organiza el saber científico. Desde el punto de vista del contenido, la teoría se encuentra ya
tico
suficientemente estructurada, y es cuando permite obtener de sí misma una representación más
xiomá exacta, en particular, una deducción más rigurosa de todas las conclusiones que se desprenden de
las afirmaciones admitidas.
A
o
od En escritos de Carnap (2002, p. 271), un sistema axiomático es comúnmente conocido como
tlMé
un sistema de sentencias, también llamadas axiomas, desde los cuales, cualquier otra sentencia
E
:na <<también llamadas teoremas o conclusiones>> pueden ser deducidas. Todo sistema
ue axiomático se estructura lógicamente a partir de silogismos. En ese orden, Randall (1992, pp.
alb
240 y ss.) argumenta, método y silogismo son los mismo, puesto que la definición de uno no es
V
na diferente a la del otro, donde el silogismo es, de hecho, el género común de todos los métodos e
oim
instrumentos lógicos. Es así como el silogismo se convierte entonces en la más poderosa
R
herramienta en la que se soportan los sistemas deductivos.

No importa el tipo de ciencia, el método usado ha de ir desde las causas a sus efectos, o
contrariamente, desde sus efectos hacia sus causas. Desde este punto de vista hay sólo dos

cualquier
264Se sistema
refiere formal, llámese
al Teorema de Incompletud de Godel. Este
lógico o matemático, que teorema se explica
sea consistente y enmejor en Moreno
cuyo interior Villa (2003);
se pretenda desarrollar
Gödel sostiene lo siguiente…en
acabadamente la lógica o la

matemática, existen proposiciones de dicho sistema que son indecidibles, esto es que, ni su afirmación ni su negación son demostrables. Siendo
una de ellas precisamente, la que afirma que el sistema es consistente (sostiene que en su interior no existen contradicciones). Dicho de otra
manera, no se puede demostrar la no contrariedad de un sistema matemático formalizado dentro del mismo sistema. Gödel afirma entonces que
en cualquier sistema lógico o matemático, por exhaustivo que este sea, existe al menos un teorema o proposición que no es decidible; es decir,
que aunque sea verdadero, no puede deducirse del mismo sistema, y por ser imposible de probar, ha de apoyarse en otros sistemas externos a este.
307

métodos posibles; el de la Composición <<axiomático>> y el de la Resolución265.

Randall op, cit, alega… todo progreso científico implica partir de lo conocido hasta lo
desconocido, consiste bien desde las causas en dirección a sus efectos o en disposición
contraria. Cuando se hace uso del primero se dice que se opera con el Método Demostrativo o
Método Axiomático, denominado Método de Composición. El otro es el Método Resolutivo. No
hay otro procedimiento que provea al científico de cierto conocimiento de las cosas.

Queda claro entonces que no existe otro método científico más que el Demostrativo y el
Resolutivo. El método demostrativo se construye a partir de silogismos que van desde
.o proposiciones necesarias e intermedias, mejor conocidas como las causas de la conclusión. Por
vi
t
ar otro lado, el método resolutivo, es un silogismo contentivo de proposiciones necesarias, las
ts cuales conducen desde las cosas posteriores hacia el descubrimiento de las cosas anteriores a las
o
me
causas.
D
o
do (Bunge, Diccionario de Filosofía, 2001), conceptualiza Axiomática como a cualquier teoría,

M razonablemente clara y estructurada que pueda axiomatizarse, implica la secuencia Axioma
tico
Definición-Teorema. La axiomatización bajo ningún concepto se ocupa del contenido o tema al
xiomá que haga referencia la teoría, sólo se circunscribe a darle justa estructuración organizativa, de
manera que de ella puedan extraerse la mayor cantidad de conclusiones posibles. Las
A
o características principales de la axiomática son su rigor y sistematicidad; el rigor exige mostrar la
od
tlMé
lógica pertinente e implícita en sus enunciados, distinguiendo los definidos de los no definidos.
:E Así como, las presuposiciones deducidas de las supuestas. La sistematicidad implica la
na
ue anulación de todo aquello considerado no pertinente porque se requiere que todos los predicados
alb
sean co-referenciales. En donde los enunciados han de ser coherentes, por lo que se asume que
V
na presentan nexos de unidad, en virtud de la relación de implicación (Revísese: Lógica de
oim
Enunciados: Cap. I). La axiomatización conlleva rigidez, contrariamente, al mostrar los
R
supuestos explícitos y ordenadamente, la axiomática facilita la corrección y profundización. A
continuación se muestra la estructura del método axiomático.

265 El Método de Resolución consiste en una regla de inferencia deductiva aplicada tanto en lógica como en matemáticas, allí se toman dos
premisas y se reproduce una conclusión lógica de ellas. Úsese el ejemplo de un sistema de 2 ecuaciones con 2 incógnitas “X” y “Y”. Ambas
incógnitas aparecen en ambas ecuaciones, al resolver el sistema manualmente por el método matemático de resolución de ecuaciones <<hay 3
maneras>> se podrá conocer el valor de una. Para indagar sobre el valor de la otra, basta con sustituir el valor encontrado en la ecuación contraria
y despejar. Si el sistema es consistente y verdadero habrá de cumplirse la igualdad para ambas ecuaciones. De presentarse una clausula cero, o
clausula vacía, implica esto que al menos uno de los teoremas en que se basó una de las ecuaciones es falso, alterando así todo el sistema
axiomático. Se aplica entonces el proceso denominado Derivación por Refutación, el cual sólo pretende demostrar que tanto las premisas como
las conclusiones son inconsistentes. Todo método de resolución siempre ha de ir acompañado de su respectivo método de demostración. Así
como se aplica en matemáticas, también puede ser usado en cualquier sistema de enunciados no matemáticos, bastará sólo con transformarlo al
sistema apropiado usándose las reglas de la axiomática. Popper argumenta que un sistema axiomático y un sistema de ecuaciones son análogos,
por lo que no habrá de parecerle complicado al científico.
308

17.5.1.- Esquema Científico del Método Axiomático

La Estructura Científica Basada en el Método Axiomático

MatematizaciónEnunciados
Nivel Abstracto Grandes Teorías
Científicas
Axiomas de Universales

Postulados nivel Alto Postulados

Deducción Deducción
.o Nivel Altode
Premisas
Hipótesis
Conclusiones Premisas
tiv
ar
tmos
Conclusiones
De
doét
Correlación Hipótesis de Causa y Efecto
Nivel Alto Hipótesis de
M Nivel Alto
o
otic
máiAdox
Leyes Internivel Teorías Internivel Niveles de
Agregación

Axioma Medio Axioma Medio Axioma Medio


éltMo
Hipótesis de
Nivel Medio Teorías Asociadas Teorías Agregadas

E Hipótesis de
Nivel Medio Hipótesis de
:a Nivel Medio
nelbu
Enunciados Singulares Enunciados Singulares
Va Tecnología: Teorías
na Sustantivas y
Operativas
oim
Enunciados Particulares Enunciados Particulares
R
Investigación Social

No Hay Teorías Ciencia No Existen


Axiomátizadas Descriptiva Leyes

Nivel Descriptivo de las Ciencias Sociales


309

Para construir una teoría científica soportada sobre el Método Axiomático, en un primer
momento se plantean los axiomas de nivel alto de la teoría de referencia. Estos han de ser los
más abstractos y lo menos concreto que se puedan. Luego se toman postulados soportados en
enunciados universales, se crean conceptos, se les define y se plantean hipótesis demostrables
que subsiguientemente serán llamados teoremas. Allí comienza el proceso de proyectar tantas
columnas de hipótesis como se considere con el fin de dar explicación exhaustiva al fenómeno.
Preste atención a la coherencia, consistencia y no contradicción interna del sistema axiomático,
recuerde que debe construirse a partir de la menor cantidad de axiomas posibles.

Si existe una ley, ésta ha de estar presente desde el nivel alto hasta el pie del modelo
.o
vi axiomático. No olvide que es posible explicar leyes por teoría o teorías por leyes. Si va a
t
ar conectar teorías con leyes, como ornamento a su discurso, esto es posible sólo si, se presenta una
ts
o condición sistemática de interacción, donde sus niveles jerárquicos y sus intervalos temporales
me
D de sucedencia, aportan magnitudes invariantes fenomenológicamente, y, la denominada ley es
o
do
té anterior a la teoría. Para ello es necesario que la ley reduzca a la teoría y no a la inversa. Si hay
M más de una ley actuante, óptese por el uso del principio de correspondencia lógica (Ver Cap. I.
tico
Sección 1.10.- Principio de Correspondencia).
xiomá
Partiendo desde el axioma de alto nivel, se procede a generar hipótesis a través de supuestos y
A premisas hasta llegar a conclusiones. Este último paso debe conducir a proposiciones verdadera e
o
od
tlMé indemostrables llamadas axiomas, pero en este caso, de nivel medio. El científico ha de estar
claro que todo axioma medio debe ser de menor generalidad que los axiomas universales, allí
:E
han de usarse proposiciones con enunciados particulares, y, ningún axioma del sistema, en
na
ue ninguno de sus niveles, es deducible de otro. Es decir, el sistema de axiomas no es
alb
V intradeducible. Preste atención a que en este nivel medio, cualquier vínculo que exista entre
na columnas explicativas, ameritará de correlación y verificación a través de leyes causales y
oim
efectoras actuantes en el evento.
R
Cualquier cosa que acontezca en un nivel, podrá ser explicada desde otro nivel por su, o sus
columnas vecinas. Si operan en la misma instancia, entonces presentan eventos simultáneos que

podrán ser explicados a través de causaciones laterales. Si se desea demostrar, secuencia lineal
para una misma columna, ha de usarse los mecanismos denominados regresiones lineales o
múltiples. Para ello debe corroborarse la existencia de causalidades hacia arriba y hacia abajo.

Cuando se ha llegado a la base de la teoría explicativa, se encontrarán hipótesis de nivel bajo


que conformaran la acción social en sí, pues es donde se hacen presentes todos los eventos y se
310

les estudia, es el mundo real donde el ser humano interacciona. Las teorías sustantivas son
aquellas que se basan en las ciencias puras, y a través de ellas, se crean tecnologías para el
dominio de las masas sociales.

No es necesario llegar a la base del proceso teorizador para hacer uso de una teoría sustantiva,
en la telecomunicaciones, por ejemplo, se opta por el empleo de la Teoría Electromagnética de
James Clerk Maxwell, con sus cuatro leyes asociadas, para diseñar productos. En oposición, las
teorías operativas son las que se derivan de la técnica y son usadas en el diseño de tecnología.
Éstas si deben ser de nivel bajo, pues es donde opera el hombre sin ningún rasgo o distingo de
abstracción. No ha de olvidarse, a medida que se desciende los niveles de abstracción
.o
vi desaparecen. En el tope se opera en lo abstracto, pero en la base se sumariza y hace entendible en
ta
rt lo concreto.
so
me Es en la base donde maniobran las ciencias sociales, allí entra en juego la descripción, se
D
o crean conceptos basados en creencias y opiniones, compuestos de enunciados singulares
do

producto de inducciones. En este estadio se presenta una estructura científica diferente, no se
M
tico estudia la naturaleza en sí, sino, a los actores sociales que participan en determinados eventos y
hacen que se conformen conflictos que han de dilucidarse por medio de investigaciones
xiomá
científicas. Como no existen leyes en tal nivel, la operacionalización de la investigación social
A difiere grandemente de las investigaciones en ciencias naturales. Finalizada la explicación de la
o
od
tlMé estructura científica basada en el método axiomático, continuemos con la disertación sobre los
axiomas científicos.
E
:na
Bajo la consideración de Carnap op, cit, los axiomas se componen en una parte por símbolos
ue
alb cuyo significado se le asume ya conocido, normalmente símbolos lógicos. Y otra parte de
V símbolos que son introducidos por primera vez al sistema axiomático, éstos últimos
na
oim denominados símbolos primitivos. En el Método Axiomático, a la simbología primitiva no se le
R presupone significado puesto que le corresponde al sistema axiomático el determinárselo. En ese
sentido, una teoría axiomática se considerará medianamente construida si antes han sido
definidos cada término en función del área cognoscitiva a que haga referencia. Y en vista que la
función de un modelo axiomático es demostrar, podría haber confusión entre ambas
terminologías: Definir y Demostrar. Pues sólo es posible demostrar todo aquello que ha sido
definido.
311

Según Aristóteles266:

La definición explica lo que es la cosa, y todo lo que explica lo que es la cosa es


universal y afirmativo. Además, la definición puede ser muy bien una manera de
conocer la sustancia; pero es evidente que las cosas demostrables no son sustancias.
Luego es claro de que no hay definición de aquello de que hay demostración. No hay
demostración respecto de aquello de que hay definición, la definición en efecto, se
refiere a lo que es la cosa, a la esencia, mientras que es evidente que todas las
demostraciones, sin excepción, suponen y admiten la esencia de las cosas. Por lo que
se constituye diferente mostrar lo que es la cosa, y demostrar que la cosa es tal cosa.

La definición muestra lo que es la cosa, mientras que la demostración prueba solamente que
.o tal cosa es o no tal cosa. La demostración como proceso se conforma como el fin ulterior de toda
vi
ta actividad científica, es superior a la simple definición, no es investigación científica aquella que
rt
so simplemente define o describe sin definir, sino aquella que demuestra, estableciendo relaciones
me
D principio – consecuencia, que una cosa es lo que es, de manera que se haga imposible el refutar
o que la cosa es diferente de aquello que realmente es.
do

M A continuación se presentan una serie de consideraciones de Andrés Piquer267 (1781) sobre
tico
la Demostración y los Silogismos con algunos elementos agregados;
xiomá
Cuando las verdades fundamentales, o las máximas que se deducen de ellas, sirven
A de premisas en un silogismo bien dispuesto, el consiguiente es cierto y evidente, y a
o tal silogismo se le llama Demostración. El cual no es otra cosa que un conocimiento
od
tlMé cierto y evidente de las cosas, deducido de premisas evidentes y ciertas. La
demostración se ha de componer de verdades primeras o máximas que tengan
E conexión con ellas. Si se hace patente esta conexión en el proceso se dice entonces
:na que se ha demostrado. Si no se ha llegado a ello, habrá de procurársele mediante el
ue proceso de ordenación de verdades de silogismo en silogismo, hasta encontrar el
alb enlace de lo que se intenta probar con las verdades fundamentales. Toda
V demostración ha de tener por objeto las cosas universales, porque de las
na singulares no puede haberla268. Las singulares es posible conocerlas por mera
oim aplicación de los sentidos a las cosas, pero no se demuestran… ni mucho menos lo
necesitan. Por eso las definiciones y divisiones lógicas presentes en un sistema
R axiomático y sus silogismos son los medios más a propósito que hay para las
demostraciones. Es así como existen dos tipos de demostraciones; una prueba las
cosas por sus causas y se les llaman a priori. Otras describen las causas por sus
efectos y se les llama a posteriori. Detállese el siguiente ejemplo de demostración a
priori:
Lo justo
Todo bienyverdadero
lo honestoesson
digno de ser estimado;
verdaderos bienes; <<Premisa
<<PremisaMayor>>
Menor>>

Luego, lo justo y lo honesto es digno de ser estimado; <<Conclusión>>

266 Véase, Aristóteles, El Organon. Libro Segundo. Sección Primera. Cap. III.
267Tomado de su Libro Lógica: Véase Capítulo XIV: La Demostración.
268 Al respecto…No es ni nunca será posible inferir enunciados universales desde enunciados particulares. Popper Karl (1980), Conceptos
Universales y Conceptos Individuales pp. 62 y ss. Véase.
312

Para las demostraciones a posteriori conviene saber que hay ciertas causas que obran
en la naturaleza ocultamente, que no se presentan a los sentidos por sí mismas, pues
sólo se llegan a percibir sus efectos. Más los efectos que se sobrevienen de causas
ocultas lo hacen de dos maneras: unas son totalmente inseparables de su modo de
obrar porque emanan inmediatamente del poder de la causa, y que dejaría de serlo si
no lo produjese, llámese a estos Epifenómenos <<Que se Manifiestan junto con la
causa>>. Otros son contingentes, Epigenómenos <<que viene después>> como que
para su producción se requiere de ciertas circunstancias en el sujeto en el que obran
<<como enfermedades de origen genético>>, las cuales por ser varias hacen
diversidad en la producción. Los lógicos dicen, y conviene confesarlo, que las
demostraciones a posteriori nunca son tan exactas y tan finas como las que se hacen a
priori.

.o De acuerdo a Elí de Gortari op, cit, un sistema axiomático debe cumplir con las siguientes
ivt condiciones: la consistencia; la completitud y la independencia, además, se debe procurar que los
ar
ts axiomas sean el menor número posible, pues la axiomatización aporta información acerca de la
o
me
coherencia interna y del rigor de las demostraciones. Con respecto a esto último Einstein siempre
D
o sostuvo; El gran objetivo de toda ciencia es cubrir el mayor número de hechos empíricos por
do

deducción lógica a partir de la menor cantidad de hipótesis o axiomas.
M
tico
Consistencia se refiere al carácter no contradictorio del sistema, en donde no es posible
xiomá deducir de este, al menos un teorema que contradiga o haga referencia inversa a otro teorema o
axioma del sistema. La completud, o completitud, según Torres (1999, p. 16), un conjunto de
A
o axiomas es completo cuando no se le puede agregar ningún otro axioma independiente sin
od
tlMé
incurrir en inconsistencia. Para (Moreno Villa, 2003);
E
:na La completud de un sistema de axiomas es completo en el sentido de que dos
ue proposiciones contradictorias formuladas correctamente en los términos del sistema,
alb una debe poder ser demostrada. Esto quiere decir que en presencia de cualquier
V proposición del sistema, esta se puede demostrar en cualquier momento o impugnar
na y, por tanto, decidir acerca de la verdad o falsedad en relación con el sistema de los
oim postulados. En este caso, el sistema se denomina decidible269, (p. 234).
R En cuanto a la independencia: se considera que una proposición que pertenezca a un conjunto
de axiomas es independiente, cuando no es consecuencia directa o lógica de ningún axioma del
sistema. Según Bunge (2000), la independencia es una propiedad de las teorías perfectas, en su
libro se corresponde con la cuarta propiedad. El autor afirma… un sistema axiomático es
independiente si y sólo si, sus miembros no son intradeducibles, es decir, ninguno de los
axiomas de la teoría es derivable de los demás, (p. 388).

269 Aunque Moreno Villa no hace mención directa al tema, realmente se refiere al Teorema de Incompletud de Gödel. Si el lector lo desea, y le
interesa profundizar sobre el tópico, se recomienda Véase: Gödel: Paradoja y Vida por Rebecca Goldstein. Si desea profundizar acerca del
conflicto eterno entre filósofos y matemáticos surgidos entre Gödel y Hilbert, sobre el método correcto de seleccionar pruebas. Refiérase al
excelente preparado que hizo como editor: Detlefsen, Michael. (1992). En: Proof, Logic and Formalization. Capítulo 8, pp. 88 y ss.
313

Cuando se aplica sobre la geometría, y bajo consideraciones de (Cavaillés, 1992); la


independencia entre los axiomas de un sistema importa tanto para la elegancia de la
presentación, como para la eficiencia de la teoría a la que haga referencia. Permite descubrir
relaciones lógicas profundamente ocultas… (p. 83). Continúa el autor… en la axiomática se
hace distinción entre la independencia de sentido y la independencia de afirmación de un
axioma. Un axioma siempre puede ser puesto en forma de proposición hipotética, la
independencia de sentido tiene que ver con la hipótesis, la de afirmación se corresponde con la
conclusión.

.o
vi
ta
rt
so
me
D
o
do

M
tico

xiomá

A
o
od
tlMé

E
:na
ue
alb
V
na
oim
R
314

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XVIII: ALGUNOS


MÉTODOS PARA LAS
DEMOSTRACIONES CIENTÍFICAS

El hábito de una opinión conduce a menudo a la convicción completa de su verdad, oculta las
partes más débiles de ella, y nos hace incapaces de aceptar las pruebas contra ella.

(1827). German textin Ira Freund, The Study of Chemical Composition (1904), 31. Translated
form in Carl Schorlemmer, The Rise and Development of Organic Chemistry (1894), 49. —
Jöns Jacob Berzelius.
315

18.1.- Introducción a la Teoría de la Demostración

El verdadero hombre de ciencia nunca cae en el engaño,


planifica deliberadamente sus acciones, comete errores
aprendiendo de ellos y no acepta razones sin fundamento dado
que para cada verdad exige una prueba a través de la
demostración. Un científico es, estrictamente hablando, un
justiciero de la ciencia.

Roiman Valbuena.

enunciados
la
e conoce
matemática
como
cuyo nivel
Teoría
y la dede
lógica que pretenden
la Demostración
certeza agregado es aquel
todo
aafirmar la conjunto Una
veracidaddede
indeterminado. procedimientos
unademostración
cadena de

S de

esclarece que la cosa es así y no de ninguna otra manera, que no hay segundas interpretaciones,
que no existe contradicción entre una verdad formal y una material, y lo más importante, genera
armonía entre mente y espíritu pues, la demostración penetra hasta lo más profundo de la psiquis
humana otorgando satisfacción al individuo. El proceso demostrativo es a veces sorprendente y
complejo pero fundamental en una investigación científica seria, se constituye en la coronación
de un logro, de un descubrimiento. Y como diría Louis Pasteur, Sorprendernos por algo es el
primer paso de la mente hacia el descubrimiento.

Entendamos por demostración, a todo aquel conjunto de pasos que tan sutilmente nuestro
intelecto, a través de operaciones matemáticas y de la inteligencia, es capaz de ejecutar con el fin
de darle veracidad a un conjunto de ideas compiladas en un pensamiento. Según Rosental – Iudin

(2004, Véase Concepto de Demostración), el pensamiento que se ha de demostrar se llama tesis


de la demostración, los juicios en los que se apoya la demostración y de los que se sigue
lógicamente la tesis, se denominan argumentos (base) de la misma. No obstante, acaece que,
para que tal pensamiento se torne terso y claro al entendimiento, los argumentos base de la tesis
de demostración han de hacerse corresponder con la teoría del significado. Es decir, una teoría
cuyo fundamento es explicar lógicamente el cómo asociar las palabras de determinado lenguaje
con su significado.

Es de notar que las palabras son solo símbolos del lenguaje, entonces conviene advertir la
verdadera interrogante del caso, ¿qué hace que un conjunto de símbolos tenga significado y que
tal símbolo represente una imagen de cierto objeto de conocimiento? A partir de allí es que
comenzará una titánica labor para el investigador, hacer entender el significado de las cosas
316

descubiertas, de las relaciones manifiestas y de las abstracciones más profundas, a quien dirija su
artillería secuencial explicativa. Para ello debe utilizar los mecanismos de la razón y enfocarlos
hacia el desarrollo de una explicación coherente, simple y sutil, pero convincente.

Toda coherencia explicativa es una relación simétrica, a saber, un encadenamiento lógico

entre las palabras usadas y la oración formulada. No ha de olvidarse la existencia de sinonimidad


y analiticismo270, la primera hace referencia a las similudes entre significados aunque se usen
palabras diferentes en la conformación de la oración. Desde la óptica de la teoría semántica271,
una oración hace referencia hacia un sujeto y el predicado asigna cierto atributo, en efecto, una

imagen como objeto, como unidad ontológica existente, puede presentar al menos dos
nió inconvenientes: a) una simple expresión podrá hacer distinción a más de una imagen; b) o dos
ac expresiones podrán corresponderse con la misma imagen.
rt
so
mDe La demostración es una explicación soportada en la deducción, allí se afirman y niegan cosas
la dando a conocer las causas contenidas en la tesis de la demostración. Cada argumento se
de
corresponde con una verdad que como expresión tiene su función, encadenará etapas de certezas
ría
oTe progresivas que llevarán a descubrir nuevas entidades. Como he mostrado hasta aquí, los
elementos previos se corresponden con demostraciones lógicas desde el punto de vista de la
la
a sintaxis y un lenguaje formal272, se constituyen en las bases en las que se fundamenta una teoría
nció
uc científica pero, a diferencia del método axiomático, la teoría de la demostración se encargará de
do certificar el nivel de verdad o falsedad contenida en sus postulados sobre la base de sistemas
rt
nI predefinidos.
:na
ue Existen dos clases de sistemas demostrativos, los directos y los indirectos. En efecto, en el
alb
primero se hace necesaria la aplicación de una cadena finita de reglas de inferencia previamente
V
na delimitadas haciendo uso de símbolos y enunciados primitivos que permitirán alcanzar la
mi
o fórmula que se planteó demostrar. Este método está muy cercano a la forma humana de
R
razonamiento. En cambio, los sistemas indirectos centran su accionar en la técnica de reducción
al absurdo. Aunque variados son los sistemas, por ejemplo: Sistema L [Lukasiewicz y Church];
El Modus Tollens [Aplicado por Popper]; La Deducción Natural de Gentzen; Los Sistemas de
Principia Mathematica de Russell y Whitehead, además del Sistema de Kleene, entre otros.

270 Disciplina filosófica que estudia el significado descomponiéndolo en sus mínimas partes constitutivas. Comúnmente, sus propiedades, su
propiedad normativa, la referencial y la intencional. Parada, Pedro (2008). Observaciones sobre la teoría del significado de Donald Davidson.
Véase.
271 Véase. Kempson, Ruth (1997). Semantic Theory.
272 Un lenguaje formal está dado por un conjunto de símbolos que se combinan entre sí para formar expresiones mediante reglas de formación
especificadas de antemano. Las expresiones bien formadas son todas expresiones gramaticalmente correctas del lenguaje formal. Solís y Torres
(1995). Véase.
317

A partir de este punto, me centraré en las demostraciones lógico – matemáticas, para ser
exactos, dos métodos correspondientes a la axiomatización de la lógica, el sistema axiomático de
Kleene y la deducción natural de Gentzen. Además de dos métodos matemáticos para

demostraciones indirectas, el método de reducción al absurdo y el método de la inducción


matemática. Debo recalcar que en este aparte he omitido cálculos y procedimientos lógicos
complejos, pero necesarios para entender qué es una demostración y qué partes la constituyen,
más sin embargo, hago uso de un lenguaje sencillo e intelectualmente procesable.

18.1.1.- El Sistema Axiomático de Kleene

Entiéndase por sistema axiomático, a la reunión de un conjunto de axiomas en una sola


nió
ac estructura los cuales, al ser sometidos a encadenamientos de deducciones y determinadas
rt técnicas de presunción como la del cálculo deductivo, permitirán demostrar teoremas contenidos
so
mDe en hipótesis. Todo sistema axiomático presenta cierto conjunto de condiciones y puede variar
la dependiendo del matemático o lógico que lo desarrolle: la consistencia, la completitud sintáctica
de
ría y el conjunto de intra-relaciones que presente, conforman sus ingredientes básicos.
oTe
De igual manera, centra su atención en el perfeccionamiento de una forma lógico matemática
la de demostración sobre lo que enuncian las premisas o postulados primitivos273, y las relaciones
a
nció de éstos con sus conclusiones. Como una relación es un orden de algo con respecto a otro algo,
uc entonces en el sistema se ejecutarán cálculos y operaciones sobre las relaciones simétricas, las
do
rt transitivas y las reflexivas. Aplicando para ello, la teoría de la recursividad274.
nI
:na
Ahora bien, el Sistema Axiomático de Stephen C. Kleene 275 , fue resultado de sus
ue
alb investigaciones sobre teorías de algoritmos y funciones recursivas, área en la cual enseñó hasta el
V final de su vida. Hizo importantes contribuciones a la teoría de la recursión basada en los aportes
na
mi de: Church; Godel, Turing y otros. Cuando se habla de teoría de la demostración, se dice que un
o
R sistema formal cualquiera denotado por “S”, matemáticamente debe presentar al menos las
siguientes cuatro características:

273 Un postulado primitivo es aquel que no tiene otra proposición por encima de él. Es decir, da origen a la descomposición de la cadena causal
deductiva pero éste, no es derivado de ningún otro postulado.
274Dícese recursivo a aquello que tiende a repetirse indefinidamente. En la axiomática de Kleene se usa como un algoritmo. Éste consiste en un
esquema como encadenamiento lógico hacia adelante, que define un proceso haciendo uso de premisas cuya información no avanza más que en
el proceso mismo. Es decir, se hace uso de términos que ya aparecen en su nombre dentro del mismo proceso.
275 Stephen C. Kleene [1909 – 1994]; Lógico y Matemático Estadounidense, hijo de un profesor de economía del Trinity College. Kleene recibe
su grado de PHD por su tesis Doctoral en la Universidad de Princeton en 1934. El título de su tesis era: A Theory of Positive Integers in Formal
Logic. Y en la cual el Lógico – Matemático Alonso Church tuvo gran influencia. En la introducción de su trabajo describe algo así: […nos
ocuparemos principalmente en el desarrollo del sistema de la lógica basada en un conjunto de postulados propuestos por Church. Nuestro
objetivo es demostrar empíricamente que el sistema es adecuado para la teoría de los números enteros positivos, exhibiendo una construcción de
una parte importante de la teoría dentro del sistema. Al llevar a cabo la construcción sobre la base de un determinado subconjunto de axiomas
formales de Church, se muestra que en esta parte al menos, de la teoría de números enteros positivos se puede deducir de la lógica sin el uso de
los conceptos de negación, la clase y la descripción]
318

1. El sistema consta de un alfabeto “A”, o conjunto de símbolos que serán utilizados en la


construcción lógica de sus enunciados y proposiciones.
2. Debe presentar un conjunto de reglas muy bien definidas para ser usadas sobre el

conjunto de símbolos de (1), a esto se le denominará conjunto de reglas de sintaxis “F”.


3. Se definirán a un conjunto de axiomas, es decir, proposiciones claras, evidentes e
indemostrables, pero que por sus características serán aceptadas por todos como fórmulas
válidas. A esto se le denominará conjunto de fórmulas “X”.
4. “R” será entonces, el conjunto de reglas de inferencia, se les asumirá como consecuencia
lógica de un encadenamiento de enunciados, proposiciones lógicas o postulados
primitivos que tengan a bien conformar el sistema axiomático, y sobre los cuales se
nió
ac ejecutará la demostración.
rt
so Es decir, el Sistema mencionado presupone la existencia de los siguientes elementos del
mDe
conjunto: S = [A: F: X: R]. Según Kleene, en todo sistema axiomático formal la concatenación
la de supuestos da origen a la inmediación276, su método formal axiomático presenta la siguiente
de
ría secuencia:
oTe
la Algunas proposiciones, llamadas axiomas o postulados, son colocadas al inicio como
a suposiciones o condiciones de un sistema de “S” objetos. Las consecuencias de los
nció axiomas son desarrolladas como teoría sobre cualquier sistema existente “S” de
objetos los cuales satisfagan los axiomas. Los axiomas en la teoría axiomática, se
uc
do constituyen en una definición implícita del sistema de objetos en la teoría; pero, esto
rt sólo significa que los axiomas determinan a cuál sistema la teoría aplica277.
nI
:na
ue 18.1.2.- La Deducción Natural de Gentzen
alb
V El sistema de Kleene se corresponde con un sistema axiomático de primer orden de la
na
dimensión sintáctica de la lógica278. Ahora bien, Gerhad Gentzen [1909: 1945]; matemático y
mi
o lógico alemán, alumno de David Hilbert en la Universidad de Gotinga, Alemania. En 1934
R
desarrolló lo que denominó su método de deducción natural. Al igual que otros sistemas, este
consiste también en un sistema con un conjunto de reglas de inferencia y símbolos. Aunque,
presenta diferencias con respecto a otros modelos. Estos sistemas de deducción natural, al
contrario de los axiomáticos, carecen de axiomas.

Juntar un conjunto pequeño de fórmulas, más un conjunto de reglas de inferencia y liarlos a

276 Inmediación: conjunto de derechos atribuidos al sucesor de una vinculación. En vista de que el proceso deductivo consiste en una secuencia
de vinculaciones sucesivas (recursivas), el sucediente siempre ha de presentar una relación de jerarquía con su antecedente.
277 Kleene, Stephen. (1952). Introduction to Metamathematical. Ishi Press International.
278 La dimensión sintáctica de la lógica hace referencia a las diversas relaciones que puedan establecerse entre símbolos de un mismo lenguaje
basado en las posibles combinaciones entre ellos.
319

determinados axiomas es un punto de partida por conveniencia para transformar axiomas y


generar fórmulas (teoremas), que no se derivan sino de los axiomas sometidos a procesos
iterativos de razonamientos e inferencias en los sistemas axiomáticos.

En deducción natural, el género común de las reglas son de introducción y de eliminación de


conectores (Símbolos Lógicos), el sistema deductivo presenta similaridad en la fórmula para el
conjunto del sistema, G = [A: F: X: R], donde los conjuntos A y F se definirán de la misma
manera que en el sistema de Kleene. No obstante, aquí se asume que el conjunto de axiomas “X”
es vacío y nos centraremos entonces a trabajar con el conjunto “R” que agrupa a las reglas de
deducción. Allí se invocan juicios condicionales y se usa un lenguaje formal donde puedan ser

nió expresados tales juicios.


ac
rt En Deducción Natural no hay axiomas pero aumenta considerablemente la cantidad de reglas
so
me de inferencia y reglas con las cuales construir una deducción. En vista de que la lógica es tanto
D ciencia como arte, y se obtiene mediante entrenamiento especial, entonces Gentzen informa el
la
de
propósito de su sistema de deducción natural y cómo entrenarse para el: El propósito de estos
ría
oTe sistemas es recoger el modo habitual de argumentar en la vida diaria y permitir un modo más

la natural de realizar deducciones279.


a
nció La deducción natural no se corresponde con un procedimiento único, cada investigador podrá
uc usarlo diseñando su propia estrategia. Para ello es bueno conocer que la deducción natural sólo
do
rt sirve para demostrar validez, pero no puede usarse para encontrar invalidez de una suposición.
nI
:na ¿Cómo se usa?... preste atención al siguiente ejemplo: se pide demostrar la validez de [Γ˫ S] se
ue
lee: Gamma dado “S”. Donde “Γ” se corresponde con un grupo de fórmulas separadas por
alb
V comas y “S” es una sola fórmula. Es decir, presenta como condición que al cumplirse todas las
na
fórmulas de la izquierda también se cumplirá la de la derecha. Donde el objetivo de la deducción
mi
o natural es demostrar que el consecuente es válido. El primer paso consiste en asumir que todas
R
las fórmulas de “Γ” son ciertas, y aplicando nueve pasos280 o reglas de inferencia, es posible
descubrir que más cosas también son ciertas.

Una vez descubierto que “S” es cierta, entonces se considera finalizado el proceso. No
obstante, si se desea demostrar la invalidez de “S” debe hacerse uso de otro método ya que el de

279 Esta frase forma parte de los objetivos de su tesis. (1934).


280Estos nueve pasos constituyen la forma real de esquematizar una deducción natural por el método Gentzen. Se advierte al lector que tales no
serán abordados en la presente edición de este texto, sólo mencionadas. Son los siguientes: 1) Iteración; 2) Introducción de la Conjunción; 3)
Eliminación de la Conjunción; 4) Introducción de la Implicación; 5) Eliminación de la Implicación; 6) Introducción de la Disyunción; 7)
Eliminación de la Disyunción; 8) Introducción de la Negación; 9) Eliminación de la Negación. Todos hacen referencia a conectores lógicos. De
allí el que se diga que el género común de las reglas son introducción y eliminación de conectores lógicos.
320

deducción natural no admite ese tipo de invalidaciones. A veces no podremos sacar verdades de
ningún lado, y habrá que hacer suposiciones: “bueno, no estoy seguro de que [A ∧ B] sea cierto
siempre, pero si se cumple C, seguro que lo es”. Entonces ya hemos descubierto otra cosa cierta:
que [C ⇒ A ∧ B]281.

18.1.3.- Método de Demostración Indirecta por Reducción al Absurdo

Según Ferrater Mora (2000), se trata de un método indirecto de demostración que prueba la
verdad de una proposición por la imposibilidad de aceptar las consecuencias que se derivan de
su contradictoria. Este método también es denominado método de demostración por
razonamiento apagógico282. Reducción al Absurdo <<Reductio ad Absurdum>> Para Mario
nió
ac Bunge (2001), consiste en un proceso de razonamiento que deriva en una contradicción para
rt
so determinado conjunto de premisas, en este caso no es que son o no lo mismo, es que son
mDe contradictorias. Por lo que ha de concluirse, que el sistema o fenómeno que se intenta explicar
la como un todo, es insostenible, a menos que algunas de las premisas sean rechazadas.
de
ría Asimismo, es uno de los métodos más comunes usados en el análisis de falacias. Su
oTe
invención se le atribuye a Zenón de Elea283 en el siglo V a.C. Para ese entonces como ahora, se
la
a parte de ejecutar un contraste entre dos hipótesis y demostrar de manera indirecta la verdad de
nció una de ellas luego de conseguir una contradicción. Afirma Ferrater Mora Op Cit, la reducción es
uc
un método que se contrapone a la deducción <<de allí su característica de indirecto>>, en la
do
rt deducción se derivan unas proposiciones de otras por medio de las reglas de inferencia. En la
nI
:na reducción se deriva el antecedente de un condicional, de la afirmación de un consecuente.
ue
Ejemplo:
alb
V → Si Pedro fuma, Pedro tose
na
mi → Pedro tose
o
R → Pedro fuma

A consideración de Rosental – Iudin (2004), la reducción es una de las formas en que se


expresa la conexión necesaria entre los elementos de una teoría lógica o científica en general. En

281Este último ejemplo fue tomado desde: Daniel Clemente Laboreo (2004). Introducción a la Deducción Natural.
282 Denominado de esta manera tanto por Leibniz como por Kant. Demostración de algo a partir de lo falso; razonamiento por absurdo o
demostración por reducción al absurdo. Modo de razonamiento que centra su acción en probar una tesis simplemente por la refutación o
exclusión de todas las tesis alternativas. Forma parte de los argumentos de reducción al absurdo abordados por Kant. Este autor hace mención al
Modus Tollendo Tollens (camino que niega al negar) de razonamiento, el cual puede ser convertido a un modo de reducción al absurdo, pues este
último consiste en una prueba formal del primero. El cual procede de las consecuencias hasta sus fundamentos, siendo no es solo fino y riguroso,
sino un modo de prueba extremadamente sencillo. Hace mención a él al final de su libro Crítica a la Razón Pura. Doctrina Trascendental del
Método. P. 415 y ss. Véase.
283 Nacido en Elea, Grecia, entre los años [490 – 485]. Su pensamiento se caracterizó por la elaboración de ciertas aporías o paradojas. Una de
las más famosas es la paradoja de Aquiles y la Tortuga. Véase los cuatro argumentos de Zenón.
321

la lógica matemática, expresada en forma de teoría deductiva, la reducción aparece como


procedimiento para obtener axiomas partiendo de las correspondientes proposiciones de la teoría.
Estableciendo un nexo racional entre las proposiciones de la teoría que poseen un grado distinto
de generalidad. Un ejemplo muy famoso del método de reducción al absurdo es la demostración
de que existen infinitos primos: Planteamiento y Solución:

→ Supongamos que el número de primos es finito (afirmación de un consecuente), denótese


entonces: p1, p2, p3…., pn, correspondiéndose con todos los primos. No obstante, es bien
conocido que todo número entero puede ser expresado como productos de números
primos elevados a potencias, por lo que p debe ser divisible por algún número primo… y
nió allí hay una contradicción. Entonces, el número de primos es infinito (razonamiento
ac derivado en una contradicción para el conjunto de premisas usadas). Lo que hace
rt
so imposible aceptar las consecuencias derivadas de su contradictoria.
me
D
la La reducción es un procedimiento mediante el cual un dominio determinado de elementos
de
(por ejemplo: los objetos, propiedades, los conceptos, las leyes, los hechos, teorías, idiomas, y
ría
así sucesivamente) se demuestra que es absorbible ya sea en, o prescindible a favor de, otro
oTe
la dominio. Cuando esto sucede, se dice que tal dominio se "redujo" a otro.
a
nció Una discusión por ejemplo, sólo tiene un origen y un fin. Comienza cuando uno de los sujetos
uc involucrados es incapaz de comprender lo que afirma el otro, y finalizará cuando alguno de ellos
do
rt logre demostrar lo que pretende dejar saber. Si tal demostración proviene de la toma recursiva de
nI
:na ideas de su interlocutor y encadena unidades de pensamiento mutuamente excluyentes que han
ue evidenciado incompatibilidad, entonces se ha hecho uso de un método indirecto de prueba
alb
denominado reducción al absurdo.
V
na
mi 18.1.4.- Método de Demostración por Inducción Matemática
o
R
Entiéndase por Inducción, a una operación del pensamiento y la razón, mediante la cual,
partiendo desde materiales intelectuales necesarios y suficientes, se expresa una conclusión
general soportada sobre un conjunto de premisas obtenidas desde la observación, la experiencia,
o simplemente originada como evidencia experimental de enumeración de particulares. Todo
principio general usado en ciencias para construir los axiomas que soportan a una teoría es
resultante de la inducción. Igualmente, a una inducción se le concibe como el método por el cual
se ejecuta una inferencia de una generalización a partir de sólo sus instancias. Se basa en un
proceso de razonamiento del cual a partir de sus instancias particulares se obtienen conclusiones
generales demostradas sólo para algunos casos pero no para todos.
322

En sentido más amplio y según el Diccionario Akal de Filosofía, la inducción refiere a


cualquier inferencia ampliativa, esto es, cualquier inferencia en la que la afirmación hecha en la
conclusión va más allá de la que introducen sus premisas conjuntamente. En la inducción
matemática, las premisas del argumento implican necesariamente la generalización que
constituye su conclusión. El método de la inducción matemática tiene al menos dos sentidos, uno
estricto y uno más amplio (al cual venimos refiriéndonos), donde la lógica inductiva, en la cual
se basa la inducción matemática, puede concebírsele como una teoría que se dedica a evaluar la

inferencia ampliativa.

Cualquier inferencia en la que la afirmación hecha en la conclusión va más allá de la que


nió introducen sus premisas conjuntamente es considerada una inferencia ampliativa derivada de la
ac lógica inductiva. Ahora bien, en la inducción matemática, las premisas del argumento implican
rt
so
necesariamente la generalización que constituye su conclusión.
me
D
la Inducción Matemática es un método para probar que una proposición es verdadera para
de todos los números enteros. En primer lugar, muestran que la proposición es verdadera para unos
ría
oTe pocos números pequeños, tales como 1, 2, y 3. Por ejemplo. A continuación, mostrar que, si la

la proposición es verdadera para un número arbitrario j, entonces debe ser cierto para el siguiente
a número: j+1. Una vez que se han ejecutado estos dos pasos, la proposición ha sido demostrada,
nció
uc ya que, si bien es cierto para 1, entonces también debe ser cierto para 2, lo que significa que debe
do ser cierto para 3, lo que significa que debe ser cierto para 4, y así sucesivamente. Lo cual
rt
nI consiste en una generalización o conclusión que va más allá de lo demostrado o contenido en las
:na
premisas.
ue
alb
Con el objeto de aclarar el panorama prestemos atención al siguiente ejemplo284 donde se debe
V
na probar que:
mi
o ( )
R ∑

Esta fórmula compuesta por una serie aritmética es válida para todos los números enteros “n”.
Con la intención de saber si es cierto, probaremos con todos los números de la serie previa,
asumiendo n=1; n=2; n=3 y n=4:

284 Ejemplo tomado y ampliado desde: Downing, Douglas. PHD. (2009). Dictionary of Mathematics Terms. Véase.
323

Caso n=1:

Caso n=2: ∑ ( )

Caso n=3: ∑ ( )

Caso n=4: ∑ ( )
nió
ac
rt
so
me
D
la
de ∑ ( )
ría
oTe
la Con el uso de la serie aritmética y la notación se suma hemos logrado probar que la
a
nció proposición es válida al menos para n=1; n=2; n=3 y n=4. Si es así, y por el principio de
uc inducción matemática, entonces debe ser cierta para todo número entero positivo. Obsérvese que
do nuestra conclusión va más allá de lo que hemos alcanzado a demostrar con este ejemplo. Si es
rt
nI cierto lo anterior, asumamos también que la fórmula es válida para cualquier número arbitrario
:na
“j”, entonces procedamos así:
ue
alb
V
na ∑∑ ( )(
mi ( ) ( )
o ) ( )
R

Preste atención a que existen 5 pasos si los separamos uno a uno por medio de las igualdades,
donde el paso 3 consiste en una suma de fracciones, el paso 4 sólo las presenta resueltas y el
paso 5 las presenta factorizadas. Donde podemos concluir que si la fórmula opera para “j” y para

(j+1), entonces debe operar para todo “j” arbitrario, pero los resultados demuestran lo contrario.
No obstante, acaece que, en lógica demostrativa no siempre es bueno confiarse de las
inducciones matemáticas. Veamos el siguiente modelo donde un principio falso puede surgir de
ejemplos verdaderos:
324

¿Es posible en Matemáticas deducir una regla falsa de una propiedad verdadera?, supongamos285
que un matemático curioso desease determinar la raíz cuadrada de un número de cuatro cifras. Se
sabe que la raíz cuadrada de un número es otro número que, multiplicado por sí mismo, da un
valor igual al número dado. Es decir, 6 x 6 = 36; 7 x 7 =49 o 9 x 9 =81. Donde, la raíz cuadrada
de 36 es 6; la de 49 es 7 y la de 81 es 9. Siendo así entonces supongamos, que se escogen tres
números al azar de cuatro cifras, a saber: 2025 –3025 y 9801.

Iniciemos la solución del problema por el número 2025, posterior a los cálculos para este
número el investigador halla que su raíz cuadrada es 45. Que deriva de multiplicar 45 x
45=2025, en efecto, se puede verificar también que su raíz cuadrada se obtiene de la suma de 20

nió +25, que son parte del número 2025 descompuesto en dos partes por medio de un punto [20.25].
ac Lo mismo verificaría el investigador para el número 3025, cuya raíz cuadrada es 55 y su
rt
so descomposición resulta [30.25], siendo su origen la suma de 30 + 25. Idéntica propiedad se
me
D verifica con respecto al tercer número 9801. Siendo su raíz cuadrada 99 que deriva de 89 + 01.
la
de
Frente a estos tres casos el investigador podría enunciar la siguiente regla: para calcular la
ría
oTe raíz cuadrada de un número de 4 cifras, se divide tal número por un punto de manera que quede
en dos cifras cada uno separados ambos por ese punto, y sumándose así los grupos formados.
la
a La suma obtenida será la raíz cuadrada del número dado. A todas luces, aunque la regla este
nció
bien formulada y fue deducida de ejemplos verdaderos, conduce a una generalización
uc
do equivocada. Por eso debe tenerse sumo cuidado en no caer en falsas inducciones. Habría de
rt
nI preguntarle al investigador… ¿Es aplicable tal regla para cuando el número de cuatro cifras está
:na
compuesto por el mismo número repetido cuatro veces?
ue
alb
V
na
mi
o
R

285 Ejemplo tomado y reinterpretado desde: Tahan, Malba. El Hombre que Calculaba. Capítulo XXVIII.
325

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XIX: ACERCA DE LOS


PROBLEMAS DE LA
INVESTIGACIÓN TECNOLÓGICA

El progreso tecnológico es como un hacha en manos de un criminal patológico.

Albert Einstein.
326

19.1.- Controversias entre Paradigmas, Disidencia Científica e Investigación Tecnológica.

Soy ingeniero, y sólo me consideraré <<Científico


Consagrado>>, el día que logre aportes significativos al
conocimiento en otras disciplinas; cuando con principios
explicativos lógicos y profundos consiga contrastar teorías y
generar las propias. Mientras, solo juego, me deleito y me
maravillo, al intentar hacer ciencia…

Roiman Valbuena.

actividad
hacer
alogrando así,
entender desdeaportes
sushechos
a las personas,
científica
sustanciales inicios
al desarrollo
yharelaciones
giradodeenla
que al conocimiento
antes
torno no eran
humanidad. conocidas,
Tratando organizado,

L
la mayoría no creía posibles. Sin embargo, gran cantidad de estos aportes se han originado sobre
las bases de grandes controversias científicas. Ellas forjan progreso en determinado tema,
siempre de
y que

impulsando la investigación en el área con argumentos sólidos apoyados en la evidencia.

Los países y los científicos del mundo deben tener conciencia de la necesidad apremiante de
utilizar responsablemente el saber de todos los campos de la ciencia, esto con la finalidad de
satisfacer las necesidades y aspiraciones del ser humano sin emplearlo de manera incorrecta,
UNESCO (1999). A esta conclusión se llegó en la Conferencia Mundial Sobre la Ciencia
realizada en los albores del siglo XXI. Resultados de indagaciones previas aportadas por los
ponentes, probaron con suficientes argumentos, la consideración de que los enfoques
metodológicos de las investigaciones científicas hasta mediados de los años 70s, habían
comenzado a presentar evidentes defectos y dificultades a la hora de abordar temas como el
genoma humano y la Mecánica Cuántica286.

Para ese entonces, ya en el horizonte se apreciaban vestigios de la unión entre la ciencia


básica, la ciencia aplicada y la técnica. Sin embargo, a partir de allí, la Investigación
Tecnológica 287 avanzaría a pasos asombrosos, y hasta los momentos, impredecibles. Este
vertiginoso desarrollo de la ciencia hacia el análisis de la práctica científica orientada a la
consecución de resultados tangibles bajo la forma de dispositivos, ha provocado una

286 Si bien es cierto hay autores que argumentan que la física cuántica es un descubrimiento nuevo, como ejemplo Véase: Akarsu Bayran. (2010).
Einstein`s Redundant Triumph “Quantum Physics”: An Extensive Study of Teaching/Learning Quantum Mechanics in College. Bunge (2002)
por su lado, explica que el primero en descubrir cuantos no fue Planck sino Pitágoras, al estudiar las cuerdas del arpa en el siglo VI antes de la era
vulgar. Planck hizo sus aportes hacia el año 1900.
287 La investigación Tecnológica es un proceso indagatorio en donde se busca la transformación de conocimiento en productos o procesos
insertables en el mercado.
327

proliferación de controversias sobre temas científicos y tecnológicos, aparte de los observados


sobre el cualitativismo y el cuantitativismo.

Donde se han visto envueltos no solo los científicos, sino, al conjunto de paradigmas a los
cuales estos obedecen, y cuyo eje central ha sido, no la relativa independencia con la que operan

.a las ciencias puras contra la obtención de resultados a priori de la investigación tecnológica, sino,
icg la comparación de modelos de producción de conocimiento a través de los diversos enfoques
ól
o metodológicos.
nc
e
T
nó El debate tendente a la comparación de modelos metodológicos, y por ende la generación de
ic
ag conocimiento a través de la ciencia, realmente no es nuevo. Gargani (1987), citado en Calello y
it
sve Neuhaus (2002), hace alusión a la <<crisis de los grandes paradigmas>> Donde se aprecia la
nI contraposición a los distintos <<modelos de conocimiento288>>, clara representación de una
e
afic discrepancia contra el absolutismo de la razón metódica.
ít
nie Para (Mónaco, 2002), desde Dilthey, según los historiadores filosóficos, se presentó de
C
ia manera más acentuada la discusión sobre el conocimiento humano. Con orientación pronunciada
nc
e
isd a marcar diferencia entre ciencias Nemotécnicas <<Cuantitativas>>, puesto que sus leyes

D, permiten que sus teorías puedan ser contrastadas empíricamente, y apartarlas de las llamadas
as ciencias Ideográficas o Hermenéuticas usadas en la investigación social. Éstas últimas,
mg
i emplazadas a comprender el significado de los hechos a través de las motivaciones y el entorno
da
r sociocultural de sus actores. Para el autor, tan marcadas son las diferencias entre ambos modelos,
a
P
re que hasta sus predicados son opuestos.
t
nse
sia Fernández et al, (2010) explican; <<Los fundamentalistas289>> son investigadores que
rve
defienden uno de los dos enfoques y desdeñan al otro. Afirmando la tesis sobre el debate
or
t
no metodológico. Estos escritores han adoptado el enfoque cuantitativo y menosprecian el
:C cualitativo, ubicándolo como una <<pseudociencia>> (subjetivo, sin poder de medición); pero
na también representa a aquellos que han adoptado el cualitativo y desprecian el cuantitativo, por
ue
alb considerarlo <<impersonal>> (incapaz de capturar el verdadero significado de la Experiencia
V
na humana).
mi
o
R
288 Todo nuevo modelo de conocimiento debe concebirse a través del Sicologismo; según los Sicologistas <<Lógica del Conocimiento>>, en la
que se hace alusión a la tendencia de que en toda disciplina prevalece un alto componente sicológico. Doctrina ligada a la lógica inductiva, a la
cual Popper y Liebig se opusieron fuertemente. Popper argumentó que la sicología empírica carecía de importancia a la hora de ejecutar el
análisis lógico del conocimiento científico. Véase Popper, Karl: La Lógica de la Investigación Científica (1980, p. 85). Traducido por: Víctor
Sánchez de Zavala. A pesar de ello, en estos días ha prevalecido la teoría de Ausubel (1918-2008) ligada estrechamente al constructivismo, con
un alto componente sicológico al momento del diseño de estructuras curriculares.
289 Tomado de un anexo al CD que acompaña la obra “Metodología de la Investigación”, Cap. 12. Ampliación y Fundamentación de los Métodos
Mixtos.
328

Tales posturas metodológicas han sido resultados fidedignos de procesos científicos


ejecutados en el pasado. Cristalizando la hegemonía cuali-cuantitativa y su confrontación
histórica derivada del inductivismo versus deductivismo. El pragmatismo dominante en las
Tecnociencias ha llevado a cada investigador a cohesionarse más a su modelo, puesto que se
piensa que con un solo método se facilitan los análisis sin llegar a costos onerosos representados
.a por la pérdida de tiempo. Posición que ha permitido la existencia a perpetuidad de ambas
ci

lo tipologías de científicos e impidiendo la adopción de una metodología para el desarrollo de
nc
e tecnología. A estos extremistas (de ambos enfoques) que sólo aceptan una perspectiva para
T
nó investigar y, desde luego, rechazan el enfoque mixto, se les denomina <<fundamentalistas
ic
ag metodológicos>>
it
sve
Los autores en su obra suponen al enfoque mixto, cualitativo y cuantitativo en una
nI
e investigación, como de suma importancia a la hora de arrojar resultados científicos de alto
aic
tíf impacto. Argumentando: Los métodos mixtos no nos proveen de soluciones perfectas, sin
nie embargo, hasta hoy, son la mejor alternativa para indagar científicamente cualquier problema
C
ia de investigación. Conjuntan información cuantitativa y cualitativa, y la convierten en
nc
e conocimiento sustantivo y profundo. La investigación tecnológica es un tipo de investigación
isd
D, mixta con ciertos aspectos claramente diferenciables, sobre todo por la clase de conocimiento
as buscado. No obstante, la confrontación cuali – cuantitativa ha impedido su desarrollo en las
gm
i universidades.
ad
r
a Los mutuos y constantes ataques entre científicos290, han servido para enriquecer el acervo
P
re
t acerca de la metodología empleada sobre cada enfoque. La crítica es perceptible, aceptable y
nse
sia necesaria, siempre que se encuadre dentro de los cánones para ella dispuesta. Toda crítica a
rve
determinada investigación o procedimiento científico se convierte automáticamente en un mero
or
t mecanismo, para el cual se espera una retroalimentación, y será ésta, la que pueda usarse con el
no
:C fin de adaptar mejoras. No se trata de criticar por criticar, se trata de criticar para aprender de sus
na
ue resultados. Si se critica y se aprende del proceso retroalimentatorio, será posible afirmar que se
alb es crítico científico, caso contrario, considérese el epítome a la charlatanería.
V
na
oim
290 Weber y Dilthey, contrastaron el método de interpretación hermenéutico buscando la comprensión y significado de los fenómenos, contra el
R método científico objetivo en un escrito denominado VERSTEHEN. Vocablo que significa comprensión, al que se le asocia a una de las tantas
ramas de la filosofía de la ciencia denominada <<comprensivismo>>, y cuyos orígenes se remonta a la Alemania del siglo XIX. Este fue
adoptado como opción que se contrapone al método científico tradicional positivista. Sin embargo, para entender mejor este conflicto, necesario
es asociarlo a sus términos predecesores en la historia. El Corpus Hermético y la Hermética. El Corpus Hermético consiste en una colección de
escritos que datan de los primeros tres siglos posteriores a Cristo. En ellos se combinaban la magia, la religión, además de abarcarse, muy
superficialmente, fragmentos filosóficos, su traducción se le atribuye a FISINO. Se recomienda al lector, si desea profundizar más en el tema,
haga contraste propio del Corpus Hermético, contra un interesante libro de Barry Gower (2002), Scientific Method. An Historical and
Philosophical Introduction. El Corpus Hermético contiene XVIII libros, se recomienda el IX: On Through and Sense, y el XII: About the
Commond Mind. Contrástese contra los escritos de: Galileo; Newton; Bernoullis y Bayes; Stuart Mill; Poincapié y Duhem; Popper; Carnap y
Rampsey. Todos ellos aparecen en Gower. Saque usted sus propias conclusiones.
329

Para los cualitativistas, su método ha logrado ser más sutil y comprensivo, sus investigadores
abordan casos específicos y aplican estrategias para análisis generales. Su crítica más notoria
contra el cuantitativismo, y con alto contenido de exactitud, recae sobre los denominados diseños
no experimentales. El positivista delimita su estudio a través de la escogencia de las variables
necesarias, basadas en relaciones evidentes entre variables, dimensiones e indicadores. Podrán
.a
ci existir infinidades de dimensiones para cada variable. Sin embargo, se avoca sobre aquellas que

lo se adapten mejor a su teoría. Esta actitud premeditada al delimitar su estudio lleva a la
nc observación directa de un hecho, la manipulación de variables en un diseño que lo prohíbe, esto
e
T
nó no ocurre en el cualitativismo.
ic
ag
it Esta asociación intencionada de variables precodificadas, no por causas fortuitas se adapta
sve
nI mágicamente a las respuestas esperadas. Aunado a esto, en ningún estudio cuantitativo donde se
e haya hecho uso de un muestreo por conveniencia291 podrá denominársele no experimental. Así
afic
ít como, los cuantitativistas arguyen sobre sus contrarios, el distanciamiento evidente entre los
nie
conceptos que estos usan y las leyes fundamentales que los rigen. He planteado aquí pues, un
C
ia segmento de una diatriba histórica que ha devenido en un dualismo sin sentido, absurdo y necio,
nc
e que ha conducido a una ceguera y superstición metodológica imposible de autodiagnósticarse.
isd
D, (Martínez Miguélez, 1991), es de opinión…la aplicación ciega de un método conduce al
as
mg fetichismo metodológico. Para el autor, la palabra ciencia en otros tiempos significaba
i
da conocimiento lógico y coherente. Sin embargo, debido a la dualidad de métodos, o lo que
ra
P denomina <<Tiranía Metodológica>>, la ciencia incluso antes de considerar su objeto pretende
re
t conocer el método más adecuado para estudiarlo. Hecho que ha marcado una tendencia hostil
nse
sia hacia el método del otro, y donde el procedimiento propio de las investigaciones tecnológicas,
rve hasta el momento, no ha encontrado cabida.
or
t
no La investigación tecnológica proyecta alcanzar resultados de utilidad práctica para ser
:C
na
ue 291El muestreo por conveniencia, o muestreo intencional, según la teoría general de muestreo, es una técnica de muestreo cuyo uso más común
alb recae sobre investigaciones en ciencias del comportamiento. Es un tipo de muestreo no probabilístico puesto que no es posible determinar
probabilidad. En este se manipulan, deliberada y subjetivamente, las posibles respuestas a un cuestionario. Sobre todo, cuando las unidades de
V análisis presentan relación afectiva con el investigador, es similar a entregarle a un amigo un cuestionario para que lo valide, realmente no se
na espera una real revisión de los constructos en relación a su contexto conceptual, se espera una grata aceptación del mismo. Aquí los
investigadores simplemente eligen a los participantes que les sean más accesibles. Las unidades de análisis son seleccionadas básicamente por su
mi disponibilidad y habilidad para responder. A esta técnica de muestreo se le considera en extremo débil, el investigador no hace intento de conocer
o a la población o usar la aleatoriedad en el proceso de selección. El investigador ejerce poco control sobre la representatividad de la muestra,
R dando lugar a una alta probabilidad de que la muestra seleccionada no solo carezca de representatividad poblacional, sino, que sea parcializada.
Es posible encontrar más información sobre los tipos de muestreo en: Gravetter y Forzano (2012, p. 151). Research Methods for The Behavorial
Science. Por su lado, Salkind: Métodos de Investigación (1999), se pregunta: una muestra intencional: ¿Es Fácil?...Sí; ¿Aleatoria?...No;
¿Representativa?...hasta cierto grado, (p. 103). Nota del Autor: Súmese a ello el hecho marcado y notorio donde se omite el cálculo del margen de
error muestral, sólo se calcula el error de fiabilidad del instrumento, y en pocas ocasiones, su índice de precisión. Pero este instrumento se
alimentó de una muestra cuyo error es desconocido. Hasta aquí quedan claras las funciones y aplicaciones de un muestreo intencional. Este
requiere de un estricto proceso de control y ejerce influencia directa sobre los resultados del estudio, acarreando como consecuencia y si se desea,
respuestas estrictamente planificadas. Surge ahora la siguiente interrogante: ¿Cómo es que el positivismo admite un tipo de muestreo en sus
investigaciones, con escasa representatividad cuando lo que se persigue es la objetividad, además, destinado a la sicología y la investigación
social, cuando sus más connotados exponentes no reconocen a esta última como ciencia?
330

aplicados sobre el mejoramiento o diseño de un producto o proceso, así como la concepción y


prueba de prototipos tendentes a satisfacer necesidades del tipo social, por tal razón, no debe
estar supeditada a ninguno de estos modelos. Y, no por perseguir objetivos distintos a los de las
ciencias puras ha de carecer de legitimidad científica. Para lograrlo, hace uso de teorías
sustantivas y operativas, pero no de teorías científicas puras. En función de estas características
.a
ci se contrapone a los paradigmas dominantes en los centros de investigación universitarios,

lo representados por investigadores formados bajo uno u otro enfoque.
nc
e Tal posición dificulta la adopción de un método dirigido exclusivamente hacia el desarrollo
T

ic de procesos tecnológicos y productos patentables. Este dualismo ha llevado a la investigación
ag
it científica a un estancamiento, y cuyos aportes sociales evidentemente no están proveyendo los
sve
nI resultados esperados, por lo que otra opción que contribuya con el desarrollo de productos
e comercializables, tendente a facilitar las labores cotidianas a las masas sociales es absolutamente
aic
tíf necesaria.
nie
C Sin embargo, el secuestro del método científico para ser utilizado sólo por esta dualidad
ia
nc paradigmática, y atribuible a un pequeño grupo de investigadores, ha dado pie a la propuesta de
e
isd un modelo de investigación disímil, pero inexcusable, el tecnológico. Así como se ha presentado
D,
as históricamente esta dualidad reinante en la esfera científica, se ha sucedido cosa muy similar
gm sobre la diatriba entre Ciencia y Religión; Albert Einstein afirmaba… Los científicos apenas
i
da pueden creer en Oraciones para seres sobrenaturales. Esto se sobrevino como respuesta a un
r
a
P niño que le había escrito y preguntado si los Científicos Rezaban… a continuación su
re
t explicación292:
nse
sia
rve La investigación científica se basa en la idea de que todo lo que tiene lugar está
determinado por las leyes de la naturaleza, y por lo tanto esto es válido para la acción
or de las personas. Por esta razón, un investigador científico difícilmente se inclinará a
t
no creer que los acontecimientos podrían ser influenciados por una oración, es decir, por
:C un deseo dirigido a un ser sobrenatural.
na
ue Sin embargo, tal diatriba queda satisfecha cuando Einstein describe la diferencia radical entre
alb
ciencia y religión, publicada originalmente en alemán hacia 1930, y que aparece en su libro Mis
V
na
Ideas y Opiniones:
oim
R

292 Esta respuesta fue muy difundida por los diarios de la época, puede leerse en su amplio contexto en: Albert Einstein: The Human Side,
editado por Helen Dukas & Banesh Hoffman. (1936).
331

En el hombre primitivo, es sobre todo el miedo el que produce ideas religiosas:


miedo al hambre, a los animales salvajes, a la enfermedad, a la muerte. Como en esta
etapa de la existencia suele estar escasamente desarrollada la comprensión de las
conexiones causales, el pensamiento humano crea seres ilusorios más o menos
análogos a sí mismo de cuya voluntad y acciones dependen esos acontecimientos
sobrecogedores, (p. 47).

.a Por otra parte, basado en aportes de Azcárraga (1997), filósofo de la ciencia, explica que la
icg definición más detallada de Método Científico es la de Sir Karl Popper, que sigue los siguientes
ól
o pasos:
nc
e
T
nó 1. Selección de un problema quizás tropezando con él;
ic
ag 2. Intento de resolverlo poniendo una teoría como posible solución;
it
sve 3. Discusión crítica de la teoría, lo que permitirá la eliminación de errores y el progreso del
nI conocimiento, (P. 13).
e
afic
ít Problemas →Teorías →Críticas → Problemas
nie
C
ia
nc A su forma de ver, la ciencia siempre empieza y concluye con problemas. Las teorías, como
e mecanismo regulador, son simplemente pasos hacia la verdad. Según Popper (1980), una teoría
isd
D, científica no es aquella que simplemente puede ser verificada, sino la que puede ser refutada a
as
través del experimento. Cualquier teoría científica será válida y estará bien sustentada si y solo
mg
i si, hay una manera de demostrar que es falsa293. La ciencia progresará por medio de conjeturas y
da
r
a
P refutaciones de esas conjeturas. Las ciencias empíricas son sistemas de teorías; y la lógica del
re
t conocimiento científico, por tanto, puede describirse como una teoría de teorías. El trabajo de un
nse
científico consiste tanto en proponer teorías como en contrastarlas. Y, se considerará científico
sia
rve sólo a aquel que ejecute ambas labores.
or
t Un enfoque metodológico representa un conjunto de teorías, cualquier perspectiva que intente
no
:C generar conocimiento científico puede ser fácilmente subestimada, sus causas convergen y
na
ue divergen. En efecto, las controversias surgirán en la medida que la investigación no arroje
alb evidencias de eficiencia y eficacia en la generación de nuevo conocimiento sobre determinado
V
na campo de una ciencia. Es menester recordar que la investigación es entendida como el proceso
mi continuo y sistemático mediante el cual un nuevo conocimiento es forjado. La investigación se
o
R
preocupa por la generación de conocimiento. La ciencia, a través de las comunidades científicas
lo que hace es diseminarlo.

293
El Falsacionismo de Popper, se refiere a una crítica realizada a la inducción <<Inferencia no Demostrativa e Indemostrable>>, las
inducciones no son demostrables <<La Investigación cualitativa es por naturaleza inductiva>> El Falsacionismo centra su atención en las teorías
científicas, de allí parte el criterio de demarcación, <<atribuible originalmente a Kant>> es decir, un criterio mediante el cual se pretende
delimitar lo que es ciencia de lo que no lo es, para de esta manera separarlo de la Metafísica.
332

La subestimación del enfoque comienza a hacerse presente desde el mismo momento en que
sus resultados son cuestionados, cuestionamientos bastante lógicos, puesto que la actividad
científica en una gran cantidad de centros de investigación, e incluso revistas científicas
indexadas de gran importancia, se direcciona sólo hacia una acción tan superflua y sin sentido
como la simple recolección de datos, es decir, la descripción. Omitiendo así, toda discrepancia
.a
ci científica contra alguna teoría, Bunge (2004). Sólo es posible la actividad científica a través del

lo reemplazo sistemático de teorías por otras que estén en mejores condiciones de explicar el
nc
e fenómeno.
T

ic Otro cuestionamiento surge al momento en que se confunden elementos dentro de un mismo
ag
it método. Para ejemplificar, es común confundir al Marco Teórico con la Perspectiva Teórica
sve
nI <<Sibilino Error>>, en el primero no se operacionalizan teorías, sino, en el mejor de los casos,
e simples hipótesis, y lógicamente, las variables de estudio. Es menester dejar claro… la
aic
tíf Operacionalización de las Variables es diferente a la Operacionalización de Hipótesis <<hay
nie
variables dentro de un sistema hipotético>>, estas a su vez están muy lejanas de parecerse a la
C
ia
nc Operacionalización de un Sistema Teorético, es este último el tratado en la perspectiva Teórica.
e
isd Para dar continuidad, son muy comunes las investigaciones del tipo relacional donde se hace
D, uso confuso de antecedentes del tipo descriptivo y viceversa <<Error aún más grave>> A su vez,
as
gm en gran cantidad de libros de metodología, editados en el país o no, aparece un apartado en el
i
da marco metodológico orientado a la población y la muestra. Omitiendo indiscriminadamente al
ra
P proceso de muestreo estadístico y el cálculo del error muestral, entiéndase… el muestreo es y
re
t seguirá siendo más importante que la muestra. Esta dualidad paradigmática no sólo ha generado
nse
sia controversias entre sí, sino que ha creado caos y confusión hacia el interior de cada modelo, estas
rve
anomalías han de subsanarse en lo inmediato.
or
t
no Como lo ha señalado acertadamente Kuhn (1962), este hábil escritor soporta la
:C
na comprensibilidad del hecho que por las características propias del método científico, sobre
ue
determinados momentos de la historia podrán coexistir 2 o más paradigmas. Explica; cuando las
alb
anomalías se multiplican (cuando la cantidad de casos en los que no se da lo previsto es mayor
V
na de los que sí) de manera que ya es imposible obviarlas, el paradigma habrá de quedar inservible,
oim
por lo que necesario será, otro modelo de validez294.
R
Esto en muchos casos obedece a que la estructura que envuelve a una ciencia pudo haber
sufrido modificaciones, no obstante, el abordaje rígido a través del método continúa siendo el

294 En ese sentido, Kuhn op. Cit, establece el hecho de que la ciencia avanza a partir de rupturas radicales en las sociedades derivadas de las
crisis, ésta implican cabios en la concepción y manera de ver el mundo, para él denominadas Revoluciones Científicas.
333

mismo. Si esto sucede, el rediseño de los métodos en metodología, con el fin de obtener un
mejor entendimiento de los procesos subyacentes en la investigación, eliminaría muchas de las
controversias, con incidencia directa en el aumento de la eficiencia y la eficacia de la generación
de ese nuevo conocimiento. Hoy día, el metodólogo se ha limitado únicamente a <<usar>> el
método, cuando realmente debiese estar <<pensándolo>>.
.a
ci Hay ciencias cuyo avance se ha dado tan vertiginosamente, que no bastaría con el rediseño de

lo
su método para acercarse al objeto, necesario es replantearse tanto la naturaleza de sus hipótesis
nc
e
T y la concepción de sus diseños experimentales, como las apropiadas estrategias de búsqueda.

ic Donde la planificación metodológica por escenarios futuros es una opción a considerar dentro
ag
it del proceso de investigación sobre determinada tecnología.
sve
nI Es menester acotar que la investigación tecnológica se nutre de problemas espinosos e
e
aic interesantes, pero que pueden ser resueltos mediante la acción y no por meras meditaciones, por
tíf
nie lo que su abordaje habrá de diferir con el de su contraparte, la investigación científica
C tradicional.
ia
nc
e Por otro lado, es bueno recalcar que la investigación es un proceso arduo, complejo y
isd
D, sistemático, consistente en la aplicación de la inteligencia, el raciocinio y la evidencia a la
as comprensión de realidades y modus operandi de fenómenos, penetrando profundamente en su
gm
i
ad interior y arrancando con ello sus secretos, exteriorizándolos y permitiendo a otros una mejor
r comprensión de los hechos. Así mismo, al mundo actual tal como se le conoce, no se destaca por
a
P
re poseer unicidad cognoscitiva, por el contrario, el conocimiento es amplio, plural y
t
nse
multimetódico.
sia
rve Bajo estos parámetros, también debe dársele cabida a la pluralidad metodológica no atada a
or
t pensamiento único y sin contenido. Martínez op. Cit, cuestiona el que se halla creado el mito de
no
:C la metodología y un ritualismo en el que lo esencial pasa del contenido a la forma, de los
na aspectos sustanciales a los procedimientos, y donde la ejecución de las cosas se ubica en la
ue
alb ejecución de actos rutinarios que se califican como uso del método científico 295. Esta
V sacralización obsesiva, tarde o temprano generará controversias, al intentar obtener resultados
na
oim que con el método no se podrán lograr.
R
En estos momentos, podría decirse, la sociedad se encuentra ante una revolución de la
inteligencia y dominio tecnológico, ciertamente es así. Basta con hacer observancia a los nuevos

295 Extraído de una interesante disertación sobre la Crisis Actual de las Ciencias Sociales. Véase: Hurtado y Toro. (2007).Paradigmas y Métodos
de Investigación en Tiempos de Cambio.
334

modelos de comunicación y conocimiento con la interacción entre humanos y computadoras en


ambientes virtuales saturados con la informática. La información ha llegado a convertirse en el
principal insumo de creación de conocimiento, y por ende, de poder.

Sin embargo, en tal proceso se trata de concebir a la producción de ciencia como una

.a actividad indagatoria, coherente y racional, que siempre estará sujeta a posibles revisiones y
ci
gó reformulaciones debido a la provisionalidad de las ideas científicas. En un artículo de
lo
nc investigación, es demostrable el peso que tienen los paradigmas dominantes en el diseño y
e ejecución de los estudios experimentales, considerados por excelencia como el mejor diseño de
T

ic investigación, éstos en muchas revistas arbitradas han prácticamente desaparecido.
ag
it
sve Tal revolución de la inteligencia y dominio tecnológico ha tenido que salvar diversos
nI obstáculos, uno de ellos representado por la recepción negativa de nuevas teorías científicas, ya
e
afic que proyectan conflictos con los puntos de vista despóticos y arbitrarios que subyugan el
ít
nie escenario científico en la academia.
C
ia Allí se inserta al desarrollador tecnológico, que si bien es otro científico más, forma parte de
nc
e una comunidad científica diferente en cuanto a sus paradigmas. Para él, suele ser común el que
isd
se le niegue la posibilidad de presentar proyectos de investigación que no se acoplen a los
D,
as
enfoques dominantes. Lo que lo convertirá en un Disidente Científico.
mg
i
da El desarrollador tecnológico primero fue investigador básico, en sus inicios tuvo impulsos de
ra
P trabajo en dos direcciones motivacionales, una para su ser interno y otra para su externo. A su
re
t interior se vio guiado por una curiosidad infinita, debió ser curioso para buscar, de lo contrario
nse
sia nada encontraría. Ídem a su exterior, una gran expectativa de reconocimiento y aprecio debió
rve
llenarlo, esta esperanza lo agitó, pues de no haber sido así no hubiese publicado ni participado en
or
t evento científico alguno. Lo caracterizó la multiplicidad de ideas innovadoras que surgieron en
no
:C su mente, y las cuales vieron necesidad de proyectar a su entorno.
na
ue En función de ello, advirtió la inevitabilidad de rivalizar con otros de su misma cofradía, para
alb
él, el reconocimiento científico sería más gratificante que el monetario. De nada le serviría el
V
na
dinero si continuase siendo un desconocido en su medio. Necesario fue entonces proyectarse un
mi
o camino a través de cuatro máximas científicas: El Saber - El Saber Hacer – El Hacer – y El
R
Hacer Saber. Máximas que acoplaría inteligentemente a su Método Tecnológico.

Lo anterior se plantea más en profundidad con el estudio de los investigadores disidentes y las
controversias que se generan sobre sus teorías, Campanario (2004). Como ejemplo se maneja el
335

uso que se le asigna al péndulo en las tradicionales clases de física, instrumento de medición de
la aceleración de gravedad en laboratorios.

Contrariamente, la universidad de Princeton, lo utiliza sobre uno de sus experimentos típicos


consistente en poner a oscilar el péndulo y registrar las pequeñas desviaciones que se producen
.a cuando un <<operador>> intenta influir mentalmente en su movimiento, el objetivo es estudiar el
ci posible efecto de la mente sobre la materia 296 . Según resultados publicados en diversos

lo
nc artículos297, existen ciertas alteraciones del comportamiento normal de un péndulo que pueden
e
T registrarse cuando se realizan un número grande de pruebas.

ic
ag Un investigador disidente o controversiante, no es aquel que apetece obstruir de manera
it
sve intencionada lo publicado por terceros, sólo desea hacerse escuchar en un mundo donde el poder
nI de la verdad y la palabra a través de la ciencia es ostentado por unos pocos. Los autores que
e
aic intentan controvertir algún paradigma, sobre todo si se le considera dominante, deberán realizar
tíf
nie mayores esfuerzos, algunos con la intencionalidad de convencer a sus lectores. Para ello harán
C uso de interpretaciones profundas de sus datos y resultados.
ia
nc
e
isd Como alternativa a la situación anterior, se hace más necesario aún, el convencer a otros
investigadores, especialmente a aquellos que tienen el poder de vetar sus publicaciones en
D,
as revistas académicas. Esta interacción ha pasado a convertirse en una guerra de nunca acabar.
gm
i Pues, de llegar el autor controversiante a imponerse con su nueva teoría, podría dar fin al trabajo
da
ra de aquellos que a pesar de manejar hipótesis diferentes, tuvieron el poder de veto y no lo
P
re ejercieron.
t
nse
sia Opuestamente, dejaron filtrar la publicación con la intencionalidad de que la misma cayese
rve por su propio peso. Si esto sucedía, tal autor tendría que enfrentar una brutal represión académica
or
t y aislamiento debido a su atrevimiento, como respuesta inequívoca a aquellos que se atreven de
no
:C alguna u otra manera, a querer desafiar cuestionando, a las teorías dominantes. Si al final de
na todo, lograse imponerse el autor controversiante, en un tiempo no muy lejano, tendrá la
ue
alb necesidad de enfrentarse a otro que ataque sus creencias científicas, por lo que el ciclo volvería a
V repetirse. La ciencia humana consiste más en destruir errores que en descubrir verdades.
na
oim Sócrates.
R
Entre científicos existe una competencia ardua y compleja por los escasos recursos que

Citado
296297El autorpor
proporciona
Campanario listadoVéase:
un(2004). de revistas
www.princeton.edu/rdnelson/
completamente dedicadas a la publicación de artículos que cuestionan las bases mismas de
disciplinas como la Física. Galilean Electrodynamics (www.eternalchaos.com/galicont.html); Journal of Scientific Exploration (www.jse.com)
Multidisciplinar; Medical Hypotheses (www.harcourt-international.com/journals/mehy) Medicina, entre otras.
336

asignan los gobiernos a la investigación y desarrollo. Campanario op. Cit, afirma que los
científicos más prestigiosos en las distintas disciplinas tienden a fungir como revisores o editores
de revistas con gran influencia. Posición que les permitirá decidir quién publica y quien no, por
lo que es de esperarse que se resistan ante aquellas investigaciones que cuestionen no solo sus
teorías, sino sus propias estructuras de poder, y por ende, el manejo de tales recursos.
.a
icg Estos sistemas de revisión, por cierto bastante cuestionados298, sirven de filtro para evitar
ól
o que publicaciones de baja calidad lleguen a los lectores299. En oposición, también se organizan
nc
e en función de evitar que nuevas teorías socaven las bases estructurales de poder que se generan
T

ic en la academia. La resistencia al conocimiento se ha venido presentando longitudinalmente en el
ag
it tiempo. Dentro de los disidentes 300 se pueden encontrar desde simples charlatanes hasta
sve
ganadores de premios nobel301.
nI
e
aic Adicionalmente, en el proceso de investigación tecnológica, a la generación de conocimiento
tíf
nie científico no se le considera del todo necesario, debido a que los procederes técnicos y la
C generación de conocimiento tecnológico son sus bases. En ese campo los recursos no son escasos
ia
nc y la resistencia es mínima si se tienen buenas ideas, en ocasiones se generan teorías y se insertan
e
isd en un mercado habido de productos innovadores per se, donde la charlatanería no serviría de
D, mucho. En ese ámbito se juega con la tecnología y su proceso creativo, los resultados de sus
as
gm investigaciones no siempre se presentan como artículos científicos, estos son sustituidos por
i
da
r procesos o productos patentables insertables en la dinámica económica de una nación.
a
P
re
t
nse
sia
rve
or 298 Ziman, citado en Cuevas y Maestanza (S/F),...“solo es científico el trabajo publicado”...porque un artículo en una revista no solo representa
t la opinión del autor, sino que además lleva implícito el sello de la autenticidad científica dado por el editor y los árbitros, quienes representan la
no base sobre la cual reposa todo proceso científico. Sin embargo, los cuestionamientos surgen de que en el proceso de evaluación se producen
:C conductas inadecuadas; se falsifican datos e ideas de otras personas sin atribuirles autoría; se falsifican autorías omitiendo a un autor. Por otro
lado, se consideran conductas antiéticas por parte de los evaluadores; emitir avales falsos; demorar las evaluaciones de un trabajo sin motivos
na razonables con el fin de obtener ventajas personales y apropiarse de ideas y textos. Disponible en:
ue 299 Evaluar la calidad científica en tiempos donde la ciencia cambia y se desarrolla aceleradamente se ha hecho sumamente difícil, el escrutinio
http://sisbib.unmsm.edu.pe/bibvirtualdata/publicaciones/consejo/boletin46/art_interes.pdf
alb
de expertos ya no convence a muchos, sobre todo debido a que algunos, al no sentirse competentes para evaluar determinado trabajo, en vez
V de declarase no aptos, lo objetan sin comunicar su realidad al editor para que sea otro quien se encargue. Origen de muchos casos de
na Disidencia Científica.
300 La Redacción en sí de este aparte dirigido únicamente a las investigaciones científicas en tecnología, representa una clara disidencia sobre
oim los enfoques predominantes que tienen las investigaciones a la hora de abordar en profundidad la investigación sobre desarrollos tecnológicos,
tanto en las escuelas de Ingeniería, como en sus Postgrados, donde lo Cualitativo y lo Cuantitativo han dejado de ser eficientes. Y a sabiendas, se
R instruye al ingeniero en la metodología de las ciencias sociales con la cual es imposible desarrollo tecnológico alguno.
301 Campanario (Ibíd). Presenta anexos donde la disidencia es tomada muy en cuenta. Se estructuran congresos y eventos en los cuales se
explican exhaustivamente sus puntos de vista y teorías, esto ha hecho que se ganen adeptos. En ese orden, Kary Mullis, bioquímico
estadounidense y premio nobel de química en 1993 por la invención de Polimerase Chain Reaction (PCR), <<Reacción en cadena de la
polimerasa>>, considerada la mejor técnica para analizar virus. Cuestiona la hipótesis oficial de que el VIH <<Virus de inmunodeficiencia
adquirida>> sea el causante del SIDA. En otras palabras, el virus no causa el síndrome. Negando absolutamente el que esta enfermedad sea
causada por un retrovirus, es decir, el VIH no causa el SIDA. Esto generó molestias entre los participantes de uno de estos congresos, puesto que
estaba siendo patrocinado por grandes corporaciones farmacéuticas. Y donde Mullis habría afirmado que el test que ha inventado sea una
confirmación de que el VIH no causa el SIDA. Dejando en entredicho, cualquier otro aporte de científicos que se ven obligados a actuar bajo
coacción de estas grandes empresas. Aparece en: http://www.free-news. /aembid03.htm
337

19.2.- Las Teorías Científicas en la Investigación Tecnológica.

En toda ciencia, sea pura o aplicada, la teoría es a la vez la


culminación de un ciclo de investigación y una guía para
investigación ulterior… Sólo las consecuencias de nivel bajo de
las teorías pueden estar en contacto con la acción, son esos
resultados finales de las teorías los que atraen la atención del
hombre práctico…

Mario Bunge.

oda
hecho el problema
científico
explique
investigación travésdebe
escientífica de unterminar
ela conocimiento hecho con la proposición de una teoría que
de lacientífico.
realidad

T Bien afirmaba Aristóteles… un


a través de sus causas y sus
efectos…Una teoría no es más que una hipótesis respaldada por evidencias del cómo un
fenómeno tiene sus causas y efectos. En este aparte del texto, se intenta adentrar al lector en la
filosofía de la tecnología y sus procesos de investigación con las causas y efectos que les son
inherentes.

La actividad científica con orientación práctica y operativa da origen a la tecnología, esta


apunta hacia un cambio de la realidad, una forma de hacerlo es analizando los hechos que el
conocimiento tecnológico y la ingeniería son capaces de abordar. Perfilando cambios deliberados
y estrictamente planificados que sirvan a propósitos prácticos… recuérdese…la ciencia hasta el
momento no ha podido lograr que los procesos ni los artefactos crezcan en los árboles.

Para Bunge302 (1985), en el proceso de investigación y desarrollo de tecnología se presentan


únicamente dos tipos de teorías, las sustantivas y las operativas. En la técnica, se las asume como
la regla de oro que guía la acción práctica, aquí son sólo instrumentos, su función no es la misma
que en las ciencias puras, y únicamente se toman aquellos postulados mentales que están en
contacto pleno con la acción. Una de sus dificultades, su contrastación a través de operaciones
racionales no podrá ser tan rigurosa como las ejecutadas sobre sus contrapartes, lo que las ha
convertido en blanco de críticas por parte de científicos puros.

La Investigación Tecnológica proyecta alcanzar resultados de utilidad práctica para ser


aplicados sobre el mejoramiento o diseño de un producto o proceso, así como la concepción y
prueba de prototipos tendentes a satisfacer necesidades del tipo social. No por perseguir
objetivos distintos a los de las ciencias puras ha de carecer de legitimidad científica. Para

302 Tanto las Teorías Tecnológicas Operativas como las Sustantivas son extraídas y adaptadas a partir de las interpretaciones de Mario Bunge.
338

lograrlo, hace uso de teorías sustantivas y operativas, pero no de teorías científicas puras. En
función de estas características se contrapone a los paradigmas dominantes en los centros de
investigación universitarios, representados por investigadores formados bajo uno u otro enfoque.

19.2.1.- Las Teorías Tecnológicas Sustantivas

Éstas siempre están respaldadas por teorías científicas. Se las considera, básicamente,
aplicaciones de teorías científicas a situaciones aproximadamente reales, así por ejemplo, una
teoría sobre comunicaciones inalámbricas no será más que la aplicación de las teorías
.a electromagnéticas, dado que la primera está más cerca de la acción práctica que la segunda. Las
icg
ól teorías sustantivas hacen observancia a modos mediante los cuales, los sistemas o estructuras
o
nc tecnológicas, proveen un impacto sustantivo sobre la sociedad en la que actúan. Este impacto
e
T podrá ser positivo o negativo, eso dependerá de la inclinación observacional del sustantivista

ic teórico.
ag
it
sve
Las Teorías Tecnológicas Sustantivas son por sí mismas, teorías científicas puras, sirven para
nI
la proveer de los instrumentos necesarios para planear y hacer, al que toma las decisiones. Estas
nse teorías también forman parte de los métodos mixtos de la investigación social, en donde tanto la
aic teoría formal, como la sustantiva, convendrán estar basadas en datos. A la teoría sustantiva se le
tíf
nie concibe como dato fiel de una situación empírica, sumida en una bruma de dudas, en función de
sC ello, los supuestos se formularán simplemente a través de la concepción de un conjunto de ideas,
ría
que permitan establecer una teoría formal hacia el área sustantiva de interés.
oe
sT
a Una Teoría Sustantiva forjada a partir de una recopilación sistemática de datos, acordará ser
L
:na primero formulada, en función de discriminar, a cuál de los diversos entes formales de teoría
ue
alb pertenece. La Teoría Sustantiva ha ayudado a generar nueva teoría fundamentada, no solo eso, ha
V permitido reformular otras ya establecidas. (Blaikie, 2010), es de opinión que en la investigación
na social, los esquemas de estas teorías permiten el desarrollo de supuestos sobre relaciones entre
oim
conceptos, y se les intenta aplicar a un amplio rango de situaciones. Los esquemas teóricos
R
brindan en su conjunto combinaciones de taxonomías y marcos conceptuales que permiten su
transformación a argumentos teoréticos.

Sin embargo, estos sistemas teoréticos tienden a tornarse bastante abstractos, en parte debido
a la naturaleza de los datos que los originan, y raras veces se presentan en una forma que puedan
ser utilizados directamente en la investigación. Para ello ha de seguirse otro paso, el
establecimiento de un esquema empírico – teórico que sea formulado de un modo preciso y
claro, a manera de hacer plausible su contrastación o refutación a través de experimento. Esta es
339

la única forma de enlazar la teoría con la investigación. Es menester recordar, como se


argumentó en apartados previos, que la investigación tecnológica está atada a condicionamientos
sociales, y de esta forma se asocia a la teoría sustantiva de la investigación social con la

tecnológica.

19.2.2.- Las Teorías Tecnológicas Operativas

Se refieren a operaciones <<Operational Research>>, en donde interactúa el hombre y su


máquina en situaciones aproximadamente reales. La adopción de teorías científicas puras en la
.a solución de problemas prácticos resulta en extremo compleja y económicamente inviable para
ci
gó ciertos proyectos, sus motivos radican en el nivel de abstracción de éstas, aunado a la
lo
nc imposibilidad de acción a ese nivel por parte del tecnólogo. Sin embargo, en ocasiones será
e
T necesaria la adopción de una teoría científica sólida para resolver determinados inconvenientes

ic
ag <<Considerablemente Especiales>> que han de presentarse durante el accionar práctico.
it
sve Es posible concebir Teorías Operativas al buscar y obtener la solución más simple al
nI
la problema, cabe agregar que simple no es sinónimo de eficaz, en efecto, la solución óptima se
nse consigue mezclando la simplificación operacional del proceso con la observancia práctica y
afic directa de los múltiples modelos de factibilidad técnica existentes.
ít
nie
En las empresas de alta tecnología, los pensadores tecnológicos a veces se agrupan, por
sC
ría voluntad propia y según convicciones, en estos dos grandes grupos, en ocasiones llamados
oTe instrumentalistas y sustantivistas, tal como ocurre con la investigación cualitativa y su
sa subjetivismo, en contraste con la investigación cuantitativa con su objetivismo. La Teoría
L
:na Instrumental303 es otro nombre asignado a las Teorías de las Tecnologías, que describen tanto a
ue la ciencia como a la tecnología, como herramientas neutrales que pueden ser usadas para el bien
alb
V o para el mal.
na
mi Ciertamente, para ambos extremos hay consideraciones de importancia que convienen tomarse
o
R en cuenta. Las teorías, no importa el modelo, se basan en explicaciones, ellas, a través de
argumentaciones razonadas y desarrollo expositivo, aumentan la comprensión sobre determinada
realidad. Sin embargo, ha existido siempre una relación causa efecto en la acción operativa de
<<Explicar>>

303Teoría de la Tecnología (Teoría Instrumental). Los problemas de la realidad, o aquellos que necesitan ser abordados mediante la acción
práctica, podrán ser resueltos bajo los siguientes niveles: 1) Con base en teorías profundas (formales o factuales); 2) Apoyándose en teorías
tecnológicas sustantivas o semi científicas (sobre las bases de teorías científicas); 3) A partir de teorías tecnológicas de la acción (las cuales
descansan sobre teorías tecnológicas sustantivas); 4) Adoptando conocimientos técnicos especializados (no basados en teorías, o bien, solo con
base en partes periféricas de teorías tecnológicas de la acción). Tomado de: De la Vega, Miguel (2002). Problemas de Ingeniería de Puesta a
Tierra. (pp. 23 – 25).
340

Se asume que después de cierta explicación debe aumentar, o al menos presentarse un cambio
de perspectiva, con respecto al fenómeno que origina el problema de investigación. No obstante,
no hay una definición sicológica definida sobre el término <<Comprensión>>, semánticamente
hay una contraposición a la hora de arrojar resultados sobre el conocimiento, por lo que la
explicación debe ser sólo una, pero la comprensión variará dependiendo del individuo.

Siguiendo el mismo orden, las Teorías Operativas no hacen uso del conocimiento científico
sustantivo, sino del método de la ciencia. Serán entonces teorías científicas pero dirigidas al tema
de la acción. Son Teorías Tecnológicas respecto del objetivo, el cual por naturaleza es más
.a
ci práctico que cognoscitivo. Es ésta, una de las diferencias más notables entre Investigación

lo Científica e Investigación Tecnológica. La Teoría Operativa se ocupa directamente de las
nc
e acciones del manufacturador de decisiones, dicho de otra manera, del actor. Reflejan también
T
nó creencias, valores y expectativas de los tecnólogos. Bunge afirma, que toda buena Teoría
ic
ag Operativa se constituye de al menos, los siguientes rasgos característicos de las teorías
it
sve científicas:
nI
la a) No hacen referencia a piezas de la realidad, sino a modelos idealizados de la misma;
nse
b) Han de utilizar conceptos teoréticos, como consecuencia del primer rasgo;
aic
tíf c) Han de poder absorber información empírica, enriqueciendo con ello la experiencia, a
nie
través del suministro de predicciones o retrodicciones;
sC
ría d) Podrán ser entonces, empíricamente contrastables, pero no con la rigurosidad a la que se
oe someten las teorías científicas;
sT
a
L Las Teorías Tecnológicas se ocupan de averiguar lo que hay que hacer para conseguir, evitar,
:na
ue o simplemente cambiar, el ritmo de los acontecimientos de un modo predeterminado. Al
alb Investigador Tecnológico le corresponde manejar teorías de gran eficiencia, que ofrezcan mucho
V por poco.
na
oim
Es decir, el tecnólogo manipula en su proceso entradas/inputs y salidas/outputs, bajo la
R
condición de que si un producto/output, derivado de su diseño, ha de ser técnicamente utilizable
para al menos dos teorías rivales, y con ambas el resultado es el mismo, ha de optar por la más
eficiente. En pocas palabras, si es posible obtener el producto de dos maneras, óptese por la más
eficaz.

Explica Bunge, si una teoría es verdadera, podrá utilizarse con éxito en las investigaciones
aplicadas y tecnológicas, y hasta en la práctica misma, pero ha de ser relevante para ambas. No
obstante acota… las teorías fundamentales no se comportan de esa forma, pues sus problemas se
341

alejan en demasía, de la práctica. La verdad de una teoría para nada implica un éxito en la
práctica. Tal éxito o fracaso práctico de una teoría no representa un índice para medir su valor
veritativo.

Por lo que una teoría podrá tener éxito siendo falsa, y a su vez, podrá tener un fracaso

práctico, siendo verdadera. La eficiencia de una teoría falsa podrá sustentarse en varias razones:
en primera instancia, <<una teoría puede tener un gramo de verdad que sea lo único utilizado en
sus aplicaciones304>> Por estar constituida una teoría por un sistema de hipótesis, bastará con
que sean verdaderas o aproximadamente verdaderas sólo unas pocas, para generar las
.a
ci consecuencias adecuadas, considerándose la inocuidad de sus ingredientes falsos, y su no uso en

lo la deducción.
nc
e Una segunda razón del posible éxito práctico de una teoría falsa, descansará sobre los
T

ic requisitos de precisión propios de las ciencias aplicadas, los cuales son inferiores a los de la
ag
it investigación pura. Así entonces, sólo bastará con aportar estimaciones, mediciones y parámetros
sve
exactos, tanto en orden como en magnitud. Los coeficientes de seguridad, que harán exitosa a
nI
la una teoría falsa, ocultarán los detalles más finos predichos por una teoría más precisa y profunda,
nse
tales coeficientes son característicos de la teoría tecnológica, en efecto, ésta ha de adaptarse y
afic
ít podrá variar dentro de un amplio rango.
nie
sC La tercera razón se sostiene sobre la base de la carencia de interés de las teorías
ría fundamentales en la práctica, los actos prácticos del hombre se producen, en mayor parte, a su
oTe
propio nivel. Aunque éste descanse sobre sus niveles inferiores, pero goza de autonomía respecto
sa
L del resto, puesto que no todos los cambios producidos en ellos habrán de afectarlo. De producirse
:na
cambios ha de apelarse no más allá de sus niveles vecinos, lo que le permitirá cierto margen de
ue
alb juego entre nivel y nivel. Para fines prácticos, con una teoría de un solo nivel será suficiente, sin
V embargo, si se exigiese un conocimiento de las relaciones entre niveles, se acudirá entonces, a
na
mi teorías de varios niveles, de manera de poder controlar los sucesos de un nivel desde otro.
o
R
La última razón aduce la irrelevancia de las prácticas para la convalidación de teorías, ya que
las variables de relevancia no suelen conocerse adecuadamente, ni controlarse con precisión,
debido a la premura del diseño. Esta urgencia imposibilita el estudio detallado de tales variables,
aunado a que las situaciones reales complejizan el proceso.

Dicho brevemente, la práctica no tiene fuerza convalidadora, sólo la investigación pura y


aplicada pueden estimar el valor veritativo de las teorías y la eficiencia de la regla tecnológica. A

304 Esta premisa es la base del accionar de los Justificacionistas.


342

diferencia del científico, el técnico y el práctico no contrastan teorías, sino que las usan con
finalidades no cognoscitivas. Solo distinguiendo claramente entre el conocimiento científico y el
instrumental, será posible la explicación de la coexistencia del conocimiento práctico con la
ignorancia teorética, y del conocimiento teorético con su ignorancia práctica.

.a
ci

lo
nc
e
T

ic
ag
it
sve
nI
la
nse
afic
ít
nie
sC
ría
oTe
sa
L
:na
ue
alb
V
na
mi
o
R
343

19.3.- Relación entre Ciencia Básica, Ciencia Aplicada, Tecnología y Técnica

Si se quiere comprender lo que es una ciencia, se debe


examinar en primer lugar no sus teorías o sus resultados, y por
supuesto no lo que sus apologetas dicen sobre ella; se debe
considerar lo que hacen aquellos que la practican.

Clifford Geertz305.

esde hace mucho


resultados
tecnología, tanto
para en
tiempo
nada la historia
han sido
antigua
concluyentes. Laborcomo en la
avocada
suficientemente los los que
esfuerzos
aanalizados temas
contemporánea, pordecierto,
cada ciencia
estratocony

D
la ciencia emprende en la búsqueda del conocimiento. Sin infravalorarse mutuamente, cada
campo científico operacionalizará objetivos diferentes, y habrán de tomar vías distintas, unos
de

buscan generar conocimiento, y otros aplicarlo. La relación entre el conocimiento y su aplicación

radicará más en los esfuerzos en materia de políticas públicas que tengan a bien ejecutarse en
función de socializarlo y hacerlo productivo, que en las diferencia probables entre científicos de
disciplinas distintas. Es por ello que la ciencia produce conocimientos, la tecnología artefactos,
y la técnica aporta la acción humana que da origen a la tecnología.

Para Bunge (2004, p. 562), <<la mayor parte del conocimiento científico está demasiado lejos
de la práctica, o incluso es irrelevante para ella…>> Existen relaciones diferenciales entre las
ciencias puras, las fácticas, la tecnología y la técnica; en primer término, las ciencias puras306
siempre han sido el foco de atención de las universidades, éstas entendieron el poder estratégico
del conocimiento, puesto que el producirlo y diseminarlo en los diversos estratos sociales para
generar bienestar colectivo, trajo consigo alianzas, y lógicamente status a sus integrantes.

Las investigaciones fundamentales <<investigaciones de ciencias básicas>> demuestran o


aprueban postulados o axiomas, sus preguntas se alinean hacia sus propios paradigmas. Éstas
producen un saber <<Puro>>, en apariencia desinteresado. Sin embargo, Kuhn (1970), describió
a las ciencias básicas bajo lo que denominó <<Ciencia Normal>>, orientada a operar dentro de
un sistema cerrado, donde los científicos actúan sobre ella como en un estado Normal, fuera de
toda realidad. Podría entenderse entonces como Ciencias Puras, a los estudios sistematizados
sobre determinado campo científico, libre de cualidades discordantes y centradas en los

305 (1926–2006) Antropólogo Estadounidense, Universidad de Princeton.


306
Las ciencias puras o básicas, son abordadas por científicos que no se preocupan de la Filosofía Natural de la ciencia. En sus inicios, deseaban
unirla al desarrollo de investigaciones bajo paradigmas bien delimitados. Tal denominación hace referencia a investigaciones especializadas, para
ello resulta necesario dividir los conocimientos. Aparece en: Fourez (2006, p. 144-145). En este tipo de investigaciones se omiten
metodológicamente las acciones con problemas concretos. Se busca generar conocimiento, pero no su aplicación sobre determinada realidad.
344

aspectos teóricos. Además, son carentes de elementos exógenos o empíricos. Tales estudios
producen un conocimiento homogéneo, libre de composiciones y sin adulteraciones.

Contrariamente, las Ciencias Aplicadas307, son las que aprovechan el conocimiento científico
<<Formal>>; se conciben básicamente como todas aquellas ciencias o disciplinas fácticas
emplazadas a buscar alguna aplicación del conocimiento fundamental, y están dirigidas a
mejorar substancialmente los procesos y actividades humanas a través de la creación de
.a
ci tecnologías. Estas disciplinas no ceden ni un ápice en sus pretensiones económicas, son
nc
é totalmente <<Interesadas>> Lo que ha generado tensiones hacia teóricos y artesanos, con
T
gíay conflictos entre el pragmatismo del desarrollador tecnológico, y la excesiva teoricidad de los
ol científicos puros con el valor desinteresado de su ciencia.
o
nc
e Este tipo de indagaciones trae consecuencias. En las investigaciones aplicadas, los grupos
T,
a sociales que juzgan la validez de sus resultados pertenecen por lo general, al entorno económico
da
ci industrial en busca de beneficios monetarios, en oposición al mundo de las ciencias
l
p
A fundamentales. Por ello, muchos científicos puros tienden a denominar a las ciencias aplicadas
ai
ienc que desvían su intención, como Ciencias Impuras308.
,C
asic El resultado de la unión entre ciencia básica y aplicada da origen a la tecnología. Bunge
á (2001), razona a la tecnología como una rama del conocimiento que se ocupa de diseñar
B
ienca
artefactos y procesos. La tecnología moderna se basa en la ciencia, por tanto puede

C perfeccionarse con la ayuda de la investigación. La tecnología no debería confundirse con la


er ciencia aplicada, que es en realidad el puente entre la ciencia básica y la tecnología, ya que busca
t
ne
nó un nuevo conocimiento con potencial práctico.
ic
al
e La transformación de conocimientos puros hacia su área operativa forja productos
R
:a comercializables para el beneficio de las masas sociales, de allí su importancia estratégica. La
ne
u tecnología supone ya una ciencia en marcha, y abre el camino a nuevos desarrollos. No obstante,
bl
a es incorrecto decir, o al menos pensar, que para producir o usar tecnología se haría necesario el
V
na
conocimiento puro. Es posible, y de hecho se hace, el uso del teléfono celular sin conocer los
mi
o principios de funcionamiento de las Ecuaciones de Maxwell309 que describen en detalle los
R

307 Las investigaciones sobre medicamentos para el Cáncer o el Sida, ejecutadas por las ciencias médicas; o las concernientes a
Telecomunicaciones; Desarrollos Aeroespaciales; o Energías Alternativas llevadas a la práctica por las diversas ramas de la ingeniería, son
ejemplos claros de la aplicabilidad de las ciencias puras.
308 Se denominan Ciencias Impuras a las investigaciones aplicadas que no se caracterizan por sus fines de beneficio social. Contrariamente,
generan tecnología con meros objetivos económicos. La millonaria industria del armamentismo bélico y los nuevos desarrollos en investigaciones
sobre309 guerras bacteriológicas son ejemplos claros de las referidas ciencias. Allí la razón de que se le considere <<Con Consecuencias>>
James Clerk Maxwell (1831 – 1879), físico Escocés desarrollador de los fundamentos de la teoría electromagnética clásica. Sus ecuaciones
son los modelos matemáticos que guían el diseño de equipos de telecomunicaciones que usan al espacio libre como medio de dispersión y
transmisión de señales.
345

fenómenos electromagnéticos. No es necesario en lo absoluto, entender el cómo funciona algo


para poder utilizarlo.

Al momento, la tecnología se reúne sobre cualquier actividad donde se aplique un concepto


teórico o fundamental de las denominadas ciencias básicas. No se orienta únicamente a la acción,
contrariamente, consiste en una actividad reciamente amparada por la teoría, circunstancia que la
coloca a la par de cualquier ciencia. En una economía de mercado, la tecnología, por ser una
.a
ci mercancía más, sufre los devoradores efectos de la obsolescencia. De allí su necesidad de
nc actualización contínua. Una de las relaciones fundamentales que presentan estos tres elementos,
é
T
gíay Ciencias Básicas, Ciencias Aplicadas y Tecnología; radica en la difusión de los resultados

ol producto de sus conocimientos.


o
nc
e Las ciencias básicas tienden a agruparse por disciplinas científicas, mayoritariamente
T,
a ubicadas en universidades, éstas generan conocimiento a través del desarrollo científico
da
ci constante en sus diversos campos. Y cuyos resultados son remitidos de manera inmediata a
l
p
A revistas especializadas para su difusión. De análoga manera, las actividades de investigación y
ai
ienc
desarrollo asociadas a las ciencias aplicadas, con tendencia a producir tecnologías, también se
,C agrupan, pero por sectores económicos. Aquí, los resultados de sus procesos indagatorios se
asic
mantienen reservados, y serán confidenciales hasta el logro de su protección a través de la figura
á
B de las patentes.
ienca

Para sus efectos, a la Técnica <<Tékhne>>, según Aristóteles (Citado en López 1995), puede
C
er
t concebírsele como el arte o destreza innata del saber hacer las cosas, y como un conocimiento
ne
que puede ser enseñado. Las técnicas se sitúan en el momento anterior a la constitución de una

ic ciencia. El conocimiento técnico, es el arte de producir algo bajo situaciones concretas. Como
al
e
R resumen a la técnica se presenta lo siguiente:
:a
ne
u El conocimiento técnico puede ser adquirido azarosamente, con lo cual se destaca
bl que la invención, es decir, la asociación fortuita de elementos con la cual se puede
a
V originar una técnica, no demerita en nada a este tipo de conocimiento…Por otra
na parte, la transformación de un conocimiento de Tékhne en Epísteme <<es decir a
mi tecnología>> requiere de la eliminación del azar. (P. 34-35).
o
R
Para Aristóteles, es posible fabricar algo sin que ello implique el uso del conocimiento del
tipo epistémico. Lo que lo transforma en un hábito conformado por el raciocinio verdadero,
respecto a lo verificable. Y que en la fabricación, el principio rector está en el productor y no en
lo producido, por consiguiente, se enfatiza en el carácter utilitario de este conocimiento. Bajo
estos niveles de argumentación, es menester entonces, asociarlo al conocimiento procedimental y
a las ciencias aplicadas.
346

La tecnología en sí es un tipo de conocimiento, y no debe asociársele con una forma de


producirlo. Mientras la ciencia se ocupa de lo que es, la tecnología va más allá, se proyecta al
futuro de lo que será. La ciencia, con ciertos grados de profundidad, está en su constante
búsqueda del conocimiento, en su accionar, adquirirá tecnología y la adaptará a su método
científico como elemento tecnológico. He allí, la cerrada relación entre ciencia y tecnología. Tan
importante hoy día, que UNESCO hace recomendaciones para identificar y estratificar, con fines
.a estadísticos, los diferentes tipos de conocimiento en los centros de investigación y desarrollo
ic donde convergen disciplinas distintas.
nc
é
T
gíay Para ello, el Manual Frascati310 ofrece las definiciones para los recursos humanos en ciencia

ol y tecnología. Recomendaciones concernientes a la estandarización internacional de estadísticas


o sobre ciencia y tecnología, adoptadas en un primer momento por la conferencia general en Paris
nc
e
T, 1978. UNESCO (Citado en Westholm 1995) especifica: Científicos; Tecnólogos y Personal de
a
da
ci Ingeniería como sigue:
l
p
A El personal científico y técnico puede ser definido como, el número total de personas
ai
ienc participantes en actividades de ciencia y tecnología en una institución y, como regla,
pagados por sus servicios. Este grupo incluirá, a científicos e ingenieros, técnicos y
,C personal auxiliar. (P. 17).
asic
á
B En este texto se desestima la creencia de que a la tecnología, a lo largo del tiempo se le haya
ienca
considerado ciencia aplicada, razonamiento realmente cuestionable, sobre todo para el
C historicismo tecnológico. Tal dogma, podría ser usado <<Con Justificada Razón>>, sobre la
er
t tecnología moderna, donde el diseño, su desarrollo y producción, además de sus usos activos y
ne
nó pasivos, dependen cada vez más de los conocimientos científicos. Y tienden a usar su método, o
ic
al basarse en uno propio, en ocasiones, con profundidad rigurosa admirable.
e
R
:a
ne Empero, al remontarse a la historia de la técnica y la tecnología, han de encontrarse elementos
u de convicción, bajo argumentación razonada y perfectamente explicada, que los hacen en esencia
bl
a
V dispares, pero con corta distancia. Las tecnologías no tienen antecedentes. Los animales también
na
hacen uso de la técnica, pero sólo los humanos crean tecnología. Éstas, se han diversificado
mi
o tanto, que se ha hecho necesario el uso de métodos novedosos para cada estrato. Es así como
R
surgen la biotecnología y la nanotecnología. Si se pretende usar a la tecnología como modelo de
inclusión social, ha de considerarse: su historia; su naturaleza; sus beneficios, y por supuesto la
concepción de un nuevo método para su estudio… el Método Tecnológico.

310 El Manual Frascati es una propuesta de Norma Práctica para encuestas de Investigación y Desarrollo Experimental. Es patrocinada por La
Organización para la Cooperación y el Desarrollo Económicos (OCDE), y asumida también por UNESCO. En este manual se especifican normas
para la medición de la actividad científica de investigación y desarrollo.
347

Sin llegar a desarrollar un extenso corpus explicativo, las diferencias substanciales entre
ciencia y tecnología podrán encontrarse si se examinan sus objetivos. La primera indaga sobre la
realidad, se plantea el qué es y el cómo esta funciona. La segunda busca su transformación. Al
ser sus objetivos adversos, no podrá establecerse criterio de demarcación alguno sobre la
tecnología al tratar de comparársele con la ciencia. Sin embargo, en la investigación tecnológica
habrán de presentarse problemas que podrán ser resueltos mediante hipótesis, sobre todo si se le
.a desea dar solución mediante procesos experimentales.
ci
nc
é En tanto, el método tecnológico será incapaz de caracterizar cual es el valor de la verdad de
T
gíay sus resultados, y se tomará sólo un criterio: ¿Funciona o no Funciona?; ¿Soluciona o no

ol Soluciona? La investigación tecnológica no ha de someterse a verificación, habrá de hacerse


o
nc utilizable. La finalidad de la investigación tecnología se juzgará por la utilidad de uso de sus
e
T, resultados, y por estar asociada a la investigación experimental, se regirá por sus propias técnicas
a
da
ci de verificación.
l
p
A
ai
ienc

,C
asic
á
B
ienca

C
er
t
ne

ic
al
e
R
:a
ne
u
bl
a
V
na
mi
o
R
348

19.4.- Enfoques Paradigmáticos desde el Ámbito Tecnológico

Cada paradigma debe intentar satisfacer más o menos el


criterio que para sí dicta… y considerarse a la altura de otros
dictados por sus oponentes.

Thomas Kuhn (1962, p. 348).


La Estructura de las Revoluciones Científicas.

uhn conspicuo
valores y técnicas
Este (1962; que son
1970;autor,
1996),nunca
compartidas
concibe por
a un paradigma
reconoció a como una constelación de creencias,

K miembros de una comunidad científica.


las ciencias sociales como ciencias, ni
mucho menos como paradigma. Las definió como ciencias pre paradigmáticas, aunque se guían
por reglas, y hacen uso de la ciencia normal. En filosofía de la ciencia, a un paradigma se le
asume como los supuestos de fondo que circundan teóricamente aquellos objetos de
investigación, implican métodos e ideas compartidas sobre la utilidad de sus resultados, estas
ideas no deben llegar a convertirse en Dogmas.

Para Kuhn, hay una estrecha relación entre: reglas, paradigmas y ciencia normal311. Al
ejecutarse una revisión histórica profunda sobre determinado campo científico, en un corte
transversal, se revelarán un conjunto de ilustraciones recurrentes y casi normalizadas de sus
constructos teóricos en sus aplicaciones conceptuales, instrumentales y de observación,
características inequívocas de sus paradigmas. Éstos últimos podrán variar cuando son
compartidos, sin implicancia alguna de la compartición recíproca de sus reglas.

Una cofradía científica que comparta un paradigma puede estar de acuerdo con él, sin siquiera
tratar de interpretarlo o someterlo a reflexión, pueden haber reglas aceptadas o no, pero eso no ha
de impedir el avance de sus investigaciones. Una reciprocidad de suma importancia entre ciencia

y paradigma, consiste en el nivel de coherencia longitudinal de las investigaciones en que los


científicos participan, sin que ello evidencie compartición alguna de sus conjuntos individuales o
colectivos de reglas, o al menos supuestos teóricos.

Quiere decir, instintivamente una comunidad científica particular puede utilizar reglas
propias, atribuibles a la naturaleza de la educación científica recibida, si bien es cierto, hacen uso
de los mismos conceptos universales dentro de su campo, se avocan a la solución de sus
problemas bajo reglas diferentes. A todas luces, es posible suponer, que determinado científico

311Véase: La Estructura de las Revoluciones Científicas. → Prioridad de los Paradigmas (pp. 80–91).
349

en alguna etapa del proceso, se vio abstraído instintivamente a utilizar reglas propias. Es allí
donde se destaca la brillantez de muchas investigaciones, contra la opacidad de otras. La
brillantez de las investigaciones y sus subsecuentes resultados en la industria van asociadas a la
innovación, es ésta la que determina cuál empresa subsiste y cual no, en un mercado tecnológico
cada vez más salvaje.

Es esta eterna lucha entre brillantez y opacidad científica, aunada a la imposibilidad de arrojar
soluciones concretas, la que hace tambalear a un paradigma. En ese sentido, Bunge312 persigue
una idea de ciencia que se encuentre mucho más ligada a las aplicaciones potenciales, es decir, a
.o
ci la tecnología. Sin embargo, antes de entrar en profundidad a esgrimir sustanciaciones bajo la
g
ól forma de constructos teóricos sobre los paradigmas que envuelven el quehacer tecnológico, debe
o
nc
e considerarse, o al menos aclararse un poco, el panorama referente a la Filosofía de la Tecnología.
T
ot
i La filosofía de la tecnología es considerada una rama de los estudios filosóficos
b
m
Á estrictamente dedicada a los efectos sociales que ésta produce en el entorno inmediato donde se
le
e aplica, haciendo mención a los esfuerzos por parte de los filósofos por tomar seriamente a la
ds
e tecnología como tema de estudio, observación y reflexión sistemática, en sus análisis sobre la
d
ticos
acción humana. Tales efectos son realmente cuantiosos. En primer lugar, la dicotomía <<Teoría
á
mig – Práxis>> como compleja relación, objeto de distinción entre ciencia y tecnología, tema que se
da abordó en apartados previos.
ra
P Además de la cuestión ética y la responsabilidad en tecnología, los devastadores efectos que
se
u
qo ejerce sobre la naturaleza, y por último, el control político económico que se le asigna a la
f
n
E tecnología por parte de las grandes corporaciones. Si bien es cierto, hay quienes se han opuesto
:a
ne históricamente al avance tecnológico313, no es menos cierto que éste, ha aportado respuestas a
u los problemas planteados por las ciencias, dependiendo éstas últimas de ella, para su avance.
bl
a
V
na Los fundadores de la filosofía de la tecnología fueron existencialistas y teóricos marxistas.
mi
o Por hacer mención a algunos: Martin Heidegger; Karl Jasper; Herbert Mancuse; además de
R
Jacques Ellul, entre otros. Con aportes de relevancia en ese campo. Para estos filósofos, la base
de la tecnología parte de la concepción de la <<Racionalidad Tecnológica>>, la cual no es otra

312Véase: Bunge Mario (2001), Los Tres Mitos de Nuestro Tiempo. Virtualidad; Globalización e Igualamiento.
313 Los Luditas, en inglés <<Luddites>>, fue un grupo social que surgió en el siglo XIX en Inglaterra conformado por artesanos textiles en sus
primeros momentos, éstos se oponían a los cambios producidos por la revolución industrial, protestaban destruyendo la maquinaria nueva que les
quitaba su trabajo. En la excelente obra de Brian Bailey “The Luddite Rebelion” (1998), el autor afirma que: el luddismo ha venido a personificar
a todo aquel que rechaza las modernas formas de simplificar el tiempo. Lleva su nombre debido a la labor de Ned Ludd (trabajador británico del
condado de Leicestershire), del cual se dice no era su verdadero nombre, sino un pseudónimo utilizado para protección debido a las posibles
represalias. Las acciones de este obrero provocaron un brote prolongado de destrucción masiva de maquinaria textil. Sus efectos siguen siendo
actualmente estudiados en libros de economía moderna. Para hoy día, el término LUDDITA describe a quienes se oponen fehacientemente a la
computación, la automatización y control, la industrialización o todo aquello que se derive de la tecnología. Siendo blanco de ataques, injustos a
mi manera de ver, y acusados de LUDDITAS, a aquellos que advierten sobre el uso indiscriminado de cierta tecnología sin haber sido
debidamente probada.
350

cosa que la forma objetiva de concebir, bajo la forma de estructuras mentales, una visión
científica del mundo.

El pensar tecnológicamente, lleva al análisis lógico de situaciones que pueden ser manejadas
eficientemente. El pensamiento tecnológico siempre es racional, como racional es la ciencia
normal de Kuhn, y se dirige a la solución de problemas. En sus primeros momentos, la filosofía
de la tecnología giró en torno a una perspectiva trascendentalista, en ella se crearon teorías de
racionalidad tecnológica como condición para la creación y uso de instrumentos.

.o La tecnología estaría libre de cuestionamientos, si ésta, se abriese a la existencia humana


ci
g como su esencia. Sin embargo, de hecho, el término <<Tecnología>> no lo hace equivalente a su
ól
o esencia tecnológica, en vez de eso, hace referencia al control oculto en ella y su relación con el
nc
e
T entorno político - empresarial314. De acuerdo a algunas doctrinas del historicismo tecnológico,
ot
i la pregunta sobre la esencia del quehacer tecnológico tiene para muchos, al menos dos
b
m
Á
le respuestas; la primera: La Tecnología es un Medio para un Fin. La segunda: La Tecnología es
e una Actividad Humana. Es ésta segunda definición la más usada tanto instrumental, como
ds
e antropológicamente.
d
ticos

á Herbert Macuse315 es de opinión, de que la tecnología ha tomado nuevas formas de control,


mig no muy lejanas al Paranopticon de Foucault, cuya forma más efectiva y eficaz ha sido la de
da
ra implantación de necesidades tanto materiales como intelectuales, que perpetúen las obsoletas
P
se formas de lucha por la existencia. La intensidad, la satisfacción, e incluso las características de
u
qo las necesidades humanas, más allá de un nivel biológico, siempre han estado pre condicionadas.
f
n
E Es posible distinguir entre dos tipos de necesidades, las verdaderas y las falsas.
:a
ne
u Las falsas son aquellas que son súper impuestas sobre el individuo por particulares intereses
bl
a sociales para su represión, tales, perpetúan el trabajo, la agresividad, la miseria y la injusticia.
V
na Proporcionan una euforia de felicidad disfrazada, o una infelicidad eufórica del individuo
mi
o sometido a publicidad, convirtiéndolo en un mero consumidor con falsas necesidades.
R

314 Bentham´s Paranopticon. Es una figura arquitectónica compuesta periféricamente por un edificio anular, en el centro, una torre, ésta está
edificada con grandes ventanales que abren convenientemente hacia el lado interno del anillo. El edificio periférico es dividido en celdas, cada
una es extendida sobre todo lo ancho del sector. Cada celda tiene dos ventanas, una interna que la deja visualizar la torre y otra que se orienta al
exterior. Esta segunda permite que la luz atraviese las celdas de extremo a extremo y lateralmente, las unas con las otras. Para tener control total y
absoluto de las celdas, sólo es necesario un vigilante en la torre con el fin de encerrar en cada celda, a cada loco, enfermo, condenado, obrero o
escolar, en el más mínimo de sus movimientos. Estos movimientos serán perfectamente perceptibles a través del efecto de retroiluminación. Las
celdas funcionan como muchas jaulas, como muchos teatros, en donde cada actor está solo, perfectamente individualizado y completamente
visible. Para Michel Foucault, es así como opera el control capitalista de la tecnología sobre los seres humanos. Tomado de: Paranopticism,
Michel Foucault. Capítulo 18, p. 264. En: Readings in the Philosophy of Technology. Escrito y Editado por: David M. Kaplan. (2009). Se
concibe como una táctica de poder y debe cumplir con al menos tres criterios: Obtener el poder al menor costo posible; Hacerse de los efectos del
poder social, y hacer uso de él a su máxima intensidad, extendiéndolo tan lejos como sea posible (Globalización); y por último, extender nexos de
poder económico hacia los aparatos; educacionales – Militares – Industrial y Médico. Su fin es utilizar al Paranopticon como máquina de
disociación entre lo que se ve, y lo que realmente es. Esclavizando así al ciudadano común, transformándolo en consumidor pasivo con
necesidades315 ficticias que no ha de entender.
Véase: The New Forms of Control. Herbert Mancuse. Cap III. En: Readings in the Philosophy of Technology. Op. Cit.
351

Transformándolo de ser social, a producto social. Las necesidades verdaderas son aquellas que
generan satisfacción de las necesidades vitales, y mantiene su afán de salir adelante en la eterna
lucha contra la pobreza como valor universal.

La filosofía de la tecnología bajo la cual se encuentra inmersa la propuesta de este libro, en


nada se asemeja a lo descrito por Mancuse o Foucault, al contrario, se inclina más al
pensamiento utilitarista de la ciencia que plantea Stuart Mill, y a la concepción filosófica de la
tecnología desde el punto de vista de Mario Bunge, para ello sobran las razones. Una, es la
consideración que este último autor hace de <<tecnología>> y <<ciencia aplicada>>, para él, la
.co
ig tecnología sugiere el estudio de las prácticas sobre una disciplina científica. Y, la ciencia
oló aplicada tiene marcada orientación a la aplicación de teorías científicas.
nc
Te
En el caso de Stuart Mill, y partiendo del criterio de justicia en el uso del conocimiento
ot
i
b tecnológico planteado en su libro El Utilitarismo. Hace mención a Epicuro y Bentham, este
m
Á
le último citado en el apartado del Paranopticon, ellos también sostenían la teoría de la utilidad,
de entendida esta no como algo que debiera contraponerse al placer, sino al placer mismo, al placer
sde
verdadero. No considerando como felicidad a nada que no incluya satisfacción, incluyendo a los
so
tic placeres del intelecto, puesto que un ser con facultades más elevadas, necesita más para ser feliz.
á
mg
i Para Mill316, el principio de utilidad presupone el que todos tienen igual derecho a la
da
ra felicidad. Según el Principio de la Mayor Felicidad, tal como se acaba de exponer, el fin último
P
sue por razón del cual son deseables todas las otras cosas (indiferentemente de que consideremos
qnfo nuestro propio bien o el de los demás) es una existencia exenta de dolor y abundante en goces, en
E el mayor grado posible, tanto cuantitativa, como cualitativamente.
:na
ue Un tema que no se puede obviar al tratar la filosofía de la tecnología, es su relación con la
alb
V ingeniería. Es decir, la Filosofía de la Tecnología Ingenieril, cuyo período de crecimiento
na exponencial se mostró posterior a la segunda guerra mundial. El título <<Toward The
mi
o Philosophy of Technology>> fue una contribución de Mario Bunge, atraído por los intentos
R
positivistas por crear lo que él llama una filosofía científica aplicada a la tecnología, para sus
adentros denominada <<Technophilosophy>>, resumiéndola como un largo proyecto que
incluye la explicación de la realidad en términos científicos tecnológicos.

Otro tema centro de discusión, y no menos importante dentro de esta disciplina filosófica,
radica en la cuestión de si el conocimiento tecnológico, es conocimiento genuino. Algunos
argumentan que la tecnología, por tratarse de ciencia aplicada, afirmación cuestionada por

316 Breves esbozos planteados en su libro el Utilitarismo.


352

Bunge, está supeditada a las ciencias naturales, por lo que se le asigna un bajo nivel de
conocimientos y no más. Es decir, un carácter subordinado a la ciencia tal como lo afirmaba
Popper. Bien cabría una pequeña frase por demás interesante… ciertamente un científico no
sabe, simplemente supone. En oposición, un ingeniero no supone, simplemente actúa y soluciona
porque sabe…

La tecnología y el pensamiento ingenieril siempre ha sido parte de la cultura de los


ingenieros. En ese sentido, Mario Bunge ha sido considerado, en escritos del propio Carl
Mitcham317, como la visión contemporánea más completa de la filosofía de la tecnología
.o
ci aplicada a la ingeniería. Para Bunge, la ciencia pura siempre es buena, mientras que la tecnología

lo puede ser mala, y debe a todas luces, ser controlada. La ciencia pura apunta hacia el
nc
e conocimiento puro, sin modificaciones y en su estado natural, el cual requiere de procedimientos
T
ot intelectualmente rigurosos con constructos teóricos ordenados hacia el conocimiento. Mientras,
i
b
m la ciencia aplicada se direcciona hacia la práctica, entonces sus constructos teóricos deberán ser
Á
le orientados a ella. Para James Fleibeman318, la tecnología es una forma diferente de ciencia
e
ds aplicada, puesto que está más cerca de la práctica.
e
d
ticos
Mientras ambas emplean el diseño de experimentos, la ciencia aplicada se guía por hipótesis,
á las cuales provienen de deducciones lógicas de teoría pura. Por su lado, la tecnología emplea el
mig
da método de ensayo y error basado en enfoques especializados derivados de experiencias
ra
P concretas. Para el autor, tecnología es sinónimo de destreza y aplicación en una actividad que
se
u inmediatamente produce artefactos. Así como en párrafos previos se hizo mención a la antigua
qo
f visualización trascendentalista de la tecnología desde el punto de vista filosófico, recientemente
n
E
:a esta ha tomado un giro netamente empirista.
ne
u
bl Dentro del campo de la ingeniería, sus estudios, sus industrias, y su mundo, los protagonistas
a
V
na realmente son los ingenieros. Tanto sus orientaciones científicas, como de negocios, se
mi operacionalizan con tendencia al diseño y producción de artefactos. Para ellos, el proceso de
o
R diseño necesariamente comienza con proyecciones en su mente de algo que puede llegar a ser,
una idea, un primer boceto o dibujo, y una historia del cómo y porqué su artefacto trabajaría si

fuese confeccionado, es decir, de un escenario.

317 Véase: Carl Mitcham (1989) ¿Qué es la Filosofía de la Tecnología? Traducción del Inglés: César Cuello Nieto y Roberto Méndez Stingl. El
mismo autor en otra de sus obras reflexiona sobre los intentos de Francis Bacon de atraer la atención social hacia la tecnología, e invertir energía
humana en su desarrollo, como preferencia sobre la política y la filosofía, acción para la época malentendida tanto por filósofos como por
retóricos. Mitcham cree a esto, parte de los primeros vestigios por pretender abordar la filosofía de la tecnología ingenieril. Aparece en: Thinking
Extractos
Through318 Technology: The <<Pure
de su obra: Path between
Science, Applied Science,
Engineering and Philosophy. (1994, p. 39-40).
and Technology: Cap. II.
An Attempt at Humanities
Definitions>>
Philosophy
(p. 33-36).
of Technology.
Controversial Filósofo
Estadounidense por su orientación Ateísta, famoso por frases como: “La Religión es Comparable con la Neurosis Infantil”; y “Un Mito es una
Religión en la cual ya Nadie Cree”.
353

19.5.- El Conocimiento Tecnológico y sus Tipos

La misión del conocimiento no es iluminar a un alma que es


oscura de por sí ni hacer ver a un ciego. Su misión no es
descubrir los ojos del hombre, sino guiarlo, gobernarlo y
dirigir sus pasos a condición de que tenga piernas y pies para
caminar.

Montaigne.

Cuando el método se impone sobre el pensamiento ingenieril,


no solo se trastoca la creatividad misma del ingeniero, con ello
se socavan severamente las bases en las que se funda el
desarrollo tecnológico de una nación.
Roiman Valbuena.

na
conocimiento
controversiacientífico
Investigaciones puro,een
importante
Tecnológicas s tal
la caso
creada cuando la investigación no aporta
Ingeniería,

U se presenta en algunos diseños de


donde se genera tanto ciencia básica
como aplicada, esta última, esencialmente utilitarista. Sin embargo, no por ello carecería de

lógica y racionalidad. Establecer una estimación cuantitativa de ciencia básica de manera


apriorística para una Investigación Tecnológica en este mundo globalizado, no sólo originaría
una discusión bizantina, sería un total absurdo.

Dentro del proceso de investigación tecnológica es posible concebir alguno, o varios de estos
tipos de conocimiento: el Know That <<Saber que>>; el Know – How319 <<Saber cómo>>; el
Conocimiento Declarativo; el Conocimiento Funcional y el Conocimiento Procedimental. Sin
embargo, es común observar el cómo mucha de la bibliografía especializada separa al
conocimiento científico del tecnológico puesto que sus objetivos no son los mismos. Una acción
racional dentro de la investigación tecnológica no es un objetivo por sí mismo, es un instrumento
para un resultado.

El conocimiento tecnológico forma parte inseparable de la verdad humana, es el que establece


el cómo funcionan las cosas. La tecnología, desde sus inicios, ha sido capaz de crear nuevas
realidades en su accionar, a través de su diseño. Hoy día, es innegable que el progreso
tecnológico ha estado avanzando más rápido que el conocimiento científico.

Este último, aborda la realidad formulando leyes naturales, por lo que no debe confundirse, la
verdad del conocimiento puro, con la efectividad, eficiencia y eficacia del tecnológico, ambos

319 Se le entiende también como una forma de transferencia de tecnología a través de procederes cognitivos.
354

son lógicos, pero diferentes. El conocimiento tecnológico320 es un tipo de conocimiento con


características de aplicabilidad, se le asume operativo y es practicable en esencia, no por ello
deja de ser tautológico (analítico).

Se origina, en muchos casos, a través del pensamiento ingenieril y tiene estrecha vinculación
con las actividades humanas. Se le concibe como una acción intencionada sobre una materia
prima con el fin de producir un bien tangible o un servicio, cuya intervención se orienta al
beneficio social y el cual se considerará explotable por determinado sector económico
dependiendo de la novedad de sus asertos321.

Para (Valderrama, 2000), el conocimiento tecnológico se adscribe al estudio de cursos de


.ipos acción. También es denominado conocimiento praxeológico; su objetivo es estudiar procesos

sT para así mejorar sus efectos o resultados (P. 177). En oposición, el conocimiento científico322 es
us condicionado, pues requiere de validez en sus postulados. Se obtiene mediante la reflexión y la
y
oc contrastación empírica; necesita ser expresado mediante razonamientos lógicos. Este tipo de
ig
ól conocimiento busca captar la estructura de los hechos para posteriormente elaborar modelos o
o
nc
e teorías explicativas que permitan su interpretación.
T
ot
nie El conocimiento científico tiene características de racionalidad; ya que es ostensible a través
cim del uso de la razón <<supone que cualquier problema puede ser solventado por medio de
o
no razonamiento>> concatenada con la capacidad cognitiva del investigador. Es metódico en
C esencia, puesto que se basa en pasos procedimentales lógicos, estos son los que le
l
E
:a
ne proporcionarán características de validez. Se le asume sistemático, en consonancia con los
u momentos metodológicos que deberán articularse. Y es falible, en vista de que no se le considera
bl
a dueño de la verdad absoluta. Por otro lado, el conocimiento tecnológico presenta ciertas
V
na
mi variantes. Muchos de los supuestos aplicados en el diseño de ciertas tecnologías son del dominio
o público, debido a que posterior a su utilización, sus fracciones cognoscitivas se dispersan en la
R
población y son utilizadas por terceros.

Otro tipo de conocimiento tecnológico se mantiene bajo absoluta confidencialidad, tales son
los casos de la millonaria industria del armamento bélico, o de laboratorios tantos
farmacológicos, como de bioingeniería. Así como hay tecnologías a las que se les asigna una
propiedad cortoplacista, es el caso práctico de algunas patentes.

320 Al conocimiento tecnológico también es posible describírsele como proceso <<conocimiento práctico>>, y como producto <<conocimiento
operativo>>321
En la industria tecnológica se considera <<aserto>> a aquellos productos que poco tiempo después de diseñados logran posicionarse en los
primeros lugares en las listas de consumo. Aserto Tecnológico.
322 El conocimiento científico solo puede ser una ampliación del correspondiente al sentido común. Frase de Popper Karl.
355

El nivel de vida de cualquier sociedad, según la teoría del crecimiento económico, dependerá
de su habilidad para producir bienes y servicios, y esto será posible, en mayor o menor cuantía,
si existe una política pública sostenida orientada a la generación de conocimiento tecnológico
por parte del estado, con intervención oportuna de las universidades y sus centros de
investigación. Es menester recordar que la investigación tecnológica es política, porque conlleva
condicionamientos sociales.

Antes de entrar en profundidad a describir cada uno de los ejemplos de conocimiento arriba
.ipos mencionados, como poiesis323 a la investigación tecnológica, se argumentará en diferentes

sT niveles, tanto la conceptualización de conocimiento, como sus tipos, sustentado sobre algunas
us deferencias filosóficas. Sanguinetti (2005, p. 54-55), argumenta que el conocimiento es un acto
y
oc inminentemente contemplativo, no una modificación de la realidad. Se le asume como una
ig
ól actividad psíquica <<inmaterial>> irreductible a los fenómenos físicos. Las vías del
o
nc
e conocimiento comienzan por los sentidos, cada sentido externo está constituido por una parte
T
ot orgánica periférica y por recorridos nerviosos que acaban en los centros cerebrales.
imen
El conocimiento implica vivencias y experiencias, por lo que se le supone derivado
oc
no fundamental de la investigación, este adiestra a los individuos para la ejecución de acciones
lC basado en el acto de pensar. La investigación se convierte en el núcleo a partir del cual deben
E
:na inspirarse y promoverse la formación de todo individuo socialmente responsable. Las sociedades
ue han dejado la terea de producción de conocimientos a las universidades, se espera que ellas lo
alb
V creen, lo transmitan, lo desarrollen y lo incorporen universalmente de forma productiva y
na
competitiva.
oim
R Para efectos de este aparte del texto, el establecer una conceptualización única de
<<conocimiento324>> resultaría en esencia compleja y fuera de la realidad. Sin embargo, podría
entendérsele como: El proceso mediante el cual, una persona percibe una información externa y
es capaz de adaptarla para sí, usando para ello la memoria, asociándola con otras
informaciones del mismo origen con tendencia al enriquecimiento de su acervo en el tema. Se
traduce en la capacidad que tendrá esa persona de captar y procesar información del entorno
que lo rodea.

El conocimiento es asimilable mediante la modificación paulatina de los hábitos culturales,


sin embargo, la generación formal de éste, se produce a través de la investigación básica, la
aplicada, los estudios sobre ciencias humanas y el análisis de tecnologías. Esta última conlleva la

323 Nota del autor: Se entiende como Poiesis a toda acción que conlleve sistemáticamente a la creación de sabiduría y conocimiento.
324 Este concepto difiere un poco del descrito en el capítulo II como conocimiento lógico y asociado a las ideas científicas.
356

aplicación directa del conocimiento adquirido, y se le asocia a la corriente pragmatista. En


función de ello, el pragmatismo, según sus creadores325, concibe al conocimiento como un
instrumento para la acción, es decir, el conocimiento útil es aquel utilizable y practicable, y que
cualquier creencia <<llámese forma o método de adquisición de conocimientos>> se puede
juzgar por su utilidad326.

(Yuni & Urbano, 2005) Explican, el conocimiento científico aplicado a la resolución de


problemas ha dado origen a la tecnología. Como primer esbozo, los autores argumentan que
existe una tendencia a considerar que primero debe haber una investigación básica y luego una
investigación tecnológica. No obstante, el rápido desarrollo y expansión de la tecnología en las
.ipos sociedades ha llevado a la situación opuesta, (P. 26). En vista de que la tecnología se vincula
fuertemente con el mercado económico, la investigación tecnológica ha tomado posiciones de
sT
us importancia en el campo científico, puesto que provee los recursos para continuar las
y investigaciones. Es por ello que el desarrollo del conocimiento científico en las sociedades
oc
ig actuales depende sobremanera del desarrollo tecnológico, incluso hoy día en las empresas
ól
o
nc tecnológicas se habla de Gerencia y Gestión del Conocimiento.
e
T
ot El conocimiento se presenta como el carácter continuo y progresivo del saber humano. Para
nie
su estructuración es necesario la interacción entre dos actores, el sujeto cognoscente y el objeto
cim
o
no cognoscible. El primero intenta aprehender al objeto, y el segundo debe presentar características
C de ser captado. Por su lado, el Know That es una formulación usada para describir al
l
E
:a conocimiento declarativo. Sin embargo, hay una distinción importante que debe hacerse entre el
ne Knowing That y el Knowing How <<acción de cada uno>>, sobre todo en el área de la
u
bl
a ingeniería donde ambos son necesarios. A estos dos ejemplos de conocimiento ha de
V
na entendérseles como del tipo explícito, es decir, se podrán formular adecuadamente usando para
mi ello un conjunto de enunciados.
o
R
Tipos de Conocimiento en Investigación Tecnológica

Conocimiento Declarativo Conocimiento Funcional

El Know That / El Know How Conocimiento Procedimental

325 Proviene de la escuela Estadounidense cuyos aportes filosóficos más importantes se le atribuyen a: Charles Sanders Peirce; Williams James y
John Dewey. Su razón fue llevar al empirismo a su máxima expresión.
326 Base del pensamiento utilitarista del conocimiento de Stuart Mill. Véase: Cap. II. ¿Qué es el Utilitarismo? En: El Utilitarismo. John Stuart
Mill. El utilitarismo o <<Teoría de la Felicidad>>, según Mill y su conceptualización, se considera a la consecución de la FELICIDAD a través
del uso del conocimiento, puesto que utilidad se supone sinónimo de placer. La utilidad puede resumirse como una consecuencia racional del
conocimiento obtenido, <<racionalidad instrumental>> también forma parte indivisible de la dimensión ideológica de toda producción científica.
El utilitarismo exige que las leyes y disposiciones sociales coloquen a la felicidad como interés supremo de cada individuo, en armonía con el
interés común. Como ejemplo: una persona que adquiere un nuevo aparato tecnológico lo hace al menos por dos razones; la primera por
necesidad de actualización, y la segunda porque le genera placer su interacción con el equipo. El negar que esta sociedad actual no es en esencia
utilitarista, más que necedad es ignorancia.
357

El conocimiento declarativo es un tipo de conocimiento que puede ser articulado en palabras


que representen ideas. Permite saber qué es algo, pero presenta limitaciones a la hora de

operacionalizar mediante acción, ese algo. Al Know That se le asume un conocimiento del tipo
representacional; mientras, al Know How como del tipo operativo327, se le describe como la
capacidad de ejecutar una función/acción.

El conocimiento representacional consiste en la representación y explicación exhaustiva de


las propiedades del objeto cognoscible por parte del sujeto cognoscente, no es necesario para ello
la ejecución de procesos de transformación. De la misma manera, al conocimiento funcional se
le describe y hace énfasis en la capacidad de una persona de ejecutar una función/acción, no a la
.Tipos
capacidad de articular descripción alguna. Ambos son mutuamente excluyentes.
s
us Una característica distintiva del conocimiento funcional es que la orientación de los
y
oc conocedores <<Knower´s>>, se circunscribe a la realización de la función en vez de describirla.
ig
ól El conocimiento procedimental, o de habilidad, se le entiende como el utilizado por los
o
nc
e Knower´s para seleccionar la mejor manera de ejecutar una acción, de tal modo que se evidencie
T
ot la eficiencia y eficacia del método seleccionado.
nie
mi El conocimiento del tipo operacional, también es conocido como del tipo técnico, su
co
no asimilación es imprescindible en la investigación tecnológica, y se le considera resultado
C inequívoco del paso del conocimiento declarativo al operativo… desde la intuición a la
l
E
:a
habilidad.
ne
u
bl El conocimiento tecnológico se ha convertido en factor determinante en la productividad
a
V industrial. Los empresarios lo han entendido como la mejor manera de producir bienes y
na
mi servicios. En ese entorno resulta importante distinguir entre el conocimiento tecnológico y el
o
R capital humano. Ambos con certeza están estrechamente relacionados, sin embargo, mantienen
importantes diferencias. Para la sociedad, el conocimiento tecnológico hace referencia a cómo el
mundo trabaja, opera y se mantiene.

En oposición, el capital humano se circunscribe a los recursos utilizados para transmitir tal
conocimiento, y proyectarlo sobre determinada fuerza laboral. Todo crecimiento económico
sustentado en una serie de políticas públicas que persigan elevar el estándar de vida de sus
ciudadanos, dependerá de su capacidad de producir bienes y servicios. Para ello serán necesarios,

327 Quintanilla (2005) explica que el conocimiento representacional se basa en la intuición, mientras que el operativo en la habilidad. Así mismo,
el conocimiento tácito lo concibe como el conocimiento personal no formulado explícitamente mediante un conjunto de enunciados, asumiendo
con ello que el conocimiento operacional Know How, tendrá al menos un componente tácito irreductible (p.241).
358

el capital humano, los recursos naturales con que cuente el entorno geográfico que se habita, y el
conocimiento tecnológico. Este último, desde el punto de vista económico, se le considera tan
importante, que es comercializable328.

Todo crecimiento auto sostenido dentro de determinada economía, es consecuencia directa e


ineludible, de los avances en materia de tecnología. De allí el poder estratégico del

conocimiento, sobre todo en una época en la cual éste se ha convertido en el producto más
demandado en el plano internacional. El conocimiento tecnológico es un factor de producción
que avanzará a medida que sean palpables los resultados de las actividades de investigación y
desarrollo (I+D). En función de ello, puede considerársele un bien público.
.ipos
Las universidades en su rol de creadoras de conocimiento, deberán articular estrategias para
sT transferir el conocimiento tecnológico de generación en generación en las áreas de ingeniería. Y
us los ingenieros, están en la obligación de usarlo en procesos de investigación tecnológica e
y
oc innovación que potencien el desarrollo sostenible de su nación.
ig
ól
o
nc
e
T
ot
nie
cim
o
no
C
l
E
:a
ne
u
bl
a
V
na
mi
o
R

328 Nota 1: Es posible entre dos contratistas delimitar un contrato de Know How <<Provisión de Conocimientos Técnicos>> Este es entendido
como aquel negocio jurídico en el cual se ejecuta la cesión o transmisión del derecho sobre un conocimiento técnico reservado, realizado por su
titular a favor de la otra parte, a cambio de una contraprestación.
Nota 2: Otra definición jurídica para el Know How es el acuerdo <<que tiene relevancia contractual autónoma>> con los cuales un contratista
comunica a otro contratista, los conocimientos dirigidos a la solución de problemas técnicos y que no se hallan cubiertos por patentes. A fin de
que este último pueda efectivizarlos en su propia actividad empresarial. En ese ámbito se usa la terminología: Know How Licenciante <<titular
del conocimiento>>, y Know How Licenciatario <<contraparte o receptor de la licencia>>. La Nota 2 se le atribuye a: Bianchi, Alessandro.
“Tutela de los conocimientos técnicos no patentados. Contratos de Know How y obligación de no comunicación a terceros”. Derecho Industrial,
7-9, p. 351. Aparece en Nota 1: Hesber Benaventes Chorres. (2008). “El contrato de Know How o aprovisionamiento de conocimientos técnicos:
Aspectos a ser considerados para su regulación normativa”. Revista IuS Et Práxis. Año 14, Nº 2. P. 407 – 457.
359

19.6.- Las Ingenierías y La Investigación Tecnológica

La tecnología es una dama tan, pero tan inteligente, que con


dulces y suaves insinuaciones, antes de darte cuenta, ya te ha
hecho su esclavo.

La Investigación Tecnológica se nutre de problemas altamente


complejos pero interesantes; sus científicos no se amilanan
ante sus desafíos; sus resultados van más allá de lo que la
mente humana pudo alguna vez haber imaginado;
entonces…El Método en Tecnología… debe ser tan brillante y
efectivo, como la comunidad científica que de él hace uso…

Roiman Valbuena.

ara comienzos de la segunda década del siglo XXI la tecnología ha llegado a penetrar lo

P más profundo de la psiquis humana. La Pervasividad Tecnológica329 se ha convertido


en un virus con tendencia a la propagación masiva. En 1991, Mark Weiser, para ese
entonces jefe del Centro de Investigaciones Tecnológicas de Xerox en Palo Alto California,
describió su visión acerca de lo que sería la computación del siglo XXI, manifestando: <<Las
Más Profundas Tecnologías son aquellas que Desaparecen>>, Saha y Mukherjee (2003). Tanto
la tecnología pervasiva como el descubrimiento científico a través del búsqueda intensiva de
datos <<lo que Microsoft ha denominado el cuarto paradigma>> ha llegado a convertirse en los
paradigmas más abordados por las grandes corporaciones tecnológicas en estos momentos,
invirtiendo grandes sumas de dinero en sus centros de investigación y desarrollo con el objeto de
sacarle máximo provecho.

Pasados diez años de la presentación por parte de Weiser de su artículo <<The Computer for
the 21st Century>> y publicada en <<Scientific American>> para septiembre del 91, la IEEE
(Institute of Electrical and Electronics Engineers) crea la Pervasive Computing Magazine, con
amplio reconocimiento a nivel mundial, y que junto a la Carnegie Melon University han
conformado desde entonces un catalizador para el avance de la investigación y la práctica de la
computación móvil y ubicua. Es el foro principal para la publicación de artículos científicos,
noticias del sector, encuestas, además de tutoriales para una comunidad amplia y
multidisciplinar.

329 Término empleado sobre el proceso de manejo de un conjunto de pequeños de dispositivos móviles interconectados inalámbricamente entre sí
para la consecución de una tarea común, el facilitar al usuario las actividades diarias es uno de ellos. Sin embargo, existen otras aplicaciones.
También se le conoce como: pervasive computing, ubicuos computing y calm Technology. Esta conceptualización surgió desde el momento que
la tecnología evidenció el haberse hecho sumamente penetrante, si bien es cierto ha servido de mucho, también tiene sus detractores, quienes
aseguran se ha creado un mundo de súper adictos a la tecnología. Un ejemplo de ello son los adictos a los Smartphone, una de las herramientas de
mayor poder pervasivo hasta el momento.
360

Gran cantidad de empresas líderes en tecnología interesadas en sus retribuciones económicas,


con ciertos grados de profundidad han emprendido investigaciones en cuatro ámbitos: Smart
Spaces (Usos Eficaces de Espacios Inteligentes); Invisibility (Invisibilidad Tecnológica);

Localized scalability (Escalabilidad Localizada) y Uneven Conditioning (Enmascaramiento


Acondicionado Desigual) 330 . Elementos que junto a la computación móvil y los sistemas
distribuidos dieron origen a la computación ubicua. A pesar de considerársele relativamente
nueva, la Tecnología Pervasiva ha mostrado en los últimos tiempos, un patrón regular con
evidencias de un incremento de frecuencia en sus adaptaciones a entornos corporativos.

Por su lado, un espacio inteligente es concebido como un área geográfica que incorpora a la
.a
ci computación dentro de su proceso de diseño y construcción, reúne dos mundos que se habían

lo desunido hasta ahora, el mundo de la tecnología computacional con la interacción humana. La
nc
e fusión de estos mundos permite su detección y control mutuo. Muy conocido actualmente como
T
nó domótica en algunas de sus aplicaciones (automatización de hogares u oficinas). Donde los
ic
ag sistemas automatizados han facilitado las labores cotidianas de tal manera que el solo pensar en
it
se su ausencia, causa nerviosismo al humano con el cual interactúa el sistema, ocasionándole cierto
v
nI nivel de dependencia. El uso eficaz de estos espacios trata la optimización de los mismos.
al
sy
aí La invisibilidad tecnológica es una idea expresada por Weiser, trata de la completa
rie desaparición de la tecnología informática generalizada de la conciencia de un usuario. En la
ne
g teoría de la invisibilización tecnológica, la imperceptibilidad del equipo informático o telemático
nI
sa es indispensable. En la práctica, una aproximación razonable a este ideal es la distracción
L
:a mínima del usuario. Si un entorno de computación ubicua contínua cumple con las expectativas
ne
u del usuario y rara vez lo presenta con sorpresas, le permitía interactuar a un nivel casi
lba
subconsciente. Un humano podrá intervenir con intención de adaptar el ambiente, cuando este no
V
na cumpla automáticamente con sus expectativas.
mi
o
R En cuanto a la Escalabilidad Localizada, los espacios inteligentes en los últimos tiempos han
tendido al crecimiento, crecen en sofisticación, por lo que la intensidad de las interacciones entre
el espacio de un usuario de computadores personales y sus alrededores aumenta. Esto tiene

implicaciones graves de ancho de banda, de velocidad de transmisión, de asignación de canales,


y de energía. Escalabilidad, en el sentido más amplio, por lo tanto es un problema crítico en la
computación ubicua.

Según las leyes del inverso del cuadrado de la naturaleza, su postulado central afirma sobre

330 Para más detalle Véase: M. Satyanarayanan, Carnegie Mellon University. Pervasive Computing: Vision and Challenge. Disponible en:
http://www.cs.utoronto.ca/~delara/courses/csc2228/papers/satya.pdf
361

algunos fenómenos físicos que, su intensidad tenderá a disminuir con el inverso cuadrado de la
distancia que lo separa de la fuente que le da origen, es decir, mientras más lejos se está de la
fuente menor intensidad del fenómeno y viceversa. Esto implica un buen diseño del sistema para
lograr la escalabilidad reduciendo severamente las interacciones entre entidades distantes. Esto
contradice directamente el ethos actual de Internet, que muchos creen que anuncia la "muerte de
la distancia" (no importa cuán distante se encuentren dos equipos, estos podrán conectarse), por
el contrario, para la computación ubicua y sus posibilidades de escalamiento la tendencia es al
distanciamiento.

La penetración uniforme de la tecnología de la computación ubicua en infraestructuras es de


.a
ci muchas décadas de distancia. Las redes ubicuas son consideradas como el último eslabón en la

lo secuencia de crecimiento de los entornos distribuidos. El nivel de inteligencia en entornos
nc
e diferentes, con normalidad tiende a ser desigual y persistente. Al igual que tiende a variar en
T
nó empresas del mismo sector económico. Este amplio rango dinámico de la "inteligencia" puede
ic
ag ser irritante para el usuario, desvirtuando el objetivo de que la computación ubicua se
it
se invisibilice. Como un ejemplo trivial, un sistema que sea capaz de funcionamiento desconectado,
v
nI será capaz de enmascarar la ausencia de cobertura inalámbrica en su entorno. A esto se le
al
sy denomina Enmascaramiento Acondicionado Desigual.

rie Si usted trabaja, o cotidianamente se desenvuelve en un área donde converjan un conjunto de
ne
g pequeños dispositivos móviles interconectados inalámbricamente, los cuales le ayudan en
nI
sa proporciones significativas a sus quehaceres diarios, no se asuste, usted es un esclavo pervasivo,
L
:a y a diferencia de otros tipos de esclavitud, llevará sus grilletes con placer. No espere un héroe al
ne
u rescate, en referencia al proverbio, el mal se combate con el bien, aquí no sucede lo mismo, pues
lba
la tecnología se combate con tecnología. La esencia de esta visión fue la creación de ambientes
V
na saturados con la informática y la capacidad de comunicación, pero con gracia, integrando a los
mi
o usuarios humanos con las computadoras. A esto se le denomina331 entorno Weiser:
R
Hay más información disponible en nuestra planta del pie durante un paseo por el
bosque que en cualquier sistema informático, sin embargo, la gente encuentra un
paseo entre los árboles relajantes, y a las computadoras frustrantes. Máquinas que se
ajustan al entorno humano en lugar de forzar a los seres humanos a entrar en ellos,
harán del uso de una computadora tan refrescante, como dar un paseo en el bosque.

A través de un cuerpo de conocimientos indudablemente innovador, la tecnología pervasiva


ha logrado profundas transformaciones tanto en el modus vivendi como en el operandi de los

331Hay quienes la denominan Inteligencia Ambiental. Véase: Hansmann, Uwe (2003, p. 67 - 80). Pervasive Computing: The Mobile World.
Springer.
362

espacios de trabajo. Se ha producido como resultado de la unión de los sistemas distribuidos con
la computación móvil. Generando gran cantidad de campos de investigación, en la infografía se
muestran algunas de las áreas con extrapolación de tendencias hacia su desarrollo continuo y

progresivo, tanto en el ámbito empresarial como académico.

Comunicaciones
de
Remotas
laProtocolos
Ingeniería de
a través Redes Móviles Ancho de
Banda
Adaptativo

Toterancia a Sistemas
Fallos sobre Sensibilidad
Compatibles de
.a Nuevas Redes Energía Localizada
ci
gó Técnicas de
lo Acceso a Seguridad
nc información Distribuida
e Remota
T

ic
ag Problemas de Investigación en Computación Móvil Pervasiva.
it Tomado de Taxonomy of computer Systems. Satyanarayanan (2001).
se
v
nI
al Sin embargo, pasará mucho tiempo todavía en Venezuela, hasta que se haga un correcto
sy
aí abordaje de este tipo de investigaciones. Los paradigmas actualmente dominantes en el entorno
rie académico nacional no conseguirán arrojar resultados satisfactorios sobre estas disciplinas. Sólo
ne
g el uso de la investigación tecnológica, conjugado con el pensamiento ingenieril podrá satisfacer
nI
sa tales necesidades de conocimiento tecnológico. Lo anteriormente descrito no implica unicidad de
L
:a campos de investigación, sólo describe los más abordados.
ne
u
lba Es mucho más complejo el diseño e implementación de un sistema computacional pervasivo,
V que un simple sistema distribuido de comparable robustez y madurez, por lo que el abordaje en
na
mi profundidad en cualquiera de los ejes derivados de la computación Ubicua, se ha desarrollado de
o
R modo lento pero progresivo en el tiempo. De la misma manera, las infraestructuras inalámbricas
e internet han tenido su impacto en la forma de vivir de los seres humanos, sobre todo, la de
relacionarse con su entorno.

El desarrollo de investigaciones sobre la interacción humana con la tecnología pervasiva


puede vislumbrarse desde dos vertientes, la primera envuelve al conocimiento factual, implica
preguntarse ¿Qué es? lo que hasta el momento se conoce. La otra vertiente, que se extrae desde
la primera, se proyecta al diseño de nuevo conocimiento ¿Qué podría llegar a ser? Todo ello
desde el punto de vista de una aproximación complementaria estrechamente vinculada a los
363

aspectos humanos, y su interacción con ambientes saturados con la informática. A esta


información generada por los usuarios se le conoce como geoinformación ubicua, relacionada al
Human Component Interaction (HCI).

Sin embargo, debe reconocerse la imposibilidad actual de una infraestructura de computación


ubicua totalmente transparente e invisible. Por lo que un entorno Weiser, todavía sigue siendo un
deseo insatisfecho. En función de ello, los ámbitos de investigación de sectores de desarrollo
tecnológico, podría decirse, apenas comienzan. Y con ello, nuevos elementos se suman y
concatenan para crear nuevos focos de indagación.

.a Cada día se originan nuevas patologías asociadas con el manejo de la información, debido a
ci que ésta es indispensable en la toma de decisiones. Si bien los estudios de la computación ubicua

lo
nc son necesarios, también lo son los efectos sobre los usuarios a los que se les somete a esta
e
T tecnología. El desarrollo de un sistema complejo nunca ha sido un problema de nueva data, sin
n
ói embargo, al adentrarse con actitud inquisitiva en las bases de un sistema tecno– pervasivo, se
ca
gi genera una comprensión de la complejidad a menudo diferente sobre el entorno que se crea, que
ts
ev
nI sobre el ser humano con el cual se interactúa.
al
sy Hay efectos demostrados sobre la mente humana. Esto ha llevado a enfrentamientos entre

rie gente real y su entorno pervasivo, al respecto Griffiths (1997) señala la existencia de lo que para
ne la época denominó: adicciones tecnológicas, que se definen como adicciones no químicas que
g
nI
involucran la interacción hombre-máquina. Para Griffiths, cualquier comportamiento que cumpla
sa
L los siguientes seis criterios será definido operacionalmente como adicción, y será tecnológica si
:a
ne tal actividad se realiza a través de un equipo electrónico:
u
lba
Saliencia: se refiere a cuando una actividad particular se convierte en la más importante en la
V
na vida del individuo y domina sus pensamientos, sentimientos y conducta. Modificación del
mi
o humor: experiencias subjetivas que la gente experimenta como consecuencia de implicarse en la
R
actividad. Tolerancia: proceso por el cual se requiere incrementar la cantidad de una actividad
particular para lograr los efectos anteriores. Síndrome de abstinencia: estados emocionales
desagradables y/o efectos físicos que ocurren cuando una actividad particular es interrumpida o
repentinamente reducida.

Conflicto: Se refiere a los conflictos que se desarrollan entre el adicto y aquellos que le
rodean (conflicto interpersonal), conflictos con otras actividades (trabajo, vida social, intereses,
aficiones), o dentro de los propios individuos (Conflicto intrapsíquico) que están involucrados
con la actividad particular. Recaída: es la tendencia a volver los patrones tempranos de la
364

actividad que vuelven a repetirse, restaurando los patrones más extremos de la adicción tras
muchos años de abstinencia o control. Pero lo importante en la adicción no es la actividad
concreta que genera la dependencia, sino la relación que se establece con ella. Es una relación
negativa, incluso destructiva que el sujeto se muestra incapaz de controlar.

De acuerdo a Andrew Hough, escritor de un diario británico, en un reciente estudio332, los


investigadores encontraron que casi cuatro de cada cinco estudiantes (80%), mostraron una
significativa perturbación mental y física, con observaciones de pánico, confusión y aislamiento
extremo cuando se vieron obligados a desconectarse de la tecnología durante un día entero. Con
evidentes síntomas de depresión y ansiedad. En el mismo estudio, un estudiante no identificado
.a
ci afirmó a investigadores de la Universidad de Maryland (USA), que sus ansias fueron tan

lo significantes y abrumadoras como la que se presenta en la adicción al crack de cocaína.
nc
e De acuerdo con John O´Neill, director del servicio de adicciones del instituto clínico
T
n
ói Menninger, en Houston, citado por Moskowitz (2008). Afirma que existen personas tan adictas a
ca
gi la tecnología que niegan el relacionarse cara a cara con otras. Sólo interactúan a través de emails
ts
ev
nI o mensajes de texto, a los que denominan “Adictos a las Comunicaciones”. Así mismo, O'Neill
al admitió que no hay suficiente investigación para establecer si el uso excesivo de la tecnología,
sy
pudiese calificarse como adicción, sino que citó a personas que no pueden sentarse a ver una

rie
película sin antes consultar sus teléfonos celulares o hacerlo a través de la cena, sin mirar a
ne
g escondidas en sus Smartphone como adictos potenciales. Es por ello que, tanto investigadores
nI
sa como desarrolladores pervasivos deben estar al tanto de las secuelas de sus productos.
L
:a
ne Por otro lado, la computación ubicua surge del deseo humano de querer estar
u
bl simultáneamente en varios lugares, interactuando con sistemas virtuales y con diferentes
a
V
na personas, viviendo múltiples vidas, realizando actividades divergentes, convergentes,
mi conversando, aprendiendo, enseñando y compartiendo. El deseo de un mundo perfectamente
o
R interconectado para escenarios futuros se ha convertido en la visión de muchos centros de
investigación y desarrollo tecnológico. Pero francamente, los investigadores deben prestar
atención primaria a eventuales implicaciones de este juego pervasivo en el estado de

imperfección actual.

El uso excesivo de un equipo de comunicación puede llevar a una persona a la


incomunicación. Desde la creación de la tecnología pervasiva se ha reducido considerablemente

332 Artículo publicado en The Telegraph, abril del 2011. En el estudio se dio participación a casi 1000 estudiantes, entrevistados en 12 campus
disgregados en 10 países, incluyendo Gran Bretaña; UU.UU; y China. Disponible en:
http://www.telegraph.co.uk/technology/news/8436831/Student-addiction-to-technology-similar-to-drug-cravings-study-finds.html
365

la resilencia tecnológica. Si bien es cierto que la tecnología es necesaria, y ha ayudado a las


empresas a ser más competitivas en el mercado, no es lo mismo ser un esclavo pervasivo
inadvertido, que uno de pleno conocimiento.

Como preámbulo ineludible al desarrollo de un proyecto de investigación sobre aplicabilidad


de la tecnología pervasiva, se debe hacer un involucramiento activo y complementario en dos
direcciones. La primera orientada al estudio sicológico del comportamiento humano como arma
tecnológica para su dominio, es decir, la ciencia como coeficiente de influencia y persuasión.
Implica el tratar de convertir a los seres humanos de factores a actores a través de la sicología,
para ello ha de adentrarse en el Human Component Interaction (HCI) previamente mencionado.
.a
ci
gó La segunda dirección consiste, en plantear en esencia, el pensamiento o discernimiento
lo
nc ingenieril, que comprende un conjunto de actividades para validar el conocimiento. El
e pensamiento ingenieril, como elemento integrador y coherente, es claramente diferenciable del
T
n
ói pensamiento científico. El ingeniero tiende a compenetrarse con las etapas sucesivas de un
ca
gi diseño de un modelo o prototipo como algo que le es inherente. Para ello se sirve de una idea
ts
ev
nI generatriz, en principio difusa, que posterior a un proceso detallado de análisis, genera técnicas y
al herramientas para producir artefactos de utilidad práctica.
sy
aí Bannon (1991, p. 25) sostiene que, para entender a los humanos en situación de actores con
rie
ne un conjunto de destrezas y prácticas compartidas basadas en sus experiencias de trabajo con
g
nI
otros. Se requiere de una nueva metodología para observar y entender la relación entre la gente,
sa
L la tecnología, y los requerimientos tanto organizacionales como de trabajo, todos compelidos
:a
ne únicamente al área geográfica o espacio físico donde se ejecutan las labores.
u
lba
Estudiar esta multiplicidad de elementos, y sus interacciones, exhorta a adentrarse más allá
V
na del tradicional experimento controlado en laboratorio, por cierto muy escaso en los proyectos de
imo
investigación de las escuelas de ingeniería en Venezuela, peor aún, más escasos lo son en los
R
postgrados de ingeniería.

Este tipo de investigación es el que le otorgará el sello de validez a los experimentos en el


campo del HCI. Implica entonces, convertir al sitio de trabajo en un laboratorio. El objetivo
consistirá en reemplazar a los factores humanos por actores humanos a través de la interacción
tecnológica. Las diferencias entre el primero y el segundo, estriban en la percepción que el
investigador logre generarse de la persona bajo estudio.

Un factor humano es pasivo, fragmentado, despersonalizado, desmotivado e individual. Al ser


366

convertido en un actor humano cumplirá un rol activo y motivado pero sutilmente controlado.
Mientras más placentero le resulte el equipo tecnológico con el que interactúe, más activo y
controlado será.

Puesto que los eventos a sucederse en tecnología pervasiva permanecen implícitos en la


mente de cada diseñador, es lógico y común plantearse escenarios, es decir, un posible uso
ficticio en el presente, pero hecho realidad a futuro, esto con el fin de exteriorizar las ideas. El
diseño tecno pervasivo posee un alto componente de investigación experimental, con todas las
implicancias estadísticas y aleatorias que tales indagaciones ameritan. A continuación se
presenta un escenario de ejemplo, tomado de Satyanarayanan (2001, p.3):
.a
ci Jane es una chica que se encuentra en la puerta 23 del aeropuerto de Pittsburg,

l esperando un vuelo que la trasladará a otra ciudad. Ella ha editado una gran cantidad
o
nc de documentos y desea hacer uso de la red inalámbrica del aeropuerto para enviarlos
e por email. Desafortunadamente el ancho de banda es escaso, esto debido a que
T
nó muchos pasajeros, en las puertas vecinas 22 y 23 están navegando en la web.
ic
ag
it Aura observa que con el actual ancho de banda Jane no podrá enviar sus documentos,
se por lo menos no antes de que su vuelo parta. Para ello decide consultar a la red del
v servicio meteorológico, y el servicio de horarios de vuelos. Aura descubre que el
nI
al ancho de banda inalámbrico es excelente en la puerta 15, puesto que ningún vuelo
sy llegará ni partirá por ella en los subsiguientes treinta minutos.

rie Posterior a ello, en la pantalla del computador de Jane, aparece un cuadro de diálogo
ne emergente sugiriéndole el trasladarse hasta la puerta 15, ubicada a tres minutos de
g distancia. En el mensaje se le indica también que se priorizará el envío de correo,
nI
pues se le considera como mensaje crítico y debe ser enviado primero. Jane acepta la
sa
sugerencia de Aura y camina hasta la puerta 15.
L
:a
ne Jane comienza su proceso mientras observa las noticias en tv, hasta que Aura le
u informa que debe darse prisa con el envío de sus correos y regresar a la puerta 23. El
lba
último mensaje fue transmitido durante su regreso, justo a tiempo y coincidiendo con
V el llamado de abordaje.
na
imo En el ejemplo descrito, podría decirse que Aura pasó a ser de un factor humano a un actor
R humano. Sin embargo, Aura no existe, obsérvese que entre Jane y ella nunca hubo intercambio
de palabra alguno, ni siquiera se hizo mención de que fuesen amigas, se le ilustró como ejemplo
de un Sistema Computacional Pervasivo. Con quien realmente interactuó Jane, fue con la red

pervasiva del aeropuerto (Aura). El sistema fue capaz de percatarse de las necesidades de Jane y
utilizó todos los medios posibles para solucionarle el problema333. A Aura se le visualizó como
un sistema de computación ubicua libre de distracciones.

Un sistema computacional pervasivo debe ser proactivo, la proactividad como indicador de

333 De esta manera caracterizó la Carnegie Mellon University el proyecto Aura (www-2.cs.cmu.edu/~aura/).
367

eficacia. Se considera fundamental en este tipo de sistemas, el que se haga seguimiento y detecte
la intención del usuario, esto claro, sin finalidad alguna de violar su privacidad. De lo contrario,
sería casi imposible el determinar qué acciones del sistema se considerarían ayuda, y que otras
acciones obstaculizarían los servicios a usuarios. En este ejemplo se hizo uso convergente de 3
campos de investigación sobre sistemas tecno pervasivos tomados de la taxonomía de los
sistemas computacionales. La seguridad distribuida; la Sensibilidad Localizada; y el Ancho de
Banda Adaptativo.

Saha y Mukherjee (2003), generan una descripción detallada de los proyectos de iniciativa
sobre computación ubicua, que para la fecha se llevaban a cabo y que aún continúan en
.ca
ig desarrollo. El Proyecto Aura por parte de la Carnegie Melon University. El Proyecto Oxigeno
oló por parte del Instituto Tecnológico de Massachusetts, el cual se centra en una visión de futuro
nec donde la computación sería libre y accesible donde quiera, tal como el oxígeno. También existen
T
nió los proyectos: Portolano (Universidad de Washington) soportado sobre la teoría de la
ac invisibilidad; el Proyecto WebSphere Everyplace de IBM; el proyecto EasyLiving de Microsoft;
igt
sve el proyecto Sentient Computing de AT&T, en conjunto con la Universidad de Cambridge. Sin
nI olvidar el proyecto Cooltown de Hewlett-Packard’s.
la
sy
Para el año 2012, la IEEE, en conjunto con una gran cantidad de universidades, continúan el
ría
nie desarrollo de proyectos bajo estos modelos. Con el tiempo se espera que la computación ubicua
eng sea fuente de fértiles recursos que aporten soluciones a la multiplicidad de problemas a los que
I
sa se enfrentará la raza humana en los años por venir. Esto requerirá de grandes esfuerzos de
L
:na creatividad por parte de los ingenieros encargados de los proyectos. Para su desarrollo se
ue
requerirá de la convergencia multidisciplinaria de carreras de ingeniería, las cartas están sobre la
alb
mesa, solo falta el avocamiento en extenso por parte de las universidades que lideren
V
na
investigaciones con resultados tangibles y cortoplacistas. Donde la Metodología de Investigación
oim
Tecnológica jugará uno de los papeles primordiales, el de guía del camino.
R
368

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XX: LA SECUENCIA


LÓGICA EN EL RECONOCIMIENTO
DE PATRONES CIENTÍFICOS…

Un matemático... no tiene material con el que trabajar, sino ideas, y por lo tanto sus patrones
probablemente durarán más tiempo, ya que las ideas se gastan menos con el tiempo que con las
palabras.

— G. H. Hardy. In A Mathematician's Apology (1940, 2012), 84


369

20.1.- Identificación de Patrones y Generación de Teorías Científicas

El científico procede básicamente con sentido común e


ingenuidad. No hay reglas en su accionar, sólo los principios de
integridad y objetividad con un completo rechazo a toda
autoridad, excepto la de los hechos.

Joel Hildebrand.

un sujeto essemejanzas
capaz
a identificación
discrimina y el de
reconocimiento
ydiferenciar
diferencias, se lescualitativos
consisten
rasgos asume comoo cuantitativos
en acciones sobre
mentaleslógicos
procesos inconsciente
mediante las cuales
las

L
donde se tipifican características e incluyen secuencias de observación. Sólo es posible reconocer
cosas,

algo, si ese algo, ya ha sido previamente grabado en la memoria, es decir, el reconocimiento


sigue al acto identificatorio. El reconocimiento en sí, es netamente derivado de un procesamiento
perceptivo que se da lugar en el cerebro y se le asocia a la sicología de la memoria.

Los patrones por su lado, consisten en un proceso mediante el cual, es posible identificar
frecuencias y períodos de sucedencia en eventos en un primer momento estocásticos334, al azar,
o sin orden aparente de ocurrencia. El reconocimiento simple de objetos, primeramente, es una
habilidad que desarrolla el ser humano en su diario compartir y al usar cosas, desde el punto de
vista de la ciencia, consiste en una tarea simple no científica.

Para que se dé un reconocimiento de patrones a través de los cuales sea posible describir,
explicar o asociar la sucedencia científica de un fenómeno con su respectivo modelo de
ocurrencia335, han de calibrarse bien los sentidos. Pues, los juicios reflexivos sólo se emitirán
posteriores a una vasta compilación de datos para que estos puedan formar parte de las hipótesis
que conformarán el sistema teorético.

334 Un proceso estocástico es una familia de variables al azar. En la práctica, sirve para modelar un gran número de fenómenos temporales donde
el azar entra en juego. A través del uso de ciertas propiedades matemáticas es posible distinguir algunos tipos de procesos estocásticos. Los más
conocidos son: Proceso de Markov (o cadena de Markov); Procesos de Martingale; Procesos Estacionarios y Procesos de Incrementos
Independientes, entre otros. Un fenómeno podrá presentar una o más características diferenciables de estos procesos. Tomado de Yadolah Dodge
(2008). The Concise Encyclopedia of Statistic. No obstante, determinar a ciencia cierta cuál proceso estocástico se ajusta a determinado
fenómeno, es una habilidad que tendrá que desarrollar el científico a motu proprio, denominemos a ello, identificación de patrones.
335 En Matemáticas, Computación y Teoría de los Juegos, es muy común el uso de la denominada Secuencia Fibonacci. La Sucesión de
Fibonacci es una secuencia numérica que se genera sumando dos números consecutivos para obtener el siguiente. Es la secuencia que marca el
desarrollo biológico de algunas plantas. Mediante la secuencia es posible explicar el por qué las ramas inferiores de una planta no nacen
exactamente debajo de las superiores. La Secuencia de Fibonacci fue explicada alrededor del siglo XIII por Leonardo de Pisa, reconocido
Matemático Italiano y publicada en el Liber Abaci para el 1202. En el reino animal existe la denominada espiral de Durero o espiral de
crecimiento. La cual tiene su origen en la Secuencia de Fibonacci. Esta secuencia es muy utilizada para explicar el árbol genealógico de las abejas
mielíferas. Entonces, cada cosa que en universo exista, está innegablemente asociada a un modelo matemático específico de ocurrencia. “Los
encantos de esta ciencia sublime, las matemáticas, sólo se le revelan a aquellos que tienen el valor de profundizar en ella” Carl Friedrich Gauss.
370

El uso de patrones matemáticos, apoyados sobre un acto explicativo puro y coherente,


permite crear las explicaciones más increíbles, certeras y llenas de significado. Pero, considérese
completo el patrón, cuando tal explicación pueda ser entendida y aprovechada por la primera
persona que con usted se cruce en la calle.

Reconocer patrones es básicamente identificar que tal o cual fenómeno opera bajo alguna ley
matemática, que sus manifestaciones oscilan con determinada característica o su período de
ocurrencia puede predecirse. Consiste en una ciencia cuyo objeto es diseñar métodos para la
.s
ac descripción de objetos y su clasificación, convirtiéndose en base de la ciencia teorética. De
if
ít hecho, si un científico no posee cualidades de reconocimiento de patrones, difícilmente llegará a
ne
i generar o refutar teorías científicas explicativas. Identificar y reconocer patrones en una
C
sa
ír investigación científica es como armar un rompecabezas desde cero. Surgen inquietudes como:
oe ¿Con cuál pieza comienzo?; ¿Qué pieza va con cuál?; ¿Cuál conjunto de piezas me dejará
T
e conocer el patrón de la figura?
d
ión
ac Para que el científico reconozca patrones sobre las particularidades que investiga, su alma,
rne
e corazón y mente deben estar inmersos en el fenómeno bajo observación. Allí es menester que
G
sy tenga clara las nociones de similaridad desde el punto de vista abstracto, pues, no todos los
ne
or objetos mentalmente percibidos pueden describirse con conceptos. Y son los patrones abstractos
ta los que a través de la organización de sus partes, clases abstractas y elementos abstraídos,
P
de
lograrán conformar una entidad para describir y luego explicar.

ic
ac La identificación de patrones que dan forma a las teorías científicas, comienzan a
if
it
ne evidenciarse cuando el pensamiento científico vence la inercia intelectual y solventa por medio
dI del razonamiento, las múltiples partes en que está conformado un todo subyacente, carente hasta
:a
ne el momento, de entidad absoluta que permita estudiarlo. No obstante, en un primer estadio, y es
u
bl así para casi todas las grandes teorías científicas, la generalidad fenoménica abordada no es del
a
V todo compacta, ya que no será vista como un conjunto de gránulos analizables ni un todo
na
mi sintetizado. Allí, el patrón regular que evidencia un incremento de frecuencia de los eventos
o
R puntualizables, aparece como epifanías en la mente del científico y éste opta por herramientas
como la lógica y la matemática intuicionista para operacionalizarlo.

Logrado ya el primer conjunto de descripciones y explicaciones, iniciará un proceso


dialéctico con el cual organizará un vocabulario común para el universo donde se entiende a
razonar. Basado en protocolos operacionales de la inteligencia científica, discurrirá
371

metodológicamente cada situación verdadera bajo toda evidencia sabiendo que, si alguna de
estas verdades carece de fuerza, entonces ninguna explicación ha sido, ni podrá, ser finalizada.

El teorista científico nunca somete por fuerza la explicación de un hecho, contrariamente, a


través de la concatenación de nexos causales y observaciones efectoras, explicará las relaciones
entre cada unidad fenoménica con su otra, dejando ver dependencias lógicas anteriormente
invisibles. No obstante, las dificultades científicas habrán de aumentar conforme el agente
científico se acerque a su meta sin poder justificar algunos procedimientos por demostraciones.
.icas Pues, para éste, la única autoridad en ciencia la ejercen los hechos demostrados, demostrables,
ntíf observables e hipotetizados. Para el resto… no existe ninguna regla.
ei
C Un agente científico es uno de los pocos seres cuya perspicacia siempre está en movimiento,
s

ro y el que siempre está pensando ha de tener epifanías y apofenias336, el cerebro del científico
e
T funciona a una frecuencia diferente a la de cualquier otro ser humano. Por lo que dará a cada
e
d
ión apofenia su templo, buscando aquello trascendental que lo cambie para siempre. Ese mismo
ac templo ha de convertirlo en un lugar no deseado para sus adversarios. Aunque sostener una
rne
e ciencia basada en apofenias le sea difícil, pues Thomas Paine solía decir que: Argumentar con
G
sy una persona que ha renunciado a la lógica, es como darle medicina a un muerto.
ne
or
ta 20.2.- Patrones Analíticos y Patrones Sintéticos: Semejanzas y Diferencias
P
de
Denominemos Análisis al proceso mental, con origen en la actividad neuronal alterada y

ic abstracta propia del científico, donde se descompone un ente, material o inmaterial337, en sus
ac
if
it mínimos bloques estructurales constitutivos. El fin de un análisis consiste en llegar a la unidad
ne
dI mínima, llámese elemento o partícula elemental indivisible, para desde allí, estudiar el cómo se
:a compone aquel todo unificado, cuando ya no sea posible seguir descomponiendo se ha llegado a
ne
u un elemento. Un proceso analítico como constructo epistémico, parte de la idea de que
bl
a estudiando el comportamiento individual de partículas elementales es posible descubrir
V
na
mi
o 336Se denomina Apofenia a la percepción repentina o espontánea de conexiones o significados sobre eventos no relacionados. Tales eventos
R evocan la relación del fenómeno con algún patrón matemático con sucesos aleatorios basados en datos sin sentido alguno. Desde el punto de vista
de la Siquiatría y la Sicología, se asemeja a una conducta endosable a la gente sicótica. Pues, permite generar significados abnormales y sin
evidencia alguna. Si bien es cierto, es una tendencia psíquica innata a cada ser humano, esta se hace más aguda en períodos de psicosis, donde se
le trata de dar significado, téngalo o no, a cada estímulo exterior asociándolo con algún patrón de ocurrencia. Como ejemplo se tiene a Gordon
Gould, primer inventor del láser. Gould cuenta su Apofenia: <<A la medianoche de un sábado…todo el asunto… de repente apareció en mi
cabeza y vi claramente cómo construir el láser… pero tal flash perceptivo requirió de mis 20 años de arduos estudios y trabajos en física y óptica,
para colocar cada ladrillo de tal invención allí>>. Véase: Berkun Scott (p.148). The Myths of Innovation. Cap. 10, Innovation is Always Good.
Gould argumenta que el LASER <<Amplificación de la Luz por Emisión Estimulada de Radiación: Light Amplification by Stimulated Emmision
of Radiation>> surgió como idea una medianoche de sábado de 1957, cuando al salir a la ventana de su hogar, pudo apreciar el desplazamiento
de un cometa surcando el cielo. Formó en su mente entonces, la idea de la existencia posible, de un dispositivo que pudiese calentar “algo” a una
temperatura extremadamente alta, en sólo una fracción de segundo. Si se estudia la óptica como ciencia y se correlaciona con los primeros
avances sobre el láser, podrán visualizarse elementos liados a patrones matemáticos sin sentido en un primer momento. Con esta Apofenia,
aportaría a la ciencia muchas soluciones en el campo de la óptica, telecomunicaciones, medicina e industria.
337 La descomposición de un ente inmaterial solo es posible desde el estadio del pensamiento abstracto. Si desea profundizar acerca del tema,
refiérase al apartado de: La Investigación Abstracta, Capítulo XI en este mismo texto.
372

relaciones e interacciones con su entorno (sistema), logrando de esta manera establecer vínculos
y jerarquías causales o relaciones de unas partículas con otras.

La Síntesis por su lado, consiste en el proceso inverso, es decir, la recomposición general de


aquel conjunto de elementos que conforman al sistema. Ambos términos desempeñan un papel

importante en el proceso de cognición humano cuando se crean conceptos y se descubren leyes,


pues, la razón descubre que las cosas son verdaderas sólo cuando tal verdad es reducible a
conceptos o leyes científicas. Un patrón analítico para la mente del científico implica que el
.s
aic fenómeno es observable, no así, las particularidades fenoménicas génesis de su ocurrencia.
tíf Donde, estudiando sus elementos es posible encontrar respuestas a sus causas o mecanismos de
nie
sC acción. Cualquier cosa elemental se hace evidente, es entendible y puede obtenerse saber de ella.
ría Pero son pequeñas partículas las que dan origen a sistemas complejos.
oe
T
de Análisis y Síntesis son procesos lógicos del intelecto, cuando se aplican en conjunto con la
nió identificación de patrones comúnmente permiten colectar un conjunto de datos potencialmente
ac
rne interesantes. Ellos admiten la separación diferenciando, la clasificación agrupando en conjuntos,
e y la unión basada en criterios. La actividad mental que origina las secuencias de análisis y
G
sy síntesis es la misma que se aplica sobre una investigación exploratoria, se parte desde lo
ne
or complejo hasta llegar a lo más simple por meros ejercicios inductivos y deductivos. No obstante,
ta
debe prestarse sumo cuidado a lo que se desea analizar como objeto de investigación. Por
P
de ejemplo, una investigación sobre el agua, su física, su química o su mecánica como fluido, tendrá
nió
ac como unidad mínima constitutiva su propio concepto, ya que, al descomponer el agua en
ic oxígeno e hidrógeno, es decir, separar sus partículas elementales, dejaría de ser una investigación
tif
nde sobre el agua y se estaría estudiando otra cosa.
I
:na
El método del análisis y la síntesis presenta, como todo método, sus limitaciones. Los
ue
alb conceptos de infinito o persona son nociones que no toleran análisis alguno. Como plantea
V
na Fernández Burillo338,
oim
¿Si en una carnicería se encuentran piezas de vaca es posible decir que es vaca
R analizada?; Pero la vida de la vaca no es una de las piezas descuartizadas ni la mera
reunión (síntesis) de las piezas: por más perfecta que fuera la reunión de las piezas no
resultaría la vida de la vaca, porque esta es más, algo superior a la reunión de las
partes. Lo mismo sucede con el ser personal. Si la persona fuera una reunión de
elementos, si el ser personal resultara de una cierta síntesis de piezas impersonales, la
persona no sería más que un agregado impersonal. (p. 7).

338 Tomado de su Curso de Filosofía Elemental PDF. Disponible en Internet.


373

Si la realidad abordada se circunscribe a una categoría superior al método analítico, entonces


éste ya no podrá usarse y ha de optarse por un método para categorías elevadas. Por otro lado,
según la teoría de conjuntos finitos e infinitos, se cumple que para cualquier conjunto de
elementos finitos el todo siempre será mayor que la suma de sus partes. No así para los conjuntos
infinitos, donde cualquiera de sus partes podrá ser mayor al todo en su generalidad339.

20.3.- Reconocimiento Estadístico de Patrones

.tíficas Según (Webb, 1999), el reconocimiento estadístico de patrones es un término utilizado para
cubrir todas las etapas de una investigación, comenzando desde la formulación del problema y la
Cien
recolección de datos a través de la discriminación y clasificación, hasta el aseguramiento de los
s
aí resultados y su interpretación. Este procedimiento presenta un marcado énfasis en la teoría
ro
e estadística de la discriminación y la clasificación, prestando mucha atención sobre el clustering
T
e
d (proceso de agrupamiento basado en criterios).
ión
ac El proceso o acción discriminatoria se aplica sobre la data recabada, donde no todo dato
rne
representa información. El desarrollo de patrones de discriminación es una tarea ardua y
e
G compleja, requiere de un vasto conocimiento en análisis vectorial, estadística avanzada y álgebra
sy
ne de conjuntos, allí se trazan vectores de funciones sobre zonas de decisión en gráficas, y de
or
ta acuerdo a ciertos patrones de la data, se toman los agrupamientos (clustering), conforme ciertas
P
e
d reglas de la teoría de conjuntos. Los comportamientos similares entre grupos admiten inferencias
nó causales o relacionales que podrán ser reconocidas como patrones de respuesta.
ic
ac Comportamientos azarosos sin secuencias marcadas serán tomados como data inservible y por
if
it
ne ende, desechada. Cualquier cúmulo de datos que no conformen estructuras cognitivas firmes,
dI
:a conducirá indefectiblemente a procesos científicamente estériles.
ne
u
bl Subsiguientemente, la clasificación por su lado, implica asignar clases a las medidas o
a equivalencias, buscando la identificación probabilística de fuentes de medidas, es decir, una
V
na
explicación estadística que aclare el por qué ciertos datos presentan mismas medidas. Tales son
mi
o representadas por vectores de medidas y analizadas según técnicas para identificar similaridad o
R
distancia entre al menos dos vectores de patrones. Las condiciones de similaridad se establecerán
según criterios que el investigador haya prefijado y satisfagan matemáticamente a los mismos.

También existen ciertas clases de patrones denominados patrones de disimilaridad, estos son
representados por funciones disimilares para objetos. Como las unidades de similaridad y

339 Para un mejor entendimiento de los sistemas infinitos se recomienda al lector, referirse al Capítulo XXIII sobre la Investigación
Experimental, Experimentos Mentales. David Hilbert y su Hotel infinito.
374

disimilaridad comúnmente son medidas numéricas, entonces será posible crear para cada grupo
de ellas, variables numéricas. En el caso específico de las disimilaridades, las medidas numéricas
entre dos objetos “x” y “y” separadas cierta distancia, podrán establecerse usando algunos de
estos procedimientos matemáticos según sea el caso340: distancias euclidianas; distancias de
Chebyshev; distancias de Minkowski de orden m; distancias cuadráticas; distancias de
Camberra; distancias no lineales; separaciones angulares o distancias de Mehalanobis341. Es de
notar que todos estos procedimientos están fuera del alcance de este texto, al menos en esta
.tíficas edición.

La Discriminación y la Clasificación estadísticas no son neologismos introducidos por


Cien
caprichos en este aparte, sus orígenes son de naturaleza exploratoria y consisten en técnicas
s
íar multivariantes cuyo fin último es la separación de distintos conjuntos de objetos, datos u
oe
observaciones, para luego ser ajustados a un procedimiento clasificatorio previamente
T
e
d establecido. Allí, con base en las relaciones observadas se asignará cada elemento a la clase que
ión
ac bajo criterios razonados corresponda. En la estadística multivariante al proceso de
rne
discriminación se le denomina comúnmente como Análisis Discriminante342. Y al proceso de
e
G clasificación, por presentar características menos exploratorias se le emplea para indagar sobre
sy
ne las diferencias observadas cuando la relación de causalidad no ha sido bien entendida, Johnson
or
ta y Wichern (2007, p.575).
P
de
Los patrones constituyen un elemento esencial en la toma de decisiones a la hora de

ic argumentar suficientemente una teoría científica, un patrón es estadístico cuando presenta al
ac
if objeto de conocimiento como un vector de características medibles, y sólo es posible medir en
it
ne busca de inferencias científicas posterior a los pasos de discriminación y clasificación. Si el
dI
:a objeto no puede ser descrito por una magnitud numérica, entonces habrá de abordársele bajo el
ne
u enfoque de la Estructura Sintáctica, centrando la atención en el contexto donde se presenta la
bl
a unidad fenoménica de interés. Y la relación entre los distintos objetos.
V
na
mi 340 Cuando se ejecuta una identificación de patrones y se trabaja con el proceso de identificación de disimilaridades, estas deberán ser
o posteriormente sometidas a un procedimiento matemático para cotejar si pueden ser transformadas a similares y si existe dependencia estadística
R entre las medidas.
341 La distancia de Mehalanobis fue introducida en 1963 por P. C. Mehalanobis, famoso estadístico Hindú, fundador del Instituto de Estadística
de la India. Este procedimiento es ampliamente usado en la estadística multivariada para encontrar valores atípicos en varias medidas de
Mehalanobis. Su fundamento descansa en que es un procedimiento cuyo fin es determinar similitudes entre dos variables aleatorias con
características multidimensionales, asignando entonces, mayor importancia a variables con menor grado de varianza. Allí se busca la distancia de
un caso con respecto a un centroide o centro de gravedad de los datos (media), con respecto a las demás distancias. La distancia de Mehalanobis
permite la ejecución de una clasificación de similitudes basada en un procedimiento estadístico, no muy común, pero de mucha confianza,
presentando ciertas diferencias contra las distancias euclidianas.
342 Se conoce como análisis discriminante a un procedimiento de la estadística multivariada donde se intenta establecer relaciones entre una
variable categórica y un conjunto interrelacionado de variables. En los análisis discriminantes, a diferencia de la identificación estadística de
patrones, muchos de sus grupos son asignados a priori. Y a la entidad de interés se le asume que pertenece a uno y solo uno de los grupos. En
análisis discriminante es de amplio uso en la ciencia del reconocimiento de patrones, se usa para hacer reconocimiento de imágenes médicas y
satelitales, así como en operaciones ejecutadas por humanos. En el primer escenario de un análisis discriminante se toman casos para decisiones
puras, donde se intenta asignar a un vector “x” a “g” posibles grupos. McLachlan, Geoffrey (2004). Discriminant Analysis and Statistical Pattern
Recognition. Editorial Wiley. Véase.
375

Otra técnica de reconocimiento de patrones de amplio uso es la basada en la Teoría


Combinatoria o Lógica Combinatoria343. Uno de los objetivos del reconocimiento de patrones
es descubrir regularidades y cotas de independencia entre los datos, pues, por medio de ellas será
posible la asignación de atributos. Como el investigador ha puesto en funcionamiento su
imaginación disciplinada, y sometida a rigurosas observaciones derivadas como resultados de
actividades mentales abstractas y agrupaciones metódicas de un conjunto de datos con
regularidades, le será entonces posible obtener una sentencia legaliforme provisional (Ley) con
.icas la cual explicar y soportar, previa prueba experimental, la teoría científica naciente. De manera
que el científico ha logrado separar las regularidades de los eventos azarosos simplemente a
ntíf
ei través de la identificación y reconocimientos de sus patrones de ocurrencia. Pudiendo asignar
C cantidades, magnitudes y reglas, que acompañan invariantemente al fenómeno.
s

ro
e 20.3.1.- Estimación Bayesiana de Parámetros
T
e
d
ión Se denomina razonamiento bayesiano al proceso estadístico mediante el cual, basado en
ac
rne observaciones o cierta clase de evidencias, el método de Bayes permite inferir la probabilidad de
e que determinada hipótesis resulte verdadera o falsa344. Se trata de un enfoque en el que se
G
sy
modifica una distribución previa a la luz de los resultados de un experimento. Allí, se establece
ne
or como medida de certeza de una hipótesis, una magnitud de probabilidad. En el razonamiento
ta
P aproximado Bayesiano, se llaman probabilidades subjetivas, a las probabilidades que describen
de
el grado de conocimiento o ignorancia de ciertas entidades no variables. Se determinan en base a

ic la intuición o a la experiencia previa e independiente de cualesquiera observaciones actuales o
ac
if
it futuras.
ne
dI
:a La estimación bayesiana de parámetros sienta sus bases en el razonamiento bayesiano. Allí se
ne establece la probabilidad condicional de un evento y el teorema de bayes aporta indicios para
u
bl ejecutar una clasificación diferente a la anteriormente descrita en busca de patrones. En las
a
V
na clasificaciones previas se trabajó con clasificaciones lineales, pues su modelo matemático
mi obedecía al algebra vectorial y a los análisis del mismo tipo persiguiendo evaluaciones por
o
R
distancias.

Ahora, en la estimación bayesiana de parámetros, se operará con las distribuciones de los

343 Teoría Combinatoria; Teoría Combinacional; Lógica Combinatoria o Teoría de la Posibilidad; estudia todas las formas posibles de
agrupaciones que pueden ser formadas cuando se toman todos, o algunos de los elementos de un conjunto finito. La lógica combinatoria maneja
dos conceptos de importancia: la permutación y la combinación. Según Marshall Hall (1998), una permutación consiste en una selección
ordenada de objetos desde un conjunto “S”. Contrariamente, una combinación consiste en una selección desordenada de objetos desde un
conjunto “S”.
344 Concepto tomado desde: Valbuena Roiman (2015). La Investigación Científica Avanzada: Con Introducción a los Programas de
Investigación Científica; la Investigación Internivel y el Razonamiento Artificial. Cap. V: El Razonamiento y la Ciencia más allá del ser
Humano. Sección: 5.5.1.- El Razonamiento Bayesiano. P. 128. Véase.
376

datos agrupados en los clusters, esto permitirá conocer la forma geométrica, regular o irregular
del conjunto.

Para ello es necesario entender varios conceptos: el primero, el de modelado matemático.


Todos los fenómenos en el mundo real no son auto-causados, ellos obedecen a determinado
patrón matemático que si logra conocerse, entonces permitirá describirlo, explicarlo y predecirlo.
Cada patrón y su modelo matemático en determinado fenómeno ha de presentar datos en todo su
alrededor, si se puede llamar así. Es decir, si imaginamos una figura geométrica que rodea a la
.s
aic data del evento, entonces lo contenido dentro podría estudiarse como una distribución de
tíf
partículas, y como tal, ha de investigarse qué modelo matemático se constituye en la génesis de
nie
su accionar y cómo actuará frente a otro conjunto de partículas.
sC
ría
oe Cada modelo de distribución contiene un conjunto de parámetros que ameritan ser estimados.
T
e Entenderemos como estimar al conjunto de técnicas usadas para conocer las características de un
d
nió parámetro como valor numérico aproximado. Y como parámetro, únicamente a una magnitud
ac
rne numérica que reúne las características que permitirán describir a una población, un parámetro
e normalmente se deriva del estudio minucioso de una variable estadística. Ellos especifican
G
sy cualquier constante que aparezca en el modelo y provea información sobre su mecanismo de
ne
or funcionamiento. Un modelo de distribución que use un enfoque bayesiano para estimar y
ta clasificar sus parámetros es conocido como “Modelo Condicional”, algunos autores los
P
e denominan como “Modelos Discriminativos” puesto que subyacen dentro de los análisis
d
nió
ac discriminantes.
ic
tif
ne Cuando se hacen cálculos de estimaciones estadísticas a veces resultan suficientes los límites
Id de confianza para dar credibilidad a un parámetro poblacional345. No obstante, para una mejor
:na
estimación puntual, y en busca de la detección correcta de un patrón matemático, en el siguiente
ue
alb aparte se explicará el método de estimación de máxima verosimilitud, o método de máxima
V verosimilidad de Fisher que cuando se aplica en conjunto con el razonamiento bayesiano,
na
oim permite calcular la probabilidad posterior de una hipótesis.
R

345 En el reconocimiento de patrones bayesianos existe la denominada zona de rechazo, allí un límite de confianza comienza a perder veracidad.
Comúnmente sucede que el simple uso de las reglas de decisión sobre probabilidades posteriores puedan ser computadas si se conocen las
funciones de densidad de probabilidad de la distribución de las características vectoriales para al menos dos clases. Es decir, la verosimilitud
calculada como probabilidad de “x” puede pertenecer tanto a la clase 1 como a la clase 2. Generando serios inconvenientes a la hora de tomar
decisiones. Donde, la decisión dependerá de cómo ese radio se compara contra el inverso del umbral de prevalencia. Esto se corresponde con la
regla de decisión bayesiana para mínimo riesgo. Generalizando: la regla bayesiana de decisión para mínimo riesgo se ejecuta cuando las
decisiones correctas tienen cero pérdidas y las erróneas presentan igual número de pérdidas, correspondientes a la clase con máxima probabilidad
posterior. El problema central del reconocimiento bayesiano de parámetros se presenta cuando deben tomarse decisiones en la frontera entre dos
clases de datos en apariencia distintos, ya que, el ruido presente en la data y la exactitud numérica de los clasificadores, hacen que los patrones
compartan características para ambas clases. Tomado y reinterpretado desde: J. P. Marques de Sá (1997) Sección 4.2.3. Reject Region. P. 103.
377

20.3.2.- Teorema de Máxima Verosimilitud

En la estadística bayesiana se parte del supuesto de interpretación de la probabilidad de un


evento como la medida de la incertidumbre relativa a él. En oposición al enfoque clásico de la

teoría de la probabilidad, el cual considera a la probabilidad de un evento como el límite de la


frecuencia relativa de un evento, con respecto a los casos totales. El término de Máxima
Verosimilud hace mención a un procedimiento para la estimación de parámetros de una
población, partiendo de una muestra aleatoria. De igual modo y bajo toda evidencia, la máxima
.icas
verosimilitud radica en encontrar aquel estimador o estimación que arroje mayor credibilidad.
ntíf
ei El método es aplicado cuando se conoce la forma general de la distribución de la población.
C No obstante, uno o más parámetros de la misma resultan desconocidos. Se procede entonces a
s

ro seleccionar un estimador de parámetros desconocidos cuyo valor maximice la probabilidad
e
T
e buscada. Para ello es necesaria la obtención de la función de densidad346 característica de la
d
ión población. Como una función de densidad se representa por medio de la forma de ecuación
ac
rne propia de las funciones347: [f(x; ɵ)]; donde “x” son las observaciones y “ɵ” es el parámetro
e desconocido. Entonces, se deriva la función con respecto al parámetro desconocido y se iguala a
G
sy cero.
ne
or Y, a la solución de tal ecuación con respecto de “x” se le conoce como Estimador de Máxima
ta
P
de Verosimilitud. Por ejemplo: es posible hacer “n” observaciones de “x”: X1,…X2,…X3,…Xn,…
nó a partir de una población con distribución normal, y de la cual se conoce la varianza pero no la
ic
ac media, se presenta así: [f (Varianza; Media)]; se deriva la ecuación con respecto a la media y se
if
it
ne obtendrá la estimación de Máxima Verosimilitud de la Media, antes parámetro poblacional
dI desconocido.
:a
ne
u Como el parámetro poblacional ahora no es desconocido, esto le permitirá al investigador
bl
a ejecutar una clasificación en busca de patrones fenoménicos sobre un modelo discriminatorio
V
na
probabilístico bayesiano con límites de confianza aceptables. Allí habrá dado un paso importante
mi
o en la detección correcta del patrón, edificando de esta manera, una de las columnas del sistema
R
hipotético que sostendrá a su teoría. En tal ocasión hará comparecer ante su inteligencia todos los
hechos, y usando elegantes ecuaciones matemáticas en conjunción con operaciones con
conceptos sin violación de secuencia lógica alguna, subsumirá todo en un discurso explicativo

346Una función de densidad de una variable aleatoria contínua, permite determinar la probabilidad de que la variable aleatoria “x” tome valores
dentro de un intervalo dado. Al integrar la función [F(x)] con respecto a los límites [a: b],
( ) ∫ () se obtendrá como resultado una magnitud numérica representativa de la función y acotada entre sus límites.
De esta manera será posible graficarla determinando la región que representa.
347 Los conceptos aquí descritos fueron extraídos desde: Yadolah Dodge (2008). The Concise Encyclopedia of Statistic. Editorial Springer.
378

tan amplio y coherente, que ha de tener demoledores efectos sobre quien sea objetivo de
explicación.

20.4.- Método para Clasificaciones no Paramétricas

Se define a la estadística no paramétrica, como a una colección de términos sostenidos sobre


un método de prueba de hipótesis y estimación que se considerarán ciertos bajo determinados
supuestos. Se le entiende como una rama de la estadística donde se aplican pruebas y métodos
.ntíficas estadísticos cuyas distribuciones no se ajustan a los criterios paramétricos comunes, siendo
ampliamente usadas cuando existen datos no numéricos. Las pruebas de hipótesis y de
significancia son básicamente reglas de decisión. No obstante, hay casos donde ciertas
ie
C suposiciones son imposibles de justificar por las características propias de la población.
s

ro
e En la estadística no paramétrica se usan pruebas y métodos que los hacen independientes,
T
e tanto de las distribuciones poblacionales, como de sus parámetros de asociación. Si los datos no
d
ión
siguen una distribución normal o el nivel de medida es nominal u ordinal, entonces será
ac
rne necesario aplicar pruebas no paramétricas con su consecuente inferencia. Una inferencia no
e
G paramétrica consiste estrictamente en una inferencia donde el investigador no emite una
sy
ne declaración firme sobre los valores del parámetro. En el presente aparte, y continuando con la
or
ta identificación y reconocimiento de patrones, se presentarán algunas observaciones para ejecutar
P clasificaciones basadas en supuestos de la estadística no paramétrica.
de

ic Existen 5 formas básicas de modelaje no paramétrico en el reconocimiento estadístico de
ac
if
it patrones: Densidad de estimación para el vecino más cercano; Clasificación del vecino más
ne cercano; Regresión del vecino más cercano; Densidad de Estimación de Kernel y la Regresión
dI
:a localmente ponderada. Antes de comenzar a detallar cada una es conveniente definir el concepto
ne
u estadístico de “Densidad”, o función de Densidad de Probabilidad: éste consiste en un
bl
a procedimiento que permite describir la probabilidad relativa según la cual una variable aleatoria
V
na contínua, caiga en una región específica de un espacio posible.
mi
o
R Imaginemos la idea de 16 números, del 0 al 15 (16 símbolos), imaginemos ahora la
probabilidad de que una variable “X” sea igual a cualquiera de esos números, X=5 o X=9; puesto
que no tenemos preferencia alguna por ningún número, ni hemos utilizado mecanismo de
manipulación alguna, la probabilidad de que “X” sea 5 será igual a (1/16). La no preferencia y no
manipulación es lo que hace que la variable “X” sea aleatoria en un intervalo de 16 opciones de
valores. No importa lo que suceda, “X” tomará exactamente alguno de estos valores enteros.
379

El ejemplo previo es un caso natural de los axiomas de la probabilidad pero no de los de


Densidad de Probabilidad. Ahora bien, pensemos entonces que la variable “X” no es realmente
una valor exacto (X=5), sino que su valor se aproxima a él, que lo rodea (4,99 o 5.1), es decir,
nunca llegará a tomar un valor exacto sino muy próximo. Entonces ya usted tiene una noción
sobre qué es la densidad de probabilidad denotada por p(x). Se le denomina así puesto que existe
un área cercana a X=5 a la cual se aproximará un valor de la variable aleatoria, y esto sólo
dependerá de la longitud del intervalo.

.s
afic Visto de otra manera, existe un pueblo con solo 16 casas y la suya es la número X=5,
ít sabiendo que las demás casas están en valores por encima y por debajo de la suya, piense: ¿Cuál
nie
sería la probabilidad de que cayese un trozo de piedra del cielo y golpee el suelo cerca, muy
sC
ría cerca de la casa X=5?, el trozo de piedra ha de caer en una región específica de un espacio
oe posible pero nunca en la casa, siempre cerca o muy cerca, lo que denominamos previamente
T
e espacio posible. Ok, ahora si ya ha entendido el concepto intuitivo de Densidad de Probabilidad.
d
nió
ac Continuemos entonces.
rne
e 20.4.1.- Densidad de Estimación para el Vecino más Cercano
G
sy
ne Consiste en una técnica no paramétrica para densidad de estimación usada para clasificar la
or
ta medición de la variable “X”, allí deben tomarse las “k” medidas más cercanas sabiendo que “k”
P
de será menor a la cantidad de la muestra. Estas “k” medidas se toman en los alrededores de la
nió variable, pues, la densidad en cualquier punto es inversamente proporcional a la distancia entre
ac
fic la última medida de “k” hasta el dato.
it
ne
Id El patrón puede tomar varias formas, simple por distancias o difuso. Si existe algún
:na condicional de densidad “y” dado “X”, entonces han de tomarse las “k” distancias más cercanas
ue
alb y usarse con ellas un algoritmo de recursividad para calcular la densidad de “y”. Cuando se está
V trabajando con patrones simples, estas estimaciones no siempre serán satisfactorias y podrán ser
na
sustituidas por densidades verdaderas (usando estimadores), posterior a este primer proceso es
oim
que se diseña el clasificador.
R

20.4.2.- Clasificación del Vecino más Cercano

Este segundo procedimiento es utilizado para predecir la clase de un objeto. Para cuando se
intenta dar clasificación a las medidas de “X” tomadas a partir de las “k” medidas más cercanas,
han de seleccionarse las clases cuantitativamente más grandes entre ellas. Este método puede
acarrear el uso de “k” medidas inservibles o irrelevantes pero que pertenecen a la clase, por ello
380

siempre es bueno combinársele con otro criterio como el de selección por características y no por
datos basados en distancias únicamente.

20.4.3.- Regresión del Vecino más cercano

La técnica de regresión basada en el método del vecino más cercano (k-NN) (“k” medidas del
Nearest Neighbors), consiste en una técnica no paramétrica para aplicar regresión, una regresión
no paramétrica es una técnica usada también para correlacionar data recursiva. Su fin es ejecutar
.s una regresión sobre la variable independiente. Esta técnica es muy efectiva en la identificación
afic
de patrones de ocurrencia, ya que parte del supuesto de que es posible estimar el valor de un dato
ít
nie desconocido a partir de las características del/los vecino/s más próximos, basados en reglas de
sC
similitud o distancia. (Morales, Mora, & Vargas, 2008).
ría
oe
T Su teoría descansa en otro supuesto basado en la idea de que mientras más vecinos sean
e
d estudiados mejor, por consiguiente, se brinda inmunidad ante el ruido y se suaviza la curva de
nió
ac estimación. El método permite interpretar el cómo los valores de la variable respuesta “Y”
rne
dependen de los valores del vector observación “X”.
e
G
sy De allí se obtendrá la función de estimación por regresión no paramétrica buscada,
ne
or pudiéndose encontrar el espacio predictor dependiente “X”. Un modelo para k=1; k= 25 o k= 50
ta
P puede representarse de la siguiente manera: (1: NN); (25: NN) y (50: NN). Significa que, en el
e
d primer caso se utilizó un solo vecino, en el segundo 25 y en el tercero 50. Su gráfica ha de
nió
ac corresponderse con una campana de Gauss con un punto central y los datos estarán dispersos en
ic
tif su centro y sus colas laterales. Allí se le asignará mayor importancia a los datos más cercanos,
ne
Id denotados por vectores de distancia al punto de referencia definido por la función de densidad.
:na
ue El método se soporta en un algoritmo simple capaz de almacenar todos los casos variables
alb (unidades de medición), y predecir un objeto numérico sencillamente cotejando medidas
V similares. Los métodos de regresión, lineal simple y múltiple, son usados al igual que las series
na
oim temporales en estudios predictivos. Acaece, no obstante que, debe prestarse sumo cuidado con el
R tipo de variables en estudio.

En regresión lo ideal ha de ser variables numéricas aunque se use un modelo no paramétrico.


Análogamente, si existen variables categóricas es recomendable usar la distancia de Hamming,
que es una medida del número de casos en los que los símbolos correspondientes son diferentes
en dos cadenas de igual longitud.
381

20.4.4.- Densidad de Estimación de Kernel

La Densidad de Estimación de Kernel348 (KDE), consiste en una técnica no paramétrica de


la estadística multivariada usada para estimar la probabilidad de la función de densidad de una
variable aleatoria. En muchos casos puede ser vista como una generalización de un histograma,
pues, maneja datos concentrados en una región muy pequeña. Desde el punto de vista de la
matemática, un histograma es un estimado de una densidad de función subyacente para una
.s variable “x”, la cual representa la cantidad a ser calculada.
ac
if
ít La meta central de una estimación de densidad de kernel consiste en el reemplazo de cada
ne
i dato del kernel de alguna distribución, y cuyo resultado estimado será la suma de todos sus
C
rías
kernel. Para la estadística bayesiana, en una densidad de estimación de kernel se omitirá
oe
cualquier factor que no se corresponda con una función o alguna variable en el dominio. De esta
T
e
d manera se logran extrapolar datos para un estimado de función de probabilidad de densidad.
ión
ac
rne Los kernels pueden graficarse de manera que pueden reproducir los espacios de Hilbert, y
e consisten en un estimador de densidad para una función, es decir, se trata de un parámetro “k”
G
sy correspondiente a una función no negativa cuya integral es igual a uno y su media es cero. Suele
ne
or presentar problemas al generalizar o realizar inferencia puesto que se basa en una colección
ta
P finita de datos. No obstante y aunque su uso es esporádico, no muy común, si se usa
de adecuadamente permite al científico la captura de patrones matemáticos interesantes.

ic
ac 20.4.5.- Regresión Localmente Ponderada
if
it
ne
dI Consiste en una técnica no paramétrica de regresión muy similar a la densidad de estimación
:a de kernel. Se usa para precisar los valores de una variable dependiente “y” desde una
ne
u independiente “x”. Esta técnica se basa en el supuesto349 de que es posible calcular una línea de
bl
a
V regresión ponderada a partir del peso de “x” y sus efectos sobre “y”. Según el (Everitt &
na
mi Skrondal, 2010): Es un método de análisis de regresión en el que los polinomios de grado uno
o (lineal) o dos (cuadrática) se utilizan para aproximar la función de regresión en particular
R
“Vecinos” del espacio de las variables explicativas. A menudo útil para suavizar diagramas de
dispersión para permitir que cualquier estructura se vea con mayor claridad y para identificar
posibles relaciones no lineales entre la respuesta y las variables explicativas.

348 La densidad de estimación de kernel es de amplio uso en las ciencias biológicas y médicas, en cardiología es usada para clasificar ritmos
cardíacos e identificar fibrilaciones auriculares en busca de desórdenes en el funcionamiento del corazón.
349 Este supuesto no es determinista, es decir, no siempre se cumple. Existe infinidad de casos donde a través de la observación de un simple
diagrama de dispersión, es posible notar la diferencia entre una regresión lineal por el cálculo de los mínimos cuadrados contra una regresión
localmente ponderada. Para más detalle investíguese sobre: Suavizamiento de Kernel de Regresión.
382

Como técnica, es básicamente una generalización de algoritmos de suavizamiento para


gráficas de dispersión. Cualquier modelo de regresión entra en el plano de los clasificadores
lineales, allí se asignan atributos y valores a las clases ya definidas. Uno de los supuestos en los
que descansa la teoría de la regresión localmente ponderada es que es posible crear modelos de
regresión que relacionen valores característicos a clases específicas. La técnica produce valores
cuya suma residual es más pequeña que la suma de los cuadrados. Pues, es bien conocido que los
modelos lineales se usan para datos muy diferentes a los modelos cuadráticos.

.s
aic 20.5.- Generación de Teorías Post Observación y Cotejo de Patrones
tíf
nie Finalizada la temática previa, comencemos este aparte definiendo lo que en esencia es una
sC
ría teoría científica, a ésta se le asume como una cadena de enunciados o postulados lógicos que se
oe usa para explicar todo aquello que pasa, interacciona o sucede en una dirección sobre
T
e
d determinado fenómeno. Pues, el científico sólo consigue entendimiento a través de una secuencia
nió lógica de aproximación y sistematización del evento bajo estudio. Las teorías no solo provienen
ac
rne de una minuciosa calibración de los sentidos a través del acto observacional, sino que, le admiten
e a seguir indagando cuando sienta dudas. Una teoría científica no es más que una idea del cómo
G
sy algo trabaja, en efecto, ese algo se construye a través de un extenso corpus explicativo donde se
ne
or criban ideas y derivan inferencias.
ta
P
e Pero, ¿de dónde vienen esas ideas que tan magníficamente el agente científico ha colocado en
d
nió su mente?, a saber, no provienen de otro lugar más que de la experiencia obtenida post
ac
ic observación y cotejo de patrones. Familiarizado como ya lo está, con cada unidad fenoménica,
tif
ne construye la teoría basada en lo ya conocido sobre el problema indagado. Ha intervenido en la
Id
:na variable intentando establecer relaciones, ahora es capaz de distinguir entre la data cualitativa y
ue la cuantitativa, todo ello le ha permitido construir conocimiento y proveer razonables
alb explicaciones sobre lo observado.
V
na
Como ya está listo para generar teoría a partir de la data emergente, entonces digamos que
oim
son diversos los errores que en este punto puede cometer. Si desea cuidar su reputación científica
R
debe prepararse intelectualmente para emitir inferencias inequívocas, ya que, bastará un solo
error en su formulación para que esta resulte refutada de manera inmediata. Y allí nos
centraremos. En el constructo teórico debe aparecer bien claro y terso al intelecto el modo de
razonamiento empleado en la construcción de su teoría.

Si bien es cierto, toda aquella labor que el científico ejecute en función de desarrollar
conocimiento puede ser entendida como andamios para la edificación de teorías, no es menos
383

cierto que primero deberá construir el andamio y luego edificar su teoría. Nunca al revés.
Entiéndase andamio como al sistema de hipótesis, si éste es débil, su teoría también lo será.

El agente científico podrá formular enfoques propios y principios metateóricos que puedan
proveerlo de modelos conceptuales del fenómeno indagado. Para tal modelo necesitará
especificar indirectamente el modo de razonamiento empleado, hipotético deductivo, hipotético
inductivo o razonamiento abductivo350. Se recomienda al agente científico llevar manuscritos
teóricos, síntesis teóricas y modelos conceptuales explicativos puros o explicativos causales,
.s ellos le servirán para hacer auto-revisiones y no caer en la falacia de la causa falsa. O ejecutar
aic
tíf explicación espuria de algún evento importante para el sostenimiento de la teoría.
nie
sC Como ya el científico está en la capacidad de analizar e identificar los eventos puntuales que
ría
oe conforman los patrones fenoménicos, y más allá, es capaz de discriminar cosas y clasificarlas
T según criterios, entonces es bueno que revise constantemente su forma de ver el problema. Pues,
de
nió digamos que son diversas las formas de verlo cuando ya se es experto en identificación de
ac
rne patrones. Con tal experticia, ahora puede detectar un problema en su problema, digamos que ha
e detectado un nuevo sub-problema cuando, siendo clara las relaciones entre las observaciones y la
G
sy teoría que lo explica, surgen discrepancias antes no observadas entre lo que es y lo que debe ser.
ne
or Si hizo observancia de patrones determinísticos en el fenómeno, ha de recurrir a la teoría
ta
P reduccionista para ejecutar una explicación clara y cortes de las interacciones fenoménicas. Visto
de
nió que un patrón determinista por lo general obedece a una o más leyes matemáticas, entonces la
ac
ic verdad planteada será confinada a las leyes científicas inherentes. Para finalizar y si por el
tif
nde contrario desea hacer uso de modelos explicativos, Thagard (2000, p. 43), maneja 3 criterios
I interesantes: sencillez, amplitud y analogía.
:na
ue Es decir, la edificación de una teoría científica debe ser primeramente sencilla, pues una
alb
V teoría difícil de entender no ha sido suficientemente abordada. La amplitud hace referencia a lo
na que se describe en el capítulo de las teorías científicas en este mismo texto y se le denomina
oim
Completitud, quiere decir, ha de ser exhaustiva y abarcar todos los eventos del fenómeno, sin
R
excluir ninguno, además, nada debe quedar sin ser explicado. Y para la analogía, a continuación
el autor presenta siete consideraciones de importancia:

1. Simetría: La coherencia explicativa es una relación simétrica, a diferencia de, por ejemplo, la
probabilidad condicional. Ese es decir, dos proposiciones p y q son coherentes entre sí por igual.

350 Para mayor detalle sobre estos procedimientos revísese el Capítulo VI referido a las hipótesis e inferencias científicas en este mismo texto.
384

2. Explicación: (A) Una hipótesis es coherente con lo que se explica, que puede ser o bien
evidencia u otra hipótesis. (B) Las hipótesis que en conjunto explican alguna otra proposición
son coherentes entre sí. (C) Mientras más hipótesis se usen para explicar algo, menor será el

grado de coherencia.

3. Analogía: hipótesis similares que explican similares piezas de evidencia coheren entre sí.

4. Prioridad de datos: Las proposiciones que describen los resultados de observaciones tienen

.s cierto grado de aceptabilidad entre ellas.


afic
ít 5. Contradicción: las proposiciones contradictorias son incoherentes entre ellas.
nie
sC 6. Competencia: si entre p y q ambas explican una proposición, y además no están
ría
oTe explicativamente conectadas, entonces p y q son incoherentes entre ellas; estarán
explicativamente conectadas si, entre p y q una explica a la otra, o juntas explican algo.
de
nió
7. Aceptancia: la aceptabilidad de una proposición dentro de un sistema de proposiciones
ac
rne dependerá de la coherencia entre ellas.
e
G
sy
ne
or
ta
P
de
nió
ac
fic
it
nde
I
:na
ue
alb
V
na
mi
o
R
Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos
Roiman Valbuena 2017.

CAPÍTULO XXI. EL MÉTODO EN LA


FÍSICA TEÓRICA...

El espacio dice a la materia cómo debe moverse, la materia con su gravedad le dice al espacio
cómo debe curvarse.

John Archivald Wheeler.


386

21.1.- La Física Teórica

… ahora quiero desviar mi vista por un momento al desarrollo


del Método Teórico, deseo hacerlo especialmente para
observar la relación entre teoría pura y la totalidad de los
datos de la experiencia… allí se encuentra la antítesis eterna de
los dos componentes inseparables del conocimiento humano, la
Experiencia y la Razón dentro de la esfera de la física…
utilizan,
elusted desea
permítame
i descubridor aprender
en este sobre
campo,
advertirle: Albert Einstein.

física teórica y todo sobre los Métodos que en ella se

S <<No escuche sus palabras, Examine sus logros>> Para


los efectos de las construcciones en su imaginación son
tan necesarios, y deben parecer tan naturales, que serían aptas para ser tratadas no como
creaciones de sus pensamientos, sino como realidades realmente dadas. Albert Einstein351
(1934). Según James Clerk Maxwell, todas las ciencias matemáticas se basan en las relaciones
entre las leyes físicas y las leyes de los números, por lo que el objetivo de la ciencia exacta es
reducir los problemas de la naturaleza a la determinación de las cantidades mediante
operaciones con números. Así opera la física teórica.

A la Física Teórica puede concebírsele, como una de las ramas de la física donde sus
científicos realizan estudios tendentes a dar explicaciones sobre eventos naturales apoyándose
sobre modelos matemáticos y generalmente computarizados. Buscan comprender los fenómenos
físicos para luego elaborar teorías que les permitan no solo predecirlos, sino, desarrollar modelos
estructurales de sistemas completos, aplicando a la vez, un raciocinio máximo sobre la realidad
física observada.

Sin duda alguna, la Física Teórica es la ciencia más antigua y desarrollada en cuanto a la
conformación de una estructura teorética innegablemente precisa, pudiendo ésta responder a
través de los años a muchas interrogantes en su campo. Es asombroso el cómo sus científicos
pueden dar respuestas a preguntas como: ¿Por qué brillan las estrellas?; ¿Por qué el cielo es azul
y el agua un fluido?; ¿cómo se produce electricidad?; ¿Cómo se creó el universo?; ¿Qué es la
radiación? o ¿Qué son los agujeros negros?

Los Físicos Teóricos no son diferentes a los teoristas de las ciencias humanas, no obstante,
mientras que el avance en las ciencias físicas se ha producido a través de una aplicación

351 Tomado Del Prólogo de la obra: On the Method of Theoretical Physics. Autor, Albert Einstein (1934; pp. 163-169). Philosophy of Science,
Vol. 1, No. 2. Published by: The University of Chicago Press on behalf of the Philosophy of Science.
387

sistemática de propuesta teórica y refutación experimental, en las ciencias humanas se ha


sucedido de otra manera. Esta es ideográfica, no crea leyes ni postulados generales, allí no se
refutan teorías, sólo tienden a dejárseles a un lado y olvidárseles. Son un modelo de racionalidad
científica dirigido al estudio del ser humano como un todo.

La física es una ciencia tanto teórica como experimental, sus científicos observan la
naturaleza y a través de su comportamiento intentan explicar las leyes que la rigen. Notable es la
diferencia entre Físicos Teóricos y Experimentales, los primeros se encargan de elaborar y
concatenar el conjunto de ideas lógicas que darán origen a postulados e hipótesis, los cuales
subsecuentemente, les permitirán construir teorías axiomatizadas. Los Físicos Experimentales
por su lado, conducen experimentos y colectan datos para confirmar las predicciones de los
teóricos. Pese a que, en otros tiempos, los experimentalistas colectaban primero la data y los
teoristas intentaban dar explicación racional a los resultados.

.a En cuanto a la relación teoría-praxis y de acuerdo a la lógica y al sentido común, la teoría es


ric
óTe por naturaleza opuesta a la práctica. El experimentador presupone factibilidad al ejecutar un

asic experimento de la prueba que se le solicita, relacionándolo al principio de causalidad, donde todo
í antecedente entraña su consecuente. Planteado de esa manera, en toda ciencia que se intente
aF
L
:a programar actividades del tipo propositivo orientadas a la articulación de un sistema teorético, se
nue ha de entender bien el precepto <<La teoría siempre precede al experimento>> de hecho es
bl imposible teorizar en su ausencia.
a
V
na
im Esta sección, dedicada exclusivamente a la Física Teórica, busca asociar dos elementos de
o
R importancia e inseparables dentro del campo de la investigación científica y la esfera
tecnológica; el primero consiste en describir detalladamente el cómo estos científico generan,
contrastan y refutan teorías, modelos que pueden ser seguidos por estudiosos de las ciencias
sociales y tecnólogos. Por último, los avances en el desarrollo de la física en épocas recientes ha
incrementado el progreso tecnológico, así como, sólo han sido posibles grandes avances en la
física gracias a la sofisticación de procesos mediante el uso de tecnologías avanzadas.

Lo que se hace conveniente detallar y explicar sus relaciones puesto que la física y la
tecnología se complementan entre sí. Se pide al lector, paciencia durante el avance de la lectura,
lea tan sosegada y pausadamente como le sea posible. Se recomienda la revisión inmediata de las
citas a pie de página al momento de encontrarlas, éstas precisan los temas bajo estudio sin
desviar el sentido orientatorio del desarrollo expositivo que se pretende. Se intentará explicar lo
más sencillamente posible, los contenidos y relaciones entre ellos, procurando simplificar el
388

nivel de abstracción sin sacrificar exactitud ni objetividad descriptiva.

Téngase en cuenta que a la Física Teórica sólo es posible comprendérsele mediante el uso de
enunciados matemáticos, éstos últimos, también se dilucidarán, destinándose para ello un
lenguaje técnico exhaustivo no complejizante. Aclarado el asunto, a continuación se mencionan
los conceptos, categorías y elementos que componen a la física teórica, así como, diversos
enfoques metodológicos tendentes a desarrollar sus teorías.

La Física consiste en el estudio del mundo material, es la ciencia fundamental de la materia.


Se encarga de buscar reglas generales y patrones que permitan describir el comportamiento del
universo desde su creación. Esta ciencia se basa en la observación experimental y en la
cuantificación de medidas. Se centra en la identificación de determinado número de leyes
fundamentales que rijan, gobiernen o intervengan en los fenómenos naturales. Busca el
desarrollo tanto de teorías como modelos matemáticos que permitan predecir resultados a
.a experimentos.
ric
óTe
En su historia nunca se han ocultado las discrepancias, notables y marcadas, entre el modelo
asic
predictivo bajo las condiciones de la teoría, contra los resultados de un experimento. La física
í
aF como ciencia fáctica genera conclusiones totalmente verificables. Toda teoría no solo en física,
L
:a sino, en cualquier área de conocimiento, ha de generarse en función de describir y predecir
nue
bl eventos que puedan ser observados y medidos. No existe proceso más importante dentro de la
a
V actividad científica que el derrocamiento de teorías erróneas. Para ello es necesario un método,
na
im es decir, un procedimiento razonado, sistemático y estable, organizado por pasos y reglas que
o
R permitan alcanzar un fin, es por ello que los Físicos Teóricos aplican el método de las
matemáticas al estudio de la naturaleza.

A principios del siglo XX, David Hilbert comenzó con sus intentos de adoptar a la física
como una disciplina científica pero desde el punto de vista matemático. Para ello debía
esclarecer sus fundamentos y posteriormente formalizarla, pero desde una perspectiva cartesiana,
es decir, geométrica. De ser esto posible, entonces podría conseguirse una física axiomatizable y
demostrable352, tal como sucede con los más sofisticados argumentos de los geómetras, Radaña
(2003).

Centró sus trabajos en Física-Matemática con aportes sobre: Ecuaciones de Campos


Electromagnéticos; Gravitación y Mecánica Relativista. También hizo estudios sobre Teorías
Formales y Teoría de la Demostración. El muy famoso y denominado problema número 6 de

352 De esto se trata el denominado problema número 6 de Hilbert. Los otros 5 se derivaban de los axiomas de Euclides.
389

Hilbert se titula: Tratamiento Matemático de los Axiomas de la Física, con esto dio luz a muchos
Teoristas Físicos para los procesos de deducción y concatenación con la axiomática, su
formulación se escribe así:

Las investigaciones en los fundamentos de la geometría sugieren el siguiente


problema: tratar de la misma manera, por medio de axiomas, aquellas ciencias físicas
en las que las matemáticas jueguen un papel importante. En primer lugar, la Teoría
de las Probabilidades y la Mecánica. Radaña op, cit (p. 648).
Para el autor, esto tiene sus antecedentes cuando Newton, bajo sugerencias de Halley, se
decide a escribir un libro de Mecánica desde una perspectiva matemática, para ello toma el
modelo de Euclides. La geometría Euclidiana es considerada como una de las primeras teorías
físicas por la forma en que describe líneas y espacios. Hilbert, al igual que Popper, Bunge y
Lakatos, sostuvo que la independencia y total ausencia de contradicción eran criterios
fundamentales para una axiomática – matemática, y por ende, para una correcta estructuración de
cualquier Teoría Física.
.a
ric
óTe Axiomatizar la física es diferente a matematizarla, la física por ser ciencia natural debe
asic desarrollarse basada en datos experimentales. Sin embargo, Hilbert al igual que Einstein,
í plantearon que las leyes de la física son expresables en lenguaje matemático, esto es
aF
L matematizar. Axiomatizar implica la acción de demostrar, bajo formalismo matemático y
:a
nue adecuado a los experimentos, todas las leyes que gobiernan a la naturaleza. En función de ello
bl
a estableció lo siguiente:
V
na
im La geometría es una ciencia que se ha desarrollado hasta un nivel tal que todas sus
o propiedades pueden ser obtenidas por deducción lógica a partir de otras propiedades
R
previamente admitidas. Se trata de una situación muy diferente a lo que ocurre por
ejemplo, con la teoría de la electricidad o la óptica, donde incluso actualmente se
siguen descubriendo nuevos hechos. Radaña (P. 650).
Para dar inicio y como epítome al Método Teórico en Física, necesario es conocer la
interacción entre cuatro componentes fundamentales de la física clásica; la energía, la materia, el
tiempo y el espacio. Desde el punto de vista filosófico, la física contiene, además de las cuatro
categorías antes mencionadas, otras dos, la causalidad y la casualidad, que más adelante abordo.
390

21.1.1.- La Energía

Con respecto a la Energía, se le concibe como la capacidad que posee un sistema para
realizar trabajo. Existe bajo diversas formas, la producida por el calor, la energía cinética o la
mecánica, e incluso la luz tiene su forma de energía. De acuerdo a la ley de conservación353 de
la energía, esta no se crea ni se destruye, simplemente sufre transformaciones. La teoría cinética
explica las propiedades de los tres estados de la materia: sólido, líquido y gaseoso, a través del
movimiento de las partículas que los componen.

Al referirnos a los sólidos pensamos en algo que posee masa, volumen y forma ya definida.
Un sólido normalmente presenta alta dureza, sus partículas por estar bastante cercanas una de
otras muestran la propiedad de manifestar intensas fuerzas de atracción. Estas partículas por estar
confinadas se les hacen imposible su movimiento e interacción de las unas con las otras,
entonces no les queda más que vibrar alrededor de sus posiciones fijas en la estructura que
.a conforman.
ric
óTe
Los líquidos, al igual que los sólidos, también presentan un volumen fijo más no así su forma,
asic
ésta ya no se puede decir que está definida y la adquirirá dependiendo del recipiente que lo
í
aF contenga. Las partículas en un líquido no se puede afirmar que están tan cerca como las de un
L
:a sólido. Más sin embargo, están relativamente cerca y poseen más energía, además pueden
nue
bl moverse entre ellas. Los gases por su lado, conforman un estado de la materia que reacciona
a
V
na particularmente al aplicársele energía, por sus características, los sólidos y los líquidos son
im medianamente complejos de comprimir, ahora, la compresión en los gases es más fácil de lograr.
o
R
Comprimir, es decir, la acción y efecto de hacer presión hace que un gas reduzca su volumen,
los gases tienden a llenar todo el recipiente que los contiene a través de su difusión. El
movimiento continuo de las partículas de un gas también es explicado por la teoría cinética. El
Principio de Avogadro establece: <<Volúmenes iguales de gases diferentes, medidos en las
mismas condiciones de presión y temperatura, contienen el mismo número de partículas>> Su
presión es resultado del choque entre partículas contra las paredes del recipiente. Para la física
teórica, un gas en estado libre, es decir, sin confinamiento alguno, presenta cierta dinámica y
distribución en el espacio descriptibles a través de la teoría de campos.

Allí es común el uso de la mecánica estadística estudiando la forma de distribución de sus

353 Emmy Noether (1882-1935), propuso en 1918 uno de los teoremas de la física teórica y la mecánica estadística más relevantes en la historia
de estas ciencias, en tal se afirma: “Cualquier sistema diferenciable a partir de un sistema físico le corresponde una ley de conservación de la
energía. A cada simetría contínua le corresponde una ley de conservación y viceversa”. Teorema (Noether): A toda transformación continua de
las coordenadas y/o los campos que deje invariante la acción en un volumen cuadridimensional le corresponde una corriente conservada en
la evolución que cumple =0.
391

partículas para ajustarlas a determinada ecuación de campo. Para ello es normal que se use,
siempre que se refiera a partículas, la Distribución de Fermi Dirac; la Distribución de Maxwell
– Boltzmann; o la Distribución Einstein – Bose. Ésta última describe el comportamiento
estadístico de partículas con espín entero, es decir, los denominados Bosones354.

21.1.2.- La Materia

A la Materia por su lado, se le define como aquella substancia que ocupa un espacio, posee
tamaño, forma, peso, movilidad y solidez. Todo objeto físico se compone de materia, su forma
unitaria de análisis, el átomo. Compuesto éste de protones <<subpartículas con masa y carga
eléctrica positiva>>, neutrones <<subpartículas sin carga neta y presente en la mayoría de los
átomos>> Por último, los electrones <<subpartículas que rodean al núcleo atómico y con carga

eléctrica negativa>> Es de resaltar que el estudio profundo y sistemático de los núcleos atómicos
y su interacción, da origen a la física nuclear.
.a
ric La materia puede existir de varias formas o fases, líquido, sólido y gas. Sin embargo, el
óTe
plasma o estado plasmático, es una distinta fase de la materia, se trata de un conjunto de
asic
í partículas cargadas que responden a campos electromagnéticos. El continuo calentamiento causa
aF
que las moléculas se separen en átomos, si el vapor se calienta más allá de ≈ 2.000ºC, los
L
:a
nue átomos mismos serán apartados, entonces un gas compuesto de electrones libres y núcleos
bl desnudos se formará y será llamado plasma. También se le conoce como materia radiante.
a
V
na
La materia y el universo están vacíos. Si se observa la inmensidad del universo contra sus
im
o diminutas partículas componentes, podrá vislumbrarse que el universo no puede sino, estar
R
vacío. Las cosas se forman a través de las ideas de ellas, se usan conceptos y se transmiten como
información. Los objetos materiales que componen el universo nunca se tocan, es decir, los
átomos que conforman a cada uno nunca entran en contacto. Como materia es todo lo que existe,
ésta presenta diversas formas. A cada presentación se le denominará estado; sólido; líquido; gas

y plasma.

Como la energía no se crea ni se destruye, solo se transforma, al aplicarla suficientemente a

354 En física de partículas existen dos tipos de partículas elementales, los Fermiones y los Bosones. Los Leptones, Quarks y Bariones son
Fermiones. Mientras que Mesones y Fotones son Bosones. Se les denomina así sobre la base de los espines de cada partícula, que pueden ser
enteros o semi-enteros. Las partículas que tiene un número de espín entero reciben el nombre de Bosones y siguen la estadística de Einstein –
Bose; mientras que las que lo tienen semi-entero se denominan Fermiones que siguen la estadística de Fermi – Dirac. En sentido amplio, podría
decirse que los Fermiones son los ladrillos que construyen los núcleos y los átomos, mientras que para los Bosones, queda la tarea de transportar
las interacciones fundamentales. Tomado desde: Millenium: Enciclopedia Temática Círculo. (2000). Tomo 1. Nota del autor: Para el año 2013,
Peter Higgs y François Englert reciben el premio nobel de física por sus aportes teóricos en el descubrimiento, a través de la física teórica, del
bosón de Higgs. Que contribuye a entender y comprender el origen de la masa en las partículas sub-atómicas, por tanto, en el universo. El bosón
de Higgs es la única partícula que se ha podido predecir a través del modelo estándar de la física de partículas. La religión afirma que todo lo que
existe es creación de dios. La teoría del bosón de Higgs acaba con esa creencia al proponer la existencia de un campo de Higgs, y que éste estaría
conformado por un incontable número de bosones de Higgs. Y, donde la masa sería un efecto cuya causa tendría su origen en la fricción de las
partículas con el campo de Higgs, extendiéndose infinitamente en el universo.
392

una roca esta puede derretirse. Al aplicar energía a un líquido éste se evaporará, y el plasma no
es más que un gas a altas temperaturas. Lo que diferencia a un estado de otro son básicamente las
distancias, medidas en la escala de Planck, que separa a sus átomos componentes. Preste
atención, los átomos en una roca, por ser sólida, estarán bastante cercanos355 y unidos los unos
con los otros. En los líquidos se presenta una densidad con cercanía menor a la de los sólidos.

En los gases, los átomos se separan al aplicárseles energía e interactúan con el calor, allí su
comportamiento es errático y se les modela a través de la teoría de campos cuando hay presencia
de electrones. La parte de la física que estudia la acción mecánica, interacciones físicas, entre el
calor y las restantes formas de energía se denomina termodinámica. Entonces, toda materia
puede convertirse en energía, y a su vez, la energía puede convertirse en materia.

21.1.3.- El Tiempo

El Tiempo, consiste en una magnitud física que permite medir y cuantificar la duración de
.a
ric
determinado fenómeno o la separación intervalar de dos acontecimientos que puedan ser
óTe
observados, y por tanto, sean susceptibles a cambio. El mundo espacio-tiempo, según la
asic
Mecánica Newtoniana, consiste en la sucesiva situación en el espacio de determinada partícula a
í
aF
L sucesivos momentos del tiempo, denominándolos intervalos temporales. Según Einstein y
:na
Hawking; el tiempo no existe. Pues, obedece a los estímulos cerebrales captados desde los
ue
alb sentidos y nada tiene que ver con la física. El ser humano los usa para distinguir el movimiento
V de la materia en el universo.
na
im
o Es relativo, ya que el tiempo no afecta o actúa sobre la materia que se desplaza cercana a la
R
velocidad de la luz. Cuando alguna materia alcanza esta velocidad, a su alrededor todo se vería
en cámara lenta. El tiempo se divide en pasado, presente y futuro. No existe ni el pasado ni el
futuro, sólo el presente. No existe el tiempo, sólo el movimiento. Con el tiempo se capta,
compara e interpreta el movimiento de la energía en el universo. Existen límites para el mundo
externo al hombre, pero no para su interno, no existen límites mentales para pasado, presente o

futuro, ya que el hombre tiene la capacidad de imaginarse el infinito. Para el físico teórico, el
espacio y el tiempo se corresponden con un mismo e indivisible sistema, y así los estudia.

Los teoristas físicos hacen uso común del denominado tiempo de Planck o Cronón cuando
abordan investigaciones donde concurran elementos medibles dentro de los intervalos de la
mecánica newtoniana y la cuántica, a este se le asume como el intervalo temporal más pequeño

355 Esta característica de cercana se mide realmente por las denominadas escalas de Planck y su distancia de Planck.
393

que puede ser medido. Se denomina Cronón al tiempo que tarda un fotón356, desplazándose a la
velocidad de la luz, en atravesar una distancia de Planck.

√ ()
=

Tp= tiempo de Planck→ () Segundos.

ħ= constante de Planck = 1.054571628 (53) ×10 -34JxS. La constante de Planck357 se mide, en


este caso, en Joule por Segundo.

G = constante de gravitación universal →

C= Velocidad de la luz en el vacío → 3x108 metros/segundos.

El tiempo sirve como unidad de referencia para movimientos y fuerzas, los físicos afirman
.a
ric que por sí solo representa a una dimensión. La ciencia hasta el momento no ha podido dominar
óTe el tiempo, se presume que en esa dimensión existen fenómenos emergentes cuyos procesos
asic
ameritan ser indagados. Fue Einstein en (1905 y 1917), quien introduce los conceptos de lentitud
í
aF del tiempo <<Dilatación del Espacio Tiempo: aparente ralentización de tiempo para un objeto
L
:a que se mueve a velocidades relativistas>> asociado a los movimientos de la gravedad.
nue
bl
a Basta hacer revisión de su Teoría de la relatividad General y Relatividad Especial. El ser
V
na humano tiende a asociar las medidas de velocidad con una magnitud abstracta llamada tiempo. A
im
o través de ésta es posible la comparación de movimientos conocidos con movimientos
R
desconocidos.

El tiempo no puede tener una existencia independiente en lo absoluto, sólo aparenta ser la
unidad común para medir movimientos, haciendo creer a la mente que el mundo está cambiando
constantemente y haciendo más fácil la descripción de los fenómenos. Entiéndase a fenómenos
como todo lo que se descubre en los cuerpos y es captado por los sentidos. En Física Teórica,
actualmente uno de los campos más estudiados tiene que ver con la interpretación del tiempo
que plantea la teoría de la relatividad. Controlar viajes a través del tiempo ha sido, desde época
inmemorial, la utopía de decenas o miles de científicos.

356 Consiste en la unidad básica de la radiación electromagnética, representa un corpúsculo de luz. Aunque no tiene ni masa ni carga eléctrica, su
energía se produce, transmite y absorbe. Es la partícula encargada de transportar todas las formas de rayos electromagnéticos conocidos: rayos X,
Gamma; luz ultravioleta entre otros.
357 Este valor representa a la constante de Planck reducida. Existen otros valores asignados a la constante de Planck dependiendo de las
constantes implicadas en las ecuaciones. A Planck se le reconoce ampliamente el descubrimiento del “Cuanto de Acción”. Denomínesele a esto a
la multiplicación de la energía necesaria o energía empleada por el tiempo empleado para producir el movimiento del cuanto de acción. En otras
bibliografías podrá encontrarse esta ecuación de diversas maneras, cuando sus variables corresponden a frecuencia, longitud de onda o sus
medidas se ejecutan en función de radianes por segundo.
394

No obstante, la realidad muestra que ya ese deseo dejó de ser utópico, en 2013 un grupo de
científicos austríacos y estadounidenses lograron teletransportar fotones, partículas sin masa, tal
como lo delimita la teoría de la relatividad. La transportación entre dos nubes de átomos a través
de un haz de luz láser a 50 centímetros de distancia fue ejecutada recientemente por científicos
del instituto Niels Bohr de la Universidad de Copenhague. Las investigaciones sobre el tiempo y
espacio hasta el momento no se han detenido.

21.1.4.- El Espacio

Se le asume como el lugar que ocupa cada objeto, así como, la distancia o separación entre
dos cosas. Según Einstein, el espacio como lugar, corresponde a la posición de un cuerpo entre
los demás cuerpos. En física, el espacio se estudia relacionándolo siempre con el tiempo, lo que

produce una relación espacio-temporal. La relación espacio-tiempo se basa en un sistema de


coordenadas cuatridimensionales.
.a
ric Es decir, tres dimensiones: largo, ancho y profundidad, son coordenadas espaciales y
óTe
dependientes todas de una coordenada temporal. Según Bunge (2001), el espacio y el tiempo
asic
están estrechamente relacionados pero no es posible la trasformación del uno en el otro. Asume
í
aF al espacio-tiempo como la estructura básica de la colección de todos los eventos, es decir, los
L
:a cambios de estado que presentan las cosas materiales. No obstante, la Teoría de Cuerdas
nue
bl plantea la existencia de muchas más dimensiones, un espacio multidimensional, pero son sólo
a
V estas 4 las que son posible observarse358.
na
im
o El espacio consiste entonces, en una multiplicidad extensa de varias dimensiones, donde el
R
número de dimensiones corresponde al número de magnitudes variables necesarias para
especificar una localización en la multiplicidad; en concreto, la multiplicidad tridimensional en
la que se ubican los objetos físicos y con respecto a la cual se define sus posiciones relativas y
distancias.

La unión espacio – tiempo refiere a un término como continuo tetra-dimensional y donde son
combinadas las tres dimensiones espaciales con el tiempo, como forma de lograr una
representación matemática y geométrica de los diversos tipos de movimientos, de allí surgirán
conjeturas para soportar las diversas teorías que puedan ser concebidas.

Para Karl Pearson (1900, p. 155), Leibniz especifica espacio como el orden de la posible

358 En Física Teórica recientemente se han hecho populares los estudios donde se hace uso de los Espacios de Minkowski. Los espacio – tiempo
de Minkowski consisten en una aplicación de los espacios de Banach de finitas dimensiones, muy usados en la teoría de la relatividad especial de
Einstein.
395

coexistencia entre fenómenos. Esto puede surgir de algo oculto detrás de ellos, o de la
maquinaria de la percepción humana. Pero en cualquier caso, tal orden no es más que un modo o
forma en que percibimos las cosas.

Para los físicos, tanto el espacio como el tiempo conforman conceptos muy básicos pero

unificados, con ellos aparecen las nociones de distancia espacial e intervalos temporales. Como
conceptos a priori de Kant, conforman la anticipada condición para que el intelecto pueda
percibir cosas. Fundamentalmente, todo aquel fenómeno que presenta un orden espacio
temporal.

Entonces, la física como ciencia y su rango de acción va desde materiales y objetos

extremadamente diminutos <<llámese partículas>>, hasta objetos astronómicos cuyo tamaño es


a veces millones de veces superior al del sol, Kirkpatrick y Francis (2007, p. 2). Dentro de este
dilatado campo, su fin es sólo uno, comprender el curso de los eventos en el mundo para poder
.a entenderlos, predecirlos y controlarlos, creando así una nueva concepción de él y para ello hará
ric
óTe uso de teorías científicas.
asic
El teorista físico fundamentalmente requiere de teorías que expliquen los fenómenos que
í
aF
relacionan a la energía, la materia, el tiempo y el espacio, usándose ejes, coordenadas,
L
:na magnitudes, situaciones o fases. En ese sentido, y con tendencia a alcanzar ciertos objetivos, sus
ue
alb científicos optan por el idealismo de las ciencias puras <<la matemática y la lógica>>, además de
V la experiencia y la razón dentro de la esfera de la física.
na
oim Para Einstein Op. Cit, si se utilizase únicamente el razonamiento lógico sería imposible
R
alcanzar conocimiento alguno sobre el mundo de la experiencia. Todo conocimiento de la
realidad nace de la experiencia y finaliza con ella. Un sistema de Física Teórica en su conjunto
se compone de conceptos, llámese a estos, simples ideas o unidades de pensamiento, de las leyes
que los rigen, y de toda proposición lógica que pueda en lo posible deducirse de tal sistema. La
razón se convierte en la base estructural de todo el proceso, cualquier contenido experimental y
las dependencias mutuas entre conceptos, podrán demostrarse simplemente haciendo uso de
proposiciones deductivas.

En opinión de George E. Hrabovsky359, una teoría científica es un cuerpo de trabajo guiado


por una idea auto-consistente que es considerada un hecho. En la mayoría de los casos no genera

359 Profesor universitario y científico de la Universidad de Wisconsin. Miembro de la American Association for the Advancement of Science
(AAAS), La American Association of Physics Teachers (AAPT), American Mathematical Society (AMS), American Physical Society (APS), and
the Society for Amateur Scientists (SAS). Para las conceptualizaciones y métodos se hizo uso del documentos que Aparece en:
http://www.madscitech.org/notes/series1/day1.pdf sin embargo, fueron necesarias también, exhaustivas revisiones de sus escritos disgregados en
sitios web.
396

controversias la teoría en sí. Contrariamente, el debate se inicia por la forma bajo la cual esta se
argumenta, desarrolla y prueba. El método empleado dependerá sobremanera de las técnicas
propias de cada investigador, lo que hace necesario discriminarlos en relación a sus procederes.

En un principio es posible estratificar a los científicos teóricos en función de cómo hacen


abordaje del tema y según la naturaleza del fenómeno en 4 grandes grupos: los centrados en el
fenómeno – los que hace uso del enfoque constructivo – los orientados por el abstraccionismo
físico teórico y los del enfoque unificatorio.

.a
ric
óTe
asic
í
aF
L
:a
nue
bl
a
V
na
im
o
R
397

21.1.5.- La Física Teórica según el Enfoque Centrado en el Fenómeno

También conocido como enfoque de modelado. Se inicia por la formación primitiva, intuitiva,
además de, la mal formulación de nociones sobre el qué se pretende estudiar. Esto lleva a la
estructuración de ideas más precisas, asignándoles representaciones simbólicas. Consiste
básicamente, en una investigación exploratoria que permite crear un modelo. Posteriormente, es
posible formular enunciados que impliquen relaciones entre tales ideas y la observación, la
experimentación o el trabajo teorético. Bajo esta premisa a la predicción se le denomina modelo
predictivo.

Este método hace avocamiento en extenso sobre las características que rodean a un fenómeno
específico, no es general, sino particular. Direcciona sus esfuerzos hacia el desarrollo de modelos
matemáticos o computacionales en conjunción con la estructuración de la idea central, se
procede con la selección de algún fenómeno para estudiar. Posteriormente, se elige el enfoque
.a que mejor permita representarlo mediante el siguiente conjunto de preguntas: ¿Puede el
ric
óTe fenómeno ser representado como una partícula?, ¿Cómo un campo?, ¿O es alguna forma de
asic distribución continua de la materia?
í
aF
De las respuestas anteriores dependerá la selección de una formulación matemática apropiada.
L
:a
nue Pudiendo usarse, y según sea el caso, formulaciones ya prescritas. Como ejemplo:
bl Formulaciones de la Mecánica Newtoniana360; el conjunto de Ecuaciones de Maxwell; los
a
V
na procedimientos planteados en la Covarianza de Lorentz; o la Distribución Maxwell –
im Boltzmann361.
o
R
Acto seguido, se adapta el enfoque a la distribución matemática pertinente, tendente a
desarrollar una representación exacta del fenómeno. Luego podrá hacerse uso de la física y la
matemática en conjunción con herramientas computacionales, de modo que permita la
predicción de sucesos en forma de tablas, gráficas o fórmulas. Para Hrabovsky, este es el

360 La mecánica clásica de Newton dentro del contexto científico, está confinada al marco de ideas denominadas formulaciones newtonianas,
estructuradas básicamente por axiomas y leyes de movimiento. A continuación sus tres axiomas, mejor conocidos como leyes de Newton: Ley 1:
Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas
impresas sobre él. Ley 2: El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual
aquella fuerza se imprime. Ley 3: Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos
siempre son iguales y dirigidas en sentido opuesto.
361 Es una distribución de la mecánica estadística, derivada de la mecánica newtoniana. Sirve para describir el comportamiento de gases y otros
sistemas que tienen muchos estados permitidos. Se usa en la representación de partículas eléctricas como los electrones. En el presente caso, sirve
para dar respuesta tanto a la primera como a la segunda pregunta. En relación a la segunda, la acumulación de partículas eléctricas en
determinada región del espacio, conforma el denominado campo eléctrico, éste a su vez lleva implícito un campo magnético. Tanto los campos
eléctricos como los magnéticos pueden ser descritos usando el conjunto de Ecuaciones de Maxwell de la teoría electromagnética.
398

método más completo y estructurado de hacer Física Teórica362.

El enfoque modelista es una perspectiva muy utilizada en investigaciones sobre Inteligencia


Computacional363, se usa para construir sistemas que se comporten tan inteligentemente como
los humanos. Con él se desarrollan modelos tecnológicos con amplio rango de aplicaciones en
las industrias. Uno de ellos, el modelaje de redes neurales que actúen de manera similar al
sistema biológico del cerebro humano. El enfoque de modelado permite interconectar neuronas
en función de sintetizar un estándar cibernético del cerebro, imitando sus funciones orgánicas. La

relación entre el modelado computacional de redes neuronales y la neurofisiología, se asemeja a


la que existe entre el físico teórico y el experimental.

Convenientemente también ha sido adoptado para investigaciones sobre procesos de


distribución de productos364 como técnica de mercadeo. Allí se hacen uso de las redes sociales
para analizar técnicas de marketing, donde la propagación de determinada cantidad de un
.a producto, y de nodo a nodo, se produce de manera tan similar y natural, a la que lo hace una
ric
óTe enfermedad epidémica desde una perspectiva biomatemática. En ese campo, el efecto pervasivo
asic de la tecnología juega un rol importante.
í
aF
L Recientemente, el enfoque de modelado de la Física Teórica ha penetrado en mundo de la
:na
Investigación en Ciencias de la Educación365 en Europa. El enfoque en un primer momento
ue
alb implica sólo aspectos cualitativos. Allí se busca la relación entre dos mundos: el de la teoría y su
V modelo, con el de los objetos y sus eventos. Se hace siguiendo los pasos básicos de la física
na
im teórica. Para dar inicio, se proyecta un estudio experimental sobre situaciones diarias bajo dos
o
R consideraciones: la primera relacionada a los objetivos de la secuencia de enseñanza, buscando
aprender a establecer relaciones entre el contexto del quehacer diario y la enseñanza.

El segundo implica al modelo en sí, donde el campo experimental ha de constituirse a través


de situaciones que puedan ser claramente interpretadas haciendo uso del razonamiento
teoría/modelo, preseleccionando situaciones e interacciones de desenvolvimiento diario. Bajo

362 Cualquier experimento, sea en Física o en cualquier otra ciencia, el adaptar forzadamente un evento a determinada distribución matemática,
podría acarrear pérdida de la validez externa <<Véase: Cap. XXIII: Introducción a La Investigación Experimental>>. Intentando controlar tan
estrictamente el experimento que se crean ambientes artificiales, haciendo imposible la generalización de los entornos de laboratorio. En ese
contexto, Longair (2003) argumenta… la percepción que se tiene de la física teórica dentro del campo de la física, es que la primera no puede
considerarse como un sustituto para producir respuestas matemáticas exactas. Creando dificultades a la hora de someter a experimento el
fenómeno. El autor plantea que el enfoque centrado en el fenómeno se circunscribe a la escena local del mismo, donde el ambiente ejerce gran
influencia. La opinión surge, a raíz de los severos cuestionamientos realizados a este enfoque de la física teórica, y cuyo origen se encuentra en el
continente363 europeo. Véase: Longair, Malcolm: Theoretical Concepts in Physics: An Alternative View of Theoretical Reasoning in Physics.
Véase: Sincák et, al (2000). Computational Intelligence and Modeling Neural Networks. En: Advances in Soft Computing: The State of Art
in Computational Intelligence.
364 Refiérase a: Goldenberg et, al (2010). The Social Hub: The Key to Network Processes. En: The Connected Customer: The Changing Nature
of Consumer and Business Market.
365 Véase: Tiberghien, Andreé. Construction of Prototypical Situations in Teaching the Concept of Energy. En: Research in Science Education in
Europe: Current Issues and Themes. Welford, Geoff; Osborne, Jonathan; y Scott, Phil. Editores.
399

este enfoque, se hace un uso amplio y extensivo de la teoría y su modelo, conjugado con la
experimentación en la secuencia de enseñanza.

En estos estudios, la relación entre teoristas y experimentalistas es similar a la que se sucede


en los diseños mixtos de investigación entre cualitativistas y cuantitativistas, cada uno aporta
elementos teorizables y susceptibles a experimentos desde ópticas distintas.

21.1.6.- El Enfoque Constructivo de la Física Teórica

Según Hrabovsky, este consiste en un método para desarrollar nuevas formulaciones


aplicables a la misma Física Teórica, en otras palabras, es un enfoque autocrítico. Puede iniciarse
de muchas formas. El investigador habrá de seleccionar el campo de acción, es decir, la teoría de

partículas, la teoría de campos, la teoría de la materia, o una teoría relacionada a la física


aplicada. Aquí no se anteponen formulaciones matemáticas o computacionales, contrariamente,

.a el científico inventa su propia cantidad y comienza a experimentar con ella.


ric
óTe Su proceder ha de basarse en cantidades preexistentes en el área de la teoría que eligió, sólo
asic que será necesario que la visualice de otra manera, su experimentación se orientará a encontrar
í
aF simetrías, conservación o minimización de la cantidad bajo estudio. Posterior a ello, se continúa
L anteponiendo un análisis del cómo el investigador representa los objetos en el desarrollo de su
:a
nue
teoría.
bl
a
V
na Luego, divide los objetos en grupos y los cuantifica a manera de estratificación, esta es la
im base de su proceso constructivo. Posteriormente, plantea un argumento sobre el cual basar su
o
R
construcción y orientado a responder preguntas como: ¿Existen simetrías entre los grupos?, ¿En
algún grupo, existe alguna cantidad que permanezca constante o invariante?, ¿En determinado
grupo la cantidad es minimizada366?

Como regla metodológica, estas preguntas orientan el accionar científico, sus respuestas son
contrastables bajo la experimentación. Con ello se pretende la formulación de supuestos lógicos
que, al ir descartándolos, darán una visual del método matemático apropiado. Por ejemplo: con la
elección de una Formulación Lagrangiana367 se busca crear una nueva cantidad llamada

366 La minimización se basa en la idea de que un modelo siempre presentará un valor mínimo de una cantidad, que lo hará más eficiente.
367 Una Formulación Lagrangiana es un enfoque basado en el análisis de sistemas de energía. Estos constituyen sistemas dinámicos que son
modelados en términos de variables que puedan ser expresadas como energía cinética, disipación de energía y energía potencial. Una formulación
Lagrangiana se asocia a cantidades escalares, y es muy fácil de usar cuando el número de elementos en el sistema es muy bajo, su uso se asemeja
a cuando se emplea una prueba estadística paramétrica. Esta formulación sufre el inconveniente de que su complejidad aumenta
exponencialmente según se incrementa el número de elementos en el sistema. La expresión de una formulación Lagrangiana viene representada
por la Integral Lagrangiana. Véase: Vaze Shilpa Arun (2007). Integrated Formulation Solution Design Scheme for Nonlinear Multidisciplinary
Systems Using the Mixed Models Platform.
400

Lagrangiano368, luego, se trabaja presentando una racionalización teórica, cuando la integral


Lagrariana, es decir, la acción, es minimizada. Este ejemplo representó el caso de la última
pregunta. Si la cantidad deviniese simétrica entre los grupos, caso de la primera pregunta, o, si se
observó la invariabilidad cuantitativa en los grupos, se pudo haber optado por la elección de: La
Formulación Lagrangiana para la Electrodinámica, la Formulación Euleriana de Fluidos
Dinámicos o el camino integral de la formulación de la Mecánica Cuántica.

Este enfoque es mucho más complejo que el anterior, pero poderoso, aquí el científico

construye su propia formulación. Una dificultad sustantiva se presenta cuando se carecen de


directrices estructurales en la creación de una nueva formulación. El método permite refutar
formulaciones previas. Obsérvese que hasta el momento, se ha podido apreciar el cómo, los
Teoristas Físicos abordan sus investigaciones, para cada situación ya tienen de antemano una
formula o proceso matemático que sólo necesita ser adaptado mágicamente para obtener ciertos
resultados, no obstante, estos deben ser estrictamente sometidos a contrastes experimentales.
.a
ric
óTe 21.1.7.- El Enfoque Abstracto de la Física Teórica
asic
í La Abstracción369 consiste en la operación mediante la cual se obtiene algo abstracto. Bajo
aF
este enfoque se hace de dos maneras: primeramente se consigue el nivel semántico, donde un
L
:a
nue constructo o símbolo será semánticamente abstracto si no presenta determinación respecto a
bl objetos, es decir, si no refiere a algo determinado. Los constructos más generales serán aquellos
a
V que posean mayor abstracción. Bajo la óptica Popperiana se asemejan a los enunciados
na
im universales. La segunda manera se orienta a la epistemología, al respecto, Bunge (2001)… un
o
R constructo simbólico es epistemológicamente abstracto si no evoca percepciones. Ambos son
considerados fundamentales en la construcción de una Teoría Física bajo el enfoque abstracto.

Hrabovsky explica que en este modelo se toma un número específico de casos y se generaliza
sobre sus resultados. Se comienza examinando uno o más modelos. Luego se procede a una

368 El Lagrangiano es una función matemática de amplio uso en la física. Allí es posible asociarlo tanto con las leyes newtonianas como con los
sistemas de ecuaciones de Maxwell para la teoría electromagnética. Se usa para obtener propiedades de ecuaciones de movimiento y leyes de
conservación de la energía sobre un sistema específico, sumamente importantes en el análisis de sistemas físico-mecánicos. Proviene del sistema
de ecuaciones de Lagrange, en ciertos texto se le denomina ecuaciones de Lagrange-Euler. El método de multiplicador Lagrangiano es muy
utilizado por investigadores de la teoría económica. Sirve, entre otros, para encontrar restricciones a problemas económicos donde es necesario
conocer369 valores máximos y mínimos.
Bien vale la pena conceptualizar por segunda vez este término, en función de entender o tratar al menos de interpretar el vocablo dentro del
contexto de la física y su teoría abstracta. Según el Diccionario Enciclopédico Hispano-Americano. Operación intelectual que consiste en separar
mentalmente lo que es inseparable en la realidad. La abstracción es el precedente o, como la llama Rey (Lógica), el instrumento de la
generalización, porque no podemos concebir los conocimientos generales sin eliminar lo individual, es decir, sin abstraer. Toda idea generalizada
es abstracta y posee realidad sólo inteligible (V. REALISMO, NOMINALISMO y CONCEPTUALISMO) y no concreta, porque la abstracción
no es función de la imaginación, sino propia de la razón discursiva que divide en la mente lo indivisible y separa lo inseparable, preparando el
análisis a que excita la complejidad sintética de lo real. A lo abstracto se opone lo concreto. Es esto lo dado en la experiencia con todos sus
elementos, el dato real o materia del conocimiento (según el tecnicismo aristotélico y kantiano); mientras que lo abstracto es lo construido por el
pensamiento, la forma (que dirían Aristóteles y Kant), que no tiene más límite que lo contradictorio. Para Ferrater Mora, consiste en el acto de
sacar algo de una cosa; separar algo de algo. Según este autor, y citando a Maritain, la física, la matemática y la metafísica, son ciencias que se
diferencian por su grado de abstracción. El primer grado se lo atribuye a la física; el segundo a la matemática y el último a la metafísica.
401

minuciosa búsqueda de elementos comunes entre ellos, y sobre los cuales, la teoría existente
todavía no se ha abocado. Este enfoque tiende a tornarse ambiguo, puesto que se convierte tanto
en arte como en ciencia para encontrar cosas, se asemeja a un juego. De llegar a encontrar
elementos comunes, es trabajo del científico analizar en qué sentido serán proyectados los
supuestos y sus ramificaciones.

Este método sirve para hacer estudios en la teoría clásica de la Mecánica Newtoniana, sin
embargo, no sirve para describir la realidad en la mecánica cuántica. En consecuencia, Bohr
citado en D´Agostino (2001) argumenta…

Mientras que en la teoría clásica se trata de describir la realidad física a través del
uso simultáneo de ondas y partículas370 haciendo uso de abstracciones, en la
mecánica cuántica se hace a través de un método simbólico, bajo una concepción
más realista frente al enfoque abstracto del problema en la realidad física. (p. 226).

21.1.8.- El Enfoque Unificacionista de la Física Teórica


.a
ric Hrabovsky sostiene… este enfoque se basa en la idea del beneficio resultante derivado de
óTe
que con una sola teoría se pudiesen gobernar un amplio rango de fenómenos. Empero, no
asic
í existen argumentaciones o simples elucubraciones, que lleven a creer que esto pueda ser cierto.
aF
L Cuando se ha intentado llevar a la práctica, se han evidenciado grandes dificultades. Sobre el
:na
tema, Pavsic371 (2001) es de opinión, esta idea es para muchos investigadores, la unificación de
ue
alb varias ramas de la física teórica como realmente un proyecto de unión, pero con dificultades.
V
na
Hasta ahora se ha hecho gran cúmulo de conocimiento codificado en teorías maravillosas
im
o como la relatividad general, la teoría de membranas asociada a la teoría de cadenas, la mecánica
R
cuántica, la teoría cuántica de campos y la cromodinámica, sólo por mencionar algunas, y sin

resultados concretos.

Pavsic, luego de años de investigación ha llegado a cierto nivel de creencia en la posibilidad


de interrelacionar todas estas teorías. Con base en la exposición y entendimiento de técnicas
básicas, a costa de detalles y riguroso desarrollo matemático. Sus planteamientos concuerdan con
las ideas de Kiefer372 (2012), sobre la cual, la unificación de la teoría cuántica con la teoría de la
relatividad general de Einstein, se ha convertido en quizás, el más abierto problema de los

370La dualidad onda corpúsculo demostró que la luz posee dos propiedades características. Primeramente puede ser modelada a través de la
mecánica de ondas y la mecánica de partículas. Esto quiere decir, un rayo luminoso conserva las mismas propiedades que una onda sonora, a
pesar de ser diferentes. Una onda sonora tiene velocidad definida y constante pero carece de masa. Por su lado, una partícula <<llámese fotón>>
posee masa <<muchos autores describen la cantidad de masa de un fotón como cero>> y lógicamente ocupa un lugar en el espacio, pudiendo
desplazarse a la velocidad de la luz como lo hace un rayo luminoso.
371 Véase: The Landscape of Theoretical Physics: A Global View. From Point Particles to the Brane World and Beyond, in Search of Unifying
Principle372
Refiérase a: Quantum Gravity.
402

Teoristas Físicos. Para la unión de ambas teorías no solo son necesarias razones conceptuales,
sino, un entendimiento mayor de fenómenos como: el origen del universo, la evaporación final
de los agujeros negros y la estructura espacio-tiempo. Para ello, todavía falta mucho camino por

recorrer.

Además de las consideraciones previas, Hrabovsky proyecta otras dificultades, las cuales en
mayor o menor grado, vienen simbolizadas sobre el hecho de que las teorías son sólo
aproximaciones a la realidad, no realidades mismas. En el enfoque unificatorio se comienza con
la pregunta, ¿Qué es lo que se desea unificar? Luego se trata de resolver el cómo proceder con tal

unificación. Ésta debe ser la resultante de una simple formulación que argumente y acompañe a
todos los elementos que se deseen unificar. Posteriormente, se procede a probar que tal esquema
unificatorio es matemáticamente viable <<Axiomatizable>> Acto seguido, se proyectan modelos
matemáticos basados en él.

.a Hasta el momento he ejecutado explicación exhaustiva de cada uno de los métodos usados
ric
óTe por los Teoristas Físicos, obsérvese que divergen grandemente con los empleados en las

asic investigaciones de otros tipos. Sin embargo, para desentrañar sus secretos, necesario es el
í
aF involucramiento desde dos aristas. El primero reside en entender el papel que juega la nueva
L matemática en la física, este consiste en la formulación y solución de problemas de física por
:na
ue medio de estructuras y técnicas matemáticas, a lo que se denomina física matemática. Se
alb compone de dos partes principales: el desarrollo de nuevas matemáticas, y la aplicación de las
V
na matemáticas a los problemas actuales de física. La segunda arista se proyecta sobre el estudio
im
o persistente y profundo de los sistemas físicos y la causación, tema que en el siguiente aparte
R
abordo.
403

21.2.- Los Sistemas Físicos y la Causación Universal

No existe evidencia irrefutable de que la causalidad sea una


característica propia de este mundo…

David Hume.

más
e entiende
eventos
relacional ypor
de Causación
espaciotemporal.
origen natural, Como
un
Universal, acondición
antecedente
una conexión
y un y suficiente,
constante
necesaria
consecuente donde se amerita
e invariante
coexiste
entre queo
un orden
dos

S
para una misma causa un mismo efecto; donde la cadena intercausal presenta un patrón
relacional descriptible a través de una magnitud numérica constante y presente en todas las
instancias. La Causación Universal es punto de partida para investigadores de la física y sirve
para encadenar, explicar y predecir eventos naturales. Es de allí de donde el científico extrae
cierta data y elimina material científicamente estéril, pues, la explicación a un evento no puede
ser sometida por fuerza y la nada nunca podrá ser una causa.

El fenómeno natural existe y parte desde dos tipos de relaciones, una es la simultaneidad y
otra la sucesión. Cada fenómeno está conectado, de una manera uniforme, a otro que coexiste
con él, y con algún otro que lo ha precedido o lo sucederá en espacio y tiempo. La uniformidad
existe entre fenómenos sincronizados, y la sucesión existe en una ley numérica que asocia tal
antecedente con su consecuente. Estas clases de leyes o uniformidades estarán presentes en los
hechos o eventos que se sucedan unos con otros, manteniendo lapsos de tiempo, o constantes
numéricas presentes en ellos. Donde ciertamente, cada objeto del universo, posee tal condición
eterna. De esta manera interpreta Stuart Mill373 la Ley de Causación Universal.

Todas aquellas uniformidades en la sucesión de un fenómeno presente universalmente así en


todos los sentidos, y que coexiste en todas las instancias de sucesión, manteniendo invariante
determinada magnitud numérica, es lo que se conoce como Ley de Causación. Representa la
verdad universal de que cada hecho que tiene un inicio, no ha sido sino por una causa. Pudiendo
formalizarse de la siguiente manera: Entre un fenómeno que exista en un instante y otro que
exista en un instante sucediente, existe un invariante orden de sucesión. El antecedente
invariable es denominado causa; el invariable consecuente será su efecto. Y la Universalidad de
la Ley consiste precisamente en ello, en que ambos eventos están eternamente conectados. Stuart
Mill, Op, Cit.

373 A System of Logic: Ratiocinative e Inductive. The Principle of Evidence and the Methods of Scientific Investigation. (1858).
404

Por su lado, David Hume374 argumenta que una causa es un objeto cuya idea determina en la
mente la forma de otra idea de su efecto. Pues existe una conexión necesaria y suficiente
mediada por una extraña energía como potencia causal. Según esta determinación, cada

ocurrencia para causas similares es seguida por similares efectos. A esta conjunción constante,
como secuencia universal única, invariante y trascendental, la explica dentro de una maravillosa
teoría denominada Teoría de la Regularidad.

Afirmar que un evento causa otro, en un interminable ciclo, es sostener que entre ambos
existe una sucesión constante y extraña fuerza que media para que la causa cumpla con su
cometido; que existe una relación de contigüidad necesaria; que existe una conexión necesaria
.l entre eventos y que una extraña energía actúa sobre ellos. Puesto que está universalmente
as
rve demostrado que es así, entonces la causa ordena y el efecto obedece, en un interminable ciclo
in
que lleva a la construcción de la realidad física de un determinado sistema.
U
nió
ac 21.2.1.- Los Sistemas Físicos
aus
aC Para dar inicio al tema, se justifica conveniente definir exhaustivamente cada uno de los
l
sy
términos que componen el título de este apartado. Por su lado, y bajo aportes de Bunge (2001),
osic
í un sistema y sus partes poseen las siguientes características:
sF
a Como concepto, es un objeto complejo cuyas partes o componentes se relacionan al
mste
menos con algún otro componente… En cuanto al análisis, el más simple de los
i
sS análisis del concepto de sistema incluye los conceptos de composición, entorno,
o estructura y mecanismo… La composición es la colección de sus partes. El entorno
L
:a es la colección de las cosas que actúan sobre los componentes del sistema o a la
nue
inversa… La estructura de un sistema es la colección de las relaciones (vínculos o
bl enlaces) entre los componentes del mismo, así como entre estos y los componentes
a de su entorno… Por último, el mecanismo de un sistema está compuesto por los
V
na procesos internos que lo hacen “funcionar”, es decir, cambiar en algunos aspectos
im mientras conserva otros…
o
R
Sustentado en estas premisas opera el Físico Teórico, su máximo sistema, el universo. Sus
componentes principales, la Energía, la Materia, el Tiempo y el Espacio. Un sistema físico en sí,
presenta características diferenciables: a) todos han de poder ser ubicados en relación a las
dimensiones espacio – tiempo. b) deben presentar rasgos de un estado físico definido sujeto a
evolución longitudinal temporal. c) debe poder asociársele a la energía, en cualquiera de sus
formas y a través del uso de la magnitud física apropiada.

374 Compilación ejecutada desde dos excelentes libros: 1.-) Phil Dowe (2000): Physical Causation: Cambridge Estudies in Probability, Induction
and Desition Theory. Cap. II: Hume´s Legacy: Regularity, Counterfactual and Probabilistic Theory of Causation. 2.-) Sion, Avi (2010): The
Logic of Causation: Definition, Induction and Deduction of Deterministic Causality. Cap. 16: Outstanding Issues, p. 261 y ss.
405

La interacción entre los componentes de los sistemas físicos presenta una relación del tipo
causal, dicho de otra manera, sus componentes muestran dependencia sobre nexos causales. En
función de la congruencia, a continuación se describe el Principio de Causalidad. Lefebvre
(2006), aporta las siguientes consideraciones y comentarios: <<todo efecto tiene una causa>>,
pues no hay efecto más que donde hay causa.

Donde la mera noción de causa implica, objetivamente, un efecto. Si se formulase de la


siguiente manera; <<Todo tiene una causa y la misma causa precede siempre al mismo efecto>>
podría tener cierto sentido, pero, ¿Es esto realmente cierto?, ¿cada vez que hay un dolor de
cabeza es provocado por el estrés? Realmente no siempre es así, significa entonces, ¿si siempre
.l es el mismo efecto, por qué no ha de tener el mismo origen causal?
as
rve
in Ambos enunciados, causa-efecto, son contrapuestos, por lo que entre ellos hay una relación
U oscura, la causa produciría su efecto mediante un poder misterioso. Y los teoristas conciben
nió
ac teorías para develar ese misterio haciendo uso de la experimentación. Si se asociase, como es
aus
común en física, lo anteriormente descrito con el principio de finalidad, el cual se formula;
aC
l <<todo tiene un fin>>, significaría entonces que la naturaleza tiene intenciones y objetivos, así
sy
osic como la voluntad humana375 . Ella fabrica seres al igual un artesano fabrica sillas o mesas,
í teniendo de antemano la idea del objetivo, y los procedimientos necesarios para llegar a él. Estos
sF
a son los elementos que subyacen en la mente del teorista, permitiéndole develar fenómenos
mste
i realmente maravillosos.
sS
o
L Popper (1980) opina…para dar una explicación causal completa son necesarios dos tipos de
:a
nue enunciados: en primer lugar los universales, son hipótesis que tienen carácter de leyes
bl
a universales. Y los enunciados singulares, aplicados a determinados acontecimientos, estos
V
na últimos son llamados condiciones iniciales. Los enunciados singulares se deducen de los
im
o universales, las condiciones iniciales se suelen llamar causas, la predicción es el efecto, aunque
R
en física, por regla general se restringe el uso de la expresión <<explicación causal>>. Por su
parte, el autor nunca afirmó ni negó ningún principio de causalidad por considerarlo un método
deductivo de explicación teórica.

Kant (1989, pp. 159 y ss.), en su Segunda Analogía.- Principio de la Sucesión Temporal
según la Ley de la Causalidad, argumenta; <<Todos los cambios tienen lugar de acuerdo a la ley
que enlaza causa y efecto>> El principio puede formularse a su vez, de la siguiente manera;

375
Según el Determinismo, la voluntad humana no existe, el ser humano, o cualquier otro tipo de existencia tiene un fin que ya ha sido
previamente delimitado. En estos días, todos los avances que ha generado la inteligencia artificial apuntan a apoyar aún más la teoría determinista
y ha solidificado también la creencia en la teoría de la Antropía.
406

Toda Modificación (Sucesión) de los Fenómenos no es más que un cambio. Los fenómenos se
siguen unos a otros, dicho de otra manera, el estado de las cosas en un tiempo, es opuesto al
estado anterior. Con ello sólo se enlazan dos percepciones de un mismo objeto bajo

temporalidades distintas. La relación temporal, con respecto al sentido interno del objeto, no es
obra de los sentidos ni de la intuición, sino que es atribuible a una facultad sintética de la
imaginación.

Según la lógica de la razón Kantiana, el tiempo no es perceptible, y la imaginación se encarga


de poner una cosa antes y otra después, no de que un estado preceda a otro en el objeto. La

percepción no determina cuál es la relación objetiva entre fenómenos que se suceden en el


.l tiempo. Para determinarla, necesario es especificar el estado previo y el posterior del objeto, es
as
rve decir, para ello es preciso un concepto que los unifique, un concepto puro que permita su
in
U entendimiento, concepto no hallado en la percepción, tal concepto es el de la relación causa y
nió
efecto. El conocimiento empírico sólo es posible mediante el sometimiento a sucesión de los
ac
aus fenómenos, donde todo cambio observable es derivado natural de la Ley de la Causalidad.
aC
l Hasta aquí he hecho explicación, de algunos de los métodos y modelos matemáticos
sy
osic empleados por los teoristas físicos en sus intentos por proyectar un mayor entendimiento del
í universo, las leyes que los rigen y los fenómenos que a consecuencia se derivan. En párrafos
sF
a previos, y bajo la argumentación de Lefebvre, se comentó la existencia de una relación oscura,
mste
i además de un poder misterioso entre causa y efecto, donde la naturaleza pareciese tener
sS
o intensiones y objetivos. Sobre el tema bien vale la pena citar a Einstein cuando afirma: Dios no
L
:a juega a los dados con el mundo; las leyes de la naturaleza son los pensamientos de dios; es por
ne
ub ello que quisiera conocer los pensamientos de dios… los demás son detalles.
la
V
na
im
o
R
407

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XXII: TEORÍA GENERAL


DEL MUESTREO ESTADÍSTICO…

En la antigüedad no tenían estadísticas por lo que no tuvieron que recurrir a la mentira.


Stephen Leacock.
408

22.1.- Muestreo Estadístico: Análisis, Diseño y Aplicaciones

Cuando las estadísticas no se basan en cálculos estrictamente


exactos, inducen a error en lugar de guía. La mente fácilmente
se deja llevar por la falsa apariencia de exactitud que las
estadísticas conservan en sus errores, y con confianza adopta
errores vestidos de la forma de verdad matemática.

Alexis de Tocqueville, Democracy in America.

conoce al
entiende como
procedimiento
eoperacionalizarlo, yundeducir
subconjunto
estudiarloa técnico
Muestra aplicandode cálculo,
inferenciaslaestadísticas.
población
basado oY
bjetivo
en la con
como el fin
teoría
Muestreode de

S
probabilidad, usado para extraer tal muestra de determinada población objeto de estudio. Al
se
la

margen de lo que se plantea como concepto en éste, y la generalidad de otros textos, podría
decirse que una muestra no representa a un subconjunto poblacional en sí, ya que sus elementos
tienden a repetirse. Tanto el proceso de muestreo como el análisis de la muestra no vienen solos,
traen consigo otros conceptos implícitos e inseparables que servirán para prestarle servicios a
verdades matemáticas.

Tamaño Muestral, consiste en el número de individuos o elementos pertenecientes a la


muestra. Al Marco Muestral por su lado, se le entiende como a la obtención de una lista
completa de las unidades poblacionales de donde será extraída la muestra. Por ejemplo, si el
estudio se refiere al personal médico de un hospital, ha de construirse un marco muestral
contentivo de una lista completa de todos los médico que allí laboran.

Este marco permitirá estratificarlos y clasificarlos por: Especialidad, años de experiencia,


género, horas de dedicación o cualquier otro aspecto de importancia. Es de notar que del marco
muestral es de donde se extrae la muestra, pues consiste en la población estrictamente clasificada
y permitirá, a partir de tales datos, determinar el tamaño muestral.

La determinación del tamaño de la muestra es un paso importante para la organización de una


investigación estadística y presenta serias limitaciones si no se toman en cuenta ciertos detalles.
Esto implica no sólo los complejos cálculos, sino también, la toma en cuenta de los diferentes
requisitos propios de la investigación. Si una muestra no es representativa de la población la
inferencia será por demás invalidada, y con ella, la investigación misma.

Por lo tanto, la precisión deseada de los resultados de la investigación debe ser considerada
409

cuando se ejecuta el cálculo muestral. En general se dice, y de hecho no es demostrable que sea
así, que cuanto mayor es el tamaño de la muestra, mayor la precisión de los resultados.

Sobran razones para afirmar que el muestreo estadístico no consiste simplemente en la


sustitución de un conjunto mayor (Población) por uno de menores dimensiones (Muestra), con el
que se puedan cubrir los requisitos básicos para abordar una investigación científica. Esto va más
allá, se trata de una ciencia basada en la teoría de la probabilidad colindante con la teoría general
del muestreo y la teoría de errores, que admite el control y la medición de la confiabilidad de los
datos transformados en información, que son por demás útiles y conformarán el esqueleto donde

.s descansarán las inferencias.


ne
oi Denominaré muestreo al ordenamiento mecánico en cuyos procesos se examina sólo una
ac
lic pequeña fracción de la población pero la inferencia recae sobre la totalidad de la misma. Su
Ap
y objetivo es aportar información sobre parámetros estadísticos, y que a su vez arrojan indicios

ise sobre las características de la población objeto de estudio. El muestreo estadístico consiste en el
D, estudio de la relación estricta e inherente entre una población total y las muestras desde allí
si
si extraídas. Se extraen aleatoriamente representativos de ésta, se les somete a análisis de
lná
A interpolación y se obtienen los estadísticos muestrales que se ajustan a los resultados de una
:o
ic observación.
tdís
at Una interpolación consiste en la concatenación de valores ficticios con valores conocidos
s
E
otre <<estadísticos>> que representan dos puntos de experimentación lineales y consecutivos en
sue
tiempo del mismo experimento. Tenga en cuenta el lector que, a la ciencia que estudia la relación
M entre los diversos tipos de muestreo y los problemas individuales que éstos implican se
:na
ue denomina Diseño de Experimentos. Siendo dos de los criterios más importantes el de la
bl
a representatividad y el del tamaño de la muestra adecuada.
V
na
im La muestra perfecta no existe, lo que sí existe son los requisitos para obtener una muestra
o
R ideal, o casi perfecta. No obstante, una buena muestra debe ser representativa en el sentido de
que las características de interés de la población puedan ser estimadas con cierto grado de
exactitud. Los siguientes conceptos nos ayudarán a entender mejor el asunto. Unidad de
Observación, se le reconoce como al objeto de donde son tomadas las medidas.

Población Objetivo, consiste en la colección completa de unidades de observación que han


de estudiarse. Toda buena muestra ha de estar libre de Sesgo en la Selección, y esto ocurre
cuando cierto segmento de la población objetivo no se encuentra dentro de la población
muestreada o fue excluida sin razón aparente de la misma. En estos casos se hace evidente una
410

falta de aleatoriedad o la inclusión del azar como factor determinante.

Sesgo Estadístico376. Llámesele a la diferencia entre el valor esperado de un estimador y el


valor verdadero del parámetro. Para Claphan y Nicholson377 (2009), Una Muestra Sesgada
consiste en un prejuicio o una falta de objetividad o aleatoriedad que resulta en un desequilibrio
que hace probable que el resultado tienda a ser distorsionado. En estadística esto sucede cuando
un proceso contiene algún desequilibrio sistemático para que, en promedio, haga que el resultado
no sea igual al valor verdadero. Básicamente consiste en una muestra cuya composición no es
determinada solo por la población de la cual fue extraída, sino por algunas propiedades del
.s método de muestreo, el cual marca una tendencia a causar sobre-representación de algunos
ne
oi elementos de la población. Es una propiedad atribuible al método y no a la muestra en sí.
ac
lic
Ap A continuación algunos otros conceptos importantes para este aparte:
y
oñ • Estadística Inferencial: consiste en una rama de los estudios estadísticos que se encarga de la
ise
toma de decisiones sobre poblaciones a partir de parámetros estadísticos, posterior a los
D,
iss análisis pertinentes ejecutados sobre la muestra extraída.
il
án
A • Inferencia Estadística: proceso mediante el cual se hace patente el resultado derivado desde
:o
ic la estadística inferencial. La inferencia estadística es el proceso terminado, donde, a la
íst
da sentencia declarativa de la conclusión debe añadírsele el lenguaje probabilístico, ya que no es
ts
E posible sacar conclusiones de una población a partir de sólo una muestra, entonces, este
treo
enunciado probabilístico invocará también cierto componente de error e incertidumbre. La
se
:Mu
estadística inferencial por su lado, reúne a un conjunto de métodos y procedimientos que
an como resultado arrojan una inferencia estadística probabilitaria con margen de error
ue
bl aceptable. En esta última, se obtienen conclusiones sobre la población representada en la
a
V muestra.
na
im
o La inferencia estadística envuelve dos elementos de importancia: los métodos usados y las
R
teorías de referencia. Las hipótesis de una investigación se formulan según prescripciones de
la estadística inferencial. Tales hipótesis son probadas sobre la base de las observaciones
hechas a la muestra poblacional y el problema central de la inferencia estadística gravita
precisamente en cómo calcular la muestra.

376 Desde el punto de vista de la estadística, al sesgo se le define como la diferencia entre el valor esperado de un estimador y el valor verdadero
de un parámetro. Es así como se le considera una medida para el error sistemático de un estimador. No hay que confundir el sesgo de un
estimador de un parámetro con su grado de precisión, que es una medida del error de muestreo. Hay varios tipos de sesgo, el sesgo de selección
(Debido a las diferencias sistemáticas entre la grupos de comparación), el sesgo de exclusión (debido a la exclusión sistemática de ciertos
individuos a partir del estudio) o sesgo analítico (debido a la de manera que los resultados son evaluados). Tomado desde: Yadolah, Dodge. The
Concise377 Encyclopedia of Statistic. Concept of BIAS. Véase.
Véase Oxford: The Concise Dictionary of Mathematics. Biased Sample. Concept of. (Muestra Sesgada).
411

• Estadístico: es un número computado a partir de la data muestreada y que tiene significado


matemático básico para ejecutar la inferencia.

• Población: cualquier colección de objetos o sujetos de interés para el estudio.

• Medida: es un número o atributo computado para cada miembro de la población o de una


muestra.

• Parámetro: es un número que sintetiza algunos aspectos, características, propiedades o


valores de una población asumida como un todo.
.s
ne • Data Cualitativa: consisten en medidas para las cuales no existe escala numérica de
oi
ac referencia para su representación. Entonces son descriptibles a través del uso de atributos,
lic
Ap propiedades, etiquetas u otra señalización no numérica pero procesable desde el punto de vista
y estadístico.

ise
D • Data Cuantitativa: consiste en medidas numéricas que pueden ser fácilmente representadas
,s
is en escalas del mismo tipo.
il
án
A
:o Conviene advertir entonces la estrecha relación entre: Población, Muestreo, Muestra y
ic Estimación. Para ello refiérase a la siguiente gráfica:
íst
da
ts
Población
E
otre
sue
M
:a
nue Estimación Muestreo
bl
a
V
na
im
o
R Muestra

Gráfica de Relación entre Población, Muestreo, Muestra y Estimación.

Quiere decir, a partir de la población es posible aplicar técnicas de muestreo y conseguir la


muestra, y de eso trata este aparte. Así como, partiendo de la muestra es posible también, hacer
una estimación de las características desconocidas de la población a partir de estimadores.
Para iniciar con el proceso, debe prestarse sumo cuidado en la fase de diseño de la investigación,
sobre todo desde su inicio, en este aparte describiré la metodología empleada conforme las
412

necesidades de cálculo y determinación del tamaño poblacional y muestral necesarios. Un error


en estos cómputos podría derivar en que el estudio carezca de un inadecuado número de
unidades de análisis, lo cual haría imposible la estimación correcta de los parámetros y la

identificación de diferencias significativas necesarias para plantear ciertas hipótesis.

22.2.- Fracción de Muestreo y Factor de Elevación

Para proceder a trabajar con muestras y poblaciones es menester asignar literales a los
elementos, denotaremos con la letra mayúscula “N” a la población, y con la letra minúscula “n”
a la muestra. Entenderemos como Fracción de Muestreo, al resultado de dividir al tamaño de la
.s
ne muestra entre la población. Y como, Factor de Elevación a la relación inversa entre los dos
oi
ac elementos previos:
lic
Ap
Ecuaciones para el cálculo de los Factores de Muestreo y Elevación
y
oñ Fórmula del Factor de Muestreo Fórmula del Factor de Elevación
ise
D,
si
si
lná
A
:o Ejemplo 1:
ic
tdís
De una población de 25.000 pacientes que padecen de hipertensión arterial, se desea obtener
at
s una muestra de 4.800 para ejecutar un estudio médico. Procedemos entonces a calcular el factor
E
otre
de muestreo como sigue:
sue
M
:na
ue
bl
a Es decir, el factor de muestreo indica que será necesaria la ejecución del estudio médico sobre
V
na el 19,2% de la población. Calculemos ahora el factor de elevación:
im
o
R

Quiere decir que por cada paciente presente y estudiado en la muestra, éste representa a 5,20
pacientes de la población.

Ejemplo 2:

Un veterinario necesita hacer un estudio sobre la probable incidencia de fiebre aftosa en un


rebaño de 4.000 reses, pues ha observado la aparición de ciertas afecciones cutáneas en los
413

animales. No obstante, para garantizar una mediana seguridad y debido a escasos recursos, para
el estudio ha establecido un factor de elevación de sólo 10. Indique la muestra y la fracción
muestral necesarias para llevar a cabo el estudio.

Solución: puesto que el rebaño de redes representa a la población total podemos asumir los
siguientes datos: N=4.000 y FE=10, datos suficientes para comenzar, calcularemos primero la
muestra usando la ecuación de factor de elevación. Posteriormente, sabiendo el valor muestral lo
usaremos para hallar el factor de muestreo:

.s
ne
oi
ac
lic
Ap
y Análisis: la muestra buscada se corresponde con 400 reses y el factor de muestreo será del

ise 10%. Esto es, el veterinario hará el estudio y por cada res estudiada ésta representará a diez de la
D, población, ejecutando su trabajo sobre el 10% de la población.
si
si
lná
22.3.- Cálculo de los Tamaños Muestrales: Algunas Fórmulas
A
:o
ic
tdís 22.3.1.- Ecuación 1 para determinar el tamaño de la muestra
at
s
E ( )
treo
se Descripción:
:Mu
na n = tamaño de la muestra a calcular basada en los parámetros de la ecuación; N = tamaño de
ue
bl la población; σ = desviación estándar de la población. Si no se tiene puede usarse un valor
a
V generalizado constante de 0,5. Pero, para mayor exactitud y darle credibilidad a la investigación,
na
im se recomienda calcular los parámetros de la distribución poblacional. Z = valor obtenido del
o
R nivel de confianza.

Es un valor constante que puede ser calculado y queda a criterio del investigador. Si no se
tiene, comúnmente se lo toma en relación al 95% o al 99%, que equivalen a 1,96 y 2,58

respectivamente según la tabla de “Z” para la distribución normal. e = límite aceptable de error
muestral, oscila entre 0,01=1% y 0,05=5%.
414

22.3.2.- Ecuación 2 para determinar el tamaño de la muestra

Úsese esta ecuación cuando la variable bajo estudio presenta características cuantitativas, y
siempre que cumpla con los siguientes criterios: la población total es desconocida (población
infinita), o sus integrantes superan las 10.000 unidades. Donde d = nivel de precisión absoluta ya
sido estimado. Para ello ha de haberse definido el intervalo de confianza. es la varianza de la
población.
.s
ne
oi 22.3.3.- Ecuación 3: Fórmula de Slovin para una muestra
ac
lic
Ap A continuación la fórmula de Slovin (1960) para calcular una muestra poblacional:
y

ise
D,
si Donde: n = tamaño muestral a calcular; N = Tamaño de la Población; e = margen de error
si
lná
deseado. Úsese esta fórmula solo si el tamaño de la población total es conocido y se cumplen los
A
:o
ic supuestos de la distribución normal de la población.
tdís
at 22.3.4.- Fórmulas para Muestras de Distribuciones Binomiales
s
E
otre
A continuación dos ecuaciones usadas para calcular muestras siempre y cuando se demuestre
sue
que la población siga una Distribución Binomial con Probabilidad de Bernoulli:
M
:na
ue
bl
a
V
na
im
o
R q=
Zα= ()
P nivel dedeconfianza
n =probabilidad
tamaño
probabilidadlade
de
muestra;
fracaso;
éxito;
a criterio del investigador; ( )
n = tamaño de la muestra378;
P = probabilidad de éxito;
q= probabilidad de fracaso;
e = error máximo permisible, también a criterio
e = error máximo permisible, también a criterio del
investigador. del investigador;
4= valor constante derivado a conveniencia
desde el parámetro estadístico “Z”;
Nota: las probabilidades de éxito y fracaso
pueden ser elegidas también a conveniencia
dependiendo de los resultados de ensayos
previos realizados.

378 En muchos textos de Metodología de la Investigación esta fórmula aparece referenciada como la Fórmula de Sierra Bravo.
415

Se entiende como distribución binomial a una distribución de probabilidad discreta donde es


posible predecir la cantidad de éxitos observables en una secuencia de “n” ensayos de Bernoulli.
Donde cada ensayo es independiente el uno del otro. Se asume que existe una probabilidad fija
de éxitos entre los “n” ensayos. Por lo tanto, si un evento comprende “x” éxitos, tendrá entonces
[Y = (n-x)] fracasos, donde “p” denota la probabilidad de éxito, y [q = 1-p] La distribución
Binomial permite calcular la probabilidad de presentar “x” éxitos en “n” ensayos.

Úsese alguna de estas fórmulas si y solo si, sus variables aleatorias presentan como salidas
sólo dos estados (variables dicotómicas y que puedan tomar valores discretos) [Éxito / Fracaso]

.s o [1 / 0]. Es decir, sus salidas son binomiales con probabilidad de éxito o fracaso igual o
ne
oi desigualmente distribuido; la probabilidad binomial necesita ser acumulada y computada o la
ac muestra está compuesta por un número fijo de “n” observaciones. Estas fórmulas también son
lic
Ap usadas cuando la población es operacionalizada como proporciones, allí un porcentaje presentará
y
oñ la característica bajo estudio y el otro no. Donde p= proporción de la población que manifiesta el
ise
fenómeno y [q= (1-p)] proporción poblacional que no manifiesta las características bajo estudio.
,D
iss
il 22.4.- Muestreo Aleatorio Simple
án
A
:o El Muestreo Aleatorio Simple consiste en el más sencillo de los tipos de muestreo pero el más
ic
íst
aplicado dentro de cualquier otro esquema. En este tipo de muestreo se asegura que todas las
da
ts unidades tienen la misma probabilidad de ser seleccionadas, quiere decir, no existe sesgo
E
otre
premeditado, allí se seleccionan “n” unidades dentro de un universo de “N” elementos de
sue
población de manera que se cumpla la condición de selección para cada unidad poblacional.
M
:na Este método asegura a los investigadores que la muestra extraída carece de sesgo y es por entero
ue
alb confiable.
V
na La aleatoriedad evita la formación de patrones o repetición de resultados, para ello son
im necesarios números aleatorios o algoritmos que generen una secuencia impredecible, no
o
R
gobernada por factores internos o externos y completamente estocástica. Dentro del muestreo
probabilístico, al cual pertenece el aleatorio simple, podemos encontrar varios subtipos de
muestreo, donde los más comunes son los con y sin reemplazo. Bajo las consideraciones de
(Johnnie, 2012), el muestreo aleatorio simple presenta un conjunto de ventajas y desventajas:

Ventajas:

• La información requerida de la población es básica, en otros esquemas, como el muestreo por


clusters, por proporciones o el estratificado, se necesita de una mayor cantidad de información
416

de la población y el cumplimiento de ciertos prerrequisitos con respecto a la distribución


estadística de la población objetivo.
• Cada selección de muestras son independientes unas de otras, y por cumplir criterios de la
teoría de la probabilidad, cada combinación de unidades muestrales tiene igual oportunidad de
ser elegida.

• El procesamiento matemático de este tipo de muestreo es en esencia muy simple, además,


puede ser computado por cualquier software de procesamiento estadístico.

Sin embargo, sus debilidades recaen sobe los siguientes razonamientos:


.s
ne • De la población objetivo se requiere un marco muestral que no existe ni prevalece
oi
ac naturalmente en ella, sino que debe ser construido. Cosa para nada fácil, pues debe hacerse
lic
Ap con discreción y el resultado arrojará un error muestral. Procedimientos alternativos como el
y muestreo por clústeres, no requieren de un marco muestral de unidades poblaciones ya que

ise sus elementos se agrupan de manera natural.
,D
si • Como condición y producto de observaciones, el muestreo aleatorio simple presenta errores
si
lá mayores y menor precisión que otros esquemas de muestreo donde los tamaños poblacionales
n
A sean similares.
:o
ic
íst • El muestreo aleatorio simple podría no contener los elementos suficientes para sub grupos
da pequeños. Por lo que se recomienda, de presentarse estos casos, no utilizarse en análisis
ts
E
otre comparativos de categorías pequeñas. Sobre todo, si la población bajo estudio contiene
sue muchas categorías.
M
:na 22.4.1.- Muestreo Aleatorio Simple Con Reemplazo
ue
alb
Al tipo de muestreo aleatorio donde cada elemento de la población puede ser elegido más de
V
na una vez, repetidas veces en “K” ensayos, pues le ha sido asignada la condición de devolución, se
im
o le denomina muestreo con reemplazo. Para cualquier población objetivo considerada finita el
R
muestreo aleatorio simple con reemplazo la convertirá en infinita, ya que sus miembros no se

agotarán nunca no importa la cantidad de ensayos muestrales que sobre ella se ejecuten. Esta
propiedad se la atribuye precisamente, su característica de devolución de cada elemento
poblacional posterior a cada ensayo.

22.4.2.- Muestreo Aleatorio Simple Sin Reemplazo

Por su lado, el tipo de muestreo aleatorio donde se condiciona que cada elemento de la
población muestreado no podrá ser elegido nuevamente para otro ensayo, pues le ha sido
417

asignada la condición de no devolución, se le denomina Muestreo Sin Reemplazo. En este tipo de


muestreo, por sus características, a medida que se avance en los ensayos la población marcará
una tendencia a disminuir ya que sus elementos no podrán ser insertados nuevamente a la
población.

22.5.- Muestreo Aleatorio Estratificado

Se le conoce como un tipo de muestreo donde la población primeramente es dividida en

subgrupos sin superposición de unidades. Quiere decir, la población es fraccionada en estratos


sin vínculos o interconexiones, y se asume que la sumatoria de todos los estratos dará como
.s
ne resultado la totalidad de la población. Esta estrategia permite sub analizar cualquier cantidad de
oi
ac sub grupos derivados desde la población original. Donde, cada elemento de la población ha de
lic
Ap pertenecer a uno y solo uno de los estratos delimitados, además, luego de ser divididos en
y estratos, sobre cada uno se aplicará el muestreo aleatorio simple, siendo cada estrato muestreado,

ise mutuamente independiente de cualquier otro.
,D
si
si La estratificación, desde el punto de vista estadístico, facilita la obtención de estimadores

n mejorando su precisión ya que reduce la varianza. Se entiende entonces que la varianza de un
A
:o estrato será siempre menor a la derivada desde la población total. Otras ventajas del muestreo
ic
íst
da estratificado es que permite hacer comparaciones entre estratos y dentro de ellos, donde podrán
ts usarse diferentes métodos de estimación sobre cada uno. Y en efecto, cada estrato podrá ser
E
otre
operacionalizado con una técnica de recolección de datos diferente dependiendo del interés del
sue
investigador sobre cada sub grupo.
M
:na
De acuerdo a (Lohr, 2010), la teoría del muestreo estratificado admite la división de la
ue
alb población de “N” unidades de muestreo en “H” capas o estratos, con “Nh” unidades de muestreo
V en el estrato “h”. Para comenzar con la estratificación, los valores N1,…N2,…Nh, deben ser
na
im conocidos, de manera que: [ ] donde N será el número total de
o
R unidades de la población.

En el muestreo estratificado es posible aplicar un muestreo aleatorio simple sobre cada estrato
independientemente de los otros, tal que “nh” observaciones serán aleatoriamente seleccionadas
de las “Nh” unidades de muestreo en el estrato “h”. Definiremos “Sh” como el conjunto de “Nh”
unidades en el muestreo aleatorio simple para el estrato “h”, entonces, el tamaño total de la
muestra será: [ ]

Es de recalcar que la cantidad de unidades muestrales dentro de cada estrato debe ser
418

estimada con las técnicas del muestreo aleatorio simple y en proporción a las unidades
poblacionales de cada estrato. Es de obligatoriedad que, en el muestreo estratificado, los tamaños
relativos de los estratos sean conocidos. Pues se utilizarán para obtener los Estimadores
Insesgados, la Varianza de los Estimadores, el Error Estándar para Muestras Estratificadas y el
Intervalo de Confianza para muestras del mismo tipo. Parámetros de suma importancia a la hora
de contrastar hipótesis.

Bajo consideraciones de (Johnnie, 2012), el muestreo estratificado contiene dos grandes


subtipos de muestreo: el Muestreo Estratificado Proporcional y el Muestreo Estratificado

.s Desproporcional. En el primero, el número de elementos localizados en los estratos, o la


ne
oi fracción de muestreo utilizada es proporcional a la representación de los estratos en la totalidad
ac de la población. El segundo se corresponde con un procedimiento donde el número de elementos
lic
Ap muestreado para cada estrato no es proporcional a la representación del total de la población,
y
oñ quiere decir, la fracción de muestreo variará para cada estrato. A continuación un gráfico que
ise
describe los subtipos de muestreo379:
,D
si
si

MUESTREO
n ESTRATIFICADO
A
:o
ic
íst
da Proporcional
Asignación Asignación
ts Desproporcional
E
otre
sue el análisis de
desproporcionada
paraAsignación
estratos Asignación
desproporcionada
M para el análisis
:na entre estratos
ue Asignación Óptima
alb
V
na
im Optimización de
Costos de
Optimización Optimización de
o Costos y de
Precisión
R Precisión

Fuente: Johnnie, Daniel (2012) Sampling Essentials:


Practical Guidelines for Making Sampling Choices

379 Concepto de Muestreo tomado desde Johnnie, Daniel (2012) Sampling Essentials: Practical Guidelines for Making Sampling Choices. Los
conceptos aquí descritos fueron reinterpretados y los ejemplos no pertenecen a Johnnie Daniel.
419

22.5.1.- Asignación Desproporcionada para el Análisis de Estratos

Cuando se opera con estratificación proporcional, el tamaño de la muestra del estrato resulta
normalmente muy pequeño como para deducir inferencias y lograr los objetivos de
investigación. Una asignación proporcional podría no manejar el número de casos suficientes
para análisis detallados. Y, el propósito del estudio es precisamente conducir análisis bien
detallados sobre el estrato muestreado.

Ahora bien, si se sobremuestrea 380 este pequeño estrato se crearán distribuciones


desproporcionadas cuando éste sea comparado al de la población. Entonces, se harán presentes
.s
ne las unidades de estudio necesarias y que no hubiesen estado allí de no haber ejecutado el proceso
oi
ac de sobremuestreo. Como ejemplo: suponga que se desea preguntar sobre la calidad del servicio
lic
Ap del agua en todo un imaginario país. Éste sólo tiene 5 estados, el estado “A” representa al 31,9%
y de la población. El estado “B” al 24,6%; el “C” al 22,1%; el “D” al 19,8% y el “E” sólo al 1,6%.

ise
,D La población total a entrevistar son 1000 personas a nivel nacional. Si se suman todos los
iss estratos da como resultado la totalidad de la población, condición necesaria para el muestreo
liá
n aleatorio estratificado. Ahora procederemos a sub analizar cualquier cantidad de sub grupos
A
:o derivados desde la población original. Donde, cada elemento de la población ha de pertenecer a
ic
íst uno y solo uno de los estratos delimitados.
da
ts
E Al estado “A” le corresponden entonces 319 entrevistas; al estado “B” le corresponden 246;
otre
sue al “C” 221; al “D”198 y por último al “E” solo 16. Ya hemos distribuido proporcionalmente las

M entrevistas por estratos. Ahora bien, surge la interrogante ¿Cómo deducir inferencias a partir del
:na
estrato “E” cuando su proporción es numéricamente muy pequeña comparada con los demás
ue
alb estratos? Los resultados a nivel nacional serían por enteros correctos y sin problema alguno. El
V asunto es ¿Cómo analizar internamente al estrato “E”? A todas luces, el número de casos son
na
im insuficientes para análisis detallados.
o
R
Como solución al problema se sugiere sobre-representación del estrato “E”, quiere decir, el
sobremuestreo. Supóngase que no se entrevistan 16 como corresponde sino que se
sobredimensiona y se entrevistan a 50 personas más: [16 + 50= 66] Esto generaría un segundo
inconveniente, la sobre-representatividad de una muestra alteraría las inferencias nacionales si no
se equilibran los elementos añadidos. Entonces, el investigador decide otorgar un peso ponderal
a cada entrevista conforme el 1,6% que le corresponde a nivel nacional. De esta manera se hace

380En estadística se dice que se ha sobremuestreado cuando se toman algunos elementos de más de los que realmente les correspondían como
proporción de una muestra principal. El proceso de sobremuestreo genera una sobremuestra.
420

la Asignación Desproporcionada para el Análisis de Estratos y se logra conducir un estudio con


inferencias satisfactorias.

22.5.2.- Asignación Desproporcionada para el Análisis Entre Estratos

Según Johnnie Daniel, si un estudio requiere de la comparación entre estratos le será


necesario un número suficiente de elementos en cada categoría. El investigador deseará la
maximización del tamaño de la muestra para cada estrato. Si es así, entonces le será apropiado
usar Asignación Equitativa y también denominada como Asignación Balanceada o Muestreo
Factorial. Es normal que cuando se opera con estratos éstos sean desiguales, allí la fracción de
.s
ne muestreo variará para cada uno, dificultando las inferencias cuando los estratos más pequeños no
oi
ac estén suficientemente representados. Por ende el investigador optará por sobre-muestrear ciertos
lic
Ap estratos y equipararlos en cantidad de unidades con el fin de poder ejecutar las comparaciones
y necesarias.

eis
,D Supongamos que una clínica muy concurrida cuenta con 1.000 pacientes que asisten a la
si
si totalidad de sus especialidades de consulta. Un investigador desea indagar sobre la calidad de

n servicio percibido por estos pacientes. No obstante, de estas 1.000 unidades poblacionales 800
A
:o son mujeres y sólo 200 hombres, es evidente una sobre representación de uno de los géneros. Si
ic
íst
se muestrea al 10% de la población, 100 personas, la fracción de muestreo [8/10] (80) serán
da
ts
E mujeres y sólo [2/10] (20) hombres.
treo
se Como la muestra de hombres no contiene la cantidad suficiente de elementos podría arrojar
:Mu
inferencias erróneas. Entonces el investigador meditará una muestra adecuada sobre
na muestreando a los hombres y podrá seleccionar en vez de 20, 80 elementos de la categoría. Esta
ue
alb asignación balanceada le permitirá brindar una óptima representación de cada estrato pero le
V
na traerá las siguientes consecuencias: Sesgo en los resultados consecuencia del sobre muestreo y la
im escasa representación, sobre-dimensionamiento de uno de los estratos, ello se soluciona
o
R
ponderando las puntuaciones para la categoría de los hombres; estos ajustes estadísticos
aplicados para que un sub grupo sea mejor representado hará que un muestreo desproporcionado
sea menos confiable que uno proporcional.
421

22.5.3.- Asignación Óptima: de Costos y Precisión

Asignación Óptima, desde el punto de vista del muestreo estadístico, refiere a un método de
muestreo estratificado donde la asignación muestral busca el mejor o más óptimo tamaño por
estrato, y cuya ecuación contiene una variable que representa el costo de muestrear cada
elemento dentro del estrato. Según Johnnie Daniel Op. Cit, el muestreo proporcional
estratificado puede brindar márgenes de error más pequeños que el muestreo aleatorio simple
cuando se usa para estimar parámetros poblacionales. No obstante, esto es posible mejorarlo.

.s Para ello emplearemos la asignación óptima. Éste consiste en un diseño que admite el logro
ne
oi de una gran exactitud comparada contra la obtenida desde el muestreo proporcional. Del
ac
lic muestreo con asignación óptima se destacan dos aspectos, costo y precisión. La fracción de
Ap
muestreo variará acorde al costo y variabilidad intra estratos. La asignación óptima toma en
y
oñ cuenta las varianzas diferenciales y costos por estratos, su objetivo, obtener información acerca
eis
del menor costo al aplicar la recolección de datos para el muestreo. A continuación la fórmula de
,D
si Asignación Óptima:
si

n
A
:o
ic ∑
íst
da
ts
E Donde: C= costo; Co= Gastos generales: ch= costo de tomar una observación en el estrato:
treo
nh= tamaño de la muestra por estrato h.
se
:Mu
Si se desea asignar observaciones al estrato con el fin de minimizar la varianza para
na
ue determinado costo total, se puede demostrar usando cálculo que la asignación óptima para
alb
determinado estrato es proporcional a la siguiente relación para cada estrato “h”:
V
na
im
o
R √

Entonces, el tamaño óptimo del estrato “h” será381:


⌊ ⌋
∑√

Un caso especial de asignación óptima es el de la ASIGNACIÓN DE NEYMAN: este asume

381Véase: (Lohr, 2010). P. 89. Stratified Sampling.


422

que el costo de la recolección de datos por unidad muestreada “ch” es aproximadamente


constante en todo el estrato y maneja la siguiente ecuación:

Donde Sh = la desviación estándar del estrato “h”. Si el costo total por unidad muestreada es
constante para todo el estrato entonces: Ci = C.

22.6.- Muestreo Aleatorio Sistemático

.s Se conoce como Muestreo Sistemático a un tipo de muestreo donde el investigador elige


ne
oi primero el número de inicio “i” y luego el intervalo de muestra “t” en el cual serán elegidas las
ac
lic otras opciones de la muestra. Por ejemplo: se desea conocer la opinión de 123 comensales
Ap
<<Población Total>> que están presentes en un restaurant en determinado momento. Luego de
y
oñ ser numerados por el investigador, elegiremos como número de inicio el 6 y como intervalo de
ise
muestra el 9. Posteriormente, se parte desde el comensal número 6 ascendiendo así de 9 en 9.
,D
si Quiere decir: los entrevistados serán los números: [6:15: 24: 33: 42: 51: 60: 69: 78: 87: 96: 105:
si

n 114: 123] logrando entrevistar a 14 de los 123 comensales.
A
:o
ic Cuyos datos estadísticos son:
íst
da
ts
E
otre
sue
M
:na
ue
alb Conclusión, el 11,3% de la población fue entrevistada y por cada uno éste representaba a 8,78
V personas. Inconveniente, este método presupone al menos dos problemas principales: primero,
na
im sólo es posible usarlo si los individuos admiten la clasificación para cierto orden fijo.
o
R Segundo, si el estudio donde se aplica presenta periodicidad podrían surgir errores cuando uno
de los periodos coincida con la progresión aritmética <<fracción de elevación>> por éste
empleada. De manera que la simple aparición de alguna coincidencia entre la técnica y la
periodicidad hará que la muestra ya no sea aleatoria, comprometiendo en gran medida la
representatividad de la muestra ante la totalidad de la población.

Otras desventajas de este tipo de muestreo recaen sobre la imposibilidad de obtener un


estimador de varianza por su periodicidad, especialmente cuando el intervalo de la muestra
coincide con la longitud del período, la varianza permanecerá constante y por ende no existirá.
423

Además, si las unidades no son conformadas en un buen arreglo lógico, podría generarse una
muestra inadecuada y sin representatividad. Por ejemplo: las temperaturas más bajas en
Venezuela se presentan en enero, y las más altas en agosto.

Si se desea conocer el promedio de temperaturas para los siguientes 20 años (240 períodos

mensuales), no asumiendo el caso de una investigación predictiva, y se elige i=1= Enero, y


como intervalo de muestra se toma T= 12, entonces los períodos de frio coincidirán con la
progresión aritmética en enero de cada año. Así como si se eligiese T=8, coincidiendo entonces
con los períodos de calor. Pero, si el intervalo de muestra se conforma de manera que un número

.s impar sea múltiplo de la mitad del período, entonces el muestreo sistemático diseñado arrojará
ne
oi bastante eficiencia. Buscando romper la periodicidad cuando ésta se presenta con fases altas y
ac
lic bajas.
Ap
y

ise
,D
si
si

n
A
:o
ic
íst
da
ts
E
otre
sue
M
:na
ue
alb
V
na
im
o
R
424

22.7.- Muestreo Probabilístico por Conglomerados <<Clusters>>

Consiste en una técnica de muestreo donde los bien definidos miembros de una población son
organizados o clasificados por grupos como primer paso. A cada clúster se le considerará como a
un individuo con todas las características representativas de la población. Luego, una cantidad
aleatoria de grupos es seleccionada y obtenidas desde allí sub muestras. Los clusters o grupos
son unidades poblacionales que se concentran de manera natural en la distribución estadística de
la población. Uno de los principales inconvenientes, según (Salkind, Encyclopedia of Research
Design, 2010), es que la técnica ocasiona la posible pérdida de heterogeneidad que existe dentro
.s de los grupos cuando se toma al grupo entero como una unidad.
ne
oi
ac Para (Thompson, 2012), tanto el muestreo sistemático como el muestreo por clusters
lic
Ap pareciesen ser opuestos, el primero deja intervalos iguales entre espacios muestrales, el segundo
y los agrupa sin importar sus distancias. No obstante, los dos diseños comparten la misma

ise estructura. La población es particionada en unidades primarias, cada unidad primaria está
,D compuesta de unidades secundarias dentro de ella. En el muestreo sistemático una unidad
si
si
lá primaria simple consiste en unidades secundarias espaciadas sistemáticamente dentro de la
n
A población.
:o
ic
íst
da Contrariamente, en el muestreo por clusters, una unidad primaria consiste en un clúster de
ts unidades secundarias agrupadas naturalmente. Si bien es cierto, el muestreo por clusters reduce
E
otre costos, también incrementa el error. Una de las diferencias más notables entre el muestreo
sue
estratificado y el muestreo por clusters radica en que en el primero, cada unidad poblacional se
M
:na ubica en un solo estrato. En el segundo, cada unidad muestral pertenece a sólo un clúster
ue
alb formado naturalmente.
V
na
im
o
R
425

22.8.- Muestreo Probabilístico Multietapas

Se conoce como Muestreo Multietapas, a aquel tipo de muestreo que se aplica por partes o
segmentos dados la complejidad de la población a estudiar y el objetivo de investigación
propuesto. Consiste en una forma un poco más compleja del muestreo por clusters. Al primer
paso se le denominará unidad muestral primaria (UMP), secundaria (UMS) y terciaria (UMT), y
así sucesivamente. Aquí es de suma importancia la heterogeneidad de las unidades. Para cada
etapa debe construirse un marco muestral y todos los marcos deben estar jerárquicamente
concatenados.
.s
ne Habrá mayor cantidad de elementos en la primaria, menor en la secundaria, menor en la
oi
ac terciaria y así en consecuencia hasta llegar a las últimas unidades, aquellas que ocupan el área o
lic
Ap lote más pequeño. Las ventajas de este tipo de muestreo es que resulta muy flexible, de bajo
y costo y reducido tiempo de aplicación. Sus desventajas radican el que es imposible alcanzar el
o
ñise 100% de la población, lo que lo convierte en un tipo de muestreo altamente subjetivo.
D,
iss La teoría del Muestreo Multietapas descansa en los siguientes razonamientos: considere una
il
án población “U” dividida en “M” partes denominadas unidades muestrales primarias (UMP), cada
A
:o unidad primaria es particionada en “Ni” partes llamadas unidades muestrales secundarias
ic
íst
da (UMS), allí se les identifica con el par ordenado (i; k), donde “k” varía desde 1 hasta “Ni”.
ts
E Entonces, la población de las unidades muestrales secundarias estará contenida dentro de las
treo unidades muestrales primarias “i” es denotada con “Ui”. De manera que es posible la repartición
se
:Mu de cada unidad secundaria y hacer iterativo el proceso. Determinando la muestra final por etapas

an sucesivas.
ue
bl Por ejemplo, un equipo médico necesita seleccionar una muestra de pacientes en una ciudad
a
V “X” con el fin de estimar la prevalencia de diabetes tipo II, y ejecutar pruebas de hipótesis contra
na
im resultados de otras ciudades. Según datos epidemiológicos la ciudad “X” manifiesta una alta
o
R
prevalencia de la enfermedad, 13.800 afectados, comparada contra otras ciudades, entonces el
grupo de galenos debe hacer el estudio sobre no menos del 10% de la población. La secuencia
sería la siguiente:

• Se seleccionan aleatoriamente 6 municipios de la ciudad “X”, Unidad Muestral Primaria;


• En cada municipio se seleccionan 4 centros hospitalarios, Unidad Muestral Secundaria;
• En cada hospital se seleccionan aleatoriamente 3 grupos de pacientes que por manifestación
de diabetes tipo II asistan a las consultas de endocrinología, Unidad Muestral Terciaria;

• Finalmente, se hace la selección aleatoria de 20 unidades muestrales por cada grupo, con lo
426

que se obtendría una muestra total de (6*4*3*20) =1440 pacientes, habiendo alcanzado
estudiar al 10,43% de la población.

Las unidades muestrales en cada etapa podrán ser obtenidas usando el muestreo aleatorio
simple, por estratos o sistemático. En ese sentido, y bajo consideraciones de (Som, 1996), el
muestreo Multietapas puede usarse en situaciones de este tipo:

• Los marcos muestrales podrían no estar disponibles para todas las unidades de observación
del universo poblacional;

• Incluso, si los marcos muestrales para las últimas unidades de observación estuviesen
.s
ne disponibles, un diseño Multietapas sería más conveniente que un diseño simple;
oi
ac • El muestreo mutietapicos ha demostrado ser un eficiente método de reducción de errores en
lic
Ap las respuestas, y mejora la eficiencia del muestreo a través del coeficiente de correlación intra
y clases observado en las unidades muestrales.

ise
D, 22.9.- Muestreo No Probabilístico: Muestreo por Cuotas
si
si
lná El Quota Sampling382 o Muestreo por Cuotas, es una técnica no probabilística de muestreo
A mediante la cual el investigador divide a la población objetivos en sub grupos usando y
:o
ic basándose en sólo la necesidad planteada para la investigación. A pesar de ser una técnica no
tdís
at
s probabilística, se recomienda conocer la distribución poblacional <<no obligatoria por sus
E
otre tipologías>> pues, la muestra seleccionada debe reproducir lo más acertadamente posible las
sue características de la población. Si la distribución de la población es conocida, entonces será más
M sencillo asignar las Cuotas necesarias para cada categoría de estudio. Allí a las características
:na
ue conocidas de la población: A: B: C…..Z… presentan sus respectivas modalidades: A1, A2,. . .,
bl Aa; B1, B2,..., Bb; Z1, Z2,..., Zz,
a
V
na
im Conocidas las características y modalidades de la población, entonces, el investigador
o
R obtendrá la muestra deseada multiplicando todas las diferentes modalidades por sus respectivos
rasgos de control y por la frecuencia de muestreo, ésta última, el porcentaje de la población que
se desea muestrear. La muestra final tendrá un tamaño de [n = N.q] y debe presentar la siguiente
distribución:
q · XA1, q · XA2, ..., q · XAa ,
q · XB1, q · XB2, ..., q · XBb, ...,
q · XZ1, q · XZ2, ..., q · XZz,

382 Concepto tomado desde: (Dodge, 2008). Quota Sampling.


427

El muestreo por cuotas consiste, por consiguiente, en la forma no probabilística del muestreo
estratificado pero con ciertas variantes. Tal como en la ecuación previa, la cuota de cada tipo de
unidad de muestreo se corresponde con el tamaño de la muestra multiplicada por la proporción
de la población. A saber, la muestra seleccionada presenta la misma proporción de elementos
constitutivos de la población. Donde las cuotas son delimitadas a través de mecanismos no
aleatorios y divide a las sub-población de acuerdo a variables comunes a criterio del
investigador, introduciendo juicios subjetivos si las variables comunes no tienen asideros
lógicos.

.s Por sus características, esta muestra y cuota final basada en la proporción de cada subgrupo,
ne
oi se obtiene luego del siguiente procedimiento:
ac
lic
Ap • Paso 1: Desintegración; se divide a la población en sub-grupos conforme la lógica requerida
y por alguna variable, presentando características de exhaustividad <<incluir a todas las

ise unidades en un solo grupo>>, así como características de exhaustividad <<una unidad no
,D puede pertenecer a más de un grupo>>
si
si

n • Paso 2: Determinación del Tamaño de la Cuota: segmentada la población conforme el paso
A
:o 1, se establecen los objetivos en función a la proporción de las unidades respecto al tamaño de
ic
íst la población. Por ejemplo: se desea ejecutar un estudio sobre las características genéticas de
da
ts los ciudadanos en una distanciada ciudad de sólo 1.000 habitantes. Allí sus pobladores están
E
otre distribuidos en 60% afro-descendientes y 40% arios. Si se elige una muestra del 10% de la
sue población, se obtendría una cuota de 60 afro-descendientes y 40 blancos. En este caso
M
:na particular las cuotas no son proporcionales, en otros casos sí podrían ser.
ue
alb • Paso 3: Elección Intra-Cuota: definidas numéricamente las cuotas, se procede entonces a
V
na elegir a los participantes hasta cubrir el número establecido por cada cuota. Por tratarse de un
im muestreo no probabilístico, la selección primaria de las cuotas, o secundaria de elección de los
o
R
participantes no tiene por qué ser aleatoria. El investigador podrá optar por salir a la calle y
aplicar su estudio sobre los primeros individuos de cada sub-población que consiga hasta

completar sus cuotas.


428

22.10.- Muestreo No Probabilístico: Muestreo Proporcional

El Muestreo Aleatorio Proporcional consiste en un procedimiento donde el investigador


desintegra una población total en finitas partes denominadas sub poblaciones, para
posteriormente aplicar sobre cada una un muestreo aleatorio simple. Una proporción en
matemáticas, denota una ecuación fraccional de la forma a/b = c/d. Las hay de dos tipos: directas

e inversas.

Una proporción directa es aquella donde la relación entre dos variables permanece constante.
Una proporción inversa es aquella en la cual se elige una constante y esta se le multiplica y
.s
ne divide al mismo tiempo a la ecuación.
oi
ac
lic En este tipo de muestreo el número de elementos localizados en los estratos es proporcional a
Ap
la representación de la suma de los estratos con respecto a la totalidad de la población. Aquí se
y
oñ maneja el supuesto de que cada estrato contiene una diferente cantidad de unidades muestrales,
ise
D, existiendo entonces, estratos más grandes y más pequeños, pero donde todos son proporcionales
si
si a sus tamaños respecto de la población total. La teoría del muestreo proporcional asume la
lná
existencia de estratos internamente homogéneos, pero que cuantitativa y cualitativamente
A
:o
ic divergen contra otros estratos.
tdís
at En razón, no se cumple con los supuestos para elección aleatoria ya que, al existir estratos
s
E mayoritarios, estos tendrían mayores oportunidades de ser elegidos. Una de las ventajas de este
treo
se tipo de muestreo es que admite el uso diferentes tipos de muestreo para cada estrato, siendo sus
:Mu
muestras por estrato más representativas que las obtenidas desde el muestreo aleatorio simple.
na No obstante, dos de sus desventajas radican en que la clasificación por estrato involucra un gran
ue
bl número de variables, haciendo que los análisis se tornen en esencia complejos. Del mismo modo,
a
V una mala clasificación de una unidad muestral dentro del estrato amplía el riesgo de incrementos
na
im en la variabilidad.
o
R
22.11.- Estadísticos Muestrales

A toda aquella cantidad obtenida desde una muestra y que es utilizada con el fin de estimar un
parámetro poblacional se le conoce como Estadístico Muestral. Entiéndasele como a todo aquel
parámetro que admita el uso de alguna prueba de hipótesis tendente al contraste de al menos dos
o más estadísticos muestrales. Los más comunes de los estadísticos muestrales son: las
distribuciones muestrales; la media muestral; la distribución muestral de medias; la distribución
muestral de proporciones; la varianza muestral y la distribución muestral de varianzas.
429

22.11.1.- Distribuciones Muestrales

Toda muestra aleatoria presenta estadísticos que les son propios, entre ellos la media, la
varianza, la desviación estándar e incluso las proporciones. Cada uno brinda información
particular acerca de la población de donde fue extraída. Ahora bien, supóngase que existe más de
una muestra de una misma población y cada una presenta parámetros estadísticos particulares, es

decir, un comportamiento general y matemáticamente predecible. Entonces, cuando se compilan


todas las muestras posibles de una población y se procesan con una distribución de probabilidad,
da como resultado una distribución muestral.
.s
ne Todo estadístico muestral es consecuencia de compilar variables aleatorias, por ende, la
oi
ac sumatoria de variables aleatorias da como resulta otra variable aleatoria, en ese sentido, a la
lic
Ap distribución de probabilidad aplicada y calculada para un estadístico muestral específico da
y origen a la distribución muestral del estadístico y sirve para probar hipótesis con respecto a las

ise muestras.
,D
iss 22.11.2.- Media Muestral
liá
n
A La media muestral cumple la misma función que la media aritmética común, por ejemplo, de
:o
ic una población de 100 alumnos de bachillerato se extrae una muestra del 10% para conocer la
íst
da
ts media de esta muestra en sus calificaciones de estadística, denominaremos a cada nota como una
E
otre variable aleatoria X1, X2, X3…Xn…. : entonces:
sue
M ̅
:na
ue
alb La media muestral es un estadístico poblacional que sirve para probar hipótesis acerca de 3
V tipos diferentes de preguntas, cada una da origen a una prueba diferente, pruebas bilaterales
na
im <<cuando el fenómeno bajo estudio está delimitado entre rangos>>, pruebas unilaterales hacia la
o
R derecha <<tal cantidad es mayor que>> y unilaterales hacia la izquierda <<tan cantidad es menor
que>>

22.11.3.- Distribución Muestral de Medias

Cuando se tiene una distribución de probabilidad de alguna población determinada de la que


se ha extraído una muestra “n”, entonces es lícito que el investigador desee ampliar el campo de
las inferencias preguntándose sobre el cómo, esa media muestral ̅, manifiesta su distribución de

probabilidad, pues le servirá para responder a interrogantes e hipótesis específicas. A ello


430

denominaremos Distribución Muestral de Medias. Como el presente aparte pertenece a la teoría


general de muestreo, es preciso delimitar a algunos teoremas383 que rigen a las distribuciones
muestrales de medias y que las relacionan con otros estadísticos poblacionales.

Primer Teorema: la media de la distribución muestral de medias se denota como ̅ y está


dada por: (̅) ̅ = entendiéndose a como la media poblacional. Sencillamente este

primer teorema demuestra que si se toman varias muestras todas aleatorias de una misma
población, y éstas siguen una distribución más o menos normal, el valor esperado será la media
de la población .

.s Segundo Teorema: supongamos ahora que la población bajo estudio es infinita, o al menos
ne
oi sus unidades muestrales superan los 10.000 componentes y además se usa un muestreo aleatorio.
ac
lic
Ap O como segunda condición, la población no es infinita y el muestreo aleatorio utilizado incluye
y reemplazo. Para estos casos se afirma que la varianza presente en la distribución muestral de la

ise media, que denotaremos como resultante será la varianza de la población dividida sobre el
,D número muestral y proviene desde la siguiente ecuación:
si
si

n (̅)
A
:o
ic
íst
da Tercer Teorema: ahora bien, y como condición al teorema 2, dada una población de tamaño
ts
E “N”, se utiliza un muestreo sin reemplazo de unidades, y el tamaño de la muestra es menor al de
otre
la población, quiere decir, n N, entonces en vez de la ecuación del teorema 2 utilizaremos:
sue
M
:na ( )
ue ()
alb
V Obsérvese que para los casos donde “N” supere las 10.000 unidades, o tienda al infinito, la
na
ecuación válida será la del teorema 2, ya que quedará reducida a esta.
im
o
R Cuarto Teorema: si la población de donde son extraídas las muestras se considera
distribuida normalmente, presentando una media además de una varianza , entonces se
considera que los estadísticos resultantes no sufrirán variación y manifestarán la misma media

con una varianza

383 Es bueno recalcar que un teorema consiste según la lógica matemática, en una hipótesis ya demostrada. En tanto, podrán usarse con gran
confianza.
431

Quinto Teorema: en este caso supongamos que la distribución de la población no

necesariamente tiende a la normalidad, pero presenta una media y una varianza como
cualquier otra que sí tienda a ésta. Entonces se hará presente una variable aleatorizada ̅ que

responderá a la siguiente ecuación para la distribución de Z:

22.12.- Error de Muestreo

.s
ne En propósito del muestreo es lograr la estimación de parámetros poblacionales como, la
oi media poblacional, la media muestral, varianzas o intervalos de confianza, normalmente, ciertos
ac
lic
Ap inconvenientes se presentan y que logran alterar éstos datos. Entonces, se denomina Error de
y Muestreo a las diferencias entre el resultado derivado de una muestra y que es usado en las

ise inferencias, versus las características poblacionales verdaderas estudiadas, denominaremos a
D, estas diferencias a una desviación de la muestra seleccionada contra las verdaderas
si
si
lná características que manifiesta una población. Existiendo una correlación negativa entre error y
A
:o precisión ya que, mientras más alto el error muestral menor será la precisión.
ic
tdís Existen varios tipos y sub-tipos de errores muestrales: los errores muestrales en sí; los errores
at no muestrales, y los errores de Muestreo de Respuesta Aleatorizada. Dentro del sub grupo de
s
E
otre los errores no muestrales tenemos tres sub categorías: los errores en la adquisición de los datos,
sue los Errores de No respuesta y los Errores de sesgo en la selección. A continuación sus
M descripciones.
:na
ue
bl
a MUESTRALES
ERRORES ERRORES NO
ERRORES DE
V MUESTRALES
ALEATORIZADA
RESPUESTA
na
im
o
R

ERRORES EN LA
ADQUISICIÓN DE ERRORES DE SESGO ERRORES DE NO
EN LA SELECCIÓN RESPUESTA
LOS DATOS

Tipos de Errores Muestrales

Un Error Muestral se sobreviene del hecho de hacer observancia de sólo una pequeña parte de
una población total, pues si se tomasen dos o más muestras exactas, numéricamente hablando, de
una misma población, existirá una diferencia entre ellas debido a las características propias y
432

mecanismos usados para su interpretación. Los Errores No Muestrales nada tienen que ver con
las muestras en sí, sino a faltas involuntarias de los investigadores cuando procesan o interpretan
la data. Surgen comúnmente cuando se llevan a la práctica los procedimientos inherentes a la

investigación, aunque pareciesen errores sin importancia, resultan más serios que los errores
muestrales.

En efecto, el hecho de optar por una muestra muy grande queriendo minimizar el error
muestral no garantiza en absoluto su posibilidad de ocurrencia. Pues, quizás, sus unidades
muestrales pudieron haber sido adquiridas inapropiadamente. Tenga presente el investigador que

.s existe una falacia comúnmente diseminada que dictamina: “Mientras más grande sea el tamaño
ne de la muestra menor será el error”, pero la verdad es que tal afirmación no ha sido ni es
oi
ac
lic demostrable. Lo que sí determina el tamaño de una muestra es su homogeneidad, quiere decir,
Ap usted puede tomar una muestra no representativa de una población conocida y totalmente
y
oñ homogénea y llegar a conclusiones más precisas que si optase por una muy grande siendo no
ise
homogénea, incluso los censos manifiestan errores no muestrales.
,D
si
si Por ejemplo: el estándar internacional prescribe que el contenido total de sangre en el cuerpo

n de una persona adulta promedio varía en relación al peso. Con una relación de peso total sobre
A
:o
ic 13, quiere decir, el total de sangre de una persona se calcula tomando su peso y dividiéndolo
íst
da entre 13. Entonces, una persona de 80kg tendrá aprox. 6 litros de sangre. No obstante, bastan
ts
E sólo de 3 a 10 mililitros para hacer un análisis. Si transformamos estos 6 litros a mililitros
otre
sue tendremos 6 mil mililitros, donde estos [3 → 10 mililitros] representan sólo el 0,16% de la
población total de sangre.
M
:na
ue A todas luces una muestra no representativa, pero para nada implica una alteración de los
alb
resultados ya que, lo que sí determina el tamaño de una muestra es su homogeneidad. Ahora
V
na bien, tomemos el ejemplo contrario, si desea corroborar los resultados de un análisis de sangre
im
o con el del ejemplo previo, optemos entonces por maximizar la muestra. Elijamos el 40% de la
R
población total de sangre de una persona para estudiarla y deducir si hay diferencias
significativas entre ambas muestras.

Éste 40% se corresponderá entonces con unos bastante representativos 2.400 mililitros (2,4

litros de sangre). En consecuencia, podremos elegir una prueba “t” de Student para dos muestras
independientes para dilucidar nuestra hipótesis, pero, ¿qué cree sucederá si a una persona le
extraen 2.4 litros de su sangre?, cierto, lo que se denomina Mortalidad Experimental, resultante
de la pérdida de unidades experimentales durante el curso de un tratamiento. En consecuencia, si
433

se conoce que la población es muy homogénea elija una muestra pequeña, si su población es
poco homogénea o muy heterogénea, maximice sus unidades muestrales.

22.12.1.- Los Errores de Respuesta Aleatorizada

Se corresponden con un tipo de error que se sucede cuando se entrevista a personas sobre
temas delicados, tabúes. Por ejemplo, consumo de drogas, alcohol, preferencias sexuales,
religión en algunos casos, tendencias políticas, entre otros. Son un tipo de errores de no respuesta
donde el investigador se interesa en estudiar más allá de lo que se observa o lo que el
entrevistado manifiesta en el cuestionario. Allí normalmente un encuestado dejará en blanco
.s
ne algunas respuestas o contestarán de manera no pertinente, generando sesgo e incrementando la
oi
ac varianza.
lic
Ap
Para dar solución al asunto se ideó un mecanismo estadístico denominado técnicas de
y
oñ respuestas aleatorizadas, su objetivo consiste en intentar reducir el riesgo que corre una
ise
D, investigación cuando uno o más participantes evaden, no responden, o responden con falsedades
iss a preguntas sensitivas. En opinión de (Lewis-Beck, Lia, & Bryman, 2004), las respuestas
il
án
aleatorizadas reúnen una colección de estrategias que incorporan de manera oculta en el
A
:o cuestionario, una serie de técnicas con el fin de proteger al encuestado.
ic
íst
da En estos casos, se ha demostrado que el entrevistado opta por cierto mecanismo aleatorio y
ts
E sicológico para no responder o hacerlo con respuestas ambiguas. Quiere decir, responde pero no
otre
sue en la dirección exacta a la pregunta formulada. Por ejemplo: ante las interrogantes: ¿ha

M consumido usted drogas en el último mes?, o, ¿se ha abstenido usted de consumir drogas en el
:a
nue último mes384? Sólo el entrevistado sabe la verdad, y podría bien admitir a negar los hechos.
bl Como el conjunto de respuestas encierra una distribución binomial, la prevalencia de drogas
a
V usadas puede ser estimada desde el porcentaje de la muestra de respuestas afirmativas, las
na
im restantes obedecerán a la abstinencia. En este caso, la población es operacionalizada como
o
R
proporciones, donde un porcentaje presenta la característica bajo estudio y el otro no.

De manera que la proporción de respuestas afirmativas (π) será385:

( )( )

384 La primera pregunta es la que denominaremos sensitiva y es la que representa al objetivo del estudio, a la segunda la llamaremos optativa y se
genera en función de dar la posibilidad de mentir al encuestado. De manera que el pool de respuestas se cobije sobre una distribución binomial
con proporciones desigualmente distribuidas.
385 Fórmulas tomadas con permiso de: (Lewis-Beck, Lia, & Bryman, 2004: p.919 y 920).
434

Donde “p” es la probabilidad binomial aleatoria y “λ” es el parámetro de prevalencia


deseado. Entonces será posible estimar la prevalencia del atributo sensitivo bajo estudio sólo con
la muestra de la proporción afirmativa con la siguiente fórmula:

De esta manera se libra de errores adheribles


̂ a respuestas aleatorizadas a los cuestionarios
̂

cuando se estudian parámetros sensitivos.

.s 22.12.2.- Los Errores de Adquisición de Datos


ne
oi
ac Normalmente se hacen presentes cuando se sobrecargan los ítems de un cuestionario con
lic
Ap respuestas incorrectas o son registradas de esta manera por los investigadores. De allí se
y obtendrán medidas incorrectas postprocesamiento y desde luego, inferencia imperfectas.

ise
D, 22.12.3.- Error de Sesgo en la Selección
iss
il
án O errores de sesgo en la respuesta, se presentan cuando la información requerida no es
A obtenida desde las unidades muestrales de la población objetivo, sino de otros elementos fuera
:o
ic del marco muestral fijado. Al sucederse, se introducirán datos desde unidades puntuales,
íst
da exógenas y no representativas, ocasionando sesgo en los resultados. Este error es muy común en
ts
E cuestionarios auto-administrados y que las personas se niegan a responder o revelan
treo
se contestaciones inadecuadas por razones varias. Este sesgo está presente en modo oculto <<Furto
:Mu
Modum>> en los cuestionarios tipo Likert auto-administrados, donde se desconoce a ciencia
an
ue cierta el por qué un encuestado responde o no de cierto modo a un mismo continuo sicológico.
bl
a
V
na
im
o
R
435

Ciencia Pura: Lógica de Procedimientos y Razonamientos Científicos


Roiman Valbuena 2017.

CAPÍTULO XXIII: INTRODUCCIÓN


A LA INVESTIGACIÓN
EXPERIMENTAL…

Si tu experimento necesita estadística, hubiera sido necesario hacer un experimento mejor.

Ernest Rutherford.
436

23.1.- El Método Científico Experimental

David Hume. Al referirse a investigaciones que carecen de


elementos abstractos y pruebas o procesos experimentales,
alguna vez expresó lo siguiente:

¿Contiene algún razonamiento abstracto sobre determinada


cantidad o número?... No. ¿Contiene algún razonamiento
experimental acerca de cuestiones de hecho y existencia?... No.
Confínese entonces a las llamas, ya que no puede contener más
que sofistería e ilusión.

enpensamiento
el uso
lprobablemente, científico siempre ha sido considerado como el más complejo y

E la más extraordinarias de las actividades que pueda ejecutar el hombre


de su intelecto. Donde cada científico está en total libertad de usar el método
que mejor se acople a su paradigma, y lógicamente, a la ciencia que esté en estudio. El Método
Experimental es calificado como el mejor y más efectivo de los Métodos de Investigación,
consiste en una estrategia altamente exigente y aplicable a cualquier rama científica por muy
nueva que esta sea. Tanto así que…Cuando se examinan inteligentemente incluso los más
inútiles experimentos, éstos pueden abrir el camino hacia los más sensacionales hallazgos. Max
Planck.

Para Mario Bunge (2004), Experimento es aquella clase de experiencia científica en la cual
se provoca deliberadamente algún cambio y se observa e interpreta su resultado con alguna
finalidad cognoscitiva, (p. 678 y ss.). El Método Científico Experimental es, por su origen y
resultados, estimado como el más efectivo de los Métodos de Investigación. Convirtiéndose en el
más utilizado por las ciencias factuales, se le considera en extremo riguroso en función de la

planificación de actividades que amerita. Aquí cabe una cortes comparación con su contraparte,
el Método No Experimental, el problema de este último subyace en su imposibilidad de tomar
control de la situación bajo estudio, sin tender a infravalorarlo, obvia por completo la ley de
Causa Efecto386.

Toda actividad indagatoria del tipo experimental involucra la creación de nuevos escenarios
para el modelaje de situaciones que permitan al científico actuar en consonancia con sus fines,
haciéndose necesaria la alteración del curso del proceso en la dirección apropiada. De acuerdo a
Rosental-Iudin (2004), el experimento es fuente de conocimiento y criterio de la verdad para
hipótesis y teorías. Todo experimento consiste en una manipulación premeditada y estrictamente

386 Según Ferrater Mora (2000), la causa permite explicar por qué se ha producido cierto efecto. Uno de los principales argumentos del principio
de la razón suficiente o determinante <<expuesto previamente>>, se basa en el supuesto de que nada acontece sin razón, siendo lo acontecido la
consecuencia de un estado anterior al que conviene cabalmente al término causa. No obstante, el principio de causalidad, que relaciona mejor
ambos términos, se explica más profundamente en el Cap. XXI, en el apartado de la Física Teórica: Los Sistemas Físicos y la Causación. Véase.
437

controlada de eventos bajo estudio. Se usa para producir observaciones del tipo causa – efecto,
éstas permitirán aceptar o rechazar, tanto hipótesis como teorías. Para Ian Hacking (1983), Un
Experimento por sí mismo tiene vida propia.

Los experimentalistas o métodologistas experimentales, no esperan pasivamente a que


determinado evento se suceda naturalmente. Simplemente, establecen las condiciones y lo
recrean artificialmente tomando en cuenta la mayor cantidad de factores intervinientes posibles.
Implica cambiar “x” y observar su efecto sobre “y”. Su origen es empírico, puesto que depende
de la experiencia para establecer el valor veritativo de sus enunciados. Es tanto lógico como

sistemático.

Comienza con la observación en cualquiera de sus tres fases constitutivas387, esta permite
.l
at bien, el crear una teoría que explique el fenómeno, suceso o evento, o en su defecto, recopilar
ne
rim elementos de convicción, los cuales a través de argumentaciones razonadas y matemáticamente
e soportadas, permitan modificar o refutar otra. Un experimento por lo general, intenta unir
xp
E fragmentos de teorías y establecer relación estímulos – respuestas sobre el fenómeno.
oic
tíf
nie Posteriormente, se conforma una estructura teorética y se le usa para predecir futuros eventos
C derivados de las observaciones y todas aquellas premisas que se incluyeron en la teoría
o
od explicativa. Acto seguido, se procede al diseño del experimento más adecuado que permita
tlMé
identificar tanto a los agentes causales como a los efectores, cristalizando conocimientos a través
:E de la simple técnica de sumisión a las reglas. La predicción, es decir, el supuesto que permite
na
ue establecer el efecto “y” dada la causa “x”, ha de haberse contemplado en la teoría 388. De no
alb
ser así, se procede al análisis de los porqués, a manera de permitir la formulación de nuevas
V
na hipótesis, y su inmediata incorporación a la teoría.
oim
R Los hallazgos en el método experimental se hacen presentes al percibirse anomalías entre lo
estimado y lo encontrado. Este procedimiento provee al investigador de fragmentos de la
realidad que van más allá de sus limitaciones sensoriales. A través de él es posible hacerse de

387 La observación como proceso puede tomar tiempo antes de ser perfeccionado, en otros casos, consiste en sólo una pequeña pieza de
información que de tal proceso se extrae. Según Bunge (2004), La observación es el procedimiento empírico básico. El producto de un acto de
observación es un dato, la observación puede analizarse por al menos tres componentes: el objeto de observación, el observador y un canal de
comunicación que transmite señales entre ambos. (p.678). Así mismo, la observación propiamente dicha, puede caracterizarse como una
percepción intencionada o deliberada e ilustrada: intencionada o deliberada porque se hace con un objetivo determinado; ilustrada porque va
guiada de algún modo por un cuerpo de conocimientos. El producto del proceso observacional puede analizarse también en tres pasos: tomar
conciencia del objeto; reconocer el objeto a grandes rasgos y describirlo. Con respecto a la observabilidad, un hecho es observable solo si existen
al menos un sujeto, un conjunto de circunstancias y un conjunto de instrumentos de observación, de tal modo que el hecho pueda aparecer al
sujeto armado de esos instrumentos y bajo dichas circunstancias. Como ejemplo: “x” es observable sólo si existe por lo menos un instrumento
registrador para “x”, un conjunto de circunstancias “y”, y un conjunto de instrumentos de observación “z”. De tal modo que “A” pueda registrar
“x”, bajo “y”, con la ayuda de “z”. (PP. 591-601 y ss.).
388 Se dice a menudo que es preciso experimentar sin idea preconcebida. Esto no es posible, no solamente sería volver estéril toda experiencia,
sino que se querría lo imposible. Henri Poincaré (2007). Science and Hypotheses. Véase.
438

conocimiento objetivo389. El conocimiento que surte el experimento es del tipo empírico, su


razonamiento no solo es poderoso, sino, conclusivo. El método busca deducir consecuencias, en
el proceso es menester postular al menos una causa que origine el fenómeno investigado. El
Método Experimental conjuga el poder de las demostraciones matemáticas con la experticia
experimental, dando lugar a nuevos conocimientos apoyados tanto por el sentido común como
por la evidencia.

En el Diseño de Experimentos y su posterior desarrollo, el uso de la estadística y las


matemáticas es imprescindible, constituyen la base estructural de diseño y son las que otorgarán
poder validatorio a los resultados. Los elementos estadísticos entran a jugar un rol preponderante
en la selección de observaciones que provean mayor información al estudio, permitiéndole
.l discriminarlas de aquellas cuyo aporte informativo sea escaso o nulo. El experimentalista ajusta
at
ne sus esfuerzos a las exigencias del problema, para con ello deducir con confianza muchas de sus
mi
re causas.
xp
E Todo Experimento Científico ha de intentar recrear el qué pasa, pero debe ser extensivo y
ofic
ít exhaustivo en su proceso explicativo del porqué pasa. Si bien es cierto, una explicación
nie
científica consiste en el proceso de poner de manifiesto la esencia misma del fenómeno u objeto
C
o estudiado, esta comúnmente se direcciona hacia una dilucidación del tipo causa-efecto. Donde el
do
té objeto ha de ser tomado como una unidad, y cuyas partes constitutivas y totalmente
M
l independientes podrán diferenciarse entre sí por medio de la descripción. Ésta última, constituye
E
:na
sólo una etapa previa al proceso explicativo, asumiendo que toda explicación se basa en la
ue
alb descripción.
V
na Es de tener en cuenta que también existen experimentos cualitativos, éstos no pretenden hacer
mi
o ningún tipo de mediciones, contrariamente, el teorista o experimentalista puede usarlo para
R
ponderar o sondear si coexiste alguna evidencia, por muy leve que esta sea, de que las variables
estén relacionadas y concurra entre ellas causalidad, su fin es exclusivamente exploratorio y no
aporta evidencia matemática.

El Experimento Cualitativo se basa en el hecho que toda teoría se cierne sobre un trabajo
experimental, el teorista imagina de cierta forma, la manera de comprobar su teoría. De resultar

389 Conocimiento objetivo es todo aquel proceso que permite extraer de lo abstracto y sumariarlo en lo concreto. Para Rosental-Iudin (2004); el
fin del conocimiento estriba en alcanzar la verdad objetiva. Para los efectos de Kant en Grayeff (1970, p. 87); La verdad es sólo uno de los tres
criterios del conocimiento, y por tanto, subordinada a él. Primeramente, se basa en un pacto de conformidad de un concepto con su objeto. En
segundo lugar; consiste en una concordancia entre una teoría con sí misma. Y por último, las reflexiones puramente lógicas son incapaces de por
sí mismas de establecer verdad. Sin embargo, estas no son las únicas observaciones sobre el conocimiento y la prueba objetiva que provee un
experimento… en escritos de Fernández (1985, p. 77 y ss.), en su libro: Foundations of Objetive Knowledge; hay consideraciones que Kant ha
agregado al Principio Empirista Poperiano; <<Cualquier decisión tomada en base de la observación y el experimento es revisable>>, fundado en
que no existen criterios empíricos para la verdad, y que la observación y el experimento están por sí mismos cargadas de teorías. Es así como
todo conocimiento objetivo surgido de la experimentación, no solo ha de acercar al hombre a la comprensión del mundo circundante, sino que
debe permitirle transformarlo, subordinando la naturaleza a todo aquella necesidad surgida del ser humano.
439

cierta la causación entre una o más variables, se procede a un experimento cuantitativo.

No en todas las ciencias es posible aplicar el Método Experimental, aunque este arroja
abundantes frutos, tiende a ser usado en estudios cuantitativos que permitan medidas precisas. A
un astrónomo por ejemplo, le es imposible desviar el rumbo de un cometa hacia un agujero negro

y simplemente sentarse a observar qué pasa. Estos no son experimentos reales, pero pueden ser
recreados en laboratorios obteniéndose de ellos excelentes resultados numéricos. Según Carnap
(1995), los conceptos cuantitativos usados en la Investigación Experimental no son dados por la
naturaleza, sino que pueden extraerse de la práctica de aplicar o asociar números a fenómenos
naturales. Sin embargo, su principal ventaja es que los conceptos cuantitativos permiten a su vez
la formulación de leyes cuantitativas.
.l
at ¿Experimentos Inductivos o Deductivos?, este dualismo ha suscitado debates históricos. En
ne
rim ese sentido, Roger Bacon390, expresó que el centro de una nueva Ciencia Experimental debía
e erigirse en términos de 3 grandes prerrogativas:
xp
E
oic Primera: Toda aquella ciencia, cuyas conclusiones sean alcanzadas a través de la inducción,
tíf
nie deberá ser sometida a pruebas experimentales. Segunda: Todo hecho resultante de un
C experimento tiene prioridad sobre cualquier cantidad de suposiciones iniciales, razonamientos, o
o
od cualquier argumento basado en ciencias factuales. Tercera: La Investigación Científica
tlMé
Experimental debe ser extendida enteramente a nuevos problemas, muchos con valor práctico.
E
:na
El Método Científico en General es en Esencia Experimental391, como plantearía en su
ue
alb momento Leonardo Da Vinci << Son vanas y están plagadas de errores las ciencias que no han
V nacido del experimento, madre de toda certidumbre>> En el mundo científico hay marcada
na
oim diferencia entre lo que se cree y lo que se es posible aceptar. Es aquí donde los métodologistas
R experimentales usan al experimento como un conjunto de procedimientos característicos que
soportan un discurso validado. En sentido estricto, la observación y manipulación de factores
aportan elementos de convicción que permiten establecer causalidades entre fenómenos.

Dentro del contexto histórico de la metodología de la ciencia, Galileo392 fue uno de los

primeros científicos en aceptar y reconocer, que una de las más efectivas formas de probar
hipótesis era a través de la experimentación. Una hipótesis sometida a experimento se hace

390 Roger Bacon (1214 – 1292), filósofo y científico dedicado a la investigación experimental, bien conocido como el Doctor Maravilla y
miembro de la orden Franciscana. Sus ideas fueron influenciadas por Grosseteste y diseminadas desde Oxford a París en 1240. Fue allí donde
comenzó a expandirse el uso de este método de investigación entre las más grandes universidades medievales. Aparece en: Gauch, Hugh (2003).
Scientific Method in Practice. University of Cambridge.
391 Francis Bacon logró sistematizar el método experimental inductivo, mientras que Descartes en su Discurso del Método, describe lo que debe
hacerse para obtener buenos resultados con los experimentos en el método deductivo. Para Spielvogel (2004), Sir Isaac Newton fue el que
sintetizó ambas metodologías, uniendo el empirismo de Bacon con el racionalismo de Descartes. (pp. 454-455).
392 Galileo ayudó a desarrollar el diseño experimental para ser aplicado a nuevas conexiones con la naturaleza. Gower (2002); New Methods for
a New Science. Véase.
440

evidente cuando se logra establecer y explicar su causación, es decir, se demuestran sus


consecuencias. Para la refutación de una teoría o algunas de las hipótesis en las que se sostiene
<<aunque Popper y Lakatos sugieren ambos procedimientos diferentes>> basta con observar si
el resultado difiere de una u otra forma con lo previsto, en ese caso debe reformularse. Ahora, si
experimentalmente se deduce que sus consecuencias no son vinculantes, dicho de otra forma, si
sus resultados son opuestos a lo previsto, se entra en la posibilidad de ser refutada, puesto que
para ello basta que al menos una de sus consecuencias no se cumpla.

Descartes, al contrario de Francis Bacon, sistematizó una estructura analítica que lo llevó a la
adopción de un enfoque diferente de la Metodología Científica, soportándose sobre la deducción,
los silogismos y la lógica matemática. Francis Bacon por su lado, asumió que un correcto uso del
.l método científico era aquel basado en principios inductivos. La lógica en su método se explica
at
ne en cierto pasaje de su obra: Advancement of Learning393 (1605) cuyo título completo es << Of
rim the Proficience and Advancement of Learning, Divine and Human>> y en el Distributio Operis
e
xp
(1620). En su libro Advancement, dividió la lógica científica en 4 partes y de acuerdo a
E
oic diferentes funciones:
tíf
nie
1.- El Hombre encuentra lo que busca…
C
o 2.- Juzga lo que ha encontrado…
od
tlMé
3.- Archiva todo aquello que ha juzgado…
:E 4.- Comunica entonces todo aquello que ha archivado.
na
ue Para Francis Bacon, estos cuatro procesos constituyen un arte intelectual: el arte de la
alb
invención; el arte de la examinación; el arte del juico o discernimiento; y el arte de custodia o
V
na memoria. Con esto preconizaba los pasos a seguir para el Método Experimental Inductivo,
oim
intentando suplir de alguna manera al Organon Aristotélico y sus Silogismos. El autor argumentó
R
en sus escritos <<Véase Novum Organum: contentivo de 182 Aforismos>>, que los silogismos
en física no eran necesarios, pues allí no era posible convencer con argumentos sino con obras de
la naturaleza.

Es decir, según Bacon, las teorías científicas planteadas en la física teórica carecen de sentido,
se ha de proceder únicamente mediante observación, puesto que el querer aplicar las nociones
mentales a la naturaleza yerra el camino, contradiciendo a los experimentalistas. Lo afirmado por
Bacon es verdadero hasta cierto punto, pero se aclara mejor esta discrepancia en el apartado de la
Física Teórica. Los silogismos para Bacon son necesarios en otras ciencias como la ética, la
política en incluso en la teología, pero no en física, y de la lógica no publicó tratado alguno.

393 Los detalles pueden leerse en la excelente obra de Paolo Rossi (1978). Francis Bacon: From Magic to Science. Pp. 134 y ss.
441

Francis Bacon siempre se negó a usar un método que permitiese <<Deducir>> conclusiones
lógicas394. A tales efectos, sugirió proceder de lo particular a lo general, normatizó un extenso
corpus explicativo donde propuso proceder desde observaciones razonada y sistemáticas, pues
era la mejor forma de producir generalizaciones correctas395. Sin embargo, Francis Bacon
nunca mostró gran interés por las ciencias puras, continuamente sintió más atracción hacia los
procederes prácticos y orientados a la creación de dispositivos, es decir, hacia la tecnología.

Constantemente criticó el papel de las matemáticas en las ciencias. Descartes por su lado,
utilizó su observación para describir y no para explicar. Esto corresponde a una evidencia
inequívoca de que existía, al menos en el siglo XVII, un debate sobre dos dimensiones del
Método Científico Experimental, Gower (2002, p. 67). Posteriormente Newton, encontraría uso a
.l ambas formas de indagar. Consiguiendo el desiderátum de Francis Bacon y René Descartes.
at
ne
rim Newton orientó intervención y concibió alternativas para adoptar un perfil adecuado de
e indagación, dando un giro a la forma de visualizar el método científico. Con sus obras:
xp
E Philosophiae Naturalis Principhia Mathematica (1687) y Experimental Natural Philosophy of
oic
tíf the Opticks (1704), lograría fundar las bases de una nueva revolución científica. Como plantea
nie
Gower op. Cit. (p. 68), Newton superó a sus predecesores porque se Montó en Hombros de
C
o Gigantes.
do

M
l
:E
na
ue
alb
V
na
oim
R

394 Sir Francis Bacon, Conde de Verulamio y denominado el Gran Canciller de Inglaterra para su época. El Método Experimental Inductivo se le
atribuye, este siempre criticó los Silogismos Aristotélicos y despreció el papel de las hipótesis en las ciencias. Bacon ocupó puestos importantes
dentro del gobierno en la Gran Bretaña de finales del siglo XVI y comienzos del XVII, fue presidente de la Cámara de los Lores y de la Real
Academia de las Ciencias Inglesa, la Royal Society, posición que le permitió ejercer gran influencia en la adopción de su método. Para Bacon, el
problema del conocimiento era problema del método. Según Hoffe: Bacon a pesar de no ser filósofo de profesión sino Jurista, intentó hacer
aportes a la filosofía con sus obras: Gran Renovación (Instauratio Magna, 1605 y 1623), y el Nuevo instrumento (Novum Organum) que opuesta
al Organon Aristotélico, conforma su parte más conocida. Para los detractores de Bacon, este desconocía las matemáticas, obvió los importantes
aportes de Galileo y Keppler a las ciencias, por el contrario, estaba más dotado de la capacidad de expresar ideas con imágenes que del poder
deductivo395 de las ciencias ideales. Al respecto, las portadas de sus obras hablan por sí solas.
Se sugiere al lector, para una ampliación del tema, Refiérase al Cap. V, apartado 5.3: El Problema de Superponer Inducción y Deducción.
442

23.2.- Consideraciones sobre la Observación y el Experimento.

Hay tres medios principales para la adquisición de


conocimientos… la observación de la naturaleza, la reflexión y
la experimentación. La observación colecciona hechos; la
reflexión los combina; y la experimentación verifica el
resultado de esa combinación…

Denis Diderot

percepción.
prueba, toca Se
a observacióno huele.
puede
es observarnetamente
un Observar
proceso todo aquello
implica el usoque
de todos
se visualiza
relacionado alos
lossentidos.
sentidos,
A es decir, implica
directamente,

L
le asume como un paso ineludible e insalvable dentro del método científico, de hecho, todo el
se escucha,
la observación se

conocimiento científico disponible actualmente es derivado natural de la observación, allí se


capta la esencia del fenómeno para luego describir, experimentar y explicar. La observación
permite colectar gran cúmulo de evidencias que llevan a inducir o deducir ideas, supuestos,
hipótesis e incluso teorías.

El proceso observacional permite absorber lo evidente e intuir sobre lo inobservable, la


descripción de lo observado reproduce información bajo la forma de resultados e interacciones
percibidos, no obstante, un mal proceso observacional induce a errores, sobre todo cuando
no se han adiestrado correctamente los sentidos396. En función de ello, Poincaré afirma: Para
el observador superficial, la verdad científica es irrefutable, la lógica de la ciencia es infalible, y
si los hombres de ciencia a veces cometen errores, es porque no han entendido las reglas del
juego397.

La percepción es fuerte y la vista débil. En la estrategia es importante ver las cosas lejanas
como si estuvieran cerca, y tener una visión distanciada de las cosas cercanas398. Por su lado,
Kosso (2011, p.10 y ss.), para quien investigue por inducción pura, ésta presupone observación
pura, cuyo flujo de información carece de contaminación externa. Esto es simplemente

396 Al respecto, la razón humana averigua las cosas de dos maneras, o por la fuerza de razonar o por los sentidos. Del primer modo alcanza los
primeros principios y verdades que hemos llamado razón o luz natural. Del segundo descubre la naturaleza y propiedades de los objetos sensibles
y corpóreos. De estas dos clases es posible señalar los errores que se mezclan… conviene advertir que el error como falsedad está en el juicio que
afirma, o niega una cosa de otra; llamaremos error a cualquier defecto de las nociones mentales que pueda dar ocasión a la potencia de juzgar
para engañarse; y recibir lo falso en lugar de lo verdadero. Dicen muchos que los sentidos nos engañan con facilidad, de hecho lo dicen bien, por
esta razón ha de ponerse el cuidado posible en asegurarse de las cosas que se ofrecen a los sentidos, pues por ellos, si se hace debido uso de sus
operaciones, se alcanzan muchas y muy importantes verdades. Piquer (1781), De Los Errores que Ocasionan los Sentidos, (pp. 114 y ss.) Por su
lado Bunge (2000), sostiene… <<no puede haber fenómenos o apariencias sin un sujeto sensible (Observador) que se sitúe en una adecuada
posición de observación. Un mismo hecho objetivo puede aparecer de modos diferentes a observadores diferentes>> (p. 592-593). Y esta es la
razón de la ciencia, contrastar, explicar, disipar dudas y descubrir verdades.
397 Aparece en el Prólogo de su obra: Science and Hypotheses.
398 Miyamoto Musashi. Estratega Japonés.
443

imposible. En ciencia, la percepción está influenciada por las ideas. Entonces, las observaciones
científicas están influenciadas por teorías científicas, donde el orden de los eventos no puede
restringirse a primero la observación y luego la teoría.

El autor indica la importancia de dejar claro que toda teoría tiene influencia sobre la
observación, direccionándola sólo hacia los aspectos de interés. Así mismo, es imposible
observarlo todo, así como lo es el anotar y describir cada detalle del producto observacional. La
observación científica, en la medida de lo posible, ha de hacerse corresponder con el lenguaje
teorético. La observación ha de constituirse en la destreza más importante que pueda desarrollar
.to
ne todo aquel que dignamente desee ser llamado científico.
rim
e Le ayuda a calibrar los juicios y los sentidos, le permite discriminar entre los datos con y sin
xp
E información, le asiente a precisar en vez de generalizar, en fin, la observación se fortalece a
le
y través de la práctica generalizada en las comunidades científicas. La mera acción de observar
n
ió puede alterar el sistema o fenómeno estudiado como sucede con el experimento del Gato de
ac
vr Shrodinger de 1937, aplicado sobre la mecánica cuántica.
se
b
O Existen muchos tipos y formas de hacer observación, las más usuales en ciencia son: la
la
re observación estructurada usada en estudios del tipo descriptivo; cuando se ejecutan
ob
s investigaciones exploratorias se usa la observación no estructurada; en ciencias sociales, estudios
sne
del comportamiento e investigaciones cualitativas suele hacerse uso de la observación
io
ac
re participante; así como también existe la observación no participante y la observaciones
sid encubiertas. Johnston (2005), afirma que la observación como proceso involucra al menos 5
no
:C pasos importantes:
na
ue 1) el uso de todos los sentidos; 2) la identificación de semejanzas y diferencias entre los
alb
objetos observados; 3) la captación de patrones entre los objetos y el fenómeno; 4) la
V
na identificación de secuencias y eventos que rodean al fenómeno observado; y por último, 5) la
oim
interpretación de tales observaciones. Hasta el momento se han dilucidado elementos de la
R
observación y su proceso, conviene ahora asociarlo a la experimentación.

La observación se ha convertido en una fuente primaria de datos para el científico en su afán


de generar aportes a la ciencia, mientras que la experimentación, de manera obvia, es resultado
inequívoco de un inmenso proceso observacional. La observación consiste en el proceso de
registrar determinado objeto de manera natural con el fin de ser estudiado, la experimentación
refleja la acción en sí de colectar pruebas que corroboren teorías involucradas con tal objeto,
recreando artificialmente los escenarios. La observación provee al científico un conocimiento
444

que ha de confirmarse mediante experimentación y evidencia, en función de ello, mal podría


decirse que son opuestos, la realidad muestra que son complementarios.

Según Daston y Lunbeck (2011), la observación sugiere conjeturas que pueden ser probadas
por experimentos… que a su vez consiguen nuevas observaciones en el interminable ciclo de la

curiosidad científica. La observación descubre elementos y discierne de ellos, el experimento


prueba y demuestra. Stuart Mill399 (1858), aporta una gran cantidad de consideraciones al
respecto. La naturaleza está invariablemente conectada con sus antecedentes, en otras palabras,
cada fenómeno está relacionado con otro bajo la forma de causa y efecto.
.
to
ne Cada efecto comienza con la existencia de una causa, y esta causa debe ser encontrada en
rim
e alguna parte entre los hechos que inmediatamente precedieron a su ocurrencia, es evidente
xp
E entonces que existe una secuencia natural y uniforme del pasado hacia el presente. Es necesario
le
y resolver esta uniformidad en sus más simples partes constitutivas, donde se separe cada porción
nió
de su antecedente y cada porción de su consecuente.
ac
vr
se Aunque a simple vista parezca una operación analítica, va más allá de un mero análisis
b
O mental. En donde la observación y el experimento se convierten en herramientas imprescindibles
la
re para la resolución de esta uniformidad. Es el análisis mental el que inicia la secuencia, capta cada
ob
s objeto conocido y lo distingue a través de su intelecto de otro; ha de descomponerse el caos
sne
io precedente y el caos consecuente en simples unidades fácticas, separando un hecho de otro. La
ac esencia del acto observacional, para el observador, no consiste en ver lo que merece ser visto,
re
sid sino el ver realmente, el cómo se compone aquello que ha visto.
no
:C Para ello requiere de un raro talento, una persona puede prestar atención u observar sólo
na
ue hacia el lugar equivocado, en cuyo caso le llevaría a observar sólo la mitad de lo que ve. Otro
alb
sujeto puede pensar haber visto más de lo que realmente observó, confundiéndolo con aquello
V
na que imagina o infiere. Esta inexperticia afecta al proceso experimental, pues se está alimentando
oim de datos erróneos de procesos inadecuados, es por ello que previo a querer ser científico
R
experimentalista ha de demostrase que se es buen observador, y ello requiere de adiestramiento.

399 Véase Capítulo XXIII: Sección: 23.2. De la Observación y el Experimento.


445

23.3.- Los Experimentos Mentales.

Partiendo desde las más locas, necias y estúpidas ideas, es


posible hacer descubrimientos sorprendentes.
Roiman Valbuena.

n experimento mental es una facultad intelectual del pensamiento lógico científico

U desde donde se construye un escenario hipotético, inmaterial y apriorístico, tendente a

establecer las conjeturas iniciales para un experimento real futuro. Allí se relacionan
ideas que posibilitan llevar a feliz término la consecución de un hecho, pero que necesariamente
amerita ser probado a posteriori. Se considera un tipo de facultad sensorial que permite razonar
sobre las relaciones causa efecto en determinado fenómeno, omitiendo todo hecho real y
básicamente influenciado por la intuición del experimentalista. Se usa para armar, sostener y
destruir teorías, pero también como herramienta en la construcción de conceptos. Los
Experimentos Mentales son en esencia contrafácticos y se ejecutan en el laboratorio de la mente,
sus suposiciones imaginarias incrementan las posibilidades de entendimiento. Las bondades de
los Experimentos Mentales es que son totalmente gratis y están libres de riesgos.

Un Experimento Mental se basa en hipótesis lógicas de los pensamientos y sus consecuencias,


su fin cardinal consiste en explorar eventos coetáneos y sucedáneos asociados al fenómeno que
en un primer momento orienten sobre consecuencias teóricas y del que posteriormente puedan
obtenerse aplicaciones prácticas. En los Experimentos Mentales nunca se da por cierto ningún
resultado y, aunque la mayoría son verdaderamente impresionantes y convincentes, simplemente
se especula sobre ellos, en ocasiones sus conclusiones derivan en paralogismos 400 . Un
experimento mental se considera limítrofe sólo con la credulidad.

Los ejercicios cerebrales que crean Experimentos Mentales se constituyen quizás en la pieza
más importante dentro del proceso de formación de un experimentalista, aquí se bosquejan
esquemas mentales y se les asocia con sus debidas pruebas estadísticas, de cuyo razonamiento
causal se extrae únicamente la posibilidad del escenario. En sus supuestos iniciales son muy
comunes las antinomias401. Todo Experimento Mental ha de ajustarse tanto a la realidad
empírica como a la estructura teórica a la cual hace referencia, convirtiéndose en herramienta
poderosa cuando logra hacerse de un cúmulo de explicaciones teóricas.

400 En escritos de Rosental– Iudin (2004), un paralogismo consiste en una infracción inconsciente de las leyes y reglas de la lógica que deriva en
un razonamiento incorrecto. Priva al razonamiento de fuerza demostrativa y, generalmente, lleva a conclusiones falsas. Es necesario distinguir del
Paralogismo, aquella infracción totalmente consciente de las reglas de la Lógica para intentar engañar (Sofismas).
401 Aparición de dos juicios contradictorios pero igualmente fundamentados en el curso de un razonamiento. Véase Rosental – Iudin, Concepto
de Antinomia.
446

Los Experimentos Mentales, Tought Experiments <<TEs>> por sus siglas en inglés, han sido
de uso muy común en ciencias desde el advenimiento del método científico. Para Gilbert y
Reiner (2000, p. 266); Un Experimento Mental es un Experimento que pretende alcanzar sus
objetivos sin el beneficio de la ejecución. Ayudan en los procesos de desarrollo del pensamiento,
permiten crear nuevos hechos para producir nuevas explicaciones y justificar aquellos hechos y
explicaciones a la comunidad científica. Para ello hacen uso de convenciones conceptuales con
estrategias de inferencias aplicadas en ciencias.

Todo Experimento Mental lía dos conceptos fundamentales; pensamiento e inteligencia,


delimitados por el lenguaje que lo explica. Para sus efectos, Jean Piaget (1997), padre de la
epistemología genética y quien generó grandes aportes a los conceptos de pensamiento e
inteligencia, afirma lo siguiente:
.s
el Existe una inteligencia anterior al lenguaje pero no hay pensamiento antes del
at
ne lenguaje. A este respecto distinguimos inteligencia y pensamiento: la inteligencia es
la solución de un problema nuevo por el sujeto, es la coordinación de los medios para
M
so llegar a un fin que no es accesible de manera inmediata, mientras que el pensamiento
t es la inteligencia interiorizada que no se apoya sobre la acción directa sino sobre un
ne
rim simbolismo, sobre la evocación simbólica por el lenguaje, por las imágenes mentales
e etc., que permiten representar lo que la inteligencia sensorio motriz, por el contrario,
xp va a captar directamente, (p. 17).
E
so
L El pensamiento lógico es una actividad mental o habilidad de la percepción que permite
:na
ue poner en marcha la inteligencia y está conectado al cerebro mediante un mecanismo fisiológico.
alb Comienza con simples abstracciones y luego generaliza ideas de manera difusa para concluir con
V
na especificidades lógicas de tal proceso activo circunscrito al mundo objetivo. En los experimentos
oim mentales estos tres pasos se corresponden con él antes, durante y después, acciones ajustadas
R siempre dentro del escenario. Toda actividad del pensamiento resulta en la formación de
conceptos, tanto generales como científicos, además de juicios razonados.

La inteligencia da origen a formas y procesos, consiste en un fenómeno sicológico, se le


estima compleja puesto que existen varios tipos, además, es medible, el pensamiento no.
Envuelve la capacidad de asimilar y aprender, mezcla razonamiento y entendimiento. Es el
pensamiento el que hace trabajar a la inteligencia en una forma y dirección específica. La

inteligencia está presente en contextos tanto animados como inanimados, es un criterio de éxito
que diferencia a los seres humanos, implica el procesamiento y uso de pensamientos abstractos.
En Experimentos Mentales se erige como la base para la construcción de situaciones hipotéticas
dignas de ser tomadas en cuenta.

La inteligencia es el arte de interpretar juicios y se relaciona con la velocidad de


447

procesamiento mental. Se operacionaliza en varias etapas, la primera da origen al concepto que


identifica al objeto. Consecutivamente se sobreviene un enlace lógico y sucesivo de varios
conceptos que concatenados hacen emerger un juicio. Y por último, se da lugar a una operación
mental que enlaza tales juicios y simplifica los conceptos, esto se denomina razonamiento. Lo
único que diferencia un Experimento Mental de otro es el nivel de inteligencia aplicado y que da
soporte a sus supuestos lógicos.

Un Experimento Mental jamás debe confundirse con cualquier otra forma de expresión
imaginativa de la mente. Son útiles cuando no se pueden ejecutar experimentos materiales.
Conforman la etapa intermedia entre la teorización y la experimentación pura. Han de
delimitarse de manera tal que, usando instrumentos reales o no, pueda edificarse una
representación bastante aproximada del mundo real, pero carecen de fuerza demostrativa y
.s probatoria. Se componen de suposiciones y de un contexto necesario que atados a una secuencia
el
at
ne lógica, harán emerger aspectos y entidades antes inobservables. Para Brown (1991), un
M experimento mental representa una curiosa y diversa colección de ideas, además de un
so
t deslumbrante despliegue de gimnasia mental (p. 33).
ne
rim
e A su vez afirma que, no por estar supeditado a la mente, debe carecer de estructura,
xp
E contrariamente, propone una taxonomía. En su contexto macro se encuentran los Experimentos
so
L Mentales Destructivos y los Constructivos respectivamente. Posteriormente, y por debajo de los
:na
anteriores, especifica otros tres tipos: los Mediativos, los Conjeturales y los Directos.
ue
alb
Taxonomía semejante a la propuesta por Popper (1959); esta distingue tres tipos de
V
na experimentos mentales: Los Heurísticos <<que sirven para ilustrar una teoría>>, La Crítica o
oim
experimentos orientados contra la teoría. Y por último, los experimentos Apologéticos, son
R
aquellos que se proyectan a favor. A continuación la taxonomía de experimentos mentales de

Brown (1991):

23.3.1.- Los Experimento Mentales Destructivos

Son aquellos cuyo argumento va dirigido contra una teoría a la cual intenta destruir, o al
menos el experimento representa serios problemas para ella. Por lo general, señalando una

deficiencia en su marco general. Intenta demostrar que la teoría se sobreviene en


incompatibilidad contra otras creencias, muchas veces se usan las pruebas de reducción al
absurdo como herramientas.
448

23.3.2.- Los Experimentos Mentales Constructivos

Estos intentan esclarecer una teoría, sobre todo si se le considera en extremo abstracta,
persiguen obtener conclusiones de una teoría ya en uso, o un conjunto de nuevos pareceres que la
hagan más aceptable.

23.3.3.- El Modelo Conjunto: Destructivo – Constructivo

Consiste en un tipo de experimento mental que dependiendo del contexto y la circunstancia


donde se aplique, va contra una teoría para con ello apoyar otra distinta. La destrucción se
ejecuta con mecanismos lógico deductivos, donde se intentan vulnerar supuestos e hipótesis. Una
vez identificada la debilidad y demostrada la inconsistencia lógica, se le asume inservible. El
modelo constructivo entra en juego ya cuando, evidenciada la inconsistencia de la primera, se
.s
el usa como argumento válido para soportar una segunda.
at
ne
M
so 23.3.4.- Experimentos Mentales Mediativos
t
ne
Para Brown (1991, p. 40), consisten en un sub-tipo de los constructivos. Son aquellos que
rim
e facilitan el entendimiento haciendo posible una conclusión. Se diseñan basados en
xp
E procedimientos reglados o normatizados en una teoría bien soportada.
so
L
:na
23.3.5.- Experimentos Mentales Conjeturales
ue
alb
Los Experimentos Mentales Mediativos pueden iniciarse con unos simples antecedentes de la
V
na teoría dada, ésta, hasta el momento no ha sido suficientemente soportada. El experimento actúa
oim entonces como médico que trae al mundo una nueva conclusión. Sin embargo, no todos los
R
Experimentos Mentales mediativos actúan así, y existe una gran cantidad de clases de que no
pueden partir de una teoría dada. El centro de este tipo de experimentos es el establecimiento de

algunos Experimentos Mentales con posibilidades de conjeturarse, es decir, obtener de ellos


conjeturas sobre el fenómeno aludido. Se le denomina entonces conjetural ya que permite
hipotetizar una teoría para explicar el fenómeno.

23.3.6.- Experimentos Mentales Directos

Se constituyen como la clase final de los experimentos constructivos. En ellos se inicia sin
problema alguno un Experimento Mental que posteriormente finaliza en la propuesta de una
teoría. Actúa en este sentido como uno del tipo conjetural, es decir, no comienza con una teoría
dada pero si finaliza con una, Brown Op. Cit, (p.41).
449

En consideraciones de Bunge (2004), los Experimentos Mentales son cada vez más comunes
en ingeniería y tecnología. Cuando por determinada circunstancia no puede aplicarse estímulos a
sistemas reales es menester optar por la práctica con modelos, donde convenientemente se
extrapolan los resultados a los sistemas originales. De hacerse imposible la consecución de un
modelo concreto, se imagina un modelo conceptual que imite algunos rasgos del sistema real y
se practica mentalmente en él, confrontándose contra la teoría toda compilación de reacciones.
Se llama modelado a esta proyección de los modelos conceptuales, y simulación al sometimiento
del modelo a cambios imaginarios. El par modelado – simulación se llama Experimento Mental,
(p. 691).

Finalizado el proceso, ya el Experimento Mental y el escenario han tomado forma en la mente


del experimentalista, ahora solo falta explicitarlo y hacerlo entendible. En función de ello debe
.s proveerse de una artillería de medios connaturales de manera que, el experimento real futuro se
el
at considere apógrafo y unívoco al mental. A continuación se presenta una serie de los más
ne
M famosos Experimentos Mentales aplicados a las ciencias, unos en física y otros en filosofía, éstos
so
t conjugan magistralmente la capacidad ingenieril de Leonardo Da Vinci con los escenarios de
ne
rim ciencia ficción de Julio Verne.
e
xp
E 23.3.7.- El Gato de Shrodinger
so
L
:na
Experimento Mental del tipo destructivo concebido por el físico austríaco Erwin Shrodinger,
ue
alb premio nobel de física en 1933 por la denominada Ecuación de Shrodinger. Este experimento
V <<muy comúnmente llamado paradoja de Shrodinger>> se ha hecho muy popular en la
na
Mecánica Cuántica. En aras de la simplicidad, en lo adelante se omitirán algunas fórmulas, pero
oim
R se introducirán conceptos que posterior a la confrontación contra las teorías despejaran el
escenario para el cual se planificó. Este experimento imaginario consiste en colocar un gato
dentro de una caja de opacidad absoluta, además de un aparato detector de partículas radioactivas
<<contador Geiger>> sujeto a un martillo que de activarse, rompería una ampolla contentiva de
un gas venenoso. En la caja se encuentra dispersa también una partícula radioactiva con
probabilidad 50% - 50% de desintegrarse en un tiempo específico. Refiérase a la gráfica.
.s
el
at
ne
M
so
t
ne
mi
re
px
E Experimento del Gato de Shrodinger
so
L
:a
ne
u
lb
450

Por meras deducciones lógicas sólo pueden presentarse dos escenarios; el primero donde la
partícula se desintegre, el dispositivo active el martillo, se desprenda el gas venenoso y el gato
muera. De sucederse así, el experimentalista encontrará al gato muerto al abrir la caja. En el
segundo escenario la partícula radioactiva no logra desintegrarse, el mecanismo no se activa, el
martillo permanece inmóvil y el gato vive. Hasta el momento todo es ideal y lógico, al finalizar
el experimento sólo hay dos opciones, gato vivo o gato muerto. El problema está en que cuando
se extrapola el experimento y se contrasta contra la teoría cuántica comienza a desafiase el
sentido común de cualquier ser humano.

Supóngase ahora que la partícula es un electrón <<un supuesto es estrictamente necesario


para la conformación de una teoría>>, este elemento presenta una propiedad denominada onda
corpúsculo, es decir, presenta las propiedades de las ondas y también las de los corpúsculos.
.s Entiéndase de la siguiente manera, la partícula desintegrada, en este caso el electrón, puede
el
at tomar la forma como de cuando se lanza una piedra, esta sale disparada en determinada dirección
ne
M conformándose así una proyección de forma corpuscular. Sin embargo y al mismo tiempo, toma
so
t la forma de una onda, como cuando se deja caer una gota en una copa llena de agua y se
ne
rim observan las ondulaciones producidas.
e
xp
Es decir, la acción desintegradora produce ambos efectos tomando diferentes caminos sin
E
so
excluirse, contrariamente, se superponen. Donde el electrón desintegrado se dirigirá hacia el
L
:na
contador Geiger siendo detectado, y cuya resultante es la muerte del gato. Pero al mismo tiempo
ue
alb tomará el camino contrario donde no será detectado y el gato vivirá. Bajo los supuestos teóricos
V de la mecánica cuántica el gato adquiere ambos estados, vivo y muerto a la vez. Esto sólo es
na
posible a nivel sub-atómico, y puesto que el gato no cumple con estos requisitos, el
oim
R experimentalista al abrir la caja solo observará un estado debido a que ha roto el mundo cuántico
y con la observación ha contaminado el experimento alterando la superposición.

Al operacionalizar la partícula como variable, podrá describirse por una función de onda
extremadamente compleja <<Refiérase a la Ecuación de Shrodinger>>, resultante de la
superposición de dos estados combinados probabilísticamente al cincuenta por ciento: <<gato
vivo y gato muerto>>, a esto se le denomina Formalismo Cuántico402, el gato estaría a la vez
vivo y muerto; se trataría de dos estados idénticos. Y, mientras el investigador no abra la caja el
gato presentará ambos estados. Cuando el experimentalista abre la caja se produce el

402 La teoría estándar de la mecánica cuántica consiste en una serie de formalismos <<reglas metodológicas circunscritas y delimitadas por la
teoría>>, allí los sistemas físicos están representados por vectores en el espacio de Hilbert. Donde el estado del sistema evoluciona en el tiempo
conforme lo dispone la Ecuación de Shrodinger. Para más detalles Véase: Brown (1993, p. 129). The QM Formalism.
451

denominado Colapso de Función de Onda, y además de que es atribuible al proceso de medida,


la teoría cuántica establece que es inevitable.

Semejante a cuando se emiten ondas hertzianas que son captadas por un televisor y se hacen
observables a través de un programa televisivo, los objetos en el programa no están ni aquí ni
allá, simplemente son información transmitida bajo la forma de ondas en el espacio. Se asume
entonces que su función de onda ha colapsado cuando el cerebro entra como observador
haciéndolo presente en un lugar específico.

En fin, Shrodinger en un primer momento quiso destruir la teoría de Interpretación de


Copenhague en la cual se sostiene que <<En un Estado de Superposición la Realidad es

Indeterminada, donde la Medida Crea la Realidad Colocándola en uno de sus estados Propios>>
y argumentó que esta interpretación es insostenible, no debido a la serie de circunstancias que
.s
el rodean a la teoría cuántica, sino al gato. Lo que realmente se debate aquí es la interpretación del
at
ne significado de Superposición en la mecánica cuántica. En Sicología a este tipo de razonamiento
M
so se le denomina Pensamiento Productivo403.
t
ne
rim Los teóricos de Copenhague sostienen que todo aquello observado y el observador interactúan
e de alguna manera, el electrón asume que está siendo observado, lo que genera el colapso de su
xp
E
so función de onda, para Shrodinger algo realmente absurdo. Esta interpretación despertó gran
L resistencia entre los científicos de la época. En el folclore cotidiano de la actividad científica de
:na
ue la teoría cuántica se dice que Shrodinger elige un gato a manera de burla, donde se llegó a
alb
afirmar que debido a la dualidad de estados del gato en la caja, podría ser familiar del gato de
V
na Cheshire, personaje que Lewis Carroll inmortalizó en El País de las Maravillas, y que tenía la
oim capacidad de desvanecerse por partes.
R
Esta paradoja causó gran revuelo y enfrentamientos entre grandes científicos, Niels Bohr era
uno de los que avalaban la teoría de interpretación de Copenhague, a su vez Einstein estaba en
contra, tanto así que increpó alguna vez a Bohr y le preguntó: ¿De verdad crees que la luna no
está allí cuando nadie la mira?... a lo que Niels Bohr respondió encarecidamente: ¿Puedes
demostrarme lo contrario? ¿Puedes probarme que la luna está ahí cuando nadie la mira? ¡No
es posible ni puedes!… si el lector lo desea indague sobre el experimento de doble rendija, donde
las partículas se comportan de manera diferente si las están observando que si no hay nadie
mirando. Saque usted sus propias conclusiones.

Un Experimento Mental puede ser usado en una amplia gama de campos de investigación y

403 Término usado por el Sicólogo Max Wertheimer quien en 1916 entrevistó a Albert Einstein como parte de su experimento en sicología bajo la
teoría de Gestalt. Su reporte de la entrevista fue publicado a título póstumo en 1945 bajo la denominación Productive Thinking. Puede leerse en:
Chasing the Light, por Norton John. Aparece en: Tought Experiments in Science, Philosophy and the Arts. (2013, p. 131).
452

su forma ha de ajustarse a la teoría de la rama científica de referencia. Pueden clasificarse tanto


por la naturaleza del fenómeno como por el nivel de razonamiento aplicado, éste último podrá
derivar, según la conclusión obtenida, en experimentos del tipo meramente plausibles,
deductivos o probabilísticos. Ciertamente, a muchos experimentos mentales se les estima
imposibles desde el punto de vista lógico, pero desde la óptica intuitiva404 son bastante
aceptables. En algunos casos son considerados como Fenomenología de la Intuición.

23.3.8.- Galileo Galilei y la Caída Libre

Aristóteles sostuvo una teoría en la cual afirmaba… no importa la altura, los objetos pesados
caen más rápido que los ligeros, si dos cuerpos con distinta masa se dejan caer simultáneamente
desde la misma altura sobre la superficie de la Tierra, el cuerpo con mayor masa llega antes al
.s suelo, sin embargo esta teoría nunca fue probada. A esto se denomina Principio de Caída Libre.
el
at Esta teoría Aristotélica no cayó muy bien al célebre italiano Galileo Galilei, quien la refutó
ne
M proponiendo lo siguiente: En Ausencia de Resistencia del Aire, todos los Objetos caen
so
t Presentando la Misma Aceleración Uniforme, por lo tanto caerán al mismo tiempo.
ne
rim
En otras palabras, todos los cuerpos caen al mismo tiempo sin importar su peso. En semejante
e
xp
E problema se había metido Galilei, pues para probarlo tendría que extraer el vacío del aire, algo
so
L realmente imposible para la época puesto que carecía de medios y tecnología para lograrlo.
:na Además, le era imposible medir el tiempo de caída de cada objeto para compararlos. Bajo la
ue
alb modalidad de Experimento Mental del tipo Consensual Platónico405 y usando a la torre
V inclinada de Pisa, planificó la siguiente secuencia: por la dificultad de medir el tiempo de caída
na
oim para ambos objetos, el pesado y el ligero, tendría que corroborar su teoría con un segundo
R experimento.

Primeramente, imaginó un cuerpo pesado (CP) y un cuerpo ligero (CL), si Aristóteles estaba
en lo cierto, la velocidad del cuerpo pesado (VCP) habría de ser mayor a la velocidad del cuerpo
ligero (VCL), [VCP > VCL] y sería evidente al observar que (CL) haría contacto posterior con el
suelo y llega después de (CP). Esto no funcionó para Aristóteles pues ambos cuerpos cayeron al
mismo tiempo. Galileo ya había refutado la teoría pero no disfrutaba el hecho de imponer la

suya.

404La intuición es un talento especialísimo e individualísimo de cada ser humano que le permite ver en la mente la verdad de las cosas sin previo
sometimiento a prueba. En aquellos denominados genios se constituye en un don innato debido a la facultad creadora que poseen. Para un
experimentalista es estrictamente necesaria. Para Rosental – Iudin (2004), consiste en la facultad de conocer de modo inmediato la verdad sin
previo razonamiento. En ese mismo orden para Descartes, la intuición unida al método deductivo sirve de criterio universal para establecer plena
evidencia. Desde la concepción de Ferrater Mora (2000), la intuición representa una visión directa e inmediata de la realidad, o la comprensión
directa e inmediata de una verdad. Una condición para que haya intuición en ambos casos, es que no existan elementos intermediarios que se
interpongan en tal visión directa. Tal como en el escenario de los experimentos mentales.
405 Otra Modalidad propuesta por Brown (1991). Este ejemplo consiste en una adaptación del mismo fenómeno y que aparece en: Gilbert y
Reiner (2000).
453

Repite entonces el experimento y ahora vienen las condiciones, se dejan caer CP y CL


separadamente pero atados mediante cuerda, de allí deduce lo siguiente…si ambos CP y CL son
lanzados en caída libre desde el mismo punto y al mismo instante, y como CP + CL > CP;
entonces se esperaría que la velocidad combinada de ambos sea mayor a la velocidad del cuerpo
pesado VCP… [VCL + VCP] > VCP. Además, el cuerpo ligero en su descenso más lento haría
la función de paracaídas sobre el cuerpo pesado, disminuyendo su velocidad. Todo un éxito.
Según Gilbert y Reiner (2000, p. 274), las dos conclusiones son contradictorias entre sí, pero
ambas invalidan la teoría original.

.s
el
at
ne
M
so
t
ne
rim
e
xp Tomado con permiso de Wikipedia.org.
E
so No existe evidencia cierta de que Galileo haya realmente ejecutado este experimento, quizás
L
:na por la dificultad de medir exactamente los intervalos temporales. Posteriormente logró verificar
ue su hipótesis haciendo uso de planos inclinados. Sin embargo, fue en 1971 con una misión lunar
alb
en el Apollo 15, cuando el astronauta David Scott dejaría caer un martillo y una pluma en la
V
na
superficie lunar en estado de gravedad cero, observándose que ambos llegaron al suelo al mismo
oim
tiempo. Galileo siempre criticó que a Aristóteles se le obedeciera ciegamente e incluso se le
R
considerara autoridad científica para la época. Logrando edificar la ley de la Inercia y el
Principio de la Relatividad en el cual se soportó Einstein, éstos allanaron el camino a la
investigación experimental que hoy por hoy la comunidad científica usa.

23.3.9.- David Hilbert y su Hotel Infinito

El siguiente Experimento Mental se usa para explicar las paradojas relacionadas con el
infinito y su concepto en matemáticas. El sueño de un prestigioso gerente hotelero era crear el
hotel más grande del mundo, decide entonces consultarlo con su esposa, sin embargo nunca
lograron ponerse de acuerdo en la cantidad exacta de habitaciones que tendría, pues siempre era
posible que un competidor construyese uno con al menos una habitación más. Deciden entonces
454

construir un hotel con habitaciones infinitas. No obstante, una vez levantado el hotel la pareja se
plantea las siguientes paradojas:

1- ¿Qué pasa si el hotel se llena hasta el infinito pero aun así llega uno más? Paradoja del
Infinito más Uno. Realmente era una pregunta interesante, y debido a que cada habitación
estaba debidamente numerada [1-2-3-4-5….], cuando llegase el huésped [infinito + 1]
simplemente se le informaría a los demás para que se trasladasen a la habitación de al lado.
Entonces el que estaba en la 1 pasaría a la 2, el de la 2 a la 3, el de la 3 a la 4 y así
sucesivamente, como habían infinitas habitaciones, el último huésped no tendría problemas.
Quedaba solucionado el asunto puesto que la habitación uno quedaría disponible para el nuevo
huésped. Pero no todo era color de rosa.

2- ¿Qué pasaría si el hotel se encontrase lleno hasta el infinito y llegase un nuevo infinito
.les
at número de turistas? Paradoja de los dos Infinitos. Si esto sucedía, se les informaría a los
ne huéspedes que tendrían que cambiarse a una habitación cuyo número sería la resultante de
M
so multiplicar por 2 la actual. Y puesto que al multiplicar por 2 cualquier número impar este resulta
t
ne par, todos los huéspedes previamente alojados estarían conformes cada uno en una habitación
rim
e par. Así el nuevo infinito número de turistas se alojaría en las habitaciones impares que habían
xp
quedado vacías. De esta manera el hotel alojaría a dos infinitos números de huéspedes.
E
so
L 3- ¿Qué pasaría si llegase un infinito número de excursiones con un infinito número de
:na
ue turistas? Paradoja del Infinito Número de Infinitos. Efectivamente, al hotel llegó un infinito
alb
número de excursiones con un infinito número de personas cada uno. Esta vez se le informó
V
na solamente a las habitaciones cuyo número fuese primo, o alguna potencia de él derivada. Se les
oim pidió entonces que a la base numérica (2) la elevasen al número de la habitación en la cual se
R encontraban, es decir, [ 2n ]. El resultante era el número de sus nuevas habitaciones. De esta

manera quedaron alojados todos los huéspedes previamente registrados en el hotel.

Tomado con permiso de: www.mathstube.org.uk

Ahora solo faltaba buscar un espacio para el nuevo infinito grupo de excursiones con un
455

infinito número de turistas cada una. En función de ello, asignó a cada una de las excursiones un
número primo mayor a 2, y a cada turista de cada excursión un número impar, de manera que la
habitación de cada uno de los turistas se calculaba tomando el número primo de su excursión (p)
y elevándolo al número impar que les tocó dentro de la excursión (t), lo que da [ ]. Ejemplos
como este y más pueden encontrase en la excelente obra de Alberto Coto (2007, p. 68-69).

Bien sabido es que tanto los números primos como los impares, representan grupos diferentes
de números infinitos, fue así entonces como el gerente y su esposa lograron hospedar a un
número infinito de huéspedes, dentro de un hotel con infinito número de habitaciones. Este
consistió en un experimento mental del tipo conjetural aplicado a las matemáticas, a la teoría de
conjuntos y los números infinitos, de los cuales de George Cantor (1845 – 1918) fue uno de sus
instauradores. Según Cobalán (2006), los conjuntos infinitos pueden resumirse de la siguiente
.les forma: En cualquier conjunto finito se cumple que el todo es mayor que cualquiera de sus
at partes. En los conjuntos infinitos se tiene la característica de que el todo no es mayor que alguna
nsMe
de sus partes, (p. 11).
ot
ne 23.3.10.- El Cerebro en una Cubeta
mi
re
xp Este Experimento Mental del tipo crítico o destructivo, se constituye en una versión
E
so modernizada del experimento de René Descartes y su Hipótesis del Genio Maligno. Cuando
L
:na Descartes deja a un lado las críticas hacia el conocimiento y pasa a las críticas de las propias
ue facultades que tiene el ser humano y su razón de percibir y diferenciar qué es realmente
alb
V conocimiento y qué realmente no lo es. Deja en entredicho cualquier criterio de verdad que le
na permita fiarse del método, y ello implica admitir, al menos en teoría, la existencia de la absoluta
mi
o irracionalidad. Estaría así asintiendo la duda metódica y adquiriendo un estilo radical sobre el
R
conocimiento.

¿Es que acaso Descartes se cambiaría al lado oscuro de los Escépticos? Si quería encontrar
verdades absolutas de alguna manera tendría que encontrar el cómo eliminar todo vestigio de
duda del método. Y puesto que éste algunas veces tiende a engañar al más ilustrado de los
científicos, planteó lo siguiente:

Todo lo que he admitido hasta el presente con más seguro y verdadero lo he


aprendido de los sentidos y por los sentidos. Ahora bien, he experimentado a veces
que tales sentidos me engañaban, y es prudente no fiarse nunca por entero de quienes
nos han engañado alguna vez…Discurso del Método.

Descartes creía que las verdades de la geometría y las matemáticas eran dependientes de la
voluntad de Dios, y que este, de alguna manera nos engañaba. Con esto no afirmaba a ciencia
456

cierta la existencia de un dios engañador, simplemente lo toma como una hipótesis que llevaría a
los seres racionales a la duda universal sobre todos los conocimientos. Según Morillo (2001, p.
58) Descartes plantea su Hipótesis del Genio Maligno así:

Pensaré que el cielo, el aire, la tierra, los colores, las figuras, y todas las cosas
exteriores que vemos no son más que ilusiones y supercherías, de las que se sirve
para abusar de mi credulidad. Me consideraré a mí mismo como si no tuviera manos,
ojos, carne, sangre, sentidos, pero con la falsa creencia de tener todas esas cosas.

En la cuarta parte de su libro El Discurso del Método expone 3 posibles motivos para dudar:
la desconfianza en los sentidos; la posibilidad de error en el razonamiento matemático y el
sueño. Concluye entonces, en escritos de Morillo op, cit, que ninguna proposición basada en la
experiencia, incluyendo las matemáticas, puede superar la duda metódica.

.s Descartes termina negando la existencia un dios maligno, y afirmando su propia existencia en


el
at el mundo. No admitía el engaño de ningún genio maligno, ni siquiera él puede engañar sin saber
ne
M alguien a quien engañar, y donde afirmó que si bien una persona puede dudar de lo que piensa,
so
t jamás habrá de hacerlo con el mismísimo acto de pensar, pues es este hecho el que le indica que
ne
rim realmente existe. De allí la famosa frase cartesiana Cogito Ergo Sum… Pienso, Luego Existo.
e
xp
Preste atención y compárese con el siguiente Experimento del Cerebro en una Cubeta.
E
so
L Imagínese ahora que un cerebro humano ha sido introducido en una cubeta rodeada de cierta
:na
substancia que le proporciona nutrientes y lo mantiene vivo. Un experimentalista y científico
ue
alb loco le ha conectado al citado cerebro, sensores electrónicos que unen sus neuronas a una
V supercomputadora, este aparato le inyecta impulsos que le hacen creer cualquier estado que le
na
plazca, como en un escenario de realidad virtual, donde ningún estímulo procede realmente del
oim
R mundo exterior, contrariamente, todo es ficticio e inmaterial.

Le induce entonces a creer que está corriendo, manejando un auto o simplemente trabajando.
El objetivo de este científico loco consiste en estudiar el origen del conocimiento y sus
significados, en función de ello induce al cerebro realidades y verdades escenificadas a su gusto,
tal como en la famosa película de ciencia ficción Matrix. El científico desea comprobar si lo que
plantea René Descartes en su Discurso del Método y sus Meditaciones Metafísicas de la
existencia de un genio maligno es realmente cierta. Pues de serlo, sus propios conocimientos
científicos estarían en entredicho, lo que le impulsa a conocer entonces ¿quién ha introducido
tales conocimientos en su mente?, esta respuesta le llevará a saber para quien realmente trabaja.
En otras palabras, desea conocer a su jefe y deslindarse de tal genio maligno.
457

(Glannon, 2011), en el capítulo 1 de su obra denominado <<Our Brain Are Not Us -- Nuestro
Cerebro no es Nuestro>> sostiene que este experimento se basa en la teoría funcionalista
computacional de la mente. Afirma: la mente emerge desde el nivel más alto de las funciones
cerebrales con el fin de promover la adaptabilidad y supervivencia del organismo, (p. 11). Así
mismo prosigue…los estados mentales pueden ser explicados por entero en términos de su rol
funcional o, en términos de su relación causal con otros estados mentales como los estímulos
sensoriales o simples respuestas del comportamiento (p. 14).

La respuesta de la teoría es que estos estados se constituyen en realidades múltiples, donde es


indiferente qué o quién sea la fuente, o cómo esta llega. Lo que realmente importa es cómo esa
fuente ejecuta las funciones apropiadas que afectan al cerebro, induciendo conocimiento a través
de sensaciones.
.s
ale Esta versión del experimento de Descartes se le atribuye en un primer momento a Jonathan
t
nsMe
Dancy, posteriormente Hilary Putnam (1926) filósofo y matemático estadounidense lo usaría
ot para cuestionar la hipótesis del cerebro en una cubeta406. Putnam con este experimento riñe la
ne hipótesis, ya que así como afirmó Descartes, se basa en argumentos insostenibles. El autor
rim
e argumenta al menos dos motivos que hacen inviable la hipótesis. Primero, toma demasiado en
xp
E serio la posibilidad física de ejecución del experimento. Y segundo, opera inconscientemente con
so
L una mágica teoría de referencia, una teoría en la cual ciertas representaciones mentales sugieren
:na
cosas externas y tipos de cosas (1998, p. 15), cuando el cerebro realmente nunca ha tenido
ue
alb contacto con el exterior.
V
na Puesto que el cerebro carece de órganos sensoriales y simplemente se alimenta de ellos,
oim
Putnam propuso lo siguiente: supóngase que todos somos cerebros en una cubeta. Que el
R
universo es una inmensa máquina que alimenta a todos nuestros cerebros. Conteste ahora a la
siguiente pregunta, y suponiendo cierta toda la historia: ¿Podríamos, si es que fuésemos cerebros
en una cubeta de cierta manera, decir o pensar lo que somos?

406 Dos excelentes obras de Hilary Putnam hacen referencias más precisas acerca de las cuestiones de forma y fondo que envuelven a la teoría.
Véase: Reason, Truth and History (1998). Y, Hilary Putnam, editado por: Yemima Ben Menahem. Ambos de la editorial Cambridge University
Press.
458

23.4.- El Control Experimental.

La Investigación Experimental por el cual Ampere estableció


la Ley de la Acción Mecánica entre Corrientes Eléctricas es
uno de los logros más brillantes de la ciencia. Toda la teoría y
el experimento, parecen haber saltado, adulta, armada y
completa, desde el cerebro de “Newton". Es perfecta en su
forma, e inexpugnable en su precisión, y se resume en una
fórmula en la que todos los fenómenos pueden ser deducidos, y
que siempre debe seguir siendo la fórmula cardinal de la
Electro-Dinámica…

James Clerk Maxwell.

para hacer
ontrol,
someterse cierto
es un
referencia
término las condiciones
atécnico
experimento. empleado eslaun procesoa las
yenrestricciones
El control queexperimental.
investigación que
se efectúa tanto
Suele
obligatoriamente
sobre
usarse

C
variables independientes como sobre las extrañas. Implica la minimización de los efectos o
debe
las

influencias que variables exógenas o extrañas puedan producir sobre el tratamiento aplicado. Es
decir, aquellas variables independientes que en nada se relacionan, ni mucho menos fueron
tomadas en cuenta dentro de los propósitos del estudio. No obstante, pueden llegar a afectarlo

significativamente.

Elementos que Intervienen en el


Control de las Oscilaciones
Perturbadoras

LaExperimental
Aleatorización El Método del
Control Estadístico Los Cánones de Mill

Algunos elementos que interviene en el Control Experimental

La palabra control tiene varios significados, primeramente, permite establecer un punto de


comparación entre dos o más resultados en un experimento. Es empleada también en el sentido
de mantener invariantes las condiciones al momento de aplicar estímulos a las variables

experimentales. A su vez, el control es usado para minimizar posibles fuentes de errores, y es


calificado como uno de los procesos más importantes dentro de la planificación y ejecución de
experimentos. Fuentes de errores imprevistas son consecuencia de controles incorrectos. El
control asiente la manipulación de factores para hacerlos encajar dentro de los supuestos
teóricos, así como sus condiciones de observación.
459

Por otro lado, todo aquel concepto que permita elucidar por medio de razonamiento y práctica
matemática, y que además, pueda adquirir diferentes valores cuantitativos, u oscilaciones
susceptibles de medición, será llamado variable407. Las variables suelen clasificarse en términos
de las relaciones existentes de unas con las otras. Aunque existen diferentes tipos de variables,
hay dos que primariamente interesan al experimentador, la variable dependiente <<es la que
sufre la acción de manipulación, es decir, es aquella a que se somete a estímulos>> y la
independiente << la que se mide, o sobre la cual recaen los efectos observables>>

Si los efectos que sobre una variable se producen son consecuencia408 inequívoca de otra,
esta será denominada variable dependiente. Y la otra variable que la antecedió, dicho de otra
manera, a la que pueden atribuírseles sus efectos o denominados orígenes causales, será llamada
variable independiente. Con el Método Experimental, el científico persigue deducir

.l consecuencias de la manipulación de la variable independiente y observar sus efectos sobre la


at dependiente bajo situaciones estrictamente controladas. Es esta relación la que se busca explicar
ne
rim con la experimentación.
e
xp
E En lo tocante al control sobre las variables, este es usado en el aseguramiento de que los
lro
t resultados de un estudio, sean consecuencia directa de la manipulación de la variable
no
independiente, eliminando todo vestigio o mera sospecha de que pueda originarse en otra fuente.
lC
E
:na Aunque no necesariamente el control deba ser utilizado para inhibir el efecto de variables
ue exógenas, en ocasiones se utiliza para recomponer grupos experimentales, en estos casos, este
alb
V tipo de variables arroja información importante sobre cómo conducir un estudio experimental
na
futuro.
oim
R A simple vista un estudio experimental pareciese ser sencillo, esto realmente no es cierto.
Dentro de los diseños experimentales hay dos componentes irreductible que deben considerarse:
la causación y una teoría para inferir causalidad.

A continuación se examinan estos dos elementos. Se entiende por causación a la relación


entre eventos particulares; algo pasa y hace que algo más pase. Cada causa es un particular
evento, así como lo es cada efecto.

Un evento A puede tener más de una causa, ninguna de las cuales por sí sola es suficiente

407 Platón (428 – 347 AC), afirmaba que el conocimiento era una creencia verdadera y justificada. Sólo puede conocerse lo que no cambia.
Cualquier fenómeno que cambie (Variable) ha de ser estudiado.
408 La consecuencia es una proposición condicional o una proposición hipotética compuesta por lo menos por dos enunciados unidos
condicionalmente, de tal manera que se la declara verdadera cuando el antecedente implica el consecuente, esto es, cuando del antecedente puede
deducirse el consecuente. Ferrater Mora (2000). Véase.
460

para producir A. Un evento A también puede ser sobredeterminado409, implicando la existencia


de un conjunto de causas suficientes para que A ocurra.

Es así entonces como la causación se convierte en un efecto transitivo, irreflexivo y


asimétrico. Lo anteriormente expuesto se entiende mejor bajo la siguiente analogía410:

i) Si A es causa de B y B es causa de C, entonces A es causa de C.


ii) Un evento A no puede causarse por sí solo
iii) Si A es una causa de B, entonces B no es causa de A

A este conjunto de relaciones se le conoce como causaciones directas e indirectas. Según


Spirtes et, al, la distinción entre causas directas e indirectas es proporcional al conjunto de sus
eventos. Si C es el evento de encender un fósforo, y A es el evento que coincide con la captura
del fuego, y ningún otro evento es considerado, entonces C es causa directa de A. De otra manera
.l
at si se añade B, como que el azufre en la punta del fósforo logra suficiente calor como para
ne
rim combinarse con el oxígeno, entonces, mal podría inferirse que C es directamente causado por A.
e
xp Sin embargo, si se plantease que C es directamente causado por B, y B directamente causado por
E A, podría inferirse que B es causal Intermediaria entre C y A, sólo si C causa B y causa A.
lro
t
no
Una teoría para inferir causación ha de hacerse corresponder con los postulados del método
lC
E axiomático, y se concibe al tomar en cuenta que un evento transitivo puede ser asociado a la
:na
ue estadística. En toda relación causa – efecto, la primera antecede temporalmente a la segunda. No
alb puede darse primero el efecto y luego la causa, siempre ha de evidenciarse la relación entre el
V tiempo y la explicación causal. Según Aristóteles411, la causa y el efecto podrán existir al mismo
na
oim tiempo y podrán demostrase el uno por el otro. Para Pearl412 (2000, p. 57), en el discurso
R humano una explicación causal debe satisfacer al menos dos expectativas; una temporal y una
estadística. El aspecto temporal viene representado porque la causa ha de preceder a su efecto.

El aspecto estadístico se conforma a través de una completa explicación causal, incrustada


dentro de una teoría de causalidad, de manera que pueda visualizarse un escenario probabilístico
con todos sus posibles efectos. Toda explicación que no muestre sus efectos será denominada

409Término empleado en filosofía y psicología para designar, según las modalidades propias de cada objeto, una pluralidad de determinaciones
que generan un efecto dado. Efecto mediante el cual el subconsciente sobre interpreta algo. En investigación experimental debe evitarse pues
puede llevar al científico a sobredimensionar los alcances de su trabajo, tornándolo a todas luces erróneo. Al momento de intentar refutar una
investigación experimental se busca si se dimensionaron correctamente los supuestos causales y su consistencia matemática en relación con la
validez interna entre otros.
410 Aparece en: Spirtes, Glymour y Scheines (2000). Causation, Prediction and Search. P. 20. Este a su vez es originario del Organon
Aristotélico.
411 El Organon. Tratados de Lógica. Sección Cuarta: Capítulo 16, numeral 2. Véase.
412 Pearl, Judea. Causality: Models, Reasoning and Inference.
461

incompleta, y las dependencias residuales serán supuestas como espurias413 o no explicadas.

El conflicto de la coexistencia de estas dos expectativas a través de siglos de observaciones


científicas, ha derivado en que todo fenómeno natural ha de mostrar alguna tendencia temporal
básica. Es allí donde se hace necesaria una teoría que permita inferir causación.

Para Rubin y Babbie (2013, p. 182), antes de llegar a inferir que la variable independiente es

realmente la única causante de los cambios en la variable dependiente, debe estudiarse qué
cambio se sobreviene primero. Pues, no tiene sentido el siquiera imaginar que algo haya sido
causado por algo más y que suceda después, dicho de otra manera, primero se observe el efecto y
posteriormente se dé la causa. En función de ello, el Primer Criterio para Inferir Causalidad es:
Toda Causa ha de Preceder a su Efecto en el Tiempo. El Segundo Criterio para Inferir
Causalidad: Las dos variables deben covariar la una con la otra.
.l
at Aquí carece de todo sentido el que un estímulo pequeño sobre una variable, provoque una
ne
rim gran reacción sobre la otra. Manifestándose a todas luces, una variación irregular entre ambas. El
e
xp tercer requerimiento exige: La covariación entre dos variables no puede ser explicada como
E
lro resultado de la influencia de una tercera variable que cause efectos sobre ambas. En ese caso ha
t de optarse por una teoría para inferir Multi Causalidades. Hay al menos 2 maneras de controlar la
no
lC
intervención de variables externas usando técnicas estadísticas: el uso de la Aleatoriedad; y el
E
:na Método de Control Estadístico.
ue
alb
V
na
oim
R

413 Este término se utiliza sobre todo aquello que en apariencias parece ser pero no lo es. En estadística, una correlación espuria es aquella en la
cual dos acontecimientos carecen de toda conexión lógica y se evidencia la omisión de un tercer factor no tomado en cuenta. Es posible la
detección de una relación espuria a simple vista considerando violación de la siguiente secuencia lógica: a) Todo evento “x” debe preceder al
evento “y”: b) Si “y” no ocurre entonces “x” nunca ocurrió: c) “y” debe ocurrir cada vez que ocurra “x”. Existe y puede darse también el caso de
una Correlación Parcial. Es decir, se conoce como correlación parcial entre dos variables a aquella, cuyo coeficiente de correlación depende de
una tercera no tomada en cuenta en las consecuencias relacionales lineales. La correlación parcial “X”; “Y” dado “Z”, sirve para identificar en
qué escala de medida de la variación lineal entre “X” y “Y”, puede deberse a la correlación de ambas con “Z”. Es bueno recalcar que cuando “X”
y “Y” no están correlacionadas con “Z”, se obtendrá un coeficiente de correlación igual al coeficiente de correlación parcial. Evidenciándose que
el valor de la correlación, atribuible y medible en la escala, no se debe en este caso, a la presencia de “Z”. Tomado de: Dodge, Yadolah (2008).
The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Partial Correlation, Véase.
462

23.5.- Aleatorización Experimental

La aleatorización, desde el punto de vista estadístico, consiste en un proceso de selección de


unidades pertenecientes a un conjunto, donde cada elemento particular presenta la misma
probabilidad de ser seleccionado. El diccionario Oxford define “Aleatorio” como algo sin
propósitos o fines específicos, además, carente de una dirección concreta o particular. Todo
proceso de aleatoriedad implica la inexistencia de determinado orden. Sin embargo, se le
considera predecible bajo la forma de Esperanza Matemática.

Desde el punto de vista de la Investigación Experimental, a las unidades experimentales se les


asignan números aleatorios de manera que se asegure su probabilidad de selección, y donde

ninguna ha de quedar exenta. La aleatoriedad permite agregar credibilidad y validez a los


resultados de determinado estudio. Alférez (2012, pp. 1-5), explica: la aleatorización aplicada
.l
at sobre experimentos comparativos es considerada como la Regla de Oro para lograr
ne
rim satisfactorias inferencias causales a partir de un pool de datos estadísticos. La asignación
e aleatorizada de sujetos hacia las condiciones de tratamiento, asegura que los factores
xp
E manipulados en un experimento son independientes de aquellas causas inobservables originadas
lro
t por variables exógenas, al menos dentro de los límites de la probabilidad.
no
lC
E La aleatoriedad puede ser modelada por la teoría de la probabilidad, el azar simplemente
:na
ue proviene de lo fortuito. Mario Bunge (2004), al igual que muchos otros autores afirma que
alb aleatoriedad es sinónimo se casualidad. Sin embargo, muchas discrepancias se han presentado
V en la diferenciación entre Aleatorio y al Azar, para ello habría que adentrarse en el estudio del
na
oim Determinismo414 e Indeterminismo, no obstante, dejo eso al lector. Superficialmente, el proceso
R de aleatoriedad cumple con los postulados de la teoría de la probabilidad y persigue eliminar las
casualidades. El proceso de aleatoriedad se basa en la selección de números aleatorios, según
Alférez (2012, p. 139), en sentido estricto, un número aleatorio consiste en un número generado
por un mecanismo no causal o estocástico.

Para generar una secuencia de números aleatorios es necesario partir de determinada fórmula
aleatoria o una tabla de números aleatorios, allí se crea una semilla415, la cual consiste en un

414 El determinismo y el indeterminismo son concepciones filosóficas contradictorias y relativas al lugar que ocupa, y al papel que desempeña la
causalidad. Se da el nombre de determinismo a la teoría en la cual se afirma la condicionalidad causal y universal de todos los fenómenos. Los
deterministas afirman que todos los acontecimientos del universo están sometidos al principio de causalidad universal. Los indeterministas niegan
tal posibilidad, o teoría de que exista una ley de causación universal que rija todos los fenómenos. Contrariamente, aducen que las causas y
efectos son meramente actos libres e independientes de cada cosa.
415 El software de procesamiento estadístico de datos SPSS Versión 15 así lo denomina.
463

valor que inicia la secuencia aleatoria416. La aleatoriedad ha de ser aplicada sobre la población
a estudiar con el objeto de extraer una muestra representativa al conjunto. Un experimento será
aleatorio cuando al repetirlo en las mismas circunstancias, y considerándose las mismas
condiciones iniciales, el resultado resulta diferente para cada una, tornándolo impredecible. Sepa
diferenciar entre lo anterior y la aleatoriedad sobre los diseños experimentales, a todas luces no
son lo mismo. La aleatoriedad evita la repetición o formación de patrones.

Con respecto al azar, si bien se le asocia a la teoría de casualidad, recae sobre un fenómeno
que no tiene origen, es decir, producido por lo accidental. En el azar no son necesarios los
algoritmos ni las secuencias numéricas. Contrariamente, en la investigación experimental se
persigue establecer causación cierta a través de inferencias válidas y conclusiones correctas, en
la investigación científica una conclusión se corresponde con una verdad, no con un hecho. La

.l aleatoriedad sólo es posible gracias a que el azar interviene, dicho de otra manera, son términos
at que se complementan, pero no son iguales. Es así como, y según Aristóteles…
ne
rim
e No hay ciencia por demostración para lo que depende del azar; porque lo que sólo
xp depende del azar no puede ser considerado, ni como necesario, ni como si acaeciera
E
lro habitualmente. Lejos de esto, el azar es precisamente de un modo contrario a lo uno y
t a lo otro. El Organon (p. 215). Véase.
no
lC La aleatorización suele usarse en diseños donde se compara cierta cantidad de grupos, plantea
E
:na esencialmente que tanto las variables extrañas como las conocidas, afectarán de manera
ue
alb homogénea a todos los sujetos de la población. Distribuyéndose similarmente en los grupos a
V comparar.
na
oim
R

416 El SPSS Versión 15 utiliza un generador de números aleatorios denominado Tornado de Mersene. Creado por Matsumoto y Nishimura
(1998). Este algoritmo es capaz de generar [ ] valores antes de que al menos uno se repita. Su artículo MT19937, contiene una rutina
mejorada y publicada en 2002.
464

23.6.- El Método de Control Estadístico

Consiste en una técnica de control indirecto y sirve como ajuste asociado al diseño. El método
de control estadístico se avoca sobre el proceso de medición sistemática de las variables
exógenas tendente a ajustar, no eliminar sus efectos, haciendo uso adecuado de ciertos análisis
estadísticos. En el diseño es posible el empleo de la asociación estadística, implica covarianza o
correlación entre variables. Cuando se demuestra asociación de algún tipo entre dos o más
variables, es indicativo de alguna clase de tendencia o patrón entre los distintos valores que estas
variables presentan, de manera que su análisis se hace necesario en función de observar, de qué
manera esta asociación afecta los resultados del experimento.

Los efectos de la asociación estadística entre variables se muestra bajo diversas formas: como
en el caso de los estadísticos de correlación, su asociación puede ser débil, moderada o fuerte. El
l.a concepto de asociación estadística aunque resulta fundamental como técnica de control, implica
t
ne
un conocimiento de estadística avanzada por parte del experimentalista. Hanneman, Kposowa y
rim
e Riddle (2013), aportan lo siguiente;
xp
E
lro Dos variables estarán estadísticamente asociadas si la distribución de Y,
t condicionada a la distribución de X, difiere de la distribución de Y no condicionada a
no
lC la distribución de X. En otras palabras, la distribución de Y no está condicionada
E sobre X, es decir, son sólo las frecuencias relativas de la variable Y. La distribución
:na de Y condicionada sobre X, consiste en las frecuencias relativas de Y, calculadas
ue separadamente para cada puntuación. (P. 373).
alb
Se axiomatiza así: si las puntuaciones de una variable Y difiere con dependencia de las
V
na puntuaciones de otra variable X, entonces ambas variables están asociadas. Bajo ningún
oim
concepto puede llegar a inferirse que las dos variables están causalmente correlacionadas por el
R
simple hecho de haber demostrado asociación, pues este estadístico está en la imposibilidad de

probar los supuestos contenidos en las leyes de causalidad. Aunque es posible usarlo como
evidencia en una relación causal no derivando en contradicción.

El resultado del test de asociación estadística por sí mismo no se constituye en elemento que
sustancie suficientemente un juicio conclusivo sobre la existencia inequívoca de una relación
causal, sólo se limita a mostrar evidencias. Los autores argumentan que lo opuesto a la
asociación estadística sería la Independencia Estadística, indican que no hay tendencia cierta que
las puntuaciones sobre X vayan con particulares puntuaciones de Y, las distribuciones
condicionales de Y, al conocerse X, no difieren para ningún rango de distribución de X; y al
conocerse X, no reduce el error o la incertidumbre en la predicción de Y.
465

A diferencia de la prueba de Independencia estadística, cuando dos variables están asociadas


es posible predecir las puntuaciones de una en función de la otra Para concluir, el método de
control estadístico, aunque consiste en una herramienta de control poderosa, implica la añadidura
de procedimientos extras al diseño experimental, úsese en caso de que el experimentalista posea
las destrezas suficientes como para manejar los datos que allí consiga.

23.7.- Los 5 Cánones de Jhon Stuart Mill417

Este autor (1806 – 1873), siempre fue defensor activo de la metodología inductiva, centrado
especialmente en el descubrimiento de leyes. Siempre argumentó…los más simples y obvios
métodos de singularización entre las circunstancias que anteceden o suceden a un fenómeno,
son aquellas en las cuales tal fenómeno es conectado por leyes invariantes, éstas,
numéricamente son dos:
.l
at
ne La primera, comparando diferentes instancias en las cuales el fenómeno ocurre. La otra es, a
rim través de la comparación de instancias en las cuales el fenómeno ocurra con otras instancias
e
xp similares pero donde el fenómeno no ocurra. Estos dos métodos son respectivamente
E
lro denominados: el Método de la Concordancia y el Método de la Diferencia. El primero puede ser
t
no fácilmente comprobable a través del segundo, y sus usos son muy comunes en investigaciones
lC
E experimentales. Los otros 3 Métodos corresponden al Método Conjunto Concordancia –
:na
Diferencia, el Método de los Residuos y el Método de las variaciones Concomitantes. A
ue
alb continuación se explican.
V
na 23.7.1.- Método de la Concordancia
oim
R Stuart Mill, (1858) bajo el Canon I: Método de la Concordancia, afirma: si dos o más casos
de un fenómeno bajo investigación tienen sólo una circunstancia en común, la circunstancia en
la que convergen todos los casos es la causa (o efecto) del fenómeno dado, (p. 224). Es así
como, este método consiste en la búsqueda de una condición antecedente y común para todos los
casos de los efectos cuya causa se intenta determinar.

En el método de la concordancia el investigador se ve forzado a concatenar eventos que

converjan circunstancialmente, pero que diverjan en los demás aspectos. El procedimiento se


basa en la búsqueda de factores liados a ciertos sucesos, pero que se diferencian en la presencia o
ausencia del fenómeno que se desea estudiar.

417John Stuart Mill, filósofo inglés del siglo XIX, hizo significantes aportes a la investigación experimental bajo los principios de la lógica
inductiva. Como esquema general intentaba establecer nexos causales en donde una misma circunstancia estaba presente en todos los casos
estudiados. Sus detalles pueden leerse en su obra: A System of Logic: Ratiocinative and Inductive. (1858).
466

A continuación se presenta un ejemplo del Método de la Concordancia, las letras mayúsculas


representan a los agentes causales, y las minúsculas son los efectos a esas causas, se denotará de
la misma manera para todos los subsiguientes modelos. Ejemplo 1: si se puede producir “A” en
una variedad de circunstancias, tal que, cuando se presenten diferentes casos no existan
circunstancias en común excepto “A”; entonces, cualquier efecto derivado de alguna prueba
pareciese poder atribuírsele a “A”, puesto que se constituye en el factor común de todos los
eventos. Cuando la circunstancia se presenta en algunos casos y en otros no, mal podría

atribuírsele determinados agentes causales.

En este método, el investigador presupone una cierta cantidad de condiciones como posibles
agentes causales, y sólo es necesario indagar sobre aquella causa considerada como condición
necesaria. En el proceso, es menester aislar cada factor y someterlos a análisis uno a la vez. El
método de la concordancia, desde Mill hasta ahora, ha demostrado ser un principio
.l
at
ne verdaderamente incuestionable, siendo promotor de grandes avances científicos mediante la
imr producción de hipótesis bastante aceptables. Y las cuales han dado pie a investigaciones futuras
e con resultados verdaderamente concluyentes.
xp
E
lro
t A continuación el ejemplo 2:
no
lC Un agricultor encuentra que en su parcela, en todos los lugares bajos, las plantas de
E maíz se marchitan. Si la semilla del maíz pertenece a un mismo lote y el terreno fue
:na
ue trabajado uniformemente, el agricultor puede suponer que el efecto
alb (marchitamiento), se debe a las mismas causas que es la diferencia del nivel del
terreno. Espíndola (2005, p. 107).
V
na
Ejemplo 3:
mi
o
R Cinco de siete estudiantes presentan señales visibles de una alergia severa en varias partes de
sus cuerpos luego de pasar horas de estudio en la biblioteca de su universidad. Sin embargo, dos
de ellos carecen en su totalidad de cualquier sintomatología asociada y afirman estar en perfectas
condiciones. Luego de una indagación profunda, se encuentra que si bien los 7 estudiantes

compartieron el mismo espacio, estudiaban materias diferentes y en mesas apartes. Marta, María,
Pablo, Julio y Rosa, leían obras originales de William Shakespeare. Mientras Miguel y Dayana,
estudiaban las aplicaciones de un nuevo software computacional a los problemas en
matemáticas.

Julio maneja la hipótesis de que presentaron reacciones alérgicas luego que Miguel abriese un
tarro que contenía una extraña substancia química con alta probabilidad de ser tóxico y que
emanaba un fuerte olor. Pablo y Rosa argumentan que pudieron haberse enfermado luego de
haber ingerido todos café con un sabor infrecuente. María conjetura que pudo deberse al uso de
467

material bibliográfico que data de hace 150 años, al menos por parte de los afectados. A
continuación se presenta un cuadro descriptivo de las relaciones entre los afectados y no
afectados contra los agentes causales:

Cuadro de Concordancia entre Factores


Estudiante Agente Causal 1:
AgenteCafé
Causal 2: Agente
Libros Antiguos
Causal 3: Alergia
Substancia
Química

Marta Expuesta Expuesta Expuesta Si

María Expuesta Expuesta Expuesta Si

Pablo Expuesto Expuesto Expuesto Si

Julio Expuesto Expuesto Expuesto Si

Rosa Expuesta Expuesta Expuesta Si

Miguel Expuesto Expuesto No Expuesto No

Dayana Expuesta Expuesta No Expuesta No


.l
at
ne
Del cuadro de concordancia entre factores es posible extraer las siguientes conclusiones:
mi
re todos los estudiantes estuvieron expuestos a la substancia química, sin embargo, Miguel y
xp
E
lro Dayana no contrajeron la alergia, por lo que se descarta como agente causal. Con respecto al
t café, todos lo consumieron, pero se repite el patrón anterior, quedando los mismos dos
no
lC estudiantes fuera de los efectos alérgicos, aquí se descarta también como agente causal. Por
E último, todos los expuestos a los libros antiguos contrajeron la alergia, mientras que los restantes,
:na
ue salieron ilesos.
alb
V Por lo que es posible concluir, de los siete estudiantes en la biblioteca, sólo contrajeron la
na
mi alergia aquellos en contacto directo con los libros antiguos, pudiendo atribuirle la causa a la
o aspiración vía aérea de los hongos que anidan en sus hojas, que se forman luego de varios años,
R
asociados a la humedad del ambiente y que las tornan amarillas.

El método de descubrimiento y prueba de leyes naturales que hasta el momento se ha


examinado, procede basado en el siguiente axioma: cualquier circunstancia puede ser excluida
sin perjuicio del fenómeno, o puede estar ausente a pesar de su presencia, y no se le considera
conectada con el fenómeno bajo la forma de causación. Las circunstancias causales se suprimen
de esta manera, si sólo queda una, considérese la causa de aquello que se busca. Si queda más de
una, también son o contienen entre ellas la causa.
468

23.7.2.- Método de la Diferencia

Bajo las consideraciones de Hurley (2008, p. 493), el objetivo del método de la diferencia
consiste en identificar una condición suficiente entre todas aquellas que están presentes en una
ocurrencia específica. En ocasiones, la ausencia de un factor puede considerarse como algo
positivo que obligatoriamente debe ser tomado en cuenta. Así mismo asiente, este método está
confinado a la investigación de sólo dos ocurrencias, y a la identificación de una causa en el
sentido de una condición suficiente. Este procedimiento se soporta sobre las bases del supuesto
de que todo aquello que sea imposible de ser eliminado ha de estar sujeto al fenómeno mediante
alguna ley.

Cualquier antecedente que no pueda ser excluido sin prevenir la aparición del fenómeno, es la
causa o una condición de este fenómeno; cualquier consecuencia que pueda ser excluida sin
.l
at ninguna otra diferencia en los antecedentes más que la ausencia de alguna en particular,
ne
considérese el efecto de esta. En lugar de comparar diferentes instancias de un fenómeno para
rim
e descubrir en cuales converge, este método compara instancias de sus ocurrencias contra
xp
E instancias de no ocurrencia, con el fin de descubrir bajo qué situaciones difieren.
lro
t
no Para Mill, op. Cit, El Canon II: Método de la diferencia puede ser expresado de la siguiente
lC
E manera:
:na
ue Si hay una situación en que ocurre el fenómeno en investigación, y otra situación en
alb que no ocurre, y se parecen en todo excepto en una circunstancia, que sólo se
V presenta en la primera situación, entonces esta circunstancia, que es la única
na diferencia entre las dos situaciones es el efecto, la causa, o una parte indispensable de
oim la causa del fenómeno mencionado. (p. 225).
R Si el objeto del científico es descubrir los efectos de un agente “A”, se debe procurar “A”
bajo un conjunto de circunstancias comprobadas, tales como “A-B-C”, y habiendo observado los
efectos producidos, debe comparársele entonces con los efectos de las restantes circunstancias
“B-C”, cuando “A” está ausente. Si el conjunto de los efectos totales de “A-B-C”, son “a-b-c”,

y los efectos de “B-C” son “b-c”, se hace evidente entonces que el efecto de “A” es “a”.

Si se comienza de nuevo, deseando investigar la causa de un efecto “a”, deben seleccionarse


escenarios “a-b-c” en los cuales el efecto ocurra y en donde sus antecedentes fueron “A-B-C”.
Debe prestarse mucha atención a otros escenarios en los cuales las restantes circunstancias “b-c”,
ocurran sin la intervención de “a”. Si los antecedentes en estos escenarios fueron “B-C”, se sabe
entonces que la causa de “A” debe ser “a”, esto para ambos escenarios, estando “A” solo o en
conjunción con alguna otra circunstancia.
469

Govier (2010, p. 297), presenta un ejemplo interesante de la aplicación del método de la


diferencia en un caso clínico particular, a continuación se hará un esfuerzo por encontrar un
factor “C” que está ausente en todos los casos donde “E” también lo está: supóngase por
ejemplo, que de 100 pacientes que toman un nuevo medicamento, 34 de ellos experimentaron
dolores de cabeza, mientras que los restantes 66 no. Para indagar las causas de los dolores de
cabeza usando el método de la diferencia de Mill, se hace necesario explorar la diferencia entre
los dos grupos.

Se tratará de identificar casos similares en todos los aspectos probables de ser causa relevante,
excepto uno <<aquel cuyas características representen una probable diferencia causal>>
Supóngase que todos aquellos que no presentaron dolores de cabeza, no consumieron derivados
lácteos durante la medicación. Este aspecto podría considerarse como una diferencia causal de

.l relevancia entre los dos grupos. En el párrafo previo se hizo mención al esfuerzo por encontrar
at un factor “C” <<Dolores de Cabeza>> que está ausente en todos los casos donde
ne
rim “E”<<Consumo de Productos Lácteos>> también lo está, es decir, ambos en el grupo de los que
e no presentaron dolores de cabeza. Ahora, usando el método de Mill, es tentativamente posible
xp
E concluir que el consumo de derivados lácteos es una causal suficiente en la experimentación de
lro
t
no dolores de cabeza mientras se está en uso de tal medicación.
lC
E Govier además sostiene que, así como en el método de la concordancia, el usar el método de
:na
ue la diferencia presupone que se cuenta con una relativamente corta lista de factores susceptibles a
alb aislamiento. Tal lista ha de cotejarse con un perfil básico de conocimientos en el área. En las
V ciencias médicas, los hechos demuestran que el consumo diario de derivados lácteos, es un ítem
na
oim plausible para incluir en la lista en estos casos.
R
23.7.3.- Método Conjunto Concordancia – Diferencia

El método de la diferencia consiste en un proceso de verificación del método de la


concordancia, sin embargo, a ninguno se le considera infalible. El método conjunto concordancia
– diferencia, puede ser denominado como un método indirecto de diferencias, gravita en emplear
2 veces el método de la concordancia, donde cada prueba ha de ser independiente de la otra,
corroborándose. Los dos métodos previamente descritos poseen varias semejanzas, así como
también, ciertas diferencias. Ambos, son denominados métodos de eliminación.

Este término <<empleado comúnmente en teoría de ecuaciones para denotar el proceso


mediante el cual los elementos de una pregunta son excluidos, y la solución sólo depende de las
relaciones entre los restantes elementos>> es el más adecuado para expresar este tipo de
470

operaciones. El proceso conlleva una sucesiva exclusión de varias circunstancias, las cuales
previa corroboración, se demuestra que acompañan al fenómeno en una instancia dada, esto con
el fin de indagar cuales de ellas puedan estar ausentes consistentemente con la existencia del

fenómeno.

Por ser este un método conjunto, lleva implícito los axiomas de cada uno. El método de la
concordancia reside en que todo aquello que pueda ser eliminado no ha de estar conectado al
fenómeno bajo ninguna ley. El método de la diferencia por su lado, gravita en que cualquier
instancia que no pueda ser eliminada ha de estar conectada al fenómeno bajo alguna ley. El
canon 3, Método Conjunto Concordancia – Diferencia se presenta bajo el siguiente formato:

Si dos o más ejemplos en los que el fenómeno ocurre muestran una sola
circunstancia en común, mientras que dos o más situaciones en las que el fenómeno
no ocurre sólo comparten la ausencia de la circunstancia mencionada, entonces tal
.l
at circunstancia, la única, en que difieren los ejemplos mencionados, es el efecto, la
ne causa, o una parte indispensable de la causa, del fenómeno estudiado.
rim
Por denominársele un método indirecto de diferencias, no debe jamás confundírsele con el
e
xp
método de las diferencias, en función de ello Hurley Op. Cit. (p. 542) explica… el propósito del
E
lro
método de la diferencia es determinar si una condición preseleccionada es la causa del
t
no
fenómeno. Esta condición preseleccionada está presente en una de las 2 ocurrencias, pero
lC
E ausente en la otra. Por otro lado, el propósito el método conjunto es determinar cuál condición,
:na
ue dentro del grupo de seleccionadas, es causal directa del fenómeno. Para ello debe aplicar
alb eliminaciones sucesivas, en donde subyacen condiciones suficientes y condiciones necesarias.
V
na
La aplicación del método conjunto, a diferencia de cualquiera de sus predecesores, requiere
oim
un estricto análisis Causal e Inferencial, de hecho el mismo Stuart Mill no termina de exponerlo
R
y argumenta: No es posible entrar a explicarlo y generar una intrincada discusión sin introducir
nuevos elementos de complejidad…(p. 229). Recomienda usarlo cuando se logre un
conocimiento profundo de las Leyes de Causación; las Composiciones de las Causas; las
diferencias entre Observación y Experimento, además de la Pluralidad de Causas y Mezcla de
sus Efectos.

Se recomienda al lector remitirse en este mismo texto al apartado relativo a Los Sistemas
Físicos y la Causación, allí se exponen elementos importantes de estos temas desde varias
aristas, la Física Teórica, la Experimentación y las Leyes de Causación Universal. Así como, se
le invita también, a repasar los tipos de argumentaciones que dan origen a las Inferencias
Científicas en el Capítulo VI.
471

23.7.4- Método de los Residuos

El método de los residuos permite la exploración de leyes naturales bajo observaciones


específicas y la experiencia. Este método es en extremo simple, consiste en subconducir, de
cualquier fenómeno dado, todas las porciones que en virtud de inducciones precedentes, puedan
ser asignadas como causas conocidas, el resto han de ser los efectos de los antecedentes que se
habían pasado por alto, o la evidencia que de alguna manera, tal efecto era todavía una cantidad
desconocida. Este método tiende a asegurar que el restante del efecto, es decir el residuo, es
causado por “a”.

Preste atención al siguiente ejemplo: María desea pesar el contenido de un jarro de forma
irregular imposible de sostenerse por sí solo en una báscula sin derramarse. Procede primero a
pesarse ella misma con el jarro en sus manos, y la báscula registra un peso total de 63,7
.l
at kilogramos. Posteriormente coloca el jarro en lugar seguro y se pesa ella sola, registrando ahora
ne
la báscula un peso total de 56,8 kilogramos. El efecto residual de los efectos de los pesos
rim
e combinados y no combinados es de 6,9 kilogramos, lo que le hace inferir que el peso residual se
xp
E
lro corresponde con el del jarro.
t
no El método de los Residuos aplica a los casos en los cuales un fenómeno “D” pueda ser
lC
causado por cualquier otra condición “e”, “f” o “g”, y se desea determinar cuál condición
E
:na
representa verdaderamente la causa. Es previamente conocido a través de la inducción que ni “e”
ue
alb ni “f” es causa de “D”. Por lo que ha de asociársele a “g” la condición restante, y conocida
V como el residuo, tal condición presenta coherencia racional y suficiente para atribuirle los
na
oim efectos causales de “D”. No obstante, tal inferencia ha de ser corroborada por observaciones
R ulteriores. Bajo el Canon 4, Método del Residuo, Mill establece: Cuando se resta o sustrae de
cualquier fenómeno la parte que por inducciones previas se sabe que es el efecto de ciertos
antecedentes, el residuo del fenómeno es el efecto de los antecedentes restantes.

A continuación, Bickenbach y Davies (1997), presentan un conjunto de atenciones a tomar en


cuenta para la aplicación del Método del residuo.

De acuerdo a este método, si se sabe que en una ocasión un efecto es causado por
determinado factor identificable, entonces para otra ocasión, tanto las causas como
los efectos que ocurran en combinación con otros factores, la relación causal
conocida puede ser sustraída haciendo posible identificar las relaciones causales que
ahora se presentan en la segunda ocasión. (p. 298).

Para diversos casos, el método del residuo se asemeja más a un patrón matemático de
inferencia que a uno del tipo inductivo. No obstante, su naturaleza empírica lo hace más obvio en
472

casos donde las causas a descontar son diferentes de aquellas restantes y consideradas como
residuos. Analícese el siguiente ejemplo que plantean los autores:

La pimienta roja, el azúcar y el vinagre, son ingredientes de una sopa con sabor
picante y agridulce. El azúcar causa el sabor dulce de la sopa, el vinagre causa el
sabor agrio. Considerando la información aportada, se puede concluir implícitamente
bajo el método del residuo, que la pimienta roja es la causante del sabor picante en la
sopa.

En este ejemplo se aplicó la observación en combinación con los supuestos recomendados por
Mill, los cuales aportaron las razones suficientes para emitir tales juicios conclusivos.

Seguidamente, Hurley Op. Cit (p. 538) ofrece el siguiente ejemplo:

Luego de ocupar su nueva casa, el Sr. Smith encuentra una corriente de aire. Sigue la
pista a la corriente de aire y encuentra tres posibles causas: una ventana rota en el
garaje; una grieta bajo la parte frontal de la puerta; y un amortiguador roto en la
l.a chimenea. Cuando la ventana fue reparada se hizo evidente una disminución del flujo
t de aire, lo mismo ocurrió cuando hizo instalación del burlete necesario en la puerta.
ne
rim El Sr. Smith concluye, que el remanente de flujo de aire es causado por el
e amortiguador roto.
xp
E Hurley argumenta que en ciertos casos, el análisis pareciese proceder más de un origen
lro
t deductivo que inductivo, a lo que recomienda: si la conclusión solo depende de un proceder
no
lC matemático o computacional, el argumento se caracterizará mejor deductivamente, sino,
E
:na entonces probablemente sea inductivo. (P. 539).
ue
alb 23.7.5.- Método de las Variaciones Concomitantes
V
na
El método de las variaciones concomitantes418 planteado por Mill, se centra en el estudio de
oim
las diferencias halladas durante la evolución de un fenómeno justo cuando este coincide con la
R
evolución de otros…bajo el Canon 5: Método de las Variaciones Concomitantes Mill establece:

Cuando un fenómeno varía de alguna manera particular, condicionado a que otro


fenómeno también lo haga…sólo hay dos inferencias posibles… o el segundo es una
causa o efecto del primero… o ambos están conectados a través de alguna ley de
causación…pues entre ellos existen variaciones concomitantes… (p. 233).

El Método de las Variaciones Concomitantes se centra en la observación de factores o


variables, que estando estrictamente ligados al experimento, varían de forma sistemática el uno
con el otro. Es decir, un efecto varía siempre que su causa también lo hace. No obstante, el
científico ha de saber distinguir qué tipo de relación se presenta entre los eventos, este método

418 Concomitante; dícese de todo aquello que acompaña, escolta o colabora en el mismo sentido que otra cosa. Para el diccionario de la Real
Academia, Concomitancia: Coincidencia deliberada o casual de dos o más factores en la producción de un efecto. En aras de la simplicidad, el
término Concomitancia al que hace referencia Stuart Mill, resulta aplicable a la variación sistemática de dos eventos en apariencia relacionados
mediante alguna ley de causalidad.
473

sólo es posible usarlo cuando el efecto varía numérica y similarmente conforme lo hace su causa,
para Srinagesh (2006, p. 50), esto no siempre sucede así.

Las relaciones entre causa y efecto tienen diversificaciones. Primeramente es necesario hacer
distinción entre una causa necesaria y una causa suficiente. Una causa es necesaria cuando
cumple con todas las condiciones para producir determinado efecto <<sólo con la fuerza de cien
hombre podrá moverse esa roca>>, por otro lado, una causa es suficiente cuando cumple con las
exigencias mínimas para que tal efecto se suceda <<bastó sólo el roce del viento para que el
manzano cayese>> Segundo, debe distinguirse entre una causa próxima o inmediata y una causa
remota. Es así como, el método de las variaciones concomitantes se convierte en una poderosa
herramienta de análisis.

Mill especifica que este canon está sub-condicionado, ya que de ninguna manera cuando dos
l.a fenómenos se acompañan mutuamente en sus variaciones, significa que uno es el efecto y el otro
t
ne la causa. Lo mismo puede suceder, y de hecho es así, suponer que ambos se consideren efectos
mi
re diferentes de una causa común. Este método por sí solo no permite a ciencia cierta establecer
xp
E cuál de las dos suposiciones era la real y correcta. La única forma de disipar la duda, implicaría
lro
t hacer el esfuerzo por determinar si se pueden producir variaciones de una por medio de la otra.
no
lC Hughes y Lavery (2008) argumentan…al observar que las variaciones entre dos fenómenos
E
:na coinciden el uno con el otro, hay razones suficientes para creer que ambos están causalmente
ue
correlacionados, (p. 202). Este método es bastante útil cuando se intenta diagnosticar la fuente
alb
V de variación en el tiempo sobre determinada población. Más aun cuando las variaciones pueden
na
ser descritas en términos de una proporción. La concomitancia entre dos fenómenos puede ser
mi
o probada haciendo uso del método de la diferencia.
R

Mill sostuvo que de los cinco métodos resumidos arriba, el más importante era el canon II o
Método de las Diferencias. Sin embargo, para que este método funcionara, reconoció que era
necesario que entre una observación y otra del mismo fenómeno sólo hubiese una diferencia, que
podría ser de tiempo o de espacio, pero nada más; en otras palabras, Mill parecía exigir un nivel
de identidad entre sus dos observaciones que, en sentido estricto, no puede darse en la realidad.

Pero Mill tenía clara conciencia de este problema y señaló que para el uso adecuado de su
método de las diferencias, bastaba con que en las dos observaciones se conservaran iguales sólo
las semejanzas relevantes entre ellas. Esto plantea de inmediato los criterios para juzgar de la
relevancia, que deben anteceder a la comparación entre las dos observaciones requeridas. En
otras palabras, el uso del método de las diferencias requiere de un proceso previo, de naturaleza
indefinida pero no por eso menos importante, que no forma parte de los esquemas de Mill.
474

Como ejemplo, en el caso del calor, a través de un aumento de temperatura un cuerpo puede
aumentar su masa… pero si inversamente se incrementase su masa, no necesariamente
aumentaría su temperatura. Por el contrario, <<como en la disminución de un cuerpo gaseoso
debido a la temperatura>> la disminuiría. Por consiguiente, considérese al calor no como un
efecto, sino como una causa del aumento de la masa.

Si no se puede producir la variación, el científico debe esforzarse en lograrla a través de


ciertos intentos que raras veces resultarán exitosos, ello con el fin de reproducirlos naturalmente
en algunos casos donde las circunstancias preexistentes sean lo suficientemente conocidas. Es
absolutamente necesario, en función de comprobar una concomitancia uniforme, que las
variaciones de los efectos sean congruentes con las variaciones de las causas.

Las mismas precauciones han de ser tomadas en cualquier otro caso de determinación de
.l secuencias invariables. El investigador debe hacer énfasis en la retención de cualquier
at
ne antecedente sin alteración, mientras que a otras circunstancias en particular se les requiera un set
imr de variaciones. En otras palabras, debe garantizarse que las inferencias causales provengan sólo
e
xp
E y únicamente del conjunto de variaciones concomitantes observadas y no de otra fuente.
lro
t Planteado de esta manera, el método de las variaciones concomitantes pareciese agregar otro
no
lC axioma o ley de causalidad en general, de manera que cada modificación en sus causas ha de ser
E
:na seguido por una modificación en sus efectos. A continuación y como modelo, Mill ofrece un
ue ejemplo relacionado a la ley de gravitación universal:
alb
V
na El sol causa una cierta tendencia hacia el movimiento en la tierra, aquí tenemos una
mi relación entre causa y efecto; la tendencia es hacia el sol, y por lo tanto, la tierra varía
o en su dirección como el sol varía en relación de su posición; cabe agregar que la
R tendencia varía en intensidad conforme a cierta relación numérica que relaciona la
distancia del sol con la tierra, es decir, de acuerdo a otra relación con el sol. En
consecuencia, se observa que no solo hay una invariable conexión entre el sol y la
gravitación terrestre, sino que las dos relaciones con respecto al sol, su posición con
respecto a la tierra y su distancia con respecto a ella, están invariablemente
conectadas como antecedentes, con la cantidad y dirección de gravitación sobre la
tierra. Por lo que se puede inferir; la causa de la gravitación terrestre es simplemente
el sol, pero la causa de su gravitación con respecto a cierta intensidad y dirección
dada, es la existencia del sol en una dirección y distancia específica. A esto se
denomina Variación Concomitante.
475

23.8.- La Validez Experimental.

La única prueba relevante de la validez de una hipótesis es la


comparación de las predicciones con la experiencia…

Milton Friedman.

manera se se
elValidez
a resultado usa
ajusta
de las designar
unpara reglas.
aproceso. Cuando todo aquello
Sea emplea
se utiliza quepara
también
sobre es adecuado
la Investigaciónque deyalguna
expresar yfirmeza
Experimental,
exactitud
u hace
otra

L
avocamiento sobre la solidez y consistencia de los resultados de determinado experimento.
Donde la puesta en práctica del manifiesto conclusivo de sus resultados, y en sentido estricto,
en

indica que se han desenvuelto, aclarado, dilucidado y cristalizado las relaciones causa efecto que
en un primer momento se consideraron obscuras.

La validez experimental preconiza que desde la primera etapa del proceso de


experimentación, es decir, desde la creación de las condiciones mínimas básicas y necesarias,
pasando por la eliminación de factores extraños a la situación experimental, la reproducción

artificial del fenómeno, así como el proceso de observación sistemática y la metodología de


recolección de datos junto a su procesamiento estadístico, no solo ha sido un éxito, sino que está
en condiciones de explicar exhaustivamente las relaciones causales entre las variables estudiadas
dando paso al entendimiento y la razón.

En ese sentido, al entendimiento se le concibe como la facultad de dilucidar de manera lógica


y con certeza, pero ese entendimiento debe encontrar un lugar en la razón, habiendo demostrado
la esencia misma del fenómeno estudiado. He aquí el poder del Método Científico Experimental
y la importancia de la Validez.

En el proceso científico experimental son necesarias al menos dos tipos de validación, una
interna y otra externa. Mientras más alto se considere el grado de uno de los tipos de validez,
menor será el grado de la otra, en otras palabras, existe una correlación negativa y fuerte entre
ambas. Si alguien se hace la pregunta: ¿Cuál es más importante?, la respuesta es solo una, y bajo
la lógica de los principios verdaderamente concluyentes es posible afirmar… ambas lo son419.

No obstante, Vogt; Gardner y Haeffele (2012, p. 53), sostienen que todo dependerá de la

419 Algunas de las más interesantes y clásicas discusiones sobre Métodos de Investigación siempre ha sido el de qué tipo de validez es más
importante y porqué. Para Cook y Campbell, citados en Vogt; Gardner y Haeffele (2012). La Validez Interna es la más importante. A su vez,
Cronbach encontró que la validez externa es tan o más importante que la interna. Se sugiere al lector referirse al apartado de: What Methods to
Use to Enhace Validity (pp. 323 y ss.) en: When to Use What Research Design (2012). En la obra de Rubin y Babbie (2012) se detallan gran
cantidad de tipos de validez en la investigación científica, (P. 103 y ss.). Véase.
476

dirección que tenga la pregunta de investigación. Ésta, muchas veces hace énfasis en la validez
externa y otras en la interna. En función de ello, es menester armarse de una artillería analítica y
proceder con sus explicaciones.

23.8.1.- La Validez Interna

Hace referencia a la probabilidad cierta de lograr inferir conclusiones correctas sobre el papel
que juega la variable independiente en el experimento. Ésta depende de muchos factores, uno de
ellos, la omisión arbitraria de datos o controles, que de presentarse, la amenazan. En ese sentido,
Berg y Latin (2004) ofrecen sus consideraciones, puesto que la variable dependiente es la que el
investigador afecta con su tratamiento, y sobre la cual recae la observación y la medición…
entonces, la Validez Interna es la medida en que las condiciones de investigación se controlan
de modo que la variable independiente produce un efecto o cambio en la variable dependiente,
.l
at (p. 174). Desafortunadamente, no existe un valor numérico, matemático o estadístico, cuya
ne
rim magnitud pueda ser asociada como coeficiente de validez interna.
e
xp Por su lado, Rubin y Babbie (2013) afirman…la validez interna se refiere al nivel de
E
ze confianza que adquiere el investigador de que los resultados de su estudio describen en forma
lid
a precisa si una variables es o no causal de otra. Al igual que Berg y Latin, sostienen que como no
V
a existe un coeficiente estadístico asociado a un nivel alto o bajo de validez interna, recomiendan
L
:na
adoptar al menos 3 criterios para inferir causalidad para con ello soportar sus inferencias.
ue
alb
La validez interna siempre intenta abordar todas aquellas explicaciones causales que de
V
na alguna u otra manera puedan ser eliminadas. Siempre ha de soportarse en la evidencia, pues ha
oim de demostrarse que la conmutación de la variable dependiente ha sido causada única y
R
exclusivamente por la exposición a las condiciones de tratamiento de la variable independiente, y
ningún otro tercer factor intervino.

23.8.2.- Amenazas a la Validez Interna

A continuación se presenta un compendio de factores aportados por: Rubin y Babbie (2013);


además de McDaniel y Gates (1998), que pueden afectar la validez interna:

23.8.3.- La Historia:

Se refiere a cosas que pasan o suceden en el proceso experimental, e inducen cambios desde
el inicio hasta el final del experimento. Durante el curso de la investigación, extraños eventos
pueden ocurrir y confundir a su vez los resultados. Tal confusión se sucede debido a que estos
especiales sucesos coinciden en tiempo con la manipulación de la variable independiente.
477

23.8.4.- La Maduración:

Contrario a la historia, la maduración implica cambios en los sujetos o unidades


experimentales que forman parte de un experimento, tales cambios no se deben al experimento
sino, a las circunstancias que hacen cambiar al sujeto a través de un prolongado curso de
experimentación. Tal situación afecta su respuesta al factor experimental, y representa una
severa amenaza a la validez interna.

23.8.5.- El Efecto de las Pruebas:

Se producen como resultado de diversos factores asociados al proceso de experimentación.

Este tiene sus efectos sobre los resultados observados, y bajo ninguna circunstancia debe
asociársele a la variable experimental. También se da cuando en el proceso se utilizan diferentes
l.a instrumentos, uno en el pretest y otro en el postest, acción que lleva a dudar de la comparabilidad
t
ne de ambas medidas.
rim
e
xp Los efectos de las pruebas pueden generarse de dos formas: los efectos principales y los
E interactivos. Los primeros son los posibles efectos de observaciones previas sobre observaciones
ze
lid
a posteriores. Los efectos interactivos se refieren a los efectos de medidas anteriores sobre el
V sujeto o unidad experimental, y que pueden de alguna manera, afectar una medida posterior. Se
a
L
:na le asocia a las condiciones de pre-exposición y post-medida bajo las condiciones de tratamiento.
ue
alb
23.8.6.- Sesgo en la Selección:
V
na
oim Se sucede cuando se observan diferencias sistemáticas del grupo control contra el resto de los
R grupos debido al sesgo en el proceso de selección. Es decir, el grupo experimental se comporta
diferente al resto de la población. En este caso, la comparación carece de sentido, a menos que
los grupos a comparar presenten las características mínimas y necesarias para serlo. Para
asegurar la igualdad de los grupos es necesaria la aleatorización.

23.8.7.- Mortalidad:

Se muestra cuando hay pérdida de unidades experimentales durante el curso del tratamiento.
Representa un serio problema debido a la dificultad de conocer a ciencia cierta, si las unidades
perdidas habrían respondido al tratamiento experimental de la variable, en la misma medida que
aquellas unidades que continuaron durante el resto del experimento. Esto compromete
gravemente la validez interna, se considera fácil de subsanar siempre y cuando no se produzca
una mortalidad diferencial entre los grupos.
478

Es decir, las pérdidas en unos grupos es mayor que en otros, si bien es cierto el científico
puede proceder a su reemplazo, surge el problema de la asignación aleatoria y basada en un
diferencial proporcional sobre grupos que en teoría debiesen ser iguales. Si por diversos motivos
se retiran, eliminan, o pierden unidades experimentales, entonces existe mortalidad.

23.8.8.- La Regresión Estadística:

Es un término estadístico asociado a la Ley de Regresión Filial. Suele darse cuando las
unidades experimentales son asignadas a determinados grupos basada en puntajes anteriores.
Esto se hace con el fin de intentar predecir una medida bajo el sólo supuesto de conocer otra
previa. La regresión estadística es la tendencia de que una medición extrema se presente más
cerca de la media en una segunda medición.

l.a La regresión estadística también conocida como regresión a la media, se refiere a una
t
ne tendencia observada sobre sujetos con medidas extremas que suelen moverse o acercarse a la
rim
media durante el curso del experimento. El problema de esta oscilación alrededor de la media,
e
xp
nada tiene que ver con el tratamiento aplicado a la variable experimental, sin embargo, puede
E
ze
lid ocurrir que sea interpretado como tal. Agregando a todas luces, un serio problema a la validez
a interna.
V
a
L
:na 23.8.9.- Ambigüedad sobre la Dirección de las Inferencias Causales:
ue
alb Existe la posibilidad de inferir causalidades ambiguas sobre la relación temporal y el orden de
V
na sucesos entre las variables. Es decir, jamás ha de producirse primero el efecto y luego la causa
oim <<explicación espuria>>. Toda conclusión del investigador debe direccionarse a explicar que la
R
variable independiente causa cambios en la dependiente y bajo los supuestos del principio de la
razón suficiente.

23.9.- La Validez Externa

La Validez Externa centra su atención en las posibilidades de generalización de los resultados


de un experimento científico, con énfasis en aquellas características especiales y únicas que
llevan a preguntarse si el estudio tendría los mismos resultados bajo otras condiciones. Para
Creswell (2009, p. 162 y ss.), además de Gravetter y Forzano (2012, p. 168-170), implica
extender hacia otros estudios cuáles relaciones causales medidas y observadas en el experimento
pueden ser generalizadas a la población.
479

Involucra lugares, tiempo, medidas y características. Una amenaza a la validez externa recae
sobre todo aquel elemento que limite, cercene o impida, cualquier posibilidad de generalización.
Un estudio experimental tendrá validez externa siempre y cuando los resultados sean

generalizables a otras poblaciones y se ajuste a otras circunstancias.

Creswell Op. Cit, argumenta que las amenazas a la validez externa aumentan cuando los
experimentalistas organizan un set de inferencias incorrectas obtenidas de la data de una
muestra, y las aplican sobre otras personas, o sobre eventos pasados o futuros. Se considera de
alto riesgo a este tipo de validez, cuando el investigador se atreve a generalizar más allá de los
grupos bajo experimentación, haciendo recaer inferencias sobre otros conjuntos que jamás
fueron tomados en cuenta en el estudio. Otra de las amenazas potenciales, y digna de mencionar,
es la referida a la validez de las conclusiones estadísticas. Éstas aumentan cuando el científico
extrae inferencias inexactas de la data, y cuyo factor originario procede de un inadecuado
l.a
t
ne proceso estadístico.
rim
e 23.9.1.- Amenazas a la Validez Externa
xp
E
ze
lid A continuación se presenta un compendio de factores aportados por: Gravetter y Forzano
a
V (2012); Jackson (2012); además de: Cohen, Manion y Morrison (2007): que pueden afectar la
a
L validez externa:
:na
ue
alb 23.9.2.- Sesgo en la Selección
V Para Gravetter y Forzano op, cit, una de las amenazas que se presentan en la validez externa
na
oim también tiene que ver con el Sesgo en la Selección que se generó en la interna. Donde se ha
R comprobado que el procedimiento de selección a favor de algunos participantes afecta a otros.
Básicamente, si la muestra no ha sido obtenida de un minucioso proceso de aleatorización, y
además, no presenta características de representatividad estadística, no es ni nunca será posible
generalizar.

23.9.3.- Selección de Estudiantes

Otro factor importante se soporta sobre la Selección de Estudiantes para experimentos, si


bien es cierto, éstos son más accesible y dispuestos a someterse a experimentos y explotados
como ratas de laboratorio, al ser destinados en investigaciones sobre ciencias del
comportamiento, existe suficiente evidencia acumulada que sugiere que muchas de las
características presentes en los estudiantes no son generalizables hacia los adultos. Otro factor de
importancia viene representado por el sesgo en la selección de voluntarios para los experimentos.
480

En muchos casos determinado diseño experimental requiere que sus unidades experimentales
sean estrictamente voluntarias.

23.9.4.- Sesgo del Voluntario

Esto crea un problema para los investigadores conocido como Sesgo del Voluntario. Allí es
posible afirmar que un voluntario no es perfectamente representativo al resto de la población. La

pregunta hacia la validez externa sería entonces: ¿Cómo generalizar resultados obtenidos con
voluntarios hacia individuos que no participaron deliberadamente en el estudio? Este sesgo posee
también una característica importante, en muchos países desarrollados los voluntarios reciben
incentivos económicos por su participación en experimentos, a medida que la tasa de desempleo
aumenta, también lo hace la cantidad de voluntarios.

23.9.5.- Generalización de Entornos de Laboratorio


l.a
t
ne Según Jackson (2012), una de las amenazas a la validez externa viene representada por la
rim
e Generalización de los Entornos de Laboratorio. Conducir un experimento en laboratorio
xp
E permite adaptarse a las mejores características que permitan maximizar el control. Sin embargo,
ze
lid el exceso de control presenta potenciales desventajas en la creación de ambientes artificiales,
a
V afectando considerablemente la generalización hacia ambientes del mundo real. Surge entonces
a
L la pregunta: ¿Cómo generalizar en estos casos? Una respuesta obvia es a través de la replicación
:na
ue del experimento en función de demostrar que sus resultados son confiables. Para ello son
alb necesarias 3 tipos de replicaciones: las exactas; las conceptuales y las sistemáticas.
V
na
23.9.6.- Las Replicaciones Exactas
oim
R Consisten en repetir el estudio exactamente de la misma manera. Implica repetir el estudio
usando los mismos medios, procesos de manipulación y medidas que se aplicaron a las variables
en el experimento original.

23.9.7.- Las Replicaciones Conceptuales

Es una prueba que consiste en probar los mismos conceptos por diferentes vías. Es un estudio
basado en otro estudio, pero usando diferentes métodos, una manipulación diferente e incluso

diferentes medidas. En todo caso, la prueba replicatoria ha de arrojar los mismos resultados que
el experimento original para poder establecer generalización.
481

23.9.8.- Las Replicaciones Sistemáticas

Esta prueba se usa para cambiar un parámetro a la vez y con ello observar sus efectos. En este
caso es un estudio que varía del original, pero de una manera sistemática. Pueden utilizarse
diferentes números o tipos de sujetos, diferentes ajustes o más niveles de la variable
independiente. Cohen, Manion y Morrison, (op. Cit. P. 156) Presentan cierto número de factores
adaptados de otros autores (Campbell y Stanley; 1963 – Bratch y Glass; 1968 – Hammersley y
Atkinson; 1983 – Vulliany 1990 y Lewis Beck 1993), que pueden afectar severamente la validez
externa de un experimento.

23.9.9.- Fallas en la Descripción Explícita de la Variable Independiente

A menos que la variable independiente haya sido explícitamente descrita por el investigador,
.l cualquier replicación futura <<sobre todo la replicación conceptual>> de las condiciones
at
ne experimentales resultará virtualmente imposible.
mi
re
xp 23.9.10.- El Efecto Hawthorne
E
ze
lid Investigaciones médicas han reconocido después de mucho tiempo, que los efectos
a sicológicos aumentan por la sola participación en experimentos. Se produce como una forma de
V
a
L reactividad sicológica en la cual las unidades experimentales muestran cambios en su conducta
:na
ue por el simple hecho de saber que están siendo estudiados. Tal condición obedece a una respuesta
alb
meramente sicológica y no tiene nada que ver con los tratamientos aplicados. Este efecto tiende a
V
na contaminar los resultados experimentales. Los placebos y los diseños doble ciego son
mi comúnmente empleados para contrarrestar este efecto.
o
R
23.9.11.- La Inadecuada Operacionalización de las Variables Dependientes

Las variables dependientes que el experimentador operacionalice, han de ser validadas en la


etapa no experimental, es decir, en la etapa conceptual no sometida a las reacciones causa –
efecto, y sobre las cuales desee generalizar sus resultados. No es posible generalizar resultados
sobre una dimensión o indicador que no haya sido previamente contemplada en la
operacionalización.
482

23.9.12.- Efectos Interactivos de Factores Extraños Vs. Tratamientos Experimentales

Todas las amenazas a la validez externa previamente nombradas, representan la interacción


de varios clusters de factores y sus respectivos tratamientos. Estos efectos interactivos tienden a
incrementarse como resultado de cualquiera, o todos los factores anteriormente descritos, e
incluso otros. Por lo que el experimentador debe prestar gran atención, tanto de las condiciones

experimentales, como de la descripción de cada factor que concurra con su proceso.

l.a
t
ne
rim
e
xp
E
ze
lid
a
V
a
L
:na
ue
alb
V
na
oim
R
483

23.10.- El Diseño de Experimentos.

Un propósito… una intención o un diseño… pueden golpear en


cualquier parte al más estúpido pensador…

David Hume.

concibe
eestudio
strategia sistemática
como Diseño de una Investigación Experimental, a una fórmula, plan o
experimental

S guiada por un propósito razonado. Todo diseño de determinado


se direcciona a explicar relaciones entre variables, en función de
ello implica entradas con factores controlados y no controlados, que posterior a un proceso,

proporcionan una salida. Esta se corresponde a una explicación causal previamente planificada
bajo la forma de objetivos cognoscitivos. El Diseño Experimental que finaliza en la ejecución de
un experimento, generalmente produce los más fuertes, lógicos y válidos resultados que pueda
concebir la mente del científico.

Cuando se ejecuta un Diseño de Investigación y se planifica en esa dirección, estamos


invocando, de una u otra forma, procedimientos estadísticos. Un Diseño de Investigación
consiste en una estructura sistemática y sólida, que permita responder, a través de la aplicación
de procesos individualizados, la pregunta de investigación. Cada proceso permitirá elegir un
modelo estadístico adecuado y coherente para con aquellos datos que provean la mayor carga
informativa. Ello incluye, el diseño del/los tratamiento/s; el control sistemático y eficiente de la
variabilidad; el número o cantidad de replicaciones necesarias y los procedimientos de
aleatorización.

Por ende, un Diseño de Investigación Experimental, es aquella acción científica planificada


donde intencionalmente se opta por la manipulación de la variable independiente, con el fin de
medir los efectos acaecidos y observables sobre la variable dependiente manteniendo estricto
control sobre variables actuantes extrañas que puedan afectar los resultados del experimento. A
la primera se le asigna el nombre de Variable Causal, pues, es la que ejerce fuerza que provoca
cambios. En la segunda es donde se observan y miden los efectos.

Y a la tercera, se le denomina variable de confusión o exógena. De manera que, cualquier


efecto no deseado e inesperado no planificado, podría fácilmente atribuírsele a las acciones
coercitivas de la/s variables extrañas cuando sus acciones no son correctamente controladas.
484

En todo Diseño Experimental se manipula al menos una variable, donde sus unidades son
asignadas aleatoriamente a los distintos niveles o categorías de las variables que estén siendo
sometidas a manipulación. A continuación una gráfica descriptiva de las funciones y acciones de
cada variable:

Descripción de las Variables en el Diseño de Experimentos

Tipo de Variable Función Acción

Independiente Causa Se manipula

Dependiente Efecto Se Mide y Observa

Exógena Confusión Se Controla

El método de la ciencia, por su intrincada cantidad de procesos lógicos, diferencia entre

.s ciencia experimental y no experimental. A la luz de estas observaciones, la ciencia experimental


ot
ne aporta datos experimentales, la no experimental sólo aporta observaciones. El Diseño
rim Experimental se usa por excelencia en investigaciones del tipo causa efecto. Éstas consisten en
e
xp un tipo de diseño donde, separadas las variables independientes que pasarán a llamarse
E
e
d tratamientos o factores, se les utiliza para ponderar o sondear, si éstos surten algún tipo de efecto,
o sobre la/s variable/s dependientes.
ñe
is
D
l Allí el investigador ha de armarse de una artillería analítica que le admita explicar el proceso
E
:na causal, es decir, una explicación coherente a través de una descripción dinámica, del cómo y
ue
alb porqué, una variable causal inicia una secuencia efectora. También deberán explicarse cada una
V de las etapas del proceso causal conocido como Cadena Causal. En su formulación más simple,
na
en una investigación del tipo explicativa causal todo sujeto de conocimiento contiene carga
oim
R teórica no demostrada. Por ello, es necesaria una cadena de explicaciones sistemáticas que las
hagan entendibles. Y, sin violación de alguna secuencia lógica, han de eliminarse todo tipo de
vacíos explicativos.

Allí es lícito preguntarse el cómo se produce el equilibrio causal, dicho de otra manera, a
mismos estímulos sobre la/s variable/s independiente/s, mismas respuestas sobre la/s
dependiente/s. Si existieren Acausalismos, habrá de optarse por desarrollar una teoría a través de
algunas de las condiciones de Inexplicabilidad. Por otro lado, soportado en procedimientos del
pensar y operaciones con conceptos, han de explicarse las transcausalidades y las causales
adecuadas. Todo Diseño en Investigación Experimental configura un modelo que persigue una
meta con un propósito en mente, los diseños no son únicos, existen varios tipos:
485

23.11.- Tipos de Diseños en Investigación Experimental

El tipo de diseño de investigación experimental se corresponde tanto con la forma bajo la cual
el fenómeno se presenta, forma que da origen al problema a indagar, como con los objetivos que
para ello se plantee el investigador. Según Salkind (1999), los tipos de métodos de investigación
difieren en dos dimensiones: la naturaleza de la pregunta que se hace y el método empleado
para contestarla, (p. 10). Existe gran variedad de planes o estrategias que el investigador puede
adoptar en su actividad, a continuación se enumeran y explican algunas.

CLASIFICACIÓN DE LOS DISEÑOS


EXPERIMENTALES MÁS COMUNES

.s
ot EXPERIMENTOS
VERDADEROS EXPERIMENTAL
INVESTIGACIÓNCUASI- DISEÑOS EX-POST
ne FACTO
rim
e
xp
E Grafica de Clasificación de los Diseños Experimentales más Comunes
e
d
o 23.12.- Diseños Experimentales Verdaderos e Investigación Cuasi Experimental
ñe
is
D Salkind alega que los verdaderos diseños experimentales incluyen todos los pasos de
l
E
:na selección y asignación de sujetos de manera aleatoria, más un grupo de control, esto proporciona
ue
alb argumentos más fuertes para inferir de forma más precisa, las relaciones causa-efecto a que se
V diesen lugar. Mientras, en la investigación cuasi experimental, no es posible aplicar la
na
oim aleatoriedad en sus diseños, y el grupo control es imposible o demasiado costoso, por lo que
R habrán de usarse grupos de control equivalentes.

Esta conjunción de elementos hace que el establecimiento de las relaciones causales no sea
tan convincente como la de los experimentales. Aunque se aplican parte de los procesos de la
experimentación verdadera, el diseño cuasi experimental carece de control.

Jackson (2012, p. 342-343) argumenta, al diseño cuasi experimental puede razonársele como
un punto intermedio entre un estudio relacional y un diseño experimental verdadero, y si bien

arroja relaciones efectivas entre variables, sus conclusiones nunca llegan a ser tan verídicas y
fuertes. El término cuasi significa que tiene algunas pero no todas sus características. Este diseño
orienta su intervención hacia el manejar ensamblando, todos los pasos de un experimento. Sin
embargo, dista mucho de serlo. Su principal diferencia reside en que no existen grupos de control
486

o comparación, pero si se prueban hipótesis. Se le conoce como experimentación sin


aleatorización.

En lo tocante a la inferencia sobre las hipótesis, se aduce, además de otras razones, que podría
presentarse el caso donde la cantidad de hipótesis explicativas que puedan rivalizar contra la
planteada por el investigador sea considerablemente alta. Dentro de tal contexto, subyace el
hecho de no poder aislar los efectos que terceras variables ejercen sobre la independiente.
Haciendo que su Potencia Inferencial decaiga grandemente en comparación a un experimento
puro.

Los diseños experimentales verdaderos son aquellos que a través de determinados protocolos
operacionales, llegan a cristalizar todos los requisitos que le permitan ejercer un control
suficiente sobre las variables, sin afectar con ello la validez interna. En este tipo de diseño se
.s
ot manipula premeditada y deliberadamente, la variable independiente, midiendo así, los efectos
ne
sobre la dependiente.
imr
e
xp 23.13.- Diseños Ex - Post – Facto
E
de
o Ex Post Facto, es una expresión que significa: Algo que Ocurre Posterior al Hecho, suele
ñe
Dis denominársele también investigación Causal - Comparativa. Considérese investigación Ex Post
l
E Facto, a cualquier investigación cuyo punto de partida implique el uso de data preexistente.
:na
ue Omitiendo el proceso de recopilación de datos nuevos. En ella se hace el estudio de la variable
alb de manera retrospectiva con características de retro-causalidad. Su objetivo consiste en partir
V desde un consecuente y encontrar su antecedente, se convierte entonces en una indagación del
na
imo tipo exploratoria, pues sus características así lo evidencian, lo conocido sobre el hecho es tan
R ínfimo que no es posible establecer conjeturas, suposiciones, ideas y mucho menos teorías
explicativas.

El investigador persigue establecer causalidad, y puesto que no se le es posible manipular la


variable independiente, se hace de evidencias suficientes como para conducir posteriormente un
estudio experimental puro para con ello probar sus hipótesis. La investigación Ex Post-Facto, es
un tipo de diseño de investigación donde se intenta probar hipótesis y establecer causación a

través de evidencias de hechos observados en el presente (efectos), pero que deviene su origen
del pasado (causas)420.

En las investigaciones ex post facto se hace análisis de la data posterior a la ocurrencia del

420 Una investigación de un siniestro aeronáutico presenta un diseño ex postfacto, pues no es posible establecer causas hasta luego de sucedido
el hecho.
487

hecho, es decir, la acción pretérita ya se ha sobrevenido, y posterior a la cristalización de


evidencias es posible el establecimiento, por medio de razonamiento, de los primeros axiomas
que darán origen a una teoría causal.

Conlleva una serie de procedimientos que involucran el remontar al presente la mayor


cantidad de evidencias, pues, la data ha de estar disponible, haciéndose imposible su generación
por medio de un experimento puro. Su principal diferencia contra este último consiste en que en
los diseños ex postfacto, el investigador hace observancia de los efectos y emprende la búsqueda
de sus causas con el fin de explicarlo. Contrariamente, en los experimentos puros el investigador,

planificada y deliberadamente crea las causas, observa sus efectos, establece conjeturas e incluso
diseña modelos predictivos.

La investigación ex postfacto implica que no se ha producido deliberadamente ningún tipo de


.s
ot estímulo, manipulación ni medida, previa ocurrencia del hecho. El investigador hace observancia
ne
rim primeramente sobre los efectos (variable dependiente) separándolo en menudas partes y
e haciéndose de un pool de hipótesis que irá descartando a medida tanto que la evidencia se haga
xp
E
e insuficiente para sostener algunas, como a medida que se haga suficientemente convincente
d como para probar otras.
o
ñe
is
D
l Encontrando en el proceso, las causas y relaciones que le permitan una inferencia correcta. La
E
:na investigación ex postfacto toma validez cuando el investigador, siguiendo los pasos lógicos del
ue proceder científico, logra establecer causación única421, dicho de otra manera, ha conseguido
alb
eliminar cualquier cantidad de posibles causas. El investigador intentará establecer causas
V
na incluso sin poder ejercer control sobre las variables.
oim
R Newman y Benz (1998) alegan la existencia de dos tipos de variables independientes, las
Activas y las de Atributo. Las variables activas están bajo control del investigador y por ello
pueden ser manipuladas. Las variables de atributo como el género y la raza, no pueden ser
manipuladas. Si todas las variables independientes son no manipulables, entonces la
investigación se denomina ex post facto, (p. 41). Lo anteriormente descrito se sustenta sobre el
hecho de la imposibilidad422 de manipular dos variables cuyas características lo impiden. Las
autoras alegan que las investigaciones ex post facto y las relacionales son por otros autores
sinonimizadas.

421 Para los Diseños Unifactoriales, Unifactorial significa que existe sólo una variable independiente, o factor único.
422 Este aspecto concierne tanto a la imposibilidad práctica, legal o jurídica y ética. En este caso se dificulta la aplicación de todos los procesos
inherentes al diseño experimental puro.
488

La Investigación Relacional423 no establece causación, mientras que a la ex post facto se le


considera en muchos otros casos como exploratoria. El hecho de que una variable preceda a otra
en el tiempo, o que una variable presente correlación fuerte con otra, no se constituye en
elemento probatorio suficiente como para inferir causación en investigaciones ex post facto. En
muchos casos tal inferencia resulta inapropiada. Para asumir relación causal, el diseño ha de
presentar validez interna, significa esto que, cualquier otra explicación de los efectos basado en
los criterios de la variable dependiente han sido controlados, acción en sí que el diseño prohíbe.

Y la única fuente posible de explicación para los cambios en la variable dependiente, se deben a
la variable independiente bajo investigación (p. 42).

A continuación, Cohen, Manion y Morrison (2007, p. 268) ofrecen algunas consideraciones


sobre las ventajas y desventajas de los diseños ex postfacto:
.s
ot Ventajas:
ne
mi Se adapta a las necesidades del investigador cuando no es posible la experimentación.
re •
xp • El método aporta información importante acerca de la naturaleza del fenómeno <<que va con
E qué y bajo qué condiciones>> De esta manera la investigación ex post facto se erige como
de
una invaluable herramienta exploratoria.
o
ñe • Mejoras en las técnicas estadísticas y la metodología en general, han hecho más factible a la
Dis
investigación ex postfacto.
l
E • En algunas formas y bajo ciertas circunstancias el método resulta ser más útil que el
:na
experimental. Especialmente porque este último puede añadir un toque de artificialidad en el
ue
procedimiento.
alb
• La investigación ex post facto es particularmente apropiada cuando se explora una simple
V
na relación causa efecto.
mi • El método puede dar sentido y dirección, además de proveer de abundantes fuentes de
o hipótesis que puedan subsecuentemente ser probadas por un método experimental más
R
riguroso.

Desventajas, Limitaciones y Debilidades:

• Existe el problema de la carencia de control, esto imposibilita al investigador la manipulación


de la variable independiente o la aleatorización entre sujetos424.
• No se puede saber a ciencia cierta si el factor causal se han incluido o identificado.
• Puede que la causa no provenga de un solo factor.
• Una sola consecuencia puede derivar desde diferentes causas en diferentes ocasiones.

423 Es a todas luces un error asumir la existencia de las Investigaciones Correlacionales. Lo que realmente existe son las Investigaciones
Relacionales. Éstas, buscan varios tipos de relación entre variables. La correlación es un procedimiento estadístico mediante el cual se pretende
determinar si existe o no asociación entre un grupo de variables. Pues, dos variables podrán estar correlacionadas y no asociadas.
424 Los autores sostienen… los investigadores están imposibilitados a usar cualquier tipo de medida o control en sus investigaciones, y el
principio de aleatorización es uno de ellos, Véase la pág. 270 del citado texto. Por otro lado, una versión contraria la ofrece Sevilla y col, quien
responde a la pregunta: ¿Puede la aleatorización ser utilizada en estudios ex postfacto?, por su puesto. Si el evento acaecido necesita la selección
de sujetos debe usarse aleatorización para ejercer control sobre las variables extrañas. En estudios ex postfacto es posible la aleatorización pero
no la asignación aleatoria <<elementos claramente diferenciables>>. Véase; Sevilla et, al (2007, p. 150).
489

• Cuando una relación ha sido descubierta, surge el problema de decidir cuál es realmente la
causa y cual el efecto; donde ha de considerarse la posibilidad de causación en reverso.
• La relación entre dos factores bajo ninguna circunstancia establece causalidad.
• Se hace problemática la clasificación entre grupos dicotómicos.
• Carece de la capacidad de anular y confirmar.
• Existe la dificultad de interpretación, y el peligro después de todo, de asumir o creer que
porque “X” precede causa “Y”.
• Las conclusiones comúnmente son basadas en una muestra muy limitada de ocurrencias.

.s
ot
ne
rim
e
xp
E
e
d
o
ñe
is
D
l
E
:na
ue
alb
V
na
oim
R
490

23.14.- Clasificación de los Diseños Experimentales.

La clasificación de los hechos, el reconocimiento de su


secuencia e importancia relativa es la función de la ciencia, y el
hábito de formarse un juicio imparcial sobre estos hechos por
el sentimiento personal es característico de lo que puede
llamarse el marco científico de la mente.
Karl Pearson.

de estudio uElobjetos
a clasificación
naturaleza. acto proceso
como en determinadas
de
consiste
operativo en la colocación sistemática de ciertas unidades

L categorías que presenten semejante o misma


clasificar presupone la preexistencia de ciertos

criterios. La tipificación de los diseños experimentales que se presentan en este aparte se ejecuta
en función de las clases que puede presentar el diseño, liado a las relaciones que se tienen lugar
dentro de estas clases. Es de recalcar que el uso más común de los diseños experimentales que a
continuación se hacen mención es para el área de la sicología. Y no importando el área
cognoscitiva, como para cualquier otro diseño, la estadística es la gramática de la ciencia425.

CLASIFICACIÓN DE LOS DISEÑOS MÁS


COMUNES

INTRASUJETO INTERSUJETO FACTORIAL CASO ÚNICO (N=1)

23.14.1. Diseños Intrasujetos

La Investigación Intrasujetos, también denominada Diseño de Medidas Repetidas, en este


caso para Diseños Unifactoriales, consiste en un procedimiento asociado a un tipo de

Investigación Experimental donde se evalúan los efectos de un tratamiento sobre los mismos
sujetos en todos los grupos. Allí cada individualidad es sometida a todas las condiciones de
tratamiento experimental con el fin de probar la variable independiente. Se compara el conjunto
de medidas de la variable dependiente observándose así sus efectos. En este tipo de diseños

ningún sujeto ha de ser contrastado con otro del grupo, y donde los resultados de uno se

425
Frase atribuida a Karl Pearson. Karl Pearson, influyente matemático inglés quien en 1911 fundara el Departamento de Estadística del
University College en Londres. Creador del denominado Coeficiente de Correlación de Pearson. Su obra: The Grammar of Science, publicada
por primera vez en 1892, fue ampliamente difundida en varios continentes, incluso Albert Einstein la elogió, constituyéndose en uno de los
aportes bibliográficos fundamentales para el desarrollo de su Teoría de la Relatividad. Se recomienda al lector, si desea profundizar sobre la ley
de causación en general, cuya aplicación es de suma importancia en diseños experimentales, revisar el Capítulo IV de tan Magistral obra: Cause
and Effect– Probability. La obra contiene También temas Como: Contingency and Correlation – The Insufficiency of Causation.
491

convierten automáticamente en un registro u observación que sirve de referencia sólo para él, sus
puntuaciones se comparan con las distintas condiciones a que fue sometido.

En los Diseños Intrasujetos cada unidad experimental sirve como su propio control y se
utiliza el contrabalance como técnica de control agregada para adicionar validez a sus resultados.
Contrabalance implica el cambio de orden en el que están sucediendo las cosas, y que de alguna
manera puede incidir en los resultados.

El contrabalanceo consiste simplemente el alternar el orden de aplicación de los tratamientos


con el fin de evitar el denominado Efecto Debido al Orden, o el mencionado Efecto Arrastre.
Vogt y Johnson (2011, p. 81), aportan un modelo de contrabalance para tres participantes: Por
.s
ale ejemplo, un experimentador desea probar los efectos de 3 tipos de estímulos luminosos (A, B y
t
ne C) sobre el desempeño de las habilidades visuales. Los sujetos primeramente se someten a la
rim
e condición A y se les aplica el test de desempeño. Posteriormente se les coloca en la condición B
xp
E y también se les aplica el respectivo test.
so
ñe Para la condición C y el tercer test o tercera medición, se presentan dos opciones a considerar,
is
D las puntuaciones de los sujetos pareciesen aumentar simplemente porque adquirieron práctica
slo
e con las dos pruebas previas, o contrariamente, sus puntuaciones pareciesen disminuir por el
d
nió efecto fatiga. Los efectos de práctica y fatiga pueden ser contrabalanceados a través de la
ac
ic rotación de las condiciones de luminosidad a las que están siendo sometidos los sujetos,
sif
la observándose y estudiándose así los resultados en todos los órdenes posibles.
:C
na El experimento presentará entonces seis posibles secuencias: ABC; ACB; BAC; BCA; CAB;
ue
alb y CBA. Obtenidos los órdenes de rotación de los factores, los sujetos han de ser divididos en seis
V grupos, y tal como lo rige el diseño Intrasujetos, cada uno ha de ser comparado con él mismo y
na
no contra otro, es donde se procede entonces a la determinación de resultados derivados de todos
oim
R los posibles órdenes. Posterior a la aplicación de cada secuencia no deben existir diferencias
significativas entre ellas, de encontrarse, el investigador habrá de inferir correctamente por qué y
bajo qué condiciones se sucede tal evento, demostrando así el poder del método de
contrabalanceo para un procedimiento netamente lineal. Sin embargo, el contrabalanceo no
controla los efectos no lineales o interactivos, tales como los efectos de arrastre diferencial.
492

23.14.2.- Diseños Intersujetos

Los Diseños de Investigación Intersujetos consisten en un procedimiento científico


experimental muy usado en sicología, en el que cada uno de los niveles en que se constituye la
variable independiente se aplica a un grupo de sujetos distintos. Es decir, se utilizar los mismos
sujetos en todos los grupos y cada sujeto pasa por todas las condiciones experimentales.

Se conforma entonces cierta cantidad de grupos y donde cada nivel de la variable


independiente se administra a un subgrupo diferente de sujetos, aunque por lo general se recibe
un solo nivel por sujeto, es decir, cada unidad experimental recibe un estímulo diferente. Esto
permite la comparación entre grupos que se someten a dos condiciones, la de control y la
.s
ale experimental. En este tipo de diseños existe una única variable independiente <<Unifactorial>>,
t
ne y se caracteriza porque los sujetos que conforman los grupos son diferentes.
rim
e Estructurándose así grupos independientes, pero donde cada sujeto recibe un tratamiento
xp
E disímil. Contrario a los diseños Intrasujetos, donde cada sujeto pasa por todas las condiciones de
so
ñe tratamiento. El experimentalista opta por un diseño Intersujetos cuando se desean estudiar
Dis
cambios de conducta en determinada posición del tiempo, y cuando no es posible controlar el
slo
e efecto del orden de aplicación de los tratamientos. Como ejemplo imagínese un diseño con la
d
nió siguiente arquitectura:
ac
ic
sif Estímulo 1 → Sujeto 1 → Grupo 1;
la Estímulo 1 → Sujeto 1 → Grupo 2;
:C Estímulo 1 → Sujeto 1 → Grupo 3;
na
ue Estímulo 2 → Sujeto 2 → Grupo 1;
alb Estímulo 2 → Sujeto2 → Grupo 2;
V Estímulo 2 → Sujeto 2 → Grupo 3;
na
oim Estímulo 3 → Sujeto 3 → Grupo 1;
R Estímulo 3 → Sujeto 3 → Grupo 2;
Estímulo 3 → Sujeto 3 → Grupo 3;

Obsérvese que cada estímulo se aplica a sujetos diferentes asignados a grupos diferentes.
Dicho de otra manera, el estímulo 1 y ningún otro, sólo lo recibe el sujeto 1 de cada grupo; el
estímulo 2 es recibido entonces por los segundos sujetos en todos los grupos y así
sucesivamente. Esto hace posible compara los estímulos 1, 2 y 3, de diferentes sujetos, contra
los restantes en cada grupo. Es menester que los participantes sean asignados aleatoriamente de
forma que los grupos se consideren equivalentes. Este concepto se explica mejor en los diseños
denominados de grupos al azar y completamente Aleatorizados.
493

Cuando se emprende una investigación bajo este tipo de diseño, el investigador debe
asegurarse que dispone de unidades experimentales suficientes, puesto que el proceso de
aleatorización hace que se desperdicien algunas. Si no se dispone de unidades suficientes o lo
que se desea probar presenta cierta complejidad, intente experimentar con otro diseño. Así como
los demás diseños, este presenta también algunos inconvenientes. La acción en sí de asignar
sujetos diferentes a cada grupo acarrea un efecto diferencial sobre cada condición, la
experimental y la de control. En algunos casos de denomina diferencial entre grupos, o
simplemente variabilidad entre grupos.

Le corresponde entonces al experimentador hilvanar si tales efectos se deben a las respuesta


.tales naturales que se producen sobre la variable dependiente sobrevenidas desde la independiente; o
si se corresponden con la desemejanza entre los sujetos que se asignaron a cada grupo. En
rimen
cualquier caso, un procedimiento incorrecto puede hacer tambalear la validez de la investigación.
e Muchinsky (2002 p. 345), ofrece un ejemplo que para sus efectos es adaptado a la explicación:
px
E
so Un gerente desea conocer quién es la persona “más motivada” y la persona “menos motivada”
ñe
si de cierto departamento <<grupo>> en su empresa. Una vez que ha obtenido el puntaje de fuerza
D
slo
para cada persona, aquella que presente el puntaje más alto se corresponde con la “más
e
d motivada”, contrariamente, considérese la “menos motivada”. Este tipo de enfoque se denomina

ic diseño Intersujetos porque las predicciones se hacen para todas las personas. Si el gerente lo
ac
if desea, puede repetir el experimento con varios departamentos y compararlos ya que a ninguno de
is
al los empleados experimentales del primer grupo aparecerán en cualquier otro. Después de
C
:a
ne calcular el diferencial entre grupos podrá establecer a ciencia cierta por qué hay personas más
u
bl motivadas que otras.
a
V
na
mi
o
R
494

23.14.3.- Diseños Factoriales

Un factor consiste en un grupo de tratamientos con características bien definidas, cuyos


elementos condicionantes guían hacia la consecución de un resultado. Así mismo, un conjunto de
factores se convierten en una agrupación de elementos que en diseños experimentales son
transformados en variables causales de la evolución o transformación de ciertos hechos. Para que
se sucedan cambios en la variable dependiente han de controlarse bien los factores. Como diseño
de investigación, y contrario a los diseños unifactoriales, implica el uso simultáneo de dos o más
variables independientes, se opta por ellos en experimentos donde los efectos de variación
ocasionados por uno o más factores ameritan que sean determinados.
.s
el Se ajustan perfectamente cuando el experimentalista pretende ejecutar mediciones de los
at
ne
efectos de dos o más variables independientes, y estas a su vez presentan una variedad de
mi
re niveles. Se les considera exhaustivos a los diseños factoriales, sólo cuando abarcan la totalidad
xp
E de su entorno, presentando una tabla matricial contentiva de todas las posibles combinaciones
so
ñe para las variables independientes, de manera que se individualice cada efecto, permitiendo con
Dis
ello interpretaciones y análisis separados de cada resultado.
slo
de En escritos de Kuehl (2001):
nió
ac El concepto de diseño factorial se extiende para incluir experimentos con factores
fic anidados con otros factores, se estudian diseños para experimentos que tienen una
is
la combinación de factores anidados y factores cruzados, incluyendo la información
:C para determinar el número de réplicas y se proporcionan reglas para derivar los
na cuadrados medios esperados para una variedad de experimentos factoriales
ue balanceados, (p. 175).
alb
V El autor afirma que la escogencia de diseños factoriales posibilita en gran medida un éxito
na
real en un experimento, puesto que las observaciones por separado suministran información
mi
o sobre todos los demás factores. Haciéndose posible la observación de las respuestas de un factor
R
individual en diferentes niveles de otro factor en el mismo experimento. Por su lado, Kothari
(2006) explica… el diseño factorial más simple es el de [2 x 2], allí se consideran los efectos de
variación de 2 factores sobre la variable independiente. Esto arroja como resultado 4 posibles
combinaciones de tratamiento. Puede interpretarse también como una investigación experimental
con dos variables independientes con dos niveles cada una.

Kothari describe dos tipos de diseños factoriales, el simple y el compuesto. El primero refiere
a cuando se toman los efectos de variación de al menos dos factores sobre la variable
independiente. Contrariamente, si el diseño amerita más de dos factores se denomina complejo.
495

A continuación un modelo matricial de tratamiento contra niveles denominado también diseño


de factores cruzados:

Variables
Control
de las Variables Experimentales
Tratamiento X Tratamiento Y Media
Nivel 1 X-1 Y-1 M 1[ X– Y ]
Nivel 2 X-2 Y-2 M 2[ X– Y ]

Obsérvese que el ejemplo anterior refiere a un diseño factorial completo de [2 x 2], no


obstante, en notación factorial se les entiende de la siguiente manera: un diseño factorial de [3 x
4] indica que existen dos variables independientes, una por cada dígito, donde la primera
.s
el presenta 3 niveles y la segunda cuatro, de allí surgen 12 combinaciones posibles.
at
ne
Otro diseño puede presentarse así: [3 x 3 x 3], indicando que existen 3 variables
rim
e independientes; con tres niveles cada una, o, un diseño de [2 x 2 x 3]. Donde se obtendrán doce
xp
E combinaciones de grupos. Nótese que en los diseños hay bases numéricas que se repiten, según
so
ñe Arnau y Col. (1990, p.91), esta es la forma de representar a los diseños factoriales completos,
Dis
haciéndose posible su división en dos grandes categorías. Los de valores cuya base es fija [2 x 2
slo
e x 2]; [3 x 3 x 3] o [4 x 4 x 4 x 4], estos se pueden notar matemáticamente por exponenciales: [
d
nió -- [ -- [ . Y los de base variable, siendo representados en situaciones totalmente diferentes
ac
ic a estas.
sif
la
:C En escritos de Jackson (2012), se encuentra que existen dos efectos diferentes en los diseños
na factoriales. Los principales, atribuibles a una única variable donde se omite cualquier otra como
ue
alb si no existiese. Y los efectos interactivos, que consisten en los efectos de cada variable
V independiente sobre cada nivel de las restantes variables independientes. Esta clase de efectos
na
oim permite ponderar si los efectos de una variable, dependen o no, del nivel de otra variable.
R
496

23.14.4.- Diseño Experimental de Caso Único (N=1)

Estos diseños tienen sus principales aplicaciones en los campos de la sicoterapia, la


educación, la criminología, además de algunos casos de medicina y enfermería. Sin embargo, en
años recientes se ha optado por su uso en ingeniería. El diseño permite medir asertivamente cuán
efectivo ha sido un tratamiento. A diferencia de los casos de grupos, se trabaja con un solo sujeto
y son muy comunes cuando se desean hacer estudios de individualidades. En la práctica, arroja
evidencias basadas en el comportamiento. Su metodología es rigurosa, su objetivo es la
documentación de las causas conforme varían las relaciones observadas entre las variables
dependientes e independientes.
.tales
El participante se convierte en la única unidad de análisis, aunque en procedimientos reales el
rimen grupo es comúnmente numeroso debido a causales económicas, el sujeto se transforma en

e individualidad con respecto a los demás, sus datos, observaciones e inferencias le pertenecen
px
solo a él y a ningún otro participante, lo que impide asociarlo o correlacionarlo con otra unidad
E
so
de análisis, convirtiéndolo de esta manera en su propio control. Se le concibe como un modelo
ñe
si de replicación con (N=1) de los diseños Intrasujetos y también presenta ciertas variantes con
D
slo
respecto a este. Algunos autores lo encuadran dentro de los diseños cuasi-experimentales ya que
e
d carece de aleatorización426.

ic
ac Estima Balluerka en Arnau (2001), que el principal objetivo de los diseños (N=1), dentro de
if
is
al los diseños conductuales, se circunscribe a la examinación de la influencia que ejercen uno o
C
:a varios tratamientos sobre la conducta del sujeto a lo largo del tiempo. Tratando mediante
ne
u experimentación de superar las limitaciones que presenta el promedio de un grupo como medida
bl
a de referencia y que sirve para representar la variabilidad de la conducta individual.
V
na
mi En consideraciones de Arnau op. Cit, los diseños (N=1) son esencialmente un procedimiento
o
R de indagación caracterizada por la sucesión de una serie de períodos de observaciones repetidas
bajo condiciones idénticas o una serie de fases.

En los estudios de caso único, el investigador ejecuta una serie de intervenciones delimitadas
por espacios temporales denominados períodos, allí en el desempeño de la primera intervención
o primera fase, conocida como fase de línea de base, no se aplica tratamiento, sin embargo, las
respuesta del sujeto son registradas en ausencia de este.

Se compara posteriormente con el de las subsiguientes fases hasta conseguir un patrón de

426 Para sus efectos, Balluerka lo concibe como un diseño netamente experimental y puro ya que presenta todas sus características. Véase:
Diseño de Series Temporales: Técnicas de Análisis. (2001). Editado por: Jaume Arnau. Cap. 8.
497

conducta que se considere estable. Estando ya la conducta relativamente controlada, se aplican


tratamientos tendentes a observar ciertas propensiones que cambien la dirección del patrón, es lo
que se denomina fase de intervención.

Los diseños de caso único o diseños (N=1) tienen sinónimos según el autor a que se haga
referencia; el mismo Sidman (1960) lo denominó Diseño Operante, así como en Arnau op, cit, se
indican como Diseños de Series Temporales debido a la metodología implícita. Los diseños de
caso único son comúnmente confundidos con los Estudios de Casos427, esto es un error y no
deben sinonimizarse. Aunque ciertamente los diseños de caso único carecen de aleatoriedad, los
sujetos son expuestos a dos condiciones de control, la fase de línea de base sin tratamiento, y a
.tales cualquier cantidad de condiciones o fases de intervención que el investigador considere
necesarias para soportar sus inferencias.
rimen

e La rigurosidad de su metodología conlleva una correcta concatenación de sus procesos


xp
E internos tendente a cristalizar relaciones que en un principio no eran evidentes, base de toda
so
ñe inferencia. En ese sentido, Gast y Ledford (2010, p. 1938), aportan un conjunto de
is consideraciones al momento de especificar indicadores de calidad dentro de los diseños de sujeto
D
so único: la descripción de los participantes y sus ajustes; las variables dependientes e
l
de
independientes; la línea de base; el control experimental y la validez interna, así como la validez

ic externa y social.
ac
if
is En cuanto a la descripción y ajuste de los participantes, estos han de ser descritos con
al
C suficiente detalle como para poder seleccionar individuos con similares características. Las
:a
ne
u variables dependientes428 han de ser descritas con precisión operacional. Cada variable
bl
a dependiente se medirá con procedimientos que generen índices cuantificables, y su medición se
V
na realizará repetidamente en el tiempo. La variable independiente debe describirse con precisión
mi
o replicable. En cuanto a la línea de base, la mayoría de los estudios de sujeto único deben incluir
R
una fase de línea de base que permita las repeticiones de medidas sobre las variables
dependientes, de manera que apruebe el establecimiento de patrones de respuesta, ello en función
de predecir futuros patrones de conducta.

Sobre el control experimental y la validez interna, el diseño debe proveer al menos 3

demostraciones de efectos experimentales en 3 diferentes puntos del tiempo, las fallas en este
control afectarán significativamente la validez interna. El resultado que se consiga debe

427 Los estudios de casos se caracterizan porque plantean una estrategia de investigación que consiste en el estudio netamente descriptivo en
algunos escenarios, de un sujeto individual. Sin embargo, en muy pocas ocasiones la recopilación de datos se hace de manera secuencial y con
dependencia lineal.
428 En este tipo de estudios es necesario que exista más de una variable dependiente.
498

demostrar el control experimental. La validez externa se evidencia cuando los efectos


experimentales son replicados hacia otros participantes. Así mismo, la variable dependiente
estudiada ha de ser socialmente importante, de manera que justifique sus costos, es decir, tendrá

impacto a la sociedad inmediatamente circundante siendo su implementación práctica y efectiva.

En otro orden de ideas, los diseños de sujeto único se caracterizan por la gran cantidad de
pequeñas observaciones que presentan, y que para algunos autores se constituye en un problema.
Cifre y Mateu (1997) afirman que, una de las características fundamentales de los diseños de
sujeto único es la dependencia serial que reciben los datos, haciendo que pruebas estadísticas
clásicas como distribuciones “T” o F” no se adapten al contexto.
.tales
Si no se toma en cuenta la dependencia serial se obtendrá una incorrecta estimación del Error
rimen Tipo I429. Es por ello que proponen ejecutar un análisis exploratorio y no paramétrico. Los

e autores hacen adaptación a su trabajo de series temporales largas, sin embargo, son una opción a
xp
las operacionalizadas por Arnau que se corresponden con series cortas.
E
so
ñe
is
D
so
l
de

ic
ac
if
is
al
C
:a
ne
u
bl
a
V
na
mi
o
R

429Error tipo I o error alfa (α), es un tipo de error que se sucede cuando se encuentra que la hipótesis nula es verdadera, y aun así es rechazada.
La probabilidad de cometer un error del tipo I es igual a alfa (α), nivel de significación.
499

BIBLIOGRAFÍA

Achinstein, P. (1983). The Nature of Explanation. New York: Oxford University Press.

Akarsus, B. (2010). Einstein`s Redundant Triumph “Quantum Physics”: An Extensive Study of


Teaching/Learning Quantum Mechanics in College. Latin-American Journal of Physics
.a Education, 4(2), 273-285.
íf
ar Alferez, V. (2012). Methods of Ramdomization in Experimental Design. Series: Quantitative Applications
og in the Social Science. EE.UU: Sage.
li
Bib
Andrade, E., Cubidez, P., Marquez, C., Vargas, J., & Cancino, D. (2008). Lógica y Pensamiento Formal.
.s
oic Bogotá, Colombia.: Ediciones Universidad del Rosario.
tíf
nie Aristóletes. (1969). Tratados de Lógica. (F. Larroyo, Trad.) Mexico.
sC Aristóteles. (1969). Tratados de Lógica. (F. Larroyo, Trad.) México.
ot
nie Aristóteles. (2006). Tratados de Lógica. Bogotá.: Gráficas Modernas.
am Arnau, J. (2001). Diseño de Series Temporales: Técnicas de Análisis. España: Ediciones de la
no
az Universidad de Barcelona.
R
sy Arnau, J., Anguera, M., & Gómez, J. (1990). Metodología de la Investigación en Ciencias del
ot Comportamiento. España: Compobell, S.A.
nie
Atocha, A. (1998). La Abducción como Cambio Epistémico: C.S. Pierce y las Teorías Epistémicas de la
im
ed Inteligencia Artificial. Publicado en la Revista Analogía(12), 125-144.
oc
r Audi, R. (1995). The Cambridge Dictionary of Philosophy (Segunda Edición ed.). Cambridge:
P
e Cambridge University Press.
d
ac
i Audi, R. (Ed.). (2004). Diccionario Akal de Filosofía (Vol. Akal Diccionarios). (H. Marraud, & E.
óg
L Alonso, Trads.) Madrid, España: Universidad Autónoma de Madrid.
a
L Ayllón Vega, J. (2007). Filosofía Mínima. Barcelona, España: Ariel.
:ra
u Azcárraga, J. (1997). Entorno al Conocimiento Científico: Ciencia y Sociedad. Valencia, España.
P
ia
nc Bacon, F., & Montagu, B. (1831). The Works of Francis Bacon (Vol. 14).
ie
:C Baker, B., Hardyck, C., & Petrinovich, L. (1966). Weak Measurement vs. Strong Statistic: An Empirical
na Critique of S.S Stevens Proscription on Statistics. Educational and Psychological Measurement,
ue
26, 291-309.
alb
V Bannon, L. (1991). From Human Factors to Human Actors: The Role of Psychology and Human
na
Component Interaction Studies in System Design. En M. Kyng, & J. Greenbaum, Design at
oim Work. Laurence Earlbaum Associate Publisher.
R
Belfiore, F. (2004). The Structure of the Mind: Outlines of a Philosophical System. EE.UU: University
Press of America.

Belger, U., & Schwichtenberg, H. (1997). Computational Logic. Nato Series: Computer and System
Sciences.
500

Bereciartua, P. J., & G.A, L. (2011). ISTIC-UNESCO-WFEO Workshop on Science, Engineering and
Industry: In¬novation for Sustainable Development. UNESCO.

Berg, K., & Latin, R. (2004). Essentials of Research Methods in Health, Physical Education, Exercise
Science and Recreation (2da ed.). (W. Lippincott, Ed.)

Beuchot, M. (2000). Introducción a la Filosofía de Santo Tomás de Aquino (2da Corregida y Aumentada
.fía ed.). Salamanca, España: San Esteban.
ar
glio Beuchot, M. (2004). Introducción a la Lógica. México: Universidad Autónoma de México.
Bib
Bickenbach, J., & Davies, J. (1997). Good Reasons for Better Arguments: An Introduction to the Skills
.os and Values of Critical Thinking. Canadá: Broadview Press.
ic
tíf Blackburn, S. (1996). The Oxford Dictionary of Philosophy. Oxford: Oxford University Press.
nie
sC Blackburn, S. (1996). The Oxford Dictionary of Philosophy: Oxford Paperback Reference. Oxford,
ot Inglaterra: Oxford University Press.
nie
Blaikie, N. (2010). Designing Social Research. Reino Unido: Cambridge University Press.
am
no Bradley, F. (2004). The Principles of Logic.
az
R Bravo, S. (1997). La Ciencia su Método y su Historia. México: Universidad Autónoma de México.
sy
ot
nie Brown, J. (1993). The Laboratory of the Mind: Thought Experiments in the Natural Science. Routledge.

im Brown, W. (1910). Some Experimental Results in the Correlation of Mental Abilities. British Journal of
ed
oc Psychology, 3, 296-322.
r
P Bugliarello, G. (2011). Engineering and Sustainable Development: Fostering Technology, Innovation and
e
d Production. En P. Bereciartua, & G. Lemarchand, Statistic - Unesco - WFEO Workshop of
ac Science, Engeneering and Industry: Innovation for Sustainable Development.
i
óg
L Bunge, M. (1967). Scientific Research II: The Search of Truth. Canadá: Universidad de Waterloo.
a
L
:ra Bunge, M. (1985). La Investigación Científica. Madrid: Ariel.
u
P Bunge, M. (1985). Seudociencia e Ideología. Madrid: Alianza U.
ia
nc
ie Bunge, M. (2001). Diccionario de Filosofía. México: Siglo Ventiuno Editores.
:C
na Bunge, M. (2002). Ser, Saber, Hacer. Paidós Latinoamericana.
ue
alb Bunge, M. (2004). La Investigación Científica: Su Estrategia y su Filosofía. Argentina: Siglo XXI
Editores.
V
na
Cajal, S. R. (1999). Reglas y Consejos sobre Investigación Científica. Madrid, España: Consejo Superior
oim de Investigaciones Científicas.
R
Calello, H., & Neuhaus, S. (1999). Método y Antimétodo: Proceso y Diseño de la Investigación
Interdisciplinaria en Ciencias Humanas. Buenos Aires: Ediciones Colihue.
501

Calello, H., Neuhaus, S., Mónaco, V., & Hernández, D. (2002). Conocimiento y Desconocimiento en
Imaginario Cultural. Caracas: Fondo Editorial Humanidades y Educación Universidad Central de
Venezuela.

Campanario, M. (2004). Científicos que Cuestionan los Paradigmas Dominantes: Algunas Implicaciones
para la Enseñanza de las Ciencias. Revista Electrónica de Enseñanza de la Ciencia, 3, 257-286.
.a
íf Caramani, D. (2009). Introduction to the Comparative Method with Boolean Algebra. Sage.
ar
og Carnap, R. (1965). An Introduction to the Philosophy of Science. En G. Martin (Ed.). EE.UU: Dover
li Publications.
Bib
.s Carnap, R. (2002). The Logical Syntax of Language. (A. Smeaton, Trad.) Open Court Publishing.
oic
tíf Carvajal, Á. (2006). Disertaciones Filosóficas sobre las Convergencias entre Ciencia y Tecnología para el
nie Desarrollo, con un Análisis del Caso de Costa Rica. Tesis Doctoral. Universidad Carlos III de
sC Madrid.
ot
nie Castañeda Jiménez, J. (2000). Métodos de Investigación. México: McGraw Hill.
am
no Cavaillés, J. (1992). Método Axiomático y Formalismo. México: Servicios Editoriales de la Universidad
az Autónoma de México.
R
sy Cerda, H. (1991). Los Elementos de Investigación. Cómo Reconocerlos, Diseñarlos y Construirlos.
ot Bogotá: Editorial El Buho.
nie
im Chakravartty, A. (2007). A Metaphysics for Scientific Realism. Knowing the Unobservable. Cambridge
ed University Press.
oc
r
P Chauvet, L. d. (2011). Detección de Alumnos Talentosos en un Área de Tecnología. Tesis para Optar al
e
d Grado de Doctor. Madrid: Universidad Complutense de Madrid.
ac
i
óg Chávez, N. (2007). Introducción a la Investigación Educativa. Maracaibo, Venezuela: Talleres Gráficas
L González.
a
L Chávez, P. (2004). Historia de las Doctrinas Filosóficas. México: Pearson Education.
:ra
u Cifre, E., & Mateu, J. (1997). Análisis de Series Temporales Largas Mediante S-PLUS para un Diseño de
P
ia Sujeto Único. En M. García, & J. López (Ed.), IV Simposio de Metodología de Ciencias del
nc
ie Comportamiento.
:C
na Ciner, P., Castro, J., Adarvez, M., Espejo, C., Flores, E., Flores, O., . . . Villalonga, S. (2008). Lo
ue Sagrado: Miradas Contemporáneas (Primera ed.). Argentina: Editorial de la Facultad de
alb Filosofía, Humanidades y Artes.
V Clarke, D. y. (1998). An Introduction to Evaluation Techniques and Logical Theory (2da ed.). EE.UU:
na
University Press of America.
oim
R Cobalán, F. (2006). Matemática Aplicada a la Vida Cotidiana. Barcelona, España: GRAÓ.

Cochran, W. (1977). Sampling Techniques (3ra ed.). New York: Wiley.

Cofré, A., & Tapia, L. (2003). Cómo Desarrollar el Razonamiento Lógico Matemático. Chile: Editorial
Universitaria.
502

Cohan, P. (1999). Los Líderes en Tecnología. México: Prentice Hall Hispanoamericana.

Cohen, J. (1960). A Coefficient of Agreement for Nominal Scales. Educational and Psychological
Measurements, 20(1), 37-46.

Cohen, L., & Manion, L. y. (2007). Research Methods in Education (6ta ed.). Routledge.

.a Cohen, M. y. (1934). An Introduction to Logic and Scientific Method. Harcourt Brace and Company Inc.
íf
ar
glio Cooper, R., & Yule, P. y. (2013). Modeling High - Level Cognitive Processes. Psychology Press.

Bib Corona Treviño, L. (1998). Enfoques Económicos de la Tecnología. México: Siglo XXI Editores.
.s
oic Coto, A. (2007). Fortalece tu Mente. México: EDAF.
tíf
nie Creswell, J. (2007). Qualitative Inquiry & Research - Choosing Among Five Traditions. Thousand Oaks,
California: Sage Publications.
sC
ot Creswell, J. (2009). Research Design: Qualitative, Quantitative, and Mixed Method Approaches.
nie
California: Sage Publications.
am
no Creswell, J. (s.f.). Research Design: Qualitative, Quantitative and Mixed Methods. Thousand Oaks,
az California: Sage Publications.
R
sy Creswell, J., & Plano, V. (2011). Designing and Conducting Mixed Methods Research (2da ed.).
ot California: Sage Publications.
nie
im Cronbach, L. (1943). On Estimates of Test Realiability. The Journal of Educational Psychology, 4, 485 -
ed 494.
oc
r
P Cronbach, L. (1946). A Case Study of the Split - Half Reliability Coefficient. The Journal of Educational
e Psychology, 3, 473 - 480.
d
ac
ióg
Cronbach, L. (1947). Test "Reliability": Its Meaning and Determination. Psychometrika, 12(1), 1 - 16.
L
a Cronbach, L. (1951). Coefficient Alpha and the Internal Structure of Test. Psychometrika, 16(2), 297 -
L
:ra 334.
u D´ Agostino, S. (2001). A History of the Ideas of Theoretical Physics: Essays on the Nineteenth and
P
ia
nc Twentieth Century Physics. (K. A. Publishers, Ed.) EE.UU.
ie
:C Daniel Clemente, L. (2010). Introducción a la Deducción Natural.
na
ue Daston, L., & Lunbeck, E. (Edits.). (s.f.). History of Scientific Observation. Chicago press.
alb De Gortari, E. (1979). Introducción a la Lógica Dialéctica. Grijalbo.
V
na De Gortari, E. (1988). Diccionario de la Lógica. México: Plaza y Valdez.
oim
De la Vega, M. (2002). Problemas de Ingeniería de Puesta a Tierra (Segunda Reimpresión de la Segunda
R
Edición ed.). México: Limusa.
Descartes, R. (2007). Discurso del Método. España: Maxtor.

Detlefsen, M. (1992). Proof, Logic and Formalization. Routledge.


503

Dewey, J. (1854). Logic: of the Science of the Inference. Systematic View of the Principle of Evidence,
and the Methods of Inference in the Various Departments of Human Knowledge. Londres.

Díaz Pérez, M., & González, P. M. (2007). (ACIMED 2007) Recuperado el 10 de 09 de 2011, de
http://bvs.sld.cu/revistas/aci/vol15_6_07/aci11607.htm

Dimmer, R., & Dominick, J. (s.f.). Mass Media Research: An Introduction (8va ed.). Tomson.
.a
íf
ar Dodge, Y. (2008). The Concise Encyclopedia ofStatistic. Springer.
glio
Downing, D. (2009). Dictionary of Mathematics Terms (3ra ed.). Barron´s Professional Guides.
Bib
.s Echeverría, J. (1998). Filosofía de la Ciencia. Madrid: Ediciones Akal.
oic
tíf Einstein, A. (1934). On The Method of Theoretical Physics. Philosophy of Science, 1(2).
nie
Espíndola, J. (2005). Pensamiento Crítico. México: Paerson Education.
sC
ot Everitt, B., & Skrondal. (2010). The Cambridge Dictionary of Statistic (4ta ed.). Cambridge University
nie
Press.
am
no Falmagne, J. C., & Doble, C. (2015). On Meaninful Scientific Laws. Springer.
az
R Fernandez, B. (S/F). Curso de Filosofia Elemental. Arvo Net.
sy
ot Fernández, S. (1985). Foundations of Objective Knowledge: The Relation of Popper´s Theory of
nie Knowledge to that of Kant. (R. Cohen, Ed.) Kluwer: The Languaje of Science.
im
ed Ferrater, M.J. (2000). Diccionario de Filosofia. Buenos Aires: Susamericana.
oc
r
P Feyerabend, P. (1993). Agains Method: Outline of an Anarchistic Theory of Knowledge (3ra ed.). British
e Library.
d
ac
ióg Fitzgerald, P. (1887). A Treatise on the Principle of the Sufficient Reason: A Psychological Theory of
Reasoning, Showing the Relativity of Thought to the Thinker, of Recognition to Cognition, The
L
a Identity of Presentation and Representation, of Perception and Apperception. Londres: Gibert
L and Rivington Limited.
:ra
u
P Fourez, G. (2006). La Construcción del Conocimiento Científico: Sociología y Ética de la Ciencia (3ra
ia ed.). Madrid: Narcea.
nc
ie
:C Gaito, J. (1980). Measurement Scales of Statistics: Resurgence of an Old MIsconception. Psicologycal
na Bulletin, 87(3), 564 - 567.
ue
alb García, F. (2007). La Investigación Tecnológica: Investigar, Idear e Innovar en Ingeniería y Ciencias
Sociales (2da ed.). México: Limusa.
V
na
Gast, D., & Ledford, J. (2010). Single Subject Research in Behavorial Science. Routledge.
oim
R Gauch, H. (2003). Scientific Method in Practice. Cambridge: University of Cambridge.

Geertz, C. (1973). The Interpretation of Cultures (7ma ed.). New York: Gedisa.

Gilbert, J., & Reiner, M. (2000). Thought Experiments in Science Education: Potential and Current
Realization. International Journal of Science Education, 265-283.
504

Gimbel, S. (2011, Compilador). Exploring the Scientific Method: A New Approach to Teaching and
Learning Philosophy of Science. The University Chicago Press.
Glannon, W. (2011). Brain, Body and Mind: Neuroethics with a Human Face. Oxford University Press.

Goefrey, G. (2005). El Surgimiento de la Noción de Evidencia: Un Estudio de Epistemología Histórica


sobre la Idea de Evidencia Científica. México: Universidad Autónoma de México.
.a
íf
ar Goldenberg, J., Han, S., & Lehmann, D. (2010). The Social Hub: The Key to Network Processes. En S.
glio Wuyts, M. Dekimpe, Gijsbrechts, & R. Pieters (Edits.), The Connected Customer: The Changing
Bib Nature of Consumer and Business Market. Routledge.

.os Goldrei, D. (2005). Propositional and Predicate Calculus: A Model of Argument. Springer.
ic
tíf Govier, T. (2010). A Practical Study of Argument. EE.UU: Wadsworth.
nie
Gower, B. (2002). Scientific Method: an Historical and Philosophical Introduction. New York:
sC
ot Routledge.
nie
Gravetter, F., & Forzano, L. (2012). Research Methods for Behavorial Sciences (4ta ed.). Wadsworth
am
Cencage Learning.
no
az Grayeff, F. (1970). Kant´s Theoretical Philosophy: A Commentary of a Central Part of the Critique of
R Pure Reason. (D. Walford, Trad.) Manchester University Press.
sy
to Greenacre, M., & Blasius, J. (Edits.). (2006). Multiple Correspondece Analisys and Related Methods.
nie
New York: Taylos Francis Group.
im
ed
oc Griffiths, M. (1997). Technological Addictios: Looking to the Future. Artículo presentado en la 105th
r Annual Convention of the American Psychological Association. Chicago.
P
e
d Guerrero Jara, S. (2010). El Ocaso de la Certeza: Diálogo entre las Ciencias y las Humanidades.
ac
ióg México: Fondo Editorial Morevallado.
L Guerrero, R. (2002). Filosofía Medieval. Akal.
a
L
:ra Gustav, R., & Frances, S. (Diciembre 2002). Crecimiento Económico y Desarrollo Humano en América
u Latina. Comisión Económica para America Latina y el Caribe, 78, 7-24.
P
ia
nc Guttman, L. (1945). A Basis for Analyzing Test-Retest Reliability. Psychometrika, 10(4), 255-282.
ie
:C Hanneman, R., Kposowa, A., & Riddle, M. (2013). Basic Statistical for Social Research. John Wiley &
na Sons.
ue
alb Hawking, S. (1988). A Brief Story of the Time. Bantam Book.
V
na Hegel, G. ((1770-1831)). La Ciencia de la Lógica. (R. M. Mondolfo, Trad.) Ediciones Solar.
oim
Heidegger, M. (1996). The Principle of Reason. (L. Reginal, Trad.) Indiana University Press.
R
Heidelberger, M., & Schiemann, G. (Edits.). (2009). The Significance of the Hypothesis in the natural
Science. Berlin, Alemania: Walter de Gruyter GMBH & CO.

Heijenoort, J. V. (1879-1931). From Freege to Godel: A Source Book in Mathematical Logic. Library of
Congress EE.UU.
505

Henk W, R. (2011). The Explain: Current Research and Issues: A General Issue in Philosophy of Science.
En S. French, & J. Saatsi (Edits.), The Continuum Companion to the Philosophy of Science.
Continuum International Publishing Group.
Hernández, R., & Fernández, C. B. (2010). Metodología de la Investigación (5ta ed.). McGraw Hill
Interamericana.
.a Hernández, R., Fernández, C., & Baptista, L. (2003). Mtodología de la Investigación. España: McGraw
íf
ar Hill.
glio
Höffe, O. (2001). Breve Historia de la Filosofía: El Mundo de las Ideas a través de 180 Imágenes. (L. G.
Bib
Aristu, Trad.) Barcelona, España: Ediciones Península.
.s
oic Hoopner, F. (1999). Fuzzy Cluster Analysis: Methods for Classification, Data Analysis and Image
tíf
Recognition. John Wiley & Sons.
nie
sC Hughes, W. y. (2008). Critical Thinking and Introduction to the Basic Skills (5ta ed.). Broadview Press.
ot
nie Hume, D. (1739). A Treatise of Human Nature. Zurich: Oxford: Clarendon Press, 1896.
am
Hung, E. (2006). Beyond Kuhn: Scientific Explanation, Theory Structure, Incommensurability and
no Physical Necessity. Ashgate Publishing Limited.
az
R Hurley, P. (2008). A Consice Introduction to Logic (Décima Edición ed.). Thomson.
sy
ot
nie Imre, L. (1993). La Metodología de los Programas de Investigación Científica. Madrid, España: Alianza
Madrid.
im
ed
oc Jackson, S. (2012). Research Methods and Statistics: A Critical Thinking Approach. Wadsworth Cencage
r Learning.
P
e
d Johnnie, D. (2012). Sampling Essentials: Practical Guidelines for Making Sampling Choices. Sage
ac
ióg Publications.
L Johnson, R., & Wichern, D. (2007). Applied Multivariate Statistical Analysis (6ta ed.). Pearson.
a
L
:ra Johnston, J. (2005). Early Explorations in Science. McGraw Hill.
u
P Jonker, J., & Pennik, B. (2010). The Essence of Methodology: A Consice Guide for Master and PHD
ia
nc Students in Management Science. Springer.
ie
:C Joseph, E. (2003). Handbook of Research on Catholic Higher Education. (T. Hunt, R. Nuzzi, E. Joseph,
na & J. Geiger, Edits.) EE.UU: Catholic University and College.
ue
alb Kant, I. (1819). The Logic. Londres, Inglaterra: Impreso por: Simpkin, W. y Marshall, R. Stationers
V Court.
na
oim Kant, I. (1997). Crítica a la Razón Pura. (R. Pedro, Trad.) Taurus.
R Kant, I. (2000). Lógica: Acompañada de una Selección de Reflexiones sobre el Legado de Kant. Akal.

Kaplan, D. (Ed.). (2009). Readings of the Philosophy of Technology.

Kendall, H. (2007). 100 Greatest Science Discoveries of All Time. Libraries Unlimited.
506

Kiefer, C. (2012). Quantum Gravity (3ra ed.). Oxford Science Publications.

Kirkpatrick, L., & Francis, G. (2007). Physics: A World View (6ta ed.). Thomson.

Kolobov, M., & Kolobov, A. (2012). Planning with Markov Desition Processes: An IA Perspective.
Morgan & Claypool Publishers.

.a Kosso, P. (2011). A Summary of Scientific Method. Springer.


íf
ar Kothari, C. (2006). Research Methodology: Methods and Techniques (2da ed.). New Age International
glio
Publishers.
Bib
.s Kowalski, R. (2011). Computational Logic and Human Thinking: How to be an Artificially Intelligent.
oic Cambridge University Press.
tíf
nie Kuehl, R. (2001). Diseño de Experimentos: Principios Estadísticos de Diseño y Análisis de Investigación
(2da ed.). Thompson.
sC
ot Kuhn, T. (1987). La Estructura de las Revoluciones Científicas. (A. Contín, Trad.) México.
nie
am Kuipers, T. (2001). Structures in Science: Heuristic Patterns Based on Cognitive Structures an Advanced
no Textbook in Neo – Classical Philosophy of Science. Kluwer Academic Publishers.
az
R Kuipers, T., & Mackor, A. (Edits.). (1995). Cognitive Patterns in Science and Common Sense. Atlanta,
sy
Georgia.
ot
nie Lakatos, I. (1989). La Metodología de los Programas de Investigación Científica. Madrid, España:
im Alianza Madrid.
ed
oc Langer, S. (1967). An Introduction to Symbolic Logic (Tercera Edición Revisada ed.). Coover
r
P Publications.
e
d
ac Lara Rosano, F., Casalet, M., Corona Treviño, L., Díaz de Cosío, R., Lara, N., López Ortega, E., &
ióg
Mulás, P. (1998). Tecnología: Conceptos, Problemas y Perspectivas. México: Siglo XXI
L Editores.
a
L
:ra Larson, C. (2010). Persuasion: Reception and Responsiblity (12va ed.). EE.UU: Cencage Learning.
u
P Laws, C. a. (1994). Complexity and Social Scientific Laws. En M. Michael, & C. M. Lee (Edits.),
ia
nc Readings in the Philosophy of Social Science. Massachusetts Institute of Technology.
ie
:C Lazlo, E. (2003). The Connectivity of Hypotheses: Foundations of an Integral Science of Quantum,
na Cosmos, Life a Consciousness. New York University.
ue
alb Le Blond, J. (1973). Logique et Methode Chez Aristotele (3ra ed.). Paris: Vrin.
V
na Le Blond, J. M. (1973). Logique et Methode Chez Aristotele (3ra ed.). Paris: Vrin.
oim
Lee C, M. I. (1994). Complexity and Social Scientific Laws. En M. Michael, & M. Lee C (Edits.),
R Readings in the Philosophy of Social Science. Massachusetts Institute of Technology.

Lefebvre, H. (2006). La Lógica Formal, La Lógica Dialéctica. México: Siglo XXI Editores.

Leibniz, W. (1998). Discourse of Methaphysics and Related Writings.


507

Lewis-Beck, Lia, T. F., & Bryman, A. (Edits.). (2004). The Sage Encyclopedia of Social Science
Research Methods (Vol. 3). Sage Publications.

Liebig, J. V. (1867). El Desarrollo de las Ideas en Las Ciencias Naturales e Importancia de la Inducción
y la Deducción en las referidas Ciencias. (D. d. Luna, Trad.) Madrid, España.

Likert, R. (1932). A Technique for a Measurement of the Attitudes. Archives of Psychology, 22(140), 1
.a 50.
íf
ar
og Lindstron, B., Morton, F., Ottoson, T., & Laurillard, D. (1993). Computer Simulation as a Tool for
li Developing Intuitive and Conceptual Understanding in Mechanics. Computer in Human
Bib
Behavior(9), 263-281.
.s
oic Locke, J. (1999). Ensayo Sobre el Entendimiento Humano. México: Fondo de Cultura Económica de
tíf
México.
nie
sC Lohr, S. (2010). Sampling: Design and Analysis (Segunda Edición ed.). Cencage Learning.
ot
nie Lombraña, J. (1989). Historia de la Lógica. Oviedo: Universidad de Oviedo España.
am
no Longair, M. (2003). Theoretical Concepts in Physics: An Alternative View of Theoretical Reasoning in
az Physics (2da ed.). Editado por The Press Sindicate of the University of Cambridge.
R López, A. (1995). La Comunicación y la Hermenéutica. En U. A. México, Inter Alia Hermeneutica (Vol.
sy
ot Dirección General de Asuntos de Personal). Escuela Nacional de Estudios Profesionales, Acatlán.
nie
Lord, F. (1953). On THe Statistical Treatment of Football Numbers. American Psychologist, 8,750-751.
im
ed
oc Marques Sa, J. (2001). Pattern Recognition: Concepts, Methods and Applications (Vol. Universidad de
r Porto). Portugal: Springer.
P
e
d Marshall, H. J. (1998). Combinational Theory (2da ed.). Wiley.
ac
i
óg Martín Mateo, N. (1862). El Espiritualismo (Vol. II). Madrid, España: Universidad Complutense.
L
a
L Martínez Miguélez, M. (1991). El Paradigma Emergente. Límites de la Ciencia, 29.
:ra
u Martínez, M. A. (2006). Biblioteca de Recursos Electrónicos de Humanidades. E-Excellence: para red de
P comunicación e internet. Madrid, España: Liceus, Servicios de Gestión y Comunicación, S.L.
ia
nc
ie Maxwell, J. C. (1873). A Treatise of Electricity and Magnetism (Vol. I y II). Londres: McMillan & CO.
:C
na McCauley, R. (2007). Reduction: Models of Cross – Scientific Relations and Their Implications for the
ue Psychology – Neuroscience Interface. En P. Thagard (Ed.), Philosophy of Psychology and
alb Cognitive Science.
V
na McClellan, J., & Dorn, H. (2006). Science and Thechnology in World History: an Introduction. The Johns
oim Hopkins University Press.
R McDaniel, C., & Gates, R. (1998). Marketing Research Essentials (2da ed.). International Publishing
Tompson.
McLachlan, G. (2004). Discriminant Analysis and Statistical Pattern Recognition. Wiley.
508

McLaughlin, P. (2004). What Functions Explain: Functional Explanations and Self-Reproducing


Systems. Cambridge Studies in Philosophy and Biology. Reino Unido: Universidad de Constance.

Menard, S. (2002). Longitudinal Research: Quantitative Application in Social Sciences (2da ed.). Sage
Publications.

Mertens, D. (2008). Mixed Methods and the Politics of Human Research: The Transformative –
.a
íf Emancipatory Perspective. Thousand Oaks: Sage.
ar
og Miaja de la Peña, C. (2001). Lógica. Prax México.
li
Bib Mill, J. S. (1858). A System of Logic: Ratiocinative and Inductive. Being a Connected View of the
.s Principles of Evidence and the Methods of Scientific Investigation. Harper & Brother Publishers.
oic
tíf Miranda Alonso, T. (2000). El Juego de la Argumentación. Madrid, España: Ediciones de la Torre.
nie
Mónaco, V. (2002). Falsa Disyuntiva entre lo Cualitativo y lo Cuantitativo en la Investigación. En H.
sC
ot Calello, S. Neuhaus, V. Mónaco, & D. Hernández (Edits.), Conocimiento y Desconocimiento en
nie el Imaginario Cultural (Vol. Fondo Editorial Humanidades y Educación). Universidad Central de
am Venezuela.
no
az Moore, G. (1997). Advances in Environment, Behavior and Design. Toward The Integration of Theory,
R Methods, Research and Utilization (Vol. 4). (G. Moore, & R. Maraws, Edits.) New York: Plenum
sy Press.
ot
nie Morales, G., Mora, J., & Vargas, H. (2008). Estrategia de Regresión Basada en el Método de los k
im Vecinos más Cercanos para la Estimación de la Distancia de Falla en Sistemas Radiales. Revista
ed Facultad de Ingeniería de la Universidad de Antioquia, Grupo de Investigación en Sistema de
oc Energía Eléctrica (GISEL) y en Calidad de Energía Eléctrica y Estabilidad (ICE3), Universidad
r
P Tecnológica de Pereira, Programa de Ingeniería Eléctrica(45), 100-108.
e
d
ac Morano, D. (2011). Education: Engineers for a Better Future. En UNESCO, ISTIC-UNESCO-WFEO
i
óg Workshop of Science, Engeneering and Industry: Innovation for Sustainable Development.
L
a Moreno Villa, M. (2003). Filosofía. Vol. I. Filosofía del Lenguaje, Lógica, Filosofía de la Ciencia y
L
:ra Metafísica. Madrid, España: Madrid. SRL.
u
P Morillo, D. (2001). René Descartes: De Omnibus Dubitatum. España: AdafEditores.
ia
nc
ie Morkowitz, C. (2008). Obtenido de http://www.livescience.com/9556-addicted-technology.html
:C
na Mosterin, J. (2004). Lógica y Teoría de Conjuntos. En R. Orayen, & A. Moretti (Edits.), Filosofía de la
ue Lógica. Madrid, España: Trotta.
alb
Mousa, A. (2005). Statistical Data Analisys. Cairo: Cairo University.
V
na
Mouton, J., & Marais, H. (1988). Basic Concepts in Social Sciences (6ta ed.). (J. Mouton, Ed.) HSRC
oim
Press.
R
Muchinsky, P. (2002). Psicología Aplicada al Trabajo: Una Introducción a la Psicología Organizacional
(6ta ed.). Cencage Learning Editores.

Mulás, P. (1998). La Tecnología en los Desarrollo Social y Económico. En: Tecnología, Conceptos,
Problemas y Perspectivas. Siglo XXI Editores México.
509

Mungaray, A. (27 de Marzo de 2001). La Educación Superior y el Mercado de Trabajo Profesional.


Revista Electrónica de Investigación Educativa, 3(1).
Murphy, G. (1929). An Historical Introduction to Modern Psychology. New York: Harcourt, Brace and
Company.

Nagel, E. (2006). La Estructura de la Ciencia: Problemas de la Lógica de la Investigación Científica.


.a Editorial Paidós Argentina.
íf
ar
glio Nagy, S., & Biber, H. (2010). Mixed Methods Research: Merging Theory with Practice. The Guildford
Press.
Bib
.os Newman, I., & Benz, C. (1998). Qualitative – Quantitative Research Methodology: Exploring the
ic Interactive Continuum. . EE.UU: The Board of Trustees Illinois University.
tíf
nie Norris, J. (1997). Markov Chains: Cambridge Series in Statistical and Probabilistic Mathematics.
sC Cambridge University Press.
ot
nie Norton, J. (2013). Chasing the Ligth. En M. Frappier, L. Meynell, & J. Brown (Edits.). Routledge.
am Ortega, C. (2000). La Investigación Tecnológica en la Universidad Autónoma del Estado de México.
no
az Colección Biblioteca de la Educación Superior.
R
sy Palma, J., Marín, R., & Sánchez, J. P. (2002). A Model-Based Temporal Abductive Diagnosis Model for
ot an Intensive Coronary Care Unit (Universidad de Santiago de Compostela ed.). (S. Barro, & R.
nie Marin, Edits.) Springer.
im
ed Pavsic, M. (2001). The Landscape of Theoretical Physics: A Global View. From Point Particles to Brane
oc World and Beyond, in Search of Unifiying Principle. Kluwer Academic Publisher.
r
P
e Pearl, J. (2000). Causality: Models, Reasoning and Inference. Cambridge University Press.
d
ac
ióg Pearson, K. (1900). THe Grammar of Science. (A. Black, & C. Black, Edits.) Londres.
L Peuquet, D. (2002). Representation of Space and Time. Londres: The Guildford Press.
a
L
:ra Piaget, J. (1997). Estudios de Sicología Genética. Buenos Aires, Argentina: Emecé Editores.
u
P Piquer, A. (1781). Lógica (3ra ed.). Madrid, España.
ia
nc
ie Poincaré, H. (2007). Science and Hypothesis. Cosimo Inc.
:C
na Popper, K. (1959). On the use and Misuse of Imaginary Experiments: Especially in Quantum Theory. En
ue The Logic of ScientifDiscovery. Londres: Hutchinson.
alb
V Popper, K. (1963a). Conjectures and Refutations. Londres: Routledge and Kegan Paul.
na
Popper, K. (1972). Objetive Knowledge: An Evolutionary Approach. Oxford University Press.
oim
R Popper, K. (2006). Escritos Selectos. (D. Miller, Ed.) Fondo de Cultura Económica de México.

Popper, K. (Reimpresión 1980). La Lógica de la Investigación Científica. (V. S. Zabala, Trad.) Madrid,
España: Tecnos.
510

Pratt, J. W., Raiffa, H., & Schlaifer, R. (2001). Introduction to Statistical Desicion Theory. Massachusetts
Institute of Technology.

Putnam, H. (1998). Reason, Truth and History. Cambridge University Press.

Putnam, H. (2005). Series: Contemporary Philosophy in Focus. (Y. Ben Menahem, Ed.) Cambridge
University Press.
.fía
ar Quintanilla, M. (2005). Tecnología: Un Enfoque Filosófico y otros Ensayos de Filosofía de la Tecnología
glio (1ra ed.). México: Fondo de Cultura Económica.
Bib Radaña, M. (2003). David Hilbert, Hermann Minkowski, la Axiomatización de la Física y el Problema
.s Número Seis. La Gaceta de la RSME, 6(3), 641 - 664.
oic
tíf Ragin, C. (1987). The Comparative Method: Moving Beyond Qualitative and Quantitative Strategies.
nie University of California Press.
sC
ot Randall, H. J. (1992). The Development of Scientific Method in the School of Padua. En P. Kristeller, P.
nie Wiener, & W. Connel (Edits.), Renaissance Essays: From the Journal of the History of the Ideas.
am University of Rochester Press.
no
az Rinaldi, S. (2003). El Kybalion y la Ciencia. Argentina: Kier.
R
sy Rincón, É. (2009). Sistema Nacional de Ciencia, Tecnología e Innovación en Venezuela. Recuperado el
ot 17 de Septiembre de 2011, de
nie 15872009000300005&lng=es&nrm=iso
http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S1012-
im
ed
oc Roberts, F. S. (2009). Measuremente Theory: with apllication to decisionmaking, utility and Social
r Science (Vol. Encyclopedia of Mathematics and Its Applications). (G. C. Rota, Ed.) New Jersey:
P
e Cambridge University Press.
d
ac
i
óg Rojas Soriano, R. (1998). El Proceso de Investigación Científica. México: Trillas.
L
a Rosental, M., & Iudin, P. (2004). Diccionario Filosófico. Bogotá: Gráficas Modernas.
L
:ra
Rossi, P. (1978). Francis Bacon: From Magic to Science. (S. Rabinovitch, Trad.) Chicago Press
u
P University.
ia
nc
ie Rubin, A., & Babbie, E. (2013). Essential Research Methods for Social Work. Empowerment Series (3ra
:C ed.).
na
ue Russell, B., & Whitehead, A. (1910-1912-1913). Principia Mathematica.
alb
Russell, S., & Norvig, P. (2004). Inteligencia Artificial: Un Enfoque Moderno (2da ed.). Madrid, España:
V Pearson Education.
na
oim Salkind, N. (1999). Métodos de Investigación (3ra ed.). Prentice Hall Inc.
R
Salkind, N. (2010). Encyclopedia of Research Design (Vol. I). Sage.

Sanguinetti, J. (2005). El Conocimiento Humano: Una Perspectiva Filosófica. Madrid, España: Artes
Gráficas Ansos.
511

Sarkar, S., & Pfeifer, J. (Edits.). (2006). The Philosophy of Science: An Encyclopedia (Vols. 2 de la N-Z).
Routledge.

Schaffner, K. (1993b). Theory Structure, Reduction, and Disciplinary Integration Biology. En Biology
and Philosophy (An analysis of theory structure in terms of integrated interlevel theories that
allow for partial reduction and integration ed., Vol. 8, págs. 319-470).
.a
íf Schiffman, L., & Kanuk, L. (2005). Comportamiento del Consumidor (8va ed.). Pearson Education.
ar
og Schneider, C., & Wagemann, C. (2007). Qualitative Comparative Analysis (QCA) and Fuzzy Sets: Ein
li Lehrbuch für Anwender und jene, die es werden wollen. Opladen: Budrich.
Bib
.s Scott, B. (2010). The Myths of Innovation. O´REILLY.
oic
tíf Sevilla, C., Ochave, J., Punsalan, T., Regala, B., & Uriarte, G. (2007). Research Methods. Rex Print
nie Company.
sC
ot Sidman, M. (1960). Tactics of Scientific Research: Evaluating Experimental Data in Psychology. New
nie York Basic Books.
am
no Siegel, S. (1956). Nonparametric Statistic for the Behavorial Science. McGraw Hill.
az
Sincák, P., Vascák, J., Kvasnicka, V., & Mesiar, R. (Edits.). (2000). Advances in Soft Computing: The
R
sy State of Art in Computational Intelligence. República de Eslovenia: Springer.
ot
nie Som, R. (1996). Practical Sampling Techniques: Second Edition Revised and Expanded (Vol. 148).
im Mercel Keker Inc.
ed
oc Soyarslan, S. (2011). Reason and Intuitive Knowledge in Spinoza Ethics: Two Ways of Knowing, Two
r
P Ways of Living. Departamento de Filosofia de la Universidad de Duke.
e
d Spearman, C. (1910). Correlation Calculated from Faulty Data. British Journal of Psychology, 3(2), 271
ac
i 295.
óg
L Spencer, H., Fawcett, H., & Harrison, F. (2007). John Stuart Mill: His Life and Works. : The Echo
a
L Library.
:ra
u Spielvogel, J. (2004). Civilizaciones de Occidente (5ta ed., Vol. B). Tomson.
P
ia
nc Spirtes, P., Glymour, C., & Scheines, R. (2000). Causation, Prediction and Search (2da ed.).
ie Massachusetts Institute of Technology.
:C
na Srinagesh, K. (2006). The Principles of Experimental Research. Elsevier.
ue
alb Stack, G. (2005). Nietzsche´s Anthopic Circle: Man, Science and Myth. EE.UU: University of Rochester
V Press.
na
oim Stevens, S. (1946). On The Theory of Scales Measurement. Science, 103(2684), 677-680.
R Stock, G. (1888). Deductive Logic: Oxford University. Longmans, Green & Co. Editores.

Suppes, P. (1999). Introduction to Logic. Van Nostrand Publishers.

Tahan, M. (1949). El Hombre que Calculaba. Aedo.


512

Teddlie, C., & Tashakkori, A. (2009). Foundations of Mixed Methods Research: Integrating Quantitative
and Qualitative Approaches in the Social and Behavioral Sciences. Springer.

Thagard, P., & Cameron, S. (1997). Abductive Reasoning: Logic, Visual Thinking, and Coherence (Vol.
Departamento de Filosofia de la Universidad de Waterloo). Ontario, Canada.

Thagard, P., & Cameron, S. (1997). Abductive Reasoning: Logic, Visual Thinking, and Coherence (Vol.
.
fía Departamento de Filosofía de la Universidad de Waterloo). Ontario, Canada.
ar
glio (2009). The Case for Comparative Cualitative Analisys. En D. Byrne, & C. Ragin (Edits.), The Sage
Handbook of Case-Based Methods. Sage Publications.
Bib
.s Thompson, S. (2012). Sampling (3ra ed.). Wiley: Series in Probability and Statistics.
oic
tíf Thurstone, L. (1927). A Law of Comparative Judgement. Psychob Reviev, 273-286.
nie
sC Tiberghien, A. (1996). Construction of Prototypical Situations in Teaching the Concept of Energy. En G.
ot Welford, J. Osborne, & P. Scott (Edits.), Research in Science Education in Europe: Current
nie Issues and Themes. Impreso por: Biddles L.T.D.
am Toro, H. y. (2007). Paradigmas y Métodos de Investigación en Tiempos de Cambio. Caracas, Venezuela:
no
az CEC, C.A. Colección de Libros El Nacional.
R Torres, C. (1999). Los Sistemas Formales. Universidad Autónoma de México.
sy
ot
nie Uebersax, J. (1987). APA Psycnet. American Psychological Association. Diversity of Decision-Making
im Models and the Measurement of Interrater Agreement. Psychological Bulletin, 101(1), 140-146.
ed
oc UNESCO. (1999). Conferencia Mundial sobre la Ciencia para el Siglo XXI: Un Nuevo Compromiso.
r
P Valbuena, R. (2015). La Investigación Científica Avanzada: Con Introducción a los Programas de
e
d Investigación Científica; la Investigación Internivel y el Razonamiento Artificial (1ra ed.).
ac
ióg Maracaibo, Venezuela.
L
a Valderrama, C. (2000). Comunicación - Educación: Coordenadas, Abordajes y Travesías (Vol.
L Fundación Universidad Central: Departamento de Investigaciones). Santa Fé de Bogotá,
:ra
Colombia: Siglo del Hombre Editores.
u
P
ia Vaze Shilpa, A. (2007). Integrated Formulation Solution Design Scheme for Nonlinear Multidisciplinary
nc Systems Using the Mixed Models Platform. Kansas City: Kansas State University.
ie
:C
na Verdugo, C. (1996). Ensayo: La Filosofia de la Ciencia de Popper.
ue Vogt, P., & Jihnson, B. (2011). Dictionary of Statistic & Methodology: A Nontechnical Guide for the
alb Social Science. Sage Publications.
V
na Vogt, P., Gardner, D., & Haeffele, L. (2012). When to Use What Research Design. The Guildford Press.
oim
R Wang, Z., & Klir, G. (1999). Fuzzy Measure Theory. New York: Plenum Publishing Corp.
Webb, A. (1999). Statistical Pattern Recognition. Oxford University Press.

Westholm, G. (1995). Recent Developments in International Science and Technology Personnel Data
Collection. En Carrers in Science and Technology: an International Perspective. Washinton:
National Academic Press.
513

Whewell, W. (1840). Aphorisms Concerning Ideas, Science and the Language of Science. Londres,
Inglaterra: Harrison & Company Printers.
Whitehead, A. (1917). The Anatomy of Some Scientific Ideas. En A. Whitehead, The Aims of Education.

Whitehead, A. (2011). An Enquiry Concerning The Principles of Natural Knowledge (2da ed., Vol.
Dedicado a Alfred Whitehead). Cambridge.
.fía
ar Wilhelm, D. (2000). Crítica de la Razón Histórica.
glio
Wilhelm, D. (2000). Dos Escritos sobre Hermenéutica: y los Esbozos para una Crítica a la Razón
Bib Histórica. (A. G. Ramos, Trad.) Madrid, España: Editorial Itsmo.
.s
ofic Wilson, R., & Keil, F. (Edits.). (1999). The MIT Encyclopedia of Cognitive Sciences. The MIT Press
ít Cambridge, Massachusetts.
nie
Yin, R. (2009). Case Study Research: Design Methods (4ta ed.). Sage.
sC
ot Yuni, J., & Urbano, C. (2005). Mapa y Herramientas para Conocer la Escuela: Investigación
nie
Etnográfica e Investigación Acción (3ra ed.). Argentina: Editorial Brujas.
am
no Zabatta Galgano, V. (2008). Scielo. Recuperado el 17 de Septiembre de 2011, de Primeras Reflexiones
za
Sobre un Modelo General Desarrollo Tecnológico:
R
sy 00872008000200016&lng=es&nrm=iso
http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S1316-
ot
nie
im Zimmermann, H. (2001). Fuzzy Set Theory: and It´s Applications (4ta ed.). Kluwer Academic Publishers.
ed
oc
r
P
e
d
ac
ióg
L
a
L
:ra
u
P
ia
nc
ie
:C
na
ue
alb
V
na
oim
R

También podría gustarte