Está en la página 1de 112

UNIVERSIDAD

NACIONAL DE LA
PLATA
FACULTAD DE INGENIERÍA
DEPARTAMENTO DE
PRODUCCIÓN

Primer Cuatrimestre 2020

HUMANÍSTICA “A”
Prof. Tit. Dr. Darío Caresani
PROGRAMA DE LA MATERIA

ASIGNATURA: Humanística “A”


CÓDIGO: S951
ESPECIALIDAD: Ingeniería Industrial
ÁREA: Humanística
TIPIFICACIÓN: Complementaria
(Ciencias Básicas, Tecnologías Básicas, Tecnologías Aplicadas, Complementarias)
OBLIGATORIA: Sí OPTATIVA: No ELECTIVA: No
UBICACIÓN EN EL PLAN DE LA CARRERA (semestre): 4
CARGA HORARIA TOTAL (sobre 20 semanas de clase, en horas): 8
Teóricos:
Teórico-prácticos: 48
Actividades prácticas:
Seminario, trabajo integrador:
Evaluaciones: 6
Visitas:

1. OBJETIVOS DE LA ASIGNATURA

Proporcionar las bases del desarrollo del conocimiento mediante el método científico aplicable a los
diversos campos de estudio cubiertos por el Plan de Estudios, destacando las diferencias relevantes
en cuanto a las características de los objetos y fenómenos respectivos, y sus consecuencias en
términos de avances y tipos de resultados obtenidos y esperables.

2. CONTENIDOS SINTÉTICOS

● Introducción a la metodología de las ciencias. La clasificación de las ciencias: las ciencias


formales y las ciencias fácticas.
● Nociones lógicas que presupone la metodología.
● Ciencia y tecnología, Ciencia y sociedad.
● La investigación científica. Etapas: identificación del problema, hipótesis y procedimientos
de contrastación de hipótesis. La inducción y la deducción.
● Teorías científicas. Estructura interna y base empírica de las teorías. El papel de las teorías
en la explicación y la predicción.
● Las Ciencias Sociales; el problema de la especificidad de su método; diversas perspectivas
de análisis. Ciencia básica, ciencia aplicada, tecnología, técnica. Políticas científicas. Responsabilidad
social del científico. Ciencia y Tecnología en Argentina. Instituciones Científicas y Tecnológicas: el
CONICET, la Agencia Nacional de Promoción Científica y Tecnológica, el INTI, el INTA, la CIC
PBA. La función de la Universidad.

2
● Los sujetos humanos como objeto de estudio. Comprensión de las ciencias sociales. La
economía como ciencia.

3. CONTENIDOS ANALÍTICOS

Unidad 1
Génesis del pensamiento Científico. Caracterización y diferencias del conocimiento Científico y el
conocimiento vulgar. La actitud crítica como dinamizadora de los procesos cognitivos. La búsqueda
de “La Verdad”. La Ciencia como construcción social. El concepto de saber empírico y de técnica.
Surgimiento de las técnicas sistematizadas. Génesis histórica de la producción técnica. El tipo de
saber que constituye la Ingeniería. La preocupación epistemológica por la tecnología.

Unidad 2
Los Hechos, los datos empíricos, el dato científico. El Problema científico, la Hipótesis, teoría y Ley
Científica. Necesidad de explicación. El rol de la descripción científica. La modelación. El lenguaje
científico. La simbolización. Neutralidad y desambigüedad del discurso científico. Tipos de
razonamiento. Las ciencias y sus taxonomías. La visión desde las ciencias formales y fácticas.
Relación entre ciencia y tecnología. La investigación en ciencias básicas y la investigación científica
aplicada. El concepto de tecnología. El valor de la I&D. La producción de conocimientos
tecnológicos El concepto de brecha tecnológica Mecanismos de transferencia de tecnología. El
paquete tecnológico. Relación entre ciencia y tecnología. La investigación en ciencias básicas y la
investigación científica aplicada. El concepto de tecnología. El valor de la I&D. La producción de
conocimientos tecnológicos El concepto de brecha tecnológica. Mecanismos de transferencia de
tecnología. El paquete tecnológico. Derechos de propiedad Las patentes. La función del ingeniero.
La responsabilidad en la praxis profesional.

Unidad 3

Las cuestiones metodológicas. El método inductivo. El método Hipotético Deductivo, sus alcances
y limitaciones. El carácter de la prueba científica. La verificación, su valor. Los contextos de
descubrimiento, justificación y aplicación. La contrastación de teorías. Estado actual de la discusión
acerca de los contextos. Modelos explicativos del avance de la ciencia. Popper, Kuhn y Lakatos. Las
Revoluciones y cambios de Paradigmas.

Unidad 4

La teoría económica de la innovación industrial. Globalización y competitividad. La innovación


tecnológica como herramienta de la competitividad de las empresas. Cambio tecnológico. Cadena
de valor. Políticas y estrategia de la empresa innovadora. Introducción a creatividad.

3
Unidad 5

La investigación científica El diseño de la investigación científica. Diseño proyectual de la


investigación. Determinación de Unidades de Análisis. Niveles de anclaje y desagregación. Variables
y Dimensiones. Tipos y diseño constructivo. Procedimientos de asignación de valor a variables y
dimensiones. Construcción de indicadores. Criterios y parámetros interpretativos. Diseño de
Experimentos científicos o Tecnológicos.

Unidad 6

Relaciones entre Ciencia, Tecnología y Sociedad. Interdependencia entre Investigación Científica y


Desarrollo Tecnológico. La tecnología como factor de producción y cambio. Desarrollo y
Crecimiento. Políticas tecnológicas y desarrollo económico. Modelos de desarrollo. Posturas
axiológicas a raíz de los avances científicos tecnológicos. El sistema científico-tecnológico argentino
y sus instituciones representativas.

Organización de las clases y metodología de la enseñanza


Se dictarán cuatro horas semanales de teóricos y de prácticos. Durante las clases prácticas se
analizarán fragmentos de la bibliografía obligatoria, a partir de cuestionarios que el alumno deberá
conocer para poder participar en la discusión general del tema de cada clase.

4
HERENCIA

Herencia Biológica - Herencia Social


El hombre debe su especial papel en el mundo, por un lado a que está dotado de un órgano mental
superior, el cerebro, y por otro a la herencia social que ha recibido de sus antepasados, consistente
en hábitos, técnicas, ideas, instituciones, es decir conocimientos. La capacidad del hombre para
aprender esos conocimientos ha hecho posible la riqueza de la cultura que ha desarrollado. Por
ejemplo: un niño, dentro de una comunidad, descubre que muchos problemas con los que se
encuentra han sido resueltos antes que él, por lo que no tiene más que aprender las soluciones.
En gran cantidad de especies biológicas, la supervivencia depende únicamente de las conductas
instintivas, y la capacidad de aprender es escasa, pero heredan biológicamente formas de
comportamiento adaptativas. La adaptación a condiciones nuevas son producidas por los
mecanismos biológicos de: mutación y selección natural.
En el caso de algunos vertebrados superiores, por ejemplo el hombre, la adaptación al medio no es
consecuencia solamente de los mecanismos de selección, puesto que supone una enorme
destrucción de individuos. Es así como en los vertebrados se desarrolla la capacidad de aprendizaje,
como complemento del instinto.
Pero el aprendizaje, para ser efectivo como medio de adaptación, debe ir acompañado de la facultad
de transmitir la conducta aprendida de una generación a otra y esto supone un medio de
comunicación.

El lenguaje
El hombre, gracias al lenguaje, puede transmitir información de situaciones que no están presentes.
La consecuencia de este hecho es un enorme incremento de los contenidos de la herencia social,
puesto que cada hombre puede aprovechar la experiencia de las generaciones anteriores.
Pero el lenguaje no es solo un ingenuo instrumento de comunicación, puesto que las palabras
implican un complejo proceso de conceptualización, abstracción y síntesis.
Todo lenguaje encierra marcos referenciales a partir de los cuales el hombre estructura la realidad
que lo rodea. Y recordemos que toda estructura es estructurante por lo tanto, estos marcos
referenciales no sólo comprenden sistemas de calificaciones, sino que implican sistemas de valores
e ideas, en suma una determinada forma de concebir la vida, el universo y el específico lugar que le
cabe al hombre en él, es decir una determinada cosmovisión.
De manera tal que cuando estamos aprendiendo un lenguaje, internalizamos, sin darnos cuenta una
determinada concepción del mundo, de la vida y del hombre, un sistema de valores, un sistema de
categorías para estructurar la realidad.

El hombre como ser simbólico


El lenguaje de la ciencia es conceptual, pero existen otros lenguajes por ejemplo la poesía, la música
que tienen un gran valor. El hombre se caracteriza por la creación de sistemas simbólicos. El
símbolo no es una manera que posee el hombre para referirse a su entorno.

5
Entre los estímulos que recibe y las respuestas que elabora el hombre ha interpuesto un sistema
simbólico que es la cultura. El hombre no vive solamente en un mundo físico natural, sino que
habita además, en un universo cultural simbólico.
La ciencia, el arte, la religión son creaciones humanas que intentan describir la realidad desde
distintos ámbitos.

El hombre como ser cultural


El hombre es un ser creador de técnicas, métodos, instituciones, teorías, etc. es decir creador de
cultura, pero al mismo tiempo llega a formarse, al ir incorporando parte de la cultura a su
personalidad a través de actitudes, valores, etc.
Aristóteles definía al hombre como un ser “vivo que habita en una comunidad” con lo que muestra
el carácter social del hombre, esto implica que no puede alcanzar el máximo desarrollo de sus
potencialidades si no es en el ámbito de una sociedad, de una cultura.
En toda sociedad, la educación tiene la función de transmitir la herencia social mediante la cual el
individuo internaliza las pautas y valores culturales, por lo cual adquiere un valor formativo, pero al
mismo tiempo por este proceso, la sociedad también hace posible la perduración de su estructura
organizada. El proceso debe ser tan sutil, que tendemos a creer que conductas que en la realidad
son aprendidas, forman parte de la naturaleza humana, por ejemplo: la monogamia.

Saber socio-cultural y actitud crítica


El resultado espontáneo de esta incorporación de contenidos de la cultura tiene la forma de un
saber, compartido en mayor o en menor medida por los miembros de un grupo social y sus
características son:
a) Es espontáneo
b) Es compartido por todos los miembros de una sociedad
c) Se acumula por sedimentación (no es sistemático)
d) Comprende lo obvio, lo natural y encierra muchos perjuicios
La cultura es una estructura dinámica, que alberga en sí conflictos y tensiones y para poder
resolverlos y poder subsistir, necesita o bien refundar sus principios básicos -a veces hasta con rigor-
, o bien cambiar y modificarse:
La integración del hombre con las pautas culturales de la sociedad en que vive nunca es absoluta y
total, puesto que existe libertad, nunca es un mero reflejo de la cultura y puede entrar en un conflicto
con ella, el cuestionamiento de lo obvio y la búsqueda de fundamentación nos instalan en la actitud
crítica. Si bien ella es constitutiva del hombre se agudizará en los momentos en que aumentan las
tensiones y conflictos y en que es necesario una re-formulación de los sistemas de ideas y de los
principios básicos de la cultura.

6
Características del Saber Crítico
a) No es espontáneo, pues requiere una intensión consciente y deliberada de reflexión, y en
muchos casos de ruptura de hábitos, técnicas, valores y pautas de conductas adquiridas, y contenidos
de conocimientos aceptados.
b) Es compartido por los que ejercen conscientemente esa actitud y no por la sociedad en su
conjunto.
c) No se contenta con la afirmación de los enunciados, pues busca fundamentar sus
afirmaciones.
d) Tiene un método para validar sus enunciados, por lo que producirá un saber sistemático.

Este saber crítico implica entonces una toma de conciencia de la inadecuada e insuficiente
provisionalidad de las respuestas. A su vez esta toma de conciencia implica un distanciamiento con
respecto a los hechos, puesto que no se ven como naturales y obvios, sino que se percibe un
problema donde antes no lo había, además no tenemos clara conciencia de un problema hasta que
se vislumbre una nueva óptica que permita encuadrar los hechos en otros marcos referenciales.

Relaciones entre Saber Socio-Cultural y Actitud Crítica


Los nuevos puntos de vista, al entrar en pugna con los anteriores generan polémicas y luchas por
imponerse, hasta que, si lo logran a ser total o parcialmente asimilados por la cultura social.
Muchos de sus contenidos pasan a formar parte del saber compartido socialmente por lo que vemos
que los límites entre la actitud espontánea y la crítica es fluctuante.
La actitud crítica debe enraizarse con los contenidos socio-culturales característicos del saber vulgar.

Conocimiento Científico y Conocimiento Natural


La oposición tradicional entre conocimiento científico y conocimiento natural
Para destacar las características del conocimiento científico, se lo opone al conocimiento natural. El
conocimiento científico poseería todo lo que le “faltaría” al conocimiento natural. Se van
estableciendo así los pares antitéticos que separan tajantemente ambas formas de conocimiento:
1) Frente a la falta de fundamentación del conocimiento natural, el conocimiento científico
exige prueba y es, por tanto, conocimiento fundado.

2) Frente a la falta de método del conocimiento natural, el conocimiento científico es metódico:


establece, de acuerdo al objeto a investigar, un camino de búsqueda y un camino de prueba.
3) Frente a la falta de orden del conocimiento natural, en él las opiniones se van sumando
caóticamente, el conocimiento científico es sistemático: en él, en virtud del método, los distintos
conocimientos se van relacionando lógicamente entre sí y constituyen no una suma sino una
totalidad estructurada, un sistema.
4) Frente a la falta de rigor del conocimiento natural, el conocimiento científico exige el rigor
que se evidencia en su lenguaje: frente a la falta de precisión del lenguaje natural, el lenguaje científico
es preciso, elimina la ambigüedad y vaguedad del lenguaje natural.

7
Pero estos cuatro pares antitéticos pueden sintetizarse en uno solo: frente al carácter acrítico del
conocimiento natural, el conocimiento científico es fundamentalmente crítico. Como consecuencia,
mientras que el carácter crítico conduciría sin tropiezos a la objetividad de la ciencia, el carácter
acrítico sometería al conocimiento natural a las influencias perturbadoras y arbitrarias de la
subjetividad.
La presunta ausencia de todos los caracteres constitutivos del conocimiento científico haría que el
conocimiento natural sólo por una desmedida extensión del significado pudiera llamarse
conocimiento.
Si exploramos ahora los alcances de esta oposición, nos revela como síntoma de una ideología
cientificista que tiene, para la ciencia misma, consecuencias indeseables:

● Impide visualizar la inseparabilidad y la relación de intercambio vivo entre conocimiento


científico y conocimiento natural.
● Desarraiga por eso mismo la ciencia de su inserción en la vida de la comunidad, ocultando
así su función real. Función que, en tanto sólo puede concebirse en vistas al hombre, no puede ser
sino social.
● Impide valorar, en su significación vital afectiva, lo que ciertamente es propio de la ciencia
y resume sus caracteres: la actitud crítica.

Conocimiento Natural y Actitud Natural


El conocimiento natural es el conocimiento constitutivo de la actitud natural. ¿Qué es actitud? Es
siempre una orientación determinada de la voluntad en una dirección previamente delineada. Los
individuos y la comunidad en que se insertan viven siempre, dentro de su situación histórica, en
alguna actitud es decir orientado en alguna dirección. La actitud natural es la orientación directa
hacia el mundo. Esto significa dos cosas:
1) En ella, el hombre no se desliga del mundo, ni coloca el mundo fuera de sí para tomarlo
como objeto.
2) En ella, la acción humana pone en juego representaciones, ideas, creencias, opiniones,
concepciones que expresan la cosmovisión propia de una comunidad histórica determinada. En la
actitud natural, la acción comporta siempre un conocimiento, el que hemos llamado natural.

Características del Conocimiento Natural


● Saber actuante en la cotidianeidad, no se puede por un lado desligarse de la acción y arraiga
en la cosmovisión que se instituye como tradición.
● Saber operante en la praxis que no se distancia del mundo representado. Por eso, el mundo
conocido en él es el mundo vivido y por eso es como saber, un saber actuante.

Conocimiento Científico y Actitud Teórica


El conocimiento científico supone una reorientación, un cambio de orientación con respecto a la
actitud natural en el que esta queda suspendida transitoriamente. Esta reorientación es la actitud
teórica. ¿Qué es la actitud teórica?

8
1) En ella, el hombre se desliga de la acción para pensarlo, el hombre suspende la acción misma.
Surge así la pasión por un conocimiento que se desliga transitoriamente de todos los intereses
prácticos.
2) Al separarse así de la acción concreta, surge a la conciencia una diferencia no presente en la
actitud natural: la diferencia entre mundo representado y mundo real. Esto implica que el hombre
se representa el mundo y que la representación del mundo no se identifica necesariamente con el
mundo mismo. De esta manera, la actitud teórica surge como actitud crítica, y se constituye así el
punto de partida de una nueva forma de conocimiento: el problema, lo evidentemente sabido se
transforma en lo ya no sabido y en lo aún no sabido, es decir, en lo que hay por saber.
Como conocimiento que se desarrolla a partir de la actitud teórico-crítica, el conocimiento científico
es una actitud deliberada que se institucionaliza como profesión: la profesión del científico. El
conocimiento científico parte de la actitud teórica-crítica y recorta ámbitos distintos de objetos a
investigar. A partir de este recorte que determinará de qué ciencia se trate, el conocimiento científico
buscará constituirse a través de un método adecuado al ámbito recortado, es decir en un
conocimiento sistemático, fundado y riguroso.

Relación entre Conocimiento Científico y Conocimiento Natural


1) El conocimiento natural es un hecho universal irreductible que no queda suprimido por el
conocimiento científico. Solo dejamos de depender de él, como cuando estamos comprometidos
con la acción cotidiana.
2) El conocimiento natural es fuente y condición de posibilidad del conocimiento científico
por dos razones:

● El conocimiento científico remite a la actitud natural, al surgir como modificación de ella en


la actitud teórica.
● Ningún conocimiento, por más crítico que sea, puede evadirse de su arraigo en una
cosmovisión determinada.

3) El conocimiento científico enriquece al conocimiento natural al convertirse, a través de la


popularización de sus resultados, en cultura difundida.
El conocimiento científico corrige al conocimiento natural, al establecer como exigencias todos esos
factores que no pueden desarrollarse en el marco del conocimiento natural. Pero además el
conocimiento científico no solo corrige al conocimiento natural, sino que se autocorrige
cuestionando.
El conocimiento natural será siempre lo que da sentido al conocimiento científico, en la medida en
que no hay actividad social alguna y la ciencia lo es, que no responda a unos u otros de los intereses,
propósitos, ideales, que coexisten en la comunidad. La oposición que minimiza al conocimiento
natural como ingenuo y vulgar forma parte de una ideología que contribuye a desarraigar la ciencia
de la comunidad. En la medida en que se consuma este desarraigo, el científico pierde conciencia
de la función social de su labor, y con ello, de su compromiso ético.

9
RELACIONES ENTRE CIENCIA Y TECNOLOGÍA

CIENCIA:

¿Qué es el conocimiento científico?


La ciencia se puede corporizar como “conocimiento científico”, es un conocimiento racional,
exacto, riguroso, sistemático, que puede ser sometido a prueba, y por lo tanto falible, al cual se llega
por medio de un método, el método científico, este método es el que caracteriza, precisamente, al
conocimiento científico, cada disciplina de investigación posee su propio método que le es
característico y es adoptado por la comunidad científica. La ciencia es una reconstrucción
conceptual del Universo, es como lo conocemos, es como creemos que es, esto vale para ahora y
con los conocimientos que hemos alcanzado.

¿El conocimiento científico es la verdad?


La verdad absoluta no existe en la Ciencia. El conocimiento científico es una verdad provisional,
viene a cubrir un vacío pero debe considerarse como algo provisorio. Por ejemplo, en el siglo pasado
las Leyes de Newton explicaban cómo funciona el Universo, desde el punto de vista de la Física. En
este siglo Albert Einstein, con su Teoría de la Relatividad ha desplazado a la Teoría de Newton, eso
no significa que la Teoría de Newton era errónea, sino solamente que contemplaba un aspecto
parcial de la realidad, por ejemplo esa teoría no explica los fenómenos de los cuerpos a muy altas
velocidades ni tampoco la física de las partículas atómicas. Podemos decir que las Leyes de Newton
son un caso particular de las Leyes de Einstein, que a las velocidades que manejamos los humanos,
las leyes de Newton explican el funcionamiento físico de la naturaleza. A medida que avanzamos en
materia de conocimiento científico, vamos sabiendo cómo no son las cosas, volviendo al ejemplo
anterior, ahora sabemos que no es como decía Newton.
Otra de las características del conocimiento científico es que involucra una doble garantía que le es
intrínseca, por un lado fue obtenido por el método científico y por otro lado al ser validado como
conocimiento científico implica que es aceptado y adoptado, o sea avalado, por la comunidad
científica en su totalidad, o sea por personas desinteresadas e idóneas. Con esto no se quiere decir
que la Ciencia está alejada de las cuestiones sociales de la época en que se desarrolla, algunas veces
se ha visto influenciada por situaciones de esa clase, pero siempre el interés primordial es acercarse
a la realidad.

¿Qué contemplan los métodos?


Los métodos se emplean en el proceso de investigación científica, la investigación científica es la
ciencia como actividad social. Los métodos involucran los procedimientos y pasos a seguir en la
obtención de los conocimientos. También las corroboraciones de las hipótesis hasta la validación
del conocimiento. Pero se destaca que no se puede hablar de conocimiento con rigor científico hasta
tanto la comunidad científica lo adopte como tal. Eso sucede en los congresos donde cada
investigador o grupo de investigación presenta sus informes, ya sea en Ciencia Básica o en Ciencia
Aplicada.

10
¿Cuál es la diferencia entre Ciencia Básica y Ciencia Aplicada?
La Ciencia Básica tiene como objeto de estudio ejes que se relacionan con el conocimiento por si
mismo, investiga por motivos puramente cognoscitivos, los conocimientos alcanzados pueden tener
o no una aplicación práctica en lo inmediato, por ejemplo conocer el origen del Universo es tema
de estudio en muchos Centros de Investigación Científica del mundo, pero no tendría una aplicación
práctica en lo inmediato.
En cambio, la Ciencia Aplicada estudia temas de aplicación inmediata, los que, en general, son
requeridos por la sociedad, como por ejemplo el desarrollo de una vacuna contra el HIV. El objeto
de estudio se relaciona con temas específicos, acotados, de interés social o relacionados con la
producción, con el medio ambiente, u otra disciplina.

¿De quién es el conocimiento científico?


El conocimiento científico es un logro de la Ciencia, y ésta es un patrimonio de la Humanidad. El
conocimiento científico es de libre diseminación, debe estar al alcance de toda la comunidad
científica.

TECNOLOGÍA
¿Qué es la Tecnología?
Podemos definirla como sigue: La tecnología son los conocimientos científicos, técnicos y
artesanales que permiten producir un bien o un servicio. Esta definición pone de manifiesto que
dentro del conocimiento tecnológico, necesariamente, se involucra conocimiento científico, si éste
no fuera incluido, entonces estaríamos hablando de Técnica y no de Tecnología. El conocimiento
técnico es diferente del conocimiento tecnológico y del científico, aunque se relacione también con
las leyes naturales y los métodos de trabajo, tienen, esos tres tipos de conocimiento, pocos elementos
en común. Los de la Ciencia tienen necesidad de un desarrollo lógico, de tipo deductivo; los de la
Técnica deben llegar a lo eficaz y son a menudo inductivos, negligentes de la demostración,
contorneantes de los obstáculos para llegar a la formula simple, fuente de todas las soluciones
aceptables. La Técnica, a diferencia de la Tecnología, es una forma o un método para llegar a un
objetivo predeterminado, es eficaz, pero no necesariamente es eficiente, el conocimiento técnico es
el resultado del “saber hacer”, su base es empírica, sin sustentación científica, no necesita explicar
los procesos. En cambio la Tecnología tiene un contenido de conocimiento científico que la
sustenta, la explica y la hace eficiente. Podemos decir que cuando la Ciencia como actividad social,
en su aspecto de investigación científica, está orientada a la producción de bienes materiales o
culturales, o al mejoramiento de nuestro hábitat natural y artificial, se convierte en Tecnología,
concretamente la Tecnología son los conocimientos necesarios para la producción o los mismos
medios de producción, pero que indefectiblemente incluye conocimiento científico.
Podemos agregar que no solo la ciencia contribuye al avance de la tecnología sino que las mejoras
en la tecnología son, en retorno, criticas para el mayor avance de la ciencia. Por ejemplo la Ciencia
se vale de los elementos e instrumentos de medición y ensayos que le suministra la tecnología, de
otra forma nunca podría efectuar las contrastaciones para corroborar o refutar las hipótesis.

11
¿Es la Tecnología de libre difusión?
Depende, existen conocimientos tecnológicos antiguos que ya son de dominio público, por lo tanto
se encuentran disponibles en publicaciones especializadas y cualquier persona puede acceder a ellos,
desde el punto de vista de la empresa son conocimientos obsoletos. Pero los conocimientos
tecnológicos de avanzada no están disponibles, son restringidos. Es una gran diferencia con la
Ciencia. Mientras que en aquella los conocimientos, siempre alcanzados por el método científico,
son de libre difusión, en el caso de la Tecnología, los conocimientos se pueden obtener por varios
métodos: por desarrollo propio, por robo, por trueque o por compra, o sea que existe un mercado
donde se comercializa. Cabe destacar que siempre que se hable de Tecnología se debe saber que se
está hablando de conocimiento relacionado con la producción y por lo tanto con el dinero.

¿Dónde se desarrolla el conocimiento tecnológico?


El conocimiento es desarrollado en los Laboratorios de Investigación y Desarrollo. En general es
una actividad privada y por lo tanto los resultados tienden a la reducción de los costos de producción
mediante la aparición de nuevos procesos de fabricación y la generación de nuevos productos. Los
nuevos procesos cambian la relación entre capital y mano de obra y los nuevos productos
acrecientan la capacidad competitiva de la empresa en los mercados donde se desenvuelve.
En el desarrollo de la tecnología no existe un método como en el caso de la Ciencia, cada laboratorio
fija su propio método de trabajo en función de sus objetivos, de sus posibilidades económicas, de
su disciplina, y de su experiencia.

¿Cómo se utiliza o comercializa el conocimiento tecnológico?


La actividad de Investigación y Desarrollo de Tecnología genera un “paquete” tecnológico, es un
“paquete” de conocimiento destinado a la producción de bienes y servicios, este “paquete” puede
ser empleado en las líneas de producción de la propia empresa que lo ha desarrollado o puede ser
comercializado, este “paquete” se puede desagregar en dos partes bien definidas, a una de ellas la
llamamos “Know why” (saber por qué) y a la otra la denominamos “Know how” (saber cómo). El
“Know why” está constituido por el conocimiento básico de la tecnología que se ha desarrollado,
es el resultado de la conjunción de los principios físicos, mecánicos, eléctricos, electrónicos,
metalúrgicos, etc, en que se basa la tecnología en gestación. El “Know why” involucra todo el trabajo
de investigación para llegar a un resultado que puede ser materializado o corporizado como un
conocimiento para saber cómo es un determinado producto, justamente, el “Know why” es el
conocimiento básico para saber cómo se hace, o sea para llegar al “Know how”. Por lo tanto el
“Know how” es el resultado visible del “Know why”. El “Know how” se emplea para la producción,
o para el empleo del sistema desarrollado. Por ejemplo, los planos, especificaciones y demás
recomendaciones o “secretos” para la construcción de un producto o una maquina constituyen el
“Know how”, sirven para construir o para fabricar, pero no explican por qué es como es, ese otro
conocimiento es el “Know why”, el cual nunca se comercializa, es un secreto del Laboratorio de
I&D. La única parte comercializable es siempre el “Know how”. Es la información que llega a la
fábrica y también la que se transfiere en un contrato de licencia.
Por lo expuesto las formas de utilización y comercialización del conocimiento tecnológico pueden
ser clasificadas como sigue:
a) Utilización en las unidades productivas propias y exportación de productos tangibles al mercado
mundial.

12
b) Licenciamiento. Se vende la tecnología como bien intangible, o sea como conocimiento. Los
bienes tangibles o servicios son fabricados en otro país con mano de obra y materiales de ese país,
en este caso la empresa que recibe la Tecnología pasa a llamarse Licenciada y la que la entrega se
llama Licenciataria. Siempre se debe recordar que solo se transfiere el “Know how”, nunca el “Know
why”. Casi en la gran mayoría de los casos, los contratos de transferencia de tecnología involucran
el pago de la misma, llamados “royalties”, que en general constituyen un porcentaje del total de las
ventas de la empresa licenciada.
Los dos resultados de la actividad de investigación tecnológica, la generación de Nuevos Procesos
y la generación de Nuevos productos, son las herramientas fundamentales para la dinamización de
la economía de los países desarrollados, pero debe tenerse cuidado cuando se incorpora tecnología
a un país en vías de desarrollo, pues las economías desarrolladas industrialmente han utilizado estos
resultados como herramientas para mantener la dependencia tecnológica, esto se explica pues los
países en desarrollo han incorporado solo una parte del desarrollo tecnológico, han incorporado
principalmente los Nuevos Productos sin modificar los procesos de fabricación, por lo tanto solo
han conseguido modificar sus hábitos de consumo y no han transformado sus procesos productivos.
No obstante, cuando se incorporan Nuevos Procesos de producción no debe olvidarse que la
Tecnología lleva consigo el código genético de la sociedad en que ha sido desarrollada, y que al ser
trasplantada a una sociedad con necesidades diferentes puede producir daños, ya sea sociales o
ecológicos.

¿Qué se desarrolla en un Laboratorio de I&D?


Fundamentalmente conocimiento tecnológico para saber cómo se hace, la cuestión principal consiste
en encontrar el “Know what” (saber qué), debemos considerar que un invento es solo una idea,
plasmada en un papel, un plano, una descripción. Un invento no es una innovación, decimos que
es una innovación cuando se comercializa el primer producto material que corporiza el invento. Se
puede decir que, en general, se constituyen en innovaciones solo el 1% de los inventos, el resto
quedan como inventos o no superan la etapa de laboratorio. Existe quien toma la idea y la lleva al
desarrollo, dicho de otro modo quien transforma un invento en una innovación, esa persona, o
grupo, se denomina “entrepreneur”. La función del entrepreneur no consiste, esencialmente, en
inventar algo ni en crear de otro modo las condiciones que la empresa explota. Consiste en lograr
realizaciones. Dirige el uso de la inversión, lleva adelante y concreta en el ámbito económico la
innovación utilizando las invenciones o nuevos conceptos productivos que se derivan de la actividad
de investigación y desarrollo.

13
¿QUÉ ES LA CIENCIA?

Por Mario Bunge en su libro: La ciencia. Su método y su filosofía

1. Introducción
Mientras los animales inferiores sólo están en el mundo, el hombre trata de entenderlo; y sobre la
base de su inteligencia imperfecta pero perfectible, del mundo, el hombre intenta enseñorearse de
él para hacerlo más confortable. En este proceso, construye un mundo artificial: ese creciente cuerpo
de ideas llamado "ciencia", que puede caracterizarse como conocimiento racional, sistemático,
exacto, verificable y por consiguiente falible. Por medio de la investigación científica, el hombre ha
alcanzado una reconstrucción conceptual del mundo que es cada vez más amplia, profunda y exacta.
Un mundo le es dado al hombre; su gloria no es soportar o despreciar este mundo, sino enriquecerlo
construyendo otros universos. Amasa y remoldea la naturaleza sometiéndola a sus propias
necesidades animales y espirituales, así como a sus sueños: crea así el mundo de los artefactos y el
mundo de la cultura. La ciencia como actividad —como investigación— pertenece a la vida social;
en cuanto se la aplica al mejoramiento de nuestro medio natural y artificial, a la invención y
manufactura de bienes materiales y culturales, la ciencia se convierte en tecnología. Sin embargo, la
ciencia se nos aparece como la más deslumbrante y asombrosa de las estrellas de la cultura cuando
la consideramos como un bien en sí mismo, esto es como una actividad productora de nuevas ideas
(investigación científica). Tratemos de caracterizar el conocimiento y la investigación científicos tal
como se los conoce en la actualidad.

2. Ciencia formal y ciencia fáctica


No toda la investigación científica procura el conocimiento objetivo. Así, la lógica y la matemática
—esto es, los diversos sistemas de lógica formal y los diferentes capítulos de la matemática pura—
son racionales, sistemáticos y verificables, pero no son objetivos; no nos dan informaciones acerca
de la realidad: simplemente, no se ocupan de los hechos. La lógica y la matemática tratan de entes
ideales; estos entes, tanto los abstractos como los interpretados, sólo existen en la mente humana.
A los lógicos y matemáticos no se les da objetos de estudio: ellos construyen sus propios objetos.
Es verdad que a menudo lo hacen por abstracción de objetos reales (naturales y sociales); más aún,
el trabajo del lógico o del matemático satisface a menudo las necesidades del naturalista, del
sociólogo o del tecnólogo, y es por esto que la sociedad los tolera y, ahora, hasta los estimula. Pero
la materia prima que emplean los lógicos y los matemáticos no es fáctica sino ideal. Por ejemplo, el
concepto de número abstracto nació, sin duda, de la coordinación (correspondencia biunívoca) de
conjuntos de objetos materiales, tales como dedos, por una parte, y guijarros, por la otra; pero no
por esto aquel concepto se reduce a esta operación manual, ni a los signos que se emplean para
representarlo. Los números no existen fuera de nuestros cerebros, y aun allí dentro existen al nivel
conceptual, y no al nivel fisiológico. Los objetos materiales son numerables siempre que sean
discontinuos; pero no son números; tampoco son números puros (abstractos) sus cualidades o
relaciones. En el mundo real encontramos 3 libros, en el mundo de la ficción construimos 3 platos
voladores. ¿Pero quién vio jamás un 3, un simple 3? La lógica y la matemática, por ocuparse de
inventar entes formales y de establecer relaciones entre ellos, se llaman a menudo ciencias formales,
precisamente porque sus objetos no son cosas ni procesos, sino, para emplear el lenguaje pictórico,
formas en las que se puede verter un surtido ilimitado de contenidos, tanto fácticos como empíricos.
Esto es, podemos establecer correspondencias entre esas formas (u objetos formales), por una parte,
y cosas y procesos pertenecientes a cualquier nivel de la realidad por la otra. Así es como la física, la

14
química, la fisiología, la psicología, la economía, y las demás ciencias recurren a la matemática,
empleándola como herramienta para realizar la más precisa reconstrucción de las complejas
relaciones que se encuentran entre los hechos y entre los diversos aspectos de los hechos; dichas
ciencias no identifican las formas ideales con los objetos concretos, sino que interpretan las primeras
en términos de hechos y de experiencias (o, lo que es equivalente, formalizan enunciados fácticos).
Lo mismo vale para la lógica formal: algunas de sus partes —en particular, pero no exclusivamente,
la lógica proposicional bivalente— pueden hacerse corresponder a aquellas entidades psíquicas que
llamamos pensamientos. Semejante aplicación de las ciencias de la forma pura a la inteligencia del
mundo de los hechos, se efectúa asignando diferentes interpretaciones a los objetos formales. Estas
interpretaciones son, dentro de ciertos límites, arbitrarias; vale decir, se justifican por el éxito, la
conveniencia o la ignorancia. En otras palabras el significado fáctico o empírico que se les asigna a
los objetos formales no es una propiedad intrínseca de los mismos. De esta manera, las ciencias
formales jamás entran en conflicto con la realidad. Esto explica la paradoja de que, siendo formales,
se "aplican" a la realidad: en rigor no se aplican, sino que se emplean en la vida cotidiana y en las
ciencias fácticas a condición de que se les superpongan reglas de correspondencia adecuada. En
suma, la lógica y la matemática establecen contacto con la realidad a través del puente del lenguaje,
tanto el ordinario como el científico. Tenemos así una primera gran división de las ciencias, en
formales (o ideales) y fácticas (o materiales). Esta ramificación preliminar tiene en cuenta el objeto
o tema de las respectivas disciplinas; también da cuenta de la diferencia de especie entre los
enunciados que se proponen establecer las ciencias formales y las fácticas: mientras los enunciados
formales consisten en relaciones entre signos, los enunciados de las ciencias fácticas se refieren, en
su mayoría, a entes extracientíficos: a sucesos y procesos. Nuestra división también tiene en cuenta
el método por el cual se ponen a prueba los enunciados verificables: mientras las ciencias formales
se contentan con la lógica para demostrar rigurosamente sus teoremas (los que, sin embargo,
pudieron haber sido adivinados por inducción común o de otras maneras), las ciencias fácticas
necesitan más que la lógica formal: para confirmar sus conjeturas necesitan de la observación y/o
experimento. En otras palabras, las ciencias fácticas tienen que mirar las cosas, y, siempre que les
sea posible, deben procurar cambiarlas deliberadamente para intentar descubrir en qué medida sus
hipótesis se adecuan a los hechos. Cuando se demuestra un teorema lógico o matemático no se
recurre a la experiencia: el conjunto de postulados, definiciones, reglas de formación de las
expresiones dotadas de significado, y reglas de inferencia deductiva —en suma, la base de la teoría
dada—, es necesaria y suficiente para ese propósito. La demostración de los teoremas no es sino
una deducción: es una operación confinada a la esfera teórica, aun cuando a veces los teoremas
mismos (no sus demostraciones) sean sugeridos en alguna esfera extramatemática y aun cuando su
prueba (pero no su primer descubrimiento) pueda realizarse con ayuda de calculadoras electrónicas.
Por ejemplo, cualquier demostración rigurosa del teorema de Pitágoras prescinde de las mediciones,
y emplea figuras sólo como ayuda psicológica al proceso deductivo: que el teorema de Pitágoras
haya sido el resultado de un largo proceso de inducción conectado a operaciones prácticas de
mediciones de tierras, es objeto de la historia, la sociología y la psicología del conocimiento. La
matemática y la lógica son, en suma, ciencias deductivas. El proceso constructivo, en que la
experiencia desempeña un gran papel de sugerencias, se limita a la formación de los puntos de
partida (axiomas). En matemática la verdad consiste, por esto, en la coherencia del enunciado dado
con un sistema de ideas admitido previamente: por esto, la verdad matemática no es absoluta sino
relativa a ese sistema, en el sentido de que una proposición que es válida en una teoría puede dejar
de ser lógicamente verdadera en otra teoría. (Por ejemplo, en el sistema de aritmética que empleamos
para contar las horas del día, vale la proposición de 24 + 1 = 1.) Más aún las teorías matemáticas
abstractas, esto es, que contienen términos no interpretados (signos a los que no se atribuye un
significado fijo, y que por lo tanto pueden adquirir distintos significados) pueden desarrollarse sin
poner atención al problema de la verdad. Considérese el siguiente axioma de cierta teoría abstracta
(no interpretada): "Existe por lo menos un x tal que es F". Se puede dar un número ilimitado de
15
interpretaciones (modelos) de este axioma, dándose a x y F otros tantos significados. Si decimos
que S designa punto, obtenemos un modelo geométrico dado: si adoptamos la convención de que
L designa número, obtenemos un cierto modelo aritmético, y así sucesivamente. En cuanto
"llenamos" la forma vacía con un contenido específico (pero todavía matemático), obtenemos un
sistema de entes lógicos que tienen el privilegio de ser verdaderos o falsos dentro del sistema dado
de proposiciones: a partir de ahí tenemos que habérnoslas con el problema de la verdad matemática.
Aún así tan sólo las conclusiones (teoremas) tendrán que ser verdaderas: los axiomas mismos pueden
elegirse a voluntad. La batalla se habrá ganado si se respeta la coherencia lógica esto es, si no se
violan las leyes del sistema de lógica que se ha convenido en usar. En las ciencias fácticas, la situación
es enteramente diferente. En primer lugar, ellas no emplean símbolos vacíos (variables lógicas) sino
tan sólo símbolos interpretados; por ejemplo no involucran expresiones tales como 'x es F', que no
son verdaderas ni falsas. En segundo lugar, la racionalidad —esto es, la coherencia con un sistema
de ideas aceptado previamente— es necesaria pero no suficiente para los enunciados fácticos; en
particular la sumisión a algún sistema de lógica es necesaria pero no es una garantía de que se obtenga
la verdad. Además de la racionalidad, exigimos de los enunciados de las ciencias fácticas que sean
verificables en la experiencia, sea indirectamente (en el caso de las hipótesis generales), sea
directamente (en el caso de las consecuencias singulares de las hipótesis). Únicamente después que
haya pasado las pruebas de la verificación empírica podrá considerarse que un enunciado es
adecuado a su objeto, o sea que es verdadero, y aun así hasta nueva orden. Por eso es que el
conocimiento fáctico verificable se llama a menudo ciencia empírica. En resumidas cuentas, la
coherencia es necesaria pero no suficiente en el campo de las ciencias de hechos: para anunciar que
un enunciado es (probablemente) verdadero se requieren datos empíricos (proposiciones acerca de
observaciones o experimentos). En última instancia, sólo la experiencia puede decirnos si una
hipótesis relativa a cierto grupo de hechos materiales es adecuada o no. El mejor fundamento de
esta regla metodológica que acabamos de enunciar es que la experiencia le ha enseñado a la
humanidad que el conocimiento de hecho no es convencional, que si se busca la comprensión y el
control de los hechos debe partirse de la experiencia. Pero la experiencia no garantizará que la
hipótesis en cuestión sea la única verdadera: sólo nos dirá que es probablemente adecuada, sin
excluir por ello la posibilidad de que un estudio ulterior pueda dar mejores aproximaciones en la
reconstrucción conceptual del trozo de realidad escogido. El conocimiento fáctico, aunque racional,
es esencialmente probable: dicho de otro modo: la inferencia científica es una red de inferencias
deductivas (demostrativas) y probables (inconcluyentes). Las ciencias formales demuestran o
prueban: las ciencias fácticas verifican (confirman o disconfirman) hipótesis que en su mayoría son
provisionales. La demostración es completa y final; la verificación es incompleta y por eso
temporaria. La naturaleza misma del método científico impide la confirmación final de las hipótesis
fácticas. En efecto los científicos no sólo procuran acumular elementos de prueba de sus
suposiciones multiplicando el número de casos en que ellas se cumplen; también tratan de obtener
casos desfavorables a sus hipótesis, fundándose en el principio lógico de que una sola conclusión
que no concuerde con los hechos tiene más peso que mil confirmaciones. Por ello, mientras las
teorías formales pueden ser llevadas a un estado de perfección (o estancamiento), los sistemas
relativos a los hechos son esencialmente defectuosos: cumplen, pues, la condición necesaria para
ser perfectibles. En consecuencia, si el estudio de las ciencias formales vigoriza el hábito del rigor,
el estudio de las ciencias fáctiles puede inducirnos a considerar el mundo como inagotable, y al
hombre como una empresa inconclusa e interminable. Las diferencias de método, tipo de
enunciados y referentes que separan las ciencias fácticas de las formales, impiden que se las examine
conjuntamente más allá de cierto punto. Por ser una ficción seria, rigurosa y a menudo útil, pero
ficción al cabo, la ciencia formal requiere un tratamiento especial. En lo que sigue nos
concentraremos en la ciencia fáctica. Daremos un vistazo a las características peculiares de las
ciencias de la naturaleza y de la cultura en su estado actual, con la esperanza de que la ciencia futura
enriquezca sus cualidades o, al menos, de que las civilizaciones por venir hagan mejor uso del
16
conocimiento científico. Los rasgos esenciales del tipo de conocimiento que alcanzan las ciencias de
la naturaleza y de la sociedad son la racionalidad y la objetividad. Por conocimiento racional se
entiende: a) que está constituido por conceptos, juicios y raciocinios y no por sensaciones, imágenes,
pautas de conducta, etc. Sin duda, el científico percibe, forma imágenes (por ejemplo, modelos
visualizables) y hace operaciones; por tanto el punto de partida como el punto final de su trabajo
son ideas; b) que esas ideas pueden combinarse de acuerdo con algún conjunto de reglas lógicas con
el fin de producir nuevas ideas (inferencia deductiva). Estas no son enteramente nuevas desde un
punto de vista estrictamente lógico, puesto que están implicadas por las premisas de la deducción;
pero no gnoseológicamente nuevas en la medida en que expresan conocimientos de los que no se
tenía conciencia antes de efectuarse la deducción; c) que esas ideas no se amontonan caóticamente
o, simplemente, en forma cronológica, sino que se organizan en sistemas de ideas, esto es en
conjuntos ordenados de proposiciones (teorías). Que el conocimiento científico de la realidad es
objetivo, significa: a) que concuerda aproximadamente con su objeto; vale decir que busca alcanzar
la verdad fáctica; b) que verifica la adaptación de las ideas a los hechos recurriendo a un comercio
peculiar con los hechos (observación y experimento), intercambio que es controlable y hasta cierto
punto reproducible. Ambos rasgos de la ciencia fáctica, la racionalidad y la objetividad, están
íntimamente soldados. Así, por ejemplo, lo que usualmente se verifica por medio del experimento
es alguna consecuencia —extraída por vía deductiva— de alguna hipótesis; otro ejemplo: el cálculo
no sólo sigue a la observación, sino que siempre es indispensable para planearla y registrarla. La
racionalidad y objetividad del conocimiento científico pueden analizarse en un cúmulo de
características a las que pasaremos revista en lo que sigue.

3. Inventario de las principales características de la CIENCIA FÁCTICA


1) El conocimiento científico es fáctico: parte de los hechos, los respeta hasta cierto punto, y siempre
vuelve a ellos. La ciencia intenta describir los hechos tal como son, independientemente de su valor
emocional o comercial: la ciencia no poetiza los hechos ni los vende, si bien sus hazañas son una
fuente de poesía y de negocios. En todos los campos, la ciencia comienza estableciendo los hechos;
esto requiere curiosidad impersonal, desconfianza por la opinión prevaleciente, y sensibilidad a la
novedad. Los enunciados fácticos confirmados se llaman usualmente "datos empíricos"; se obtienen
con ayuda de teorías (por esquemáticas que sean) y son a su vez la materia prima de la elaboración
teórica. Una subclase de datos empíricos es de tipo cuantitativo; los datos numéricos y métricos se
disponen a menudo en tablas, las más importantes de las cuales son las tablas de constantes (tales
como las de los puntos de fusión de las diferentes sustancias). Pero la recolección de datos y su
ulterior disposición en tablas no es la finalidad principal de la investigación: la información de esta
clase debe incorporarse a teorías si ha de convertirse en una herramienta para la inteligencia y la
aplicación. ¿De qué sirve conocer el peso específico del hierro si carecemos de fórmulas mediante
las cuales podemos relacionarlos con otras cantidades? No siempre es posible, ni siquiera deseable,
respetar enteramente los hechos cuando se los analiza, y no hay ciencia sin análisis, aun cuando el
análisis no sea sino un medio para la reconstrucción final de los todos. El físico atómico perturba el
átomo al que desea espiar; el biólogo modifica e incluso puede matar al ser vivo que analiza; el
antropólogo empeñado en el estudio de campo de una comunidad provoca en ella ciertas
modificaciones. Ninguno de ellos aprehende su objeto tal como es, sino tal como queda modificado
por sus propias operaciones; sin embargo, en todos los casos tales cambios son objetivos, y se
presume que pueden entenderse en términos de leyes: no son conjurados arbitrariamente por el
experimentador. Más aún, en todos los casos el investigador intenta describir las características y el
monto de la perturbación que produce en el acto del experimento; procura, en suma estimar la
desviación o "error" producido por su intervención activa. Porque los científicos actúan haciendo

17
tácitamente la suposición de que el mundo existiría aun en su ausencia, aunque desde luego, no
exactamente de la misma manera.
2) El conocimiento científico trasciende los hechos: descarta los hechos, produce nuevos hechos, y
los explica. El sentido común parte de los hechos y se atiene a ellos: a menudo se imita al hecho
aislado, sin ir muy lejos en el trabajo de correlacionarlo con otros o de explicarlo. En cambio, la
investigación científica no se limita a los hechos observados: los científicos exprimen la realidad a
fin de ir más allá de las apariencias; rechazan el grueso de los hechos percibidos, por ser un montón
de accidentes, seleccionan los que consideran que son relevantes, controlan hechos y, en lo posible,
los reproducen. Incluso producen cosas nuevas desde instrumentos hasta partículas elementales;
obtienen nuevos compuestos químicos, nuevas variedades vegetales y animales, y al menos en
principio, crean nuevas pautas de conducta individual y social. Más aún, los científicos usualmente
no aceptan nuevos hechos a menos que puedan certificar de alguna manera su autenticidad; y esto
se hace, no tanto contrastándolos con otros hechos, cuanto mostrando que son compatibles con lo
que se sabe. Los científicos descartan las imposturas y los trucos mágicos porque no encuadran en
hipótesis muy generales y fidedignas, que han sido puestas a prueba en incontables ocasiones. Vale
decir, los científicos no consideran su propia experiencia individual como un tribunal inapelable; se
fundan, en cambio, en la experiencia colectiva y en la teoría. Hay más: el conocimiento científico
racionaliza la experiencia en lugar de limitarse a describirla; la ciencia da cuenta de los hechos no
inventariándolos sino explicándolos por medio de hipótesis (en particular, enunciados de leyes) y
sistemas de hipótesis (teorías). Los científicos conjeturan lo que hay tras los hechos observados, y
de continuo inventan conceptos (tales como los del átomo, campo, masa, energía, adaptación,
integración, selección, clase social, o tendencia histórica) que carecen de correlato empírico, esto es,
que no corresponden a preceptos, aun cuando presumiblemente se refieren a cosas, cualidades o
relaciones existentes objetivamente. No percibimos los campos eléctricos o las clases sociales:
inferimos su existencia a partir de hechos experimentables y tales conceptos son significativos tan
sólo en ciertos contextos teóricos. Este trascender la experiencia inmediata, ese salto del nivel
observacional al teórico, le permite a la ciencia mirar con desconfianza los enunciados sugeridos por
meras coincidencias; le permite predecir la existencia real de las cosas y procesos ocultos a primera
vista pero que instrumentos (materiales o conceptuales) más potentes pueden descubrir. Las
discrepancias entre las previsiones teóricas y los hallazgos empíricos figuran entre los estímulos más
fuertes para edificar teorías nuevas y diseñar nuevos experimentos. No son los hechos por sí mismos
sino su elaboración teórica y la comparación de las consecuencias de las teorías con los datos
observacionales, la principal fuente del descubrimiento de nuevos hechos.
3) La ciencia es analítica: la investigación científica aborda problemas circunscriptos, uno a uno, y
trata de descomponerlo todo en elementos (no necesariamente últimos o siquiera reales). La
investigación científica no se planta cuestiones tales como "¿Cómo es el universo en su conjunto?",
o "¿Cómo es posible el conocimiento?" Trata, en cambio, de entender toda situación total en
términos de sus componentes; intenta descubrir los elementos que explican su integración. Los
problemas de la ciencia son parciales y así son también, por consiguiente, sus soluciones; pero, más
aún: al comienzo los problemas son estrechos o es preciso estrecharlos. Pero, a medida que la
investigación avanza, su alcance se amplía. Los resultados de la ciencia son generales, tanto en el
sentido de que se refieren a clases de objetos (por ejemplo, la lluvia), como en que están, o tienden
a ser incorporados en síntesis conceptuales llamadas teorías. El análisis, tanto de los problemas
como de las cosas, no es tanto un objetivo como una herramienta para construir síntesis teóricas.
La ciencia auténtica no es atomista ni totalista. La investigación comienza descomponiendo sus
objetos a fin de descubrir el "mecanismo" interno responsable de los fenómenos observados. Pero
el desmontaje del mecanismo no se detiene cuando se ha investigado la naturaleza de sus partes; el
próximo paso es el examen de la interdependencia de las partes, y la etapa final es la tentativa de
reconstruir el todo en términos de sus partes interconectadas. El análisis no acarrea el descuido de

18
la totalidad; lejos de disolver la integración, el análisis es la única manera conocida de descubrir
cómo emergen, subsisten y se desintegran los todos. La ciencia no ignora la síntesis: lo que sí rechaza
es la pretensión irracionalista de que las síntesis pueden ser aprehendidas por una intuición especial,
sin previo análisis.
4) La investigación científica es especializada: una consecuencia del enfoque analítico de los
problemas es la especialización. No obstante la unidad del método científico, su aplicación depende,
en gran medida, del asunto; esto explica la multiplicidad de técnicas y la relativa independencia de
los diversos sectores de la ciencia. Sin embargo, es menester no exagerar la diversidad de las ciencias
al punto de borrar su unidad metodológica. El viejo dualismo materia-espíritu había sugerido la
división de las ciencias en Naturwissenschaften, o ciencias de la naturaleza, y Geisteswissenschaften,
o ciencias del espíritu. Pero estos géneros difieren en cuanto al asunto, a las técnicas y al grado de
desarrollo, no así en lo que respecta al objetivo, método y alcance. El dualismo razón-experiencia
había sugerido, a su vez, la división de las ciencias fácticas en racionales y empíricas. Menos
sostenible aún es la dicotomía ciencias deductivas—ciencias inductivas, ya que toda empresa
científica —sin excluir el dominio de las ciencias formales— es tan inductiva como deductiva, sin
hablar de otros tipos de inferencia. La especialización no ha impedido la formación de campos
interdisciplinarios tales como la biofísica, la bioquímica, la psicofisiología, la psicología social, la
teoría de la información, la cibernética, o la investigación operacional. Con todo, la investigación
tiende a estrechar la visión del científico individual; un único remedio ha resultado eficaz contra la
unilateralidad profesional, y es una dosis de filosofía.
5) El conocimiento científico es claro y preciso: sus problemas son distintos, sus resultados son
claros. El conocimiento ordinario, en cambio, usualmente es vago e inexacto; en la vida diaria nos
preocupamos poco por definiciones precisas, descripciones exactas, o mediciones afinadas: si éstas
nos preocuparan demasiado, no lograríamos marchar al paso de la vida. La ciencia torna impreciso
lo que el sentido común conoce de manera nebulosa; pero, desde luego la ciencia es mucho más que
sentido común organizado: aunque proviene del sentido común, la ciencia constituye una rebelión
contra su vaguedad y superficialidad. El conocimiento científico procura la precisión; nunca está
enteramente libre de vaguedades, pero se las ingenia para mejorar la exactitud; nunca está del todo
libre de error, pero posee una técnica única para encontrar errores y para sacar provecho de ellos.
La claridad y la precisión se obtienen en ciencia de las siguientes maneras: a) los problemas se
formulan de manera clara; lo primero, y a menudo lo más difícil, es distinguir cuáles son los
problemas; ni hay artillería analítica o experimental que pueda ser eficaz si no se ubica
adecuadamente al enemigo; b) la ciencia parte de nociones que parecen claras al no iniciado; y las
complica, purifica y eventualmente las rechaza; la transformación progresiva de las nociones
corrientes se efectúa incluyéndolas en esquemas teóricos. Así, por ejemplo, "distancia" adquiere un
sentido preciso al ser incluida en la geometría métrica y en la física; c) la ciencia define la mayoría de
sus conceptos: algunos de ellos se definen en términos de conceptos no definidos o primitivos,
otros de manera implícita, esto es, por la función que desempeñan en un sistema teórico (definición
contextual). Las definiciones son convencionales, pero no se las elige caprichosamente: deben ser
convenientes y fértiles. (¿De qué vale, por ejemplo, poner un nombre especial a las muchachas
pecosas que estudian ingeniería y pesan más de 50 kg?) Una vez que se ha elegido una definición, el
discurso restante debe guardarte fidelidad si se quiere evitar inconsecuencias; d) la ciencia crea
lenguajes artificiales inventando símbolos (palabras, signos matemáticos, símbolos químicos, etc.; a
estos signos se les atribuye significados determinados por medio de reglas de designación (tal como
"en el presente contexto H designa el elemento de peso atómico unitario"). los símbolos básicos
serán tan simples como sea posible, pero podrán combinarse conforme a reglas determinadas para
formar configuraciones tan complejas como sea necesario (las leyes de combinación de los signos
que intervienen en la producción de expresiones complejas se llaman reglas de formación); e) la

19
ciencia procura siempre medir y registrar los fenómenos. Los números y las formas geométricas son
de gran importancia en el registro, la descripción y la inteligencia de los sucesos y procesos. En lo
posible, tales datos debieran disponerse en tablas o resumirse en fórmulas matemáticas. Sin
embargo, la formulación matemática, deseable como es, no es una condición indispensable para que
el conocimiento sea científico; lo que caracteriza el conocimiento científico es la exactitud en un
sentido general antes que la exactitud numérica o métrica, la que es inútil si media la vaguedad
conceptual. Más aún, la investigación científica emplea, en medida creciente, capítulos no numéricos
y no métricos de la matemática, tales como la topología, la teoría de los grupos, o el álgebra de las
clases, que no son ciencias del número y la figura, sino de la relación.
6) El conocimiento científico es comunicable: no es inefable sino expresable, no es privado sino
público. El lenguaje científico comunica información a quienquiera haya sido adiestrado para
entenderlo. Hay, ciertamente, sentimientos oscuros y nociones difusas, incluso en el desarrollo de
la ciencia (aunque no en la presentación final del trabajo científico); pero es preciso aclararlos antes
de poder estimar su adecuación. Lo que es inefable puede ser propio de la poesía o de la música, no
de la ciencia, cuyo lenguaje es informativo y no expresivo o imperativo. La inefabilidad misma es,
en cambio, tema de investigación científica, sea psicológica o lingüística. La comunicabilidad es
posible gracias a la precisión; y es a su vez una condición necesaria para la verificación de los datos
empíricos y de las hipótesis científicas. Aun cuando, por "razones" comerciales o políticas, se
mantengan en secreto durante algún tiempo unos trozos del saber, deben ser comunicables en
principio para que puedan ser considerados científicos. La comunicación de los resultados y de las
técnicas de la ciencia no sólo perfecciona la educación general, sino que multiplica las posibilidades
de su confirmación o refutación. La verificación independiente ofrece las máximas garantías técnicas
y morales, y ahora es posible, en muchos campos, en escala internacional. Por esto, los científicos
consideran el secreto en materia científica como enemigo del progreso de la ciencia; la política del
secreto científico es, en efecto, el más eficaz originador de estancamiento en la cultura, en la
tecnología y en la economía, así como una fuente de corrupción moral.
7) El conocimiento científico es verificable: debe aprobar el examen de la experiencia. A fin de
explicar un conjunto de fenómenos, el científico inventa conjeturas fundadas de alguna manera en
el saber adquirido. Sus suposiciones pueden ser cautas o audaces simples o complejas; en todo caso
deben ser puestas a prueba. El test de las hipótesis fácticas es empírico, esto es, observacional o
experimental. El haberse dado cuenta de esta verdad hoy tan trillada es la contribución inmortal de
la ciencia helenística. En ese sentido, las ideas científicas (incluidos los enunciados de leyes) no son
superiores a las herramientas o a los vestidos: si fracasan en la práctica, fracasan por entero. La
experimentación puede calar más profundamente que la observación, porque efectúa cambios en
lugar de limitarse a registrar variaciones: aísla y controla las variables sensibles o pertinentes. Sin
embargo, los resultados experimentales son pocas veces interpretables de una sola manera. Más aún,
no todas las ciencias pueden experimentar; y en ciertos capítulos de la astronomía y de la economía
se alcanza una gran exactitud sin ayuda del experimento. La ciencia fáctica es por esto empírica en
el sentido de que la comprobación de sus hipótesis involucra la experiencia; pero no es
necesariamente experimental y en particular no es agotada por las ciencias de laboratorio, tales como
la física. La prescripción de que las hipótesis científicas deben ser capaces de aprobar el examen de
la experiencia es una de las reglas del método científico; la aplicación de esta regla depende del tipo
de objeto, del tipo de la hipótesis en cuestión y de los medios disponibles. Por esto se necesita una
multitud de técnicas de verificación empírica. La verificación de la fórmula de un compuesto
químico se hace de manera muy diferente que la verificación de un cálculo astronómico o de una
hipótesis concerniente al pasado de las rocas o de los hombres. Las técnicas de verificación
evolucionan en el curso del tiempo; sin embargo, siempre consisten en poner a prueba
consecuencias particulares de hipótesis generales (entre ellas, enunciados de leyes). Siempre se
reducen a mostrar que hay, o que no hay, algún fundamento para creer que las suposiciones en

20
cuestión corresponden a los hechos observados o a los valores medidos. La verificabilidad hace a la
esencia del conocimiento científico; si así no fuera, no podría decirse que los científicos procuran
alcanzar conocimiento objetivo.
8) La investigación científica es metódica: no es errática sino planeada. Los investigadores no tantean
en la oscuridad: saben lo que buscan y cómo encontrarlo. El planeamiento de la investigación no
excluye el azar; sólo que, a hacer un lugar a los acontecimientos imprevistos es posible aprovechar
la interferencia del azar y la novedad inesperada. Más aún a veces el investigador produce el azar
deliberadamente. Por ejemplo, para asegurar la uniformidad de una muestra, y para impedir una
preferencia inconsciente en la elección de sus miembros, a menudo se emplea la técnica de la
casualización, en que la decisión acerca de los individuos que han de formar parte de ciertos grupos
se deja librada a una moneda o a algún otro dispositivo. De esta manera, el investigador pone el azar
al servicio de orden: en lo cual no hay paradoja, porque el acaso opera al nivel de los individuos, al
par que el orden opera en el grupo con totalidad. Todo trabajo de investigación se funda sobre el
conocimiento anterior, y en particular sobre las conjeturas mejor confirmadas. (Uno de los muchos
problemas de la metodología es, precisamente averiguar cuáles son los criterios para decidir si una
hipótesis dada puede considerarse razonablemente confirmada, eso es, si el peso que le acuerdan los
fundamentos inductivos y de otro orden basta para conservarla). Más aun, la investigación procede
conforme a reglas y técnicas que han resultado eficaces en el pasado pero que son perfeccionadas
continuamente, no sólo a la luz de nuevas experiencias, sino también de resultados del examen
matemático y filosófico. Una de las reglas de procedimiento de la ciencia fáctica es la siguiente: las
variables relevantes (o que se sospecha que son sensibles) debieran variarse una cada vez. La ciencia
fáctica emplea el método experimental concebido en un sentido amplio. Este método consiste en el
test empírico de conclusiones particulares extraídas de hipótesis generales (tales como "los gases se
dilatan cuando se los calienta" o "los hombres se rebelan cuando se los oprime"). Este tipo de
verificación requiere la manipulación de la observación y el registro de fenómenos; requiere también
el control de las variables o factores relevantes; siempre que fuera posible debiera incluir la
producción artificial deliberada de los fenómenos en cuestión, y en todos los casos exige el análisis
de los datos obtenidos en el curso de los procedimientos empíricos. Los datos aislados y crudos son
inútiles y no son dignos de confianza; es preciso elaborarlos, organizarlos y confrontarlos con las
conclusiones teóricas. El método científico no provee recetas infalibles para encontrar la verdad:
sólo contiene un conjunto de prescripciones falibles (perfectibles) para el planeamiento de
observaciones y experimentos, para la interpretación de sus resultados, y para el planteo mismo de
los problemas. Es, en suma, la manera en que la ciencia inquiere en lo desconocido. Subordinadas
a las reglas generales del método científico, y al mismo tiempo en apoyo de ellas, encontramos las
diversas técnicas que se emplean en las ciencias especiales: las técnicas para pesar, para observar por
el microscopio, para analizar compuestos químicos, para dibujar gráficos que resumen datos
empíricos, para reunir informaciones acerca de costumbres, etc. La ciencia es pues, esclava de sus
propios métodos y técnicas mientras éstos tienen éxito: pero es libre de multiplicar y de modificar
en todo momento sus reglas, en aras de mayor racionalidad y objetividad.
9) El conocimiento científico es sistemático: una ciencia no es un agregado de informaciones
inconexas, sino un sistema de ideas conectadas lógicamente entre sí. Todo sistema de ideas
caracterizado por cierto conjunto básico (pero refutable) de hipótesis peculiares, y que procura
adecuarse a una clase de hechos, es una teoría. Todo capítulo de una ciencia especial contiene teorías
o sistemas de ideas que están relacionadas lógicamente entre sí, esto es, que están ordenadas
mediante la relación "implica". Esta conexión entre las ideas puede calificarse de orgánica, en el
sentido de que la sustitución de cualquiera de las hipótesis básicas produce un cambio radical en la
teoría o grupo de teorías. El fundamento de una teoría dada no es un conjunto de hechos sino, más
bien, un conjunto de principios, o hipótesis de cierto grado de generalidad (y, por consiguiente, de
cierta fertilidad lógica). Las conclusiones (o teoremas) pueden extraerse de los principios, sea en la

21
forma natural, o con la ayuda de técnicas especiales que involucran operaciones matemáticas. El
carácter matemático del conocimiento científico —esto es, el hecho de que es fundado, ordenado y
coherente— es lo que lo hace racional. La racionalidad permite que el progreso científico se efectúe
no sólo por la acumulación gradual de resultados, sino también por revoluciones. Las revoluciones
científicas no son descubrimientos de nuevos hechos aislados, ni son perfeccionamientos en la
exactitud de las observaciones, sino que consisten en la sustitución de hipótesis de gran alcance
(principios) por nuevos axiomas, y en el reemplazo de teorías enteras por otros sistemas teóricos.
Sin embargo, semejantes revoluciones son a menudo provocadas por el descubrimiento de nuevos
hechos de los que no dan cuenta las teorías anteriores, aunque a veces se encuentran en el proceso
de comprobación de dichas teorías; y las nuevas teorías se tornan verificables en muchos casos,
merced a la invención de nuevas técnicas de medición, de mayor precisión.
10) El conocimiento científico es general: ubica los hechos singulares en pautas generales, los
enunciados particulares en esquemas amplios. El científico se ocupa del hecho singular en la medida
en que éste es miembro de una clase o caso de una ley; más aún, presupone que todo hecho es
clasificable y legal. No es que la ciencia ignore la cosa individual o el hecho irrepetible; lo que ignora
es el hecho aislado. Por esto la ciencia no se sirve de los datos empíricos —que siempre son
singulares— como tales; éstos son mudos mientras no se los manipula y convierte en piezas de
estructuras teóricas. En efecto, uno de los principios ontológicos que subyacen a la investigación
científica es que la variedad y aun la unicidad en algunos respectos son compatibles con la
uniformidad y la generalidad en otros respectos. Al químico no le interesa ésta o aquella hoguera,
sino el proceso de combustión en general: trata de descubrir lo que comparten todos los singulares.
El científico intenta exponer los universales que se esconden en el seno de los propios singulares;
es decir, no considera los universales ante rem ni post rem sino in re: en la cosa, y no antes o después
de ella. Los escolásticos medievales clasificarían al científico moderno como realista inmanentista,
porque, al descartar los detalles al procurar descubrir los rasgos comunes a individuos que son
únicos en otros respectos, al buscar las variables pertinentes (o cualidades esenciales) y las relaciones
constantes entre ellas (las leyes), el científico intenta exponer la naturaleza esencial de las cosas
naturales y humanas. El lenguaje científico no contiene solamente términos que designan hechos
singulares y experiencias individuales, sino también términos generales que se refieren a clases de
hechos. La generalidad del lenguaje de la ciencia no tiene, sin embargo, el propósito de alejar a la
ciencia de la realidad concreta: por el contrario, la generalización es el único medio que se conoce
para adentrarse en lo concreto, para apresar la esencia de las cosas (sus cualidades y leyes esenciales).
Con esto, el científico evita en cierta medida las confusiones y los engaños provocados por el flujo
deslumbrador de los fenómenos. Tampoco se asfixia la utilidad en la generalidad: por el contrario,
los esquemas generales de la ciencia encuadran una cantidad ilimitada de casos específicos, proveen
leyes de amplio alcance que incluyen y corrigen todas las recetas válidas de sentido común y de la
técnica precientífica.
11) El conocimiento científico es legal: busca leyes (de la naturaleza y de la cultura) y las aplica. El
conocimiento científico inserta los hechos singulares en pautas generales llamadas "leyes naturales"
o "leyes sociales". Tras el desorden y la fluidez de las apariencias, la ciencia fáctica descubre las
pautas regulares de la estructura y del proceso del ser y del devenir. En la medida en que la ciencia
es legal, es esencialista: intenta llegar a la raíz de las cosas. Encuentra la esencia en las variables
relevantes y en las relaciones invariantes entre ellas. Hay leyes de hechos y leyes mediante las cuales
se pueden explicar otras leyes. El principio de Arquímedes pertenece a la primera clase; pero a su
vez puede deducirse de los principios generales de la mecánica; por consiguiente, ha dejado de ser
un principio independiente, y ahora es un teorema deducible de hipótesis de nivel más elevado. Las
leyes de la física proveen la base de las leyes de las combinaciones químicas; las leyes de la fisiología
explican ciertos fenómenos psíquicos; y las leyes de la economía pertenecen a los fundamentos de
la sociología. Es decir, los enunciados de las leyes se organizan en una estructura de niveles.

22
Ciertamente, los enunciados de las leyes son transitorios; pero ¿son inmutables las leyes mismas? Si
se considera a las leyes como las pautas mismas del ser y del devenir, entonces debieran cambiar
junto con las cosas mismas; por lo menos, debe admitirse que, al emerger nuevos niveles, sus
cualidades peculiares se relacionan entre sí mediante nuevas leyes. Por ejemplo, las leyes de la
economía han emergido en el curso de la historia sobre la base de otras leyes (biológicas y
psicológicas) y, más aún, algunas de ellas cambian con el tipo de organización social. Por supuesto,
no todos los hechos singulares conocidos han sido ya convertidos en casos particulares de leyes
generales; en particular los sucesos y procesos de los niveles superiores han sido legalizados sólo en
pequeña medida. Pero esto se debe en parte al antiguo prejuicio de que lo humano no es legal, así
como a la antigua creencia pitagórica de que solamente las relaciones numéricas merecen llamarse
"leyes científicas". Debiera emplearse el stock íntegro de las herramientas conceptuales en la
búsqueda de las leyes de la mente y de la cultura; más aún, acaso el stock de que se dispone es
insuficiente y sea preciso inventar herramientas radicalmente nuevas para tratar los fenómenos
mentales y culturales, tal como el nacimiento de la mecánica moderna hubiera sido imposible sin la
invención expresa del cálculo infinitesimal. Pero el ulterior avance en el progreso de la legalización
de los fenómenos no físicos requiere por sobre todo, una nueva actitud frente al concepto mismo
de ley científica. En primer lugar, es preciso comprender que hay muchos tipos de leyes (aun dentro
de una misma ciencia), ninguno de los cuales es necesariamente mejor que los tipos restantes. En
segundo lugar, debiera tornarse un lugar común entre los científicos de la cultura en el que las leyes
no se encuentran por mera observación y el simple registro sino poniendo a prueba hipótesis: los
enunciados de leyes no son, en efecto, sino hipótesis confirmadas. Y ¿cómo habríamos de
emprender la confección de hipótesis científicas si no presumiéramos que todo hecho singular es
legal?
12) La ciencia es explicativa: intenta explicar los hechos en términos de leyes, y las leyes en términos
de principios. Los científicos no se conforman con descripciones detalladas; además de inquirir
cómo son las cosas, procuran responder al por qué: por qué ocurren los hechos como ocurren y no
de otra manera. La ciencia deduce proposiciones relativas a hechos singulares a partir de leyes
generales, y deduce las leyes a partir de enunciados nomológicos aún más generales (principios). Por
ejemplo, las leyes de Kepler explicaban una colección de hechos observados del movimiento
planetario; y Newton explicó esas leyes deduciéndolas de principios generales explicación que
permitió a otros astrónomos dar cuenta de las irregularidades de las órbitas de los planetas que eran
desconocidas para Kepler. Solía creerse que explicar es señalar la causa, pero en la actualidad se
reconoce que la explicación causal no es sino un tipo de explicación científica. La explicación
científica se efectúa siempre en términos de leyes, y las leyes causales no son sino una subclase de
las leyes científicas. Hay diversos tipos de leyes científicas y, por consiguiente, hay una variedad de
tipos de explicación científica: morfológicas, cinemáticas, dinámicas, de composición, de
conservación, de asociación, de tendencias globales, dialécticas, teleológicas, etc. La historia de la
ciencia enseña que las explicaciones científicas se corrigen o descartan sin cesar. ¿Significa esto que
son todas falsas? En las ciencias fácticas, la verdad y el error no son del todo ajenos entre sí: hay
verdades parciales y errores parciales; hay aproximaciones buenas y otras malas. La ciencia no obra
como Penélope, sino que emplea la tela tejida ayer. Las explicaciones científicas no son finales pero
son perfectibles.
13) El conocimiento científico es predictivo: Trasciende la masa de los hechos de experiencia,
imaginando cómo puede haber sido el pasado y cómo podrá ser el futuro. La predicción es, en
primer lugar, una manera eficaz de poner a prueba las hipótesis; pero también es la clave del control
y aún de la modificación del curso de los acontecimientos. La predicción científica en contraste con
la profecía se funda sobre leyes y sobre informaciones específicas fidedignas, relativas al estado de
cosas actual o pasado. No es del tipo "ocurrirá E", sino más bien de este otro: "ocurrirá E1 siempre
que suceda C1, pues siempre que sucede C es seguido por o está asociado con E". C y E designan

23
clases de sucesos en tanto que C1 y E1 denotan los hechos específicos que se predicen sobre la base
del o los enunciados que conectan a C con E en general. La predicción científica se caracteriza por
su perfectibilidad antes que por su certeza. Más aún, las predicciones que se hacen con la ayuda de
reglas empíricas son a veces más exactas que las predicciones penosamente elaboradas con
herramientas científicas (leyes, informaciones específicas y deducciones); tal es el caso con
frecuencia de los pronósticos meteorológicos, de la prognosis médica y de la profecía política. Pero
en tanto que la profecía no es perfectible y no puede usarse para poner a prueba hipótesis, la
predicción es perfectible y, si falla, nos obliga a corregir nuestras suposiciones, alcanzando así una
inteligencia más profunda. Por esto la profecía exitosa no es un aporte al conocimiento teórico, en
tanto que la predicción científica fallida puede contribuir a él. Puesto que la predicción científica
depende de leyes y de ítems de información específica, puede fracasar por inexactitud de los
enunciados de las leyes o por imprecisión de la información disponible. (También puede fallar, por
supuesto, debido a errores cometidos en el proceso de inferencia lógica o matemática que conduce
de las premisas (leyes e informaciones) a la conclusión (enunciado predictivo)). Una fuente
importante de fallos en la predicción es el conjunto de suposiciones acerca de la naturaleza del objeto
(sistema físico, organismo vivo, grupo social, etc.) cuyo comportamiento ha de predecirse. Por
ejemplo, puede ocurrir que creamos que el sistema en cuestión está suficientemente aislado de las
perturbaciones exteriores, cuando en rigor éstas cuentan a la larga; dado que la aislación es una
condición necesaria de la descripción del sistema con ayuda de un puñado de enunciados de leyes,
no debiera sorprender que fuera tan difícil predecir el comportamiento de sistemas abiertos tales
como el océano, la atmósfera, el ser vivo o el hombre. Puesto que la predicción científica se funda
en las leyes científicas, hay tantas clases de predicciones como clases de enunciado nomológicos.
Algunas leyes nos permiten predecir resultados individuales, aunque no sin error si la predicción se
refiere al valor de una cantidad. Otras leyes; incapaces de decirnos nada acerca del comportamiento
de los individuos (átomos, personas, etc.) son en cambio la base para la predicción de algunas
tendencias globales y propiedades colectivas de colecciones numerosas de elementos similares; son
las leyes estadísticas. Las leyes de la historia son de este tipo; y por esto es casi imposible la predicción
de los sucesos individuales en el campo de la historia, pudiendo preverse solamente el curso general
de los acontecimientos.
14) La ciencia es abierta: no reconoce barreras a priori que limiten el conocimiento. Si un
conocimiento fáctico no es refutable en principio, entonces no pertenece a la ciencia sino a algún
otro campo. Las nociones acerca de nuestro medio, natural o social, o acerca del yo, no son finales:
están todas en movimiento, todas son falibles. Siempre es concebible que pueda surgir una nueva
situación (nuevas informaciones o nuevos trabajos teóricos) en que nuestras ideas, por firmemente
establecidas que parezcan, resulten inadecuadas en algún sentido. La ciencia carece de axiomas
evidentes: incluso los principios más generales y seguros son postulados que pueden ser corregidos
o reemplazados. A consecuencia del carácter hipotético de los enunciados de leyes, y de la naturaleza
perfectible de los datos empíricos la ciencia no es un sistema dogmático y cerrado sino controvertido
y abierto. O, más bien, la ciencia es abierta como sistema porque es falible y por consiguiente capaz
de progresar. En cambio, puede argüirse que la ciencia es metodológicamente cerrada no en el
sentido de que las reglas del método científico sean finales sino en el sentido de que es
autocorrectiva: el requisito de la verificabilidad de las hipótesis científicas basta para asegurar el
progreso científico. Tan pronto como ha sido establecida una teoría científica, corre el peligro de
ser refutada o, al menos, de que se circunscriba su dominio. Un sistema cerrado de conocimiento
fáctico que excluya toda ulterior investigación, puede llamarse sabiduría pero es en rigor un detritus
de la ciencia. El sabio moderno, a diferencia del antiguo no es tanto un acumulador de
conocimientos como un generador de problemas. Por consiguiente, prefiere los últimos números
de las revistas especializadas a los manuales, aun cuando estos últimos sean depósitos de verdad más
vastos y fidedignos que aquellas. El investigador moderno ama la verdad pero no se interesa por las

24
teorías irrefutables. Una teoría puede haber permanecido intocada no tanto por su alto contenido
de verdad cuanto porque nadie la ha usado. No se necesita emprender una investigación empírica
para probar la tautología de que ni siquiera los científicos se casan con solteronas. Los modernos
sistemas de conocimiento científico son como organismos en crecimiento: mientras están vivos
cambian sin pausa. Esta es una de las razones por las cuales la ciencia es éticamente valiosa: porque
nos recuerda que la corrección de errores es tan valiosa como el no cometerlos y que probar cosas
nuevas e inciertas es preferible a rendir culto a las viejas y garantizadas. La ciencia, como los
organismos, cambia a la vez internamente y debido a sus contactos con sus vecinos; esto es,
resolviendo sus problemas específicos y siendo útil en otros campos.
15) La ciencia es útil: porque busca la verdad, la ciencia es eficaz en la provisión de herramientas
para el bien y para el mal. El conocimiento ordinario se ocupa usualmente de lograr resultados
capaces de ser aplicados en forma inmediata; con ello no es suficientemente verdadero, con lo cual
no puede ser suficientemente eficaz. Cuando se dispone de un conocimiento adecuado de las cosas
es posible manipularlas con éxito. La utilidad de la ciencia es una consecuencia de su objetividad;
sin proponerse necesariamente alcanzar resultados aplicables, la investigación los provee a la corta
o a la larga. La sociedad moderna paga la investigación porque ha aprendido que la investigación
rinde. Por este motivo, es redundante exhortar a los científicos a que produzcan conocimientos
aplicables: no pueden dejar de hacerlo. Es cosa de los técnicos emplear el conocimiento científico
con fines prácticos, y los políticos son los responsables de que la ciencia y la tecnología se empleen
en beneficio de la humanidad. Los científicos pueden, a lo sumo, aconsejar acerca de cómo puede
hacerse uso racional, eficaz y bueno de la ciencia. La técnica precientífica era primordialmente una
colección de recetas pragmáticas no entendidas, muchas de las cuales desempeñaban la función de
ritos mágicos. La técnica moderna es, en medida creciente —aunque no exclusivamente—, ciencia
aplicada. La ingeniería es física y química aplicadas, la medicina es biología aplicada, la psiquiatría es
psicología y neurología aplicadas; y debiera llegar el día en que la política se convierta en sociología
aplicada. Pero la tecnología es más que ciencia aplicada: en primer lugar porque tiene sus propios
procedimientos de investigación, adaptados a circunstancias concretas que distan de los casos puros
que estudia la ciencia. En segundo lugar, porque toda rama de la tecnología contiene un cúmulo de
reglas empíricas descubiertas antes que los principios científicos en los que —si dichas reglas se
confirman— terminan por ser absorbidas. La tecnología no es meramente el resultado de aplicar el
conocimiento científico existente a los casos prácticos: la tecnología viva es esencialmente, el
enfoque científico de los problemas prácticos, es decir, el tratamiento de estos problemas sobre un
fondo de conocimiento científico y con ayuda del método científico. Por eso la tecnología, sea de
las cosas nuevas o de los hombres, es fuente de conocimientos nuevos. La conexión de la ciencia
con la tecnología no es por consiguiente asimétrica. Todo avance tecnológico plantea problemas
científicos cuya solución puede consistir en la invención de nuevas teorías o de nuevas técnicas de
investigación que conduzcan a un conocimiento más adecuado y a un mejor dominio del asunto. La
ciencia y la tecnología constituyen un ciclo de sistemas interactuantes que se alimentan el uno al
otro. El científico torna inteligible lo que hace el técnico y éste provee a la ciencia de instrumentos
y de comprobaciones; y lo que es igualmente importante el técnico no cesa de formular preguntas
al científico añadiendo así un motor externo al motor interno del progreso científico. La
continuación de la vida sobre la Tierra depende del ciclo de carbono: los animales se alimentan de
plantas, las que a su vez obtienen su carbono de lo que exhalan los animales. Análogamente la
continuación de la civilización moderna depende, en gran medida del ciclo del conocimiento: la
tecnología moderna come ciencia, y la ciencia moderna depende a su vez del equipo y del estímulo
que le provee una industria altamente tecnificada. Pero la ciencia es útil en más de una manera.
Además de constituir el fundamento de la tecnología, la ciencia es útil en la medida en que se la
emplea en la edificación de concepciones del mundo que concuerdan con los hechos, y en la medida
en que crea el hábito de adoptar una actitud de libre y valiente examen, en que acostumbra a la gente

25
a poner a prueba sus afirmaciones y a argumentar correctamente. No menor es la utilidad que presta
la ciencia como fuente de apasionantes rompecabezas filosóficos, y como modelo de la investigación
filosófica. En resumen, la ciencia es valiosa como herramienta para domar la naturaleza y remodelar
la sociedad; es valiosa en sí misma, como clave para la inteligencia del mundo y del yo; y es eficaz
en el enriquecimiento, la disciplina y la liberación de nuestra mente.

26
EL LENGUAJE

Podemos definir al lenguaje como un sistema de signos. Pero los signos no valen por sí mismos,
sino por las relaciones que mantienen con los otros signos. O sea, el lenguaje es una trama en la cual
cada signo adquiere su valor según la presencia o ausencia de otros signos. Pero ¿qué es un signo?,
signo es todo lo que remite algo que, para aparecer, no necesita estar presente, está presente a través
del signo en el acto de significar o representar que es, justamente, hacer presente lo ausente. De este
modo, comprendemos algo como signo cuando podemos contestar a que se refiere o qué significa,
o sea, cuando establecemos una relación entre el signo dado y lo que constituye su significado. Es
necesario distinguir aquí, en el ámbito del significado, entre designado y denotado:
DESIGNADO: El contenido significativo al que el signo remite: el sonido “mesa” (signo) remite
un conjunto de características que constituyen el significado del concepto-mesa.
DENOTADO: Es el correlato espacio-temporal de ese contenido significativo: el sonido “mesa”
(signo) remite también a la cosa-mueble-mesa sobre la que comemos o escribimos.

El designado no puede faltar, porque un signo sin significado no es tal, el significado define al signo.
El denotado, en cambio, no es necesario al signo. El sonido “centauro”, por ejemplo tiene un
significado paro no tiene denotado: el centauro existe como realidad espacio-temporal (Son signos
que no tienen denotado todos los que se refieren a hechos ficticios, a seres mitológicos, a personajes
literarios, a nombres abstractos, por ejemplo: centauro, fantasma, hombre mono, gato con ocho
patas, Superman, Hamlet, Don quijote, utopía, libertad, humanidad, etc.).

Relación entre Signo y Significado: Carácter arbitrario y convencional de los signos


Los signos lingüísticos, las palabras, son inventados por el hombre. Por lo tanto, no hay una relación
necesaria o intrínseca entre el signo y su significado. Esto se ve tanto en el plano del designado
como el denotado.
Retomando el ejemplo anterior, no existe ninguna relación intrínseca entre el sonido “mesa” (signo)
y el concepto-mesa (designado) así como tampoco existe ninguna relación necesaria o intrínseca entre
el sonido “mesa” y la cosa-mueble-mesa sobre la cual comemos o escribimos (denotado). En una palabra:
no hay relación de identidad o semejanza de naturaleza entre el signo y designado y entre signo y
denotado. Ambas relaciones son establecidas por el hombre y, por lo tanto, son arbitrarias. No hay
nada en la naturaleza íntima de las cosas que nos obligue a usar la palabra “perro” para referirnos a
los perros. Si nuestro lenguaje hubiera evolucionado de modo diferente, tal vez habríamos usado el
signo lingüístico “unga” en lugar de perro”. Es arbitrario el modo en que nosotros establecemos
términos que designan las cosas.
Por lo tanto, la relación del nombre con lo nombrado se establece, no por una semejanza de
naturaleza sino arbitrariamente, de acuerdo con el papel que juega la palabra en la lengua que
practicamos.
Veamos un ejemplo del carácter arbitrario de los signos en el lenguaje científico:
Cierta vez el matemático norteamericano Edward Kasner advirtió que siempre mencionaba en sus
trabajos el número 10 elevado a la 100. Decidió que sería útil poseer un nombre para referirse 10100
y pidió a su nieto que inventara uno. El niño dijo “Gogool”, Kasner quedó satisfecho y tanto él
como los otros matemáticos adoptaron el nombre “gogool” como la palabra que designa al número

27
mencionado. La palabra nació como un grupo de sonidos arbitrario que Kasner decidió usar para
referirse a 10100
Esta arbitrariedad del signo no es una mera arbitrariedad subjetiva y particular. Si la comunidad de
matemáticos no hubiera aceptado “gogool” como signo 10100, es nombre habría sido mero conjunto
de sonidos. Este signo alcanzó popularidad y otros empezaron a usar “gogool” del mismo modo.
Así, la elección arbitraria de Kasner se transformó en una convención para los matemáticos. Al ser
socializado el signo, la arbitrariedad se convierte en convención. El significado del signo es fijado por
el uso y el signo se vuelve convencional.
El signo es arbitrario según vimos en el ejemplo, cuando surge de un angla, una norma o una práctica
fijada por el grupo social.

Justificación de la expresión “Lenguaje Natural”


Vemos que la relación entre el signo y su significado está determinada por la práctica social: por
usos y costumbres, por las formas de vida de una comunidad. Una vez esclarecido el carácter
convencional del lenguaje a partir de su origen arbitrario, ¿cómo puede hablarse del lenguaje
“natural”?. No hay, en rigor, el hombre, ningún lenguaje “natural”. Podemos sin embargo hablar de
“natural” en el sentido no opuesto a “convencional”: los signos lingüísticos tienen un origen
arbitrario no natural. Sin embargo, al ser fijados por el uso, se vuelven “naturales” para la
comunidad.
En general, ningún individuo intenta particularmente los significados de los signos. Los encuentra
ya dados, establecidos, en su lengua materna. La convencionalidad de los signos significa que las
palabras son incorporadas al habla por la práctica social. Al aprender nuestra lengua, aprendemos
las convenciones que regulan la significación de los signos, su uso apropiado para designar cosas,
actos o procesos. Así, la práctica social vuelve “naturales” las convenciones lingüísticas que adopta.
Conocer y hablar un lenguaje es incorporar o internalizar las convenciones de tal modo que la
arbitrariedad y la convencionalidad quedan ocultas. Hacer chistes, dar órdenes y obedecerlas,
preguntar, agradecer, saludar, rogar, son solo algunos de los infinitos “juegos” del lenguaje. Para
“jugar” estos juegos, es preciso internalizar las reglas que rigen el uso de los signos, de modo que el
lenguaje aparezca como establecido por una necesidad natural.

28
El proceso Semiótico
El proceso semiótico es, pues un proceso de interpretación. A través de él se constituyen los signos
como tales. Todo puede llegar a ser signo. Para que afectivamente lo sea, debe ser interpretado por
alguien –el interprete- como signo de algo –el designado-. O sea: si no hay interpretación del signo,
no hay signo. Si no hay signo, no hay significado. Si no hay significado, no hay comunicación. En
definitiva, interpretación y lenguaje son inseparables porque sin interpretación no hay
comunicación.
La comunicación se produce de un modo efectivo cuando los intérpretes realizan la misma
interpretación, es decir, cuando un signo es el mismo para los sujetos que se comunican. El caso del
malentendido, tan común en la vida cotidiana, expresa justamente la situación en que la
comunicación no puede producirse porque los intérpretes hacen distintas interpretaciones: a partir
de una misma cosa o hecho se constituyen signos diferentes a raíz de la divergencia en la
interpretación.

Funciones del Lenguaje. Diferencia entre Lenguaje Natural y Lenguaje Científico


Si nos mantenemos en el plano pragmático de la relación de los signos con los usuarios o interpretes,
aparece la multiplicidad de funciones o usos del lenguaje. Es justamente esta multiplicidad de funciones
lo que distingue el lenguaje natural del lenguaje científico. El primero hace posible la comunicación efectiva
entre los hombres. El segundo hace posible la elaboración y transmisión de los conocimientos
propios de cada ciencia. Para que esta elaboración y transmisión de los conocimientos propia del
lenguaje científico sea posible, debe prevalecer en él solo una de las distintas funciones que coexisten
fundidas en el lenguaje natural, un criterio posible para distinguir del lenguaje natural el lenguaje
científico y deslindar las características propias de éste último. Establecemos así el puente entre
desarrollo expositivo realizado sobre el proceso semiótico y la disciplina que se ocupa de su análisis
– la Semiótica- y el tema fundamental de esta unidad: el lenguaje científico.
La relación es clara: la descripción del proceso semiótico nos ha permitido comprender que sin
proceso semiótico no hay signos y sin signos no ha comunicación, función fundamental del lenguaje
que nos retrotrae al comienzo, cuando dijimos que el lenguaje es condición de la cultura. Por otra
parte, la comunicación es la raíz de las distintas funciones del lenguaje, una de las cuales es la función
básica del lenguaje científico: la función informativa.

¿Cuáles son las funciones que, según dijimos, coexisten indisolublemente unidas en el lenguaje
natural?
1) Función informativa: Usamos el lenguaje para comunicar información, es decir, conocimientos.
2) Función expresiva: Usamos el lenguaje para comunicar emociones o sentimientos. De este
modo, expresamos y despertamos en otros esos sentimientos.
3) Función directiva: Usamos el lenguaje para originar o impedir respuestas o reacciones en los
otros.

29
La función informativa propia del lenguaje científico no se cumple si nos mantenemos en el plano
del lenguaje natural. En este nivel, por la unidad indisoluble de las tres funciones, encontramos:
-Ambigüedad y vaguedad de los términos.
-Oscurecimiento de las estructuras lógicas a través de las cuales la función informativa se realiza: la
proposición y el razonamiento.

El lenguaje científico exige en cambio, para cumplir su función informativa:


-Univocidad y precisión de los términos.
-El dejar fuera de juego toda expresión o forma lingüística que oscurezca y ocultar las estructuras
lógicas.

Volvemos así a comprender el énfasis puesto sobre el análisis del proceso semiótico que la Semiótica
realiza: tiende a que entendamos que la transmisión rigurosa de la información científica exige
detectar los problemas que plantean los lenguajes naturales. Detectarlos para evitarlos. Para ello, se
fijan reglas que ordenan de modo estable las relaciones de los signos entre sí, las relaciones de los
signos con sus designados y las condiciones de uso de los signos.

Los Lenguajes Científicos. Relación entre Lenguaje Científico y Lenguaje Natural.


Lenguajes Científicos No Formales y Formales
De lo ya desarrollado resulta que, puestos a comparar el lenguaje científico con el lenguaje natural,
podríamos concluir: con respecto al lenguaje natural, los lenguajes científicos ganarán en exactitud lo
que pierdan en riqueza. Ello implica un juicio valorativo: cada forma de lenguaje cumple su función.
Tan absurdo sería que un poeta hablara de corazón como del “órgano que bombea sangre por el
cuerpo” como que un médico dijera que “dedos de hueso y musgo” se apoderan de su enferma que
se halla en estado de cómo.
Pero las diferencias no pueden hacernos olvidar la relación que posibilita la comparación: el lenguaje
natural es la raíz del lenguaje científico. Todo lenguaje científico se construye a partir del lenguaje
natural: “Es un hecho históricamente indiscutible que el científico no construye su propio lenguaje
técnico partiendo de la nada, sino a partir del lenguaje cotidiano, aunque practicando una clara
separación respecto de éste mediante la introducción de convenciones precisas” (Geymonat, L.:
“Filosofía y filosofía de la Ciencia” editorial Labor, Barcelona).
Los lenguajes científicos surgirán en el momento en que el grado de desarrollo alcanzado por las
teorías de una disciplina científica exijan una formulación precisa. En ese momento requerirá formas
nuevas de expresión y el establecimiento de reglas propias.
Se produce así la ruptura con el lenguaje natural. Esta ruptura es necesaria porque la ciencia se
propone elaborar y formular cuerpos de conocimiento objetivo que puedan comunicarse de modo
preciso, claro y sistemático.
Los lenguajes son, así, lenguajes construidos por el hombre con fines predeterminados, con una
finalidad deliberada. Por eso son llamados artificiales, al revés de los lenguajes naturales que pese a
ser, por su carácter convencional, también artificiales, los hombres encuentran ya dados en la lengua
que se habla y que aprenden a hablar.

30
Esta artificialidad así entendida permite comprender otra diferencia entre lenguaje científico y
lenguaje natural:
En el lenguaje natural: las reglas sintácticas, semánticas y pragmáticas se dan cuando ya está constituido
el lenguaje: miles de años hablaron los hombres antes de establecer una gramática o un conjunto de
reglas semánticas explícitas para sus signos.
En el lenguaje científico: primero se formulan las reglas y luego se desarrolla el lenguaje.
Hay dos clases fundamentales de lenguajes científicos:
1) Lenguajes No Formales: Se obtienen mediante un análisis del lenguaje natural con el objeto de
reconocer las “deficiencias” o “insuficiencias” ya esbozadas. Para evitar los problemas de
ambigüedad y vaguedad semántica se darán reglas precisas de designación, mediante definiciones de
los términos de la ciencia en cuestión. Definir es, precisamente, delimitar al alcance y significado de
los signos lingüísticos.
-Para evitar la ambigüedad, las definiciones deben ser unívocas: a cada signo debe corresponder un
solo designado.
-Para evitar la vaguedad, las definiciones deben ser aclaratorias: deben establecer el alcance de
aplicación del signo.

En las ciencias, encontramos también otros tipos de definiciones;


-Léxicas o informativas: cumplen el papel de decidir alguno de los significados ya aceptados para el
término en el lenguaje corriente, fijando cual será el designado del signo en el contexto de la
disciplina. Por ejemplo, en disciplinas como la geografía, el término “accidente geográfico” es
necesario diferenciar mediante definiciones, “selva”, “montaña”, “meseta”, etc.
-Definiciones que introducen nuevos términos: permiten la incorporación de inventos y
descubrimientos. Por ejemplo palabras como “penicilina”, “televisión”, “rayos ultravioleta”, etc, son
definidas a medida que aparece su designado.

2) Lenguajes Formales: Por un principio de economía que está determinado por su necesidad de
rigor y precisión, es fundamental para la ciencia poder exponer sus términos, proposiciones y
razonamientos mediante abreviaciones. Los lenguajes formales, a diferencia de los no formales, se
apartan más profundamente del lenguaje natural. Ya no se trata de una “traducción dentro de un
mismo idioma”, sino de la construcción de lenguajes específicos como signos creados ad-hoc, como
los símbolos lógicos o matemáticos.
Los distintos contenidos de las ciencias se fijan en esos signos especiales mediante definiciones
descriptivas. El valor de estos símbolos es que permiten abreviar y precisar la actividad del
pensamiento en la investigación y en la exposición del conocimiento científico. Pero, además estos
signos específicos son útiles para la producción misma del pensamiento. Su valor no reside
meramente en la expresión más rápida y abreviada de un pensamiento ya formulado, sino en hacer
posibles operaciones que permiten descubrir y verificar relaciones a las que difícilmente se llegaría
mediante el lenguaje natural.
¿Significa todo esto que podemos abandonar en el conocimiento científico el uso del lenguaje
natural? La respuesta es definitivamente negativa. Los lenguajes artificiales, no formales y formales,
son el instrumento privilegiado del conocimiento científico: es imposible pensar hoy nuestra ciencia
sin estos lenguajes. Pero es necesario recordar que los lenguajes de la ciencia se han creado sobre
los lenguajes naturales. Así como los lenguajes naturales existen sin los lenguajes artificiales, éstos
31
no podrían existir sin los naturales. En los procesos cognitivos y comunicativos de las ciencias, las
palabras –los signos verbales de los lenguajes naturales- cumplen una función esencial: es por medio
de las palabras que hacemos comprensibles el significado de los signos formales, de sus propiedades
y de sus relaciones. Sólo una vez captados los significados de esos signos a través del lenguaje natural,
es posible operar con ellos sin hacer uso de éste.
Lenguaje Científico y Paradigma
Los términos específicos de los lenguajes científicos no son indiferentes a la cosmovisión particular
que subyace a la base de la ciencia correspondiente. Todo lenguaje científico se inserta en un
determinado “paradigma” y, al mismo tiempo, posee la doble función de estructurar y expresas el
paradigma.
Sabemos que el manejo de un paradigma, implica por parte de la comunidad científica, el
compromiso con una determinada cosmovisión, con una particular visión del mundo, de la
naturaleza y del conocimiento. El proceso de educación por el cual se forma un científico y por el
cual va asimilando el paradigma, lo lleva a familiarizarse con un bagaje teórico, con un lenguaje
conceptual y con determinadas categorías que, de modo sutil y a veces imperceptible, van orientando
la observación y los pasos de la investigación.
Así, al emplear palabras tales como “átomo” o “cinética”, estamos implícitamente aceptando y
manejando paradigmas distintos que cuando usamos términos como “forma sustancial” o
“flogisto”. A su vez, ese sistema conceptual llevará al científico a orientar sus observaciones y
mediciones de una manera determinada.
Otro ejemplo: la palabra “experimento” con la cual un científico está familiarizado, nos remite a una
técnica de mediciones que implica recortar el horizonte de los objetos científicos entre los objetos
“medibles”, con lo cual estamos incorporando como algo obvio una concepción específica de la
naturaleza. En este sentido, la introducción de un nuevo término puede implicar, de hecho, la
ruptura con un paradigma anteriormente aceptado y la articulación de uno nuevo.

32
HECHOS E HIPÓTESIS

La idea de que debe buscarse la verdad estudiando los hechos es totalmente superficial, porque no
puede iniciarse ninguna investigación hasta no haber experimentado alguna dificultad práctica o
teórica. Es esa dificultad, o problema la que guía nuestra búsqueda de un orden en los hechos.
En general, las investigaciones científicas deben comenzar por algún problema y tender hacia el
orden que vincula hechos a primera vista inconexos. Pero la capacidad de discernir una mera
experiencia de la fuente de un problema no es un talento común entre la gente, pues no puede
establecerse ninguna regla por cuyo intermedio se aprendan a plantear cuestiones significativas. Ser
sensible a las dificultades allí donde personas menos dotas pasan sin sentirse acuciadas por la duda
es un signo del genio científico.
La formulación de hipótesis relevantes
No es posible enunciar un problema si no estamos familiarizados de algún modo con el tema en
cuestión. Para enunciar como problema una dificultad oscuramente experimentada debemos
destacar, sobre la base de un acontecimiento anterior, ciertos elementos del objeto de estudio como
significativos. No es posible avanzar un solo paso en una investigación si no se comienza por sugerir
una explicación o solución de una dificultad que la originó. Tales explicaciones tentativas nos son
sugeridas por los elementos del objeto de estudio y nuestro conocimiento anterior. Cuando se las
formula en forma de proposiciones, reciben el nombre de hipótesis.
La función de una hipótesis es orientar nuestra búsqueda de orden en los hechos. Las sugerencias
formuladas en la hipótesis pueden ser soluciones del problema. Determinar si en realidad lo son es
la tarea de la investigación. No es imprescindible que una en particular nos conduzca hasta nuestro
objetivo, y frecuentemente algunas de ellas son incompatibles entre sí, de modo que no pueden ser
todas soluciones del mismo problema.
En número de hechos es infinito, y la observación no orientada no revelará nunca un modo de
conexión. Los hechos deben ser elegidos para su estudio sobre la base de una hipótesis. Al orientar
una investigación, una hipótesis debe necesariamente considerara algunos hechos como
significativos, y otros no.
Una hipótesis es relevante para un problema si expresa determinados modos de conexión entre un
conjunto de hechos que incluye el hecho observado; en caso contrario es irrelevante. No es posible
formular reglas para hallar tales hipótesis relevantes. A menudo se cree que una hipótesis presenta
tal relevancia pero la investigación interior demuestra que no es así. O bien se cree que ciertos
hechos son ajenos a un problema y la investigación revela lo contrario. En ausencia de conocimiento
sobre un tema no podemos formular juicios de relevancia bien fundados.
Se desprende de lo anterior que las sugerencias valiosas para resolver un problema solo pueden
provenir de quienes están familiarizados con los tipos que se les ocurren a un investigador son
función, a menos en parte, de su conocimiento anterior.
Criterios que se usan en la estimación del valor o la aceptabilidad de las hipótesis
1) Atingencia
2) Posibilidad de ser sometida a prueba
3) Compatibilidad con hipótesis previas conformadas
4) Poder predictivo o explicativo
5) Simplicidad

33
1) Atingencia: La hipótesis debe estar dirigida a la explicación de algún hecho. El hecho debe
ser deducible de la hipótesis propuesta. Es una explicación razonable o que tiene que ver con el
problema.
2) Debe existir la posibilidad de ser sometida a prueba. Esto es, debe existir la posibilidad de hacer
observaciones que confirmen o refuten cualquier hipótesis científica. Como hemos observado la
mayoría de las hipótesis realmente importantes son corroboradas a través de la observación indirecta
como por ejemplo: los electrones u ondas electromagnéticas.
3) Compatibilidad con hipótesis previas conformadas: la ciencia, al tratar de abarcar cada vez mas
hechos, tiende a constituir un sistema de hipótesis explicatorias. En un plano ideal, la manera en
que los científicos esperan progresar es aumentando gradualmente la amplitud de sus hipótesis para
que abarquen cada vez más hechos; para poder realizar este progreso es necesario que cada hipótesis
nueva sea compatible con las ya confirmadas. Una teoría nueva debe encajar con las teorías viejas,
para que pueda haber un progreso ordenado en la investigación científica. Pero todo cambio
representa mejora y por lo tanto una manera más adecuada en que el mundo se manifiesta en la
experiencia. Cuando dos hipótesis son incompatibles entre sí, la mayor antigüedad de una de ellas
no demuestra que sea la correcta y la nueva errónea. Cuando se presenta el conflicto entre dos
hipótesis, para decidir entre ellas debemos volvernos a los hechos observables, en última instancia,
es a través de la experiencia como se decidirá.
4) Poder predictivo o explicativo: Puede someterse a prueba una hipótesis si son deducibles de ellas
algunos hechos observables. Si una de las dos hipótesis susceptibles de ser sometidas a prueba tiene
un número mayor de hechos observables que la otra, se puede deducir de ella que tiene mayor
predictivo o explicativo. Cuanto mayor es el poder predictivo de una hipótesis, tanto más se explica,
y tanto mejor contribuye a nuestra comprensión de los fenómenos que le concierne.
5) Simplicidad: En la vida ordinaria como en la ciencia, tendemos a aceptar la teoría más simple
que se adecua a todos los hechos conocidos, sin embargo, la simplicidad es difícil de definir. Este
criterio a pesar de ser importante es ambiguo y no siempre fácil de aplicar.

El experimento
El experimento es una manera activa de interrogar a la naturaleza, produciendo artificialmente el
fenómeno que va a estudiar, en las condiciones más favorables para la observación. Así, mediante
un instrumental que ya no es natural de la observación (los sentidos), la observación se hace
científica.
Los instrumentos puestos al servicio del experimento, responden a distintas funciones:
1) Aumentar el alcance de los sentidos (por ejemplo el telescopio)
2) Traducir en manifestación sensorial, fenómenos a los que ninguno de nuestros sentidos está
adaptado.
3) Realizar mediaciones
4) Ser el instrumento para la producción artificial del fenómeno (por ejemplo el plano inclinado
de Galileo es ya, bajo una forma rudimentaria, un aparato tal). Pero el experimento no es suficiente
por sí solo para conferir valor científico a la investigación. Lo es, no el experimento mismo, sino su
doble función:
a) Planear el problema, imaginando una solución posible a título de hipótesis más o menos verosímil. O sea: suscitar
la hipótesis.
b) Controlar la hipótesis: ponerla a prueba.

34
En síntesis, la experimentación como observación artificialmente provocada tiene valor científico
cuando cumple esa doble función con respecto a la hipótesis.

El Método Hipotético Deductivo


El investigador no enfrenta hechos. La observación no es el punto de partida de la teoría, sino que
se parte de problemas. Se tiene un problema cuando los conocimientos que creíamos poseer no
sirven para explicar los hechos, o bien muestran errores o falencias. Los problemas aparecen en las
teorías, posean éstas un mayor o menor nivel de elaboración. Desafían a nuestra razón para
encontrar nuevas y mejores soluciones teóricas.
Frente a un problema, el investigador busca una solución. Es un proceso psicológico libre, y formula
una hipótesis. La observación está orientada por el problema y por la hipótesis creada por el
científico. De esta manera los enunciados observacionales contribuyen a definir y verificar hipótesis.
La observación está dirigida por las hipótesis, y son éstas las que determinan los datos relevantes
para la investigación.
La hipótesis propone una posible solución a un problema. La forma en que el investigador llegó a
enunciarle no brinda ninguna fundamentación a la hipótesis. Su verificación depende de la
confrontación empírica de las consecuencias observacionales, las cuales explican o predicen hechos.

Niveles de hipótesis
Según su ubicación en la red deductiva las hipótesis pueden ser de distintos niveles:

Nivel 1 Proposiciones Básicas:


En cuanto a su estructura semántica, son proposiciones singulares. En cuanto a su estructura
deductiva, son las consecuencias observacionales de las hipótesis. Son consecuencias últimas en el
sentido en que de ellas se pasa a la observación que las confirma o no. Ejemplo: Si sumerjo este
papel tornasol en éste líquido, se pone rojo.

Nivel 2 Generalizaciones Empíricas:


En cuanto a su estructura semántica son proposiciones generales.
En cuanto a su ubicación en la estructura deductiva, son hipótesis derivadas que se concluyen
lógicamente de los principios. Ejem. Siempre que se forma agua, se necesitan dos proporciones de
hidrógeno y una de oxígeno.

Nivel 3 Hipótesis Fundamentales:


En cuanto a su estructura semántica son proposiciones que se usan términos teóricos.
En cuanto a su ubicación en la estructura deductiva, son principios, legítimos puntos de partida que,
por lo tanto no se dejan deducir de otros principios. Ejem. El átomo de hidrógeno tiene un solo
electrón orbitando alrededor del núcleo.

35
Los científicos adhieren a una concepción según la cual el conocimiento es un tanto parcial y
provisorio, y debe perfeccionarse continuamente y adecuarse a las nuevas experiencias que nos
ofrece la historia. La ciencia sería una marcha por aproximaciones sucesivas y cada vez más exactas,
pero nunca completamente exactas a la estructura de lo real. Por ello es que hoy en día se piensa en
las afirmaciones científicas como hipótesis, y en el método de la ciencia como hipotético-deductivo.
Una hipótesis es una proposición cuya verdad y falsedad se ignora, pero que se supone verdadera
para examinar las consecuencias de esta suposición y no porque se la crea auténticamente verdadera.
Si éstas consecuencias concuerdan con las que ofrece la experiencia entonces ello va a favor de la
hipótesis; en caso contrario la hipótesis queda invalidada.

El proceso de corroboración de las hipótesis


Se efectúa el pasaje de las consecuencias observacionales a la observación para proceder a su
verificación. Si la observación está bien hecha y no sucede lo esperado, la hipótesis queda refutada
por su consecuencia observacional. Pero si sucede lo que se espera, no por eso la hipótesis queda
probada, queda tan solo corroborada, terminología que indica la posibilidad de seguirla manteniendo
y suponiendo como verdadera. Lo que quiere decir la hipótesis no deja de ser nunca hipótesis para
convertirse en verdad. Sólo deja de serlo para convertirse en una falsedad. La hipótesis muere
cuando se la refuta pero no deja ser una hipótesis cuando se corrobora. La corroboración sólo
permite afirmar la fuerza explicativa siempre provisoria de la hipótesis, no su verdad.
La operación de contrastación es una operación infinita. Sin embargo, si la comunidad científica ha
llegado a un número suficientemente alto de corroboraciones, no sigue explícitamente contrastando
la hipótesis. No se la discute más, se la usa y queda oficializada o convalidada.
Cuando en lugar de una hipótesis, es toda una teoría lo que está en juego, el procedimiento es
idéntico. Sólo que la deducción de consecuencias observacionales no se hace desde una única
premisa, sino que los principios o hipótesis fundamentales de esta teoría se efectúan desde varias
premisas. Las teorías se irán contrastando mediante sus consecuencias empíricas, y se mantendrán
en tanto sean corroboradas, o se descartará, si son refutadas por la falsedad de alguna de sus
consecuencias.
Si después de muchas contrastaciones el resultado se mantiene positivo, entonces, aun cuando nada
se puede asegurar en definitiva sobre la teoría, la comunidad científica comienza a considerarla como
una teoría fuerte, susceptible de aguantar los golpes mediante los que la confrontamos con la
experiencia. Ese es el momento en que una teoría para a ser una mera especulación o conjetura a
ser considerada como conocimiento científico. Una de las consecuencias más espectaculares de este
modo de ver, es la posibilidad de que convivan dentro de una disciplina, y con relación a un mismo
tipo de problemas diversas teorías, las cuales pueden no ser equivalente lógicamente entre sí y aún
pueden ser incompatibles.
Claro, en general se espera que surjan tarde o temprano consecuencias observacionales de algunas
de ellas que permitan refutarlas, al propio tiempo que corroboran algunas de las otras teorías –lo
cual está relacionado con las llamadas experiencias cruciales que se utilizan para elegir entre dos
teorías-. Pero es perfectamente posible, y es cosa que se presume, ocurre en la física contemporánea,
que tales consecuencias no existan, en cuyo caso las teorías, aunque no sean en su estructura lógica
o significativa nada similares, sean empíricamente equivalentes, es decir descripciones y
explicaciones alternativas de la realidad.

36
EL PROBLEMA DE LA INDUCCIÓN

¿Se puede justificar el principio de inducción?


Según el inductivista ingenuo, la ciencia comienza con la observación; la observación proporciona
una base segura sobre la que se puede construir el conocimiento científico y el conocimiento
científico se deriva, mediante la inducción, de los enunciados observacionales. En este capítulo, se
criticará la concepción inductivista de la ciencia, poniendo en duda el tercero de estos supuestos. Se
pondrá en duda la validez y justificabilidad del principio de inducción.
Mi versión del principio de inducción dice así: “Si en una gran variedad de condiciones se observa
una gran cantidad de A y todos los A observados, sin excepción, poseen la propiedad B, entonces
todos los A poseen la propiedad B”. Este principio, o algo muy parecido, es el principio básico en
el que se basa la ciencia, si se acepta la postura inductivista ingenua. A la vista de esto, una cuestión
obvia con la que se enfrenta el inductivista es: “¿Cómo se puede justificar el principio de
inducción?“. Esto es, si la observación nos proporciona un conjunto seguro de enunciados
observacionales como punto de partida (supuesto que tenemos que dar por sentado para el
desarrollo de la argumentación de este capítulo), ¿por qué el razonamiento inductivo conduce al
conocimiento científico fiable e incluso verdadero?. Al inductivista se le abren dos vías de
acercamiento al problema para intentar responder a esta cuestión. Podría tratar de justificar el
principio apelando a la lógica, recurso que admitimos francamente, o podría intentar justificar el
principio apelando a la experiencia, recurso que yace en la base de toda su concepción científica.
Examinemos sucesivamente estas dos posibilidades.
Las argumentaciones lógicas válidas se caracterizan por el hecho de que, si la premisa de la
argumentación es verdadera, entonces la conclusión debe ser verdadera. Las argumentaciones
deductivas poseen ese carácter. El principio de inducción estaría de seguro justificado si las
argumentaciones inductivas también lo poseyeran, pero no es así. Las argumentaciones inductivas
no son argumentaciones lógicamente válidas. No se da es caso de que, si las premisas de una
inferencia inductiva son verdaderas, entonces la conclusión deba ser verdadera. Es posible que la
conclusión de una argumentación inductiva sea falsa y que sus premisas sean verdaderas sin que
ello suponga una contradicción. Supongamos, por ejemplo, que hasta la fecha haya observado una
gran cantidad de cuervos en una amplia variedad de circunstancias y que haya observado que todos
ellos han sido negros y, basándome en eso, concluyo: “Todos los cuervos son negros”. Esta es una
inferencia inductiva perfectamente lícita. Las premisas de esta inferencia son un gran número de
enunciados del tipo: “Se observó que el cuervo x era negro en el momento t” y consideramos que
todos eran verdaderos. Pero no hay ninguna garantía lógica de que el siguiente cuervo que observe
no sea rosa. Si éste fuera el caso, entonces “Todos los cuervos son negros” sería falso. Esto es, la
inferencia inductiva inicial, que era lícita en la medida en que satisfacía los criterios especificados
por el principio de inducción, habría llevado a una conclusión falsa, a pesar de que todas las premisas
de la inferencia fueran verdaderas. No supone ninguna contradicción lógica afirmar que todos los
cuervos observados han resultado ser negros y también que no todos los cuervos son negros. La
inducción no se puede justificar sobre bases estrictamente lógicas.
Un ejemplo de la cuestión, más interesante aunque bastante truculento, lo constituye la explicación
de la historia del pavo inductivista por Bertran Russell. Este pavo descubrió que, en su primera
mañana en la granja avícola, comía a las 9 de la mañana. Sin embargo, siendo como era un buen
inductivista, no sacó conclusiones precipitadas. Esperó hasta que recogió una gran cantidad de
observaciones del hecho de que comía a las 9 de la mañana e hizo estas observaciones en una gran
variedad de circunstancias, en miércoles y en jueves, en días fríos y calurosos, en días lluviosos y en
días soleados. Cada día añadía un nuevo enunciado observacional a su lista. Por último, su conciencia

37
inductivista se sintió satisfecha y efectuó una inferencia inductiva para concluir: “Siempre como a
las 9 de la mañana”. Pero, ¡ay¡ se demostró de manera indudable que esta conclusión era falsa
cuando, la víspera de Navidad, en vez de darle la comida, le cortaron el cuello. Una inferencia
inductiva con premisas verdaderas ha llevado a una conclusión falsa.
El principio de inducción no se puede justificar simplemente apelando a la lógica. Dado este
resultado, parecería que el inductivista, según su propio punto de vista, está ahora obligado a indicar
cómo se puede derivar de la experiencia el principio de inducción.
¿Cómo sería una derivación semejante?.
Probablemente, sería algo así. Se ha observado que la inducción funciona en un gran número de
ocasiones. Por ejemplo, las leyes de la óptica, derivadas por inducción de los resultados de los
experimentos de laboratorio, se han utilizado en numerosas ocasiones para diseñar instrumentos
ópticos y estos instrumentos han funcionado de modo satisfactorio. Asimismo, las leyes del
movimiento planetario derivadas de observaciones de las posiciones de los planetas, etc., se han
empleado con éxito para predecir eclipses. Se podría ampliar esta lista con informes de explicaciones
y predicciones posibilitadas por leyes y teorías científicas derivadas inductivamente. De este modo,
se justifica el principio de inducción.
La anterior justificación de la inducción es completamente inaceptable, como ya demostrara David
Hume a mediados del siglo XVIII. La argumentación que pretende justificar la inducción es circular
ya que emplea el mismo tipo de argumentación inductiva cuya validez se supone que necesita
justificación. La forma de la argumentación justificatoria es la siguiente:
El principio de inducción funcionó con éxito en la ocasión X1.
El principio de inducción funcionó con éxito en la ocasión X2.
Etcétera.
El principio de inducción funciona siempre.
Aquí se infiere un enunciado universal que afirma la validez del principio de inducción a partir de
cierta cantidad de enunciados singulares que registran aplicaciones con éxito del principio en el
pasado. Por lo tanto, la argumentación es inductiva y, no se puede, pues, utilizar para justificar el
principio de inducción. No podemos utilizar la inducción para justificar la inducción. Esta dificultad,
que va unida a la justificación de la inducción, ha sido denominada tradicionalmente “el problema
de la inducción”.
Parece, pues, que el inductivista ingenuo impenitente tiene problemas. La exigencia extrema de que
todo conocimiento se derive de la experiencia mediante reglas de inducción excluye el principio de
inducción, básico para la postura inductivista.
Además de la circularidad que conllevan los intentos de justificar el principio de inducción, el
principio, tal y como lo he establecido, no adolece de otras desventajas. Estas desventajas proceden
de la vaguedad y equivocidad de la exigencia de que se realice un “gran número” de observaciones
en una “amplia variedad” de circunstancias.
¿Cuántas observaciones constituyen un gran número? ¿Cuántas veces hay que calentar una barra de
metal, diez veces, cien veces, antes de que podamos concluir que siempre se dilata al ser calentada?
Sea cual fuere la respuesta a esta cuestión, se pueden presentar ejemplos que hagan dudar de la
invariable necesidad de un gran número de observaciones. Para ilustrar esta cuestión, me referiré a
la fuerte reacción pública en contra de la guerra nuclear que siguió al lanzamiento de la primera
bomba atómica en Hiroshima al final de la segunda guerra mundial. Esta reacción se basaba en la
constatación de que las bombas atómicas originan destrucción y muerte por doquier y un enorme

38
sufrimiento humano. Y, no obstante, esta creencia generalizada se basaba en una sola y dramática
observación. Del mismo modo, un inductivista muy terco tendría que poner su mano en el fuego
muchas veces antes de concluir que el fuego quema. En circunstancias como éstas, la exigencia de
un gran número de observaciones parece inapropiada. En otras situaciones, la exigencia parece más
plausible. Por ejemplo, estaríamos justificadamente, poco dispuestos a atribuir poderes
sobrenaturales a un adivino basándonos en una sola predicción correcta. Y tampoco sería justificable
concluir una conexión causal entre fumar y el cáncer de pulmón basándonos en la evidencia de un
solo fumador empedernido que contraiga la enfermedad. Creo que está claro en estos ejemplos que
si el principio de inducción ha de ser una guía de lo que se considere una lícita inferencia científica,
entonces hay que matizar con cierto cuidado la cláusula del “gran número”.
Además, la postura inductivista ingenua se ve amenazada cuando se examina en detalle la exigencia
de que se efectúen las observaciones en una amplia variedad de circunstancias. ¿Qué se ha de
considerar como variación significativa, en las circunstancias?. Por ejemplo, cuando se investiga el
punto de ebullición del agua ¿es necesario variar la presión, la pureza del agua, el método de
calentamiento y el momento del día?. La respuesta a las dos primeras sugerencias es “sí” y a las dos
segundas es “no”. Pero, ¿en qué nos basamos para dar estas respuestas? Esta cuestión es importante
porque la lista de variaciones se puede extender indefinidamente añadiendo una variedad de
variaciones adicionales tales como el color del recipiente, la identidad del experimentador, la
situación geográfica, etc. A menos que se puedan eliminar esas variaciones “superfluas” el número
de variaciones necesarias para hacer una lícita inferencia inductiva será infinitamente grande. ¿Sobre
qué base, pues, se considera superflua una gran cantidad de variaciones? Creo que la respuesta está
bastante clara. Las variaciones que son significativas se distinguen de las que son superfluas apelando
a nuestro conocimiento teórico de la situación y de los tipos de mecanismos físicos operativos. Pero
admitir esto es admitir que la teoría desempeña un papel vital antes de la observación. El inductivista
ingenuo no puede admitir eso. Se observará ahora que la cláusula de la “amplia variedad de
circunstancias” en el principio de inducción plantea al inductivista serios problemas.

La retirada a la probabilidad.
Hay una manera muy evidente de moderar la postura extrema del inductivimo ingenuo criticada en
la sección anterior en un intento de contrarrestar algunas críticas. Una argumentación que defendiera
una postura más moderada podría ser la siguiente.
No podemos estar cien por cien seguros de que sólo porque hayamos observado en muchas
ocasiones que el sol sale cada día, el sol saldrá todos los días. (De hecho en el Artico y en el Antártico
hay días en que el sol no sale). No podemos estar cien por cien seguros de que la siguiente piedra
que arrojemos no “caerá” hacia arriba. Sin embargo, aunque no se puede garantizar que las
generalizaciones a las que se ha llegado mediante inducciones lícitas sean perfectamente verdaderas,
son probablemente verdaderas. A la luz de las pruebas, es muy probable que el sol siempre salga en
Sidney y que las piedras caigan hacia abajo al ser arrojadas. El conocimiento científico no es
conocimiento probado, pero representa un conocimiento que es probablemente verdadero. Cuanto
mayor sea el número de observaciones que formen la base de una inducción y cuanto mayor sea la
variedad de condiciones en las cuales se hayan realizado estas observaciones, mayor será la
probabilidad de que las generalizaciones resultantes sean verdaderas. Si se adopta esta versión
modificada de la inducción, entonces se reemplazará el principio de inducción por una versión
probabilista que dirá más o menos lo siguiente: “Si en una amplia variedad de condiciones se ha
observado un gran número de A y si todos estos A observados poseen sin excepción la propiedad
B, entonces probablemente todos los A poseen la propiedad B”. Esa reformulación no supera el
problema de la inducción. El principio reformulado sigue siendo un enunciado universal. Basándose

39
en un número finito de éxitos, implica que todas las aplicaciones del principio conducirán a
conclusiones generales que son probablemente verdaderas. Los intentos de justificar la versión
probabilista del principio de inducción apelando a la experiencia han de adolecer de la misma
deficiencia que los intentos de justificar el principio en su forma original. La justificación utilizará
una argumentación del tipo que se considera necesitado de justificación.
Aunque el principio de inducción en su versión probabilista se pueda justificar, existen problemas
adicionales con los que se enfrenta nuestro más precavido inductivista. Los problemas adicionales
están relacionados con las dificultades que se encuentran cuando se trata de precisar exactamente la
probabilidad de una ley o teoría a la luz de unas pruebas especificadas. Puede parecer intuitivamente
plausible que, a medida que aumenta el apoyo observacional que recibe una ley universal, aumente
también la probabilidad de que sea verdadera. Pero esta intuición no resiste un examen. Según la
teoría oficial de la probabilidad, es muy difícil dar una explicación de la inducción que evite la
consecuencia de que la probabilidad de cualquier enunciado universal que afirme algo sobre el
mundo sea cero, sea cual fuere la evidencia observacional constará de un número finito de
enunciados observacionales, mientras que un enunciado universal hace afirmaciones acerca de un
número infinito de posibles situaciones. La probabilidad de que sea cierta la generalización universal
es, por tanto, un número finito dividido por un número infinito, lo cual sigue siendo cero por mucho
que aumente el número finito de enunciados observacionales que constituyan la evidencia.
Este problema, junto con los intentos de atribuir probabilidades a las teorías y leyes científicas a la
luz de la evidencia dada, ha dado origen a un detallado programa técnico de investigación que en las
últimas décadas han seguido y desarrollado tenazmente los inductivistas. Se han construido lenguajes
artificiales en los que es posible atribuir probabilidades únicas, no iguales a cero, a ciertas
generalizaciones universales. Están lejos del lenguaje de la ciencia.
Otro intento de salvar el programa inductivista supone renunciar a la idea de atribuir probabilidades
a las teorías y leyes científicas. En lugar de esto, se llama la atención sobre la probabilidad de que
sean correctas las predicciones individuales. Según este enfoque, el objeto de la ciencia es por
ejemplo, estimar la probabilidad de que el sol salga mañana en vez de la probabilidad de que salga
siempre. Se espera que la ciencia sea capaz de proporcionar la garantía de que un puente de cierto
diseño resista diversas tensiones y no se hunda, pero no de que todos los puentes de ese diseño sean
satisfactorios. Se han desarrollado algunos sistemas en ese sentido que permiten que se atribuya
probabilidades no iguales a cero a predicciones individuales. Se mencionarán a continuación dos de
las críticas que se les hacen en primer lugar, la idea de que la ciencia se ocupa de la producción de
un conjunto de predicciones individuales y no de la producción de conocimiento en forma de
complejo de enunciados generales es, por lo menos, anti-intuitiva. En segundo lugar, aunque se
limite la atención a las predicciones individuales se puede argumentar que las teorías científicas, y
por tanto los enunciados universales, están inevitablemente implícitas en la estimación de la
probabilidad de que tenga éxito una predicción. Por ejemplo, en un sentido intuitivo, no técnico, de
“probable” podemos estar dispuestos a afirmar que es hasta cierto punto probable que un fumador
empedernido muera de cáncer de pulmón. La evidencia que apoye la afirmación estará
presumiblemente constituida por los datos estadísticos disponibles. Pero esta probabilidad intuitiva
aumentará de modo significativo si se dispone de una teoría plausible y bien fundada que implique
alguna conexión causal entre fumar y el cáncer de pulmón. De modo similar, aumentarán las
estimaciones de la probabilidad de que el sol salga mañana una vez que se tenga en cuenta el
conocimiento de las leyes que rigen el comportamiento del sistema solar. Pero el hecho de que la
probabilidad de la corrección de las predicciones dependa de las teorías y leyes universales socava
el intento inductivista de atribuir probabilidades no iguales a cero a las predicciones individuales.
Una vez que se encuentran implícitos de un modo significativo enunciados universales, las

40
probabilidades de la corrección de las predicciones individuales amenazan de nuevo con ser iguales
a cero.

Posibles respuestas al problema de la inducción.


Enfrentados al problema de la inducción y a las cuestiones conexas, los inductivistas han tropezado
con dificultad tras dificultad al intentar construir la ciencia como un conjunto de enunciados que se
pueden establecer como verdaderos o como probablemente verdaderos a partir de una evidencia
dada. Cada maniobra efectuada para cubrir la retaguardia les ha llevado más lejos de nociones
intuitivas acerca de esa excitante empresa denominada ciencia. Su programa ha conducido a
adelantos interesantes dentro de la teoría de la probabilidad, pero no ha proporcionado nuevas
ideas acerca de la naturaleza de la ciencia. Su programa ha degenerado.
Hay un cierto número de posibles respuestas al problema de la inducción. Una de ellas es la de
escéptico. Podemos aceptar que la ciencia se basa en la inducción y la demostración que hizo Hurne
de que no se puede justificar la inducción apelando a la lógica o a la experiencia, y concluir que la
ciencia no se puede justificar de un modo racional. El propio Hume adoptó una postura de este
tipo. Mantuvo que nuestras creencias en las leyes y teorías no son más que hábitos psicológicos que
adquirimos como resultado de las repeticiones de las observaciones relevantes.
Una segunda respuesta consiste en atenuar la exigencia inductivista de que todo el conocimiento no
lógico se tenga que derivar de la experiencia y argumentar a favor del principio de inducción
basándose en alguna otra razón. Sin embargo, considerar que el principio de inducción, o algo
parecido, es “evidente” no es aceptable. Lo que consideramos evidente depende y tiene demasiado
que ver con nuestra educación, nuestros prejuicios y nuestra cultura para ser una base fiable de lo
que es razonable. En diversas etapas de la historia, para muchas culturas era evidente que la tierra
era plana. Antes de la revolución científica de Galileo y Newton, era evidente que para que un objeto
se moviese, era necesaria una fuerza o causa de algún tipo que lo moviera. Esto puede ser evidente
para algunos lectores de este libro que carezcan de una formación física, y no obstante es falso. Si
se ha de defender que es razonable el principio de inducción, entonces se ha de ofrecer una
argumentación más sofisticada que la apelación a su evidencia.
Una tercera respuesta al problema de la inducción supone la negación de que la ciencia se base en
la inducción se evitará el problema de la inducción si se puede establecer que la ciencia no conlleva
la inducción. Esto es lo que intentan hacer los falsacionistas, y principalmente K.R. Popper.
En este capítulo me he conducido de un modo demasiado parecido al de un filósofo. En el próximo
capítulo pasaré a efectuar una crítica del inductivismo más interesante, más eficaz y más fructífera.

41
INTRODUCCIÓN AL FALSACIONISMO

El falsacionista admite francamente que la observación es guiada por la teoría y la presupone.


También se congratula de abandonar cualquier afirmación que implique que las teorías se pueden
establecer como verdaderas o probablemente verdaderas a la luz de la evidencia observacional. Las
teorías se construyen como conjeturas o suposiciones especulativas y provisionales que el intelecto
humano crea libremente en un intento de solucionar los problemas con que tropezaron las teorías
anteriores y de proporcionar una explicación adecuada del comportamiento de algunos aspectos del
mundo o universo. Una vez propuestas, las teorías especulativas han de ser comprobadas rigurosa
e implacablemente por la observación y la experimentación. Las teorías que no superan las pruebas
observacionales y experimentales deben ser eliminadas y reemplazas por otras conjeturas
especulativas. La ciencia progresa gracias al ensayo y al error, a las conjeturas y refutaciones. Sólo
sobreviven las teorías más aptas. Aunque nunca se puede decir lícitamente de una teoría que es
verdadera, se puede decir con optimismo que es la mejor disponible, que es mejor que cualquiera
de las que han existido antes.

Una cuestión lógica que apoya al falsacionista.

Según el falsacionismo, se puede demostrar que algunas teorías son falsas apelando a los resultados
de la observación y la experimentación. En este punto, hay una cuestión lógica, simple, que parece
apoyar al falsacionista. Ya he indicado en el capítulo 2 que, aunque supongamos que disponemos
de alguna manera de enunciados observacionales verdaderos, nunca es posible llegar a leyes y teorías
universales basándose sólo en deducciones lógicas. Por otro lado, es posible efectuar deducciones
lógicas, partiendo de enunciados observacionales singulares como premisas y llegar a la falsedad de
teorías y leyes universales mediante una deducción lógica. Por ejemplo, si tenemos el enunciado “En
el lugar x y en el momento t se observó un cuervo que no era negro”, entonces de esto se sigue
lógicamente que “Todos los cuervos son negros” es falso. Esto es; la argumentación:
Premisa:
En el lugar x y en el momento t se observó un cuervo que no era negro.

Conclusión:
No todos los cuervos son negros.

Es una deducción lógicamente válida. Si se afirma la premisa y se niega la conclusión, hay una
contradicción. Uno o dos ejemplos más nos ayudarán a ilustrar esta cuestión lógica bastante trivial.
Si se puede establecer mediante observación en una prueba experimental que en un peso de 10 libras
y otro de1 libra en caída libre se mueven hacia abajo aproximadamente a la misma velocidad,
entonces se puede concluir que la afirmación de que todos los cuerpos caen a velocidades
proporcionales a sus pesos es falsa. Si se puede demostrar más allá de toda duda que un rayo de luz
que pasa cerca del sol es desviado en una línea curva, entonces no es que la luz viaje necesariamente
en línea recta.
La falsedad de enunciados universales se puede deducir de enunciados singulares adecuados. El
falsacionista explota al máximo esta cuestión lógica.

42
La falsabilidad como criterio de teorías.

El falsacionista considera que la ciencia es un conjunto de hipótesis que se proponen a modo de


ensayo con el propósito de describir o explicar de un modo preciso el comportamiento de algún
aspecto del mundo o universo. Sin embargo, no todas las hipótesis lo consiguen. Hay una condición
fundamental que cualquier hipótesis o sistema de hipótesis debe cumplir si se le ha de dar el estatus
de teoría o ley científica. Si ha de formar parte de la ciencia, una hipótesis ha de ser falsable. Antes
de seguir adelante, es importante aclarar la utilización que hace el falsacionista del término “falsable”.
He aquí algunos ejemplos de afirmaciones simples que son falsables en el sentido deseado:

1. Los miércoles nunca llueve.


2. Todas las sustancias se dilatan al ser calentadas.
3. Los objetos pesados, como por ejemplo un ladrillo, caen directamente hacia abajo al ser
arrojados cerca de la superficie de la tierra si no hay algo que lo impida.
4. Cuando un rayo de luz se refleja en un espejo plano, el ángulo de incidencia es igual al ángulo
de reflexión.

La afirmación (1) es falsable porque se puede falsar al observar que llueve un miércoles. La
afirmación (2) es falsable; se puede falsar mediante un enunciado observacional en el sentido de que
una substancia x no se dilató al ser calentada en el tiempo t. El agua cerca de su punto de congelación
servirá para falsar (2). Tanto (1) como (2) son falsables y falsas. Por lo que sé, las afirmaciones (3) y
(4) pueden ser verdaderas. Sin embargo, son falsables en el sentido deseado. Lógicamente es posible
que el siguiente ladrillo que se arroje “caiga” hacia arriba. No hay ninguna contradicción lógica
implícita en la afirmación “El ladrillo cayó hacia arriba al ser arrojado”, aunque puede ser que la
observación nunca justifique semejante enunciado. La afirmación (4) es falsable porque se puede
concebir que un rayo de luz que indica obre un espejo formando un ángulo oblicuo pueda ser
reflejado en dirección perpendicular al espejo. Esto no sucederá nunca si la ley de reflexión resulta
ser verdadera, pero si no fuera así, no habría ninguna contradicción lógica. Tanto (3) como (4) son
falsables, aunque puedan ser verdaderas.
Una hipótesis es falsable si existe un enunciado observacional o un conjunto de enunciados
observacionales lógicamente posibles que sean incompatibles con ella, esto es, que compatible con
cualquier tipo de comportamiento humano y, precisamente por eso, no nos dice nada acerca del
comportamiento humano. Por supuesto, antes de rechazar la teoría de Adler sobre esta base sería
necesario investigar los detalles de la teoría en vez de su caricatura. Pero hay un montón de teoría
sociales, psicológicas y religiosas que despiertan la sospecha de que, en su afán de explicarlo todo
no explican nada. La existencia de un Dios amante y el hecho de que se produzca un desastre se nos
envía para castigarnos o para probarnos, según lo que parezca más adecuado a la situación. Muchos
ejemplos del comportamiento animal pueden ser considerados como una prueba a favor de la
afirmación “Los animales están hechos de modo que puedan cumplir mejor la función para la que
están destinados”. Los teóricos que actúan de esta manera incurren en los argumentos evasivos del
adivino y están sujetos a las críticas del falsacionista. Para que una teoría posea un contenido
informativo, ha de correr el riesgo de ser falsada.

43
Grado de falsabilidad, claridad y precisión.

Una buena teoría o ley científica es falsable justamente porque hace afirmaciones definidas acerca
del mundo. Para el falsacionista, de ello se sigue bastante claramente que cuanto más falsable es una
teoría mejor es, empleando la palabra más en un sentido amplio. Cuanto más afirme una teoría,
más oportunidades potenciales habrá de demostrar que el mundo no se comportaba de hecho como
lo establece la teoría. Una teoría muy buena será aquélla que haga afirmaciones de muy amplio
alcance acerca del mundo y que, en consecuencia, sea sumamente falsable y resista la falsación todas
las veces que se someta a prueba.
Esta cuestión se puede aclarar mediante un ejemplo trivial. Consideremos las dos leyes siguientes:
(a) Marte se mueve en una elipse alrededor del Sol.
(b) Todos los planetas se mueven en elipses alrededor del Sol.
Considero que está claro que (b) tiene un estatus superior que (a) como elemento del conocimiento
científico. La ley (b) nos dice todo lo que dice (a) y bastante más. La Ley (b), que es la ley preferible,
es más falsable que (a). Si las observaciones sobre Marte falsaran (a), también falsarían (b). Cualquier
falsación de (a) constituiría una falsación de (b), pero no a la inversa. Los enunciados observacionales
referentes a las órbitas de Venus, Júpiter, etc., que posiblemente falsaran (b) son irrelevantes con
respecto a (a). Si seguimos a Popper y nos referimos a esos conjuntos de enunciados observacionales
que servirían para falsar una ley o teoría como falsadores potenciales de esa ley o teoría, entonces
podemos decir que los falsadores potenciales de (a) forman una clase que es una subclase de los
falsadores potenciales de (b). La Ley (b) es más falsable que la ley (a), lo cual equivale a decir que
afirma más, que es una ley mejor.
Un ejemplo menos artificial se refiere a la relación entre la teoría del sistema solar de Kepler y la de
Newton. Considero que la teoría de Kepler consiste en sus tres leyes del movimiento planetario.
Los falsadores potenciales de esa teoría constan de conjuntos de enunciados referentes a las
posiciones planetarias en relación con el sol en un momento especificado. La teoría de Newton, una
teoría mejor que desbancó a la de Kepler, es más amplia. Consiste en las leyes del movimiento de
Newton más su ley de gravitación, la cual afirma que todos los pares de cuerpos en el universo se
atraen entre sí con una fuerza que varía en proporción inversa al cuadro de su distancia. Algunos de
los falsadores potenciales de la teoría de Newton son conjuntos de enunciados de las posiciones
planetarias en un momento especificado. Pero hay muchos otros, incluidos aquéllos que se refieren
al comportamiento de los cuerpos que caen y de los péndulos, la correlación entre las mareas y las
posiciones del sol y la luna, etc. Hay muchas más oportunidades de falsar la teoría de Newton que
la de Kepler. Y con todo, sigue diciendo el falsacionista, la teoría de Newton fue capaz de resistir
los intentos de falsación, estableciendo por ello su superioridad sobre la de Kepler. Las teorías
sumamente falsales se deben preferir, pues, a las menos falsables, siempre que no hayan sido falsadas
de hecho. Para el falsacionista esta puntualización es importante. Las teorías que han sido falsadas
tienen que ser rechazadas de forma tajante. La empresa científica consiste en proponer hipótesis
sumamente falsables, seguidas de intentos deliberados y tenaces de falsarlas. Como dice Popper:
Por ello puedo admitir con satisfacción que los falsacionistas como yo preferimos con mucho un
intento de resolver un problema interesante mediante una conjetura audaz, aunque pronto resulte
ser falsa (y especialmente en ese caso), a cualquier recital de una serie de truismos improcedentes.
Lo preferimos porque creemos que esa es la manera en que podemos aprender de nuestros errores;
y que al descubrir que nuestra conjetura era falsa habremos aprendido mucho sobre la verdad y
habremos llegado más cerca de la verdad.

44
Aprendemos de nuestros errores. La ciencia progresa mediante el ensayo y el error. Debido a que la
situación lógica hace imposible la derivación de leyes y teorías universales a partir de enunciados
observacionales, pero posible la deducción de su falsedad, las falsaciones se convierten en
importantes hitos, en logros subresalientes, en los principales puntos del desarrollo de la ciencia.
Este hincapié algo antiintuitivo que hacen los falsacionistas más extremos en la importancia de las
falsaciones se criticará en los últimos capítulos.
Como la ciencia aspira a lograr teorías con un gran contenido informativo, los falsacionistas dan la
bienvenida a la propuesta de audaces conjeturas especulativas. Se han de estimular las especulaciones
temerarias siempre que sean falsables y siempre que sean rechazadas al ser falsadas. Esta actitud de
“a vida o muerte”choca con la precaución recomendada por el inductivista ingenuo. Según éste,
sólo aquellas teorías de las que se puede demostrar que son verdaderas o probablemente verdaderas
habrán de ser admitidas en la ciencia. Sólo debemos ir más allá de los resultados inmediatos de la
experiencia en la medida en que nos guíen inducciones legítimas. El falsacionismo, en
contraposición, reconoce, las limitaciones de la inducción y la subordinación de la observación a la
teoría. Solo se pueden descubrir los secretos de la naturaleza con la ayuda de teorías ingeniosas y
perspicaces. Cuanto mayor sea el número de teorías conjeturadas que se enfrentan a la realidad del
mundo y cuando más especulativas sean estas conjeturas, mayores serán las oportunidades de hacer
importantes avances en la ciencia. No hay peligro de que proliferen las teorías especulativas porque
las que sean descripciones inadecuadas del mundo pueden ser eliminadas drásticamente como
resultado de la observación o de otras pruebas.
La exigencia de que las teorías sean sumamente falsables tiene la atractiva consecuencia de que las
teorías sean establecidas y precisadas con claridad. Si se establece una teoría de forma tan vaga que
no queda claro qué afirma exactamente, entonces, cuando se comprueba mediante la observación o
la experimentación siempre se podrá interpretar que es compatible con los resultados de esas
pruebas. De esta manera, podrá ser defendida contra las falsaciones. Por ejemplo, Goethe escribió
de la electricidad que no es nada, un cero, un mero punto que, sin embargo, mora en todas las
aparentes existencias y al mismo tiempo es el punto de origen por el cual, al menor estímulo, se
presenta una doble apariencia, una apariencia que sólo se manifiesta para desvanecerse. Las
condiciones en las que se provocan estas manifestaciones. Son infinitamente variadas según la
naturaleza de cada cuerpo.
Si tomamos esta cita literalmente, es muy difícil ver qué posible conjunto de circunstancias físicas
podría servir para falsarla. Es falsable justamente porque es así de vaga e indefinida al menos tomada
fuera de su contexto). Los políticos y los adivinos pueden evitar que se les acuse de cometer errores
haciendo que sus afirmaciones sean tan vagas que siempre pueden resultar compatibles con todo lo
que pueda acontecer. La exigencia de un alto grado de falsabilidad elimina tales maniobras. El
falsacionista exige que se puedan establecer las teorías con suficiente claridad como para correr el
riesgo de ser falsadas.
Con respecto a la precisión existe una situación similar. Cuanto más precisamente se formula una
teoría, se hace más falsable. Si aceptamos que cuanto más falsable es una teoría tanto mejor es
(siempre que no haya sido falsada), entonces también debemos aceptar que cuanto más precisas
sean las afirmaciones de una teoría, mejor será ésta. “Los planetas se mueven en elipses alrededor
del sol” es más precisa que “Los planetas se mueven en rizos cerrados alrededor del sol” y, en
consecuencia, es más falsable. Una órbita oval falsaría la primera afirmación pero no la segunda,
mientras que cualquier órbita que false la segunda falsará también la primera. El falsacionista está
decidido a preferir la primera. De modo similar, el falsacionista debe preferir la afirmación de que
la velocidad de la luz en el vacío es de 299,8x106 metros por segundo a la afirmación menos precisa
de que es de unos 300x106 metros por segundo, justamente porque la primera es más falsable que
la segunda.

45
Las exigencias de precisión y claridad de expresión, que van íntimamente ligadas, se siguen
naturalmente de la concepción de la ciencia que tiene el falsacionista.

Falsacionismo y progreso
El progreso de la ciencia tal y como lo ve el falsacionista se podría resumir de la siguiente manera.
La ciencia comienza con problemas, problemas que van asociados con la explicación del
comportamiento de algunos aspectos del mundo o universo. Los científicos proponen hipótesis
falsables como soluciones al problema. Las hipótesis falsables como soluciones al problema. Las
hipótesis conjeturadas son entonces criticadas y comprobadas. Algunas serán eliminadas
rápidamente. Otras pueden tener más éxito. Estas deben someterse a críticas y pruebas más
rigurosas. Cuando finalmente se falsa una hipótesis que ha superado con éxito una gran variedad de
pruebas rigurosas, surge un nuevo problema, afortunadamente muy alejado del problema,
afortunadamente muy alejado del problema original resuelto. Este nuevo problema exige la
invención de nuevas hipótesis, seguidas de nuevas críticas y pruebas. Y así el proceso continúa
indefinidamente. Nunca se puede decir de una teoría que es verdadera, por muy bien que haya
superado pruebas rigurosas, pero afortunadamente se puede decir que una teoría actual es superior
a sus predecesoras en el sentido de que es capaz de superar pruebas que falsaron a sus predecesoras.
Antes de que examinemos algunos ejemplos que ilustren esta concepción falsacionista del progreso
científico, habría que decir algo acerca de la afirmación de que “el punto de partida de la ciencia son
los problemas”. He aquí algunos problemas con los que se han enfrentado los científicos en el
pasado. ¿Cómo son capaces los murciélagos de volar tan hábilmente por la noche a pesar de que
sus ojos son muy pequeños y débiles? ¿Por qué la elevación de un barómetro sencillo es inferior en
las grandes altitudes que en las bajas?. ¿ Por qué se ennegrecían continuamente las placas fotográficas
del laboratorio de Roentgen? ¿Por qué se adelanta el perihelio de Mercurio? Estos problemas surgen
a partir de observaciones más o menos sencillas. Así pues, al insistir en el hecho de que el punto de
partida de la ciencia son los problemas, ¿no sucede acaso que para el falsacionista, al igual que
sucedía con el inductivista ingenuo, la ciencia comienza con la observación? La respuesta a esta
pregunta es un rotundo “no”. Las observaciones citadas anteriores como problemas sólo son
problemáticas a la luz de alguna teoría. La primera es problemática a la luz de la teoría de que los
organismos vivos “ven” con los ojos; la segunda era problemática para los partidarios de las teorías
de Galileo, porque estaba en pugna con la teoría de la “fuerza del vacío”, que éstos aceptaban como
explicación de por qué el mercurio no cae en el tubo de un barómetro; la tercera era problemática
para Roentgen porque en esa época se suponía tácitamente que no existía ningún tipo de emanación
o radiación que pudiera penetrar en el recipiente de las placas fotográficas y oscurecerlas; la cuarta
era problemática porque era incompatible con la teoría de Newton. La afirmación de que el origen
de la ciencia está en los problemas es perfectamente compatible con la prioridad de las teorías sobre
la observación y los enunciados observacionales. La ciencia no comienza con la pura observación.
Después de esta digresión, volvamos a la concepción falsacionista del progreso de la ciencia como
progreso desde los problemas a las hipótesis especulativas, a su crítica y a su falsación final y, por
consiguiente, a nuevos problemas. Ofreceremos dos ejemplos, el primero de los cuales es muy
sencillo y trata del vuelo de los murciélagos y el segundo de los cuales es más ambicioso y trata del
progreso de la física.
Comenzamos con un problema. Los murciélagos son capaces de volar con facilidad y a gran
velocidad, evitando las ramas de los árboles, los cables telegráficos, otros murciélagos, etc., y pueden
atrapar insectos. Y, no obstante, los murciélagos tienen ojos débiles y de todos modos vuelan casi
siempre de noche. Este hecho plantea un problema porque, en apariencia, falsa la plausible teoría
de que los animales, al igual que los seres humanos, ven con los ojos. Un falsacionista intentará

46
resolver este problema formulando una conjetura o hipótesis. Quizás sugiera que, aunque los ojos
de los murciélagos aparentan ser débiles, sin embargo, de alguna manera que no se conoce, pueden
ver de manera eficaz por la noche utilizando sus ojos. Se puede comprobar esta hipótesis. Se suelta
un grupo de murciélagos en una habitación a oscuras que contenga obstáculos y se mide de alguna
manera su habilidad para evitar los obstáculos. Luego se suelta en la habitación a los mismos
murciélagos, pero con los ojos vendados. Antes del experimento, el experimentador puede hacer la
siguiente deducción. Una premisa de la deducción es su hipótesis que dice de modo muy explícito:
“Los murciélagos pueden volar y evitar los obstáculos utilizando sus ojos, y no lo pueden hacer sin
usar los ojos”. La segunda premisa es una descripción de la prueba experimental, incluyendo el
enunciado “Este grupo de murciélagos tiene los ojos vendados, de manera que no usan sus ojos”.
A partir de estas dos premisas el experimentador puede derivar deductivamente que el grupo de
murciélagos no será capaz de evitar los obstáculos de modo eficaz en la prueba de laboratorio.
Luego se efectúa el experimento y se descubre que los murciélagos evitan los choques de manera
tan eficaz como antes. La hipótesis ha sido falsada. Ahora hay necesidad de utilizar de nuevo la
imaginación, de formular una nueva conjetura, hipótesis o suposición. Tal vez un científico sugiera
que los oídos de los murciélagos tienen que ver de algún modo con su capacidad para evitar los
obstáculos. Se puede comprobar la hipótesis en un intento de falsarla tapando los oídos de los
murciélagos antes de soltarlos en el laboratorio de la prueba. Esta vez se descubre que la habilidad
de los murciélagos para evitar los obstáculos se ve disminuida considerablemente. La hipótesis ha
sido confirmada. Entonces el falsacionista debe tratar de precisar su hipótesis de manera que se
pueda falsar fácilmente. Se sugiere que el murciélago escucha el eco de sus propios chillidos que
rebotan en los objetos sólidos. Se comprueba esta hipótesis amordazando a los murciélagos antes
de soltarlos. De nuevo los murciélagos chocan con los obstáculos, lo cual confirma de nuevo la
hipótesis. Parece que ahora el falsacionista está llegando a una solución provisional de su problema,
aunque no considera que haya probado mediante el experimento cómo evitan chocar los
murciélagos mientras vuelan. Pueden surgir una serie de factores que muestren que estaba
equivocado. Quizás los murciélagos no detecten los obstáculos con los oídos sino con zonas
sensitivas cercanas a los oídos, cuyo funcionamiento disminuye cuando se tapan los oídos de los
murciélagos. O quizás los diferentes tipos de murciélagos detecten los obstáculos de diferentes
maneras, de manera que los murciélagos usados en el experimento no sean auténticamente
representativos.
El progreso de la física desde Aristóteles hasta Einstein pasando por Newton proporciona un
ejemplo a mayor escala. La concepción falsacionista de ese progreso es más o menos la siguiente.
La física aristotélica tenía éxito en cierta medida. Podía explicar gran variedad de fenómenos. Podía
explicar por qué los objetos pesados caen al suelo (porque buscan su lugar natural en el centro del
universo), podía explicar la acción de los sifones y bombas de extracción (la explicación se basaba
en la imposibilidad del vacío), etc. Pero finalmente la física aristotélica fue falsada de diversas
maneras. Las piedras arrojadas desde lo alto de un mástil de un barco que se movía uniformemente
caían en la cubierta al pie del mástil y no a distancia de él, como predecía la teoría de Aristóteles. Las
lunas de Júpiter giraban alrededor de Júpiter, pero no alrededor de la Tierra. Durante el siglo XVII
se acumularon montones de falsaciones. Sin embargo, una vez que hubo sido creada y desarrollada
la física newtoniana mediante las conjeturas de Galileo y Newton, fue una teoría superior que la de
Aristóteles. La teoría de Newton podía explicar la caída de los objetos y el funcionamiento de los
sifones y bombas de extracción y podía también explicar los fenómenos que resultaban
problemáticos para los aristotélicos. Además, la teoría de Newton podía explicar fenómenos a los
que la teoría de Aristóteles no aludía, tales como las correlaciones entre las mareas y la posición de
la Luna, y la variación en la fuerza de la gravedad con la altura por encima del nivel del mar. Durante
dos siglos, la teoría de Newton se vio coronada por el éxito. Esto es, no tuvieron éxito los intentos
de falsarla mediante los nuevos fenómenos predichos con su ayuda. La teoría condujo incluso al

47
descubrimiento de un nuevo planeta, Neptuno. Pero, a pesar de su éxito, finalmente triunfaron los
continuos esfuerzos por falsarla. La teoría de Newton fue falsada de diversas maneras. No fue capaz
de explicar los detalles de la órbita del planeta Mercurio ni la masa variable de los electrones de
rápido movimiento de un tubo de descarga. Así pues, los físicos se enfrentaron con problemas
estimulantes, a medida que el siglo XIX daba paso al XX, problemas que exigían nuevas hipótesis
destinadas a solucionar esos problemas de un modo progresivo. Einstein fue capaz de responder al
reto. Su teoría de la relatividad fue capaz de explicar los fenómenos que falsaron la teoría de Newton,
al tiempo que era capaz de competir con la teoría newtoniana en las áreas en las que ésta había
triunfado. Además, la teoría de Einstein llevó a la predicción de nuevos fenómenos espectaculares.
Su teoría de la relatividad especial predijo que la masa sería una función de la velocidad, y que la
masa y la energía se podrían transformar la una en la otra, y su teoría general predijo que los rayos
de luz podrían ser desviados por fuertes campos gravitatorios. Los intentos de refutar la teoría
einsteniana mediante los nuevos fenómenos fracasaron. La falsación de la teoría de Einstein sigue
siendo un desafío para los físicos modernos. Su éxito, si se produjera finalmente marcaría un nuevo
paso adelante en el progreso de la física.
Esto dice la típica concepción falsacionista del progreso de la física. Más adelante pondremos en
duda su precisión y validez.
Resulta evidente a partir de lo dicho que el concepto de progreso, de desarrollo científico, es
fundamental en la concepción falsacionista de la ciencia. En el próximo capítulo trataremos este
problema de modo más detallado.

48
LAS TEORIAS COMO ESTRUCTURAS: LOS PARADIGMAS DE KUHN
(Texto transcripto del libro ¿Qué es esa cosa llamada ciencia?, Alan F. Chalmers Cap 8)

Una valoración de la naturaleza y el estatuto de la ciencia y sus métodos.


Observaciones iniciales
Existe una segunda concepción de las teorías científicas como estructuras complejas de cierto tipo
que ha recibido y está recibiendo mucha atención en los últimos años. Me refiero a la concepción
desarrollada por Thomas Kuhn, cuya primera versión apareció en su obra The structure of scientific
revolutions, que se publicó inicialmente en 1962. Kuhn comenzó su carrera académica como físico
y luego centró su atención en la historia de la ciencia. Al hacerlo, descubrió que sus ideas
preconcebidas acerca de la naturaleza de la ciencia quedaban hechas añicos. Se dio cuenta de que las
concepciones tradicionales de la ciencia, ya fueran inductivistas o falsacionistas, no resistían una
comparación con las pruebas históricas. Posteriormente la teoría de la ciencia de Kuhm se desarrolló
como un intento de proporcionar una teoría de la ciencia que estuviera más de acuerdo con la
situación histórica tal y como él la veía. Un rasgo característico de su teoría es la importancia
atribuida al carácter revolucionario del progreso científico, en la que una revolución supone el
abandono de una estructura teórica y su reemplazo por otra, incompatible con la anterior. Otro
aspecto importante reside en el importante papel que desempeñan en la teoría de Kuhn las
características sociológicas de las comunidades científicas.
Los enfoques de Lakatos y Kuhn poseen algunas cosas en común. Concretamente, ambos exigen
de sus concepciones filosóficas que resistan a las críticas basadas en la historia de la ciencia. La
concepción de Kuhn es anterior a la metodología de los programas de investigación científica de
Lakatos y pienso que resulta acertado decir que Lakatos adaptó algunos de los resultados de Kuhn
a sus propósitos. En este libro hemos presentado en primer lugar la concepción de Lakatos porque
se ve mejor como la culminación del programa popperiano y como una respuesta directa a las
limitaciones del falsacionismo de Popper y un intento de superarlas. Las principales diferencias entre
Kuhn, por un lado, y Popper y Lakatos, por otro, estriban en el hincapié que hace el primero en los
factores sociológicos.
El “relativismo”de Kuhn será estudiado y criticado más adelante en este libro. En este capítulo me
limitaré simplemente a resumir las opiniones de Kuhn.
Se puede resumir la imagen que tiene Kuhn de cómo progresa una ciencia mediante el siguiente
esquema abierto:
Preciencia-ciencia normal-crisis-revolución-nueva ciencia normal-nueva crisis.
La desorganizada y diversa actividad que precede a la formación de una ciencia se estructura y dirige
finalmente cuando una comunidad científica se adhiere a un solo paradigma. Un paradigma está
constituido por los supuestos teóricos generales, las leyes y las técnicas para su aplicación que
adoptan los miembros de una determinada comunidad científica. Los que trabajan dentro de un
paradigma, ya sea la mecánica newtoniana, la óptica ondulatoria, la química analítica o cualquier
otro, practican lo que Kuhn denomina ciencia normal. La ciencia normal articulará y desarrollará el
paradigma en su intento por explicar y acomodar el comportamiento de algunos aspectos
importantes del mundo real, tal y como se revelan a través de los resultados de la experimentación.
Al hacerlo experimentarán inevitablemente dificultades y se encontrarán con aparentes falsaciones.
Si las dificultades de ese tipo se escapan de las manos, se desarrolla un estado de crisis. La crisis se
resuelve cuando surge un paradigma completamente nuevo que se gana la adhesión de un número
de científicos cada vez mayor, hasta que finalmente se abandona el paradigma original, acosado por

49
problemas. El cambio discontinuo constituye una revolución científica. El nuevo paradigma, lleno
de promesas y no abrumado por dificultades en apariencia insuperables, guía entonces la nueva
actividad científica normal hasta que choca con serios problemas y aparece una nueva crisis seguida
de una nueva revolución.
Con este resumen como anticipo, procedamos a examinar con más detalle los diversos componentes
del esquema de Kuhn.

LOS PARADIGMAS Y LA CIENCIA NORMAL.


Una ciencia madura está regida por un solo paradigma (desde la redacción de The Stucture Of
Scientific Revolutions, Kuhn ha admitido que en un principio utilizó el término “paradigma” en un
sentido ambiguo. En la Posdata a la edición de 1970 distingue un sentido general del término, al que
ahora se refiere como “matriz disciplinar”, y un sentido estricto del término que reemplaza por el
de “ejemplar”. Continúo utilizando “paradigma” en su sentido general para referirme a lo que Kuhn
ha rebautizado como matriz disciplinar). El paradigma establece las normas necesarias para legitimar
el trabajo dentro de la ciencia que rige. Coordina y dirige la actividad de “resolver problemas” que
efectúan los científicos normales que trabajan dentro de él. La característica que distingue a la ciencia
de la no ciencia es, según Kuhn, la existencia de un paradigma capaz de apoyar una tradición de
ciencia normal. La mecánica newtoniana, la óptica ondulatoria y el electromagnetismo clásico
constituyeron y quizás constituyen aún paradigmas y se califican de ciencias. Gran parte de la
sociología moderna carece de un paradigma y en consecuencia no se califica de ciencia.
Como se explicará más adelante, en la naturaleza de un paradigma está el escapar a una definición
precisa. No obstante, es posible describir algunos componentes típicos que constituyen un
paradigma. Entre esos componentes se encontrarán las leyes explícitamente establecidas y los
supuestos teóricos comparables al núcleo central de un programa de investigación lakatosiano. Así,
por ejemplo, las leyes del movimiento de Newton forman parte del paradigma newtoniano y las
ecuaciones de Maxwell forman parte del paradigma que constituye la teoría electromagnética clásica.
Los paradigmas también incluirán las maneras normales de aplicar las leyes fundamentales a los
diversos tipos de situaciones. Por ejemplo, un paradigma newtoniano incluirá los métodos para
aplicar las leyes de Newton al movimiento planetario, a los péndulos, a los choques de las bolas de
billar, etc. También se incluirá en el paradigma el instrumental y las técnicas instrumentales
necesarios para hacer que las leyes del paradigma se refieran al mundo real. La aplicación en
astronomía del paradigma newtoniano conlleva el uso de diversos tipos acreditados de telescopios,
junto con técnicas para su utilización y diversas técnicas para corregir los datos recopilados con su
ayuda. Un componente adicional de los paradigmas lo constituyen algunos principios metafísicos
muy generales, que guían el trabajo dentro del paradigma. Durante todo el siglo XIX, el paradigma
newtoniano estuvo regido por un supuesto como éste: “Todo el mundo físico se ha de explicar
como un sistema mecánico que actúa bajo el influjo de diversas fuerzas de acuerdo con los dictados
de las leyes del movimiento de Newton”, y el programa cartesiano del siglo XVII suponía el
principio: “No hay vacío y el universo físico es un gran mecanismo de relojería en el que todas las
fuerzas toman la forma de impulsos”. Por último, todos los paradigmas contendrán algunas
prescripciones metodológicas muy generales tales como: “Hay que intentar seriamente compaginar
el paradigma con la naturaleza” o “Hay que tratar los intentos fallidos de compaginar el paradigma
con la naturaleza como problemas serios"”
La ciencia normal conlleva intentos detallados de articular un paradigma con el propósito de
compaginarlo mejor con la naturaleza. Un paradigma siempre será lo suficientemente impreciso y
abierto como para permitir que se hagan ese tipo de cosas (véase la noción algo más precisa de
heurística positiva de Lakatos). Kuhn describe la ciencia normal como una actividad de resolver

50
problemas gobernada por las reglas de un paradigma. Los problemas serán tanto de naturaleza
teórica como experimental. Por ejemplo, dentro del paradigma newtoniano, los problemas teóricos
típicos conllevan la invención de técnicas matemáticas que se ocupen del movimiento de un planeta
sujeto a más de una fuerza atrayente y desarrollen supuestos adecuados para aplicar las leyes de
Newton al movimiento de los fluídos. Los problemas experimentales incluían el perfeccionamiento
de la precisión de las observaciones telescópicas y el desarrollo de las técnicas experimentales
capaces de proporcionar mediciones fiables de la constante gravitatoria. La ciencia normal debe
presuponer que un paradigma proporciona los medios adecuados para resolver los problemas que
en él se plantean. Se considera que un fracaso en la resolución de un problema es un fracaso del
científico, más que una insuficiencia del paradigma. Los problemas que se resisten a ser solucionados
son considerados como anomalías, más que como falsaciones de un paradigma. Kuhn reconoce que
todos los paradigmas contendrán algunas anomalías (por ejemplo, la teoría copernica y el tamaño
aparente de Venus o el paradigma newtoniano y la órbita de Mercurio) y rechaza todas las corrientes
del falsacionismo.
Un científico normal no debe criticar el paradigma en el que trabaja. Sólo de esa manera es capaz de
concentrar sus esfuerzos en la detallada articulación del paradigma y efectuar el trabajo esotérico
necesario para explorar la naturaleza en profundidad. Lo que distingue a la ciencia normal, madura
de la actividad relativamente desorganizada de la preciencia inmadura es la falta de desacuerdo en lo
fundamental. Según Kuhn, la preciencia se caracteriza por el total desacuerdo y el constante debate
de lo fundamental, de manera que es imposible abordar el trabajo detallado, esotérico. Habrá casi
tantas teorías como trabajadores haya en el campo y cada teórico se verá obligado a comenzar de
nuevo y a justificar su propio enfoque. Kuhn ofrece como ejemplo la óptica antes de Newton. Hubo
muchas teorías sobre la naturaleza de la luz desde los tiempos de los antiguos hasta Newton. No se
llegó a un acuerdo general ni surgió una teoría detallada, generalmente aceptada, antes de que
Newton propusiera y defendiera su teoría de las partículas. Los teóricos rivales del período
precientífico no sólo discrepaban en sus supuestos teóricos, sino también en los tipos de fenómenos
observacionales importantes para sus teorías. En la medida en que Kuhn reconoce el papel
desempeñado por un paradigma como guía de la investigación y la interpretación de los fenómenos
observables, da cabida a la mayor parte de lo que he descrito en el capítulo 3 como la dependencia
de la observación por parte de la teoría.
Kuhn insiste en que en un paradigma hay más de lo que se puede exponer explícitamente en norma
de reglas y directrices explícitas. Invoca el análisis efectuado por Wittgenstein de la noción de
“juego” para ilustrar en parte lo que quiere decir. Wittgenstein mantenía que no es posible detallar
las condiciones necesarias y suficientes para que una actividad sea un juego. Cuando se intenta, se
encuentra invariablemente una actividad que la definición incluye pero que no se desearía considerar
como un juego, o una actividad que la definición excluye pero que se desearía considerar como un
juego. Kuhn afirma que existe la misma situación con relación a los paradigmas. Si se trata de dar
una descripción explícita y precisa de algún paradigma en la historia de la ciencia o en la ciencia
actual, siempre resulta que algún trabajo efectuado dentro del paradigma va en contra de la
descripción. Sin embargo, Kuhn insiste en que esta situación no hace insostenible el concepto de
paradigma, del mismo modo que la situación similar con respecto al “juego” no excluye el uso
legítimo de ese concepto. Aunque no existía una descripción explícita y completa, los científicos
traban conocimiento con un paradigma a través de su formación científica. Un aspirante a científico
se pone al corriente de los métodos, las técnicas y las normas del paradigma resolviendo problemas
normales, efectuando experimentos normales y, finalmente, haciendo alguna investigación bajo la
supervisión de alguien que ya es un experto dentro del paradigma. No será capaz de hacer una
relación explícita de los métodos y las técnicas que ha aprendido, del mismo modo que un maestro
carpintero no es capaz de describir plenamente lo que hay detrás de sus técnicas. Gran parte del
conocimiento científico normal será tácito en el sentido desarrollado por Michael Polani.

51
Debido al modo en que es adiestrado, y necesita ser adiestrado, si ha de trabajar de manera eficaz,
un científico normal típico será inconsciente de la naturaleza precisa del paradigma en el que trabaja
e incapaz de articularla. Sin embargo, de esto no se desprende que un científico no sea capaz de
intentar articular las presuposiciones implícitas en su paradigma, si surge la necesidad surgirá cuando
un paradigma se vea amenazado por un rival. En esas circunstancias será necesario intentar detallar
las leyes generales, los principios metodológicos y metafísicos, etc., implícitos en un paradigma para
defenderlos de las alternativas que conlleva el nuevo paradigma que lo amenaza. En la próxima
sección, procederé a resumir la explicación que da Kuhn de cómo puede un paradigma tropezar con
problemas y ser reemplazado por un rival.

Crisis y revolución
El científico normal trabaja confiadamente dentro de un área bien definida, dictada por un
paradigma. El paradigma se le presenta con un conjunto de problemas definidos, junto con unos
métodos que él confía serán adecuados para su solución. Si culpa al paradigma de no haber
conseguido resolver algún problema, estará expuesto a las mismas acusaciones que el carpintero que
culpa a sus instrumentos. No obstante, habrá fallos que pueden a la larga llegar a tal grado de
gravedad que constituya una seria crisis para el paradigma y lleve al rechazo del paradigma y a su
reemplazo por una alternativa incompatible.
La mera existencia dentro de un paradigma de problemas sin resolver no constituye una crisis. Kuhn
reconoce que los paradigmas siempre encontrarán dificultades. Siempre habrá anomalías. Solamente
en condiciones especiales las anomalías se pueden desarrollar de tal manera que socaven la confianza
en el paradigma. Se considerará que una anomalía es particularmente grave si se juzga que afecta a
los propios fundamentos de un paradigma y, no obstante, resiste con vigor a los intentos de
eliminarla por parte de los miembros de la comunidad científica normal. Kuhn cita como ejemplo
los problemas asociados al éter y el movimiento de la tierra relativo a él en la teoría electromagnética
de Maxwell, a finales del siglo XIX. Los problemas que los cometas planteaban al cosmos aristotélico
ordenado y lleno de las esferas cristalinas conectadas entre sí constituirían un ejemplo menos
técnico. También se considera que las anomalías son serias si son importantes con relación a alguna
necesidad social apremiante. Los problemas que abruman a la astronomía tolemaica eran
apremiantes a la luz de la necesidad de la reforma del calendario en la época de Copérnico. También
tendrá que ver con la seriedad de una anomalía la cantidad de tiempo que resista a los intentos de
eliminarla. El número de anomalías serias es otro factor que influye en el comienzo de una crisis.
Según Kuhn, analizar las características de un período de crisis en la ciencia exige tanto la
competencia de un psicólogo como la de un historiador. Cuando se llega a considerar que las
anomalías plantean al paradigma serios problemas, comienza un período de “inseguridad profesional
marcada”. Los intentos por resolver el problema se hacen cada vez más radicales y progresivamente
se van debilitando las reglas establecidas por el paradigma para solucionar problemas.
Los científicos normales comienzan a entablar discusiones metafísicas y filosóficas y tratan de
defender sus innovaciones, de status dudoso desde el punto de vista del paradigma, con argumentos
filosóficos. Los científicos empiezan incluso a expresar abiertamente su descontento e intranquilidad
con respecto al paradigma reinante. Kuhn cita la respuesta de Wolfgang Pauli a lo que éste consideró
como una crisis creciente de la física hacia 1924. Un Pauli exasperado confesó a un amigo: ”En este
momento la física se encuentra en un estado de terrible confusión. De cualquier modo, me resulta
demasiado difícil y me gustaría haber sido actor de cine o algo por el estilo, y no haber oído hablar
nunca de la física”. Una vez que un paradigma ha sido debilitado y socavado hasta el punto de que
sus defensores pierden su confianza en él, ha llegado el momento de la revolución.

52
La gravedad de una crisis aumenta cuando hace su aparición un paradigma rival. “El nuevo
paradigma, o un indicio suficiente para permitir una posterior articulación, surge de repente, a veces
en medio de la noche, en el pensamiento de un hombre profundamente inmerso en la crisis”. El
nuevo paradigma será muy diferente del viejo e incompatible con él. Las diferencias radicales serán
de diversos tipos.
Cada paradigma considerará que el mundo está constituido por distintos tipos de cosas. El
paradigma aristotélico consideraba que el universo estaba dividido en dos reinos distintos, la región
supralunar, incorruptible e inalterable, y la región terrestre, corruptible y sometida al cambio. Los
paradigmas posteriores consideraron que todo el universo estaba constituido por los mismos tipos
de sustancias materiales. La química anterior a Lavoisier implicaba la afirmación de que el mundo
contenía una sustancia denominada flogisto, que se desprende de las materias cuando arden. El
nuevo paradigma de Lavoisier implicaba que no había nada semejante al flogisto, pero que sí existe
un gas, el oxígeno, que desempeña un papel completamente distinto en la combustión. La teoría
electromagnética de Maxwell implicaba un éter que ocupaba todo el espacio, mientras que la
reformulación radical que de ella hiciera Einstein eliminaba el éter.
Los paradigmas rivales considerarán lícitos o significativos diversos tipos de cuestiones. Las
cuestiones relativas al peso del flogisto eran importantes para los teóricos del flogisto e inútiles para
Lavoisier. Las cuestiones relativas a la masa de los planetas eran fundamentales para los newtonianos
y heréticas para los aristotélicos. El problema de la velocidad de la tierra con respecto al éter, que
tenía un profundo significado para los físicos anteriores a Einstein, fue disipado por éste. Del mismo
modo que plantean distintos tipos de cuestiones, los paradigmas conllevan normas diferentes e
incompatibles. Los newtonianos admitían una inexplicada acción a distancia, mientras que los
cartesianos la rechazaban por metafísica e incluso ocultista.
Para Aristóteles el movimiento sin causa era un absurdo, pero para Newton era un axioma. La
transmutación de los elementos ocupa un lugar importante en la moderna física nuclear (al igual que
en la alquimia medieval), pero va completamente en contra de los objetivos del programa atomista
de Dalton. Ciertos tipos de acontecimientos descriptibles dentro de la microfísica moderna suponen
una indeterminación que no tenía cabida en el programa newtoniano.
El paradigma en el que esté trabajando guiará el modo en que el científico vea un determinado
aspecto del mundo. Kuhn mantiene que, en cierto sentido, los defensores de paradigmas rivales
“viven en mundos distintos”. Cita como prueba el hecho de que los astrónomos occidentales
observaron, registraron y analizaron por primera vez cambios en el ciclo después de que se
propusiera la teoría copernicana. Con anterioridad, el paradigma aristotélico había dictaminado que
no podía haber cambios en la región supralunar y, en consecuencia, no se observaba ningún cambio.
Los cambios que se observaron se explicaron como perturbaciones en la atmósfera superior. En el
capítulo 3 se han ofrecido más ejemplos de Kuhn y otros.
Kuhn vincula el cambio de la adhesión por parte de los científicos de un paradigma a otro alternativo
e incompatible con un “cambio de gestalt” o una “conversión religiosa”. No existe ningún
argumento puramente lógico que demuestre la superioridad de un paradigma sobre otro y que, por
tanto, impulse a cambiar de paradigma a un científico racional. Una razón de que no sea posible esa
demostración estriba en el hecho de que en el juicio de un científico sobre los méritos de una teoría
científica intervienen muchos factores.
La decisión del científico dependerá de la prioridad que dé a dichos factores. Los factores incluirán
cosas tales como la simplicidad, la conexión con alguna necesidad social urgente, la capacidad de
resolver algún determinado tipo de problema, etc. Así, por ejemplo, un científico podrá sentirse
atraído por la teoría copernicana debido a la simplicidad de algunas de sus características
matemáticas. Otro podrá sentirse atraído porque ve en ella la posibilidad de la reforma del

53
calendario. A un tercero le podrá haber hecho desistir de la teoría copernicana su interés por la
mecánica terrestre y su conciencia de los problemas que la teoría copernicana le planteaba. Un cuarto
podrá rechazar la teoría copernicana por razones religiosas.
Una segunda razón de que no exista una demostración lógicamente convincente de la superioridad
de un paradigma sobre otro surge del hecho de que los partidarios de los paradigmas rivales
suscribirán distintos conjuntos de normas, el paradigma A podrá ser considerado superior al
paradigma B, mientras que si se utilizan como premisas las normas del paradigma B, el juicio podrá
ser el contrario. La conclusión de una argumentación es convincente solamente si se aceptaban sus
premisas. Los partidarios de paradigmas rivales no aceptarán las premisas de los contrarios y por lo
tanto no se dejarán convencer necesariamente por los argumentos de los demás. Por ese tipo de
razón, Kuhn compara a las revoluciones científicas con las revoluciones políticas. Así como “las
revoluciones políticas pretenden cambiar las instituciones políticas por unos medios que las propias
instituciones prohiben” y en consecuencia “falla el recurso político”, así también la elección “entre
paradigmas rivales resulta ser una elección entre modos incompatibles de vida comunitaria” y
ningún argumento puede ser “lógica ni siquiera probabilísticamente convincente”. Sin embargo,
esto no quiere decir que los diversos argumentos no se encuentren entre los importantes factores
que influyen en las decisiones de los científicos. En opinión de Kuhn, qué tipo de factores resultan
eficaces para hacer que los científicos cambien de paradigma es algo que debe descubrir la
investigación psicológica y sociológica.
Así pues, hay ciertas razones interrelacionadas de que no haya un argumento lógicamente
convincente que dicte el abandono de un paradigma por parte de un científico cuando un paradigma
compite con otro. No hay un criterio único por el que un científico pueda juzgar el mérito o porvenir
de un paradigma y, además, los defensores de los programas rivales suscribirán distintos conjuntos
de normas e incluso verán el mundo de distinta manera y lo describirán en distinto lenguaje. El
propósito de los argumentos y discusiones entre defensores de paradigmas rivales debe ser persuadir
y no coaccionar. Creo que lo que he resumido en este párrafo es lo que hay detrás de la afirmación
Kuhniana de que los paradigmas rivales son “inconmensurables”.
Una revolución científica corresponde al abandono de un paradigma y a la adopción de otro nuevo,
no por parte de un científico aislado sino por parte de la comunidad científica en su totalidad. A
medida que se convierten más científicos, por diversas razones, al paradigma, hay un “creciente
cambio en la distribución de las adhesiones profesionales”. Para que la revolución tenga éxito, este
cambio ha de extenderse hasta incluir a la mayoría de los miembros de la comunidad científica,
quedando sólo unos cuantos disidentes, los cuales serán excluidos de la nueva comunidad científica
y tal vez se refugiarán en un departamento de filosofía. De cualquier modo, finalmente se
extinguirán.

La función de la ciencia normal y las revoluciones.


Algunos aspectos de los escritos de Kuhn podrían dar la impresión de que su concepción de la
naturaleza de la ciencia es puramente descriptiva, esto es, que lo único que pretende es describir las
teorías científicas o paradigmas y la actividad de los científicos. Si este fuera el caso, entonces la
concepción científica de Kuhn tendría poco valor como teoría de la ciencia.
Una supuesta teoría de la ciencia basada solamente en la descripción estaría expuesta a algunas de
las objeciones esgrimidas contra la concepción inductivista ingenua de cómo se llega a las teorías
científicas. A menos que la concepción descriptiva de la ciencia esté configurada por alguna teoría,
no se ofrece ninguna guía con respecto a los tipos de actividades y productos de actividades que se
han de describir. Concretamente, sería necesario, que las actividades y producciones de los
científicos de a pie se documentaran con tanto detalle como los logros de un Einstein o de un
Galileo.
54
Sin embargo, constituye un error considerar que la idea que tiene Kuhn de la ciencia proviene
únicamente de una descripción del trabajo de los científicos. Kuhn insiste en que su concepción
constituye una teoría de la ciencia por que incluye una explicación de la función de sus diversos
componentes. Según Kuhn, la ciencia normal y las revoluciones desempeñan funciones necesarias,
de modo que la ciencia debe conllevar estas características o algunas otras que sirvan para efectuar
las mismas funciones. Veamos cuáles son esas funciones según Kuhn.
Los períodos de ciencia normal proporcionan la oportunidad de que los científicos desarrollen los
detalles esotéricos de una teoría. Trabajando dentro de un paradigma cuyos fundamentos se dan por
sentados, son capaces de efectuar el duro trabajo teórico y experimental necesario para que el
paradigma se compagine con la naturaleza en un grado cada vez mayor. Gracias a su confianza en
la adecuación de un paradigma, los científicos pueden dedicar sus energías a intentar resolver los
detallados problemas que se les presentan dentro del paradigma en vez de enzarzarse en disputas
sobre la licitud de sus supuestos y métodos fundamentales. Es necesario que la ciencia normal sea
en gran medida acrítica.
Si todos los científicos criticaran todas las partes del marco conceptual en el que trabajan todo el
tiempo, no se llevaría a cabo ningún trabajo detallado.
Si todos los científicos fueran y siguieran siendo científicos normales, una determinada ciencia se
vería atrapada en un solo paradigma y nunca progresaría más allá de él. Desde el punto de vista
Kuhniano, este sería un grave defecto. Un paradigma entraña un determinado marco conceptual a
través del cual se ve el mundo y en el cual se lo describe, y un determinado conjunto de técnicas
experimentales y teóricas para hacer que el paradigma se compagine con la naturaleza. Pero no hay
ninguna razón a priori para esperar que un paradigma sea perfecto o que sea el mejor del que se
dispone. No hay procedimientos inductivos que permitan llegar a paradigmas perfectamente
adecuados. En consecuencia, la ciencia debe contener dentro de sí la manera de pasar de un
paradigma a otro mejor.
Esta es la función que cumplen las revoluciones. Todos los paradigmas serán inadecuados en alguna
medida por lo que se refiere a su compaginación con la naturaleza. Cuando la falta de compaginación
es seria, esto es, cuando se desarrolla una crisis, el paso revolucionario de reemplazar todo el
paradigma por otro resulta esencial para el progreso efectivo de la ciencia.
La alternativa de Kuhn al progreso acumulativo que es la característica de las concepciones
inductivistas de la ciencia es el progreso a través de las revoluciones. Según los inductivistas, el
conocimiento científico aumenta continuamente a medida que se hacen observaciones más
numerosas y más variadas, permitiendo que se formen nuevos conceptos, que se refinen los viejos
y que se descubran entre ellos nuevas y justas relaciones. Desde el particular punto de vista de Kuhn,
eso es un error, porque ignora el papel que desempeñan los paradigmas guiando la observación y la
experimentación. Es precisamente porque los paradigmas tienen esa influencia persuasiva sobre la
ciencia que en ellos se practica por lo que su reemplazo por otro debe ser revolucionario.
En la explicación de Kuhn se tiene en cuenta otra función que es digna de mención. Los paradigmas
de Kuhn no son tan precisos como para poder ser reemplazados por un conjunto explícito de reglas,
como se dijo anteriormente.
Los diferentes científicos o grupos de científicos bien pueden interpretar y aplicar el paradigma de
un modo algo diferente. Enfrentados a la misma situación, no todos los científicos tomarán la misma
decisión ni adoptarán la misma estrategia. Eso tiene la ventaja de que se multiplicará el número de
estrategias intentadas. Así, los riesgos se distribuyen por toda la comunidad científica y las
probabilidades de tener éxito a largo plazo aumentan. “¿De qué otro modo”, se pregunta Kuhn,
“podría el grupo en su totalidad cubrir sus apuestas?”.

55
LA CONCEPCIÓN HIPOTÉTICA DE LA CIENCIA

Anteriormente hemos discutido el problema de la justificación del conocimiento y hemos analizado,


entre todas las posibles vías clásicas que se han propuesto, cuatro orientaciones justificacionistas de
gran prestigio histórico. Nuestra conclusión fue que ninguna de ellas ofrece realmente garantía de
verificación, es decir, el establecimiento de la verdad de los enunciados generales o teóricos de una
disciplina Hemos reconocido cierto grado de utilidad en estas metodologías, tanto como
adiestramiento de nuestra dificultad de pensar como por proporcionar formas probabilísticas de
conocimiento. Pero si nos aferráramos a una pretensión absolutista, en el sentido de sostener que
la ciencia tiene que establecer la prueba concluyente del conocimiento, nada conjetural o
probabilístico debería ser aceptado en ella, y las conclusiones capítulo anterior podrían ser
esgrimidas como una especie de vindicación de las tendencias científicas que sostienen muchos
filósofos y pensadores contemporáneos. ¿Por qué tendríamos que creer en lo que afirman los
científicos si, como hemos comprobado, las metodologías clásicas fracasan en cuanto a la pretensión
de justificar el conocimiento que aquellos afirman detentar? ¿Cuál es el fundamento entonces de las
teorías científicas, cuya formulación es tarea primordial y exitosa como hecho sociológico y cultural?
Es indudable que los filósofos, epistemólogos y científicos tienen una respuesta para esas preguntas,
aunque ella no coincida con las que han ofrecido sus colegas del pasado. En este capítulo
comenzaremos a desarrollarla
El primer paso consiste en presentar la llamada concepción hipotética de la ciencia, que supone
admitir, lisa y llanamente, que la mayoría de los enunciados científicos, en un momento determinado
de la historia, son aceptados por los hombres de ciencia a título de hipótesis y no de enunciados
justificados. Sin duda Platón, Kant o Aristóteles dirían que estamos ante una conclusión pesimista,
pero también es posible concebirla como una posición modesta, ya que trabajar con hipótesis o
conjeturas es admitir que estamos concibiendo visiones provisorias de la realidad, susceptibles de
ser mejoradas, corregidas o aun drásticamente cambiadas, según las circunstancias La historia de la
ciencia ha demostrado que es conveniente concebir a la ciencia de esta manera, porque aún las
mejores teorías científicas han terminado por ser reemplazadas por otras a las que se las ha
considerado más eficaces o abarcativas. Si la concepción hipotética parece razonable para ciencias
fácticas tales como la física, la química o la biología, con mayor razón aún lo será en el ámbito de
las ciencias sociales, donde hay una propensión mayor a convertir nuestras creencias, prejuicios e
ideologías en dogmas o verdades evidentes para nosotros, a la vez que los puntos de vista de
nuestros colegas aparecen intuitivamente como radicalmente equivocados y dignos de ser
combatidos, aún con los peores recursos. Es adecuado, desde el punto de vista de la ética cultural,
que seamos conscientes de que nuestras teorías sociológicas, jurídicas o económicas son conjeturas
provisorias acerca de cómo “funciona” la realidad, y que debemos estar dispuestos a abandonarlas
para que su lugar sea ocupado por mejores aproximaciones.
El corazón de esta metodología radica en la noción de enunciado hipotético o simplemente hipótesis,
y es por ello que ofrecemos la siguiente caracterización detallada de este concepto:
1) Una hipótesis científica es un enunciado afirmado o formulado por alguien, un hombre de
ciencia o una comunidad ciencia, en cierto lugar, en ciertas circunstancias y en cierto momento de
la historia; De acuerdo con esta exigencia, el status de hipótesis de un enunciado tiene historia,
porque dependerá de que alguien la haya formulado como tal en determinada oportunidad.
2) En el momento en que se propone una hipótesis, para quien la formula se halla en “estado
de problema”: se ignora su valor de verdad, es decir, no está verificada ni refutada. Si, por fortuna,
se la pudiera verificar, dejará de ser una hipótesis y se convertirá en un enunciado verdadero, es
decir, conocimiento científico probado. Apeteceríamos que esto ocurriese pero, como ya vimos,

56
parece que en el caso de ciertos enunciados no está totalmente vedada tal prueba o verificación.
Podría ocurrir, por otra parte, que se pudiese probar la falsedad del enunciado hipotético, es decir,
que fuese refutado. En tal caso el enunciado también deja de ser hipótesis. Se afirma, por ejemplo,
que en el siglo XVIII el químico alemán Stahl formuló la “hipótesis del flogisto”, aunque luego se
muestre por qué resultó ser falsa. Lo que se quiere decir es que en aquel momento se ignoraba su
valor de verdad y hubo de pasar el tiempo para que se la dejara de concebir como hipótesis pues se
probó que el enunciado conjeturado era falso. Hecha esta aclaración, no hay contrasentido alguno
en la afirmación de que la hipótesis de flogisto resultó ser falsa. Se trata de una suerte de cortesía
histórica para con Stahl y los flogistas. El ejemplo muestra, como ya señalamos. Que el status de
hipótesis tiene sentido histórico, y la que hoy es hipótesis puede no serlo mañana, y lo que es
hipótesis para Juan puede no serlo para Pedro (quizá porque Pedro, a diferencia de Juan, ya conoce
cuál es el valor del enunciado).
3) Quién formula la hipótesis, pese a que ésta se encuentra en estado de problema, supone que
ella es verdadera. Lo hace como quien práctica una suerte de juego, una de cuyas reglas consiste
precisamente en admitir provisionalmente la verdad del enunciado “para ver qué pasa” en
consecuencia. La palabra suposición no debe ser entendida aquí como sinónimo de creencia, lo cual
no impide que realmente aquel que propone la hipótesis crea en la verdad del enunciado que afirma.
Puede suceder, incluso, que quién formula la hipótesis no crea en ella, pero tal caso no hace a la
cuestión. La hipótesis pudo haber sido formulada por un colega y nosotros estar convencidos por
distintas razones de que podemos refutarla. Pero en cuanto consideramos la hipótesis del colega
“para ver qué pasa” con ella, debemos suponerla verdadera, aunque nuestro propósito sea mostrar
que tal suposición conduce a una terrible contradicción, caso en el cual quien la propuso será
condenado al escarnio y la befa, a la vez que nuestro espíritu se colmará de malvada satisfacción.
La anterior definición de hipótesis científica no concuerda exactamente con el uso del término
hipótesis que se emplea en el lenguaje cotidiano, porque en éste es perfectamente posible que se
formulen enunciados hipotéticos cuya falsedad ya se conoce. Muchas veces se proponen las llamadas
“hipótesis contrafácticas”: de un episodio no acontecido, por ejemplo, se supone que aconteció con
el fin de deducir qué hubiera sucedido en tal caso. De ello puede resultar, quizás, una moraleja o un
relato de ciencia ficción. El padre que dice a su hijo “Si hubieses estudiado, hoy serías un hombre
de provecho” da por sentado que en realidad el hijo no estudió, la novela El hombre en el castillo, de
Philip K. Dick, se supone que los Aliados fueron derrotados en la segunda guerra mundial, de lo
cual surge una geopolítica y una sociedad posterior totalmente distinta de las realmente establecidas
luego de 19?? Una escuela norteamericana de historiadores práctica la llamada “historia
contrafáctica” y ha explorado sistemáticamente ciertos temas desde este punto de vista; por ejemplo,
ha investigado cómo hubiera sido el desarrollo de los Estados Unidos si no se hubieran construido
los ferrocarriles (lo cual sucedió realmente en Venezuela, donde, de hecho, existe una sola vía
ferroviaria). Esta clase de investigación no es tan inútil como se presenta a primera vista. Un
escéptico podría objetar: “Por que investigar lo que sabemos que no sucedió?" Porque el ejercicio
de considerar cómo hubiera sido el desarrollo de un país si no hubiesen acontecido ciertas
circunstancias, obliga forzosamente a acordar sobre cuales son las leyes históricas, económicas,
sociales o políticas a las que está sometido. Si no dispusiésemos de buenas teorías al respecto no
podríamos deducir, de nuestras suposiciones contrafácticas, que es lo que hubiese sucedido. Detrás
de esta clase de investigaciones hay una rica discusión acerca de la presunta existencia de leyes
históricas y, en general de ley que formularían parte de las teorías de las ciencias sociales.
De ahora en adelante, mientras no aclaremos lo contrario, cada vez que hablamos de una hipótesis
se entenderá que se halla en estado de problema, y que deberá de ser hipótesis en el momento mismo
en que se obtenga de ella una verificación o una refutación. Podemos ahora presentar la concepción
contemporánea acerca de la ciencia, pese a sus amplias y significativas variantes, afirmando que, en

57
la mayor parte, los enunciados que constituyen las teorías científicas son hipótesis en tal sentido,
tienen un carácter provisional, por cuanto pueden resultar a la posterioridad verificadas o refutadas.
En este último caso, nos veremos obligados a modificar o sustituir las teorías, es decir, recurrir a
nuevas hipótesis en lugar de las anteriores.
¿Cómo opera entonces el método científico, dado que ahora no disponemos de ningún enunciado
de partida concluyentemente verificado y debemos tratar como hipótesis? Comencemos por
preguntamos: ¿por qué nos vemos obligados a formular una hipótesis? Estas no surgen seguramente
por generación espontánea, sino como respuesta a algún problema. Ciertos hechos pueden haber
llamado nuestra atención por ser incomprensibles u oponerse a aquellas creencias a las que, hasta el
momento estábamos acostumbrados. Quizá las mediciones realizadas con ciertos instrumentos no
se corresponden con lo esperado. Cuando surge un problema de este tipo científico o tecnológico,
se formulan hipótesis con el fin de explicar lo que nos intriga y acceder a las aplicaciones prácticas
que generalmente surgen de tener un problema solucionado. El primer paso en la historia de la
ciencia que lleva a proponer una hipótesis es la existencia; de problemas, aunque esto no niega que,
en algunos caso una hipótesis pueda surgir por razones psicológicas totalmente independientes de
la existencia de algo intrigante. A veces se afirma que la resolución del problema requiere de una
teoría y no de una mera hipótesis, pero una teoría no es otra casa que un conjunto de hipótesis
mantenidas a la vez, lo cual no impide, aclaremos desde y que este conjunto sea unitario: en ciertos
casos una teoría puede estar constituido por una sola hipótesis.
Frente a un problema, no siempre hay una única hipótesis posible que lo resuelva o sea pertinente
para investigarlo. La diferencia que advertimos entre el temperamento clásico ligado a la
investigación científica y el moderno punto de vista hipotético es que éste permite proponer
distintos modelos provisorios de la realidad para comprender lo que nos intriga Forma parte de las
características “democráticas” de la actividad científica el permitir, en principio, que cada científico
intente dar soluciones a un problema, mediante la formulación de hipótesis de la manera que mejor
le parezca. La tolerancia es una ventaja para la marcha de la investigación científica. Cuantos más
modelos se propongan, más posibilidades tendremos de encontrar la verdad o, por lo menos, una
presenta verdad que admitiremos como guía de investigaciones posteriores. Pero conviene hacer
notar que la libertad para formular hipótesis no es, en modo alguno, piedra libre para que cada
investigación disponga de su teoría propia o exprese sus prejuicios a través de sus hipótesis. Como
veremos más adelante, hay criterios que permiten decidir, en un momento dado de la historia de la
ciencia, si una hipótesis o teoría es “mejor” que otra y, cuál de ellas ha de ser escogida por la
comunidad científica. Pero en principio, las hipótesis que se formulan a propósito de un problema
pueden ser múltiples, alternativas y hasta antagónicas. Señalemos finalmente que las hipótesis tienen
carácter provisorio y es necesario aceptar que la mayoría de ellas serán refutadas y abandonadas en
el futuro. Incluso puede suceder que algunas, repudiadas en cierto momento histórico, vuelvan a ser
tenidas en cuenta en una etapa del desarrollo científico.

¿Qué hacer con las hipótesis?


Supongamos que, dado un determinado problema, alguien ha formulado una hipótesis H1 que trata
de resolverlo. Por ser una hipótesis, H1 no puede, en general, ser sometida a un proceso directo de
verificación o refutación; si se trata de una generalización, porque excede en su descripción de la
realidad el número finito de casos del cual disponemos, y, si contiene términos teóricos, porque
hace afirmaciones acerca de lo no observable. En tal sentido, una hipótesis seria, en principio, una
simple conjetura; pero no podemos pensar que el método científico consista simplemente en
formular hipótesis, enorgullecernos por ello y dar por terminada la investigación. Proponer
simplemente una hipótesis no es sinónimo de haber obtenido conocimiento. ¿Qué hacer a renglón

58
seguido? En primer lugar, parece razonable tratar de analizar que se deduce lógicamente de ella. La
ventaja de hacerlo es que la hipótesis puede, a la manera aristotélica producir nuevas hipótesis y, por
otra parte, llevarnos a obtener cierto tipo de enunciado observacional que nos permita controlar la
hipótesis por medio de la experiencia.

H1 Hipótesis de partida

deducciones

Hipótesis

Contrastación de H1
H2 H3 H4
derevidas

H5 H6

Consecuencias
observacionales
O1 O2 O3

1 2 3
Observaciones pertinentes

En el diagrama hemos representado la hipótesis H1, a partir de la cual, por deducción, obtenemos
nuevos enunciados, H2, H3 y H4 (las flechas simbolizan deducciones que pueden ser muy
complicadas). Por el momento llamaremos a H1 “hipótesis de partida” (se entiende, de la
investigación), aunque puede llegar a ser, en algunos casos el principio de una teoría, en cuyo caso
también se la llamará “hipótesis fundamental”. En general, no se sabrá si es verdadero o falso lo que
se obtenga deductivamente de una hipótesis y, puesto que debemos suponer que la hipótesis de
partida es verdadera y razonamos correctamente, garantizando así la conservación de la verdad,
estamos obligados a suponer, consecuentemente, que H2, H3 y H4 también son verdaderas. Como
se cumplen las condiciones definitorias de lo que hemos llamado hipótesis, resulta entonces que H2,
H3 y H4 lo son. A estas hipótesis deducidas de una hipótesis de partida las llamamos “hipótesis
derivadas”. Se entiende que el razonamiento que permite obtenerlas, indicado en el esquema por
medio de flechas, es estrictamente deductivo, y que no se trata de inferencias aproximadas o
estadísticas que no tienen garantía de conservación de la verdad. En principio, la obtención de
nuevas hipótesis a partir de la hipótesis inicial es un proceso que no tiene por qué concluir en
momento alguno; podemos a partir de las nuevas hipótesis deducir más y más hipótesis, tal y como
H5, H6 y así sucesivamente. Esta máquina lógica de obtención de hipótesis a partir de la hipótesis
de partida es potencialmente infinita: no hay límites para lo que puede obtenerse por vía deductiva,
aunque es obvio que sólo algunas de las hipótesis que así se produzcan serán verdaderamente
interesantes para el problema que estamos investigando. Conviene señalar que cuando hablamos de
deducciones nos referimos a todas las formas correctas de razonamiento que reconoce la lógica, y
cuyo número de premisas puede ser variado. La tradicional lógica del silogismo aristotélico podría
hacernos creer que para que un razonamiento esté bien construido debe forzosamente poseer dos
premisas, pero en realidad puede contener tres, como por ejemplo en el clásico razonamiento
llamado “dilema”, o cualquier número aún mayor o, incluso, tener solamente una premisa, como
ocurre en los razonamientos en los que se presenta un enunciado universal como premisa y se
“salta” al caso particular.
Obtener hipótesis derivadas tiene múltiple interés. Si se advierte que son, en realidad, enunciados
previamente verificados, o al menos ya adoptados por los científicos, podría decirse que la hipótesis

59
H1 explica las hipótesis derivadas cuya verdad ya era conocida. Consideramos por ejemplo la teoría
de Newton. Sus hipótesis fundamentales (las tres leyes de movimiento y la ley de gravitación
universal) constituyen una suerte de gran hipótesis de partida única que resulta de afirmarlas
simultáneamente, y lo que estaría en estudio sería entonces este gran “hipotesón”. Ahora bien, del
“hipotesón” newtoniano se deduce la ley de caída de los cuerpos de Galileo, que ya era conocida y
admitida en tiempos de Newton 1 . Se dice entonces que la hipótesis newtoniana de partida (el
“histesón”), o la teoría de Newton, explica la ley de caída de los cuerpos. ¿Qué significa esto? Que
ahora se comprende por qué los cuerpos caen así y no de otro modo, ya que su comportamiento se
deduce de los principios de la teoría newtoniana, siempre y cuando, naturalmente, tal teoría
constituya nuestro marco teórico aceptado. La deducción de hipótesis derivadas tiene, entonces, un
interés explicativo.
Un segundo interés podría ser llamado sistemático y se vincula con aquella afirmación de Nagel
según la cual la ciencia es conocimiento sistemático y controlado. Cada una de las hipótesis
científicas podrían obtenerse, en principio de manera independiente, pero si esto sucediera la
investigación científica sería algo muy complicado. No es conveniente concebir a la ciencia como
un conjunto disperso e inconexo de hipótesis. Es muy importante advertir que el conocimiento
científico puede sistematizarse y jerarquizarse en el sentido de que gran parte de nuestros
conocimientos se obtiene a partir de algunos que son más fundamentales o, por lo menos, que han
sido ya obtenidos y admitidos. El esquema lógico jerárquico que hace depender ciertas verdades de
otras es el que transforma a la ciencia o, por lo menos, a una teoría científica, en un sistema. Si no
fuese por el empleo de la herramienta deductiva, tal sistematicidad no podría obtenerse y en este
aspecto el temperamento científico contemporáneo prolonga la tradición deductivista de
Aristóteles.
Un tercer interés de las hipótesis derivadas radica en que, utilizando el mecanismo lógico, no sólo
obtenemos hipótesis ya aceptadas, que quedan así explicadas y también sistematizadas, sino además
nuevas hipótesis y, por tanto, en el contexto de descubrimiento, posibles nuevas leyes científicas y
nuevo conocimiento.
Es indudable que formular una hipótesis tiene serias consecuencias desde el punto de vista
epistemológico, porque quien la propone queda atrapado en una red infinita de hipótesis implicadas
por la hipótesis original. Un científico puede quedar prendado de una hipótesis por la cual siente
particular afecto, pero comprobar luego que algunas de sus hipótesis derivadas resulta a la postre
inquietantes e descabelladas. Las hipótesis de partida de la teoría darwinista original parecen
inofensivas, pero al cabo de deducir se arriba a la hipótesis derivada llamada “principio de la
selección natural”, que tiene fuertes connotaciones polémicas, éticas y teológicas. Quién formula
una hipótesis debe, por tanto, hacerse cargo de sus consecuencias, como aquel joven enamorado
que se casa con su novia y, luego del éxtasis inicial, descubre que se ha casado además con los padres
de ella, sus cuatro hermanos, sus ocho sobrinos, sus cinco primos y sus veinte amigas. De cualquier
modo, tanto la hipótesis inicial como las que se deducen de ella son algo así como una estructura
especulativa y el método que estamos empleando, por el momento, no pasa de ser una especie de
máquina de especular. Pero ya se advierte por qué se lo llama “hipotético deductivo”: se trata de la
propuesta de hipótesis y de la obtención de otras hipótesis por medio de la deducción.

1
En realidad, la ley de Galileo es sólo una aproximación muy aceptable de la ley de caída que se deduce de la
teoría de Newton. Lo mismo sucede con las leyes de Kepler y otras ya conocidas en años anteriores a la
formulación de la mecánica newtoniana.

60
Consecuencias observacionales y contrastación
Así concebida, esta máquina de producir hipótesis no podría en modo alguno ser fuente de
conocimiento, pues nada hay en ella que informe acerca de los presuntos méritos de nuestra red
deductiva para describir la realidad. Se requiere algún componente metodológico adicional que
permita estimar la excelencia o las falencias de las hipótesis obtenidas con este método, y cuya
misión radicará en comparar lo que tales hipótesis afirman con lo que en realidad ocurre. La realidad,
como ya lo señalamos en el Capítulo 2, se nos ofrece a través de la base empírica, y por tanto parece
inevitable, a modo de control de nuestras hipótesis, comparar lo que se ha conjeturado con lo que
se advierte en la base empírica. ¿Cómo puede hacerse? Si de la hipótesis original se logra obtener,
luego de deducir y deducir, algún enunciado empírico básico, de primer nivel, parecería que la
hipótesis inicial está implicando afirmaciones acerca de lo observable. Llamaremos a estos
enunciados “consecuencias observacionales” de la hipótesis. Parece conveniente llevar a cabo la
comparación entre lo que afirman estas consecuencias observacionales y lo que muestra la base
empírica. En este punto el científico debe apartarse momentáneamente de la estructura deductiva
descripta y realizar las observaciones, espontáneas, sistemáticas o provocadas por medio de
experimentos. Por esta razón el método hipotético deductivo debería denominarse con mayor
propiedad “método hipotético deductivo empírico”.

Llamaremos “observaciones pertinentes” a aquellas que se efectúen con el fin de averiguar cuál es
el grado de acierto o desacierto de las consecuencias observacionales deducidas de un hipótesis.
(Remitimos al lector al esquema de la pág. 53)no es forzoso que una hipótesis (o las hipótesis
fundamentales de una teoría) tenga consecuencias observacionales, pero de existir éstas será posible
llevar a cabo observaciones pertinentes y proceder al control de la hipótesis. Supongamos que
estamos en presencia de la consecuencia observacional O1 y realicemos la observación pertinente 1
para ver si lo que acontece en la base empírica se corresponde o no con lo que afirma O1. Esta
consecuencia observacional podría afirmar por ejemplo, que la aguja de cierto dial debe coincidir
con la raya número diez de la escala, enunciado singular que se refiere a un hecho de la base empírica.
Realizamos la observación pertinente y comprobamos una de dos posibilidades: que las cosas no
son como las describe O1 (la aguja no coincide con la señal diez) o bien que sí lo son (la aguja
coincide con la señal diez). En el primer caso, resulta que O1 es falsa, con lo cual refutamos la
consecuencia observacional. Pero si hemos partido de una sola hipótesis, H1, nos vemos forzados a
reconocer que H1 también es debe ser falsa. ¿Por qué? Porque si H1 hubiese sido verdades, O1 debió
haberlo sido, puesto que la hemos obtenido razonando correctamente, con garantías de observación
de la verdad. Pero O1 es falsa, y por consiguiente H1 tiene que serlo también. En este momento, H1
deja de ser una hipótesis y muestra ser enunciado falso: hemos refutado la hipótesis. Podría decirse
que éste es uno de los modos característicos mediante los cuales una hipótesis es refutada y deja,
por consiguiente, de hallarse en estado de problema. Su condición de hipótesis muere por
refutación.

¿Qué sucedería en cambio si la observación pertinente O1 coincidiera con lo afirmando por la


consecuencia observacional? En nuestro ejemplo, veríamos coincidir la aguja con la raya diez de la
escala y diríamos que la consecuencia observacional es verdadera. ¿Podemos por tanto afirmar que
la hipótesis de partida H1, también es verdadera?. Aquí debemos considerar que: no podemos
afirmar nada al respecto, porque de premisas falsas se puede obtener una conclusión verdadera. Por
consiguiente, ante el hecho de que O1 es verdadera nos cabe la siguiente duda que H1 sea verdadera
y que nuestra deducción nos ha hecho concluir O1, también verdadera, o bien que H1, sea falsa pero
nos hallemos ante uno de aquellos extraños casos en que un razonamiento correcto tiene alguna
premisas falsa pero conclusión verdadera. La verdad de O1 no nos permite decidir acerca del valor
de verdad de H1: no hemos ganado conocimiento y H1, prosigue en estado de problema. Lo único

61
que podemos afirmar es que hemos puesto en aprietos a la hipótesis inicial y ésta, por el momento,
salió airosa. Si queremos seguir manteniendo H1, podemos hacerlo, pues no ha quedado refutada,
sino que, por el contrario, ha resistido con éxito un intento de refutarla. Salió victoriosa de la
dificultad. Se le ha pedido a la hipótesis su documento de identidad y lo ha exhibido.
La operación que hemos descrito, que implica poner a prueba una hipótesis examinando una
consecuencia observacional de la misma, se llama “contrastación de la hipótesis". Como resultado
de la operación de contrastar una hipótesis se obtiene o bien refutación y abandono de la misma, o
bien, su conservación y supervivencia. Lo que la contrastación no puede garantizar es la verificación
de la hipótesis, sino algo más débil que siguiendo a Popper, llamamos “corroboración”. La
corroboración significa, simplemente, que si bien seguimos sin saber nada acerca de la verdad de la
hipótesis, esta ha resistido un intento de refutarla y ha probado, hasta el momento, no ser falsa.
Como dice Popper, ha “mostrado su temple". Se advierte una extraña asimetría en esta operación
de contrastación, pues el resultado, es o bien terminantemente negativo y destructor de la hipótesis
o bien no sabemos lo que pasa con ella. De cualquier manera, la operación de contrastación pone
bajo examen a la hipótesis inicial y, como se advierte, si la hipótesis es errónea, muy bien puede
suceder que de ella se desprenda una consecuencia observacional falsa y de esta manera quede
desenmascarada su falsedad. En esto consiste, en principio, el método hipotético deductivo en lo
que vamos a llamar su “versión simple”, donde “simple” significa a la vez “ingenua", pues aquí
subyace la idea de que una sola consecuencia observacional adversa basta para aniquilar a una
hipótesis y desterrarla del ámbito de ciencia. En la actividad científica real no se procede de esta
manera, ya que ningún científico estaría dispuesto a desechar una hipótesis porque haya sufrido el
traspié de una sola refutación. Más adelante, cuando discutamos el método hipotético deductivo en
una versión modificada, más compleja, menos ingenua veremos que la caracterización anterior del
método es demasiado terminante, aunque hay ejemplos en los que sucede exactamente lo descrito.
Conviene aquí realizar una precisión terminológica Se emplea a veces el anglicismo “testeo” (del
inglés test) para referirse exclusivamente a la operación de verificar o refutar una consecuencia
observacional. La operación de contrastación, en cambio, es la de poner a prueba y estimar las
consecuencias de la hipótesis de partida mediante el proceso ya descrito de deducir, obtener
consecuencias observacionales, realizar observaciones pertinentes y concluir del “testeo" qué ocurre
con la hipótesis original. En ese sentido, la contrastación es un proceso complejo y no singular, en
tanto que el “testeo" es, simplemente, un procedimiento comparativo ente una consecuencia
observacional y una observación. Una hipótesis (o una teoría) que no tuviere consecuencias
observacionales no sería susceptible de este control empírico y, en general, de este tipo de estrategia
metodológica. De ahora en adelante, mientras no digamos nada en contrario, supondremos que las
hipótesis que estamos considerando son aquellas que son contrastables, o sea que tienen
consecuencias observacionales y por tanto permiten su contrastación.

Vida y muerte de una hipótesis


Ahora bien, ¿cómo prosigue la práctica del método hipotético deductivo si una hipótesis científica
queda corroborada? Popper aclara que, en un principio, en lugar de corroboración, empleaba la
palabra confirmación: afirmaba que una hipótesis que ha resistido el intento de refutarla queda
confirmada. Pero luego desistió de este uso por sus connotaciones de carácter deductivo–
probabilístico. Estaríamos tentados de suponer que, cuando hay confirmación, ha aumentado la
probabilidad de que la hipótesis sea verdadera o, por lo menos, ha acontecido algo que podría
denominarse “elemento de juicio favorable” a la hipótesis. Según observa Popper, y es difícil no
coincidir con él, la operación de contrastación no aumenta en ningún sentido (ni absoluto ni
probabilístico) nuestro conocimiento de la verdad de la hipótesis. Si hay corroboración, una
hipótesis prosigue en estado de problema y mantiene su misteriosa falta de verificación exactamente

62
igual que antes de que fuera contrastada. Lo único que Popper acepta, desde san punto de vista
pragmático, es que, si se ha contrastado varias veces una hipótesis y ésta ha resistido todos los
intentos de refutarla, se puede afirmar que es “fuerte”, en el sentido de que ha demostrado su
capacidad de supervivencia. Pero entonces es necesario repetir el proceso de contrastación, esta vez
con la consecuencia observacional O2 y su correspondiente observación pertinente número 2, de lo
cual, nuevamente, podría resultar la refutación de la hipótesis (con lo cual acabaría el proceso) o
bien una nueva corroboración. De acuerdo con lo que, para Popper, sería algo así como una ética
relacionada con el concepto de investigación, habría que volver a contrastar. Y esto proseguiría
indefinidamente en tanto no aconteciese, en el proceso de repetir y repetir la operación de
contrastación, alguna refutación que terminara imprevistamente con la hipótesis. De no ocurrir ello,
la hipótesis permanece en estado de problema, se la puede sostener y emplear como supuesta verdad
para la investigación científica.
Nos enfrentamos ahora con una cuestión metodológica adicional: ¿qué sucede cuando se dispone
de hipótesis alternativas para explicar los fenómenos o problemas en estudio? En general, no hay
más remedio que investigar cada hipótesis por separado y confirmar en que, a la larga una de las
hipótesis quede refutada y la otra corroborada, en cuyo caso la comparación entre ambas ha
terminado porque una de ellas ha fracasado y la otra ha mostrado ser suficientemente “fuerte”, por
el momento, para sobrevivir. Esto es lo que ha llevado a señalar a algunos autores que el pro ceder
hipotético deductivo opera meta metafóricamente de un modo similar a la evolución darwiniana
Hay hipótesis en competencia con supervivencia de la más apta, porque la menos apta quedara
refutada antes lo cual no significa que tarde o temprano la superviviente no correrá la misma suerte
a causa del desarrollo de los acontecimientos. En esta concepción del método, la vida de una
hipótesis (o de una teoría) es dura, trágica, y para cada una de ellas podría escribirse acerca de su
nacimiento, pasión y muerte. Ante el problema que debe resolver, la hipótesis nace, pero luego
empieza el terrible proceso de contrastación por medio del cual se la intenta aniquilar. Ella resiste,
pero constantemente es agraviada por nuevos episodios de contrastación hasta que, finalmente, la
refutación termina con ella en un dramático episodio de muerte epistemológica
El método científico consistirá, entonces en enfrentar problemas, proponer hipótesis, aplicar la
lógica para averiguar qué implican, confrontar sus consecuencias con la realidad observable y, de
acuerdo con el resultado, abandonar la hipótesis por refutación o por corroboración. Esta
concepción, por supuesto, conserva ecos de antiguas metodologías. La componente racionalista,
que se advierte tanto en el platonismo como en el aristotelismo, se manifiesta aquí por el hecho de
que inventar hipótesis implica un ejercicio de nuestra mente, de nuestra razón y de nuestra
imaginación. Pero, por otra parte, el método reserva un importante papel a la experiencia Los datos
empíricos ya no desempeñan el papel verificador que tenían en el método inductivo del antiguo
empirismo, pero son indispensables en dos etapas del método hipotético deductivo. En el contexto
de descubrimiento, cumplan la función de llevarnos hacia los problemas, pues, ¿qué otra cosa sino
las observaciones son las que muestran que hay algo intrigante o incomprensible que merece la
formulación de una hipótesis? Por otra parte, y en un sentido aún más importante, son el elemento
de control a través de las contrastaciones, y permiten poner en evidencia de esta manera, las
excelencias o defectos de nuestras hipótesis. Resulta por tanto que el método hipotético deductivo
es una especie de combinación humilde, no pretensiosa y no justificacionista de la orientación
racionalista aristotélica y del empirismo asociado al método inductivo tradicional. Debemos agregar
que, además de imaginación para producir hipótesis, el método incluye el mecanismo lógico, que
debe computarse del lado de nuestras actitudes racionales y no del de la observación empírica. Esto
es lo convierte al método hipotético deductivo en un procedimiento que tiene más analogías con el
pensamiento aristotélico de lo que, en principio, se pudiera creer.

63
CONOCIMIENTO TECNOLÓGICO

Ciencia, Técnica y Tecnología


Repasemos algunos conceptos: hemos sostenido que el hombre intenta conocer el orden de
la Naturaleza, entender y adueñarse del mundo que habita, hacerlo más confortable, ha
construido un mundo artificial, un cuerpo de ideas que llamamos Ciencia, el cual se puede
corporizar como un conocimiento racional, sistemático, exacto, verificable y por
consiguiente falible. A través de la investigación científica ha alcanzado una reconstrucción
conceptual del mundo.
Por Ciencia se entiende a la actividad intencionalmente volcada para producir el
conocimiento científico. En esa actividad los científicos siguen ciertos procedimientos
lógicos, genéricamente denominados métodos científicos y que sirven de guía para
orientarlos en los trabajos y en la búsqueda de nuevos conocimientos. El método científico
es el conjunto de operaciones, tales como observación, clasificación, formulación de
hipótesis, experimentación, etc., que varían conforme al objeto de estudio y a la propia
concepción de los investigadores sobre éste. Un elemento común es la actitud crítica, capaz
de evaluar permanentemente los medios empleados en la búsqueda de nuevos
conocimientos
La palabra Ciencia, por lo tanto, en sentido estricto, se refiere a la forma de tener
conocimientos o conocimientos científicos. Un aspecto característico del conocimiento
científico es de ser fundamentado, o sujeto a una verificación y por lo tanto que incluye, en
cualquier forma o medida, una garantía propia y válida. Es un conocimiento racional, por lo
tanto reflexivo, sustentando una lógica racional, lo cual no significa que sea infalible; al
contrario, significa que es un conocimiento basado en argumentaciones y reflexiones y, por
eso mismo, sujeto a una continua revisión y corrección. Es un conocimiento en permanente
estado de elaboración y que se puede presentar en diversas formas de elaboración, así como
las hipótesis, leyes, principios, teorías, como también descripciones y clasificaciones de
determinado aspecto o naturaleza. Un conjunto de esos conocimientos en relación a un
determinado objetivo forma una ciencia específica, tal como la Física, la Química, la
Medicina, etc.
La garantía que ofrece el conocimiento científico no es solo el resultado de la observación,
de los procedimientos lógicos de investigación y los controles utilizados en su búsqueda,
también es necesario que estos conocimientos sean examinados y evaluados por la
comunidad de científicos e investigadores. Sus hechos y teorías tienen que pasar por un
filtro, compuesto por una fase de análisis críticos y pruebas realizadas por individuos
competentes y desinteresados, los cuales deberán determinar si ellos son bastantes
convincentes para ser universalmente aceptados.
Para la comprensión del tema Tecnología es interesante hacer una distinción entre ciencia
básica y ciencia aplicada. De modo general, la ciencia básica (pura y fundamental) se ocupa
de adquirir nuevos conocimientos, no estando subordinada a intereses prácticos e
inmediatos, el investigador estudia problemas de su interés, en función de motivos
cognoscitivos. En la ciencia aplicada, por el contrario, los conocimientos son buscados para
ser utilizados dándole solución a problemas identificados, de posible interés social. Por

64
ejemplo la Química es una ciencia básica, pero la química de los afluentes del agua es una
ciencia aplicada.
La ciencia básica como la ciencia aplicada buscan conocimientos para explicar la naturaleza
física, química, biológica, social, etc., observándose aquellos procedimientos, operaciones y
conductas que constituyen lo que se denomina el método científico. La tecnología utiliza los
conocimientos científicos disponibles, pero no se limita a ellos. La ciencia también es
conocimiento, pero utilizado a veces en forma exclusiva en ciertas tecnologías, no es
tecnología, ni la tecnología es ciencia. La ciencia se caracteriza por su método para obtener
conocimientos: el método científico. La Tecnología, en cambio no se caracteriza por el
método empleado para obtener el conocimiento.
La Tecnología es la ciencia como actividad, como investigación productora de nuevas ideas
aplicada al mejoramiento de nuestro medio natural y artificial, a la invención y manufactura
de bienes materiales y culturales. Desde esta concepción la Tecnología es el conjunto de
conocimientos científicos, técnicos, y artesanales que permiten producir un bien (de
capital o de consumo), o un servicio.
Esa definición pone de manifiesto que dentro del conocimiento tecnológico,
necesariamente, se involucra conocimiento científico, si éste no fuera incluido, entonces
estaríamos hablando de Técnica y no de Tecnología. El conocimiento técnico es diferente del
conocimiento tecnológico y del científico, aunque se relacione también con las leyes
naturales y los métodos de trabajo, tienen, esos tres tipos de conocimiento, pocos elementos
en común. Los de la Ciencia tienen necesidad de un desarrollo lógico, de tipo deductivo; los
de la Técnica deben llegar a lo eficaz y son a menudo inductivos, negligentes de la
demostración, contorneantes de los obstáculos para llegar a la formula simple, fuente de
todas las soluciones aceptables. La Técnica, a diferencia de la Tecnología, es una forma o un
método para llegar a un objetivo predeterminado, es eficaz, pero no necesariamente es
eficiente, el conocimiento técnico es el resultado del “saber hacer”, su base es empírica, sin
sustentación científica, no necesita explicar los procesos. Concluyendo, la técnica significa
práctica o conocimiento práctico, práctica que además incluye reglas. O dicho de otra forma,
la técnica se refiere al cómo hacer algo a través de procedimientos definidos con alguna
precisión. En cambio la Tecnología tiene un contenido de conocimiento científico que la
sustenta, la explica y la hace eficiente.
La tecnología como conjunto de conocimientos y medios necesarios para la producción de
mercancías, puede aparecer de dos formas:

1) Corporizada en los instrumentos de producción (maquinarias y equipos) en tanto


incorporen conocimientos técnicos que las hagan eficientes.
2) Simplemente ser un flujo de información técnica, algo intangible pero imprescindible
para poder utilizar dichos instrumentos.

Ya sea como objeto tangible o intangible, la tecnología tiene una serie de características en
cuanto a precisión, versatilidad, adaptabilidad y confiabilidad que la hacen un insumo útil
para la producción. Asimismo sus características técnicas imponen, en cierta medida, la

65
utilización de una determinada mano de obra calificada y no calificada, necesaria para poder
ser implementada adecuadamente. Todas estas cualidades de la tecnología la convierten en
un objeto útil, con un valor de uso.

Tecnología libremente disponible y tecnología restringida o confidencial


La tecnología no es solo un valor de uso sino también un valor de cambio, es decir, una
mercancía. Sin embargo existen conocimientos tecnológicos que pueden ser libremente
obtenidos, y, en esa medida y al igual que el aire y el agua o un documento de identidad, no
tienen valor de cambio, aunque si sean útiles, tengan valor de uso.
La tecnología libremente disponible no es una mercancía y su difusión se realiza por diversos
canales, por ejemplo: libros, revistas científicas y técnicas, etc. Por lo contrario, la tecnología
restringida o confidencial no puede ser obtenida gratuitamente sino a través de un mercado
donde la misma se comercializa. De este modo no solo tiene un valor de uso sino también
un valor de cambio, es una mercancía.
La tecnología a la cual nos referiremos de ahora en adelante será esta última, o sea la cual es
una mercancía.

La tecnología puede ser obtenida por compra, por trueque, por robo o por producción
propia, mientras que la ciencia, con un gran valor de uso, tiene en general un bajo valor de
cambio, pues está a disposición de cualquiera y se realiza, en general, con esa premisa,
diseminación libre de los conocimientos adquiridos.

La producción de conocimientos tecnológicos


Luego de la Segunda Guerra Mundial, la tecnología ingresó en una etapa que queda bien
descripta como Etapa de Fabricación de Tecnología. Esa etapa dejó atrás a otras dos etapas
que son similares a las de la producción:

Etapa artesanal: Inventores aislados. La actividad inventiva e innovativa recaían


fundamentalmente sobre los inventores independientes.
Etapa Manufacturera: Comienza luego de la anterior, en los últimos treinta años del siglo
pasado. Laboratorios pequeños nucleados por científicos y técnicos.

La etapa actual de Fabricación de Tecnología


En la década de los años ´50, la actividad inventiva e innovativa pasa a ser integrada dentro
de las nacientes corporaciones industriales. Los laboratorios de Investigación y Desarrollo
(I & D), donde trabaja personal calificado en relación de dependencia, comienzan a ser un
elemento imprescindible para aquellas empresas que concentran sus actividades en las
nuevas industrias.

66
La figura del inventor individual - fruto de su habilidad técnica o de su ingenio - ha dado
paso a la investigación en equipo y en costosos laboratorios que solo pueden ser mantenidos
por grandes empresas.
Casi con independencia del producto o de la rama industrial de que se trate, es posible
afirmar que los inventores individuales generalmente trabajan en innovaciones
cualitativamente distintas a las que se gestan en los laboratorios de las empresas
manufactureras. Típicamente operan sobre partes poco conectadas de sistemas mayores o
innovaciones pequeñas y marginales que requieren habilidad mecánica antes que profundos
conocimientos técnicos.

Los resultados de la actividad innovativa


El flujo de actividad innovativa permite la disminución de los costos de producción
mediante:
1) La introducción de nuevos procesos que elevan la dotación de capital por persona
ocupada.
2) La introducción de un sinnúmero de nuevos productos que acrecientan la capacidad
competitiva de las empresas que realizan dicha actividad en los mercados donde actúan.

“La Brecha Tecnológica”


La evolución industrial transformó profundamente el campo de la ciencia y de la técnica.
Uno de los aspectos más importantes es la aceleración de su transformación es un factor
para la comprensión y dominio de la naturaleza. Se puede decir que ha dejado el plano
teórico para pasar a ser el motor que impulsa el desarrollo de los pueblos.
Las naciones se han reubicado en base a su potencial científico y tecnológico y para esto han
contribuido tres factores:

1) El incremento exponencial que han experimentado los conocimientos científicos y


tecnológicos en el siglo XX acompañados por una drástica reducción del intervalo entre el
progreso y su aplicación práctica.

Como dato se expone:

* Entre las experiencias de Faraday en 1821 y la integración de los motores eléctricos


al sistema productivo en 1886 mediaron 65 años.
* Entre los estudios de Maxwell y Hertz en 1881 y la comercialización de los receptores
de radio en 1922, pasaron 35 años.
* Entre las formulaciones teóricas en 1935 y la concreción tecnológica del radar en
1940 transcurrieron 5 años.

67
* Entre los desarrollos teóricos en 1938 y la materialización de la bomba atómica en
1945, pasaron 7 años.
* Para el transistor, de 1948 a 1951, solo 3 años.
* Para la batería solar, de 1953 a 1955, pasaron 2 años.

2) La profesionalización de la ciencia y de la tecnología avanzada, la cual de actividad


lúdica e inusitada a principios del siglo XX se ha convertido en factor de ocupación de
grandes contingentes humanos.
3) La expansión de los recursos volcados a las actividades de la investigación científica
y de desarrollo tecnológico.

Este formidable desarrollo científico y tecnológico no fue paralelo en los diversos países del
mundo y este hecho produjo fenómenos económicos, sociales y políticos que caracterizan
nuestra época. Una de sus consecuencias es la acentuación de la “brecha tecnológica”, y ésta
está vinculada a las formas dominantes de incorporación del progreso tecnológico.
En cada época hay formas de progreso tecnológico que son cualitativamente más
importantes que otras para determinar la base tecnológica futura de una economía y la base
a seguir para alcanzarla.
El carácter de una forma determinada en relación a otras formas contemporáneas de la
incorporación del progreso tecnológico, depende de su capacidad para producir un progreso
trascendental en el plano tecnológico de la economía, que contribuya a configurar aspectos
esenciales de la futura y nueva economía.
Ese carácter dominante es manejado y aprovechado por las grandes empresas
multinacionales para establecer su estrategia global para el dominio de los mercados al
servicio de su propósito final de maximización de utilidades.
Las economías capitalistas industriales, dominantes tecnológicamente, establecen el rango
dentro del cual puede moverse el desarrollo de las fuerzas productivas de las economías
dependientes.
Como consecuencia muy importante, la base de la dependencia tecnológica no estriba tanto
en el drenaje de divisas y royalties por la utilización de los derechos de la propiedad industrial
(patentes, marcas, asistencia técnica, etc.) sino más concretamente a la falta de opcionales
que tienen los países subdesarrollados para la incorporación de tecnología de avanzada, la
cual tiende a acentuar la brecha que los separa de los industrializados.
En estos últimos, el flujo de nuevos productos e innovaciones tecnológicas que los
acompañan son esenciales para el funcionamiento de la economía, en el ámbito mundial
tales factores operan en el sentido de preservar las relaciones de dominación y dependencia.
Habíamos dicho que el proceso tecnológico tiene dos formas básicas:
- Transformación del proceso productivo, lo que permite elevar la dotación de capital por
persona ocupada.

68
- Diversificación de los bienes y servicios finales.

Se afirma que los países subdesarrollados han asimilado prioritariamente esta segunda forma,
y esto deriva su condición de subdesarrollo, en ellos, el progreso tecnológico ha
modernizado más los hábitos de consumo que transformado sus procesos productivos.

Los frutos del avance tecnológico


El avance tecnológico tiene frutos y su apropiación por la empresa innovadora va a depender
fundamentalmente de la estructura del mercado donde ésta produce sus bienes y servicios.
Encontramos dos posibilidades:
a) Se trasladan los menores costos a los consumidores a través del mecanismo
competitivo. El impacto del gasto en I&D sobre la rentabilidad será mínimo.
b) La empresa puede ejercer una posición monopólica de forma tal que el fruto de la
innovación resulta en mayores ganancias. Esta es la forma predominante en las industrias
donde la tecnología es un factor vital en el desarrollo de la corporización de bienes y
servicios. La tecnología se erige como una de las barreras al ingreso de potenciales
competidores a dichas industrias, contribuye como importante factor al crecimiento de la
empresa industrial.

Las innovaciones exitosas pasan a ser factores de quasi rentas que permiten obtener
beneficios monopólicos a las empresas que la poseen. Al mismo tiempo, los mercados donde
actúan estas empresas adquieren las características típicas del oligopolio industrial.
Para conformar una estructura oligopólica es condición necesaria un alto grado de
concentración económica. En este tipo de estructura las empresas reconocen, en general, la
interdependencia existente en la fijación de los precios y, de ahí, que es frecuente que
recurran a acuerdos explícitos o implícitos que eviten la competencia en ese plano.
Esto hace que los precios de los productos fabricados exhiban una marcada inflexibilidad a
la baja, lo que impide, entre otras cosas, una traslación al consumidor de los frutos del avance
tecnológico.

Explotación de las innovaciones


Los productos en los cuales se corporizan las innovaciones pueden ser exportados al
mercado mundial directamente como tales o bien su alternativa que es el licenciamiento. La
empresa poseedora de la innovación exporta directamente la innovación como
conocimiento tecnológico. De esta manera la producción de bienes donde se aplica la
tecnología se hace en otro territorio con capital y mano de obra local.
En este caso la poseedora de la tecnología recibe una retribución, una regalía que
generalmente se calcula como porcentaje de las ventas respectivas.

69
La empresa multinacional
En este caso la empresa poseedora del conocimiento, además de licenciar el conocimiento
tecnológico, realiza una inversión directa que permite controlar total o parcialmente la
operación de la firma donde se hace la producción respectiva y luego recibe el retorno por
la licencia tecnológica como parte de la utilidad resultante de la inversión directa. Si esta
inversión directa se realiza en un número importante de países nos hallamos en presencia
de una empresa multinacional.
En cambio cuando se trata de exportación o licenciamiento puro estamos frente a una
empresa nacional con ascendencia tecnológica exportadora de bienes y conocimientos.
La inversión directa es la forma más avanzada de expansión de las corporaciones en la
economía mundial y la más significativa en cuanto a importancia económica. Es el medio
más importante de explotación de las ventajas inherentes al avance tecnológico que han
desarrollado las corporaciones industriales de los países de mayor desarrollo.
Las subsidiarias ubicadas en áreas subdesarrolladas reciben el producto del gasto en I&D
realizando en los laboratorios centrales de la corporación y contribuyen con sus utilidades
efectivas (entre los que se encuentran los pagos en concepto de tecnología) a financiar dichos
gastos, que, en realidad, son parte de la inversión de las empresas y que permiten su
expansión en la economía mundial.
En el plano tecnológico se da una división del trabajo por la cual la casa matriz, y a veces
algunas subsidiarias de envergadura, concentran el esfuerzo en la creación de innovaciones
técnicas y las subsidiarias las aplican y contribuyen a financiarlo. También financian la
expansión internacional de la empresa a que pertenecen.

La transferencia intrafirma de tecnología


La tecnología transferida a la filial no implica un costo adicional en materia de I&D para la
corporación a la que la misma pertenece pues las filiales no requieren una tecnología
especial, dado que los productos y procesos que constituyen la línea de actividades de la
subsidiaria han sido utilizados en otros mercados y además tampoco implica un gasto de
adaptación a las condiciones locales puesto que las técnicas empleadas son esencialmente las
mismas.

Paquete transferido a la filial


En este caso se le transfiere un conjunto de conocimientos que hacen al proceso de
producción, el diseño y especificaciones de planta y de los equipos y maquinarias. También
se involucra tecnología incorporada en bienes tangibles que son elaborados (o fueron
usados) por la misma empresa.
En la etapa de construcción recibe la ingeniería básica, de detalle, procesos involucrados,
diseño y especificaciones de equipos a ser adquiridos a terceros y conocimientos necesarios
para ir modificando los procesos existentes para mejorar la prestación o la eficiencia.

70
Todo este flujo de información hace que la subsidiaria pueda operar con relativa eficacia y
disponer de la experiencia industrial y comercial necesaria para competir exitosamente. Lo
que no transmiten a las filiales es la capacidad de creación tecnológica.
La I&D en la subsidiaria
En la enorme mayoría de los casos las subsidiarias que actúan en la Argentina no participan
en la generación de I&D. Las filiales aplican pero no crean tecnología.
Las innovaciones les sirven para actuar eficazmente como productores de bienes y servicios
pero no las transforman en productoras de tecnología. Lo que se denomina gastos de I&D
en las subsidiarias radicadas en nuestro país se refiere fundamentalmente a la adaptación de
insumos y productos a las condiciones locales, solución de problemas de producción y
control de calidad. Es un estrecho complemento de la actividad productiva corriente y está
lejos de transformar a las mismas en creadoras de conocimiento tecnológico.
Esto no significa que no haya algunas excepciones pero aún en los casos donde las
subsidiarias hacen tareas genuinas de I&D, las mismas son solo un fragmento del programa
global, en cuya planificación y gestión tienen escasa injerencia.
La actividad de I&D no está multinacionalizada en las empresas internacionales como lo
está la actividad productora de bienes tangibles y servicios. Las grandes unidades de I&D
están concentradas en los países donde están radicadas las casas matrices y en alguno que
otro país industrializado. Esta distribución especial de la actividad tecnológica resulta
claramente racional para la empresa en su conjunto si se tiene en cuenta que en la generación
de tecnología existe necesidad de economías de escala y se necesita además una larga
experiencia acumulada.
Todo este proceso descripto de transferencia de tecnología se lleva a cabo en el seno de la
empresa multinacional. Lo que trasciende a la empresa son los bienes y servicios producidos
con la tecnología que posee la corporación pero no la misma tecnología. Cuando ésta llega
a ser de dominio público ya no es tecnología restringida y por ende pierde su valor como
mercancía.

Las patentes de invención


La patente de invención es un instrumento mediante el cual se legitima el monopolio de
explotación de un invento durante un período determinado, disminuyendo el uso posible de
la invención con el objeto de generar una renta económica.
Las patentes incluidas en los acuerdos de licencia no siempre son explotadas industrialmente.
En muchos casos cumplen la misma función que la enorme masa de patentes cuyos titulares
son empresas multinacionales y que no se aplican a la producción: sirven de cobertura de
mercado y, por ende de bloqueo a la producción eventual de los productos o procesos
protegidos por parte de las firmas locales. Las patentes sirven no solo para tener protección
legal frente a eventuales imitadores cuando la invención en cuestión se lleva a la práctica,
sino también y fundamentalmente para impedir el acceso de competidores en las áreas en
que la corporación tiene ascendencia tecnológica.

71
Logrado el dominio de una industria a través de la propiedad de las patentes, la empresa
multinacional crea las condiciones necesarias para su control perpetuo, proporcionando, a
menudo el principal o único mercado para el inventor independiente y llega a ser el principal
o único lugar de empleo para el inventor profesional y trabajador en el campo de la actividad.
Domina, en efecto, el cauce principal del pensamiento inventivo y perpetúa su poder a través
de las patentes.
La penetración masiva de la empresa multinacional en la economía argentina desde fines de
la década del 50 se ha visto también reflejada en la composición del patentamiento. Mientras
que a principios de esa década más del 60% de las patentes se concedían a inventores
independientes, a fines de los años 60, dichas patentes decrecen al 25% del total. Las patentes
de sociedades, la mayor parte de origen multinacional, adquieren una enorme
preponderancia y prácticamente monopolizan el patentamiento en las ramas de actividad de
mayor importancia. Los titulares de patentes son en su gran mayoría las casas matrices de
firmas extranjeras especializadas en electrónica, productos farmacéuticos y otros productos
químicos, etc. Un pequeño porcentaje de dichas patentes son concedidas bajo licencia,
fundamentalmente a subsidiarias pero también a terceros independientes y, por ello, forman
parte de los contratos de transferencia de tecnología tanto intra como interfirma.
La razón que determina el rápido crecimiento de las patentes en poder de empresas
extranjeras (en su gran mayoría multinacionales) debe buscarse en el acelerado crecimiento
en el plano científico - tecnológico que se ha hecho referencia, que demanda una creciente
necesidad de recursos económicos para la investigación.
En virtud de lo expuesto se deduce que las patentes aun cuando jueguen un rol de escasa
importancia en la transferencia de tecnología intrafirma sirven fundamentalmente como un
arma más en la competencia oligopólica actuando de bloqueo frente a potenciales
competidores con lo cual contribuyen a preservar la posición privilegiada de la empresa
multinacional en materia tecnológica.
Las patentes que se incluyen en los contratos de tecnología forman parte, generalmente, de
una transferencia mayor, es excepcional encontrar acuerdos de licencia que verse solo sobre
patentes. Con la patente sola es difícil tener la tecnología necesaria y lo esencial de la
transferencia son los conocimientos adicionales. La minoría de las patentes que constituyen
objetos contracturales de los acuerdos de tecnología con las empresas nacionales
contribuyen a elevar el costo de los contratos sin agregar prestaciones equivalentes.

El precio de la tecnología transferida


Los contratos celebrados entre filiales y casas matrices tienen algunas características que
merecen destacarse:
1) Al ser firmados por dos partes de un mismo conjunto económico pierden validez
como reales contratos entre dos entes independientes y se hacen fundamentalmente con
carácter precautorio frente a eventuales nacionalizaciones y justificatorio de los pagos de
regalías ante los gobiernos respectivos.

72
2) Son, en su mayoría, totalmente generales y abarcan todas las prestaciones posibles
(patentes, marcas Know-How, asistencia técnica, etc.) aunque esto no significa que
efectivamente se materialicen. Además su duración, también generalmente, es indefinida.
3) Las ventas cubiertas por los contratos abarcan casi la totalidad de las que realizan las
subsidiarias. Esto significa que no solo incluyen las innovaciones mayores o menores
efectivamente transferidas, sino toda la línea de producción de la subsidiaria, sean procesos
o productos introducidos recientemente hace diez años.
4) El precio explícito de la tecnología transferida contractualmente es un porcentaje de
las ventas bajo licencia.

En el caso de contratos entre partes de una misma empresa, las regalías pierden su valor
como precio de la tecnología y se transforman en un canal más para la remisión de utilidades
generadas en la subsidiaria. Mientras que en un contrato de transferencia de tecnología entre
dos empresas no vinculadas accionariamente entre sí contribuyen al precio de la tecnología
las regalías conjuntamente con otros precios explícitos, tales como las importaciones ligadas,
y otros implícitos como las restricciones comerciales. En la empresa multinacional pierden
su significado y se convierten en uno de los subterfugios que la corporación tiene para
transferir fondos entre subsidiarias o entre éstas y la casa matriz.

Las fábricas y empresas de tecnología


Se describen brevemente cuatro sectores de donde las empresas industriales en general, se
nutren de tecnología.
1) Los productores de la misma rama de actividad (comercializan el mismo producto).
Su producto principal son los bienes tangibles o servicios. Compran tecnología y en sus
laboratorios de investigación y desarrollo producen tecnología para la propia empresa,
también la venden.
2) Empresas de tecnología. Comercializan tecnología: patentes, procesos, bienes de
capital específicos. Los desarrollan en laboratorios de I&D, los cuales innovan
continuamente sobre esas mismas plantas de procesos o equipos mecánicos. Ejemplo:
Midrex (reducción directa), Morgan (trenes de laminación), etc.
3) Empresas de tecnología que operan en varios sectores industriales, no producen
bienes de capital específicos. Comercializan inventos, innovaciones, procesos. Principal
producto: Know-How. Ejemplo : INVAP
4) Universidades e institutos que hacen investigación científica y generan conocimiento
que a su vez genera tecnología. Ejemplo: CONICET, INCITH, SINDECA, UBA, etc.

El “saber cómo” y el “saber porque”


El conocimiento tecnológico consta de dos partes, el “saber cómo” (Know-How), y “saber
porque” (Know-Why). Cuando se incorpora un paquete tecnológico se transfiere solo una
parte de su contenido, el “saber cómo”, la otra parte no viene dentro del paquete, no se

73
vende. Este conocimiento es desarrollado en laboratorios de Investigación y Desarrollo
(I&D) que generan, mediante la investigación, el conocimiento básico para saber cómo se
hace y poder armar un paquete tecnológico que es comercializable.
El “Know why” está constituido por el conocimiento básico de la tecnología que se ha
desarrollado, es el resultado de la conjunción de los principios físicos, mecánicos, eléctricos,
electrónicos, metalúrgicos, etc, en que se basa la tecnología en gestación. El “Know why”
involucra todo el trabajo de investigación del laboratorio para llegar a un resultado, incluye
los ensayos, los errores, las correcciones y fundamentalmente las experiencias de los
investigadores. Justamente, el “Know why” es el conocimiento básico para saber cómo se
hace, o sea para llegar al “Know how”. Por lo tanto el “Know how” es el resultado visible
del “Know why”. El “Know how” se emplea para la producción, o para el empleo del
sistema desarrollado. Por ejemplo, los planos, especificaciones y demás recomendaciones o
“secretos” para la construcción de un producto o una maquina constituyen el “Know how”,
sirven para construir o para fabricar, pero no explican por qué es como es, ese otro
conocimiento es el “Know why”, el cual nunca se comercializa, es un secreto del Laboratorio
de I&D. La única parte comercializable es siempre el “Know how”. Es la información que
llega a la fábrica y también la que se transfiere en un contrato de licencia.

Los problemas del “saber cómo”


El Know-How así incorporado está sometido a rendimientos decrecientes con el tiempo,
pues su utilidad decrece con el tiempo toda vez que se lo aplica a un fijo y dado sistema.
Este hecho, con el transcurso del tiempo, trae como resultado que los problemas a resolver
se vuelvan cada vez más específicos y ligados al equipamiento particular utilizado, calidad de
materia prima, mano de obra y presión por los costos con los que la empresa debe
desenvolverse. Esto es así cuando el flujo de Know-How se incorpora desde afuera y no se
incluye el esfuerzo propio para conocer el porqué, ya que es el Know-Why el que posibilita
adecuar el Know-How externo a las condiciones específicas y particulares propias,
haciéndolo productiva y aumentando el valor de uso de la tecnología.
Solo a través de una adecuada profundización buscando los conocimientos físicos,
eléctricos, químicos y mecánicos en que se asientan las bases de la tecnología es posible
resolver esos problemas en el contexto de las condiciones de contorno impuestas por la
misma. De esta forma sí se cumple aquello que, el conocimiento no está sujeto a rendimientos
decrecientes, ni tampoco tiene costo marginal: no cuesta más usarlo en una, dos o más plantas
o aplicaciones.
El Know-Why así desarrollado permite operar con capacidad de decisión propia e
independiente, logrando:
i) Ampliar la capacidad productiva.
ii) Adaptar la tecnología a las necesidades locales.
iii) Optimizar los procesos.
iiii) Incorporar herramientas operativas modernas.

74
La función del ingeniero
El aparato productivo argentino, en su mayoría, está conformado por fábricas con máquinas
ya amortizadas en sus países de origen, equipamiento sin mantenimiento desde años atrás,
procesos que involucran una alta dosis de mano de obra o con tecnología obsoleta. Estas
condiciones elevan el costo de los productos manufacturados e impiden la competencia con
los provenientes de la importación, a esto se suman problemas de calidad, de productividad
y la falta de tradición en el desarrollo de tecnología.
Cabe preguntarse: ¿Cuál es la función del ingeniero ?, ¿Cómo espera la sociedad que sea su
reacción frente a esta cuestión?. El ingeniero se encuentra frente a un problema, debe
orientar su voluntad a una determinada dirección. El problema, en este contexto, es
solucionarlo con una decisión, y esta radica en la elección de cuál debe ser la dirección
delineada de su actitud. Elaboramos tres alternativas:

a) Tomar los hechos como naturales y obvios adjudicando a lo que se tiene se hace el
valor de un paradigma rígido o verdad establecida. De esta manera los cambios tecnológicos
se convierten en una amenaza para la supervivencia de la actividad.
b) Servir a la profundización de la dependencia y proveer la solución que ya han
alcanzado, o la que pudieran alcanzar otros. Dicho de otro modo, sería comprar el
conocimiento tecnológico y pagarlo con el esfuerzo de la sociedad toda, puesto que es
aquella quién en última instancia paga los costos adicionales de la adquisición del paquete
tecnológico. Los calificamos de adicionales puesto que es la sociedad quién sostiene el
sistema educativo secundario, terciario y universitario en este caso, que ha posibilitado que
sus integrantes se nutran de información y conocimientos tales que es sus atribuciones se
halle la posibilidad de tomar estas decisiones.
c) Con una actitud consciente y deliberada de reflexión buscar la ruptura de hábitos,
técnicas, pautas de conductas antes adquiridas y fundamentalmente de conocimientos
aceptados. Para esto está dotado de herramientas, son los conocimientos técnicos, básicos y
específicos transmitidos por la Universidad y, principalmente, la capacidad, también
concedida por la formación, para generar la solución tecnológica de la cuestión. Como
ingeniero no debe esperarse que sea investigador científico, pero sí que asuma que el
problema y la solución pasan por su actitud frente a la realidad, asumir el problema como
propio rol y la solución propia de la función es el primer paso, el cual no implica otra cosa
que, está en la conocida actitud crítica. El segundo paso, con el apoyo de las teorías y la
experiencia, es la formulación de una hipótesis de solución. Es este paso los conocimientos
específicos que circundan el problema a resolver son fundamentales y son los que en
definitiva van a orientar la propuesta de la posible solución. La experiencia ligada a la
problemática en particular y la creatividad, más las condiciones de contorno, son las bases
para la corporización de un prototipo o método de ensayo de la solución teórica. En esta
metodología el ingeniero no puede operar solo, debe ser apoyado por la empresa o por los
servicios de las empresas de tecnología que operan en varios sectores industriales o también
las universidades e institutos que hacen investigación científica (por el Estado en última
instancia)

75
Lógicamente, como era de esperarse, estas operaciones implican una inversión de capital,
tanto la instalación del laboratorio de investigación y desarrollo y su funcionamiento, como
la consulta a los sectores citados. Debe ser interpretado como el costo de llegar al
conocimiento tecnológico, el cual, como ya se dijo, no está sujeto a rendimientos
decrecientes. A pesar de eso es frecuente encontrar resistencia a esa práctica, resulta menos
oneroso o más fácil importar solución y pagar las regalías.
Es conocida la sentencia que dice que la industria no tiene prestigio social ni político y que
la inventiva e innovación no forman parte de nuestra cultura. Este hecho puede se puede
explicar de la siguiente manera:
El hombre es un creador de cultura y también se forma incorporando la cultura a su
personalidad, mediante ejemplos verbales y no-verbales, ésta adquiere la forma de
conductas aprendidas. La industria está formada por empresas y éstas conducidas por
hombres.

76
INTRODUCCIÓN A LA INNOVACIÓN TECNOLÓGICA

Cada uno de los desarrollos imaginados por Leonardo Da Vinci constituyó una idea revolucionaria,
un helicóptero, un submarino, por sólo dar algunos ejemplos. Si en la época renacentista hubieran
estado disponibles los materiales y la tecnología necesarios, esas ideas, brillantes por cierto, se
hubieran convertido en productos. ESO ES INNOVACION.
Si bien los conceptos “creatividad” e “innovación” han tomado un cariz relevante ante el proceso
de globalización de los mercados, tuvieron su génesis mucho antes de que esto último ocurriera.
Hacia 1513 Machiavello, en su libro El Príncipe, ya afirmaba “No hay nada más difícil de emprender,
más penosos de conducir, o más incierto en su éxito que tomar el liderazgo en la introducción de
un nuevo orden de cosas. Porque el innovador tiene como enemigos a todos aquellos que han
proliferado bajo la situación vieja, y sólo tibios defensores en aquellos que podrían proliferar bajo
la nueva”.
Sin lugar a dudas, contar con un espíritu innovador se ha transformado en un requisito
imprescindible para las empresas que deben desarrollarse en un mercado globalizado como el actual,
signado por la competencia, la ausencia de fronteras económicas y el cambio permanente.
En este contexto la innovación, como un proceso de “destrucción creativa”, es la que genera en
forma continua la realidad en la que deben desenvolverse las empresas. Ante la inserción de una
innovación revolucionaria en el mercado, las empresas deben decidir si sumarse a este nuevo marco
de situación o pasar a ser parte de los escombros del derrumbe, ya que no participar de este proceso
no sólo atenta contra su margen de ganancia, sino contra su propia existencia.
Es por esta razón que las empresas deben tener como objetivo la instauración de un proceso
continuo de innovación dentro de sus organizaciones. Para ello, debe propiciarse la implementación
de instrumentos que fomenten la creatividad como base de la estrategia empresarial y el desarrollo
de procesos efectivos y eficaces para pasar de la idea al producto o servicio. Al respecto, John Kao,
reconocido experto en creatividad empresaria, afirma que el proceso de generación de ideas debe
involucrar a toda la empresa, la colaboración creativa que cruza todos los estratos de la organización,
es la clave para traducir la creatividad en ganancias.
Cuando una empresa define hacia dónde quiere ir y cómo llegar, establece una estrategia. Cuando,
además, llega antes que la competencia y consigue satisfacer a los consumidores con servicios o un
producto único, es innovadora.
Sin dudas, la existencia, el crecimiento, el desarrollo y el futuro de las compañías se centrarán en el
desafío de combinar ambos factores, es decir definir dónde, cómo y, además, llegar antes.
A pesar de los innumerables trabajos dirigidos al estudio y análisis del fenómeno de la globalización,
no es fácil encontrar un intento de definición que vaya más allá del nivel descriptivo. En términos
generales, por globalización se entiende el movimiento acelerado de bienes económicos a través de
las barreras regionales y nacionales. Este intercambio incluye personas, productos y, por sobre todo,
las formas tangibles e intangibles de capital. El efecto inmediato de la globalización es la reducción
de la "distancia económica" entre países y regiones, así como entre los actores económicos mismos,
incrementando, de este modo, las dimensiones de los mercados y la interdependencia económica.
En el plano económico, parece evidente que al mercado le fue otorgado un rol preponderante: se
impone como el instrumento más apropiado para manejar los intereses competitivos. En el plano
político, por su parte, la democracia representativa es considerada como el medio de mayor eficacia

77
para elegir entre orientaciones políticas diferentes. En el plano social, las cosas no están muy claras,
sin embargo, una tendencia parece imponerse; los gobiernos abandonan la pretensión de una
sociedad más equitativa que asegura el bienestar social para el conjunto de los ciudadanos,
propiciando en cambio, el surgimiento entre los individuos, de atomizadas formas de autoayuda,
mediadas por el mercado y no por formas colectivas de solidaridad.
En este tipo de definiciones, el análisis teórico queda de alguna manera relegado bajo la idea que la
globalización se genera a partir de un proceso espontáneo del mercado, de por suyo evidente,
derivado de los esfuerzos de los agentes económicos individuales (especialmente las empresas
transnacionales) en búsqueda de mayores ganancias que les permitan disponer de los ingentes
recursos financieros requeridos para asegurar la reproducción de un patrón de acumulación cada
vez más dependiente de la innovación científico-tecnológica para la generación de bienes y servicios.
El crecimiento y desarrollo de los países y empresas, en el actual escenario caracterizado por el
cambio continuo, se encuentra íntimamente ligado al grado de percepción y comprensión que se
desarrolle no solo sobre la realidad política, socioeconómica e industrial existente, sino también
sobre los factores y tendencias que condicionan su situación futura.
El ejercicio de la construcción imaginaria de escenarios posibles, hecho que no garantiza el éxito ni
el liderazgo, permite fundamentalmente a las empresas desarrollar capacidades y disponer de la
información necesaria para la adopción de las mejores decisiones a la hora de participar en este
proceso dinámico y vertiginoso.
Hemos sido testigos, por décadas, de cambios radicales que afectaron a distintas regiones en forma
aislada, pero el efecto de los actuales, si bien su génesis puede o no localizarse en un área geográfica
definida, se registran en el mundo entero como consecuencia de un efecto dominó que se estructura
a partir del nuevo orden mundial basado en la globalización.
Si bien debemos admitir que la transformación del mundo en un mercado global puede ser percibida
como una mayor oportunidad de negocios, también es cierto que la competitividad no se
circunscribe ya a una región determinada.

78
DEFINICIONES DE INNOVACIÓN Y SU VINCULACIÓN CON I+D

Algunas definiciones nos serán útiles para poder profundizar en la compresión de diversos
conceptos (I+D, innovación, etc). Los distintos autores y expertos en la materia.
El francés André Piatier define la innovación con “una idea transformada en algo vendido o usado”.
De forma análoga se expresa el americano Sherman Gee cuando afirma que “la innovación es el
proceso cuando afirma que “la innovación es el proceso en el cual a partir de una idea, invención o
reconocimiento de una necesidad se desarrolla un producto, técnica o servicio útil hasta que sea
comercialmente aceptado”. Otra definición (Pavon y Goodman) la entiende como “el conjunto de
actividades, inscriptas en un determinado período de tiempo y lugar, que conducen a la introducción
con éxito en el mercado, por primera vez, de una idea en forma de nuevos o mejores productos,
servicios o técnicas de gestión y organización”.
Las definiciones anteriores se derivan de la de Schumpeter, economista austríaco que fue el primero
en destacar la importancia de los fenómenos tecnológicos en el crecimiento económico. Schumpeter
definió la innovación, en 1934, en un sentido más general que el de las innovaciones específicamente
tecnológicas. Según su definición clásica, la innovación abarcaría los cinco casos siguientes:

1. La introducción en el mercado de un nuevo bien, es decir, un bien con el cual los


consumidores aún no están familiarizados, o de una nueva clase de bienes.
2. La introducción de un nuevo método de producción, es decir, un método aún no
experimentado en la rama de la industria afectada, que requiere fundamentarse en un nuevo
descubrimiento científico; y también puede existir innovación en una nueva forma de tratar
comercialmente un nuevo producto.
3. La apertura de un nuevo mercado en un país, tanto si este mercado ya en otro país
como si no existía.
4. La conquista de una nueva fuente de suministro de materias primas o de productos
semielaborados, nuevamente sin tener en cuenta si esta fuente a existe, o bien ha de ser creada de
nuevo.
5. La implantación de una nueva estructura en un mercado, como ejemplo, la creación de una
posición de monopolio.

Existe acuerdo en que la innovación es el elemento clave que explica la competitividad. Porter, por
su ejemplo rotundo: “La competitividad de una nación depende de la capacidad de su industria para
innovar y mejorar. Las empresas consiguen ventajas competitivas mediante innovaciones”. También
lo es Francois Chesnais cuando manifiesta que “la actividad innovadora constituye efectivamente,
con el capital humano (es decir, el trabajo calificado), uno de los principales factores que determinan
las ventajas comparativas de las economías industriales avanzadas”. Con razón el concepto de
innovación es objeto de una atención especial.
Observamos que todas las definiciones concuerdan en el hecho de que la innovación acaba con la
introducción con éxito en el mercado. Si los nuevos productos, procesos o servicios no son
aceptados por el mercado, no existe innovación. Christopher Freeman, profesor emérito de la
Universidad de Sussex, insiste que en un intento de innovación fracasa cuando no consigue una
posición en el mercado y/o un beneficio, aunque el producto o proceso “funcione” en un sentido
técnico. La estrecha conexión entre los conceptos actuales de competitividad e innovación es

79
evidente: decir que los nuevos productos deben tener éxito es prácticamente lo mismo que decir
que han de ser competitivos. Este resultado final comporta, en definitiva, atributos creadores de
valor. El nuevo producto o el nuevo proceso proporcionan una utilidad social real o sentida, ya que
permitirán a la sociedad lograr mejoras tales como, por ejemplo, más comodidad, confortabilidad,
seguridad, energía, calidad o estética.
La innovación definida no depende necesariamente de la tecnología, entendida como “la aplicación
industrial de los descubrimientos científicos”. Las ideas de autoservicio fueron, en su día, una
innovación que no necesitó cambios en los productos o proceso. El leasing es un caso bien conocido
de innovación financiera. Otro ejemplo de innovación en la gestión y la organización bastante
conocido también es la comercialización por el sistema de franquicia. Está claro que muchas
innovaciones resultan de combinaciones diversas, por ejemplo, la utilización de cajeros automáticos
para libretas de ahorro y tarjetas de crédito. El éxito de la empresa italiana Benetton radica en sus
innovaciones en la organización de la producción y, sobretodo, en la distribución.
No todas las innovaciones tienen la misma importancia. Puede distinguirse entre innovaciones
principales o radicales que suponen una rotura súbita (breakthrough, en la terminología inglesa)
respecto al estado anterior, e innovaciones incrementales, formadas por mejoras de los productos o
procesos ya conocidos. Las innovaciones radicales producen mejoras espectaculares en los
resultados, sin que la mejora en los costes sea la variable relevante. En cambio, la innovación
incremental se concreta, sobretodo, en la reducción de los costes.
Los japoneses defienden la continua introducción de innovaciones incrementales (que denominan
kaizen). No obstante, algunos piensan que, en los tiempos actuales, las innovaciones incrementales
no van a ser suficientes. Tom Peters, por ejemplo, expresa que: “Los tiempos locos requieren
empresas locas. Y la mayoría, por no decir todo el valor creado por la empresa, sea cual sea su
tamaño o sector, proviene de dos fuentes: la inteligencia y la imaginación. La mejora constante -el
kaizen – santo y seña de los años ochenta, ya no basta. Sólo la revolución, o mejor, la revolución
perpetua, sirve. La cuestión consiste en comprimir diez años de cambio, según las medidas de ayer,
en un año o menos. Luego, respirar hondo y volver a empezar” (Barnet 1997)
Abernathy considera que el progreso tecnológico en un sector está generado por el paso de una
innovación radical a un estado generalizado de innovaciones incrementales. Sucesivamente se pasa
de una situación inicial caracterizada por la presencia de mano de obra altamente calificada,
maquinaria de tipo general y preocupación por los resultados del producto o proceso a otro donde
los rasgos dominantes son la producción en masa, la intensidad en capital, una mano de obra menos
calificada y, en general, la reducción de los costes.
La innovación será “tecnológica” cuando tenga que ver con la ciencia y la tecnología. De forma
sencilla diremos que la innovación tecnológica supone para la empresa la introducción de un
cambio técnico en los productos o procesos.
En el manual de Oslo de la OCDE se afirma que las innovaciones tecnológicas hacen referencia
tanto a los productos como a los procesos, así como a las modificaciones tecnológicas que se llevan
a término en ellos. No se consideran innovaciones hasta que se ha introducido el producto en el
mercado o hasta que se ha implantado en el proceso la idea nueva o la nueva manera de hacer. La
diferencia permite separar las innovaciones en innovaciones de producto e innovaciones de proceso.
Finalmente se menciona que no solo la tecnología interviene en el proceso de la innovación sino
también las actividades científicas diversas, las cuestiones de tipo organizativo, las consideraciones
financieras y las consideraciones comerciales.
En el manual de Oslo de la OCDE, se define a la innovación como “la concepción e implantación
de cambios significativos en el producto, el proceso, el marketing o la organización de la empresa
con el propósito de mejorar los resultados. Los cambios innovadores se realizan mediante la
80
aplicación de nuevos conocimientos científicos y tecnología que pueden ser desarrollados
internamente, en colaboración externa o adquiridos mediante servicios de asesoramiento o por
compra de tecnología”. De esta manera queda establecida la siguiente tipología:
Innovación de producto
Aporta un bien o servicio nuevo, o significativamente mejorado, en cuanto a sus características
técnicas o en cuanto a su uso u otras funcionalidades, la mejora se logra con conocimiento o
tecnología, con mejoras en materiales, en componentes, o con informática integrada.
Para considerarlo innovador un producto debe presentar características y rendimientos
diferenciados de los productos existentes en la empresa, incluyendo las mejoras en plazos o en
servicio.
Innovación de proceso:
Concepto aplicado tanto a los sectores de producción como a los de distribución. Se logra mediante
cambios significativos en las técnicas, los materiales y/o los programas informáticos empleados, que
tengan por objeto la disminución de los costes unitarios de producción o distribución, la mejorar la
calidad, o la producción o distribución de productos nuevos o sensiblemente mejorados.
Las innovaciones de proceso incluyen también las nuevas o sensiblemente mejoradas técnicas,
equipos y programas informáticos utilizados en las actividades auxiliares de apoyo tales como
compras, contabilidad o mantenimiento. La introducción de una nueva, o sensiblemente mejorada,
tecnología de la información y la comunicación (TIC) es una innovación de proceso si está destinada
a mejorar la eficiencia y/o la calidad de una actividad de apoyo básico[3]
Innovación en Marketing:
Consiste en utilizar un método de comercialización no utilizado antes en la empresa que puede
consistir en cambios significativos en diseño, envasado, posicionamiento, promoción o tarificación,
siempre con el objetivo de aumentar las ventas. La variación en el método tiene que suponer
una ruptura fundamental con lo realizado anteriormente.
Los cambios de posicionamiento pueden consistir en la creación de nuevos canales de venta como
el desarrollo de franquicias, la venta directa, las modificaciones en la forma de exhibir el producto
o la venta de licencias de uso.
Los cambios en promoción suponen la modificación en la comunicación utilizando nuevos
soportes, sustitución del logo, los sistemas de fidelización y la personalización de la relación con el
cliente.
La tarificación hace referencia a sistemas de variación de precios en función de la demanda o de las
opciones ofrecidas.
Innovación en organización:
Es la introducción de un nuevo método organizativo en las prácticas, la organización del lugar de
trabajo o las relaciones exteriores de la empresa con el propósito de mejorar los resultados
aumentando la productividad o reduciendo los costes de transacción internos para los clientes y
proveedores.
La actualización en la gestión del conocimiento también entra en este tipo de innovación, al igual
que la introducción de sistemas de gestión de las operaciones de producción, de suministro y de
gestión de la calidad.

81
Igualmente se consideran innovaciones en organización las variaciones en las relaciones con clientes
y proveedores, incluyendo centros de investigación y la integración de proveedores o de inicio de
subcontratación de actividades.
La innovación se concreta mediante nuevos programas informáticos y nuevos modos de
recopilación y distribución de la información entre divisiones. Al contrario, la norma escrita nueva
no implica innovación, para ello se requiere su transposición a programas y rutinas de proceso de
información automatizados.
Las actividades de innovación pueden ser de tres clases: Conseguidas, en curso o desechadas antes
de su implantación. Todas las empresas que desarrollan actividades de innovación durante el período
estudiado se consideran como “empresas con actividades innovadoras”, tanto si la actividad ha
desembocado o no en la introducción de una innovación.

Abernathy y Clark aportan el concepto de “transiliencia”, que definen como “la capacidad de una
innovación para alterar – desde mejorar hasta destruir - los sistemas existentes de producción y
marketing”. Algunas innovaciones dejan completamente fuera de juego, anticuadas, a las empresas
competidoras, mientras que otras más bien refuerzan el status quo existente. Por ejemplo, Foster,
director de McKinsey, recuerda que los fabricantes de tubos de vacío americanos fueron eliminados
de repente cuando apareció el transistor. Asimismo, la entrada de Timex convulsionó la industria
relojera a causa de su nueva tecnología, los precios baratos y la distribución por canales distintos de
los habituales.

Clases de innovación

Fig. 1.9 Transiliencia y clases de innovación

82
En la figura 1.9 Abernathy y Clark sitúan la transilencia comercial, o de mercado, en el eje vertical y
la transiliencia tecnológica en el horizontal. Los cuadrantes resultantes representan las clases de
innovación siguientes:

a) Arquitectónica. La innovación representa un salto tecnológico importante que da lugar a


sectores o subsectores totalmente nuevos y modifica las relaciones con el mercado y las empresas
competidoras. La radio, la xerografía o el Ford modelo T del año 1908, destinado al gran público, o
el reloj de cuarzo, son ejemplos de este tipo.
b) Nicho. Abre nuevas oportunidades de mercado a partir de las tecnologías existentes.
Ejemplos: la radio o la TV portátiles, el walk-man, la máquina de fotografiar desechable.
c) Regular o rutinaria. Implica cambios que aprovechan las capacidades técnicas y de
producción existentes, y se dirige a los mismos clientes. Se refuerza y protege la situación actual.
Ejemplos: la cadena de montaje, la soldadura automática o el encendido electrónico en el mundo
del automóvil.
d) Revolucionaria. Hace anticuados las tecnologías y los procesos de producción actuales,
pero no modifica los mercados existentes sino que los refuerza. Los autores de esta clasificación
ponen como ejemplo el motor con 8 cilindros en V de Ford, el año 1932, en el sector del automóvil.
Otro ejemplo podría ser el disco con lectura láser.

83
CICLO DE VIDA DE LOS PRODUCTOS

Los productos pueden tener éxito internacionalmente por su precio, por su calidad, por su diseño,
o sencillamente, porque se dispone de una red comercial más amplia o se ha hecho más publicidad.
Pero, ¿cómo han sido posibles estos productos competitivos?, ¿cómo se han generado? La respuesta
es: a través de innovaciones.
Es una primera aproximación, innovación es sinónimo de cambio. La empresa innovadora es la que
cambia, evoluciona, hace cosas nuevas, ofrece nuevos productos y adopta, o pone a punto, nuevos
procesos de fabricación. “Innovación es atreverse” e “Innovación es nacer cada día” son dos buenos
lemas, tomados de una revista chilena (1997). Hoy, la empresa está obligada a ser innovadora si
quiere sobrevivir. Si no innova, pronto será alcanzada por los competidores. La presión es fuerte,
ya que los productos y los procesos tienen, en general, un ciclo de vida cada vez más corto.
Esta tendencia procede de tres aspectos fundamentales. En primer lugar, el progreso técnico. Los
productos actuales pueden desaparecer bruscamente debido a la aparición de nuevos productos con
prestaciones mejores. El esfuerzo que se está haciendo por encontrar nuevas tecnologías o mejorar
las existentes es inmenso. ¿Quién se acuerda de la televisión en blanco y negro? ¿Y del ordenador
doméstico Spectrum, diseñado por Clive Sinclair, muy popular hace pocos años? En segundo
lugar, la internacionalización de la economía. La competencia se agudiza, no solamente por parte
de los países vecinos de la Unión Europea, sino de países insospechados, como, por ejemplo, los
“tigres de Asia”. El tercer factor es la desmasificación de los mercados, es decir, la tendencia a
fabricar productos cada vez más personalizados, hechos a medida, dirigidos a mercados específicos.
Esta trayectoria empuja hacia una mayor flexibilidad en los procesos productivos.

84
Las distintas etapas del ciclo de vida
Las cuatro etapas generalmente consideradas son las siguientes: introducción, crecimiento o
desarrollo, madurez y declive.
Investigación y desarrollo: es el momento previo al lanzamiento del producto al mercado. Aquí no hay
ingresos, sino que se habla de inversión
Introducción: En esta fase, las ventas crecen lentamente. El producto se está introduciendo y los
compradores tienen dudas. Probablemente algunas deficiencias tecnológicas no están del todo
resueltas.
Crecimiento: Aquí el producto va incrementando su aceptación y el mercado llega a ser interesante.
Tiene lugar un crecimiento acentuado de las ventas. Surgen más fabricantes dispuestos a producir,
si les es posible, este producto ya que las expectativas de ventas son muy estimulantes.
Madurez: En la etapa de la madurez, el mercado se encuentra bastante saturado. El producto se ha
vendido en gran cantidad y la guerra entre competidores se centra en los precios y la diferenciación.
Declive: Disminuyen los compradores. Las ventas bajan porque probablemente el producto ha
quedado anticuado, debido a la aparición de nuevos productos que hacen las mismas funciones.

85
EL PROCESO INNOVADOR (MODELOS)

Para estudiar el proceso que tiene lugar hasta que se lleva una invención al mercado, distintos autores
han aportado una serie de modelos que permiten entender el camino seguido y las fases que
intervienen en el mismo. Para familiarizar al lector y enriquecerlo con las visiones que han
evolucionado a los largo de las últimas décadas, se exponen aquí los modelos más conocidos. No
obstante, ninguno de estos modelos explica contundente y definitivamente la innovación; todos
presentan carencias e interrogantes. La innovación es una actividad compleja, diversificada, con
muchos componentes en interacción, que actúan como fuentes de las nuevas ideas, y es muy difícil
descubrir las consecuencias que un hecho nuevo puede llegar a ofrecer.

1. El modelo lineal
Habitualmente se empieza la descripción del proceso innovador utilizando un modelo teórico lineal
que comprende diversas etapas, tal como ya se ha expuesto en el apartado anterior. Es decir, el
proceso empieza con la investigación básica, pasa por la investigación aplicada y el desarrollo
tecnológico y acaba con marketing y el lanzamiento al mercado de la novedad. Este modelo no es
demasiado realista, como veremos más adelante, pero tiene la ventaja de introducir una serie de
conceptos útiles. La figura 1.3 muestra esta secuencia que va de la investigación básica al mercado.
Sin embargo, este modelo por etapas, que sirve para compartimentar una realidad compleja y para
darnos un vocabulario para nombrar y precisar los pasos que nos llevan a la innovación, es, como
hemos dichos, poco realista. Puede dar la idea falsa de que el proceso deba empezar necesariamente
por la investigación básica cuando, de hecho, no ha de seguir forzosamente la secuencia anterior.
Existen innovaciones que pueden empezar a desarrollarse aprovechando resultados de
investigaciones aplicadas ya existentes o, sencillamente, haciendo sólo la fase del diseño y
lanzamiento del producto a partir de un replanteamiento de la forma. Este tipo de planteamiento
suele ser bastante frecuente en las pymes. Estas empresas, a menudo carentes de recursos, no
siempre pueden permitirse realizar investigación básica o aplicada.

Fig. 1.3 El modelo para etapas de la innovación tecnológica

86
2. El modelo de Marquis
Un esquema más cercano a la realidad empresarial constata que las innovaciones suelen partir de
una idea sobre un nuevo o mejor producto o proceso de producción. Esta idea no procede
necesariamente del departamento de investigación sino que puede emanar de cualquier
departamento de la empresa: producción, comercial, etc. De hecho, la mayoría de las ideas
innovadoras son aportadas por el departamento comercial que recoge las sugerencias de los clientes.
Esta idea debe cumplir dos requisitos fundamentales: la factibilidad técnica y la demanda potencial.
Los dos son imprescindibles. Schmookler los ha comparado a las dos hojas de una tijera: si falla una
la innovación no es posible. A partir de la idea se pondrá en marcha el proceso que examinará las
posibilidades de la tecnología actual y, si estas se muestran insuficientes, “retrocederá” hasta la
investigación aplicada o, incluso, a la investigación básica (la figura 1.4 ilustra este modelo más
realista). Muchas innovaciones no requieren ningún tipo de investigación básica o aplicada, ya que
son posibles a partir de combinaciones nuevas de las tecnologías existentes. En definitiva, la
secuencia de la innovación es ahora la siguiente: empieza con la formulación de la idea, pasa por la
investigación y la obtención de la solución y concluye con la implementación y difusión.

Fig. 1.4 El proceso de la innovación tecnológica según Marquis.

Gee descompone este modelo en las etapas siguientes:


1) En primer lugar existe una idea que comporta una cierta factibilidad técnica y una posible
demanda del mercado. Esta idea requerirá el examen de los conocimientos técnicos disponibles y,
si éstos no son suficientes, habrá que poner en marcha un proceso de investigación.

87
2) Si se han resuelto los problemas técnicos anteriores, habrá que llegar a la construcción de
prototipos o plantas pilotos que permitan conocer mejor las propiedades físicas y los costos de los
nuevos productos o procesos.
3) Si los resultados de las etapas anteriores han sido alentadores, se profundizará más en los
aspectos de diseño, fabricación y marketing hasta llegar a la introducción en el mercado.
Normalmente, los costes de esta tercera etapa son, como mínimo, diez veces superiores a la primera.
La creación de un nuevo producto no es un proceso lineal. Las ideas que conducen a una innovación
nacen en medio de un vaivén permanente entre los hombres de marketing y los técnicos.

El éxito de la innovación atrae a los imitadores, empresarios que copian o perfeccionan el producto
o proceso innovador. A partir de la empresa innovadora y de los imitadores empiezan el proceso de
difusión de la innovación, es decir, la etapa de penetración masiva del nuevo producto en el mercado
o de la nueva tecnología en la práctica industrial.

3. El modelo de Kline
Es quizás el modelo más completo. Kline critica el modelo lineal y propone un modelo que refleje
mejor la complejidad del proceso innovador. Según este modelo, existen cinco caminos o
trayectorias que conducen a la innovación, todos importantes, que se pueden seguir en la figura 1.6

1) El camino central de la innovación (flechas c) empieza con una idea que se materializa en
un invento y/o diseño analítico, el cual, evidentemente, ha de responder a una necesidad de
mercado. El diseño analítico se denomina también diseño de ingeniería (ingineering design) porque
suele se efectuado por los ingenieros, los cuales seleccionan procesos, utilizan componentes
disponibles o diseñan elementos nuevos que, combinados, permiten llegar, como una síntesis, a un
artefacto o sistema que da forma a la idea inicial. Este invento y/o diseño analítico pasa a
continuación por un proceso de diseño detallado que acaba en un prototipo, que es probado en la
fase de desarrollo tecnológico. Más adelante vienen las etapas de fabricación y comercialización.
2) Existen diversas realimentaciones (feedback links): a) entre cada etapa del camino central y
la etapa anterior (círculos f) b) desde el producto final, que quizás presenta algunas deficiencias y
obliga a efectuar algunas correcciones en las etapas anteriores (flechas f), y finalmente, c) desde el
producto final hasta el mercado potencial (flecha F); cada nuevo producto crea nuevas condiciones
del mercado (por ejemplo, el televisor en blanco y negro creó la necesidad el televisor en color)
3) La conexión con la investigación a través del uso de los conocimientos existentes. Desde
todas las fases del camino central se utilizan los conocimientos existentes (flechas 1-2). Pero cuando
no se ha conseguido la información que se busca, debe investigarse para encontrar la solución
(flechas 3-4). Por tanto, la investigación no suele ser la fuente directa de las innovaciones.
4) Existe una conexión entre la investigación y la innovación: los descubrimientos de la
investigación pueden dar lugar a inventos, los cuales se convertirán en innovaciones technology
push.
5) Finalmente existen conexiones directas entre los productos y la investigación (flecha S). La
ciencia depende de la tecnología: el telescopio facilitó los trabajos de Galileo y el microscopio los
de Ramón y Cajal. Los nuevos instrumentos hacen posible investigaciones más profundas y
complejas.

88
El mercado sólo puede ser satisfecho si se han resuelto los problemas técnicos; de hecho un
descubrimiento es importante en el grado en que se puede ser utilizado por las leyes del mercado.
Por eso las discusiones sobre quién es más importante, si el tirón del mercado (market pull) o el
empujón de la tecnología (technology push), son tan filosóficas y estériles como saber si es primero
el huevo o la gallina (ver cuadro 12.2)
Una de las diferencias más importantes con el modelo lineal es que el modelo de Kline relaciona la
ciencia y la tecnología en todas las partes del modelo y no sólo al principio, como hace el modelo
lineal. Considera la innovación como una manera de encontrar y solucionar problemas, no como
algo totalmente nuevo, como nos hacía creer el modelo lineal.
Es necesario comprender que la innovación surge del contacto con la ciencia a lo largo de todo el
proceso en dos estados distintos: primero como ciencia almacenada, utilizada cuando se encuentra
un problema tecnológico y se recurre a soluciones ya existentes y, en segundo lugar, cuando no se
encuentren estas soluciones ya que entonces deben emprenderse nuevas investigaciones. Debe
observarse que el tipo de ciencia en cada punto concreto del modelo es distinto: en las etapas de
diseño o invención es ciencia pura, con un campo de acción muy amplio. En los procesos de
desarrollo se buscan mejoras en los componentes u otras propiedades que aparezcan cuando el
conjunto de las piezas actúen juntas. La investigación en el estadio de producción se centra más en
la disminución de los costes.

89
FUENTES DE INNOVACIÓN

Peter Drucker, conocida autoridad mundial en materia de dirección de empresas y Doctor Honoris
Causa por la Universitat Politécnica de Catalunya, propone una clasificación distinta, muy práctica.
Drucker distingue entre mejora, evolución gestionada e innovación propiamente dicha. Estas tres
actividades son muy distintas.
La mejora pretende hacer que lo que tiene éxito sea todavía mejor. Requiere objetivos cuantitativos
específicos, como por ejemplo una mejor del 3% o del 5% anual en los costes, en la calidad o en la
satisfacción del cliente. Druker avisa que “cualquier nuevo producto, proceso o servicio empieza a
ser anticuado desde el primer día que genera beneficios”.
La evolución gestionada es el uso de un nuevo producto, proceso o servicio para crear un producto
o servicio todavía más nuevo. Su lema es: “Cada producto nuevo con éxito es el escalafón para
llegar al próximo proyecto”. El walk–man de Sony, obtenido a partir del magnetofón, es un buen
ejemplo de evolución gestionada.
La innovación, según Drucker, es el uso sistemático como oportunidad de los cambios en la
sociedad, en la economía, en la demografía y en la tecnología. Las revistas dedicadas a la salud y la
ecología, las clases de gimnasia, los equipos para hacer jogging, el Club Mediterráneo, etc. son
ejemplos de innovaciones que aprovechan las nuevas tendencias sociales.

Las Fuentes de la Innovación


Si bien para la optimización de la rentabilidad de las empresas no existe una receta única, y cada una
ellas deberán diseñar una estrategia que, partiendo de su realidad concreta, se adecue a sus objetivos
de corto, mediano y largo plazo, puede afirmarse que el beneficio adicional de los procesos de
modernización, de la reducción de las fuerzas de trabajo y de la disminución de los costos por unidad
es finito.
Habiendo implementado todas las herramientas disponibles de managment (Reingeniería, ABC
Costeo por Actividades, Outsourcing, Benchmarking, etc.) para mejorar los resultados finales a
partir de una situación inicial dada, las compañías deben buscar nuevas maneras de incrementar las
ganancias, y para ello la única salida es crear una mentalidad innovadora.
La innovación asusta porque está íntimamente ligada al riesgo. No es simplemente otra manera de
desarrollar productos y servicios nuevos o de infundir vida a los ya existentes. Es mucho más amplio.
La innovación es la mejor y única manera de sortear la competencia, adelantarse al conjunto de la
industria del ramo en el que una empresa actúa. Se trata, en definitiva, del arma competitiva más
poderosa con que cuenta una compañía. Ser innovador es más que agregar un producto nuevo una
vez al año, requiere un cambio radical en la manera de pensar.
La búsqueda de innovaciones no debe ser un hecho aislado, sino una acción sistemática y
organizada, que se fundamente, en buena medida, en el seguimiento de los acontecimientos del
entorno al que pertenece la empresa con la utilización de los recursos más adecuados. Se debe tratar,
también, que sea más una extensión que una diversificación de las actividades fundamentales que
cada individuo desarrolla en la empresa.
En definitiva, el método de búsqueda de oportunidades para innovar pasa por tratar de detectar de
forma decidida y organizada posibles hechos cambiantes, y por el análisis sistemático de las
oportunidades que dichos cambios pueden ofrecer para innovar.

90
De acuerdo con Peter Drucker, autor del libro “La Innovación y el Empresario Innovador” la
búsqueda implica, entre otras cosas, el seguimiento de varias fuentes de oportunidades, en las siete
áreas siguientes:
Fuentes internas:
✔ Lo inesperado: éxitos, fracasos, sorpresas.
✔ Lo incongruente: entre la realidad como es y lo que se supone “debía de ser”.
✔ Las necesidades de un Proceso.
✔ Los cambios en la Estructura de la industria o del mercado.

Fuentes externas:
❖ Los cambios en la Población.
❖ Los cambios en la percepción, modalidad y significado de los consumidores.
❖ Un nuevo conocimiento, sea éste científico o no.

Drucker señala que los límites entre estas áreas son borrosos y que unas y otras se superponen en
forma considerable. Las compara con siete ventanas, situadas en distintas partes de un edificio,
desde las que se puede ver lo mismo, pero con distinta perspectivas. Y la visión desde el centro de
cada ventana es neta y diferente.
Cada una de la siete áreas requiere un análisis diferente pues cada una tiene su característica propia.
Ningún área es por sí misma más importante o más productiva que otra. Es tan probable que surjan
innovaciones grandes del análisis de los síntomas de cambio (como el éxito inesperado que de lo
que se consideraba un cambio insignificante en un producto o en un precio), como que surjan de la
aplicación masiva de los nuevos conocimientos que han proporcionado un gran descubrimiento
científico.

1.- Lo inesperado
1.a.- El éxito inesperado
Ningún otro campo ofrece oportunidades para innovar tan ricas ni menos arduas o arriesgadas. El
detalle consiste en que habitualmente no se analiza el éxito inesperado, más aún, en general el nivel
jerárquico tiende a rechazarlo. Nunca resulta fácil aceptar un éxito inesperado. Hacia la década del
40, IBM produjo una de las primeras computadoras que, como las demás computadoras
norteamericanas, fue destinada al trabajo científico. Pero los comercios empezaron a adquirir las
“maravillas científicas” para usos más prosaicos como el cálculo de salarios y comisiones. La
UNIVAC, que había sido la computadora más avanzada y más adecuada para los fines comerciales,
no deseaba disminuir la categoría del “milagro científico” vendiéndola a los comercios. IBM,
sorprendida por la demanda de sus computadoras respondió de inmediato, acepto sacrificar el
diseño de sus computadoras, que no era muy apropiado para la contabilidad, y usar el que había
desarrollado su rival, UNIVAC. En cuatro años IBM logró el liderazgo en el mercado de
computadoras aunque por una década más sus computadoras fueron técnicamente inferiores a las
de UNIVAC.

91
1.b.- El fracaso inesperado
A diferencia de los éxitos, no pueden rechazarse los fracasos inesperados y es muy raro que pasen
inadvertidos. Si algo fracasa, aunque haya sido planificado con cuidado y ejecutado a conciencia, a
menudo este hecho encubre un cambio subyacente y, por lo tanto, una oportunidad para innovar.
Hasta ahora se han planteado los éxitos y fracasos inesperados en el comercio y en la industria. Pero
los acontecimientos externos, es decir los que no se registran en la información y las cifras que una
gerencia utiliza para manejar la compañía, suelen ser los de mayor importancia.
Un ejemplo de esto fue la computadora personal. Hacia los años ’70, y luego de un profundo debate
interno, IBM arribó a la conclusión que el futuro le correspondería a las grandes computadoras
centralizadas, a partir de la cual se conectarían los negocios pequeños, entendiendo que toda otra
alternativa resultaría costosa, confusa y limitada en su capacidad de desempeño. En este contexto,
continuó con su política de hacerse fuerte en el negocio de las grandes computadoras, pero en 1975
los chicos de 10 y 11 años empezaron a hacer juegos de computación, por lo que el mercado
comenzó a demandar pequeñas máquinas, portátiles e independientes con mucha menor capacidad
de cálculo. Todo lo que había pensado la gente de IBM era real. Las máquinas eran costosas, había
tantos modelos y con tantos programas que cada una era incompatible con la otra, el mantenimiento
era imposible, el mercado era caótico, pero eso no parecía preocupar al consumidor. Uno hubiera
pensado que esta situación debía haber sido aprovechado por los competidores de IBM, pero no
fue así, nadie prestó atención a las computadoras personales. Continuaron haciendo grandes
computadoras para competir con IBM. Sin embargo IBM en 1977, cuando las ventas de
computadoras personales era de menos de 200 millones de dólares contra 7 billones de las
computadoras “grandes”, organizó la fuerza de trabajo para atender esta demanda, rompiendo con
todas las tradiciones y políticas de organización y de investigación de la compañía. Como resultado,
IBM produjo su computadora personal en 1980, justo cuando el mercado lo exigía.
En EEUU de 1979 a 1984 la venta de computadoras personales llegaron al volumen que las grandes
tardarían 30 años en alcanzar, con un total de 15 a 16 billones de dólares. En 1983 IBM era el
productor líder mundial de computadoras personales.

2.- Lo incongruente
Una incongruencia es la discrepancia, la disonancia entre lo que es y lo que “debiera ser”, no
podemos entender la causa y con frecuencia ni podemos imaginarla. Pero una incongruencia es el
síntoma de una oportunidad para innovar. Nos habla de un defecto subyacente, sin embargo no se
manifiesta en los informes que llegan a los ejecutivos. Lo incongruente tiene un carácter más
cualitativo que cuantitativo.
Cada vez que los protagonistas de un sector no ven la realidad, y hacen suposiciones equivocadas
sobre la misma, dirigen mal sus esfuerzos, dedicándose a lo que no dará resultado y, con ello,
producen una nueva incongruencia, entre lo que es y lo que se supone que es ..., lo que ofrece una
oportunidad para innovar a quien la perciba.
Un ejemplo lo ofrece la antigua forma de comercio mundial, con grandes buques de carga. A
principios de la década del ’50 se pensó en su desaparición, reemplazándolos por cargueros aéreos,
ya que sus costos crecían rápidamente y cada vez demoraban más a causa de que los puertos estaban
siempre congestionados. Durante muchos años la industria naval había dirigido mal sus esfuerzos,
diseñando y construyendo buques cada vez más veloces, que requieren menos tripulación y
combustible, y, así, concentraban la búsqueda de economías en la navegación de un puerto a otro,
con lo que los barcos llegaban más rápidamente y lo congestionaban. El buque es un bien de capital
y su mayor costo de operación se produce en el tiempo durante el cual permanece inactivo. Sin

92
embargo se siguieron haciendo esfuerzos por bajar los costos donde ya eran bajos: en el barco
navegando.
La solución era sencilla: había que desacoplar la carga de la estiba, ordenando la carga en tierra,
donde hay mucho espacio, y permitir que la operación se hiciese sin necesidad de que el barco
permaneciese en el puerto. Así, cuando llega el barco lo que hay que hacer es descargar y cargar las
mercaderías ordenadas, ya precargadas ... en contenedores. Lo que había que hacer era bajar los
costos en el tiempo ocioso, no en el trabajo. El resultado de esta simple innovación quintuplicó el
tráfico de los cargueros de este tipo disminuyendo los costos en no menos de un 60%.

3.- Las necesidades de un Proceso


No es algo difuso ni general, sino algo muy concreto. Algunas innovaciones basadas en la necesidad
de un proceso no aparecen en el ambiente interno o externo, sino que aparecen con el trabajo que
hay que realizar. Su foco está más en la tarea que en la situación. Perfecciona un proceso existente,
reemplazando un eslabón débil, rediseñando, por ejemplo, un proceso antiguo en base a un
conocimiento nuevo.
Un ejemplo lo constituye la linotipo para composición, que Mergenthaler diseñó en 1885, en una
época en la que la demanda de materiales impresos crecía en forma exponencial, debido al desarrollo
de los transportes y las comunicaciones y al aumento del número de alfabetos. Todos los otros
elementos del proceso de imprenta habían cambiado: había prensas rápidas y el papel se fabricaba
a gran velocidad; sólo la tipografía seguía como 400 años antes, en la época de Gutemberg. Era un
trabajo manual, lento y costoso, para el que había que ser muy hábil, lo que sólo se lograba después
de varios años de práctica.
Mergenthaler definió la necesidad: un teclado, que hiciera posible la selección mecánica de la letra
correcta, un mecanismo para reunir las letras y, lo más difícil, otro mecanismo para devolver las
letras a su ubicación primitiva. Cada uno de estos dispositivos demandó mucho ingenio pero ningún
conocimiento nuevo, la linotipo se hizo standard en pocos años. La necesidad de innovar en el
proceso deriva de una incongruencia en el mismo, que se hizo notoria debido al crecimiento
demográfico.
En algunas ocasiones existe un eslabón débil que es perceptible y definible pero que requiere nuevos
conocimientos para su optimización. Esta innovación es mucho más difícil y riesgosa, de mayor
trascendencia, y se la afronta mediante lo que se define como “investigación programada”, para
diferenciarla de la investigación básica autogenerada por los científicos.
Se toma como premisa que la innovación exitosa basada en la necesidad del proceso requiere:
I. Un proceso autocontenido.
II. Un eslabón “débil” o “perdido”.
III. La definición clara del objetivo.
IV. La definición clara de las especificaciones para la solución correcta.
V. Alta receptividad, o sea la aceptación de que “debe haber una manera mejor”.

4.- La estructura del mercado o del sector


La estructura de un mercado, o la de un sector productor que lo abastece, que duran a veces
muchísimos años, parecen tan sólidas que la gente de una industria parece considerarla como parte
del orden de la naturaleza y tiene la certeza de que serán eternas. Sin embargo esas estructuras son

93
bastante frágiles y basta un sacudón para que se desintegren. Si cuando pasa esto los protagonistas
siguen haciendo negocios como antes, se tiene, casi, una garantía de desastre.
El cambio en la estructura del mercado ofrece una oportunidad excepcional para los que no
pertenecen al sector, ya que quienes están en el él casi siempre interpretan el cambio como una
amenaza.
La industria del automóvil muestra esto con mucha claridad. En los primeros años de este siglo, la
industria creció a tal velocidad que sus mercados cambiaron drásticamente. Hubo cuatro respuestas
diferentes a ese cambio y todas tuvieron éxito.
La industria inicial de 1900 había sido proveedora de un artículo de lujo para gente muy rica.
Enseguida el producto desbordó ese mercado tan limitado con una velocidad de crecimiento que
duplicaba las ventas cada tres años. Pero las compañías existentes aún se dedicaban al “coche de
lujo”.
Una respuesta fue la de Rolls Royce, fundada en 1904. Los fundadores se dieron cuenta que el
automóvil abundaban tanto que ya eran “comunes” y se propusieron crear y vender un auto que,
como decía uno de los primeros prospectos, tuviera el “sello de la realeza”. En forma intencional
volvieron atrás y usaron un método de fabricación ya obsoleto en el que cada automóvil era
construido con herramientas manuales por mecánicos muy capacitados. Diseñaron el auto para que
fuera conducido por una persona de servicio pero importante, estilo mayordomo, a quien Rolls
Royce entrenaba para ese trabajo. Sólo vendían sus autos a clientes aprobados, preferentemente con
Título de Nobleza y costaba unas 40 veces lo que ganaba por año un mecánico especializado o un
comerciante próspero.
Pocos años después, en Detroit, Henry Ford se dio cuenta que el mercado de la industria automotriz
había cambiado y que ya no eran los juguetes de los hombre ricos. Su respuesta fue diseñar un
autmóvil que pudiera producirse en forma masiva y, en gran parte, por obreros semiespecializados,
que el dueño pudiera conducirlo y repararlo. El modelo T, de 1908, no era barato su precio era un
poco más de lo que ganaba en un año el mecánico más capacitado y mejor pago del mundo. Pero
el modelo T costaba la quinta parte del automóvil más económico de aquellos tiempos y era
infinitamente más fácil para manejar y mantener.
Otro norteamericano, William Durant, advirtió el cambio de la estructura del mercado y aprovechó
la oportunidad para fundar una gran compañía dirigida por profesionales, que satisficiera a todos
los segmentos de un mercado que él vio que habría de ser “universal”. Fundó la General Motors en
1905, comenzó a comprar empresas ya existentes que fabricaban automóviles y las integró en una
gran empresa moderna.
Un poco antes, un joven italiano, Giovanni Agnelli, pensó que el automóvil se convertiría en una
necesidad militar, especialmente como vehículo para oficiales. Fundó la Fiat en Turín en 1899,
empresa que se transformó en pocos años en la más importante proveedora de automóviles a los
ejércitos de Italia, Rusia y el Imperio Austro-Húngaro.
Entre 1960 y 1980 volvió a cambiar la estructura de la industria mundial del automóvil. Durante
cincuenta años la industria había consistido en proveedores nacionales que dominaban los mercados
locales. En Italia solo se veían autos Fiat, Lancia y Alfa Romeo; en Alemania Mercedes y Opel; en
EEUU Ford, GM y Chrysler. De repente, a partir de los años ’60 se había transformado en una
industria global. Japón entra al mercado exportador e intenta con EEUU en la década del ’60 con
pésimos resultados. La segunda oportunidad la tuvieron en 1979 con la crisis del petróleo,
ofreciendo un auto con las mismas características de funcionamiento que los autos norteamericanos,
más chicos, con menor consumo de combustible, con un control riguroso de calidad y sobretodo
con mejor servicio de mantenimiento.

94
Cuando se modifican las estructuras del mercado, las empresas deben dar una respuesta, deben
repreguntarse ¿ En qué consiste nuestro negocio ?. Los ejemplo más importantes de haber tomado
decisiones acertadas en el momento oportuno, los dan las compañías más pequeñas. Tres compañías
chicas, marginales, vieron la oportunidad de innovar: Volvo (junto al SAAB de suiza es el auto más
seguro del mundo), BMW (el auto más confiable) y PORSCHE (junto a la Ferrari el auto más
deportivo del mundo).
Otro factor que puede producir cambios repentinos en la estructura de los mercados o del sector,
con la consiguiente oportunidad de innovar, es la convergencia de tecnologías que parecían muy
separadas. Hace 20 años las centrales telefónicas eran electromecánicas, con largo tiempo de
producción, compradores monopólicos, era poco frecuente la aparición de nuevos productos o
servicios y su mercado crecía lentamente (2% anual). Dos jóvenes comenzaron a desarrollar una
computadora para aviones de guerra y accidentalmente tropezaron con el negocio de las
telecomunicaciones en la interacción de la microelectrónica y la informática, hecho que revolucionó
el mercado por la proliferación de nuevos servicios y productos, entre otros la telefonía celular.
Puede decirse que el transporte aéreo se revolucionó con la aparición del DC3, pero sólo alcanzó la
importancia actual cuando convergieron en él dos tecnologías adicionales, provenientes de
desarrollos militares: la del motor a reacción y la del radar. Ambas dieron lugar al auge de
aeropuertos, aerolíneas comerciales, que a su vez se potenciaron con otras tecnologías como la
informática para los sistemas de reservas de pasajes o, junto con los satélites, en el análisis de la
información meteorológica.
El segundo conjunto de oportunidades para innovar está fuera de la empresa o del sector
involucrado; son cambios que aparecen en el medio social, económico o cultural; por ejemplo:

5.- Los cambios en la población


De todos los cambios externos, los que se producen en la población - ya sea en su tamaño, sus
grupos de edad, composición, trabajo, educación o ingreso – son los más claros, los menos
ambiguos y los de consecuencias más predecibles.

❑ Hoy viven todos los que serán trabajadores en el 2020.


❑ Hoy integran las fuerzas laborales todas las personas que alcanzarán la edad de jubilarse en
el 2030 y, en la mayor parte de los casos, están en el grupo de trabajo en el que permanecerán hasta
su retiro o su muerte.
❑ La educación que reciban los que ahora tienen veintitantos años será el factor determinante
de sus alternativas laborales durante los próximos cuarenta años.
❑ Las familias en las que dos personas tienen ingresos, disponen de más dinero pero de menos
tiempo y gastan e invierten de acuerdo con esa circunstancia.
❑ Los que han hecho estudios avanzados en su juventud, constituyen la clientela de los cursos
avanzados de perfeccionamiento diez o veinte años más tarde.

Las oportunidades abundan ... ¿ Cuáles son los valores, las expectativas, las necesidades y los deseos
de esos grupos ?

95
6.- Los cambios de percepción
La matemática no reconoce la diferencia entre un vaso medio lleno y otro medio vacío, pero esas
dos expresiones tienen sentidos totalmente diferentes, así como las consecuencias que de ellas se
derivan. Si la percepción cambia en forma generalizada, se presentan importantes oportunidades
para innovar.
Hacia 1979, los industriales de la computación preveían que recién en 1990 se vencería la resistencia
de los ejecutivos hacia las computadoras. Peter Drucker aseguró que en 1985 esa resitencia sería
cosa del pasado y casi fue abucheado. En realidad, en la época que se realizaba esa reunión la
resistencia estaba disminuyendo: los hijos de los ejecutivos empezaban a gozar de los juegos
informáticos, y dos o tres años después ningún ejecutivo se atrevía a admitir su temor a las PC’s y
las compraban aunque no supieran qué hacer con ellas. APPLE en EEUU y CLIVE SINCLAIR en
Inglaterra vieron esta oportunidad para innovar y la aprovecharon.
Lo que también vieron – pero no la empresas líderes como IBM o Data Control – fue que ese
cambio en la percepción también cambiaba el mercado de las computadoras como elemento de
aprendizaje. La transformación de la enorme máquina, que realizaba trabajos misteriosos en las
oficinas, en un electrodoméstico con el que juegan los niños en casa, creó una nueva percepción de
la computadora como herramienta de aprendizaje en el hogar.

7.- Los nuevos conocimientos


La innovación que se fundamenta en nuevos conocimientos es la “superestrella” de las
innovaciones, es la que logra más publicidad, genera más dinero, aquella en que la gente piensa
cuando se habla de innovaciones.
Generalmente pasa un tiempo bastante largo entre la aparición de un nuevo conocimiento y su
aplicación tecnológica. Además las innovaciones basadas en nuevos conocimientos casi nunca se
fundamentan en un solo factor, sino en la convergencia de varios tipos de conocimientos, no todos
ellos científicos o tecnológicos.
Es sabido que la computadora, por ejemplo, requirió la convergencia de varios conocimientos. El
más antiguo, sin duda, la numeración binaria (del siglo XVII) que hace posible que todos los
números se puedan expresar mediante sólo dos de ellos el 1 y el 0. Charles Babbage aplicó la
numeración binaria a una máquina de calcular a mediados del siglo XIX. En 1890 Herman Hollerith
inventó el sistema de tarjetas perforadas partiendo de otro invento en la industria textil del siglo
XVIII. La tarjeta transforma los números en instrucciones.
En 1906 el norteamericano Lee Forest inventó el tubo de audio y, con él, la electrónica. Bertrand
Russell y Alfred Whitehead, entre 1910 y 1913, crearon la lógica simbólica, que permite expresar
conceptos lógicos como números. Fue durante la la Primera Guerra Mundial que se desarrollaron
los conceptos de programación y realimentación.
No había posibilidad de construir una computadora hasta que no estuvieran disponibles todos estos
conocimientos. Alrededor de 1918 se disponía de todos los conocimientos para desarrollar la
computadora, pero la primera que merece ese nombre data de 1946.
En base a esta experiencia, y como todos los días aparecen nuevos conocimientos, cada
tanto conviene revisar los fracasos del pasado, ya que es posible que ahora se disponga del
conocimiento que faltaba y se pueda tener éxito.
Las innovaciones basadas en nuevos conocimientos, por sus características, tienen requerimientos
diferentes a los de cualquier otra clase de innovación.

96
o Requieren un análisis cuidadoso de todos los recursos necesarios, sean éstos conocimientos
sociales, económicos o de percepción.
o Requiere un enfoque claro de la posición estratégica de la innovación. La introducción en el
mercado crea entusiasmos y atrae a otros, por lo que es necesario acertar en el primer intento.
o Requiere un eficiente manejo empresario.

Las demandas que se formulan a los innovadores que se basan en nuevos conocimientos son muy
grandes y diferentes a las de los de otras áreas. Los riesgos son mayores, pero también lo son las
satisfacciones potenciales. Los otros innovadores pueden aspirar a la fortuna, los que se basan en
nuevos conocimientos también pueden aspirar a la fama.

97
GESTIÓN DE LA INNOVACIÓN

Como un eslabón de la cadena del crecimiento económico, las actividades de investigación y


desarrollo tecnológico tienen como finalidad generar los conocimientos y sintetizar las innovaciones
que permiten producir un bien o un servicio. En este punto debemos hacer un alto a fin de aclarar
que el proceso de innovación alcanza tanto a la tecnología dura (maquinarias, materiales,
conocimiento basados en ciencias duras, etc.) como a la blanda (procesos, herramientas de gestión,
administración, etc.).
Ahora bien, mientras que la naturaleza de las actividades productivas son bien conocidas y han sido
estudiadas en las distintas escuelas de negocios, el nivel de entendimiento alcanzado para las
actividades de investigación y desarrollo es mucho menor.
A pesar que la investigación tecnológica organizada fue negocio desde 1880, con el Laboratorio de
Investigación de Tomas Alva Edison como punto de partida, el estudio sobre esa actividad en
escuelas de negocios comienza en el Instituto Tecnológico de Massachusetts en 1965.
De la misma forma, en teoría económica, Solow (Premio Nobel de Economía en 1987) descubre en
1957 que la explicación neoclásica del crecimiento económico utilizando como factores de
producción la tierra, el capital y el trabajo, deja una diferencia o “residuo” que es mayor aún que lo
propiamente explicado por esos factores (aumentos en la intensidad de capital solo explicaban el
19% de los aumentos en productividad). Ese residuo tiene significado real y se identifica con el
cambio tecnológico, que es tomado en principio como una variable exógena a la industria, y un
aumento en la habilidad laboral.
Es recién a fines de la década del ’70 que se introduce al cambio tecnológico como algo interno y
propio de la industria y que sobresale como el factor controlante del equilibrio dinámico
competitivo. Estos trabajos siguen las ideas de Schumpeter quien en 1942 sienta las bases de una
escuela de pensamiento que ubica a la tecnología como fuerza impulsora del cambio social. En su
libro “Capitalismo, Socialismo y Democracia”, editado en 1942, expuso:
“No es la competencia de precios lo que más cuenta, sino la que lleva consigo la aparición de una
nueva tecnología, de un tipo nuevo de organización, es decir, la competencia que da a lugar a una
competitividad decisiva en el costo o la calidad y que ataca no ya los márgenes de los beneficios y
de la producción de las empresas existentes, sino a sus cimientos y a su misma existencia. Se hace
relativamente indiferente que la competencia en el sentido ordinario (de precios) funcione más o
menos rápidamente, la poderosa palanca que a la larga expansiona la producción y reduce los precios
está hecha en todo caso de otro material ...”
El material con que está hecha esa poderosa palanca es la materia gris utilizada en la creación de
tecnología y en su implementación económica.
Además de la productividad, otro efecto no explicable por la contribución de la tierra, el capital o el
trabajo lo constituye las modificaciones de la estructura de demanda laboral, generadas por las
innovaciones frecuentes en la industria, hacia recursos humanos calificados, mejorando fuertemente
la distribución de ingresos y posibilitando una mayor equidad.
Pero la velocidad del cambio tecnológico que produce estos efectos no es constante. Como una
tormenta que se prepara desde los años ‘50, ya desde fines de los ’80 se ha venido definiendo con
ráfagas de innovaciones otra revolución tecnológica. Esta produce cambios en el orden económico
y social en el mundo. Si bien la dimensión final del cambio no está todavía definida, su campo de
acción inicial fue el de las comunicaciones y el procesamiento de la información.

98
Ian Morrison, presidente del Institute for the Future, afirma que la tecnología es una de las fuerzas
que están impulsando lo que él ha llamado “la segunda curva” en la que el conocimiento reemplaza
al capital, los consumidores y no los productores orientan el negocio, el comercio electrónico
irrumpe en el comercio internacional y la Internet reacomoda el rol de las computadoras.
Para las empresas, el cambio fundamental se dará en la relación rígida de todos los componentes
que forman parte de la cadena de valor. Esto es investigación y desarrollo, ingeniería, producción y
ventas. Un concepto clave en este proceso será la desintermediación, a partir del concepto de
“autoservicio”. A modo de ejemplo puede citarse la empresa Industry Net que opera una plataforma
de transacciones business-to-business en la Internet, y conecta a los productores con los
compradores. Amazon es una librería virtual interactiva que vende a través de la Internet y ofrece
más de 3.000.000 de títulos.
En esta instancia, resulta obvio afirmar que tanto la globalización de los mercados como los cambios
tecnológicos, surgidos a partir de las actividades de investigación y desarrollo (I+D), son factores
que transforman radicalmente el escenario en el cual se desenvuelven los negocios de una empresa,
motivo por lo cual estas deben iniciar un proceso de transformación para asegurar su subsistencia,
como situación más pesimista, o su crecimiento en esta nueva era que está signada por la creatividad.
La empresa, cuando innova, lo hace buscando mejorar su perfil competitivo. Por eso, todo lo dicho
y lo que se dirá sobre la innovación deja de tener sentido si lo que se pretende es introducir una
novedad sólo por la novedad en sí misma.

La competitividad, de acuerdo con la definición más aceptada, mide la capacidad de una empresa
o nación para producir - en mercados libres y justos - bienes y servicios que satisfacen los mercados
internacionales mientras que, simultáneamente, aumenta - o, como mínimo, conserva - el ingreso
real de sus trabajadores o ciudadanos.

De acuerdo con esta definición, hay dos condiciones que se deben cumplir, por un lado, "satisfacer
los mercados internacionales" y, por el otro, "mantener o aumentar los ingresos reales" de sus
trabajadores - si medimos la competitividad de una empresa - o de sus habitantes, si medimos un
país. Y podríamos agregar "su calidad de vida". Lo de los "mercados libres y justos" es un calificador.

¿Cuáles son los elementos fundamentales de la competitividad?, ¿cómo se la consigue?, ¿es lo mismo
la competitividad de una empresa que la de un país?, ¿sigue las mismas recetas?

En este tema el autor más conocido es Michael Porter, sobre todo por su libro La ventaja
competitiva de las naciones.

En su trabajo, Porter resume algunos de los mandamientos fundamentales:

La prosperidad nacional se crea, no se hereda: no surge de los dones naturales de un


país, del conjunto de su mano de obra, de sus tipos de interés o del valor de su moneda, como
afirma con insistencia la economía clásica.

La competitividad de una nación depende de la capacidad de su industria para


innovar y mejorar. Las empresas logran ventaja frente a los mejores competidores del mundo
a causa de la presión y el reto. Se benefician de tener fuertes rivales nacionales, proveedores
agresivos radicados en el país y clientes nacionales exigentes

Ninguna nación puede ni podrá ser competitiva en todos o ni siquiera en la


mayoría de los sectores económicos: las naciones triunfan en sectores determinados debido a

99
que el entorno nacional es en ese aspecto particular más progresista, dinámico y estimulante. En
todo el mundo, las empresas que han logrado el liderazgo internacional emplean estrategias
que difieren entre sí en todos los aspectos. Pero, aunque cada empresa triunfadora emplea su
propia estrategia particular, su modo fundamental de operar - el carácter y trayectoria de todas las
que tienen éxito - es fundamentalmente el mismo: logran ventajas competitivas mediante actos de
innovación. Enfocan la innovación en su sentido más amplio, que incluye tanto las nuevas
tecnologías (NT) como los nuevos modos de hacer las cosas.

Muchos consideran que el gobierno es esencial para ayudar o apoyar a la industria,


estableciendo multitud de políticas para contribuir directamente a la actuación competitiva de los
sectores que son estratégicos o que son fijados como objetivo. Otros aceptan la opinión del mercado
libre en el sentido de que el funcionamiento de la economía debe dejarse a la actuación de la mano
invisible. Ambas opiniones son incorrectas. Una y otra, seguidas hasta su resultado lógico,
originarían la erosión permanente de las posibilidades competitivas de un país.

El papel correcto del gobierno es el de catalizador y estimulador. Debe alentar - o,


incluso, empujar - a las empresas para que eleven sus aspiraciones y accedan a niveles más altos de
actuación competitiva, aun cuando este proceso pueda ser intrínsecamente desagradable y difícil. El
gobierno no puede crear sectores competitivos: sólo pueden hacerlo las empresas.

El único concepto significativo de la competitividad a nivel nacional es la


productividad. La productividad es el determinante fundamental del nivel de vida de una nación a
largo plazo; es el componente básico de la renta per cápita nacional. La productividad de los
recursos humanos determina los salarios de los empleados; la productividad con que se emplea el
capital determina el rendimiento que obtiene para sus propietarios.

También en el caso de la competitividad y del perfil competitivo - términos tan de moda- nos
sentimos obligados a recorrer algunas definiciones más, no sólo para aclarar de qué hablamos, sino
para ver si encontramos algunas más operativas que nos ayuden a plantear qué hacer.

La palabra competitividad proviene de competencia, expresión que, a su vez, tiene distintas


acepciones:

incumbencia, como en el caso de un juez que se declara "incompetente". No nos interesa;

puja entre dos o más por alcanzar algo; como en los deportes, donde cada uno de los
competidores trata de ganar. En este caso, tampoco nos interesa;

tener habilidad o aptitud para hacer algo, es decir, ser "competente". Esta sí.

Por eso, la búsqueda de la competitividad consiste en poner en sintonía las habilidades - o


aptitudes - de la organización con las oportunidades del entorno en el que se desenvuelve.

El de competitividad, aceptado así, es un concepto que implica dinamismo. Hablamos de algo en


tránsito, no de un estado final; nos hace pensar en la felicidad, que no es un estado permanente. Es
por eso que, en realidad, lo que se reconocen son conductas competitivas más que una posición
competitiva, ya que la principal característica del entorno actual es su alta tasa de cambio o
turbulencia. Sintonizar las habilidades de una empresa con ese entorno cambiante será un proceso
dinámico, con frecuentes correcciones del rumbo trazado.

100
Releyendo a Porter es fácil concluir que la competitividad - tanto la de una empresa como la de un
país - depende de la articulación de las medidas del gobierno con la iniciativa de las empresas y la
calidad de su sistema educativo, científico y tecnológico.

El papel protagónico de estos tres actores ya ha sido descripto a finales de la década de los sesenta
en nuestro país por Jorge Sábato, en lo que luego se popularizó como el triángulo de Sábato, en
el que "el gobierno, la estructura productiva y la infraestructura científico-tecnológica ocupan sus
vértices respectivos". Este esquema triangular se puede aplicar tanto al conjunto de las actividades
de un país como a un sector en particular o, aun, a un caso individual. Sábato decía algo así como
"muestrame tu triángulo y te diré en qué andas": detállame las fortalezas y debilidades de cada vértice
y, sobre todo, de cada lado - es decir, de la calidad de las relaciones entre dos de los actores - y te
diré cuáles son tus posibilidades de éxito.

Los empresarios deben conocer esta relación ya que, si bien dos de los tres vértices - el gobierno y
la infraestructura científico-tecnológica del país - escapan a su responsabilidad directa, deben
recordarlos cuando actúan políticamente como ciudadanos y cuando plantean pedidos y reclamos
como sector social.

Es difícil recordar si en alguna reunión entre empresarios y funcionarios se ha hablado alguna vez
de la calidad de la investigación científica en nuestro país o, aun, de los planes de trabajo de los
centros que pagamos con nuestros impuestos, como los institutos nacionales de tecnología industrial
o agropecuaria (INTI e INTA). Todo indica que para mejorar la competitividad de nuestras
empresas, sobre todo las pequeñas y medianas, en la próxima reunión convendría incorporar el
punto en el temario.

Ahora bien, concretamente, ¿qué debe hacer un gobierno? Un documento muy interesante de la
O.T.A. - la oficina de asesoramiento científico y tecnológico del Congreso de EEUU - opina que
un gobierno debe cumplir algunas funciones específicas, por ejemplo:

♦ Mejorar el ambiente financiero para las empresas manufactureras. Esto significa reducir
los costos del capital y aliviar otras presiones de los mercados, que obligan a los gerentes a exhibir
balances trimestrales con utilidades.

♦ Mejorar la educación y capacitación de los trabajadores, gerentes y técnicos necesitados


por la producción manufacturera.

♦ Difundir tecnologías en todo el sector manufacturero. El gobierno puede desempeñar un


papel mucho más activo que el que ha tenido hasta el presente, para ayudar a los fabricantes a
adquirir equipos de producción modernos y aprender a utilizarlos eficazmente.

♦ Apoyar las actividades de investigación y desarrollo en tecnologías comerciales


importantes.

No creemos poder encontrar muchas opiniones que disientan con éstas, aunque tampoco encontramos a nuestro
alrededor muchas acciones coincidentes con ellas.

101
Después de recorrer a Porter y Sábato vale la pena volver a Lewis Branscomb cuando dice que "...
de los semiconductores a las supercomputadoras o de los aviones a la televisión de alta definición,
la tecnología es, probablemente, el factor de mayor trascendencia individual en la evolución de la
competencia global. La aceleración de la innovación tecnológica crea nuevos negocios, transforma
los demás y redefine las reglas del éxito en la competitividad. Por lo tanto, no puede sorprendernos
que el debate acerca de la competitividad de nuestra industria - y del papel del gobierno para
mejorarla - se transforme en un debate acerca de nuestra política tecnológica".

Pero recordemos que para un gobierno lo importante - y prioritario - es la definición de los objetivos
de una política social. Para alcanzarlos, empleará diferentes dosis de mercado y de regulación; es
decir, una política económica. Uno de los capítulos de esa política económica será una política
industrial. Y en ella, debe estar contenida una política tecnológica.

"Una política industrial es un conjunto interrelacionado de políticas que intentan gestionar el


desarrollo económico de una nación - en particular de sus industrias y tecnologías más importantes
y el de su comercio exterior, junto con algunos recursos nacionales, tales como los programas
sociales y de educación - para aumentar el bienestar de la nación".

O, más sintéticamente, es un conjunto de "políticas específicamente diseñadas para mejorar la


competitividad de las industrias civiles".

Estás claro en qué medida las políticas tecnológicas ocupan cada vez más espacio en las políticas
industriales exitosas.

102
CADENA DE VALOR
Nunca antes se había aplicado tanta tecnología y capacidad mental a la mejora de la cadena de
abastecimiento. Los scanners instalados en los puntos de venta habilitan a las empresas para captar
la voz del usuario. El intercambio electrónico de datos permite que todos los eslabones de la cadena
escuchen su voz y reaccionen utilizando un proceso de fabricación más flexible, depósitos
automatizados y una logística rápida. Y a ello se suman los nuevos conceptos, como la respuesta
eficiente al consumidor, la respuesta precisa, la customización masiva, la fabricación con costos
ajustados y la fabricación ágil, que ofrecen modelos para aplicar la nueva tecnología al mejoramiento
del desempeño.
A pesar de todo esto, el desempeño de muchas cadenas nunca ha sido peor. En algunos casos, los
costos han alcanzado niveles sin precedentes como resultado de las relaciones conflictivas entre los
socios de la cadena y de prácticas disfuncionales de la industria, como una dependencia excesiva de
las promociones de precios. Un estudio reciente realizado dentro de la industria alimentaria de
Estados Unidos reveló que la falta de coordinación entre los socios de la cadena de abastecimiento
dilapidaba unos US$ 30 mil millones por año. En otras industrias, la cadena padece el exceso de
algunos productos y la escasez de otros debido a la incapacidad para predecir la demanda.
El primer paso hacia una estrategia eficaz en este tema consiste en considerar la naturaleza de la
demanda de los productos que ofrece una empresa. Son muchos los aspectos importantes. Por
ejemplo, el ciclo de vida del producto, la previsibilidad de la demanda, la variedad de productos y
las normas del mercado, en cuanto al tiempo transcurrido entre pedido y entrega y al servicio
prestado (porcentaje de esa demanda que se cubre con la mercadería en stock).
Al clasificar los productos sobre la base de los patrones de demanda, éstos pueden pertenecer a una
de dos categorías: pueden ser esencialmente funcionales o esencialmente innovadores. Y cada una
de estas categorías requiere una cadena de abastecimiento claramente diferente. El origen de los
problemas que afectan a muchas de estas cadenas está en una incompatibilidad entre el tipo de
producto y el tipo de cadena de abastecimiento.

Productos funcionales o innovadores


Los productos funcionales satisfacen necesidades básicas que no cambian demasiado con el
transcurso del tiempo, tienen una demanda estable y previsible, y ciclos de vida prolongados. Pero
es precisamente esa estabilidad la que invita a la competencia y lo que lleva con frecuencia a bajos
márgenes de ganancia.
Para evitar esos bajos márgenes, muchas empresas introducen innovaciones que siguen el avance de
la tecnología o la moda, para brindar a los clientes una razón más para elegir sus productos.
Century Products, fabricante líder de sillas de bebé para el auto en EEUU, es una empresa que
incorporó la innovación a un producto funcional. Hasta principios de la década de los '90, Century
vendía sus sillas como productos funcionales. Luego, diseñó un nuevo asiento que en caso de
accidente, se movería absorbiendo la energía y protegiendo al bebé sentado en él. Se lo llamó Smart
Move (movimiento inteligente) y el diseño resultó tan innovador que fue necesario esperar hasta
que se modificaran las normas gubernamentales sobre seguridad del producto, que establecían que
los asientos no debían moverse, para poder lanzarlo al mercado.
Aunque la innovación puede hacer que una empresa aumente sus márgenes de ganancias, el carácter
novedoso de los productos innovadores hace que la demanda sea imprevisible. Además, su ciclo de
vida es corto, generalmente dura sólo unos meses, porque a medida que los imitadores erosionan la
ventaja competitiva de la que disfrutan estos productos, las empresas se ven obligadas a introducir

103
una corriente sostenida de nuevas innovaciones. Los ciclos de vida cortos y la gran variedad típica
de estos productos aumentan aún más su imprevisibilidad.
Puede parecer extraño unir la tecnología con la moda, pero el éxito de ambos tipos de innovación
depende de que los consumidores cambien algún aspecto de sus valores o estilos de vida. Por
ejemplo, el éxito alcanzado por el Thinkpad de IBM se debió en parte a su novedoso control del
cursor en el medio del teclado, pero para poder utilizarlo los usuarios debieron aprender a interactuar
con el teclado de una manera con la que no estaban familiarizados. El nuevo diseño despertó tantas
controversias dentro de IBM que los gerentes dudaron de la reacción entusiasta que generó el cursor
en los primeros grupos de opinión. Como resultado, la empresa subestimó la demanda, problema
que derivó en la escasez del producto durante más de un año.
Con altos márgenes de utilidades y una demanda volátil, los productos innovadores requieren una
cadena de abastecimiento muy diferente de la que necesitan los productos funcionales, de demanda
estable y bajos márgenes. Para comprender la diferencia es necesario reconocer que la cadena de
abastecimiento realiza dos tipos de funciones esencialmente distintas: una función física y una
función de mediación con el mercado.
La función física se puede advertir rápidamente y significa convertir la materia prima en piezas,
componentes y, con el tiempo, en productos terminados, y transportarlos desde un punto de la
cadena, al siguiente. Menos visible, pero igualmente importante, es la función de mediación con el
mercado, cuyo propósito es asegurar que la gama de productos que llegan al mercado sea
compatible, con lo que los consumidores quieren comprar.
Cada una de estas dos funciones tiene costos diferentes. Los costos físicos incluyen los costos de
producción, transporte y almacenamiento del inventario. Los costos de mediación con el mercado
surgen cuando la oferta supera la demanda y es necesario reducir el precio de un producto y vender
a pérdida, o cuando la demanda supera la oferta, generando oportunidades de ventas que se pierden
y clientes insatisfechos.
En el caso de los productos funcionales, la existencia de una demanda previsible facilita la mediación
con el mercado, porque se puede lograr una compatibilidad casi perfecta entre la oferta y la demanda.
En consecuencia, las empresas que fabrican estos productos disfrutan de la libertad de poder
dedicarse casi con exclusividad a minimizar los costos físicos; una meta crucial dado lo sensible que
son los precios en la mayoría de los productos funcionales. A este fin, las empresas generalmente
crean un cronograma para el ensamblado de los productos terminados y se comprometen a
respetarlo. Congelar de este modo el cronograma les permite utilizar software de fabricación -
recursos - planificación, encargado de orquestar los pedidos, la producción y la entrega de los
productos y, de esta manera, toda la cadena de abastecimiento está en condiciones de minimizar el
inventario y maximizar la eficiencia de la producción. En este caso, el flujo de información
importante tiene lugar dentro de la cadena misma cuando los proveedores, fabricantes y minoristas
coordinan sus esfuerzos para satisfacer la demanda previsible al mínimo costo posible.
En el caso de los productos innovadores, este enfoque es incorrecto. La reacción incierta del
mercado ante la innovación aumenta el riesgo de una escasez o un exceso de oferta.
Los altos márgenes de ganancias y la importancia de las primeras ventas para establecer la
participación que los nuevos productos habrán de tener en el mercado, aumentan el costo de la
escasez. A su vez, los ciclos de vida cortos de estos productos aumentan el riesgo de la obsolescencia
y el costo del exceso de oferta. En consecuencia, en estos predominan los costos de la mediación
con el mercado y son ellos, y no los costos físicos, los que deben convertirse en el principal foco de
atención de los gerentes.

104
En este entorno, es muy importante aprender a interpretar los números derivados de las primeras
ventas y de las restantes señales del mercado, y reaccionar con rapidez, durante el corto ciclo de vida
del nuevo producto. En este caso, el flujo de información crucial tiene lugar no sólo dentro de la
cadena sino desde el mercado hacia la cadena. Las decisiones críticas que deben tomarse sobre el
inventario y la capacidad no tienen que ver con la minimización de los costos, sino con el lugar en
el que se posicione el inventario y con la capacidad de producción disponible, de modo tal de poder
cubrirse frente a una demanda incierta. Entonces, será necesario elegir a los proveedores en función
de su velocidad y flexibilidad, y no de su bajo costo.
Aunque las diferencias entre productos funcionales y productos innovadores, y entre eficiencia física
y capacidad de respuesta al mercado, parecen obvias una vez enunciadas, muchas empresas fracasan
en este punto. Es probable que esto se deba a que los productos físicamente iguales pueden ser
funcionales o innovadores. Por ejemplo, productos como las computadoras personales, los autos,
la ropa, los helados, el café, las galletitas y las sillas de bebé para el auto pueden ofrecerse tanto como
productos funcionales básicos como adoptar una forma innovadora.

La estrategia ideal
Para tener la certeza de que están adoptando el enfoque correcto, las empresas deben identificar
primero si sus productos son funcionales o innovadores. La mayoría de los gerentes están en
condiciones de percibir si los productos tienen una demanda previsible o imprevisible, a
continuación deberán decidir si la cadena de abastecimiento de su empresa es físicamente eficiente
o tiene capacidad de respuesta frente al mercado.
Una vez determinada la naturaleza de los productos y las prioridades de la cadena de abastecimiento,
los gerentes pueden emplear una matriz que les permita formular la estrategia ideal para la cadena
de abastecimiento.

COMPATIBLES NO
COMPATIBLES

NO
COMPATIBLES
COMPATIBLES

Las cuatro celdas de la matriz representan las cuatro combinaciones posibles de productos y
prioridades. Al utilizarla para diagramar la naturaleza de la demanda para cada una de las familias de
productos y sus prioridades, con relación a la cadena de abastecimiento, los gerentes pueden
descubrir si el proceso que utiliza la empresa para proveer productos es perfectamente compatible

105
con el tipo de producto. Es decir, si se trata de un proceso eficiente en el caso de los productos
funcionales o de un proceso con capacidad de respuesta, en el caso de los productos innovadores.
Los problemas suelen estar en aquellas empresas que tienen un producto innovador con una cadena
de abastecimiento eficiente (celda del extremo superior derecho) o en las que tienen un producto
funcional con una cadena de abastecimiento sensible al mercado (celda del extremo inferior
izquierdo).
Por razones fácilmente entendibles, es difícil que una empresa se encuentre en la celda del extremo
inferior izquierdo. La mayoría de las compañías que lanzan productos funcionales comprenden que
necesitan contar con una cadena eficiente para comercializarlos. Si los productos siguen siendo
funcionales con el transcurso del tiempo, las empresas suelen tener el buen tino de conservar una
cadena eficiente, pero, por distintas razones, la mayoría de las empresas suelen estar en la celda
superior derecha. No es difícil comprender por qué ocupar este lugar no tiene sentido: para
cualquier empresa con productos innovadores, las recompensas generadas por la inversión en
mejorar la capacidad de respuesta de la cadena de abastecimiento son habitualmente mucho mayores
que las recompensas derivadas de invertir en mejorar la eficiencia de la cadena.
Por cada dólar que una empresa invierte en aumentar la capacidad de respuesta de su cadena,
habitualmente cosecha una reducción de más de un dólar en el costo de los productos fuera de stock
o las reducciones forzadas de precio en los excedentes de inventario, que son el resultado de una
incompatibilidad entre la oferta y la demanda.
Consideremos como ejemplo un producto innovador típico con un margen de contribución del
40% y un índice promedio de productos fuera de stock del 25% (1). La contribución perdida con
relación a las ganancias y los gastos generales resultantes de la falta de stock son enormes:

40% x 25% = 10% de la venta (monto que generalmente excede las ganancias previas a las
deducciones impositivas).

En consecuencia, la ganancia económica que puede obtenerse si se reducen estas faltas de stock y
los excesos de inventario es tan grande que las inversiones inteligentes en mejorar la capacidad de
respuesta de la cadena de abastecimiento siempre darán buenos frutos, hecho que las empresas
progresistas ya han descubierto.
Compaq, por ejemplo, decidió continuar produciendo internamente algunos circuitos de gran
variedad y ciclo de vida breve, en lugar de tercerizarlos a algún país asiático de bajo costo, porque la
producción local brindaba a la empresa mayor flexibilidad y plazos más breves entre pedido y
entrega.
Esta lógica no se aplica a los productos funcionales. Un margen de contribución del 10% y un índice
promedio de falta de stock del 1% significan contribuciones perdidas con relación a las ganancias y
gastos generales de sólo el 0,1% de las ventas, un costo insignificante que no justifica la realización
de una inversión importante para mejorar la capacidad de respuesta.

Cómo salir de la celda superior derecha


El lanzamiento de nuevos productos ha llegado a niveles siderales en muchas industrias, como
resultado de un mayor número de competidores y de los esfuerzos realizados por los ya existentes
para proteger o aumentar los márgenes de utilidad. En consecuencia, muchas compañías han
convertido, o tratado de convertir, productos tradicionalmente funcionales en innovadores. Pero

106
han seguido apuntando a la eficiencia física en los procesos de suministro de esos productos. Este
fenómeno explica por qué es tan fácil advertir cadenas de abastecimiento rotas - es decir, cadenas
que carecen de capacidad de respuesta para brindar sus productos innovadores - en industrias tales
como los automóviles, las computadoras personales y los productos de consumo envasados.
La industria automotriz constituye un ejemplo clásico. Hace varios años, se realizó un estudio
destinado a medir el impacto que tiene la variedad de opciones disponibles en la productividad de
las plantas de las tres automotrices líderes en el mundo. Al comenzar el estudio, el objetivo radicaba
en comprender la variedad desde la perspectiva del cliente, se realizaron visitas a una concesionaria
determinada, solicitando el modelo de auto que producía la planta objeto del estudio. A partir de la
información sobre ventas facilitada por la concesionaria, se arribó a la conclusión de que cuando se
toman en cuenta todas las opciones de color, diseño interior y especificaciones de manejo, la
empresa estaba ofreciendo 20 millones de versiones del auto. Pero, debido a que solicitar el auto
con todas las opciones deseadas implicaba una espera de ocho semanas para su entrega, más del
90% de los clientes compraban sus automóviles entre los que estaban disponibles.
En la concesionaria informaron que tenían dos versiones del modelo del auto y que si ninguna
satisfacía las especificaciones ideales, ellos estaban en condiciones de solicitar el auto elegido a alguna
otra concesionaria de la zona de Philadelphia.
Cuando se verificó que había diez concesionarias en la zona. Suponiendo que cada una de ellas
tuviera dos versiones del auto en stock, se estaba eligiendo dentro de una selección de, por lo menos,
20 versiones de un auto que podrían convertirse en 20 millones.
En otras palabras, el canal de distribución de autos es una especie de reloj de arena en el que la
concesionaria está ubicada en el cuello. En la mitad superior del reloj están las plantas que introducen
innovaciones tecnológicas todos los años y pueden brindar una gama casi infinita de opciones. En
la parte inferior, están los miles de clientes con diversos gustos que podrían beneficiarse con esa
variedad, pero que no pueden hacerlo debido a las prácticas que utilizan las concesionarias que
ocupan el cuello del reloj.
¿Cómo hace una empresa que se encuentra en la celda del extremo superior derecho para superar
su esquizofrenia?
Ya sea moviéndose hacia la izquierda de la matriz y convirtiendo sus productos en funcionales, o
descendiendo en ella y logrando que su cadena de abastecimiento tenga capacidad de respuesta. La
dirección correcta dependerá de que el producto sea o no lo suficientemente innovador como para
generar las ganancias adicionales necesarias para cubrir los costos inherentes a las mejoras en la
capacidad de respuesta de la cadena de abastecimiento.
Una señal evidente de que la empresa necesita moverse hacia la izquierda surge cuando existe una
línea de productos caracterizada por la frecuente incorporación de nuevas ofertas, gran variedad y
bajos márgenes de ganancias.
En otros casos, cuando una empresa tiene una cadena de abastecimiento que carece de capacidad
de respuesta para los productos innovadores, la solución adecuada consiste en convertir a algunos
de esos productos en funcionales y crear una cadena de abastecimiento sensible para los restantes
productos innovadores. La industria del automóvil es un buen ejemplo.
Se han formulado muchas sugerencias para resolver los problemas que afectan el canal de
distribución, pero ninguna ha dado en la tecla porque proponen aplicar una sola solución.
Este enfoque ignora el hecho de que algunos autos, como el Ford Fairmont, son inherentemente
funcionales, mientras que otros, como el auto deportivo BMW Z3 (utilizado en la película Golden
Eye, de James Bond) son innovadores. Un canal de distribución acotado y eficientes es totalmente

107
adecuado para los autos funcionales, pero inapropiado para los autos innovadores, que requieren
"colchones" para el inventario a fin de absorber la incertidumbre de la demanda.
El lugar más eficiente para colocar estos colchones es en las piezas, pero hacerlo va directamente
en contra del sistema Just-in-time que las automotrices han adoptado tan vigorosamente durante la
última década. El sistema Just-in-time ha recortado los inventarios de piezas de las plantas (en las
que tener inventario es relativamente económico) a unas pocas horas, mientras que el stock de autos
de las concesionarias (donde tener inventario es caro) ha crecido a, aproximadamente, 90 días.

Productos innovadores y capacidad de respuesta


La incertidumbre de la demanda es inherente a los productos innovadores. en consecuencia,
descifrar cómo enfrentarla es el desafío principal cuando se busca crear un proceso de suministro
de estos productos que tenga verdadera capacidad de respuesta. Se ha comprobado que las empresas
recurren a cuatro herramientas para hacer frente a la incertidumbre de la demanda. Para que haya
capacidad de respuesta en la provisión de productos, los gerentes deben comprender bien de qué se
trata cada una de ellas y luego combinarlas en una receta apropiada para la situación particular de su
empresa.
Aunque pueda parecer obvio, el primer paso consiste en que las compañías acepten que la
incertidumbre es propia de los productos innovadores. A las empresas que crecieron al amparo de
un oligopolio con menos competencia, clientes más dóciles y minoristas más débiles, les resulta
difícil aceptar los altos niveles de incertidumbre de la demanda que existen en muchos de los
mercados de hoy. Tienden a declarar como inaceptable un alto nivel de errores en los pronósticos,
y virtualmente obligan a su personal a reflexionar mucho y durante mucho tiempo con el fin de ser
precisos en los pronósticos. Pero estas empresas no pueden eliminar la incertidumbre por decreto.
Cuando se trata de productos innovadores, es necesario aceptar la incertidumbre como un bien.
Si la demanda de un producto era previsibles, es muy probable que ese producto no fuera lo
suficientemente innovador como para asegurar altos márgenes de ganancias. El hecho es que el
riesgo y la rentabilidad están íntimamente relacionados, y los mayores márgenes de ganancias en
general van de la mano con riesgos más altos en la demanda. Una vez que la empresa ha aceptado
la incertidumbre de la demanda puede utilizar tres estrategias coordinadas para manejarla.
Continuar luchando para reducir la incertidumbre, encontrando nuevas fuentes de datos que puedan
servir como indicadores firmes o teniendo productos diferentes que compartan al máximo posible
componentes comunes, de modo tal que la demanda de esos componentes sea previsible.
Puede evitar la incertidumbre recortando los plazos entre pedido y entrega y aumentando la
flexibilidad de la cadena de abastecimiento, de tal manera de "producir a pedido" o, por lo menos,
fabricar el producto en un momento más próximo a aquél en el que se la puede prever
acertadamente.
Una vez que se ha reducido la incertidumbre o que se la ha evitado lo máximo posible, la empresa
puede cubrirse del residual con amortiguadores de inventario o capacidad excedente.
Los gerentes de muchas compañías continúan lamentándose de que, aunque saben que sus cadenas
de abastecimiento esterilizan recursos y generan insatisfacción entre los clientes, no saben cómo
hacer para resolver el problema. El origen bien podría estar en una falta de coordinación entre la
provisión de los productos y las estrategias de productos.
Realinear estos dos componentes no es una tarea sencilla. Pero la recompensa - una ventaja
competitiva notable que genera el crecimiento de las ventas y las ganancias - hace que el esfuerzo
bien valga la pena.

108
FORMULARIO PARA LA PRESENTACIÓN DE IDEAS-PROYECTO

1.- IDENTIFICACIÓN DEL PROYECTO

1.1.- Título del Proyecto

Asigne a su proyecto un título que exprese en forma sintética su contenido, haciendo referencia al
proceso o producto que se pretende desarrollar. El título debe dar una idea del proyecto al evaluador
que no conozca el emprendimiento.
Se recomienda no utilizar más de una línea, en la que se de una idea elemental del proyecto para una
persona que no conozca ningún detalle del mismo.

1.2. Caracterización General

1.2.1. Idea:

Realice una breve descripción de su idea. Plantee la idea básica que da origen al proyecto, comente si
se trata de una innovación de producto, servicio o proceso. ¿Por qué considera que su propuesta
constituye una idea innovadora?.

1.2.2. Identificación del problema que da origen a la idea:

Describa en pocas palabras el problema que da origen a la idea. Comente las características del
problema a abordar y la adecuación de la solución propuesta.
Se debe contemplar tanto el problema interno a la futura empresa (aspectos del proceso productivo que
permitirá mejorar la solución tecnológica, problemas para el tratamiento de ciertas materias primas,
necesidad de cambios de escala de producción, rebaja de costos, etc.), como el problema externo
(competidores, tecnologías rivales, etc.).

1.2.3. Descripción:

Realice una breve descripción del proyecto. Tenga en cuenta las siguientes indicaciones:
· ¿Cuánto calcula que durará el desarrollo del proyecto?. Si no conoce el plazo exacto realice la mejor
estimación posible.
· Tenga en cuenta todas las tareas que tendrá que desarrollar para lograr que su producto / servicio se
encuentre en condiciones de ser ofrecido en el mercado al que se dirige, como por ejemplo: ensayos,
diseño, desarrollo de programas, construcción de prototipos, estudio de mercado, selección y
contratación de personal, adquisición y adaptación de equipos, etc. Describa las etapas en la secuencia
temporal que cree tendrán durante el desarrollo del proyecto.
· Identifique cuales son las tres etapas más importantes para el éxito del proyecto. ¿Por qué cree que
son las más importantes?.

1.2.4. Objetivos:

Explique qué pretende lograr con el proyecto, tanto desde el punto de vista técnico como del económico.
Los objetivos técnicos pueden referirse, por ejemplo, al impacto de la tecnología sobre el proceso
productivo, al desarrollo de un nuevo producto o servicio, a reducir el impacto ambiental de un proceso
productivo, a lograr mejorar la calidad de productos existentes, etc; puede considerarse la obtención de
una patente como uno de los objetivos técnicos. Los objetivos económicos están relacionados con las
economías a realizar (su proyecto permitirá ahorrar materias primas, mano de obra o capital), con
mercados a conquistar (el producto / servicio podrá comercializarse en el exterior), con la capacidad de
generar empleo, etc.

1.2.5. Claves del éxito:

Explique por qué cree que su proyecto será exitoso. Señale cuales son los detalles que lo diferencian y
que harán que su producto / servicio sea preferido por los consumidores.
Al analizar las claves del éxito de su emprendimiento, tenga en cuenta las siguientes posibilidades:

109
· Su producto / servicio se orienta a cubrir una demanda insatisfecha o mal atendida por los actuales
productores / prestadores.
· Su producto / servicio será más barato que los de la competencia (y tendrá las mismas prestaciones),
o será de mayor calidad, más allá de su precio (en definitiva, su relación precio-calidad será mejor que
la de la competencia).
· Su producto / servicio será un insumo importante para algún / algunos sectores productivos, o permitirá
a la industria reducir costos o elevar su productividad.
· Su producto / servicio cumple con normas de calidad y seguridad nacionales y / o internacionales.
· Su producto / servicio se orienta a un mercado con gran potencial de crecimiento.
· Su producto / servicio ofrecerá mejores: prestaciones, flexibilidad, diseño, asistencia técnica, garantía,
imagen, etc.
· Su producto / servicio es más adecuado a las características (sociales, culturales, económicas) de los
consumidores argentinos o del mercado que piensa atender.

1.2.6. Mercado:

¿A quiénes está destinado su producto o servicio?. ¿Se trata de consumidores particulares, empresas,
la administración pública, u otras instituciones?. ¿En el caso de destinarse a empresas, cree que sólo
se orientará a un sector en particular, a varios o a cualquier sector?. Geográficamente, ¿planea atender
al mercado local, nacional, regional o internacional? (tenga en cuenta los mercados potencialmente
atendibles).

1.3. Beneficios Económicos y Sociales:

¿Considera que su proyecto es útil para la sociedad, ya sea en términos económicos o sociales?
Piense en cuestiones que vayan más allá de la rentabilidad que pueda llegar a obtener por la
implementación del negocio.
Tenga en cuenta para su respuesta:
· El impacto ambiental (es una tecnología menos contaminante o ayuda a reducir el impacto negativo
sobre el medioambiente).
· Mejoras en la calidad de vida de la población.
· Conquista de mercados externos que generarán ingreso de divisas al país.
· Aportes al conocimiento científico / tecnológico nacional o mundial.
· Reemplaza o reduce el uso de recursos no renovables.
· Tiene capacidad de generar empleo.
· Ayuda a elevar la productividad de la industria nacional.
· Ayuda a mejorar la organización / administración de las empresas.

2. DETERMINACIÓN DEL AREA TEMATICA

Seleccione el área temática de la aplicación que persigue el proyecto.


Para determinar el área temática se deberá indicar la aplicación que persigue el proyecto, por ejemplo,
si se trata de un desarrollo de software para aplicar a gestión de sistemas de salud, el área temática que
deberá indicarse es “Medicina y Salud” y no “Informática e Internet”.
Busque en la lista el que mejor represente el área, si no encuentra ninguna que se ajuste, clasifíquelo
como “otros” y aclare de qué área temática se trata.

110
Ingeniería Alimentos
Arquitectura y
Robótica
Construcciones
Química Telecomunicaciones

Medicina y Salud Energías Alternativas

Educación Farmacia y Bioquímica

Informática e Internet Agricultura y Ganadería


Organización
Medio Ambiente Administrativa y/o
Financiera
Biotecnología Otros

3. ASPECTOS TECNOLÓGICOS

Considere los siguientes aspectos:

3.1. Ingeniería:

Indique qué conocimientos técnicos será necesario implementar en el proceso productivo o de


prestación del servicio (informática, física, química, diseño industrial, logística, etc.), su grado de
dificultad, la capacidad del grupo en este aspecto, la necesidad de contratar profesionales o técnicos en
alguna etapa del proyecto.

3.2.Descripción Técnica:

Comente en qué consiste técnicamente el producto / servicio que planea ofrecer, qué cualidades posee,
cuáles son sus especificaciones, etc.

3.3. Necesidades:

¿Sabe si la tecnología necesaria para prestar su servicio / elaborar su producto está disponible en el
país o en el exterior?
¿Se deberán realizar desarrollos especiales para el proyecto o ya existen en el mercado?
¿Conoce las posibilidades de acceso a dicha tecnología?

4. RECURSOS A APLICAR AL PROYECTO

4.1. Inversión:

¿Su proyecto requerirá inversión en algunos de los siguientes aspectos?. Marque con una cruz aquellos
conceptos que estima necesitará en algún momento del desarrollo del proyecto; si el destino de los
fondos no correspondiera con alguno de los ítem numerados, aclárelo en “otros”.

Concepto ¿Será
Utilizado?
Publicidad y Promoción
Tecnología incorporada
I+D
Desarrollo de procesos

111
Desarrollo de productos
Otras actividades tecnológicas
Informática
Gastos de infraestructura
Otros, aclarar destino

4.2. Servicios:

Seleccione cuáles de los siguientes tipos de servicios necesitará para llevar adelante su proyecto. Puede
seleccionar más de una opción. Si sus necesidades de servicios no correspondieran con alguno de los
ítem enumerados, aclárelo en “otros”.

Selección Comentario
Concepto
Servicios de Consultoría
Ingeniería
Asesoramiento Contable,
Contabilidad / Auditoría
Impositivo y Auditoría
Asesoramiento Bancario y
Bancarios / Financieros Financiero
Asesoramiento sobre
Tecnología de Información Tecnologías de Información

Asesoramiento sobre
Propiedad Intelectual Propiedad Intelectual
Servicios Consultoría
Marketing y Ventas
Comercial y Marketing
Servicios de Consultoría en
Producción / Fabricación
Producción
Servicios de Consultoría en
Recursos Humanos Recursos Humanos
Servicios de Asesoramiento
Servicios Legales
legal

Otros (aclarar)

4.3. Otras Necesidades:

¿Qué otras necesidades, además de las listadas, estima que requerirá su proyecto?.

5. CONCLUSIONES
Incluya en este apartado cualquier comentario que considere valioso para aclarar o completar la
descripción de su idea, teniendo en cuenta que ésta será sometida a evaluación.
Si lo considera necesario, puede detallar o desarrollar cualquier aspecto que le haya sido solicitado en
esta guía, pero tenga en cuenta la relevancia de sus comentarios.
Se recomienda incluir algunas palabras que reflejen las causas por las que usted considera que su
proyecto es atractivo y debería ser seleccionado.

112

También podría gustarte