Documentos de Académico
Documentos de Profesional
Documentos de Cultura
12
GLOSARIO DE
EPISTEMOLOGÍA, LÓGICA, TEORÍA
GENERAL DE SISTEMAS Y ESTADÍSTICA
La Paz, Bolivia
Julio, 2005
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
ÍNDICE
I. A MANERA DE INTRODUCCIÓN
El presente compendio de términos usuales en Epistemología, Lógica, Teoría General de Sistemas
y Estadística, es el resultado de varios meses de trabajo de lectura, investigación y sistematización
orientado a dar un soporte como material de consulta para estudiantes, docentes, investigadores y
profesionales que necesitan conocer, repasar o afinar algunos de los principales conceptos que
intervienen casi invariablemente en cualquier trabajo de investigación.
Tanto los conceptos, como las definiciones en el presente documento, están enmarcadas de forma
que para quien solamente se encuentre a la búsqueda de dichos elementos su ubicación le
resultará más simple; adicionalmente, me he propuesto insertar en la descripción de algunos
términos, ciertos comentarios y explicaciones adicionales con la única finalidad de esclarecer un
poco más su comprensión, de esta manera, la mayoría de ellos se presenta como un pequeño
artículo, excepto en aquellos casos en los cuales su descripción, asumo, no amerita mayores
ampliaciones.
Debo destacar que la mayoría de las definiciones no son propias, de forma que inmediatamente
después de una cualquiera, se encuentra la fuente, excepto cuando el autor es quien escribe.
A fin de poder consignar en este glosario la mayor cantidad de términos posible, he procurado
reducir al mínimo indispensable el empleo de símbolos técnicos, sustituyéndolos con expresiones
del lenguaje usual.
Asumo que el momento es el alto grado propicio, para poder llevar el presente trabajo a la luz
publica, a la luz de la crítica y a la luz de la superación, el escenario donde hoy será difundido, un
curso de formación doctoral de la Universidad Mayor, Real y Pontificia de San Francisco Xavier de
Chuquisaca, es el lugar más indicado para someter el presente trabajo a la falsabilidad y
contrastación de las ideas que contiene
Pese al afán inicial de plantear un documento corto y manejable por el eventual lector, he tenido
que claudicar ante la necesidad de esbozar algo más bien completo dentro de los límites de lo
mínimo indispensable, así es que con las debidas disculpas por la aparente ampulosidad del
documento, y con la esperanza de que alguien en cualquier parte y en cualquier momento lo pueda
utilizar y servirse de él, les dejo con este intento de Glosario.
01. CIENCIA
“La ciencia es conocimiento que busca leyes generales relacionando hechos particulares”.
J. Bronowski
La imagen tradicional de ciencia es la de una constelación de hechos, teorías y, métodos reunidos
en los libros de texto actuales, idea que implica que el desarrollo científico sería gradual o
acumulativo: los conceptos se van añadiendo, solos o en combinación, al caudal creciente de la
técnica y el conocimiento (op.cit.pág. 21). Sin embargo, la ciencia normal, lejos de desarrollarse
acumulativamente, evoluciona resolviendo enigmas, enfrentando anomalías y rompiendo
paradigmas, los cuales llevan a investigaciones extraordinarias que a su vez desembocarán en
revoluciones científicas, desde donde se iniciará una nueva ciencia normal (op.cit.págs. 23-27).
Kuhn Thomas (1975) La estructura de las revoluciones científicas. Madrid: Fondo de Cultura Económica.
ellos se ocupan respectivamente la psicología, la sociología, el derecho y la historia. Por tanto, las
ciencias sociales abarcan todas estas disciplinas y otras más, como la lingüística, la economía, la
ingeniería, la antropología o la geología.
“Las ciencias de la cultura son al mismo tiempo comprensivas y causales. De acuerdo con
los casos, la relación de causalidad es histórica o sociológica. El historiador trata de
sopesar la eficacia causal de los distintos antecedentes en una coyuntura única, y el
sociólogo procura establecer relaciones de consecución que se repiten o que pueden
repetirse. El instrumento principal de la comprensión (…), pues el objetivo de las ciencias
de la cultura es siempre comprender los sentidos subjetivos, es decir, en último análisis, el
significado que los hombres han atribuido a su existencia”.
Aron Raymond, Las etapas del pensamiento sociológico. Buenos Aires: Fausto, pág. 253.
05. EPISTEMOLOGÍA
Estudio crítico de los principios, hipótesis y resultados científicos, para determinar su origen lógico,
valor y alcance objetivo. Dentro de la epistemología de las ciencias hay dos enfoques:
i. Es el estudio del método científico según cada comunidad histórica. El positivismo, por
ejemplo, considera que el método propio de nuestra época es el de las ciencias naturales, y
especialmente el de la física, y en psicología, el método conductista.
ii. Como reflexión sobre las fuentes de creación del conocimiento: su interacción con la práctica,
las emociones, el entorno social y los procesos inconcientes. Ejemplo: epistemólogos sajones
y franceses.
Celener Graciela, Fundamentos teóricos para la inclusión de láminas en blanco (Ort-Tat), publicación interna de la Cátedra de
Técnicas psicodiagnósticas II de la Facultad de Psicología de la Universidad de Buenos Aires, 1996.
06. ESTRUCTURA
La noción de estructura puede definirse a partir de cuatro características:
i. Es un sistema ligado: el cambio producido en un elemento provoca un cambio en los otros
elementos;
ii. Es un sistema latente: no se exterioriza a simple vista porque es un modelo para hacer
entendibles los hechos observados;
iii. Es un modelo local: cada estructura sirve a determinado tipos de objetos, lo cual no impide
que en el futuro puedan elaborarse estructuras más generales; y
iv. Es un sistema sincrónico: la estructura se estudia en un corte temporal relativamente estático.
En análisis posteriores podrá recomponerse la secuencia temporal, la historia, mediante
comparación de distinta estructuras.
La importancia epistemológica de la noción de estructura radica en el hecho de que es un
concepto que puede permitir la unificación de todas las ciencias en torno a una forma común de
entender la realidad (forma que sería el método estructural).
Bastide (1968) Qué es estructura? Incluído en Bastide y otros, Sentidos y usos del término estructura. Buenos Aires: Paidós.
08. HIPÓTESIS
Una hipótesis es una respuesta sugerida, una suposición elaborada sobre la base de hechos
presentes en la situación original donde el problema surgió. Puede haber varias hipótesis para
resolver un mismo problema, y la primera suele aparecer en forma espontánea en la mente,
siguiendo luego otras.
De dónde provienen la hipótesis? Probablemente debamos reconocer tres fuentes:
i. Experiencias pasadas individuales específicas. Esto es cierto tanto en sentido negativo
(quien no aprendió a dividir, difícilmente podrá resolver un problema práctico matemático),
como en su sentido positivo (cuanto más experiencia y conocimientos tiene alguien sobre un
área determinada, más se puede esperar de él fluidez y eficiencia para resolver problemas en
dicha área). Según Thorndicke, en primer lugar hay que tener presente que no siempre tener
conocimientos implica saber usarlos, o sea, habilidad para saber seleccionar, relacionar y
organizar el saber en función de la resolución de un problema; en lo que a mi concierne, tener
conocimientos es lo mismo que tener dinero, si no se sabe utilizarlos, no sirven de nada. En tal
sentido debe distinguirse el aprendizaje significativo del aprendizaje repetitivo (entre otras
cosas, el primero permite la posibilidad de transferir lo aprendido a nuevas situaciones).
Además, en segundo lugar, la forma en que se adquirió el conocimiento influye sore la aptitud
para aplicarlos en la resolución de problemas.
ii. Maduración individual y habilidad intelectual. Madurez intelectual y riqueza de información
corren paralelas, pero además de la experiencia se requiere una facilidad para aprehender
relaciones entre objetos o conceptos. Según Torrence, todos tenemos en grado variable un
poco de pensamiento divergente y de pensamiento convergente. El primero es la capacidad de
percibir lagunas, usar caminos diferentes para resolver un problema apelando a recursos
propios. El segundo implica resolver problemas usando recetas que se le han enseñado o que
obedecen a la tradición. El pensamiento divergente es una capacidad innata, cuyo desarrollo
es inhibido por la educación sistematizada.
iii. Factores que la misma dinámica de la situación problemática engendra. De forma que
ante una porción de la realidad evidente, resulta simple apelar al conocimiento formal para
encontrar la posible o posibles respuestas.
Vera María Teresa, "El aprendizaje por resolución de problemas", incluído en Sanjurjo L. y Vera M., "Aprendizaje significativo y
enseñanza en los niveles medio y superior", Rosario, Homo Sapiens Ediciones, 1995.
09. INDUCCIÓN
El problema de la inducción. La afirmación "es más probable que nos equivoquemos en
nuestras generalizaciones que en nuestras observaciones particulares" intenta ser una crítica a la
inducción como procedimiento inferencial. Cuando percibimos que después de un relámpago se
escucha un trueno, nuestra afirmación “después de este relámpago escuché un trueno” es cierta,
y es el producto de una observación particular. En cambio, si a partir de esa observación afirmo
que “después de cualquier relámpago siempre se escucha un trueno”, en tanto la afirmación se
refiere a hechos futuros no observados, se trata de una afirmación probable, y por tanto aumenta
la posibilidad de equivocarnos. Si esta última generalización hubiese resultado de haber
observado cinco casos particulares donde luego de un relámpago venía un trueno, es más
probable que sea verdadera, aunque tampoco es totalmente verdadera porque siempre cabe la
posibilidad de que un futuro relámpago que observemos no esté acompañado de un trueno. Las
generalizaciones de este tipo nunca serán ‘totalmente’ verdaderas, es decir, no tendrán certeza,
por cuanto el número de casos observados es siempre menor al número de casos posibles. Este
problema es lo que se conoce en epistemología como el problema de la inducción. Cabe
recordar que la inducción es un tipo de razonamiento donde se parte de observaciones
particulares y se llega a una conclusión general de carácter probable.
Tanto en los razonamientos inductivos que hacemos en la vida cotidiana como los que hacemos
en la ciencia, las personas pueden hacer estimaciones de la ‘verdad’ de la generalización. Por
ejemplo, muchos dudarían del razonamiento “Si Juan se cae al río y se ahoga, por lo tanto toda
persona que caiga al río se ahogará”, pero no dudarían del razonamiento “Si suelto esta piedra se
cae, por lo tanto cualquier piedra que tire también caerá”.
Finalmente, otra forma de plantear la misma cuestión es la siguiente: nuestras generalizaciones
deben basarse en afirmaciones particulares verdaderas, pero ello no garantiza la verdad de la
generalización. En la inducción no hay ninguna garantía que la verdad se transporte desde las
premisas particulares a la conclusión general. Algunos pensadores como Popper admiten que la
inducción puede ser útil en el contexto de descubrimiento (por ejemplo para ‘descubrir’
regularidades en los fenómenos observados), pero no sirve en el contexto de justificación, es
decir, hecho que no permite ‘justificar’ o validar la regularidad expresada en la conclusión general.
Otros autores como Hempel están más dispuestos a aceptar la inducción como medio para validar
generalizaciones si se la acepta en un ‘sentido amplio’, por utilizar una expresión de Hempel (1): las
reglas de la inducción determinarían la fuerza de apoyo que las observaciones particulares
prestan a la hipótesis general, y pueden expresar ese apoyo en términos de probabilidades.
Nota
(1) Hempel K, (1977), Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, págs. 36-37.
“Una de las ideas asumidas acríticamente por una gran parte de la comunidad científica es
la forma en que se concibe la metódica de la investigación en las ciencias fácticas
copiando el modelo dominante en las ciencias naturales. Este modelo supone que a partir
de una serie de informaciones o datos, el científico elabora una hipótesis y que todo el
trabajo posterior deberá limitarse a verificar o comprobar empíricamente (normalmente
empleando la estadística) la verdad o consistencia de la hipótesis. Esta forma de
comprender el trabajo de investigación es admitida como normativa o prescriptiva
obligatoriamente, algo así como un "dogma" infalible, que no puede ni ser cuestionado. Y
consecuentemente también se pasa luego a valorar el trabajo científico, por ejemplo en una
tesis doctoral, o en un proyecto docente, simplemente aplicando ese modelo de lo que debe
ser la investigación científica”.
Rodríguez de Rivera J (2000) Epistemología o Teoría de la Ciencia y Reflexión Crítica sobre los Fundamentos de las Ciencias de la
Organización (en cuanto se refiere a ciencias fácticas). Universidad de Alcalá.
11. PARADIGMA
Según Kuhn, los paradigmas son:
(pág. 13).
Un paradigma “es una realización científica que comparte dos características esenciales: a)
su logro carecía suficientemente de precedentes como para haber podido atraer a un grupo
duradero de partidarios, alejándolos de los aspectos de competencia de la actividad
científica”, y b) “simultáneamente, eran lo bastante incompletas para dejar muchos
problemas para ser resueltos por el redelimitado grupo de científicos”
(págs. 33-34).
Siete años más tarde (en la Posdata de 1969), Kuhn llega a especificar que el término paradigma
se utiliza en dos sentidos diferentes:
i. Como una constelación de acuerdos de grupo (sentido sociológico):
(op.cit.pág. 269).
Kuhn Thomas (1975) La estructura de las revoluciones científicas. Madrid: Fondo de Cultura Económica.
14. PSICOLOGÍA
Status científico de la psicología. La psicología es considerada ciencia? Las opiniones están
divididas: hay quienes la consideran ciencia, y otros no. En general, estas opiniones descansan
sobre la idea de verificabilidad. Por ejemplo, para los más escépticos, la psicología no es ciencia
porque presenta una serie de afirmaciones especulativas que no se pueden demostrar o verificar
en la realidad, sea mediante experimentos o por simple observación, como por ejemplo el
psicoanálisis.
El método científico en psicología. La historia del método científico en psicología comienza
cuando ésta se convierte en una ciencia, es decir, durante la segunda mitad del siglo XIX. Los
primeros intentos fueron recoger los métodos de las ciencias ya constituidas, como la física o la
biología, y fue así que se introdujo el método experimental en la psicología. Sin embargo, dado el
particular objeto de estudio de esta disciplina, se requerían métodos más adecuados, y fueron
apareciendo por ejemplo el método de la introspección (Wundt, 1879), el método interpretativo
(Freud, 1900), el método comprensivo (Dilthey) y el método fenomenológico (Husserl). Más tarde,
hacia la década del 30 y como consecuencia del perfeccionamiento de la estadística (Fisher y
otros), la psicología incorpora métodos y técnicas más refinados para probar sus teorías. La
psicología también adoptó el método clínico de la medicina, sólo que se centró más en una clínica
de la escucha que en una clínica de la mirada, por usar palabras de Foucault (al paciente hay que
escucharlo para indagar su mente, mientras que hay que mirarlo para indagar su cuerpo).
Para profundizar el tema de la evolución del método en psicología hay que recurrir a un texto de
historia de la psicología (para aquellos interesados, se recomienda: “Historia de la psicología”, de
Brett), o bien un diccionario especializado. Para un panorama actual de los diferentes métodos
que se usan en psicología, se puede consultar O’Neil W, “Introducción al método en psicología”,
Eudeba, Buenos Aires, 1968.
Psicología y epistemología. La expresión puede vincularse por lo menos a dos cuestiones
diferentes, que se pueden expresar en forma de dos preguntas, respectivamente, ambas referidas
a problemas epistemológicos en psicología.
i. Como se llega a construir psicológicamente el conocimiento científico?
ii. Como se puede examinar la cientificidad de una teoría sobre la mente?
En el primer caso, Piaget se ha planteado ese tipo de problemas, habiendo respondido, por
ejemplo, que el concepto de causa que usan los científicos es el resultado de una construcción
que comienza en la infancia, y que no es innata, ya que el niño no ha nacido con la idea de
causalidad. En el segundo caso, el psicólogo puede plantearse si es o no científica la teoría de la
telepatía o la precognición, o el psicoanálisis mismo. Se han dado muchas respuestas a esta
cuestión, las cuales dependen en última instancia del criterio de cientificidad que uno elija, es
decir, de un criterio epistemológico.
Aportes de la ciencia a la psicología. En realidad, la psicología misma es una ciencia, por lo que
esta pregunta se puede entender de dos maneras:
i. Qué aporte se hizo desde la ciencia a la psicología? En oposición a los aportes realizados
por las ‘seudo ciencias’ como la astrología y otras. Desde este punto de vista la tradición
positivista ha permitido el aporte de muchas teorías para explicar o predecir la conducta
humana y un método empírico para verificarlas, aún cuando algunos pensadores creen que
ciertas teorías como el psicoanálisis no han verificado suficientemente sus hipótesis.
ii. Qué aportes hicieron otras ciencias a la psicología? Muchas ideas de la física, la biología,
la antropología, la sociología, etc., han sido aprovechadas para enriquecer el saber
propiamente psicológico. En este breve espacio sería imposible enumerarlas a todas, aunque
puede bastar recordar la idea de campo de la física, la de instinto de la biología, la de cultura
de la antropología y la etnología o la de rol o status de la sociología, entre otras muchas.
15. RACIONALIDAD
El racionalismo no puede ser defendido en forma racional: no existe ninguna prueba científica de
la ciencia misma. Feyerabend sostiene que no puede haber ninguna teoría del conocimiento y de
la ciencia que sea a la vez adecuada e informativa prescindiendo de qué ingredientes sociales,
económicos, etc., quiera uno añadir a la teoría. Y todo esto se debe a dos razones:
i. El mundo es demasiado complejo para ser entendido por teorías que obedecen a principios
epistemológicos, y
ii. Los científicos, los políticos, etc., en base a lo anterior, violan esas reglas universales y
distorsionan el conocimiento obtenido. Esto es casi siempre algo inconciente, porque
concientemente se objetiviza la ciencia y se la muestra como racional.
La ciencia no se explica desde una teoría inventada, sino desde la práctica, y el análisis del
conocimiento científico debe tener en cuenta tanto las condiciones externas (ideas de la época,
condiciones materiales) como internas (subjetivas, como por ejemplo el temperamento del
científico).
Quienes teorizan sobre la ciencia hablan de un ‘método científico’ infalible que lleva a la verdad,
pero tal método en realidad no existe, ya que el proceder del científico está más bien guiado por
circunstancias ideológicas de la época y por factores subjetivos propios de él como ser humano
que es. Entonces, hablar de una ‘forma correcta de pensar’ es solo una ilusión. Esta creencia en
la racionalidad de la ciencia, incluso entre el pueblo, hace que la palabra del científico tenga tanto
poder.
La ciencia avanza no porque utilice principios abstractos, teóricos, referidos a cómo debe ser la
ciencia, sino que avanza por continua práctica, por la acción. Desde luego que el científico actúa
en función de ideas, pero estas fueron modificadas por las subjetividades (deseos, sueños,
emociones, etc).
Feyerabend Paul, Adiós a la razón (ítem Razón y práctica: págs. 69-81)
16. REFUTACIÓN
Proceso por el cual se declara falsa una hipótesis o una teoría sobre la base elementos de juicio
principalmente empíricos. La refutabilidad o falsabilidad (posibilidad de refutación) es una
característica esencial de las teorías científicas para Popper.
No debe confundirse una teoría anticuada con una teoría falsa. Las teorías falsas son eliminadas,
mientras que las anticuadas pueden tornarse nuevamente vigentes bajo ciertas condiciones. Por
ejemplo, el lammarkismo empieza hoy a ser reivindicado frente al darwinismo. No era
necesariamente falsa: simplemente quedó desplazada por el darwinismo, en parte por influencia
de la revolución industrial del siglo XIX. Otros ejemplos ilustran teorías que fueron abandonadas
por ser falsas, como la teoría de Ptolomeo (sustituida por la de Copérnico) o la del flogisto
(sustituida por la teoría cinética del calor de Runford).
aceptado (casi se diría a un nivel afectivo) por la comunidad científica. Kuhn formuló esta
concepción principalmente en relación con las ciencias ‘duras’, como por ejemplo la física. En tal
sentido, indudablemente las revoluciones han hecho avanzar la física, en el sentido que la han
llevado a formular nuevos paradigmas que parecen ser más adecuados para describir y explicar la
realidad. El caso de las ciencias sociales parece ser distinto, ya que estarían en un periodo
preparadigmático y, estrictamente hablando, entonces no cabría hablar de revoluciones científicas
en este ámbito.
18. TEORÍA
Una teoría es un sistema de enunciados ordenados jerárquicamente desde los más generales
hasta los más particulares y donde los últimos de derivan deductivamente de los primeros. Todos
los enunciados se refieren a un determinado sector de la realidad, y la teoría en su conjunto tiene
como finalidad suministrar explicaciones y/o predicciones acerca de los fenómenos a los que se
refieren sus enunciados. Ejemplos: teoría psicoanalítica, teoría cinética de los gases, teoría de la
evolución de Darwin, teoría atómica de Dalton, teoría de Copérnico, etc.
Etimológicamente, el término 'teoría' significa 'mirada', es decir, la teoría es una forma de mirar las
cosas: el psicoanálisis, el cognitivismo, el conductismo son teorías distintas porque tienen
diferentes maneras de 'mirar' un síntoma o una conducta cualquiera. No es una mirada con el ojo
sino con la mente, es decir, la teoría es un acercamiento a la conducta desde una cierta
perspectiva mental.
A partir de aquí hay muchos tipos de teorías, como por ejemplo nuestras teorías cotidianas o las
teorías filosóficas y las científicas. En la vida cotidiana, en efecto, cada uno puede tener su propia
teoría sobre cómo cocinar la carne, o como lograr algo de las personas (premiándolas,
castigándolas, etc.). También se pueden tener diferentes teorías filosóficas (por ejemplo acerca de
si existe o no la realidad), y hay también teorías científicas, que pueden ser físicas, químicas,
astronómicas, psicológicas, etc. según el tipo de fenómeno que traten de explicar o predecir.
Justamente la teoría científica es una construcción mental destinada a dar una explicación de los
hechos y/o a predecir su ocurrencia.
Hay quienes sostienen que las teorías deben ser verdaderas (las suposiciones teóricas deben
realmente expresar lo que sucede en la realidad) y otros para quienes lo importante de las teorías
es que sean útiles (la teoría permite predecir acontecimientos, lo cual permite la posibilidad de
controlar o no su ocurrencia, o, al menos, estar preparados para cuando sucedan).
Los siguientes conceptos se pueden encontrar en otros artículos según el siguiente detalle:
Axioma ver ……………………………… Sistema Formal y Principio lógico
Condicional ver ……………………………… Lógica Proposicional
Conjunción ver ……………………………… Lógica Proposicional
Consistencia ver ……………………………… Sistema Formal y Validez
Cuadro de oposición ver ……………………………… Razonamiento Inmediato
Demostración ver ……………………………… Axioma y Sistema Formal
Disyunción ver ……………………………… Lógica Proposicional
Entimema ver ……………………………… Razonamiento Inmediato
Función proposicional ver ……………………………… Lógica de Términos
Inferencia ver ……………………………… Razonamiento
Juicio ver ……………………………… Enunciado
Lógica cuantificacional ver ……………………………… Lógica de Términos
Lógica de clases ver ……………………………… Lógica de Términos
Lógica de predicados ……………………………… Lógica de Términos
Lógica de relaciones ver ……………………………… Lógica de Términos
Lógica funcional ver ……………………………… Lógica de Términos
Lógica bivalente ver ……………………………… Enunciado
Lógica trivalente ver ……………………………… Enunciado
Lógica polivalente ver ……………………………… Enunciado
Meta lógica ver ……………………………… Formalización
Modelo ver ……………………………… Sistema Formal
Negación ver ……………………………… Lógica Proposicional
Pensamiento ver ……………………………… Razonamiento
Proposición ver ……………………………… Enunciado
Petición de principio ver ……………………………… Falacia
Sofisma ver ……………………………… Falacia
Teorema ver ……………………………… Sistema Formal y Principio Lógico
Término primitivo ver ……………………………… Sistema Formal
Prueba de), de aquí que la lógica se empeña continuamente, en un nivel técnico, por
perfeccionar o diseñar nuevas pruebas de validez cada vez más sofisticadas y eficaces.
Cuando con cualquiera de estas pruebas no puede demostrarse que un razonamiento es
válido, esto no significa, desde luego, que sea inválido, del mismo modo que si no podemos
demostrar la inocencia del acusado, ello no significa que es culpable.
02. AXIOMA
Los axiomas son enunciados que se aceptan como verdaderos e indemostrables por simple
convención para derivar, a partir de ellos, otros enunciados llamados teoremas.
Los axiomas son las primeras afirmaciones que se proponen para inferir, derivar, deducir, etc., a
partir de ellas, otras afirmaciones que pueden fundamentarse o probarse mostrándose,
precisamente, que derivan de aquellos axiomas (proceso denominado demostración). Además, son
indemostrables, pues si se pudiera demostrar deberían probárselos mediante afirmaciones más
fundamentales, y entonces los axiomas ya dejarían de ser las 'primeras' afirmaciones.
Por ejemplo, un axioma de la lógica puede ser el principio de identidad, según el cual todo
elemento es idéntico a sí mismo (A=A), y un axioma de la geometría euclidiana puede ser la
afirmación según la cual por dos puntos sólo puede pasar una y sólo una recta.
Antiguamente se pensaba que los axiomas debían ser evidentes por sí mismos, indubitables. Pero
conforme avanzó la historia de la lógica y la matemática esta idea fue cambiando poco a poco, y
hoy en día los axiomas son propuestos más como verdades por convención que como verdades
por convicción.
Esta nueva idea sobre los axiomas fue creciendo solidariamente con la importancia que se les fue
asignando al estudio de los sistemas formales (ver Sistema formal). En estos, se parte de una
serie de axiomas arbitrarios y luego se derivan a partir de ellos y mediante reglas explícitas, ciertos
otros anunciados llamados teoremas. Cuanto mayor cantidad y diversidad de teoremas puedan
deducirse, más fecundo será el conjunto de los axiomas.
Esta relatividad de los axiomas se pone de manifiesto, por ejemplo, en los siguientes hechos:
i. un enunciado que figura como axioma en un sistema formal puede aparecer como un teorema
de menor nivel en otro sistema formal distinto;
ii. a un sistema formal se le puede cambiar un axioma y no se produce ninguna hecatombe:
simplemente se transforma en otro sistema formal. Tal lo que sucedió cuando a la geometría
euclidiana le cambiaron el quinto axioma y quedó transformada en una geometría no
euclidiana.
03. DEDUCCIÓN
i. Caracterización. Como muchas palabras que terminan en "ción", la deducción designa una
acción o un efecto, y en este caso, la acción o efecto de deducir. La deducción como acción es
el acto mismo de desarrollar un razonamiento deductivo, y en todo caso tiene interés para el
psicólogo. En cambio, lo que al lógico le interesa es el resultado de esa acción, es decir, el
razonamiento en sí, más allá de la acción de haberlo llevado a cabo. Tal es el sentido que nos
interesará.
En la vida cotidiana solemos decir "deduje" tal o cual cosa, cuando en realidad muchas veces
hemos utilizado razonamientos que no eran deductivos. La lógica asigna a la expresión
"deducción" un significado muy preciso, que pasamos a considerar brevemente.
Cuando se habla de deducción, suele hacerse referencia a las siguientes tres características,
que explicaremos trazando al mismo tiempo sus diferencias con el razonamiento no deductivo
(diferencias sintetizadas en el esquema adjunto):
a. La deducción es un razonamiento que va de premisas más generales y derivar desde ella
una conclusión más particular. En palabras simples, la deducción va de lo general a lo
particular, mientras que el razonamiento no deductivo va de lo particular a lo general. En
los ejemplos siguientes se ve claro el diferente nivel de generalidad entre premisa y
conclusión:
Ejemplo de razonamiento deductivo:
"Todos los perros ladran;
por lo tanto,
algunos perros ladran".
Ejemplo de razonamiento no deductivo:
"Algunos perros ladran;
por lo tanto,
todos los perros ladran".
Esta primera caracterización de la deducción es de inspiración aristotélica, hoy
prácticamente en desuso a pesar de que, inexplicablemente, se la sigue repitiendo en
algunos ámbitos educativos. Las que hoy tienen vigencia son las siguientes dos
caracterizaciones.
b. La deducción es un razonamiento donde la conclusión se pretende que sea necesaria
respecto de las premisas, es decir que, dadas las premisas, se espera que la conclusión
se desprenda necesariamente de ellas. El razonamiento no deductivo, en cambio,
pretende para la conclusión solamente un cierto grado de probabilidad.
En los ejemplos anteriores, la conclusión "algunos perros ladran" se deriva
necesariamente de la premisa "Todos los perros ladran", porque si es cierto que todos los
perros ladran, entonces forzosamente algunos deben ladrar, pues son perros. En cambio,
en el caso del razonamiento no deductivo, la conclusión de que "todos los perros ladran" a
partir de que algunos lo hacen es sólo probable, del mismo modo que el hecho de que
una persona sea mala no significa que todas lo sean.
Esta nueva definición de deducción basada en la idea de necesariedad da por tierra con la
vieja definición que se basaba en lo general y lo particular. En efecto, es posible
encontrar:
* Razonamientos con conclusión necesaria donde premisas y conclusión tengan el
mismo grado de generalidad, o también razonamientos también deductivos que se
extiendan de lo particular a lo general, y,
ii. Clasificación. Los razonamientos deductivos pueden ser válidos o inválidos. En la definición
dada de deducción, se dice que se "pretende" que la conclusión se derive necesariamente de
las premisas porque no se puede presuponer que la deducción sea siempre válida. El
razonamiento deductivo será válido cuando cumpla ciertos requisitos formales relativos a la
relación entre las premisas y la conclusión (ver Validez). Ejemplos de razonamientos
deductivos válidos elementales son el Modus Ponens y el Modus Tollens.
Nota
(1) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 103.
Lecturas complementarias sugeridas
Cazau Pablo, "Acerca de la inteligencia lógica" (El Observador N° 17, página 334). Donde se muestran ejemplos de razonamientos
inductivos y deductivos aplicados a un problema de lógica.
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 10: "Los razonamientos deductivos".
04. ENUNCIADO
Expresión lingüística de la cual tiene sentido decir que es verdadera, falsa o probable. Junto
a los términos y a los razonamientos, constituye una de las tres estructuras lógicas básicas.
Sinónimos y expresiones asociadas: proposición, juicio, sentencia.
i. Generalidades. Un enunciado se caracteriza por ser una afirmación (o una negación) de algo
acerca de algo, y por ello tiene sentido predicar de él la verdad, la falsedad o aún la
probabilidad. La expresión "loro" no es ni verdadera ni falsa: es un simple término, pero en
cambio "mi tía es un loro" ya es un enunciado porque puede ser verdadero o falso. Otra forma
de reconocer un enunciado tiene relación con la presencia de un verbo que funcione como tal.
En este sentido, una sola palabra puede ser un enunciado, como "llueve", y varias palabras
pueden no alcanzar para constituir un enunciado, como "el cantar de los cantares". Esta última
expresión tiene un verbo sustantivado, vale decir, no funciona como verbo sino como
sustantivo.
Si bien todo enunciado incluye un verbo, no toda expresión con verbos es un enunciado en el
sentido de la lógica que aquí se esta viendo. Por ejemplo "Abra la puerta" incluye un verbo,
pero es algo de lo cual carece de sentido decir que sea verdadero o falso, porque es
simplemente una orden, no una afirmación. La lógica que se pretende examinar en este
Glosario no se ocupa del uso imperativo del lenguaje sino de su empleo declarativo o
enunciativo, donde la intención es formular afirmaciones y, por consiguiente, comunicar
información, que podrá ser verdadera, falsa o probable.
Cuando de los enunciados se dice que son verdaderos o falsos, esto quiere decir que hay
únicamente dos valores de verdad para estos últimos: V o F, siempre que se esté en el
contexto de una lógica bivalente. Una extensión de esta lógica es la llamada lógica trivalente,
que incorpora un tercer valor de verdad: la probabilidad, de manera que según ella los
enunciados podrán ser verdaderos, falsos o probables. Existen también lógicas polivalentes,
algunas de las cuales fueron especialmente diseñadas para el psicoanálisis, mientras que
otras encuentran su total y completa aplicación en las ciencias de la Inteligencia Artificial, tal el
caso de la Lógica Difusa.
Se debe tener presente, en suma, que está mal decir "enunciado válido" o "razonamiento
verdadero". La validez es una propiedad exclusiva del razonamiento, y la verdad, de los
enunciados.
Habitualmente, los enunciados se representan mediante letras minúsculas a partir de la 'p',
probablemente porque con 'p' empieza 'proposición', un término asociable a 'enunciado'.
Suele distinguirse proposición (significado) y enunciado (significante). Por ejemplo, dos
enunciados diferentes pueden tener el mismo significado, es decir, corresponder a la misma
proposición: "el lápiz es azul" y "the pencil is blue". Desde ya, a la lógica no le interesan estas
distinciones idiomáticas, y su única preocupación en este sentido es saber si los diferentes
enunciados tienen o no el mismo significado, sea cual fuere éste, es decir, le interesa la
proposición más que el enunciado porque es a partir de la primera que se podrá determinar su
verdad, falsedad o probabilidad. En suma, el enunciado es la expresión lingüística de la
proposición. Otros vocablos asociados con proposición y enunciado son juicio y sentencia.
Términos, enunciados y razonamientos son tres estructuras básicas de la lógica, establecidos
de la siguiente forma:
Si bien esta expresión es sumamente ambigua, pues hasta llega a incluir el sentido
psicoanalítico, se la mantiene más por una cuestión de tradición: uno de los capítulos del
"Organon", el tratado de lógica de Aristóteles", fue traducido como "Perihermeneias" o también
como "De Interpretatione", y se ocupa precisamente de los enunciados. Los enunciados,
efectivamente, van un poco más allá de los meros términos, porque intentan una explicación o
una aclaración (es decir, una interpretación). Por ejemplo, no es lo mismo decir "oso" (término)
que decir "el oso es grande" (enunciado).
Se debe tener presente que el enunciado es una estructura intermedia: varios términos forman
un enunciado, y varios enunciados forman un razonamiento. Todas las características de los
enunciados precedentemente indicadas y sus diferencias con el término y el razonamiento
aparecen sintetizadas en el esquema que acompaña al artículo Estructura Lógica.
ii. Clasificación de los enunciados. Para los enunciados, se citan algunas clasificaciones
importantes. Las cuatro primeras corresponden a la tradición aristotélica, las dos siguientes a
la tradición kantiana, y la última es propia de la lógica proposicional (ver esquema adjunto).
a. Afirmativos y negativos. "Un mono es un mamífero" es un enunciado afirmativo, y "Un
mono no es un invertebrado" es un enunciado negativo. En rigor, desde cierto punto de
vista todo juicio es afirmativo (decir que un mono no es un invertebrado es afirmar que no
lo es), y con el mismo criterio, también es cierto que todo juicio es negativo (decir que un
mono es mamífero es negar que sea otra cosa distinta).
b. Universales, particulares y singulares. Los juicios universales afirman (o niegan) algo
acerca de 'todos' los individuos de una clase, como "Todos los animales son seres vivos".
Los juicios particulares se refieren solamente a algunos, como "Algunos perros son
grandes". Los juicios singulares hacen referencia, finalmente, a un solo individuo de la
clase, como el caso de "Esta mujer es bella".
c. Apodícticos, asertóricos y problemáticos. El juicio apodíctico afirma una relación
forzosa, es decir, que 'es así y no puede ser de otra manera', como por ejemplo cuando
se afirma que "un triángulo tiene tres lados". Un juicio asertórico afirma simplemente que
de hecho 'algo es así', por lo que deja abierta la posibilidad que pueda ser de otra
manera, como por ejemplo en "este gato es agresivo". Finalmente, lo juicios problemáticos
no afirman una conexión necesaria ni de hecho, sino probabilística, es decir, 'algo podría
ser así', o sea que "las cosas podrían ser así", como cuando decimos "este docente tal
vez sea sicótico".
d. Categóricos, hipotéticos y disyuntivos. Un juicio categórico afirma (o niega)
simplemente algo de algo, y por tanto tiene la forma "S es P". Un juicio hipotético
establece, en cambio, una condición: "Si S entonces P", mientras que el enunciado
disyuntivo establece una alternativa: "S es P o Q".
e. Analíticos y sintéticos. Juicio analítico es aquel en el cual el predicado ya está incluido
en el sujeto ("un triángulo tiene tres ángulos"), y por lo tanto no aporta conocimiento
nuevo. Juicio sintético es, en cambio, aquel que sí aporta información novedosa porque el
predicado no está incluido o implícito en el sujeto ("Juan está sentado").
f. A priori y a posteriori. Los juicios a priori son formulables independientemente de la
experiencia, y los juicios a posteriori son consecuencia de la experiencia. Kant relacionó
esta clasificación con la anterior, concluyendo que los juicios pueden ser analíticos a
priori, analíticos a posteriori, sintéticos a priori y sintéticos a posteriori. Para él, resultaba
evidente que un juicio analítico fuera a priori (no necesitamos ver un triángulo o tener una
experiencia de él para saber que tiene tres ángulos, ya que tener tres ángulos está
implícito en la idea de triángulo), y también resultaba evidente que un juicio sintético fuese
a posteriori (sólo después de ver a Juan puedo afirmar que está sentado, porque la
propiedad de estar sentado no forma parte implícitamente de la idea de Juan). El
problema se presentó con los juicios sintéticos a priori, problema cuya respuesta fue la
notable teoría kantiana del conocimiento, expuesta en su "Crítica de la Razón Pura" (1).
g. Atómicos y moleculares. Enunciados o proposiciones atómicas son aquellas que no
pueden subdividirse en proposiciones más elementales, como por ejemplo "Llueve". En
cambio, las proposiciones moleculares son aquellas formadas por dos o más
proposiciones, como por ejemplo "Llueve y hay relámpagos". Estas denominaciones
provienen de la química, ya que aquí se considera que una molécula está constituida por
átomos. Las proposiciones atómicas y moleculares también se denominan,
respectivamente, simples y compuestas.
Esta clasificación tiene especial interés para la lógica proposicional, parte de la lógica que se
ocupa de descomponer proposiciones moleculares en proposiciones atómicas para examinar
cómo están relacionadas entre sí y, sobre esta base, decidir acerca de la validez o invalidez de
los razonamientos (ver Lógica Proposicional).
Algunas clasificaciones de enunciados
Afirmativos y negativos
Aristóteles Universales, particulares y singulares
Apodícticos, asertóricos y problemáticos
Categóricos, hipotéticos y disyuntivos
Kant Analíticos y sintéticos
A priori y a posteriori
Lógica Proposicional Atómicos y moleculares
Nota
(1) Véase Cazau Pablo, "La síntesis kantiana", El Observador Psicológico, Tomo I, N° 5, página 228.
Lecturas complementarias
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulo 1: "Significación y verdad".
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. En el Capítulo 2 ("El juicio") se hace
una caracterización de los enunciados y se desarrollan algunas clasificaciones de los mismos.
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 2, punto 6: "Juicio, proposición y sentencia".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 5: "Las proposiciones".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 8: "Las proposiciones".
Conjunto de elementos en tanto mantienen entre sí relaciones lógicas, como por ejemplo
relaciones de implicación, deducción, subalternación, etc. Las estructuras lógicas más
abarcativas son los sistemas formales, que a su vez incluyen como subestructuras a los
razonamientos, los enunciados y los términos.
06. FALACIA
Razonamiento que aparenta ser correcto pero que, tras un cuidadoso análisis, no lo es. Las
falacias pueden clasificarse en formales y no formales, según dependan de la estructura
lógica misma del razonamiento o no. Ideas similares: sofisma, paralogismo.
i. Caracterización. Las falacias son a la lógica lo que los pacientes son a los psicólogos: así
como para el psicólogo en el paciente hay algo que anda mal, para el lógico en la falacia
también hay algo que anda mal, que es preciso no sólo explicitar sino también demostrar el
porqué. Falacias y pacientes son desafíos para el lógico y el psicólogo, respectivamente.
Dentro de la lógica, se suele definir la falacia como un razonamiento que, aunque incorrecto,
es psicológicamente persuasivo. Un razonamiento evidentemente incorrecto y que no
convence a nadie no es una falacia.
Quien plantea una falacia puede intentar engañar en forma deliberada, o hacerlo
inadvertidamente: en el primer caso la falacia se llama sofisma, y en el segundo
paralogismo (1). Esta distinción no reviste interés lógico, y en todo caso podrá interesar a la
psicología, lo mismo que los motivos que una persona podría tener para emplear una falacia:
una motivación conciente en el sofisma, una motivación inconciente en el paralogismo.
Lo que no debe confundirse es falacia con falsa creencia (o idea equivocada). Creer que todos
los hombres son honestos es una creencia falsa pero no es una falacia porque es una simple
afirmación o enunciado, no un razonamiento. Si yo me propusiese 'probar' mediante un
razonamiento persuasivo aunque incorrecto que todos los hombres son honestos, entonces
estaría utilizando una falacia.
ii. Clasificación. Aristóteles (1) clasificaba las falacias en dos grandes grupos: las que resultaban
del lenguaje, y las que dependían del tema mismo de que trata el razonamiento.
Entre las primeras encontramos, por ejemplo, el empleo de una palabra con sentidos
diferentes dentro del mismo razonamiento, como por ejemplo el equívoco: "El fin de una cosa
es su perfección; la muerte es el fin de la vida; por lo tanto, la muerte es la perfección de la
vida". En esta falacia se usó la palabra "fin" en dos sentidos diferentes: como objetivo o
propósito, y como acontecimiento cronológicamente último. El objetivo: por ejemplo persuadir a
alguien o a uno mismo de las bondades de la muerte.
Las falacias resultantes del tema mismo se dan cuando por ejemplo quien razona desconoce o
ignora el asunto de que trata, como en "la ciencia no es beneficiosa para la humanidad, pues
ha conducido a la bomba atómica".
(2)
Una clasificación más abarcativa de las falacias la encontramos por ejemplo en Copi , quien
las clasifica como formales y no formales (ver esquema adjunto).
Un ejemplo es la petición de principio, donde se toma como premisa la misma conclusión que
se quiere probar (la conclusión afirma lo que ya estaba dicho en la premisa). Por ejemplo,
cuando alguien afirma que Cervantes es más notable que García Márquez porque la gente de
buen gusto prefiere a Cervantes, y luego, define el buen gusto como aquel que elige a
Cervantes en vez de a García Márquez.
Puede inducir a confusión la expresión 'lógicamente inatinente' que usa Copi para definir las
falacias de atinencia, pues da la impresión que se trata de una falacia formal y no de una
falacia no formal. La petición de principio es, en realidad, un razonamiento válido, porque si la
conclusión afirma lo dicho en la premisa, la conclusión es necesaria. No obstante, la premisa
es inatinente desde el punto de vista de su utilidad para probar la conclusión, del mismo modo
que resulta válido pero inatinente probar que un loro es verde argumentando... que un loro es
verde.
La falacia de ambigüedad se comete, por su parte, cuando el razonamiento contiene frases o
palabras ambiguas, cuyos significados cambian en forma más o menos sutil mientras se
razona. Son las que en la clasificación de Aristóteles se designaban como falacias debidas al
lenguaje.
Un ejemplo es el énfasis, donde la variación sutil del significado está dada por el énfasis que
se pone en determinados vocablos. Se entiende una cosa cuando se dice "No debemos hablar
mal de nuestros amigos", y otra cosa distinta cuando se dice lo mismo enfatizando el término
"nuestros amigos", es decir, dando a entender que podemos hablar mal de cualquier otro que
no sea nuestro amigo.
Finalmente, consignemos que mientras las falacias formales se detectan y evitan
sometiéndolas a las llamadas pruebas de validez (ver Validez, Prueba de), las falacias no
formales se pueden evitar (4) aprendiendo a reconocer los diferentes usos del lenguaje (en el
caso de las falacias no formales de atinencia), o aprendiendo a definir adecuadamente los
términos para que adquieran univocidad (en el caso de las falacias no formales de
ambigüedad)
Notas
(1) Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición, página 70.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 82. Otros autores llaman falacias
materiales a las falacias no formales, como por ejemplo Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos
Aires, Estrada, 1979, página 98.
(3) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 210-211.
(4) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 116.
Lecturas complementarias
_Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Capítulo 3: "Falacias no formales".
07. FORMALIZACIÓN
Notas
(1) Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo II, página 1276.
(2) Hunter Geoffrey, "Metalógica: Introducción a la metateoría de la lógica clásica de primer orden", Madrid, Paraninfo, 1981, pág. 24.
(3) Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo III, página 2213.
Lecturas complementarias
Cazau Pablo, "Lenguaje y metalenguaje", El Observador Psicológico, Tomo I, N° 3, página 136.
Hunter Geoffrey, "Metalógica: Introducción a la metateoría de la lógica clásica de primer orden", Madrid, Paraninfo,1981, págs 17 a 28.
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 8: "Metalógica".
08. INDUCCIÓN
Tipo de razonamiento no deductivo donde la conclusión es más general que las premisas y
donde estas últimas no pueden garantizar la verdad de la conclusión más que con un cierto
grado de probabilidad. Sinónimo: razonamiento inductivo, inferencia inductiva,
generalización inductiva.
09. LOGICA
A. En sentido amplio, es la disciplina que estudia las formas del pensamiento, o bien el
pensamiento bajo el punto de vista formal. En tal sentido, abarca muchos tipos de
lógica: deductiva, deóntica, dialéctica, etc.
B. En sentido más restringido, la lógica propiamente dicha se ocupa del estudio de los
razonamientos desde el punto de vista de su validez o invalidez. A partir de aquí, es
posible definir la lógica como la disciplina que estudia las condiciones bajo las cuales
se transporta la verdad de un enunciado a otro. En tal sentido abarca las lógicas
deductivas y no deductivas, y es el sentido que desarrollamos en la presente Guía. En
ésta, y salvo indicación en contrario, nos referiremos a la lógica propiamente dicha
simplemente como 'lógica'.
i. La lógica en sentido amplio. La gran variedad de 'lógicas' existentes dificulta definir esta
disciplina en sentido amplio. No obstante, y ateniéndonos a uno de sus significados
etimológicos (logos Î razón, pensamiento), se la puede caracterizar genéricamente como el
estudio del pensamiento desde el punto de vista de su forma, no de su contenido. Atiende,
entonces, al 'cómo' debemos pensar más que al 'qué' pensamos.
Dentro de este amplio espectro hay muchos tipos de lógica: hay una lógica material, una
modal, etc., y aún hay lógicas creadas especialmente en el contexto de determinadas teorías,
como la lógica trascendental de Kant, la dialéctica de Hegel o la fenomenológica de Husserl.
Incluso hasta se habla, en psicoanálisis, de una lógica del inconciente. Aquí no nos
Para caracterizar esta lógica podemos partir de una definición sencilla y tradicional, que dice lo
siguiente:
"La lógica es la disciplina que estudia los razonamientos desde el punto de vista de su
validez o invalidez".
Hay muchas disciplinas que también estudian los razonamientos. La psicología, por ejemplo,
los estudia desde el punto de vista de su génesis psicológica (como hace Piaget), o desde sus
motivaciones inconcientes (como hace el psicoanálisis). A la lógica, en cambio, le interesará
solamente la validez del razonamiento, más allá de quién es la persona que razona y la
temática sobre la cual lo hace. La validez depende, como veremos, de la forma, y no del
contenido del razonamiento, por lo que la 'idea fija' del lógico será investigar el cómo
razonamos, más que el qué razonamos o el porqué lo hacemos.
Los dos conceptos más importantes de la definición dada son, entonces, "razonamiento" y
"validez", y remitimos al lector a los respectivos artículos. Solamente aclararemos aquí que un
razonamiento válido es una especie de máquina de producir verdades (Nudler, página 12): si
partimos de una premisa verdadera sólo obtendremos, vía razonamiento válido, otra verdad
como conclusión. En cambio si partimos de premisas falsas, la máquina 'se descompone',
pues podrá generar conclusiones tanto verdaderas como falsas. Por este motivo, tal vez lo que
más fielmente transmita la esencia de la lógica es esta otra definición que hemos construido
para la presente Guía:
"La lógica estudia las condiciones bajo las cuales se transporta la verdad de un
enunciado a otro".
iii. Clasificaciones de la lógica. De todos los diversos modos en que puede clasificarse la lógica,
seleccionamos tres de los más habituales:
a. Desde un punto de vista histórico, se acostumbra hablar de una lógica clásica, iniciada
por Aristóteles en su tratado "Organon" y que se siguió desarrollando en diversas
direcciones hasta el siglo XIX, y de una lógica moderna (o simbólica, o matemática), que
comienza en el siglo XIX y se extiende en el siglo XX con pensadores como Boole, Frege,
Russell, y otros.
b. Desde el punto de vista del tipo de razonamiento estudiado, hay una lógica deductiva,
que estudia el razonamiento homónimo (ver Deducción), y una lógica no deductiva, que
iv. Lógica y lenguaje. Son al menos dos maneras en las que pueden relacionarse la lógica con
el lenguaje:
a. Considerando a la lógica como un lenguaje en sí mismo, y como tal, tiene sus propias
reglas sintácticas y sus propios símbolos (ver Sistema Formal). La lógica es, como la
música, un lenguaje universal: si un lógico boliviano lee las simbolizaciones de un libro de
lógica inglés o alemán, las entenderá perfectamente; y
b. Considerando la relación de la lógica con nuestro lenguaje cotidiano. En la medida
en que el lógico se interesa por la validez de los razonamientos, también habrá de
interesarse por el lenguaje cotidiano, y no solamente porque los razonamientos se
expresan mediante dicho lenguaje sino también porque los usos 'defectuosos' del mismo
pueden dar origen a razonamientos inválidos con apariencia de válidos, es decir, a
falacias no formales (donde 'no formales' significa que dependen del mal uso del lenguaje,
del contenido del mismo y no de su forma).
Lecturas complementarias
Ferrater Mora J., "Lógica", artículo incluido en el "Diccionario de Filosofía", Tomo III, página 2002, Madrid, Alianza Editorial, 1979.
Ferrater Mora J., "Lógica y realidad", artículo incluido en el "Diccionario de Filosofía", Tomo III, página 2020, Madrid, Alianza Editorial,
1979.
Prior Arthur, "Historia de la lógica", Madrid, Editorial Tecnos, 1976.
Cazau Pablo, "La dialéctica como estrategia de investigación (III)", (El Observador, N°16, página 276). Se presentan algunas
diferencias entre lógica analítica y lógica dialéctica.
Cazau Pablo, "Psicología, Derecho y Ética", El Observador Psicológico, Tomo 2, N°22, página 77). Se hace una distinción entre la
lógica tratada en esta Guía, que es una lógica de la verdad, y la llamada lógica modal.
Copi Irving, "Introducción a la lógica", Primera Parte, Buenos Aires, Eudeba, 1974, 15° edición. La primera parte de este texto incluye
consideraciones sobre la lógica en general, y sus relaciones con el lenguaje cotidiano.
Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973. Capítulo 1: "El objeto de la lógica"
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulos 5 y 6: "El alcance de la lógica" y "Lógicas divergentes".
Ferrater Mora J, "Lógica Matemática", México, FCE, 1975. Capítulo 1: "Naturaleza de la lógica".
Moreno A, "Lógica matemática: antecedentes y fundamentos", Buenos Aires, Eudeba, 1971, 2° edición. En este texto se desarrollan
las diferencias entre la lógica no matemática, el álgebra de la lógica y la lógica matemática. Asimismo, en el capítulo 1 se desarrolla la
noción general de lógica.
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 1: "La lógica".
En general la lógica borrosa se aplica tanto a sistemas de control como para modelar cualquier
sistema continuo de ingeniería, física, biología o economía
La lógica borrosa es entonces definida como un sistema matemático que modela funciones no
lineales, que convierte unas entradas en salidas acordes con los planteamientos lógicos que
usan el razonamiento aproximado.
Se fundamenta en los denominados conjuntos borrosos y un sistema de inferencia borroso
basado en reglas de la forma: "SI....... ENTONCES...", donde los valores lingüísticos de
la premisa y el consecuente están definidos por conjuntos borrosos, es así como las reglas
siempre convierten un conjunto borroso en otro.
ii. Historia. Los conjuntos difusos fueron introducidos por primera vez en 1965; la creciente
disciplina de la lógica difusa provee por sí misma un medio para acoplar estas tareas. En cierto
nivel, la lógica difusa puede ser vista como un lenguaje que permite trasladar sentencias
sofisticadas en lenguaje natural a un lenguaje matemático formal. Mientras la motivación
original fue ayudar a manejar aspectos imprecisos del mundo real, la práctica temprana de la
lógica difusa permitió el desarrollo de aplicaciones prácticas. Aparecieron numerosas
publicaciones que presentaban los fundamentos básicos con aplicaciones potenciales. Esta
frase marcó una fuerte necesidad de distinguir la lógica difusa de la teoría de probabilidad. Tal
como la entendemos ahora, la teoría de conjuntos difusos y la teoría de probabilidad tienen
diferentes tipos de incertidumbre.
En 1994, la teoría de la lógica difusa se encontraba en la cumbre, pero esta idea no es nueva,
para muchos, estuvo bajo el nombre de lógica difusa durante 25 años, pero sus orígenes se
remontan hasta 2,500 años. Aún Aristóteles consideraba que existían ciertos grados de
veracidad y falsedad. Platón había considerado ya grados de pertenencia.
En el siglo XVIII el filósofo y obispo anglicano Irlandés, George Berkeley y David Hume
describieron que el núcleo de un concepto atrae conceptos similares. Hume en particular, creía
en la lógica del sentido común, el razonamiento basado en el conocimiento que la gente
adquiere en forma ordinaria mediante vivencias en el mundo. En Alemania, Immanuel Kant,
consideraba que solo los matemáticos podían proveer definiciones claras, y muchos principios
contradictorios no tenían solución. Por ejemplo la materia podía ser dividida infinitamente y al
mismo tiempo no podía ser dividida infinitamente. Particularmente la escuela americana de la
filosofía llamada pragmatismo fundada a principios de siglo por Charles Sanders Peirce, cuyas
ideas se fundamentaron en estos conceptos, fue el primero en considerar ''vaguedades'', más
que falso o verdadero, como forma de acercamiento al mundo y a la forma en que la gente
funciona.
La idea de que la lógica produce contradicciones fue popularizada por el filósofo y matemático
británico Bertrand Russell, a principios del siglo XX. Estudio las vaguedades del lenguaje,
concluyendo con precisión que la vaguedad es un grado. El filosofo austriaco Ludwing
Wittgenstein estudió las formas en las que una palabra puede ser empleada para muchas
cosas que tienen algo en común. La primera lógica de vaguedades fue desarrollada en 1920
por el filósofo Jan Lukasiewicz, visualizó los conjuntos con un posible grado de pertenencia
con valores de 0 y 1, después los extendió a un número infinito de valores entre 0 y 1. En los
años sesentas, Lofti Zadeh inventó la lógica difusa, que combina los conceptos de la lógica y
de los conjuntos de Lukasiewicz mediante la definición de grados de pertenencia.
iii. Conceptos básicos de Lógica Difusa
a. Conjuntos difusos. La mayoría de los fenómenos que encontramos cada día son
imprecisos, es decir, tienen implícito un cierto grado de difusidad en la descripción de su
naturaleza. Esta imprecisión puede estar asociada con su forma, posición, momento,
color, textura, o incluso en la semántica que describe lo que son. En muchos casos el
mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o
tiempo. Un día cálido en invierno no es exactamente lo mismo que un día cálido en
primavera. La definición exacta de cuando la temperatura va de templada a caliente es
imprecisa -no podemos identificar un punto simple de templado, así que emigramos a un
simple grado, la temperatura es ahora considerada caliente. Este tipo de imprecisión o
difusidad asociado continuamente a los fenómenos es común en todos los campos de
estudio: sociología, física, biología, finanzas, ingeniería, oceanografía, psicología, etc.
b. Conceptos imprecisos. Aceptamos la imprecisión como una consecuencia natural de ''la
forma de las cosas en el mundo''. La dicotomía entre el rigor y la precisión del modelado
matemático en todos los campos y la intrínseca incertidumbre de ''el mundo real'' no es
generalmente aceptada por los científicos, filósofos y analistas de negocios. Nosotros
simplemente aproximamos estos eventos a funciones numéricas y escogemos un
resultado en lugar de hacer un análisis del conocimiento empírico. Sin embargo
procesamos y entendemos de manera implícita la imprecisión de la información fácilmente.
Estamos capacitados para formular planes, tomar decisiones y reconocer conceptos
compatibles con altos niveles de vaguedad y ambigüedad. Considérese las siguientes
sentencias:
• La temperatura está caliente
• La inflación actual aumenta rápidamente
• Los grandes proyectos generalmente tardan mucho
• Nuestros precios están por abajo de los precios de la competencia
• IBM es una compañía grande y agresiva
• Alejandro es alto pero Ana no es bajita
Estas proposiciones forman el núcleo de nuestras relaciones con ''la forma de las cosas
en el mundo''. Sin embargo, son incompatibles con el modelado tradicional y el diseño de
sistemas de información. Si podemos incorporar estos conceptos logramos que los
sistemas sean potentes y se aproximen más a la realidad.
Pero, es la imprecisión un concepto artificial utilizado para aumentar o disminuir en uno o
más las propiedades de los fenómenos? O es una parte intrínseca del fenómeno en sí
mismo?
Esta es una pregunta importante ya que es la parte fundamental de las medidas de la
teoría difusa. Como veremos la fusificación es independiente de cualquier capacidad para
medir, ya que un conjunto difuso es un conjunto que no tiene límites bien definidos.
Un conjunto difuso tiene muchas propiedades intrínsecas que afectan la forma del
conjunto, su uso y como participa en un modelo. Las propiedades más importantes de un
conjunto difuso son las concernientes a las dimensiones verticales del conjunto difuso
(altura y normalización) y las dimensiones horizontales (conjunto soporte y cortes "alpha").
La altura de un conjunto difuso es como máximo un grado de pertenencia y es una cota
cercana al concepto de normalización. La superficie de la región de un conjunto difuso es
el universo de valores. Todos estos conceptos se tratarán más adelante.
Es decir un conjunto difuso A se considera como un conjunto de pares ordenados, en los
que el primer componente es un número en el rango [0,1] que denota el grado de
pertenencia de un elemento u de U en A, y el segundo componente especifica
concreto del trapezoidal en el que los dos valores centrales son iguales, y el de forma de
campana gaussiana.
Tómese ahora el Universo de Discurso de la edad. El Conjunto Difuso "Joven" representa
el grado de pertenencia respecto al parámetro juventud que tendrían los individuos de
cada edad. Es decir, el conjunto expresa la posibilidad de que un individuo sea
considerado joven. Un Conjunto Difuso podría ser considerado como una distribución de
posibilidad, que es diferente a una distribución de probabilidad.
Se puede observar que los Conjuntos Difusos de la figura 3 se superponen, por lo que un
individuo xl podría tener distintos grados de pertenencia en dos conjuntos al mismo
tiempo: "Joven" y "Maduro". Esto indica que posee cualidades asociadas con ambos
conjuntos. El grado de pertenencia de x en A, como ya se ha señalado anteriormente, se
representa por µA(x). El Conjunto Difuso A es la unión de los grados de pertenencia para
todos los puntos en el Universo de Discurso X, que también puede expresarse como:
Bajo la notación de los Conjuntos Difusos, µA(x)/x es un elemento del conjunto A. La
operación µx representa la unión de los elementos difusos µA(x)/x. Los Universos de
Discurso con elementos discretos utilizan los símbolos "+" y "-" para representar la
operación unión.
Veamos un ejemplo: Ejemplo de Conjuntos Difusos en el universo de la edad.
Tómese un individuo x cuya edad sea de 20 años. Como se puede observar en la figura,
pertenece al Conjunto Difuso "Joven" y al Conjunto Difuso "Maduro". Se puede observar
que posee un grado de pertenencia µA(x) de 0.6 para el Conjunto Difuso "Joven" y un
grado de 0.4 para el Conjunto Difuso "Maduro"; también posee un grado de 0 para "Viejo".
De este ejemplo se puede deducir que un elemento puede pertenecer a varios Conjuntos
Difusos a la vez aunque con distinto grado. Así, nuestro individuo x tiene un grado de
pertenencia mayor al conjunto "Joven " que al conjunto "Maduro"(0.6 > 0.4), pero no se
puede decir, tratándose de Conjuntos Difusos, que x es joven o que x es maduro de
manera rotunda.
vi. Operaciones entre Conjuntos Difusos. Los Conjuntos Difusos se pueden operar entre sí del
mismo modo que los conjuntos clásicos. Puesto que los primeros son una generalización de
los segundos, es posible definir las operaciones de intersección, unión y complemento
haciendo uso de las mismas funciones de pertenencia:
µAµ B (x) = minµA(x), µB(x) )
µAµ B (x) = max ( µA(x), µB(x) )
µµA (x) = 1 - µA(x)
En realidad, estas expresiones son bastante arbitrarias y podrían haberse definido de muchas
otras maneras. Esto obliga a considerar otras definiciones más generales para las operaciones
entre los Conjuntos Difusos. En la actualidad se considera correcto definir el operador
intersección mediante cualquier aplicación t-norma y el operador unión mediante cualquier
aplicación s-norma. <
a. Variables Lingüísticas. La Teoría de Conjuntos Difusos puede utilizarse para representar
expresiones lingüísticas que se utilizan para describir conjuntos o algoritmos. Los
Conjuntos Difusos son capaces de captar por sí mismos la vaguedad lingüística de
palabras y frases comúnmente aceptadas, como "gato pardo" o "ligero cambio". La
habilidad humana de comunicarse mediante definiciones vagas o inciertas es un atributo
importante de la inteligencia.
Una Variable Lingüística es aquella variable cuyos valores son palabras o sentencias que
van a enmarcarse en un lenguaje predeterminado. Para estas variables lingüísticas se
utilizará un nombre y un valor lingüístico sobre un Universo de Discurso. Además, podrán
dar lugar a sentencias generadas por reglas sintácticas, a las que se les podrá dar un
significado mediante distintas reglas semánticas.
Los Conjuntos Difusos pueden utilizarse para representar expresiones tales como:
• X es PEQUEÑO.
• La velocidad es RÁPIDA.
• El ganso es CLARO.
Las expresiones anteriores pueden dar lugar a expresiones lingüísticas más complejas
como:
• X no es PEQUEÑO.
• La velocidad es RÁPIDA pero no muy RÁPIDA.
• El ganso es CLARO y muy ALEGRE.
i. Generalidades. Los dos grandes capítulos de la lógica son la lógica proposicional y la lógica
de términos. La primera descompone el razonamiento en proposiciones, sin llegar más allá. La
segunda, en cambio, avanza más descomponiendo las proposiciones en términos.
ii. Clasificación. La lógica de términos abarca distintos tipos de análisis, correspondientes a
diferentes modos de investigar las relaciones entre los términos dentro del enunciado. Estas
diferentes 'lógicas' de términos, según cada época y cada autor fueron diferenciadas,
consideradas idénticas, confundidas, reunidas, jerarquizadas entre sí, independizadas
mutuamente y algunas veces hasta excluidas del territorio de la lógica, como hizo alguien con
la lógica de clases. No es propósito del autor examinar este complejo panorama, sino
simplemente mostrar brevemente cuáles son estas 'lógicas' de términos y porqué reciben el
nombre que tienen.
a. Lógica de predicados: Así denominada porque dentro de la proposición identifica ciertos
términos como "predicados". Por ejemplo, en el enunciado "Juan es bueno", el predicado
del sujeto Juan es 'bueno'.
↓
poq
p
⇒
~q
↓
[ (p ω q) Λ p] Æ ~q
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
43
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
c. que las tablas de verdad pertenecen al metalenguaje de la lógica, porque hablan acerca
del mismo lenguaje lógico. Por ejemplo, en las tablas de verdad no se 'usan' las
conectivas, solamente se la 'menciona' definiéndolas.
v. Prueba de validez. Ahora sí estamos en condiciones de establecer la validez de un
determinado razonamiento a partir de si sus proposiciones atómicas componentes y las
conectivas que las unen son verdaderas o falsas. En el esquema 3 aparece esquematizada
esta prueba, llamada prueba del condicional asociado (1), aplicada al razonamiento del
esquema 1.
Esquema 3 – Método del condicional asociado
1 3 1 4 1 5 2 1
p q [ ( p ω q ) Λ p ] → q
V V V F V F V V F V
V F V V F V V V V F
F V F V V F F V F V
F F F F F F F V V F
Para realizar esta prueba, primero de todo colocamos dos columnas, una para p y otra para q
(porque en nuestro razonamiento hay solamente dos proposiciones), y ubicamos todas las
combinaciones posibles de V y F, que son en este caso cuatro: VV, VF, FV y FF (2). A
continuación, se plantea todo el razonamiento simbolizado en el encabezamiento de la
siguiente columna. Hasta aquí, hemos preparado las cosas como para comenzar a hacer la
prueba. Esta prueba consiste en una serie de pasos que hemos indicado, para mayor claridad,
con números correlativos.
Así, en primer lugar (paso 1) colocamos debajo de todas la p o todas las q que aparezcan en
el razonamiento los mismos valores que hay en las dos primeras columnas: es un simple paso
mecánico donde hay que copiar con atención. En segundo lugar nos concentramos
exclusivamente en la conclusión (por ser más sencilla que las premisas, aunque podríamos
haber comenzado también con éstas últimas). En la conclusión (paso 2), debajo del símbolo
de la negación colocamos los valores V o F que correspondan: cuando q vale V pondremos F,
y viceversa, ya que eso es lo que prescribe la tabla de verdad de la negación (esquema 2).
A continuación nos concentramos en las premisas, o sea, en todo lo que está a la izquierda del
símbolo del condicional. Allí encontraremos corchetes y paréntesis y, como hacíamos en el
colegio secundario, primero resolvemos lo que está entre paréntesis y luego lo que está entre
corchetes. Por lo tanto, nuestro siguiente paso 3 será colocar debajo del símbolo de la
disyunción exclusiva los correspondientes valores según la tabla de verdad de esa conectiva.
Luego pasamos al paso 4 haciendo lo mismo fuera del paréntesis con la conectiva de la
conjunción, pero atención, relacionando la disyunción excluyente resultante del paso anterior
con p.
El último paso es siempre relacionar las premisas con la conclusión mediante el condicional
(paso 5), cuidando de relacionar lo que resultó del paso anterior (conjunción de las premisas)
con lo que resultó del paso 2 (negación de q). En otras palabras, relacionamos las columnas 4
y 2, y obtenemos, en este caso, todos los valores de verdad verdaderos (V).
vi. Tautología, contradicción y contingencia. Si en el resultado final (columna 5 en el ejemplo
anterior) obtenemos todos valores V, entonces decimos que el razonamiento es válido y lo
llamamos tautología. Tal es el caso del ejemplo anterior. Si obtenemos todos valores F
decimos que el razonamiento es inválido y lo llamamos contradicción. Finalmente, si
obtenemos al menos un valor V y al menos uno F estamos en presencia de una contingencia,
momento en el cual la prueba de validez no nos sirve porque no podemos decidir si el
Afirmación de validez universal y evidente por sí misma que hace posible el pensamiento
mismo. Clásicamente, los principios lógicos son tres: identidad, no contradicción, y tercero
excluido, aunque a veces se agrega el principio de razón suficiente. Hoy en día, se tiende a
relativizar la importancia de estos principios.
i. Definición. Los principios lógicos, según las definiciones clásicas que vienen repitiéndose
desde los griegos, son:
a. Afirmaciones autoevidentes, es decir, se puede 'ver' inmediatamente que son
verdaderos y por tanto no requieren ser demostrados por principios más fundamentales o
anteriores. Por ejemplo: "A=A" (principio de identidad). Por lo demás, no sólo no requieren
demostración sino además tampoco pueden ser demostrados, porque entonces no serían
los primeros principios que son. En todo caso, los principios lógicos sirven para demostrar
cualquier otro pensamiento derivado de ellos, tal como pensaba Aristóteles.
b. Afirmaciones que hacen posible el acto mismo de pensar, sea lo que fuere en lo que
pensemos (validez universal). Por ejemplo, no podríamos pensar en un gato si un gato no
fuese un gato, es decir, si se violara el principio de contradicción.
ii. Los tres principios lógicos y el principio de razón suficiente. Existen muchas maneras de
expresar los principios lógicos, de las cuales elegiremos una de rápida comprensión.
Principio de identidad: "A es igual a A".
Principio de no contradicción: "A no puede ser A y no-A".
Principio de tercero excluido: "A, o es A, o es no-A",
es decir, una tercera posibilidad queda excluida.
Principio de razón suficiente: "Todo tiene su razón de ser: nada ocurre porque sí".
Este principio parece no ser necesario al pensamiento,
pero sí lo es, pues afirma que cuando pensamos que algo
es verdadero o falso, por alguna razón lo estamos
pensando.
No se debe confundir el segundo y el tercer principio. El segundo principio dice que una afirmación
no puede ser verdadera y al mismo tiempo ser falsa, mientras que el tercero dice que esas son las
únicas dos posibilidades que la afirmación tiene. Desde ya, este principio está pensado en el
contexto de una lógica bivalente que admite sólo la verdad y la falsedad, obviando la probabilidad
como valor intermedio.
Los tres primeros principios son clásicos, mientras que el cuarto fue presentado más tarde y
considerado por Leibniz como el 'gran principio'.
iii. Principio lógico, ley lógica, axioma. Las modernas investigaciones lógicas han puesto de
manifiesto que los 'principios lógicos' son bastante más que los tres o cuatro indicados
anteriormente, y que ninguno de todos ellos es más o menos fundamental que los tres
principios clásicos. Copi (1) llega incluso a decir que, a los efectos de utilizar principios para las
pruebas de validez de razonamientos, algunos 'principios' son más fructíferos que los tres
clásicos.
Tradicionalmente se distingue un principio de una ley señalándose que el principio es más
fundamental y abarcativo que la ley. De acuerdo a lo dicho, entonces, los tres principios
lógicos no están por encima del resto de las leyes lógicas sino que todas las afirmaciones
tienen el mismo rango, no siendo ninguna más básica que la otra: en todo caso, como hemos
dicho, algunas podrán ser más útiles o menos útiles para determinados propósitos lógicos. Hoy
día, entonces, los lógicos hablan solamente de un gran conjunto de leyes lógicas y, si aluden
alguna vez a los 'principios' lógicos, la alusión tiene solamente el valor de una referencia
histórica.
Los principios o las leyes lógicas se parecen a los llamados axiomas, pero solamente en
cuanto todos ellos son puntos de partida para demostrar otros enunciados de ellos derivados.
Se considera que, a diferencia de una simple ley lógica, el axioma es el punto de partida de un
sistema formal, mientras que ley lógica es como un enunciado aislado que se toma o se
desecha según sirva o no para demostrar la validez de algún razonamiento. Si una ley lógica
es incluida como punto de partida indemostrable de un sistema formal, pasa a ser un axioma
(ver Sistema formal, y Axioma). E incluso más: esa misma ley lógica puede aparecer como
un enunciado derivado (teorema) dentro de otro sistema formal distinto, lo cual una vez más
pone de relieve la relatividad de la importancia de los principios y las leyes.
Notas
(1) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 251.
Lecturas complementarias
Cazau Pablo, "Identidad (I)" (El Observador N°3, página 114). Aquí se hace referencia al principio de identidad.
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 5: "Los principios lógicos".
Colacilli de Muro M y J., "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, páginas 37 a 42.
14. RAZONAMIENTO
Conjunto de enunciados donde uno de los cuales, llamado conclusión, se espera que se
derive necesaria o probabilísticamente del resto de los enunciados llamados premisas. Los
razonamientos se clasifican a grandes rasgos como deductivos y no deductivos, válidos e
inválidos, inmediatos y mediatos. Sinónimo: inferencia.
Notas
(1) Este ejemplo de Copi roza, incidentalmente, una cuestión central en lógica. Las expresiones "Si A entonces B" y "Puesto que A,
entonces se da B" responden ambas al mismo esquema condicional "Si p entonces q". Surge entonces la duda acerca de si este
condicional es un enunciado o un razonamiento, habida cuenta de que, además, cierta prueba de validez transforma un razonamiento
en un enunciado condicional (ver la prueba del condicional asociado en el artículo Validez, Prueba de). A nuestro criterio, la distinción
hecha por Copi acerca de que la diferencia reside en una cuestión de énfasis o afirmación categórica o explícita es psicológica, y
faltaría resolverla a un nivel lógico.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, págs 397 y 422.
(3) Bunge Mario, "La investigación científica: su estrategia y su filosofía", Barcelona, Ariel, 1969, págs 860-866.
(4) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, págs. 96 a 109.
(5) Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969, pág. 275.
(6) Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973, págs. 6-7.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 1, punto 2: "El razonamiento".
Copi Irving, "Introducción a la lógica", Cap I, Buenos Aires, Eudeba, 1974, 15° edición. En el capítulo I se desarrolla la idea de
razonamiento y sus diferencias con conceptos similares.
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 6: "El razonamiento".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6: "Los razonamientos".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 9: "Los razonamientos".
curó la misma enfermedad con la misma droga. Pero resulta totalmente inatinente concluir
lo mismo basándonos en que A y B tiene la misma estatura, el mismo sastre, la misma
cantidad de hijos o la misma filiación política, y que por ello también se curarán con la
misma droga.
La atinencia, por lo tanto, está directamente relacionada con el problema de la causalidad:
lo que causa la curación es la droga, no la estatura, el sastre o la cantidad de hijos. Es así
que poder estimar los razonamientos analógicos en base a este último criterio exige un
cierto conocimiento de cuáles pueden ser conexiones causales y cuáles no, conocimiento
que puede obtenerse por simple intuición o, con mayor seguridad, mediante la
observación y la experimentación en tanto estas permitan descubrir nexos causales.
El criterio de atinencia resulta ser entonces el más importante de todos (o sea el que más
debe tener en cuenta el científico), por cuanto todo el edificio de la ciencia está montado
sobre la idea de conexión causal, y, las analogías que se establezcan en la investigación
deberán estar basadas en vínculos causales.
Notas
(1) Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, página 105.
(2) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, páginas 404-409.
Lecturas complementarias
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. En el capítulo11 se desarrolla la idea de razonamiento
por analogía y se indican algunos criterios para estimarlos.
Fatone Vicente, "Lógica e introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 8: "La inducción y la
analogía".cente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 5: "Los principios lógicos".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979, páginas 37 a 42.
Tipo de razonamiento cuya conclusión se extrae directamente a partir de una sola premisa.
Sinónimo: inferencia inmediata.
i. Caracterización. Los razonamientos no deductivos son los más habituales en la vida cotidiana
y, como conducen a conclusiones probables, no seguras, son una fuente importante de errores
de apreciación. En la ciencia también se emplean esta clase de razonamientos, sólo que aquí,
cuando son empleados para probar hipótesis, se tiene la precaución de evaluar el grado de
probabilidad de la conclusión: el científico siempre intentará que las premisas suministren la
mayor cantidad y variedad de elementos de juicio posibles como para poder tornar confiable la
conclusión o hipótesis.
Como se ve, mientras en los razonamientos deductivos la conclusión o es necesaria o no lo
es, en los no deductivos la conclusión puede tener diferentes grados de probabilidad, según lo
que aporten las premisas como fundamento.
De tres maneras podemos caracterizar a los razonamientos no deductivos:
a. La conclusión nunca es más particular que las premisas;
b. La conclusión no es necesaria sino probable; y
c. Las premisas son necesarias pero no suficientes para demostrar con seguridad la
conclusión.
Considérese como ejemplo el siguiente razonamiento no deductivo:
"La droga A curó a Fulano de una enfermedad;
La droga A curó a Mengano de la misma enfermedad;
por lo tanto,
"La droga A cura a todas las personas con la misma enfermedad".
Obsérvese que:
a. la conclusión es, en este caso, más general que las premisas, porque no es lo mismo
decir "todos" que decir "Fulano" o "Mengano";
b. La conclusión no es segura, pues puede haber algún nuevo paciente que no se cure con
la droga A;
c. El hecho de que Fulano y Mengano se hayan curado con la droga A, no es suficiente para
sostener con seguridad que todos los pacientes se curarán con esa droga.
Se ve claramente que estas dos últimas características, b y c, apuntan a la misma idea, sólo
que en un caso se hace hincapié en cómo debe ser la conclusión, y en el otro cómo deben ser
las premisas.
Estas tres características distinguen a los razonamientos no deductivos de los deductivos,
diferencias que están más detalladas en el artículo Deducción.
ii. Clasificación. Dentro de los razonamientos no deductivos se incluye una gran variedad de
razonamientos, por momentos bastantes diferentes entre sí en otros aspectos, y prácticamente
no existen dos autores que propongan la misma clasificación de estos razonamientos. Incluso,
llegan a haber autores que ni hablan de razonamientos no deductivos, y clasifican todos los
razonamientos como deductivos o reductivos, como por ejemplo Bochenski (1).
Algunos ejemplos de clasificación de razonamientos no deductivos
SEGÚN COLACILLI DE MURO, PAGINAS 96-109
Analógicos
Por interpretación
Por invención
Por casos
Inductivos
Inducción baconiana (de varios casos a todos)
Inducción galileana (de un caso a todos)
De ningún caso a todos
SEGÚN BUNGE MARIO, PAGINAS 860-866
Analogía
Sustantiva
Estructural
Inducción
De primer grado
De segundo grado
Generalización estadística
Especificación estadística
Modus ponens débil
Modus tollens débil
Reducción
Fuerte
Débil
Etc.
En el esquema adjunto se presentan algunas clasificaciones como para que el lector pueda
darse una idea somera de la gran diversidad de enfoques existentes al respecto. En lo que
prácticamente todos coinciden, sin embargo, es en incluir dentro de los razonamientos no
deductivos a la inducción y al razonamiento analógico (véanse estos dos artículos).
Notas
(1) Bochenski, "Los métodos actuales del pensamiento", Barcelona, Ariel, págs. 188 a 195.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 9: "El razonamiento inductivo y la
probabilidad".
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 8: "La inducción y la
analogía".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6, punto 7: "Los
razonamientos no deductivos".
18. SILOGISMO
Razonamiento deductivo donde se infiere una conclusión a partir de dos premisas. Los
silogismos pueden ser categóricos, hipotéticos o disyuntivos, según el tipo de enunciado
que contengan.
los cuales las dos premisas, o una de ellas, son enunciados hipotéticos, y al respecto se tienen
tres ejemplos importantes: el silogismos hipotético puro, el modus ponendo ponens y el
modus tollendo tollens (estos dos últimos son silogismos hipotéticos mixtos porque no todas
sus premisas son hipotéticas).
Los silogismos disyuntivos son aquellos donde la primera premisa es un enunciado disyuntivo
(disyunción excluyente), y donde la segunda premisa es un enunciado categórico en el cual se
afirma o niega una de las alternativas. Ejemplos: el modus ponendo tollens y el modus tollendo
ponens.
Tipos de silogismo
(Los ejemplos corresponden a Fatone, salvo el de silogismo hipotético puro, que es de Copi)
SILOGISMOS CATEGORICOS SILOGISMOS HIPOTETICOS SILOGISMOS DISYUNTIVOS
Primera figura Silogismo hipotético puro Ponendo tollens
Todo vicio debe ser combado Si A es político, entonces miente Me pagaba o lo denunciaba
El odio es un vicio Si miente, entonces niega ser político Me pagó
Por lo tanto Por lo tanto Por lo tanto
El odio debe se combatido Si A es político, entonces niega serlo No lo denuncié
Segunda figura Ponendo ponens Tollendo ponens
Todo alumno del colegio está en clase Si lo operan, el enfermo muere O erró o es mi enemigo
X no está en clase Operaron al enfermo No erró
Por lo tanto Por lo tanto, Por lo tanto
X no es un alumno del colegio El enfermo se murió Es mi enemigo
Tercera figura Tollendo tollens
Algunos hombres son filósofos Si lo operan, el enfermo muere
Todos los hombres son seres falibles No se murió el enfermo
Por lo tanto Por lo tanto,
Algunos seres falibles son filósofos No lo operaron
Cuarta figura
Algunos mamíferos son cetáceos
Todos los cetáceos son acuáticos
Por lo tanto
Algunos acuáticos son cetáceos
Notas
(1) Nudler T y O, "Elementos de lógica simbólica", Buenos Aires, Kapelusz, 1973, página 87.
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 7: "El silogismo".
Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición. Capítulo 6: "Los silogismos categóricos".
19. SIMBOLIZACIÓN
Simbolización de razonamientos
Todos los hombres son mortales
Sócrates es hombre
Por lo tanto, Sócrates es mortal
↓
En lógica proposicional
↓
p
q
___
r
O también
(p Λ q) ⇒ r
↓
En lógica de términos
↓
Todo M es P
S es M
_____________
S es P
O también
(x) (Sx ⇒ Px)
Sm
_______________
Pm
iii. Forma de razonamiento. En cualquier caso, lo que hemos obtenido ya no es más un
razonamiento, sino una forma de razonamiento, que es algo muy distinto. Una forma de
razonamiento es una especie de molde dentro del cual pueden entrar muchos razonamientos
con diferentes contenidos. La lógica reduce todo razonamiento a una forma de razonamiento
porque, como dijimos, sabe que la validez depende de la forma (del cómo razonamos) y no del
contenido (del qué razonamos).
Reduciendo el razonamiento a mera forma evitamos que los árboles nos impidan ver el
bosque, es decir, despejamos, aclaramos, quitamos 'palabrerío' y podemos concentrarnos más
fácilmente en su estructura, que nos conducirá más fácilmente a la identificación de un
razonamiento válido. Por ejemplo, podremos concluir que un razonamiento es válido (o
inválido) si es un ejemplo de sustitución de una forma válida (o inválida) de razonamiento (ver
Validez).
iv. Simbolización de enunciados. Simbolizar un enunciado significa dejar de lado todo su
contenido excepto su valor de verdad. Se simboliza un enunciado representándolo mediante una
letra (p, q, etc.), a la que se le asignarán los valores de verdad V (verdadero) o F (falso).
Podrá aquí objetarse que la verdad o la falsedad de un enunciado dependen de su contenido, y
que si dejamos de considerar este contenido no podremos conocer si el enunciado es verdadero o
falso. Indudablemente esto es cierto, pero debemos tener presente que al lógico le interesa el
contenido sólo en la medida en que le permite decidir sobre su verdad o falsedad. Una vez
i. Un ejemplo para comenzar. El tema de la presente nota tiene un muy alto nivel de
abstracción y exigirá cierta concentración por parte del lector. Para facilitar su comprensión,
comencemos por imaginar el siguiente juego:
Supongamos que tenemos cuatro elementos, que llamaremos arbitrariamente A, B, C y D. No
nos importa si son bolitas, empanadas o números enteros. Para nosotros estarán desprovistos
de cualquier significado: en la terminología de la lógica, son términos no interpretados.
Tampoco los definimos mediante términos anteriores: son los primeros que proponemos,
carecen de definición y por ello los llamamos TÉRMINOS PRIMITIVOS. Por ejemplo, no
definimos A diciendo que equivale a X.
Estos términos primitivos se pueden combinar de muchas maneras distintas. A estas
combinaciones las llamaremos FORMULAS, y pueden darse al azar, o bien podemos nosotros
mismos podemos inventar reglas que determinen qué combinaciones de esos elementos valen
o cuáles no, es decir, qué fórmulas valen y cuáles no. Estas reglas son en principio arbitrarias.
Por ejemplo, inventemos una: "Toda fórmula debe incluir por lo menos dos de los elementos".
Según esta regla, la fórmula ABC vale, mientras que la fórmula AAA no vale ya que tiene un
solo elemento que es A. Los lógicos suelen denominar a las fórmulas que valen 'fbf', es decir,
'fórmulas bien formadas'.
Como estas reglas permiten, a partir de los elementos primitivos, 'formar' combinaciones de
elementos llamadas fórmulas, las llamaremos REGLAS DE FORMACIÓN.
Con estas reglas de formación podemos armar muchas fórmulas distintas que valgan. Por
ejemplo: ABC, CCD, AAB, AABBCCC, etc. Todas ellas valen porque cumplen con la regla que
toda fórmula debe tener al menos dos elementos. Seleccionemos al azar dos de estas
combinaciones:
a. ABC
b. BCCD
Vamos a llamar AXIOMAS a estas primeras combinaciones que hemos elegido. Reitero, ellas
son completamente arbitrarias, e inclusive al lector podrían habérsele ocurrido otras
combinaciones, siempre y cuando respeten lo que las reglas de formación -también arbitrarias-
prescriben.
Imaginemos ahora que se nos ocurre inventar otro tipo de reglas mediante las cuales podemos
transformar un axioma en otra fórmula bien formada, y que llamaremos por ello REGLA DE
TRANSFORMACIÓN. Un ejemplo de este tipo de regla puede ser: "Si a un axioma le
agregamos antes de cada C una letra D, obtenemos una fórmula bien formada derivada de
dicho axioma". Conviniendo en llamar TEOREMA a estas nuevas fórmulas derivadas de los
axiomas, según esta regla, podemos concluir que:
c. ABDC es un teorema, porque antes de la C hemos puesto una D, como prescribe nuestra
regla de transformación.
d. BCCDD no es un teorema, porque antes de las C no hay letras D.
Los teoremas son, por tanto, fórmulas del sistema para las cuales hay una prueba, es decir,
una posibilidad real de demostrarlos como derivados de los axiomas.
Por último, agreguemos una nueva regla de transformación como la siguiente: "Si a un
teorema le agregamos antes de cada A un elemento B, obtenemos otro teorema derivado".
Según esta nueva regla:
e. BABDC es un teorema, porque antes de la A hemos puesto una B.
f. ABDC no es un teorema, porque antes de la A no figura ninguna B.
También podríamos haber agregado DEFINICIONES, es decir, equivalencias también
totalmente arbitrarias entre letras. Por ejemplo quiero introducir además de las letras A, B, C y
D otra letra X. Convengo entonces en establecer que X será igual a ABC, lo cual hago por
ejemplo porque a veces en las fórmulas pueden aparecer combinaciones ABC y, para que la
expresión no se me haga tan larga, la simplifico reemplazando esa combinación por X. El
término X no es un término primitivo sino un TERMINO DEFINIDO, definido a partir de los
términos primitivos por una simple equivalencia.
ii. Definición y propiedades. En el ítem anterior, además de haber hecho un juego, de paso
hemos construido un sistema formal, es decir, un conjunto de elementos sin significado (6), y
con reglas explícitas que los relacionan entre sí. Un sistema formal está constituido, entonces,
por las siguientes cosas (ver esquema): términos primitivos y términos definidos, definiciones,
reglas de formación y de transformación, axiomas y teoremas. Las reglas de transformación
son, en el campo de la lógica, las llamadas leyes lógicas (ver Principio lógico).
En este contexto, queda definido por ejemplo un 'teorema' como una fórmula que se deriva de
un axioma mediante la aplicación de una regla de transformación. Asimismo, también puede
definirse 'demostración' como el proceso por el cual se muestra que un teorema se deriva de
un axioma por aplicación de ciertas reglas de transformación.
La teoría de los sistemas formales, que se ocupa de estudiar sistemas como los que hemos
descrito, ha enumerado una serie de propiedades de los mismos, entre las que podemos
mencionar la consistencia, la completitud, la independencia, la decidibilidad y la satisfacibilidad
(palabra esta última que se presta especialmente para jugar al ahorcado). Definamos
brevemente estas propiedades:
Un sistema es consistente si el conjunto de sus axiomas no conduce, aplicando las reglas de
transformación, a teoremas contradictorios entre sí (1). De todas las propiedades, esta es
realmente la única necesaria, porque si un sistema fuera inconsistente, de sus axiomas podría
derivarse cualquier fórmula en forma indiscriminada, lo cual carecería de interés teórico.
Un sistema es completo cuando todas las fórmulas dentro del sistema son derivables de los
axiomas.
Un sistema tiene independencia cuando ningún axioma es derivable de otro del mismo sistema
aplicando sus reglas de transformación. Si un axioma se derivara de otro dejaría de ser tal y
pasa a ser un teorema.
Un sistema es decidible cuando existe un procedimiento (aplicación de reglas de
transformación) que permita decidir unívocamente si una fórmula pertenece al sistema o no.
lógica, utilizarla para sistematizar la disciplina misma. Y es este ideal de sistematización el que
más hondamente ha influido en el moderno desarrollo de la lógica; y tan hondamente, que
aquella primitiva actitud de compilar los principios más generales a que apelamos al estimar el
aspecto lógico del discurso, se ha perdido de vista por completo" (5).
iv. Otras ventajas de los sistemas formales. La principal ventaja de los sistemas formales es
que sirven para ser interpretados, es decir, para establecer interpretaciones de los mismos. De
algún sistema formal podrá interpretarse por ejemplo el sistema de la lógica, de otro el sistema
de la matemática, de otro el sistema de la mecánica en física, de otro el sistema conductista o
el psicoanálisis en la psicología, etc. En efecto, un caso particular de sistema formal es un
sistema hipotético-deductivo, vale decir una teoría científica, y un caso particular de teoría
científica es por ejemplo el psicoanálisis.
Existe una tendencia en muchos científicos a formular sus teorías en términos de un sistema
formal, lo cual presenta algunas ventajas como las siguientes:
a. otorgan al discurso científico mayor claridad y precisión al prescindir de significaciones
emotivas o modismos engañosos;
b. ordenan el pensamiento según un orden explícito, imprescindible en la sistematización del
conocimiento, lo que además redunda en una economía de pensamiento;
c. no va contra la intuición, sino que al contrario ayuda a ésta evitando que incurra en
antinomias (contradicciones, callejones sin salida) o ayudándola a resolverlas. Después
de todo, preguntarse qué es más importante, si la lógica o la intuición para el avance del
conocimiento, es lo mismo que preguntarse cuál de las dos piernas es más importante
para caminar.
Notas
(1) Esta es la definición habitual de consistencia, es decir, entendida como ausencia de contradicción. En realidad, para un sistema
formal esta definición es en principio criticable, ya que el hecho de hablar de contradicción presupone que las fórmulas del sistema
pueden ser verdaderas o falsas, lo cual a su vez presupone que tales fórmulas tienen algún significado, cosa que hemos descartado
para los sistemas formales (salvo que arbitrariamente llamemos 'verdadera' a toda fórmula derivable y 'falsa' a toda fórmula no
derivable del conjunto de axiomas). La consistencia debe entonces definirse mas bien como la propiedad de todo sistema formal por la
cual es imposible encontrar en él fórmulas no derivables de los axiomas, lo cual está más relacionado con la propiedad de la
completitud.
Incidentalmente, estos sistemas formales tan abstractos donde ni siquiera se contempla la posibilidad de la contradicción podrían
servir punto de referencia para formalizar la lógica del inconciente, donde la contradicción tampoco existe. Después de todo, el
inconciente es un producto del proceso secundario (de la inteligencia de Freud) para dar cuenta de un proceso primario (el de sus
pacientes).
(2) Se llama modelo de un sistema formal a todo conjunto de objetos que permiten obtener interpretaciones adecuadas del mismo. Por
ejemplo, el modelo geométrico, que proporciona como objetos puntos, rectas y planos. Una vez interpretado, el sistema formal deja de
ser un modelo puramente sintáctico, y se constituye en un modelo semántico. Un sistema formal puede tener varios modelos distintos
que lo satisfagan, y por esa razón será más fecundo o fructífero. Los diversos modelos que son interpretaciones distintas del mismo
sistema formal se dice que son isomorfos entre sí, y de este modo, aspectos de la realidad dispares entre sí podrían ser estudiados
por un mismo sistema formal.
(3) Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición, página
204.
(4) El listado de reglas de inferencia sirve cuando utilizamos la prueba de validez llamada 'método demostrativo', y el procedimiento
mecánico se aplica cuando utilizamos por ejemplo la 'prueba del condicional asociado' (ver Validez, Prueba de).
(5) Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969, página 67.
(6) Es importante que los elementos del sistema carezcan de significación, para que podamos derivar con la mayor libertad posible
una fórmula de otras, sin estar influenciados por esos significados. Por ejemplo, si en lugar de decir 'A se deriva de B', otorgo
significados a A y B y digo 'que un perro es un perro se deriva de un perro no es un perro', estaré más expuesto a dudar de la regla de
transformación que he elegido, y los mismos significados limitarán la cantidad o variedad de estas reglas que puedo inventar
arbitrariamente.
Lecturas complementarias
Strawson P, "Introducción a una teoría de la lógica", Buenos Aires, Nova, 1969. Capítulo 2, punto 3: "El sistema".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 12, punto B: "Metodología de
las ciencias formales".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 7,
punto 71: "El método de las ciencias formales".
21. TÉRMINO
Expresión que remite a un concepto, idea o significado, y de la cual carece de sentido decir
que es verdadera, falsa, probable, válida o inválida. Después del razonamiento y el
enunciado, constituye la más simple de las tres estructuras lógicas básicas.
i. Generalidades. Los términos son unidades de significación: "hombre" significa algo, es decir,
remite a un concepto o idea.
En general, se considera que el concepto es el significado y el término es el significante que le
corresponde. Por ejemplo, la idea de elefante (concepto) se expresa mediante la palabra
"elefante" (término). Pero como a la lógica le interesa más la forma que los contenidos,
finalmente se terminará reemplazando el término "elefante" por alguna letra como S o P, si
seguimos la tradición aristotélica (ver Simbolización), letras que también cabe calificarlas como
términos.
Los términos no son ni válidos o inválidos ni verdaderos o falsos: simplemente son. Si yo digo
"perro" esto no es ni verdadero ni falso, pero si digo "este animal es un perro" ahora sí tiene
sentido decir que es verdadero o falso, pero esta expresión ya no es un término sino un
enunciado.
Todas estas características de los términos y sus diferencias con el enunciado y el
razonamiento aparecen sintetizadas en el esquema que acompaña al artículo Estructura
lógica.
ii. Clasificación. En lógica, existen diversas clasificaciones de los términos, pero citemos
solamente tal vez la más importante, según la cual los términos pueden ser objetivos y
funcionales, y dentro de éstos últimos, a su vez, pueden ser intra-proposicionales e inter-
proposicionales.
a. Términos objetivos son los que designan objetos o cualidades de objetos, como
"hombre", "mortal", etc. Constituyen, por tanto, el contenido o tema del enunciado o
razonamiento del que forman parte.
b. Los términos funcionales, en cambio, y como su nombre lo indica, no se refieren a
cosas o cualidades sino que se limitan a cumplir una función dentro del enunciado o el
razonamiento. Por ejemplo: "es", "son", "todos", "por lo tanto", etc.
Los términos funcionales pueden ser intra-proposicionales e inter-proposicionales.
* Términos Intra-proposicionales. Como su nombre lo indica, los intra-
proposicionales están incluidos dentro de una proposición. Por ejemplo dentro de la
proposición "Todos los hombres son mortales" encontramos a "todos" y a "son" como
22. VALIDEZ
La cuestión no es sin embargo tan simple como parece. Copi señala, por ejemplo, que el
hecho de que la premisa sea verdadera no determina que el razonamiento sea válido, ni el
hecho de que la premisa sea falsa determina que el razonamiento sea inválido, como así
tampoco el que un razonamiento sea válido no determina que la conclusión sea verdadera.
El esquema que acompaña este artículo pretende introducir un poco de claridad en estas
cuestiones. Si la validez o la invalidez depende de la verdad o la falsedad de premisas y
conclusión, empecemos por ubicar las únicas cuatro posibilidades entre ellas, numeradas en el
esquema de 1 a 4: VV, VF, FV y FF. Como se puede observar, para cada uno de estos casos
hay ejemplos de razonamientos válidos tanto como de razonamientos inválidos, excepto para
caso 2, donde es imposible dar un ejemplo de razonamiento válido con premisas verdaderas y
conclusión falsa, lo que apunta precisamente a la definición de validez que hemos señalado.
El ejemplo 7 muestra que un razonamiento puede ser válido aunque las premisas y la
conclusión sean falsas. Este razonamiento es válido porque 'si' las premisas fuesen
verdaderas, también debería serlo forzosamente la conclusión. El ejemplo 5 nos muestra, por
su parte, que un razonamiento puede ser válido aunque obtenga verdades a partir de
falsedades. Otro ejemplo del mismo tipo puede ser este: "10=6; 3+7=6; por lo tanto, 10=3+7".
Finalmente el ejemplo 2 nos muestra que a pesar de que un razonamiento tenga premisas y
conclusiones verdaderas, puede ser inválido.
Por último, dejemos aclarado que se considera verdadero al conjunto de premisas cuando
todas ellas son verdaderas, y que se considera falso al conjunto de las premisas cuando al
menos una de ellas es falsa.
Esta breve introducción al problema de la validez en lógica puede completarse con algunas
consideraciones sobre necesariedad, probabilidad, incompatibilidad, verdad empírica, verdad
por convención, verdad lógica y consistencia, que esperamos ayuden al lector a terminar de
redondear la idea de validez.
Posibilidades de razonamientos válidos e inválidos
N° PREMISAS CONCLUSIÓN RAZONAMIENTO VALIDO RAZONAMIENTO INVALIDO
Ejemplo 1 Ejemplo 2
1 V V Todos los planetas giran en torno al sol Todos los perros son vertebrados
Nada que gire en torno al sol es un quasar Algunos vertebrados ladran
Ningún quasar es un planeta Todos los perros ladran
Ejemplo 3 Ejemplo 4
NO HAY NINGÚN EJEMPLO DE Todos los perros son vertebrados
2 V F RAZONAMIENTO VALIDO CON Algunos vertebrados maúllan
PREMISAS VERDADERAS Y Todos los perros maúllan
CONCLUSION FALSA
Ejemplo 5 Ejemplo 6
3 F V Todo triángulo tiene cuatro lados Todos los perros son reptiles
Nada de cuatro lados es un cuadrado Algunos reptiles ladran
Ningún cuadrado es un triángulo Todos los perros ladran
Ejemplo 7 Ejemplo 8
Todo múltiplo de dos es un número par Todos los osos son mamíferos
4 F F Ningún número par es múltiplo de cuatro Algunos mamíferos son invertebrados
Ningún múltiplo de cuatro es múltiplo de Todos los osos son invertebrados
dos
ii. Necesariedad, probabilidad, incompatibilidad. Son tres maneras en que, en principio,
pueden estar relacionadas las premisas con la conclusión. Veamos estos tres ejemplos en
razonamientos simplificados:
"Todas las aves vuelan;
(3) La validez depende de cuestiones formales, mientras que la invalidez puede depender de cuestiones formales, como en las
falacias formales, o de otras cosas, como en las falacias no formales (ver Falacia).
(4) Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición, página 399. El autor dice, por ejemplo: "Los
razonamientos analógicos no pueden clasificarse como 'válidos' o 'inválidos'. Todo lo que se pretende de ellos es que tengan una
cierta probabilidad".
(5) Estos ejemplos son desde ya casi infinitos, pero sin embargo no es preciso analizar cada uno de ellos (tampoco se podría) para ver
si hay algún ejemplo con premisas verdaderas y conclusión falsa o no. Afortunadamente contamos con procedimientos mecánicos
como el método del condicional asociado (ver Lógica Proposicional, punto 2), donde puede advertirse que todos los casos posibles no
son todos los casos posibles de razonamientos, sino todos los casos posibles de formas de razonamiento, que en el ejemplo que
dimos de la prueba se limitan a cuatro casos (cuatro hileras).
Lecturas complementarias
Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9° edición. Capítulo 11: "La verdad".
Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada, 1979. Capítulo 6, punto 5: "Validez e
invalidez de los razonamientos deductivos". Capítulo 14: "Nociones sobre teoría de la verdad".
Salama Alicia, "Lógica simbólica y elementos de metodología de la ciencia", Buenos Aires, El Ateneo, 1979, 3° edición. Capítulo 2,
punto 12: "Los razonamientos válidos".
Quine W, "Filosofía de la lógica", Madrid, Alianza Editorial, 1973. Capítulos 3, 4 y 7: "Verdad", "La verdad lógica" y "El fundamento de
la verdad lógica". La definición de Quine sobre validez (que él denomina verdad lógica), aparece sintetizada en la página 106, al final
del capítulo 4.
i. Generalidades. Por lo menos en dos casos puede quedar justificado el empleo de las pruebas
de validez:
a. Cuando sospechamos que la validez o la invalidez depende de la forma del razonamiento,
y no de su contenido u otras consideraciones psicológicas. En este último caso
sospechamos que puede existir una falacia no formal, y entonces recurrimos a otros
medios para constatarla (ver Falacia). Los razonamientos que son válidos o inválidos por
su forma son los razonamientos deductivos, por lo cual no emplearemos tampoco pruebas
de validez en el caso de razonamientos inductivos o analógicos, cuya evaluación se hace
mediante constataciones extra-lógicas (ver Razonamiento no deductivo).
b. Cuando el razonamiento es lo suficientemente complejo como para no poder constatar a
simple vista su validez o invalidez, o bien cuando, siendo un razonamiento simple,
sospechamos que nuestra intuición puede no ser una segura guía para evaluarlo. Frente
al razonamiento "Todos los animales son mamíferos. Por lo tanto, todos los perros son
mamíferos, puesto que los perros son animales", podemos pensar que es bastante
sencillo de comprobar 'a simple vista' su validez, pero no siempre tendremos
razonamiento tan sencillos para analizar.
ii. Ejemplos. Prácticamente la primera prueba de validez que se conoce pertenece a Aristóteles,
cuando estableció que se podía determinar la validez de los silogismos examinando si
respetaban o no ciertas reglas definidas por él. Esas pruebas tienen hoy un interés histórico, y
fueron reemplazadas por otras más útiles y que además podían aplicarse a otros
razonamientos no silogísticos.
Una lectura sistemática de esta obra implica utilizarla como un manual en el sentido clásico
(en oposición a su empleo como simple diccionario). Para este abordaje sistemático, el
lector podrá comenzar con el artículo "Bertalanffy, Ludwig von", y desde allí hasta llegar al
último, "Ecología". En la siguiente secuencia general, el lector puede visualizar
rápidamente todo el trayecto de este ordenamiento:
• Entre los métodos utilizados por la TGS, está la inducción, en la cual tiene un papel
sobresaliente la observación.
01. ADAPTACIÓN
medios, hasta estabilizarse o alcanzar el equilibrio cuando ya no entre el conflicto con valores
críticos del medio circundante. La expresión 'funciones escalonadas' alude la hecho de que,
cuando el sistema atravesó un estado crítico, emprende un nuevo modo de comportamiento.
Otro ejemplo es la computadora autoprogramable.
En los animales también encontramos mecanismos homeostáticos de adaptación, donde se
busca retornar al equilibrio original, pero von Bertalanffy aclara que la actividad del organismo
viviente va más allá de esta simple adaptación, pues busca siempre nuevas estimulaciones
que lo desequilibren y lo hagan tender al estado uniforme, que es esencialmente un estado de
desequilibrio permanente. Indica el mismo autor que, si luego de perturbada desde afuera, la
vida volviera ni más ni menos a un simple equilibrio homeostático, nunca habría progresado
más allá de la ameba, que después de todo es el animal mejor adaptado del mundo puesto
que ha podido sobrevivir miles de millones de años.
Por tanto, si extendemos la idea de adaptación más allá de los simples comportamientos
destinados a preservar la vida, incluiremos también todos aquellos comportamientos que,
como el arte, la religión, la creatividad y la cultura en general, no tienen la finalidad utilitaria de
la supervivencia pero que se han convertido en característica esencial de la especie humana.
Considerada como adaptación en sentido estricto, la creatividad es un fracaso (los poetas se
mueren de hambre o, como diría von Bertalanffy, al señor Fulánez le va mejor, desde el punto
de vista utilitario, que a Beethoven o a Miguel Angel).
En suma: si bien von Bertalanffy no termina de aclarar los alcances del concepto de
adaptación, podemos inferir a partir de sus afirmaciones un sentido estricto (adaptación como
tendencia hacia un equilibrio homeostático) y una sentido amplio (que incluye además la
tendencia hacia un estado de desequilibrio más propio de las actividades no utilitarias, como
por ejemplo el arte). El ser humano que, por diversas circunstancias esté imposibilitado por
realizar estas últimas actividades 'desequilibrantes', habrá reducido sus comportamientos
adaptativos al esquema homeostático, y se habrá transformado en una especie de autómata,
'adaptado' pasivamente al entorno social que le tocó vivir.
02. AMBIENTALISMO
cuando advertimos que aún los seres vivos más sencillos tienen diferencias entre ellos, lo que
hace que, aún cuando reciban las mismas influencias ambientales, habrá otros factores
individuales que producirán conductas diferentes. El modelo del robot sólo abarca parte del
comportamiento animal, y no cubre en absoluto ninguna porción esencial de la conducta humana.
Los otros tres principios que aparecen en el modelo del hombre-robot son el principio de estímulo-
respuesta, el principio de equilibrio y el principio de economía.
04. ANALOGÍA
a. En sentido general, analogía es la relación que se establece entre dos o más cosas en
virtud de una o varias características en común.
b. En el contexto de la TGS, las analogías son similitudes superficiales entre fenómenos
que no se corresponden ni en factores causales ni en las leyes pertinentes.
i. Definición general. Dos o más cosas son análogas cuando tienen algo en común. Por
ejemplo, entre un globo y una naranja hay una analogía, ya que ambos comparten una
característica en común, como puede ser la redondez.
ii. Analogía y TGS. En el marco de su discusión del concepto de isomorfismo, von Bertalanffy
establece una diferencia entre tres niveles en la descripción de los fenómenos: las analogías,
las homologías y las explicaciones.
Demos aquí algunos ejemplos de analogías, consideradas por la TGS como inútiles para la
ciencia y perniciosas en sus consecuencias prácticas:
a. El crecimiento de un organismo y el crecimiento de un cristal son fenómenos análogos
por presentar parecidos superficiales, pero no siguen las mismas pautas de crecimiento y
las leyes que los rigen son diferentes;
b. un bosque y un organismo se parecen superficialmente por ser conjuntos de muchas
unidades (árboles y células), pero existe evidente diferencia entre la unificación de un
organismo y la vaguedad de una asociación vegetal;
c. el desarrollo de una población y el de un organismo son también analogías, y como tales
presentan solamente semejanzas superficiales;
d. von Bertalanffy discute especialmente la "analogía organísmica", que se establece entre
la evolución de un organismo y la de una civilización, como lo hizo el historiador
Spengler, sobre la base de que ambos nacen, crecen y acaban por morir (nuevamente
semejanzas superficiales).
05. ANTROPOLOGÍA
i. La antropología y sus variedades. Generalmente suelen distinguirse tres grandes tipos (1)(4):
a. La antropología física, que estudia las características físicas del hombre como especie:
sus orígenes, sus variedades raciales, etc., para lo cual emplea típicamente métodos
antropométricos. Es la antropología más directamente emparentada con la biología.
b. La antropología cultural, en lugar de estudiar al hombre como entidad natural, como en
el caso anterior, se centra en él mas bien como entidad cultural, y por ello estudiará las
culturas humanas en sus diversas manifestaciones como la familia, las costumbres, los
mitos, y tradiciones, el lenguaje, etc.
c. La antropología filosófica, si los dos tipos anteriores constituían estudios científicos,
ésta última procurará un enfoque más teórico, general y especulativo sobre la condición
humana, e intentará, por ejemplo, desentrañar la 'estructura fundamental' del ser humano
o su 'naturaleza última'.
Más allá de esta clasificación tradicional de los estudios antropológicos, hay otras variedades
menores y más recientes tales como la antropología política, la antropología económica o la
antropología ecológica (2).
ii. Antropología cultural y enfoques sistémicos. Hay dos formas en que puede relacionarse el
enfoque sistémico con la antropología:
a. Empleo de conceptos antropológicos para justificar o fundamentar una TGS: esta tarea
es encarada específicamente por von Bertalanffy, cuando utiliza la idea de 'categoría',
empleada en antropología, como concepto que permite justificar un enfoque sistémico, ya
que la idea de 'sistema' es en sí misma una categoría universal (ver Categoría,
Perspectivismo).
b. Empleo de conceptos del enfoque sistémico para encarar estudios antropológicos:
existen numerosos y variados planteos por comprender los hechos antropológicos a la luz
del paradigma sistémico. Uno de ellos (3), por ejemplo, intentó una analogía orgánica, es
decir, comparar en algunos aspectos los sistemas sociales y culturales con organismos
biológicos, habida cuenta que estos últimos -y por ende también los primeros- pueden ser
concebidos como sistemas. Al respecto:
1. se concibe el sistema social y cultural como una serie de redes de comunicación,
2. se estudian, más que las entidades, sus mutuas relaciones, y
3. se privilegia en el estudio de la organización del sistema antes que otros aspectos.
Según Quintanilla (2), el análisis de sistemas tiene la enorme ventaja de permitirnos tratar los
fenómenos teleológicos de un modo no antropomórfico, y tiene aplicaciones importantes en
antropología política, económica y ecológica.
Existen algunos planteos de índole sistémica bastante representativos, como por ejemplo los de
Gregory Bateson y los de Claude Lévi-Strauss, éste último fundador de la antropología estructural.
Los planteos estructuralistas europeos en general (como el de Lévi-Strauss) presentan notables
similitudes con los planteos sistémicos anglosajones y, si bien utilizan diferentes etiquetas
principales ('estructura' y 'sistema', respectivamente), ambos apuntan a la comprensión de la
realidad sobre la base de la idea de elementos mutuamente interactuantes que conforman una
totalidad organizada y relativamente independiente y autónoma. En efecto, el mismo von
Bertalanffy reconoce un paralelismo entre el desarrollo de la TGS y las corrientes estructuralistas
francesas, como las de Piaget o Lévi-Strauss.
Referencias
(1) 4. Quintanilla M. (comp.), Diccionario de filosofía contemporánea, Salamanca, Ediciones Sígueme, 1979, 2° Edición, pág. 27.
(2) Quintanilla M., op. cit., pág. 33.
(3) Quintanilla M., op. cit., pág. 32.
(4) Ferrater Mora J., Diccionario de filosofía, Madrid, Alianza, 1979, pág. 171.
06. AUTO-
Prefijo que, en el contexto de la TGS, expresa la idea según la cual los sistemas, una vez
que reciben aportes de información o energía del entorno, pueden generar y mantener una
actividad propia en virtud de sus peculiares características como tales. Ejemplos:
Autoorganización, auto mantenimiento, auto orientación, auto dirección, autorregulación,
etc.
Actividades propias son actividades que realiza el sistema en forma relativamente independiente
del medio. En tal sentido, son llevadas a cabo tanto en sistemas cerrados como en sistemas
abiertos, con las semejanzas y las diferencias que a continuación se detallan:
i. En sistemas cerrados, como por ejemplo un sistema cibernético, se verifican únicamente
procesos de autorregulación, como por ejemplo el mecanismo homeostático (ver
Homeostasis y Retroalimentación). Téngase presente que estos sistemas, si bien son
designados como 'cerrados' por von Bertalanffy, por ser cerrados respecto de la energía o de
la entropía, son en cambio abiertos desde el punto de vista de que a ellos ingresa
información, y la información no siempre es energía. El mecanismo autorregulador se pone en
marcha, entonces, cuando ingresa cierto tipo de información al sistema.
ii. En sistemas abiertos, también encontraremos mecanismos de autorregulación, pero estos
por sí solos no alcanzan a caracterizarlos. Los sistemas abiertos exhiben además, como
características sui generis, la auto restauración y el automantenimiento, la auto orientación, la
auto dirección, y/o la autoorganización y la auto diferenciación (ver Regulación).
a. Auto restauración y auto mantenimiento. Mientras las máquinas artificiales cumplen
una única función utilitaria para el hombre, los sistemas vivos están organizados para
cumplir una función utilitaria 'para sí mismos', es decir, están organizados de tal forma
que se mantienen y restauran a sí mismos (automantenimiento, auto restauración), como
por ejemplo mediante la homeostasis.
Las tendencias auto restauradoras de los sistemas organísmicos estarían vinculadas al
hecho de que la autorregulación resulta de la interacción entre muchos componentes,
como sucede por ejemplo en los embriones, a diferencia de las máquinas, donde hay
conexiones causales circulares aisladas que solo permiten regulaciones frente a
perturbaciones muy limitadas. El organismo, en cambio, puede autorregularse para
compensar perturbaciones 'arbitrarias', es decir para compensar un número indefinido de
situaciones que no pudieran haber sido 'previstas'.
b. Auto orientación y auto dirección. Detrás de todos los términos con el mismo prefijo
que estamos enumerando subyace la idea de un mecanismo teleológico, orientado hacia
un fin. En las expresiones auto orientación y auto dirección se ve más claramente tal
mecanismo, utilizadas ambas por von Bertalanffy cuando habla de sistemas y organismos
que se auto orientan, o de personalidades que se auto dirigen.
c. Auto organización y auto diferenciación. Los sistemas capaces de auto diferenciarse y
auto organizarse son los sistemas abiertos. Al evolucionar hacia grados crecientes de
complejidad (entropía decreciente) son, por razones termodinámicas, sólo posibles como
sistemas abiertos, a sea como sistemas que reciban del entorno materia portadora de
energía libre en grado que sobrecompense el aumento de entropía debido a procesos
irreversibles dentro del sistema (ver Entropía). Esto es cierto tanto si tomamos
'organización' como pasaje de un estado no organizado a otro organizado (del huevo
cigota al organismo final), tanto si lo tomamos como pasaje de un estado de 'mala'
08. BIOLOGÍA
Ciencia que se ocupa del estudio de los seres vivos. La biología moderna ha ampliado y
profundizado estos estudios al hacer hincapié en los seres vivos como organismos, vale
decir, como sistemas abiertos que intercambian permanentemente materia y energía con el
medio.
i. Hacia una definición del ser viviente (1). La biología no dispone de una definición de vida.
En sus comienzos, esta ciencia se limitaba a enumerar ciertas características que permitían
distinguir al ser vivo del ser inanimado, tales como el crecimiento, la reproducción, el
metabolismo, la irritabilidad, el movimiento, la complejidad y la adaptación. Hoy en día nuevas
investigaciones, sobre todo en el área de la biofísica y la bioquímica, han destacado que las
propiedades más sobresalientes del ser vivo son la capacidad de crecer (incluyendo su
regeneración) y la de reproducirse, mientras que las restantes características antes citadas
resultan secundarias en relación a las anteriores. Por ejemplo, una máquina creada por el
hombre puede exhibir un cierto grado de adaptación, como el homeóstato o la computadora
autoprogramable, pero es incapaz de crecer y reproducirse. Von Bertalanffy insiste en que la
persecución de metas en el sentido del mantenimiento, la producción y la reproducción de la
totalidad orgánica, constituye un criterio general de vida.
09. CAOS
La concepción mecanicista concibió al mundo como caos, es decir, como el resultado del
movimiento ciego o azaroso de los átomos que generaron, con su multiplicidad, un orden y
una regularidad de tipo estadístico. En oposición a este punto de vista, la TGS busca otro
modo esencial de ver las cosas: el mundo como organización.
número 'infinito' de procesos aleatorios, como pasa con la mecánica estadística, el segundo
principio de la termodinámica y todas las leyes que de él emanan.
El triunfo irrebatible de tales conceptos y métodos en física y astronomía, y luego en química,
dio a la biología y la psicología su orientación preponderante: el juego sin concierto de los
átomos generaba todos los fenómenos del mundo, inanimado, viviente y mental, no quedando
lugar para ninguna direccionalidad o finalidad en los acontecimientos. El mundo de los
organismos aparecía como producto del azar, amasado por el juego sin sentido de
mutaciones azarosas y selección, y el mundo mental como un curioso epifenómeno bastante
inconsecuente de los acontecimientos materiales.
Si para el mecanicismo los fenómenos son una consecuencia estadística de un número
infinito de procesos aleatorios, para la TGS, que propone al mundo como organización, no
como caos, éste debe verse como una interacción entre un número grande, pero no infinito,
de elementos o procesos. Aquí surgen los problemas circunscriptos por nociones como las de
totalidad, organización, etc., inabordables según aquellos modos clásicos de pensamiento.
ii. Teoría del caos. La más actual llamada 'teoría del caos' o del 'efecto mariposa', apenas
mencionada específicamente por von Bertalanffy, resulta ser otro intento humano por ordenar
lo caótico. No es casualidad que tal teoría haya surgido en el seno de la meteorología: ¿hay
algo más caótico e imprevisible que el clima? Edward Lorenz, meteorólogo, estaba
convencido que tal caos era en realidad aparente, y que el hecho de que el aleteo de una
mariposa en el Amazonas podía producir un huracán en Texas, no se debía a un proceso
azaroso o accidental sino necesario y que, si así parecía, era porque pequeñísimas
variaciones en la condiciones iniciales (aleteo de la mariposa) generaban enormes cambios
en las condiciones finales (huracán en Texas) con lo cual toda predicción se tornaba
imposible y el fenómeno adquiría un aspecto de caos y aleatoriedad.
Estos desarrollos, surgidos a partir de la década del '60, son en realidad el reflotamiento de
las ideas de Poincaré, que, entre otras cosas, decía en 1908: "Una causa muy pequeña, que
se nos escapa, determina un efecto considerable que no podemos dejar de ver, y entonces
decimos que tal efecto se debe al azar". Es lo que Mittasch, en 1948 y citado por von
Bertalanffy, designaba como 'causalidad por instigación'.
iii. Caos y sociedad. Von Bertalanffy utiliza el vocablo 'caos' en un segundo sentido, cuando
designa la amenaza que se cierne sobre nuestro mundo, de persistir en nuestro
desconocimiento de las leyes de la sociedad humana. Conocemos bastante bien las fuerzas
físicas, pero poco y nada las fuerzas sociales. Si dispusiéramos de una ciencia de la sociedad
humana bien desarrollada y de su correspondiente tecnología, que von Bertalanffy llama
'tecnología sociológica', habría según este autor un modo de escapar del caos y la
destrucción que amenazan a nuestro mundo actual.
10. CATEGORÍA
Una categoría es un concepto o idea que nos permite organizar nuestro conocimiento del
mundo. Por ejemplo el espacio, el tiempo, la sustancia, la causalidad. Si bien von
Bertalanffy no define explícitamente 'categoría', esta caracterización puede ser considerada
fiel al sentido que este autor usa y menciona.
Se indican tres posturas frente al problema de la determinación de las categorías: 1) la
filosofía kantiana (las categorías son absolutas y universales); 2) la hipótesis de Whorf (las
categorías son relativas y no universales), y 3) el planteo de von Bertalanffy, denominado
por él mismo 'perspectivismo', intermedio entre los dos anteriores.
i. Generalidades. La idea de categoría tiene una larga tradición en la historia de la filosofía, que
se remonta a Aristóteles. Lejos del propósito de hacer una cronología de su evolución,
solamente indicaremos que la categoría, entendida como un concepto que nos sirve para
organizar nuestro conocimiento de la realidad, tiene una gran semejanza con la idea de
categoría en la filosofía kantiana.
Aunque Kant no lo llame así, el espacio es un ejemplo de categoría pues nos permite
organizar las cosas en lugares (más arriba, más abajo, más lejos, más cerca, etc), según
cierto punto de referencia. Lo mismo sucede con la categoría causalidad, que nos permite
relacionar los fenómenos en términos de causas y efectos, con lo cual habremos construido
una imagen para nosotros plausible del mundo.
ii. Determinación de las categorías. Pero, ¿qué es lo que determina las categorías de la
cognición humana? Para responder a esta pregunta, von Bertalanffy refiere tres posibles
respuestas:
a. Kantismo. Según la tesis del filósofo de Könisberg, tanto las llamadas formas de la
intuición (espacio y tiempo), como las categorías del intelecto (sustancia, causalidad,
etc.), se imponen universalmente a cualquier ser racional y son, por tanto, absolutas.
Según esto la ciencia, basada en tales categorías, resulta igualmente universal,
constituyendo así un sistema absoluto de conocimiento aplicable a cualquier fenómeno,
así como a cualquier mente observadora.
Según von Bertalanffy, muchos ejemplos desmitifican esta tesis, como por ejemplo:
1. el espacio euclidiano no es el único posible, habiendo también espacios no
euclidianos, espacios muldimensionales en la física cuántica, etc.
2. la materia sólida, la más trivial de las categorías de la física ingenua, consiste casi
por entero en vacío salpicado de centros de energía.
3. el determinismo como categoría tampoco es universal, en cuanto también existe, en
la física cuántica, el indeterminismo.
b. Relativismo. Un importante representante de esta solución es Benjamín Lee Whorf
(1897-1941). La hipótesis de Whorf sostiene básicamente un relativismo lingüístico: la
estructura del lenguaje es quien determina los modos de pensar de la comunidad que
habla dicho lenguaje. Son las pautas lingüísticas mismas, categorías mediante, las que
determinan lo que un individuo percibe en el mundo y el modo cómo lo piensa u organiza.
Como tales pautas lingüísticas varían considerablemente según cada cultura, éstas
tendrán visiones del mundo básicamente diferentes. Podríamos condensar la hipótesis de
Whorf en los siguientes términos: 'pensamos como hablamos'. Incidentalmente,
aclaramos que von Bertalanffy amplía la idea de Whorf al indicar que así como el
lenguaje influye en nuestra visión del mundo, ésta última también influye sobre el primero,
con lo cual también podríamos afirmar que 'hablamos como pensamos'.
Von Bertalanffy da variados ejemplos tomados del mismo Whorf, pero citemos sólo dos
como muestra.
1. En las lenguas indoeuropeas los sustantivos, adjetivos y verbos aparecen como
unidades gramaticales básicas discernibles en la oración. Por ejemplo "relampagueó
una luz". En cambio en ciertas lenguas indígenas de América, la oración no tiene
partes discernibles, lo que lleva a pensar que aquellos indígenas tienden a ver los
fenómenos del mundo como una unidad indivisa. Por ejemplo "relámpago".
2. Las categorías de espacio, tiempo y materia newtonianos, entre otros, son solamente
'recetas de nuestra cultura y nuestro lenguaje' que nos llevan a organizar el mundo
desde una perspectiva mecanicista. Este modo de pensar es consecuencia de
nuestras categorías y hábitos lingüísticos específicos.
c. Perspectivismo. En la postura que asume von Bertalanffy, las categorías del
conocimiento (tanto del cotidiano como del científico, que en última instancia es un
afinamiento del primero) dependen, primero, de factores biológicos; segundo, de factores
culturales; y tercero, y a pesar de esta 'maraña demasiado humana', es posible en cierto
sentido el conocimiento absoluto, emancipado de las limitaciones humanas. Tal el planteo
perspectivista, que definiremos con mayor precisión más adelante en este mismo artículo.
La cognición humana, así entendida, depende al menos de factores tanto biológicos
como culturales, vale decir que von Bertalanffy sostiene un relativismo biológico y un
relativismo cultural, aunque queda abierta la posibilidad de un conocimiento absoluto.
1. Relatividad biológica de las categorías. La cognición depende, ante todo, de la
organización psicofísica del hombre. El ejemplo prototípico en biología es la
concepción de Jacob von Uexküll (1864-1944), quien sostiene que cualquier
organismo recorta, de los muchos objetos que lo rodean, un número reducido de
características a las cuales reacciona y cuyo conjunto forman su 'ambiente' (Unwelt),
es decir, cada organismo categoriza su entorno de acuerdo a su organización
psicofísica y su condición fisiológica, siendo esto último precisamente el
determinante biológico de sus categorías.
Citemos algunos ejemplos
• Algunos erizos de mar responden a cualquier oscurecimiento ambiental
apretando las espinas. Esta reacción es invariablemente aplicada cuando el
ambiente se oscurece, sea porque pase un pez, su verdadero enemigo, sea
porque pase un bote o una nube. Si cabe la expresión, ha 'categorizado' su
mundo en dos partes: luminoso y oscuro. Otro animal en el mismo lugar físico lo
hubiera organizado de manera distinta, porque es otra su constitución fisiológica.
• El tiempo es experimentado de distinta manera según cada especie (por ejemplo
por tener diferentes sistemas nerviosos), y aún según cada individuo si presenta
condiciones fisiológicas diferentes a otro de su misma especie. Por ejemplo, bajo
la influencia de la mezcalina, las impresiones visuales se intensifican y la
percepción del espacio y el tiempo experimenta cambios profundos. Asimismo,
probablemente las 'categorías' de los esquizofrénicos sean considerablemente
distintas a las normales, lo mismo que las categorías de la experiencia onírica.
• Aún la más fundamental categoría de experiencia, la distinción entre yo y no-yo,
no es absolutamente fija, y parece evolucionar gradualmente en el desarrollo del
11. CAUSALIDAD
Supuesto mecanicista según el cual los fenómenos del mundo mantienen entre sí vínculos
de causa-efecto. Clásicamente, aclararemos, un fenómeno es causa cuando es condición
necesaria y suficiente para que ocurra otro fenómeno, llamado efecto.
12. CENTRALIZACIÓN
Propiedad formal de los sistemas según la cual, a medida que estos evolucionan, ciertas
partes empiezan a constituirse en 'partes conductoras' que dirigirán las funciones de las
restantes, que quedan subordinadas a aquellas. La centralización progresiva, que resulta
particularmente importante en el caso de los sistemas vivos, constituye al mismo tiempo un
proceso de individualización progresiva (ver Individuo/Individualización).
13. CIBERNÉTICA
i. Definición. Norbert Wiener (1894-1964) creó la cibernética como una nueva disciplina para
tratar una gran variedad de fenómenos de la naturaleza viviente y de los sistemas
tecnológicos que utilizan concretamente el mecanismo de la retroalimentación. La teoría
aspira a mostrar qué mecanismos retroalimentadores fundan el comportamiento teleológico o
intencionado de las máquinas construidas por el hombre, así como el de los seres vivos y los
sistemas sociales, para luego, en base a este conocimiento, poder controlar aquellas
máquinas y esos seres vivos y sistemas sociales. Podríamos entonces considerar a la
cibernética como la ciencia del control por retroalimentación (o por feed-back). Precisamente
la etimología del término 'cibernética' nos remite a 'kubernetes', que significa timonel, es decir
individuo que controla el rumbo de un proceso. La cibernética, basada en el principio de
retroalimentación o de líneas causales circulares, es un enfoque sistémico que proporciona
mecanismos para la persecusión de metas y el comportamiento autocontrolado.
ii. Un ejemplo paradigmático. Durante la Segunda Guerra Mundial se había agudizado el
problema del tiro antiaéreo sobre un blanco móvil. En otras palabras, la cuestión era cómo
podía ir moviéndose adecuadamente un cañón para dispararle nada menos que a un avión en
movimiento. Si lo hacía un hombre manualmente, sus probabilidades de derribar el blanco
eran escasas, dada su poca velocidad de reflejos en comparación con la rapidez del avión, y
su poca velocidad de pensamiento para hacer los cálculos correspondientes de las
trayectorias del avión y la bala.
Se hizo necesario entonces construír dispositivos automáticos, es decir que se autorregularan
solos y con gran velocidad: pasado un instante breve de tiempo el avión, al moverse, ya
cambiaba de posición y había que cambiar la dirección del cañón. El dispositivo
autorregulado, por ejemplo, permitía mediante cálculos precisos y automáticos adelantar el
cañón sobre la marcha para derribar el blanco en el lugar y en el instante preciso. Tal
dispositivo funcionaba entonces mediante una retroalimentación eficaz.
Otros ejemplos de dispositivos tecnológicos con este tipo de autorregulación son por ejemplo
los termóstatos, que van corrigiendo sobre la marcha la cantidad de calor entregada al medio
en función de la temperatura de este último (si hay mucha temperatura bajan el calor, y si hay
poca lo suben). La importancia de estos sistemas de retroalimentación reside tal vez en que
sus principios valen tanto para los sistemas artificiales creados por el hombre como también
para los sistemas físicos, biológicos, económicos y sociales, a pesar de ser muy diversos en
cuanto a estructuras y contenidos. La cibernética, ha dicho Wiener, es 'el secreto de la vida',
es una llave que permite pasar del caos a los sistemas, artificiales o naturales, mediante una
organización que les posibilita comportamientos orientados hacia un propósito.
En todo sistema retroalimentado la información es fundamental, ya que el mecanismo
funciona bien si está la información correcta en el momento oportuno. Esa información debe
captarse mediante ciertos sensores como los radares (en el tiro asntiaéreo) o los termómetros
(en el caso del termóstato); luego debe realimentarse hacia los centros de control donde será
procesada con el fin de dar una respuesta, orden o señal que permitirá corregir el proceso
sobre la marcha.
iii. Reseña histórica. Antes del surgimiento oficial de la cibernética con Wiener en 1948, ya
investigadores como Wagner aplicaban el principio de la retroalimentación a los procesos
14. CIENCIA
moderna subsiste aún la excesiva especialización que hace que el físico, el biólogo, el
psicólogo y el científico social estén encapsulados en universos privados, sin posibilidad
de una comunicación fecunda entre esos compartimientos, por estudiar 'cosas diferentes'.
Precisamente, señala von Bertalanffy, la adopción del punto de vista de la TGS permitirá
la unificación de las ciencias a partir de un lenguaje y de un conjunto de ideas en común,
tal como la idea de sistema, lo cual nos lleva al problema de la unidad de la ciencia.
ii. Unidad de la ciencia. Para von Bertalanffy, la unificación de las ciencias no pasa por una
solución reduccionista, donde se reducen todos los niveles de la realidad al nivel físico (y por
ende todas las ciencias a la física), sino por una solución más realista que implica unificar las
ciencias sobre la base de un isomorfismo de las leyes en las diferentes ciencias particulares
(ver Isomorfismo y Perspectivismo). Así, el hecho de que ciertos principios se apliquen a
los sistemas en general sin importar la naturaleza de los mismos ni las entidades que se se
trate, explica que aparezcan en diferentes campos de la ciencia concepciones y leyes que se
corresponden, provocando el notable paralelismo que hay en su desarrollo moderno, así
como la tendencia cada vez más creciente hacia las investigaciones interdisciplinarias.
Von Bertalanffy asigna dos sentidos a la expresión 'ciencia de los sistemas'. La primera hace
hincapié en el estudio de los sistemas naturales, y la segunda en la construcción y aplicación de
los sistemas creados por el hombre (máquinas).
i. Desde el punto de vista del Estudio de los Sistemas Naturales. La Ciencia de los
sistemas es uno de los tres aspectos principales de TGS en sentido amplio, junto a la
Tecnología de los sistemas y la Filosofía de los Sistemas (ver Teoría General de los
Sistemas). Su objetivo es explorar los numerosos sistemas de nuestro universo observado,
basándose en los principios generales de la TGS, vale decir, los diferentes sistemas que
aparecen en las ciencias particulares como la biología, la psicología, etc., para lo cual no sólo
examina las propiedades generales y comunes de todos los sistemas (isomorfismo) sino
también explora las especificidades propias de cada tipo de sistema en particular.
El desarrollo de la ciencia de los sistemas, en cualquiera de los dos sentidos de esta
expresión, está emparentado con el desarrollo de los diferentes enfoques de sistemas (ver
Enfoques de Sistemas).
ii. Desde el punto de vista de la construcción y aplicación de sistemas creados por el
hombre. La Ciencia de los sistemas se ocupa sobretodo, aunque no únicamente, de la
aplicación práctica de los principios generales de la TGS a la construcción y manejo de
sistemas artificiales. Desde esta perspectiva, la ciencia de los sistemas incluye los siguientes
campos:
a. Ingeniería de sistemas. Se ocupa de la concepción, planeamiento, evaluación y
construcción científicos de sistemas hombre-máquina. A tal efecto recurre a la
cibernética, a la teoría de la información y a la TGS en sentido estricto.
16. COMPETENCIA
Propiedad formal de los sistemas según la cual sus elementos componentes procuran
captar para sí los recursos disponibles a expensas o en detrimento de los otros
componentes. La idea de vincula con expresiones tales como 'lucha por la existencia',
'lucha entre partes', etc., y en última instancia revelan la estructura de la realidad como
'coincidentia oppositorum'.
17. COMPORTAMIENTO
Si bien fue en psiquiatría donde más decididamente se han adoptado estos planteos,
numerosos ejemplos de nuevas corrientes psicológicas y psicopatológicas expresaron
estas nuevas tendencias: las diversas escuelas neofreudianas, la psicología del yo, las
teorías de la personalidad (Murray, Allport), la psicología europea del desarrollo del niño
(Piaget, Werner, Bühler), el 'new look' en percepción, la autorrealización (Goldstein,
Maslow), la terapia centrada en el cliente (Rogers), las actitudes fenomenológicas y
existenciales, los conceptos sociológicos del hombre (Sorokin), etc., y también la obra de
pensadores como Anderson, Arieti, Brunswik, Lennard y Berstein, Menninger, Miller y
tantos otros.
Casi todos ellos se han referido a la TGS o a una parte de ella, es decir, han renunciado
a considerar al hombre como un autómata reactivo o un robot, y empezaron a
considerarlo más en términos de un 'sistema activo de personalidad'.
Esto implicó una orientación holista en psicología. Antes solían reducirse los
acontecimientos mentales a un manojo de sensaciones, pulsiones, reacciones innatas o
aprendidas, o cualesquiera elementos últimos fuesen presupuestos teóricamente. En
contraste, el concepto de sistema procura estudiar al organismo psicofisiológico con un
todo, como puede apreciarse en las nuevas corrientes organísmicas y humanísticas, que
han puesto en énfasis en el lado creador del hombre, en la importancia de las diferencias
individuales, en aspectos que no son utilitarios y que están más allá de los valores
biológicos de subsistencia y supervivencia.
ii. Tipos de comportamiento. Mencionaremos en este apartado algunas clasificaciones del
comportamiento que establece von Bertalanffy en su texto básico.
a. Comportamiento animal y comportamiento humano. Sus diferencias más
significativas son las siguientes:
1. Por paradójico que pueda resultar, los animales actúan bajo el principio de
racionalidad, es decir, funcionan de modo 'raciomorfo', maximizando valores como la
preservación, la satisfacción, la supervivencia, etc., y escogiendo en general lo que
es biológicamente bueno para ellos. Prefieren más cantidad de un bien (por ejemplo
comida), que menos. El ser humano en cambio no sigue este criterio. Así por ejemplo
las mujeres en el supermercado no suelen maximizar su provecho y caen bajo la
influencia de la publicidad; no hacen una elección racional revisando todas las
posibilidades y consecuencias, y ni siquiera prefieren más cantidad de un producto
envuelto discretamente que menos de lo mismo, pero metido en una gran caja roja
con un dibujo atractivo. Existen en la sociedad ciertos especialistas influyentes
(publicistas, etc.) que se ocupan de hacer 'irracionales' las elecciones, sobretodo
acoplando factores biológicos (reflejos condicionados, pulsiones inconcientes) a
valores simbólicos.
2. Una segunda diferencia guarda relación con el carácter finalista del comportamiento.
Tanto en los animales como en los humanos, como sistemas abiertos que son, su
conducta está regida por la equifinalidad (ver Equifinalidad), pero en el caso
especial del hombre existe, además, lo que se llama intencionalidad, idea que
presupone que la meta futura de la conducta está ya presente en el pensamiento y
que está dirigiendo la acción presente. La verdadera intencionalidad es característica
del comportamiento humano y está vinculada con la evolución del simbolismo del
lenguaje y los conceptos.
18. CRECIMIENTO
Propiedad formal de los sistemas según la cual el número de sus elementos presentes
variará a lo largo del tiempo. El crecimiento puede ser positivo o negativo, según que
aumente o disminuya dicho número. Esta propiedad ha sido estudiada en forma especial
por von Bertalanffy en los sistemas biológicos, donde elaboró un modelo de crecimiento
que lleva su nombre.
i. Ecuaciones de crecimiento. Existen en matemática cierto tipo de ecuaciones que, por ser
aplicables a situaciones empíricas donde se verifica crecimiento, son llamadas ecuaciones de
crecimiento. La identidad formal de distintas leyes en diferentes territorios (biología,
demografía, economía, etc.) respecto de las ecuaciones generales de crecimiento contribuye
a justificar una TGS o, en otras palabras, a mostrar la presencia de uniformidades formales en
la naturaleza. En efecto, diferentes leyes de distintos territorios tienen en realidad la misma
forma (identidad formal) o si se quiere pueden representarse mediante las mismas curvas de
crecimiento.
Dos de estas leyes, expresables en términos de ecuaciones, son la ley exponencial y la ley
logística. Ellas expresan las formas más sencillas de crecimiento en función del tiempo
transcurrido, razón por la cual se prestan mejor a exhibir el isomorfismo o correspondencia
entre leyes en diferentes campos. Prescindiremos aquí de las notaciones matemáticas,
formulando una apreciación intuitiva de las mismas utilizando ejemplos prácticos y gráficos de
curvas.
a. Ley exponencial. Ley según la cual el crecimiento de un sistema es exponencial. El
crecimiento puede ser positivo si el número de elementos aumenta con el tiempo, o
negativo si decrece con el tiempo, pero en ambos casos en forma exponencial. Por
ejemplo, para un caso simple de crecimiento positivo, al cabo de 1 segundo, puede haber
2 elementos, al cabo de 2 segundos habrá 4 elementos, al cabo de 3 segundos habrá 8
elementos, y así sucesivamente, todo lo cual puede representarse mediante el tipo de
curva exponencial para crecimiento positivo. Del mismo modo, hay una curva exponencial
para crecimiento negativo, que sigue las mismas pautas que la anterior, pero a la inversa.
Ámbitos de aplicación de la ley exponencial de crecimiento positivo: El aumento del
capital por interés compuesto; el crecimiento individual de ciertas bacterias y animales;
multiplicación sin restricciones de poblaciones vegetales o vegetales, siendo el caso más
sencillo la multiplicación de bacterias al dividirse cada individuo en dos, que dan cuatro,
etc.; la ley de Malthus del crecimiento ilimitado de una población cuya tasa de natalidad
es superior a la de mortalidad; el aumento del conocimiento humano medido en páginas
de texto dedicadas a descubrimientos científicos, etc.
Ámbitos de aplicación de la ley exponencial de crecimiento negativo: desintegración
radiactiva; descomposición de un compuesto químico por reacción monomolecular;
exterminio de bacterias por radiación o veneno; pérdida de sustancia corporal por hambre
en un organismo multicelular; ritmo de extinción de una población donde la tasa de
mortalidad supera la de natalidad, etc.
b. Ley logística. Expresa ciertos tipos especiales de crecimiento donde, por más que pase
el tiempo, sólo se llega a alcanzar un valor máximo en cuanto al número de elementos
que pueden aparecer. Por ejemplo, la ley de Verhulst describe el crecimiento de
poblaciones humanas con recursos limitados: si la población tiene alimentos hasta cierta
cantidad, no puede crecer más de un número máximo de habitantes, porque para todos
no alcanzará el alimento y comenzarán a morirse. Si vemos la curva correspondiente, en
un primer momento la población aumenta, pero luego de un tiempo se estabiliza
19. DIFERENCIACIÓN
ii. Ejemplos. En la percepción, el estado primitivo parece ser la sinestesia, del cual se van
deslindando experiencias visuales, auditivas, táctiles, químicas y otras. En el comportamiento
animal y buena parte del humano hay al principio de todo una unidad perceptivo-emotivo-
motivacional indiferenciada, y los objetos percibidos sin armónicos emotivo-motivacionales
son un logro tardío del hombre maduro civilizado.
Respecto de la evolución del pensamiento y el lenguaje, se supone que originalmente fueron
'holofrásticos', es decir, eran enunciados y pensamientos con una amplia gama de
asociaciones, y sólo después ocurrió la separación de los significados y, consecuentemente,
la separación del lenguaje en palabras (lenguaje articulado).
Similarmente, las categorías de la vida mental desarrollada, que implica la distinción entre yo
y objetos, espacio, tiempo, número, causalidad, etc., evolucionaron a partir de un continuo
perceptivo-conceptual-motivacional representado por la percepción 'paleológica' de niños,
primitivos y esquizofrénicos. De modo similar y respecto del desarrollo de la cultura, el mito
fue el original caos prolífico a partir del cual se diferenciaron lenguaje, magia, arte, ciencia,
medicina, moral y religión.
20. ECOLOGÍA
Ciencia que estudia las relaciones de los seres vivos con su entorno o ambiente. Se trata
de otra disciplina más susceptible de ser encarada bajo el punto de vista sistémico, por
cuanto los ecosistemas poseen propiedades de los sistemas abiertos.
Por ello debemos conformarnos con una explicación 'en principio', argumentación cualitativa
que, con todo, no deja de tener consecuencias significativas.
Principio según el cual todo comportamiento es utilitario, y por tanto debe ser realizado con
el mínimo gasto energético posible, o con el gasto mínimo como para sobrevivir. Según von
Bertalanffy, es uno de los cuatro principios que fundan las teorías psicológicas del hombre-
robot.
sistemas son herramientas teóricas, y al respecto los distingue de las aplicaciones prácticas de
dichas herramientas, como pueden serlo por ejemplo la ingeniería de sistemas, la investigación
operacional, la ingeniería humana, la programación lineal y no lineal, etc.
Algunos de los ejemplos de enfoques de sistemas pueden encontrarse en los respectivos artículos
del presente volumen. Del resto, von Bertalanffy da una caracterización escueta, que sintetizamos
a continuación:
i. Computarización y simulación. La computadora ha permitido:
a. llevar a cabo cálculos matemáticos que, de otra forma, hubieran requerido mucho tiempo
y energía;
b. abrir campos donde no existen teorías o modos de solución matemáticos;
c. simular experimentos de laboratorio de, que otro modo, insumirían mucho tiempo y
dinero.
ii. Teoría de los juegos (von Neumann y Morgenstern, 1947). Estudia, mediante un novedoso
armazón matemático comparable incluso con el de la mecánica newtoniana o el cálculo
infinitesimal, el comportamiento de jugadores supuestamente 'racionales' a fin de obtener
ganancias máximas y pérdidas mínimas gracias a estrategias apropiadas contra otro jugador
(o contra la naturaleza). Es un enfoque que puede agregarse a las ciencias de sistemas en la
medida que estudia un 'sistema' de 'fuerzas' antagónicas con determinadas especificaciones.
iii. Teoría de las colas. Se ocupa de la optimización de disposiciones en condiciones de
apiñamiento (hacinamiento).
iv. Teoría de los conjuntos. Las propiedades formales generales de sistemas, tanto cerrados
como abiertos, pueden ser axiomatizadas en términos de teoría de los conjuntos.
v. Teoría de los compartimientos. Concibe los sistemas como constituidos por subunidades o
sub-sistemas (compartimientos), entre los cuales se dan procesos de transporte. Por ejemplo
los compartimientos permeables a ciertas sustancias, como ocurre en algunos procesos
industriales y en la fisiología celular, y por ello tiene más relación con los sistemas abiertos.
Los compartimientos pueden tener una estructura catenaria (compartimientos encadenados) o
mamilar (un compartimiento central conectado con múltiples periféricos). El análisis de estos
sistemas compartimentados excede el cálculo matemático habitual, pero sin embargo resulta
posible gracias a las transformaciones de Laplace y a la introducción de la teoría de las redes
y las gráficas. Estas dos teorías y la teoría de los compartimientos se fundan en una rama de
la matemática llamada topología, o matemática relacional.
vi. Teoría de las gráficas y las redes. La teoría de las gráficas elabora estructuras relacionales
(es decir con propiedades cualitativas, no cuantitativas o métricas) representándolas en un
espacio topológico. Matemáticamente está vinculada también al álgebra de matrices, y fue
utilizada por ejemplo en biología. La teoría de las redes está ligada a la teoría de las gráficas y
a la teoría de los compartimientos, y se aplica a sistemas tales como las redes nerviosas.
vii. Teoría de la decisión. En general, teoría matemática que se ocupa de elecciones entre
posibilidades. Más específicamente, analiza elecciones humanas racionales, basadas en el
examen de una situación dada y de sus posibles consecuencias.
23. ENTROPÍA
En termodinámica, designa la medida del grado de desorden de los sistemas. Los sistemas
cerrados poseen una entropía creciente (o entropía positiva), es decir, evolucionan hacia un
grado creciente de desorden y desorganización. En contraste, los sistemas abiertos poseen
una entropía decreciente (o entropía negativa), lo que significa que evolucionan hacia
grados cada vez mayores de orden y organización. El término 'entropía' se utiliza también
en Teoría de la Información, dada su correspondencia isomórfica con el respectivo
concepto de la termodinámica.
estufa en una habitación cerrada produce calor, y ese calor inunda toda la habitación. No
ocurre que el calor se aglutine en un rincón y el otro quede frío. La distribución homogénea
del calor hace, entonces, que haya la misma temperatura en cualquier punto de la habitación
tomado al azar.
Si abrimos la puerta que da al baño, el calor difundirá al baño y volverá a homogeneizarse la
distribución del calor en el nuevo sistema ampliado. Por supuesto, siempre y cuando el baño
esté más frío, porque si está más caliente el calor irá 'hacia' la habitación, y también tenderá a
distribuirse homogéneamente.
Von Bertalanffy da ejemplos una tanto artificiales con bolitas rojas y azules. Dice por ejemplo
que la distribución más probable de una mezcla de bolitas rojas y azules es un estado de
completo desorden, mientras que la distribución más improbable sea que las bolitas rojas
queden de un lado y las azules del otro, o bien, en un ejemplo más realista en el caso de un
gas, que las moléculas más veloces (de mayor temperatura) queden hacia la derecha y las
menos veloces (más 'frías') queden hacia la izquierda.
Hemos dado ejemplos de sistemas no vivos, como los gases o las bolitas. Pero veamos ahora
que sucede en un sistema vivo (como puede serlo una ameba, un mamífero, la personalidad,
un grupo humano, una sociedad, etc.). Ahora, veamos qué pasa si dentro del recipiente ya no
ponemos un gas sino un huevo cigota y, en un segundo ejemplo, si ponemos hormigas.
Un huevo cigota que tenga unos días de vida se ve en el microscopio como un conjunto de
células más o menos iguales. Hay una indiferenciación, porque no hay ninguna célula
ostensiblemente diferente a cualquier otra. Al comienzo, las células van reproduciéndose un
poco anárquicamente y distribuyéndose donde pueden. Si el huevo cigota evolucionara como
el gas, las células quedarían siempre iguales y distribuidas homogéneamente, pero la
experiencia nos dice que no, que poco a poco comienzan a distribuirse de determinada forma,
el huevo cigota empieza a adoptar la forma de un embrión, y finalmente se transforma en el
animal definitivo. Algunas células se transformaron en células musculares, otras en células
hepáticas, otras en neuronas, etc., es decir, hay una progresiva diferenciación (empiezan a
ser diferentes), y se van distribuyendo de acuerdo a un plan, a un orden, es decir hay una
creciente organización.
Sabemos perfectamente en qué terminará el gas (máxima probabilidad), pero no es así en el
caso del huevo cigota. Aún cuando sepamos de antemano que se trata de un cigoto humano,
no sabemos qué características tendrá al nacer, qué malformaciones o no podrá padecer, etc.
Es decir, puede evolucionar hacia diferentes estados finales: hay una máxima improbabilidad,
y aún en el hipotético caso que conozcamos todas las posibles evoluciones del huevo, ciertos
desarrollos serán más o menos probables que otros, pero no habrá ningún desarrollo único de
máxima probabilidad. Incluso más: a partir de estados iniciales distintos, por ejemplo un huevo
cigota entero y un huevo cigota cortado por la mitad, pueden llegar al mismo estado final (el
mismo erizo de mar). Esto es lo que se llama 'equifinalidad' (ver Equifinalidad), y es algo
inconcebible en el caso de la evolución de un gas. Por ejemplo, si reducimos la cantidad de
gas a la mitad, obtendremos un estado final diferente, no igual, por ejemplo, las moléculas
quedarán más alejadas entre sí en la distribución final.
Otro tanto sucede si en el recipiente colocamos hormigas. Lejos de distribuirse
homogéneamente como las moléculas gaseosas, las hormigas empezarán a organizarse. Si
en el recipiente hay tierra, empezarán a hacer túneles y se organizarán para sobrevivir. Las
sociedades humanas, al igual que las sociedades animales, son sistemas abiertos, y como
tales tienden hacia un orden creciente, es decir, tienen entropía negativa.
iv. Entropía en sistemas abiertos. Completaremos nuestra explicación con tres breves
comentarios acerca de la entropía en los sistemas abiertos.
a. Un ser viviente tiene al mismo tiempo las características de un sistema físico (de hecho
está compuesta de átomos, moléculas, es decir de la misma materia prima que una
piedra, por ejemplo), y las características de un sistema vivo. Desde el primer punto de
vista, el sistema vivo evolucionará hacia un desorden creciente, y desde el segundo
punto de vista evolucionará hacia un orden creciente. ¿Cuál de ambas tendencias
dominará sobre la otra? Mientras el ser vivo se mantiene como tal, mientras evoluciona
hacia la organización creciente (por ejemplo sobre todo en el desarrollo intrauterino y la
niñez, o, en el plano intelectual, hasta la adolescencia y aún más adelante), predominará
la tendencia entrópica negativa (orden creciente), pero, tarde o temprano, el ser vivo
Parte de la Filosofía de los sistemas que propone introducir en la ciencia nuevas categorías
para la investigación de totalidades organizadas, tales como las de interacción,
transacción, organización, teleología, etc., como así también introducir la idea de
conocimiento como interacción entre observador y observado. En tales sentidos, se opone
a la epistemología del positivismo lógico, de índole reduccionista y fisicalista.
La TGS en sentido amplio abarca la Ciencia de los sistemas, la Tecnología de los Sistemas y la
Filosofía de los sistemas y, dentro de esta última, una parte es la Epistemología de sistemas.
En sentido genérico, la epistemología es la disciplina que se ocupa del estudio del conocimiento
científico. Específicamente, la Epistemología de sistemas es una doctrina que propone un modelo
de conocimiento científico fundado en dos puntos importantes:
i. La investigación de totalidades organizadas de muchas variables requiere nuevas
categorías de interacción, transacción, organización, teleología, etc., con lo cual surgen
muchos problemas para que resuelvan la epistemología y los modelos y técnicas
matemáticos. Se deja así atrás el paradigma de la ciencia clásica que descomponía el todo en
elementos, y los vinculaba mediante la causalidad lineal o unidireccional como categoría
básica.
ii. La percepción no es una simple reflexión de 'cosas reales', ni el conocimiento una mera
aproximación a la 'verdad' o 'la realidad'. Es una interacción entre conocedor y conocido que
depende de múltiples factores de tipo biológico, cultural, lingüístico, etc., lo cual lleva a
sustentar una postura perspectivista que, en esencia, sostiene que no hay una única forma de
conocer, sino que de la realidad se pueden tener varias perspectivas diferentes.
25. EQUIFINALIDAD
Uno de los cuatro principios básicos que fundan la psicología del hombre-robot, según el
cual el comportamiento implica esencialmente una reducción de tensiones, con el objeto de
retornar al equilibrio anterior.
Bibliografía Consultada
* Laplanche J. y Pontalis J., Diccionario de psicoanálisis, Barcelona, Labor, 1981, 3° edición.
* Rycroft C., Diccionario de psicoanálisis, Buenos Aires, Paidós, 1976, pág. 92.
27. ESTABILIDAD
28. ESTADO
i. Concepto. Von Bertalanffy define 'estado' solamente en forma contextual, vale decir su
significado surge de las expresiones donde emplea dicho término. El estado de un sistema es
la situación en la cual se encuentra o podría encontrarse en un instante de tiempo elegido en
parte convencionalmente. De hecho, un mismo estado puede ser visto como estado inicial en
relación con los momentos subsiguientes, o como estado final en relación con los anteriores.
Desde ya, el concepto de 'estado' presupone la idea que los sistemas evolucionan o cambian,
lo que significará que pasan de un estado a otro distinto.
ii. Tipos. Se pueden diferenciar los sistemas cerrados y abiertos recurriendo a la noción de
'estado', de dos maneras distintas:
a. Los sistemas cerrados llegan a un estado final a partir de un único y determinado estado
inicial. En cambio, los sistemas abiertos pueden llegar al mismo estado final desde
diferentes estados iniciales, lo que constituye una importante característica de los mismos
que es la equifinalidad.
b. En los sistemas cerrados, el estado final hacia el cual tienden se denomina 'estado de
equilibrio químico y termodinámico', o, más sencillamente, 'estado de equilibrio'. En
cambio en los sistemas abiertos, el estado final hacia el cual tienden se denomina 'estado
uniforme', un término creado ad hoc por von Bertalanffy y cuyas traducciones al inglés y
al alemán son, respectivamente, 'steady' y 'Fliessgleichgewicht'.
El autor citado no utiliza una terminología única. Por ejemplo, a veces se refiere al estado
uniforme como estado de equilibrio dinámico, estado de equilibrio estacionario, estado
cuasi uniforme, o estado cuasi estacionario. En la presente obra adoptaremos por lo
regular las denominaciones 'estado de equilibrio' y 'estado uniforme' para los sistemas
cerrados y abiertos, respectivamente, aún cuando el significado original de dichos
términos no reflejen con total exactitud sus diferencias.
Estado final hacia el cual evolucionan los sistemas cerrados, y que se encuentra
determinado por las condiciones iniciales de partida. El estado de equilibrio se basa en
reacciones reversibles, y su mantenimiento no requiere energía. El estado de equilibrio es,
más específicamente, un estado de equilibrio químico y termodinámico.
Estado final hacia el cual tienden los sistemas abiertos, mientras persista la vida, sean cual
fuesen las condiciones iniciales de partida (esto es, exhibe equifinalidad). El estado
uniforme se basa en reacciones en gran parte irreversibles, y su mantenimiento requiere
aporte energético del exterior.
Von Bertalanffy designa a veces el estado uniforme como estado de equilibrio dinámico,
estado de equilibrio estacionario, estado de equilibrio dinámico estacionario, estado cuasi
uniforme o estado cuasi estacionario.
importante, dentro de la Teoría General de los sistemas abiertos, a punto tal que llega a
sugerir que en ella se encuentra todo el misterio de la vida. En efecto, todas las
características de los sistemas vivos, tales como metabolismo, crecimiento, desarrollo,
autorregulación, reproducción, estímulo-respuesta, actividad autónoma, etc., son en definitiva
consecuencias del hecho básico de la tendencia del organismo viviente hacia un estado
uniforme.
En el presente (von Bertalanffy escribía esto en 1967), no se dispone de un criterio
termodinámico que defina 'estado uniforme' en sistemas abiertos, de modo parecido a como
la entropía máxima define el estado de equilibrio en los sistemas cerrados. No obstante esta
limitación, procuraremos delimitar este concepto enumerando una serie de características
básicas que hallamos presentes en los estados uniformes.
ii. Características. Enumeraremos algunas características importantes del estado uniforme, y al
mismo tiempo trazaremos las correspondientes diferencias con el estado de equilibrio. Estas
características se examinan aquí por separado a los efectos de una mejor comprensión del
tema: el lector no debe obviar una visión de conjunto de este complejo problema, para la cual
iremos suministrando algunas pistas esclarecedoras.
a. Sistema abierto - sistema cerrado. El estado uniforme es una característica de los
sistemas abiertos: éstos 'pueden' alcanzar, en ciertas condiciones, un estado
independiente del tiempo que se llama 'estado uniforme', por oposición al estado de
equilibrio químico y termodinámico, que es un estado también independiente del tiempo y
que 'deben' alcanzar los sistemas cerrados.
b. Vida - muerte. Lo anterior no significa que los sistemas abiertos tiendan 'siempre' hacia
un estado uniforme. Tienden hacia él en la medida que el sistema se mantenga vivo.
Pero tarde o temprano el organismo muere, en cuyo caso cesará su tendencia hacia un
estado uniforme y comenzará inmediatamente su camino hacia un estado de equilibrio
típico de los sistemas cerrados. Von Bertalanffy indica que un sistema abierto se
mantiene sin alcanzar, mientras la vida dure, un estado de equilibrio químico y
termodinámico, sino manteniéndose en un estado llamado uniforme.
La vida no se explica entonces en términos de entidades metafísicas (ver Vitalismo), sino
en términos de capacidad para tender hacia el estado uniforme. El hecho de que un
sistema abierto, como un ser vivo, tienda finalmente hacia un estado de equilibrio, puede
ser explicado desde varios ángulos, como por ejemplo afirmando que cumple con la
segunda ley de la termodinámica, o que el sistema vivo posee sub-sistemas que tienden
hacia el estado de equilibrio y que terminan por predominar sobre el estado uniforme, etc.
A este último respecto, von Bertalanffy indica que en el organismo se dan sistemas en
equilibrio, pero el organismo como tal no puede ser considerado como un sistema en
equilibrio (o en estado de equilibrio).
En la vida cotidiana suelen emplearse los términos 'evolución' e 'involución' para
designar, respectivamente, la tendencia hacia un orden y organización crecientes, y la
tendencia hacia un desorden y desorganización crecientes. Un embrión o un niño 'está
evolucionando', un anciano 'está involucionando'. En la terminología de von Bertalanffy,
diremos que en la 'evolución' predomina la tendencia hacia un estado uniforme, y en la
'involución' empieza a dominar la tendencia hacia un estado de equilibrio.
Estos conceptos podrán ser aclarados con mayor detalle a partir de otras características
como las que siguen.
c. Estática y dinámica de los sistemas abiertos. Los sistemas abiertos pueden ser
estudiados desde ambos puntos de vista: estático, es decir el mantenimiento del sistema
en un estado independiente del tiempo, y dinámico, vale decir los cambios del sistema
con el tiempo.
Punto de vista estático. Existe en el universo una tendencia hacia la desorganización y
al desorden crecientes, como lo revela la termodinámica clásica. Pero, ¿existe alguna
situación donde se pueda detener, aunque sea momentáneamente, esta tendencia
universal hacia la llamada entropía positiva? Sí. Ello ocurre cuando el sistema -
específicamente un ser viviente- incorpora materia rica en energía del exterior, por
ejemplo a través del alimento.
Esa energía libre, o al menos parte de ella, está destinada a mantener un alto grado de
orden, y hasta permitir el avance hacia órdenes superiores, cosa termodinámicamente
permitida. Por ejemplo, cuando estudiamos estamos gastando energía en ordenar
nuestros pensamientos, o cuando el embrión incorpora los nutrientes de la madre utiliza
esa energía en poner orden en su estructura, pasando de un estado de indiferenciación
('amontonamiento' de células indiferenciadas) a otro estado donde las diversas células se
agrupan en tejidos y estos en órganos, vale decir, de un estado de desorden a otro de
orden. Se trata de energía utilizable, útil, de una energía capaz de producir trabajo. Así,
indica von Bertalanffy que el estado uniforme es mantenido separado del equilibrio
verdadero (estado de equilibrio) y así está en condiciones de realizar trabajo.
Una vez que la materia cumplió su cometido de suministrar energía para estos procesos
es eliminada, pero se incorporarán nuevos materiales energéticos que permitirán seguir
manteniendo el orden, o aún aumentarlo. Es así que en un sistema abierto hay un
continuo intercambio de componentes (importación y exportación de materia), una
continua degradación y construcción de esos materiales y continuos procesos
irreversibles, ¡a pesar de lo cual la composición del sistema se mantiene constante! en un
estado llamado, por ello, estado uniforme.
Por ejemplo, el lector se habrá preguntado alguna vez como puede ser que un organismo
siga siendo más o menos igual cuando en cuestiones de meses han cambiado una gran
proporción de sus componentes materiales o de sus células, o como puede ser que la
sociedad humana (un país, una cultura) siga siendo más o menos igual en cuestiones de
décadas cuando es sabido que los nuevos millones de personas son totalmente distintos
a los viejos millones de personas que había 100 años antes. A pesar de la continua
generación y destrucción de los elementos componentes, el sistema tiene la tendencia a
mantenerse en un estado uniforme, gracias a los aportes de energía de los materiales
ingresantes.
Detallemos un poco más el problema de la energía en los sistemas químicos cerrados y
en los abiertos. Un sistema cerrado en equilibrio no requiere energía para su
preservación, ni puede obtenerse energía de él. Un depósito cerrado puede tener
almacenada gran cantidad de energía pero es energía potencial, no sirve para realizar
trabajo, como por ejemplo para hacer funcionar un motor. Lo mismo pasa con un sistema
químico en estado de equilibrio. A pesar de no estar en estado de reposo, porque
continuamente están produciéndose reacciones en uno y otro sentido (reversibles)
reguladas por la ley de acción de masas, es incapaz sin embargo de realizar trabajo.
Para mantener los procesos en marcha no se requiere trabajo ni puede obtenerse trabajo
de ellos. La suma algebraica del trabajo obtenido de las reacciones y el empleado por
ellas es igual a cero.
A fin de realizar trabajo es necesario que el sistema no esté en un estado de equilibrio
sino que tienda a alcanzarlo; sólo entonces puede obtenerse energía. A fin de conseguir
esto continuamente, hay que disponer estacionariamente los sistemas (de aquí el nombre
estado estacionario para designar al estado uniforme), o sea hay que mantener un fluir
uniforme de sustancias químicas cuya energía se pueda transformar en trabajo. Esto se
consigue en un sistema abierto, importador de energía del medio. El aparente 'equilibrio'
de un organismo no es un verdadero equilibrio incapaz de producir trabajo, es un seudo
equilibrio dinámico (llamado estado uniforme), mantenido constante a cierta distancia del
equilibrio genuino (o estado de equilibrio), y con ello capaz de producir trabajo. El
continuo suministro exterior de energía le permite guardar siempre una distancia con
respecto al equilibrio verdadero o estado de equilibrio.
Para mantener el 'equilibrio dinámico' del estado uniforme es preciso que las velocidades
de las reacciones estén bien armonizadas. Sólo así es posible que algunos componentes
sean demolidos y puedan liberar energía utilizable, en tanto que por otro lado la
importación o ingresos de sustancias impide al sistema alcanzar el equilibrio. Las
reacciones rápidas, incluso en el organismo, conducen, sí, al equilibrio químico, pero las
reacciones lentas persisten en estado uniforme, de manera que éste exige cierta lentitud
en las reacciones. Una reacción muy veloz llega rápido al equilibrio y no da tiempo a que
el ingreso de energía desequilibre el sistema. Reacciones 'instantáneas', como las que se
dan entre iones, llevan al equilibrio en un tiempo 'infinitamente corto'.
Von Bertalanffy agrega aquí que el mantenimiento de un estado uniforme en el organismo
se debe a la presencia de carbono, pues por un lado es rico en energía, pero por otro es
químicamente inerte (no reacciona químicamente en forma directa) de modo que es
posible mantener un abundante potencial químico; por otra parte, la rápida y regulada
liberación de esta cantidad de energía se debe a la acción de las enzimas (catalizadores
biológicos), con lo cual se mantiene el estado uniforme.
Punto de vista dinámico. Los sistemas vivos, sin embargo, nunca se mantienen
exactamente iguales en el tiempo, sino que sufren cambios, los cuales pueden ser de dos
tipos:
1. un cambio puede darse porque el organismo está inicialmente en un estado inestable
y tiende espontáneamente hacia un estado uniforme mediante una actividad autónoma. A
grandes rasgos, estos son los fenómenos de crecimiento y desarrollo, pero hay ejemplos
más específicos como por ejemplo los procesos periódicos que también se originan en el
sistema mismo y son así autónomos, como los movimientos automáticos de los órganos
de la respiración, la circulación y la digestión, movimientos automáticos del organismo en
su conjunto, etc.
2. El estado uniforme puede a su vez ser perturbado por cambios exteriores (un
estímulo proveniente del medio), y estos son a grandes rasgos los fenómenos de
adaptación y estímulo-respuesta.
d. Exceso y falso arranque. Mientras que los sistemas cerrados suelen tender hacia
estados de equilibrio siguiendo un curso asintótico, en los sistemas abiertos, en
contraste, pueden darse además de un curso asintótico hacia el estado uniforme
fenómenos de exceso y de falso arranque (o arranque en falso) como se ve en muchos
procesos fisiológicos, procesos que tiene ciertas características matemáticas predecibles
y que están vinculados con estados uniformes. En el esquema adjunto se pueden
visualizar los fenómenos de exceso y arranque en falso, además de la evolución
asintótica hacia el estado uniforme.
Evoluciones hacia el estado uniforme (esquema ligeramente modificado del original, von Bertalanffy, 149)
En dicho esquema, vemos que todo sistema abierto tiende hacia un estado uniforme, y
puede hacerlo, esquemáticamente, de tres maneras distintas:
1. Aproximándose cada vez más hacia el estado uniforme ideal (aproximación
asintótica).
2. Por falso arranque, donde al principio el proceso evoluciona en dirección opuesta,
pero luego se reencamina hacia el estado uniforme. Por ejemplo, si a una rata se le
interrumpe el suministro de vitaminas empieza a crecer menos e incluso puede morir
(dirección opuesta al estado uniforme), pero al suministrársele vitaminas termina
retomando el estado uniforme. Otro ejemplo: una persona gravemente enferma corre
el riesgo de morirse, pero ciertos mecanismos propios de organismo pueden hacer
que se restablezca: arrancó en falso pero luego se recuperó.
3. Por exceso: caso inverso del anterior. Von Bertalanffy indica que las evoluciones por
exceso también aparecen en numerosos procesos fisiológicos.
El esquema nos muestra también la propiedad de los sistemas abiertos denominada
equifinalidad: un sistema abierto puede alcanzar el mismo estado final (estado uniforme),
aunque parta de diferentes condiciones iniciales (las correspondientes a las tres curvas
trazadas).
e. Catalizadores. Los catalizadores son agentes que de una u otra forma pueden ejercer
influencia en una reacción química (posibilitándola, acelerándola, retardándola, etc.). En
los sistemas cerrados no hay catalizadores que influyan, es decir las reacciones químicas
seguirán un desarrollo sin perturbaciones hacia un estado de equilibrio químico,
espontáneamente. En los sistemas abiertos, en cambio, la presencia de catalizadores
direcciona las reacciones químicas hacia un estado uniforme y están vinculadas, por
Raúl Gustavo Eid Ayala Ph.D.
Julio, 2005
121
12 – GLOSARIO DE EPISTEMOLOGÍA, LÓGICA, TEORÍA GENERAL DE
SISTEMAS Y ESTADÍSTICA
El esquema [E-R] es uno de los cuatro principios básicos que fundan la psicología del
hombre-robot, según el cual el comportamiento animal y humano debe ser reducido a
respuestas a estímulos llegados desde el exterior. La TGS se opone a esta concepción del
hombre como organismo pasivo cuya conducta es básicamente reactiva.
32. ESTRUCTURA
i. Acerca del planteo de von Bertalanffy. No es lo mismo sistema que estructura. Un sistema,
por ejemplo una célula, no puede definirse simplemente como una estructura, es decir,
entenderla como un conjunto de partes relacionadas espacialmente, sino además como una
entidad capaz de interactuar con el ambiente y/o de modificarse internamente para cumplir
determinadas funciones o finalidades. El aspecto estructural es más bien estático, y el
funcional, dinámico.
Von Bertalanffy critica la vieja antítesis entre 'estructura' y 'proceso', y que deberá acabar
resolviéndose dialécticamente en una nueva síntesis. En última instancia, estructura (como
orden jerárquico de partes) y función (como orden jerárquico de procesos) pudieran ser la
misma cosa: en el mundo físico la materia se disuelve en un juego de energías, y en el mundo
biológico las estructuras son expresión de una corriente de procesos.
Además, en el caso de la directividad estructural (Ver Finalidad), una disposición estructural
conduce el proceso de tal forma que es logrado determinado fin, aunque en otros casos,
como la equifinalidad, los procesos aparecen como relativamente independientes de la
estructura, si entendemos esta como mecanismos fijos y predeterminados. En la equifinalidad,
podría entenderse, es el proceso quien va configurando la estructura.
Von Bertalanffy relaciona también los aspectos estructurales con los aspectos internos del
sistema, y los funcionales con sus aspectos externos. Así, la descripción interna de un
sistema es esencialmente 'estructural', es decir, procura describir el comportamiento del
mismo en términos de variables de estado y de su interdependencia. La descripción externa
es 'funcional', es decir describe el comportamiento del sistema por su interacción con el medio
sin discernir las variables internas, o sea, considerándolo como una 'caja negra'.
Mientras los enfoques sistémicos se centran en el sistema, los enfoques estructuralistas lo
hacen sobre la estructura. Von Bertalanffy considera que las corrientes estructuralistas
francesas y la TGS tuvieron desarrollos independientes, lo que viene a demostrar una vez
más, para este autor, el 'paralelismo entre principios cognoscitivos generales en campos
diferentes'. Específicamente, dentro del estructuralismo francés cita a Piaget y a Lévi-Strauss,
aunque también podríamos incluir dentro del estructuralismo en general a pensadores como
De Saussure y Chomsky (en lingüística), Trubetzkoy (en fonología), Lacan (en psicoanálisis),
Barthes (en crítica literaria), y muchos otros.
ii. Estructura según Piaget (1). La definición que da Piaget de estructura pone de relieve cómo
vuelven a reaparecer en distintas disciplinas conceptos como totalidad, autorregulación, etc.,
hecho sobre el cual von Bertalanffy funda la necesidad de una colaboración interdisciplinaria
desde una TGS.
a. En una primera aproximación, una estructura es un sistema de transformaciones, que
implica leyes como sistema (por oposición a las propiedades de los elementos), y que se
conserva o se enriquece por el juego mismo de sus transformaciones, sin que éstas
lleguen más allá de sus fronteras o recurran a elementos exteriores. En una palabra, una
estructura comprende los tres caracteres de totalidad, transformaciones y
autorregulación (1).
Totalidad significa que los elementos que conforman la estructura dependen de las leyes
propias del sistema, leyes que no se reducen a meras asociaciones acumulativas o
sumativas, sino que confieren al todo, como tal, propiedades de conjunto distintas de las
de los elementos.
Transformaciones significa que toda estructura, además de estar 'estructurada' como
totalidad, posee por sí misma una actividad estructurante que la convierte en una entidad
dinámica, y no es entonces una 'forma' estática cualquiera. Las transformaciones pueden
ser temporales (la estructura de la inteligencia a lo largo del tiempo sufre
transformaciones) o atemporales (como una estructura matemática, donde por ejemplo
sus leyes específicas permiten la 'transformación' de 1+1 en 2).
Autorregulación, finalmente, significa que las estructuras pueden regularse a sí mismas
con el fin de conservarse y obtener cierto 'cierre'. Esto a su vez implica que, mientras la
estructura se transforma y autorregula, genera elementos que también pertenecen a la
misma estructura (cierre) conservando (conservación) sus leyes. Por ejemplo si tomamos
la estructura del grupo aditivo en matemática, la suma de dos números enteros da
siempre otro número entero (o sea el resultado sigue perteneciendo a la misma
estructura= cierre), y el nuevo elemento cae también bajo la órbita de las mismas leyes.
Que una estructura tenga un cierto cierre no le impide integrar una estructura más
general en calidad de sub-estructura. El cierre es lo suficientemente sólido como para
permitirle seguir manteniendo su identidad y sus propias leyes, y lo suficientemente
elástico como para permitir su inclusión en una estructura mayor, de manera que el
cambio producido resulta siempre en un enriquecimiento.
b. En una segunda aproximación, toda estructura debe poder dar lugar a una formalización,
y en este sentido comparte Piaget el ideal de von Bertalanffy de una futura formalización
o matematización de la ciencia. Decimos que una estructura es formalizable si su
funcionamiento puede ser traducido en términos de ecuaciones lógico-matemáticas, o
pasar por la intermediación de algún modelo cibernético. Las estructuras familiares, hoy
en día, están lejos de poder formalizarse matemáticamente, tal como están formalizados
los sistemas físicos en termodinámica, pero ni Piaget ni von Bertalanffy descartan la
posibilidad de tal emprendimiento teórico, necesario para el progreso de las ciencias.
Nota.
(1) Piaget J., El estructuralismo, Buenos Aires, Proteo, 1968, pág. 10.
33. EXISTENCIALISMO
Como concepción psicológica, se trata de una visión totalista del hombre que incorpora
variables como el sentido o el sinsentido de la vida, la autorrealización, etc., con lo cual se
busca mostrar que la realidad humana es compleja y que el comportamiento humano no
puede ser reducido a una simple satisfacción de impulsos biológicos, o a intentos por
mantener un equilibrio psicológico y social en el restringido sentido homeostático.
Aunque von Bertalanffy critica el lenguaje oscuro -poco científico- que suelen utilizar los
existencialistas, y sus planteos acerca de que la condición humana cae más allá de la
comprensión científica, rescata de esta postura su visión holista (totalista) del hombre, la idea de
un sistema activo de personalidad que implica una reorientación de la psicología hacia la teoría de
los sistemas, opuesta a las concepciones psicológicas del hombre-robot, que pretendían reducir
los acontecimientos mentales y el comportamiento a un manojo de sensaciones, pulsiones,
reacciones innatas y aprendidas, o cualesquiera elementos últimos fuesen presupuestos
teóricamente.
En este sentido, la psicología existencial comparte este mérito con las psicologías del desarrollo
de Piaget y Werner, con varias escuelas neofreudianas, con la psicología del yo, con los nuevos
puntos de vista sobre la percepción y la cognición, con las teorías de la personalidad de Allport y
Maslow, etc..
34. EXPLICACIÓN
i. Consideración preliminar. En general, explicar un fenómeno significa incluirlo bajo una ley y
bajo determinadas condiciones. Por ejemplo, la dilatación de los metales se explica a partir de
la ley que dice que 'todos los metales se dilatan con el calor' y a partir de la condición de que,
en el fenómeno a explicar, el metal sea sometido al calor.
De acuerdo al modelo de
explicación suministrado por
Hempel y Oppenheim (1), al
explicar razonamos
utilizando un tipo de
inferencia llamado modus
ponens y que, aplicado al
caso de la explicación, sigue
el siguiente esquema:
Que se lee: dada la ley y la
condición antecedente, por
lo tanto ocurre el fenómeno.
En el ejemplo anterior: dada
la ley de la dilatación de los
metales por efecto del calor (ley) y dado que estamos calentando este trozo de metal
(condición antecedente), por lo tanto dicho trozo de metal se dilatará.
Esta consideración previa nos permitirá ubicarnos mejor respecto del empleo que hace von
Bertalanffy del término 'explicación', que se funda en el criterio expuesto y que a continuación
detallamos.
ii. Definición. Explicar un objeto determinado o una clase de objetos significa describirlo a partir
de leyes y condiciones específicas. Por ejemplo, a partir de las leyes del equilibrio químico, de
las leyes del crecimiento de un organismo, etc., podemos explicar los correspondientes
fenómenos.
La explicación constituye el tercero de los tres niveles de descripción de los fenómenos en el
contexto de la TGS, junto con la analogía y la homología (véanse estos términos). La
explicación debe distinguirse especialmente de la homología: ésta última se refiere a
correspondencias formales entre fenómenos, mientras que la explicación alude a leyes
específicas en común entre los mismos, aún cuando sea posible "que también leyes
específicas exhiban correspondencias formales u homologías".
Un ejemplo para distinguir explicación de homología puede ser el siguiente: los líquidos en
movimiento y los potenciales eléctricos son fenómenos homólogos en cuanto por ejemplo en
ambos se verifican gradientes, pero se explican de manera diferente porque para cada uno se
recurre a leyes distintas: las leyes de la hidrodinámica y las leyes de la electricidad,
respectivamente.
iii. Clasificación. Las explicaciones pueden ser cuantitativas o cualitativas, según introduzcan o
no variables medibles numéricamente. Von Bertalanffy plantea que las primeras son
preferibles a las segundas, son 'más explicativas', pero, a pesar de ello y si no hay alternativa,
una explicación cualitativa es mejor que una falta de explicación. Ello ocurre cuando la
cuantificación es imposible. En tales casos e inclusive si los componentes están mal definidos,
puede al menos esperarse que algunos principios sean aplicables cualitativamente al total
como sistema. La explicación cualitativa no es, por otra parte, exclusiva de las ciencias
sociales, sino que también existe en campos como la meteorología y la teoría de la evolución.
Tomando una denominación del economista Hayek que data de mediados de nuestro siglo, a
las explicaciones cualitativas se las puede llamar "explicaciones en principio". Hayek sostiene
que los profesores de economía no son millonarios, es decir, saben explicar bien los
fenómenos económicos 'en principio', pero no llegan a predecir fluctuaciones de la bolsa con
respecto a determinadas participaciones o fechas. Al respecto von Bertalanffy señala que si
se consiguieran insertar los parámetros necesarios [en forma cuantitativa], la explicación 'en
principio', en términos de la TGS pasaría a ser una teoría estructuralmente análoga a una
teoría física.
Hay muchas organizaciones que no se prestan fácilmente a interpretaciones cuantitativas. La
teoría de los equilibrios biológicos o la teoría de la selección natural son correctas y legítimas,
pero no resultan fácil aplicarlas porque los parámetros escogidos, tales como el valor selectivo
o el ritmo de destrucción y generación no son fáciles de medir [numéricamente].
Nota.
(1) Hempel Carl (1977) Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, capítulo 5.
La Filosofía de Sistemas, junto con la Ciencia de los sistemas y la Tecnología de los sistemas, es
una de las tres partes de la TGS en sentido amplio. Se refiere a la nueva cosmovisión resultante
de introducir el paradigma sistémico, o sea una 'nueva filosofía de la naturaleza' que contrasta con
la visión mecanicista del mundo que había imperado hasta entonces. Las tres partes de la
Filosofía de los sistemas son la Ontología de sistemas (Ver Ontología de sistemas), la
Epistemología de sistemas (Ver Epistemología de sistemas), y la teoría de los valores, y que
podríamos aquí llamar 'axiología' de sistemas (ver Valor).
36. FINALIDAD
Propiedad formal de los sistemas en general, según la cual están o parecen estar
orientados hacia un fin o meta. Bajo este concepto se incluyen una gran diversidad de
fenómenos explicables en términos de directividad, teleología, adaptación, adecuación,
homeostasis, equifinalidad, intencionalidad, etc.
Von Bertalanffy no parece establecer una distinción importante entre los términos finalidad
y teleología, razón por la cual a los efectos prácticos los consideraremos sinónimos. Los
vocablos restantes tienen en general definiciones específicas, y son en general planteados
como tipos de finalidad.
meta buscada. Si tendemos a ver en él una meta prevista es porque estamos interpretándolo
antropomórficamente.
iii. Finalidad y causalidad.- Muchos filósofos han concebido la finalidad como lo inverso de la
causalidad, en el sentido que la finalidad depende de una condición futura, mientras la
causalidad de una condición pasada. Von Bertalanffy, que al principio creía lo mismo, criticará
esta opinión diciendo que tal oposición no existe, y que la finalidad puede explicarse en
términos de causalidad, y puede reducirse a ella.
Sobre la base de ciertas consideraciones matemáticas que aquí no desarrollaremos, es
posible mostrar que en ecuaciones diferenciales que describen procesos de crecimiento a lo
largo del tiempo (por ejemplo el aumento de talla en los animales), tales procesos no quedan
determinados por ningún estado final o venidero sino por las condiciones actuales, las que,
entonces, operarían como causa del estado final, o efecto. Así, la dirección del proceso hacia
un estado final no es algo que difiera de la causalidad, sino que es una expresión más de ella.
La referencia en ciertas ecuaciones a estados finales es cosa que inquietó a algunos biólogos,
quienes creyeron ver en tal orientación una prueba de 'vitalismo', como si hubiera una fuerza
vital que lleva a los procesos hacia un fin.
iv. Tipos de finalidad. Existen dos tipos fundamentales de finalidad: la teleología estática y la
teleología dinámica. A los efectos de la TGS, son especialmente importantes los segundos, en
los que podemos discriminar cuatro variedades:
a. Directividad 'tendencial' (von Bertalanffy no emplea este término);
b. Directividad estructural;
c. Equifinalidad; y
d. Intencionalidad.
1. Teleología estática. Llamada también adecuación, se trata de una disposición que
parece útil para determinado propósito. Ejemplos: el pelaje sirve para mantener caliente
el cuerpo, el mimetismo protege a los animales de sus enemigos, etc. En el campo de las
cosas hechas por el hombre, un abrigo en la medida en que permite protegerse del frío.
2. Teleología dinámica o Directividad de procesos. Von Bertalanffy discrimina aquí
cuatro tipos de fenómenos, que a menudo suelen confundirse:
ά. Directividad 'tendencial': Es la dirección de acontecimientos hacia un estado final
que puede ser expresado como si el presente comportamiento dependiera del estado
final. Todo sistema que alcanza una condición independiente del tiempo se conduce
de esta manera.
β. Directividad estructural: Acontecimientos en los cuales una disposición estructural
conduce el proceso de tal forma que se logre determinado resultado. Ejemplos: las
máquinas creadas por el hombre y las estructuras biológicas. En ambos casos su
misma estructura las lleva a obtener tal o cual resultado final en cuanto entran en
funcionamiento. Si alteramos la estructura, no se cumple el fin original. No obstante,
hay una diferencia importante: mientras la máquina artificial funciona dando un
determinado resultado (un motor debe hacer andar el coche, por ejemplo) pues para
ello fue construida, el sistema vivo funciona de tal forma que mantiene el sistema
mismo. El motor en cambio, al no tender hacia este fin, se desgasta mucho más
rápidamente, ni tampoco puede reproducirse para auto perpetuarse.
Una parte importante de esos procesos de automantenimiento típicos del ser viviente
es posible gracias a la homeostasis, por la cual se mantiene constante la situación
material y energética del organismo. Por ejemplo, la termorregulación. la
conservación de la concentración de sales, etc. Estas regulaciones homeostáticas
están en gran medida gobernadas por la retroalimentación, que también está
presente en las máquinas artificiales.
γ. Equifinalidad: Parece ser la responsable de la regulación primaria en los sistemas
orgánicos (Ver Regulación), o sea de aquellas regulaciones que no pueden basarse
en estructuras o mecanismos predeterminados, y que el vitalismo adjudicó a fuerzas
misteriosas y duendecillos. La equifinalidad (ver este término) es, sucintamente, la
posibilidad de poder alcanzar el mismo estado final partiendo de diferentes
condiciones iniciales y por diferentes caminos. La equifinalidad es característica de
los sistemas abiertos.
δ. Intencionalidad: Es la genuina finalidad, una inteligencia planeadora cuyo
comportamiento está guiado por una meta prevista de antemano. Es característica
del comportamiento humano y está vinculada a la evolución del simbolismo del
lenguaje y los conceptos.
Estos cuatro sentidos de finalidad suelen ser confundidos. Von Bertalanffy, para aclarar
aún más los alcances de cada uno, da tres ejemplos:
1. en el campo de las cosas hechas por el hombre, la adecuación (1) y el
funcionamiento teleológico de las máquinas (2β) se deben, por supuesto, a una
inteligencia planeadora (2δ).
2. La adecuación en los seres vivos (1) es de suponerse que puede ser explicada
por el juego de mutaciones al azar y selección natural. Pero tal explicación ya no
sirve para explicar el origen de complicadísimos mecanismos de retroalimentación
orgánicos (2β).
3. El vitalismo es, en resumidas cuentas, el intento de explicar la directividad
orgánica (2β y 2γ) por medio de la inteligencia previsora de la meta (2δ).
científicos, ni su solución de las demás soluciones, sino que procurará integrarlos en base a
una visión de conjunto.
ii. Educación. Para ser generalista se requiere una educación. A su vez, el generalista también
educa. En la perspectiva de la TGS de von Bertalanffy, la educación es un proceso que
implica no solamente el desarrollo de valores propiamente científicos, sino también el
despliegue de valores éticos.
Como desarrollo de valores científicos, la educación no es una mera presentación de
información donde se acumulan dato tras dato, sino en la formación de una manera de pensar
integrada que procure una comprensión de la realidad desde el punto de vista sistémico, lo
que implica no solamente comunicación sino también integración interdisciplinaria de los
hechos estudiados.
Como desarrollo de valores éticos, la educación contribuiría al desarrollo de la personalidad, y
a la concientización de la ciencia como herramienta para el bienestar de la sociedad humana,
y no para su autodestrucción.
38. HISTORIA
Ciencia social que se ocupa del estudio de cómo devienen y se desarrollan en el tiempo las
sociedades, culturas o civilizaciones humanas. Se trata de un estudio longitudinal (a través
del tiempo) que puede y debe ser encarado desde la perspectiva de la TGS constituyéndose
así, como una 'historia teórica'.
socio-culturales, y con las cuales buscan sanamente sustituir los enfoques más filosóficos o
metafísicos antes citados.
iii. Críticas y réplicas entre el enfoque académico y el enfoque teórico de la historia. La
historia académica condena las construcciones en la historia teórica por 'intuitivas', 'contrarias
a los hechos', 'arbitrarias', etc., y le critican sus intentos por encajar los hechos de la historia
en teorías artificiosamente inventadas. La historia teórica procurará, precisamente, limpiar las
construcciones o teorías que explican la historia de sus encajes filosóficos, transformando los
problemas metafísicos en problemas científicos, y tomando como base la TGS.
Utilizando el lenguaje de la psicología de la conducta, la historia académica adopta una
actitud 'molecular' al fragmentar el comportamiento en partes aisladas y tratarlos en términos
de causas y efectos singulares, mientras que la historia teórica procura una actitud 'molar', es
decir, entender el comportamiento como un fenómeno total con la esperanza de descubrir las
grandes leyes que lo rigen. Reemplacemos 'comportamiento' por 'hecho histórico' y la
distinción entre molecular y molar podrá aplicarse a la historia.
Otra crítica que puede recaer sobre la actitud teórica se basa en el argumento de la
inevitabilidad histórica: si la historia está gobernada por leyes generales, los hechos históricos
pasados, presentes y sobre todo los futuros serían inevitables, lo cual contradice nuestra
experiencia de sujetos con libre albedrío. Von Bertalanffy replica que esta critica es
improcedente, porque las leyes históricas no pretenden predecir, al modo laplaceano, un
porvenir inexorablemente determinado, sino tan sólo probabilidades. El moderno espíritu de la
ciencia ve en las leyes un carácter mas bien estadístico, que deja cierto margen para que el
curso de la historia no devenga de manera fatal e inexorable.
En este contexto, von Bertalanffy hace referencia al principio de actualidad, según el cual no
debe recurrirse a más hipótesis o principios explicativos que los sustentados efectivamente
por la evidencia empírica hasta el presente, es decir, al momento de formular la hipótesis en
cuestión.
Von Bertalanffy cita este principio, especialmente aplicable a campos históricos como la
geología o la evolución, simplemente como criterio para elegir entre dos teorías contrapuestas
(racionalismo vs. irracionalismo) en el contexto de su discusión sobre la aplicabilidad de la
TGS a la historia y al 'libre albedrío'. En efecto, si aplicamos el principio de actualidad a las
decisiones humanas, deberemos quedarnos con el irracionalismo, porque la evidencia
empírica muestra que aquellas decisiones son, según los datos estadísticos, más irracionales
que racionales.
39. HOMEOSTASIS
Principio establecido por el fisiólogo Cannon y según el cual, una parte importante de los
procesos en los sistemas vivos tienden a mantener constante la situación material y
energética del organismo. Ejemplo típico: la termorregulación. Muchas actividades
biológicas y psicológicas no están regidas, sin embargo, por este importante principio.
I Definición y ejemplos. Cuando por algún motivo se rompe el equilibrio en un sistema vivo,
un mecanismo homeostático produce una serie de modificaciones que devolverán al sistema
al equilibrio original. 'Homeostasis' significa 'igual estado', es decir, el sistema busca recuperar
el mismo estado de equilibrio que tenía anteriormente a la perturbación. Cannon, el
introductor del concepto en fisiología, define la homeostasis como una disposición fisiológica
que sirve para restaurar el estado normal una vez que ha sido trastornado (1).
Ejemplos:
a. Termorregulación: cuando la temperatura de nuestro cuerpo pasa de los límites
normales, se desencadenan ciertos mecanismos que intentarán retornar a la temperatura
normal, como por ejemplo transpirar. Si la temperatura baja demasiado, el mismo
mecanismo termorregulador se encargará de subirla, de manera que siempre tiende a
mantener una temperatura constante, a saber, la óptima para que los procesos vitales
puedan cumplirse con normalidad. Existen en el cuerpo mecanismos homeostáticos
análogos que preservan la constancia de gran número de variables físico-químicas, como
por ejemplo la conservación de la presión osmótica del pH, de la concentración de sales,
etc.
b. Sistemas Retroalimentados. Existen en el organismo humano y animal otros sistemas
también retroalimentados comparables a los servomecanismos de la tecnología, que se
encargan de la regulación de posturas y acciones. Si queremos alcanzar un lápiz, se
envía al sistema nervioso central un informe sobre la distancia que nos impidió llegar a él
en el primer intento: esta información es retroalimentada al sistema nervioso central para
que el movimiento sea controlado, hasta que se logre la meta.
ii. Homeostasis y retroalimentación. Los ejemplos precedentes ponen de manifiesto que el
mecanismo responsable de la homeostasis es la retroalimentación. Todos los mecanismos
homeostáticos están gobernados, en gran medida, por un mecanismo de retroalimentación,
pero no todo proceso de retroalimentación es homeostático, porque por definición, la
homeostasis se aplica sólo a sistemas vivos. Por ejemplo, es posible encontrar también
retroalimentación en las máquinas creadas por el hombre, como en los cañones antiaéreos,
los proyectiles autodirigidos y los servomecanismos.
iii. Limitaciones del principio de homeostasis. Se ha exagerado muchas veces la importancia
de este principio. Por ejemplo, fue con el principio homeostático con el cual el psicoanálisis
identificó su teoría de la descarga de tensiones como única tendencia primaria.
Sin embargo, muchos fenómenos han obligado a una completa revisión de este principio, que
insistía únicamente en la tendencia al equilibrio. De hecho, el mismo Cannon reconoció que
además de los mecanismos homeostáticos existían también mecanismos 'heterostáticos',
vinculados a fenómenos de otra índole como por ejemplo, por utilizar terminología de von
Bertalanffy, fenómenos de evolución, de entropía negativa, de producción de estados
improbables, creatividad, establecimiento de tensiones, autorrealización, etc.
Más concretamente, el esquema homeostático no es aplicable:
a. A regulaciones dinámicas, o sea a regulaciones no basadas en mecanismos fijos sino
que se dan dentro de un sistema que funciona como un todo, como por ejemplo los
procesos de regulación después de lesiones cerebrales;
b. A actividades espontáneas;
c. A procesos cuya meta no es la reducción sino el establecimiento de tensiones;
d. A procesos de crecimiento, desarrollo, creación y similares.
Tampoco el principio el aplicable a actividades humanas consideradas no útiles -para la
conservación y supervivencia, se entiende- como el arte y otras manifestaciones de la cultura.
Según von Bertalanffy, el modelo homeostático sí puede en cambio aplicarse en sicopatología,
porque en general las funciones no homeostáticas decaen en los pacientes mentales. Como
había dicho Karl Menninger, las defensas mentales enfermas hacen descender al paciente a
niveles homeostáticos cada vez más bajos, hasta no dejar sino la preservación fisiológica.
Muchos fenómenos requieren, entonces, otro tipo de explicación, más allá del principio de
homeostasis, con lo cual habrá que recurrir a conceptos tales como equifinalidad e
intencionalidad.
La insistencia en la importancia del principio homeostático puede conducir a resultados
adversos. Si tal principio fuese tomado como regla de oro del comportamiento humano, el
individuo bien llamado ajustado será la meta última del sistema social, un robot bien aceitado
que se mantenga en óptima homeostasis biológica, psicológica y social: un 'mundo feliz' que
para muchos no es en modo alguno el estado ideal de la humanidad. Del mismo modo si
adoptáramos el principio homeostático en la educación, ésta debería ser progresiva, sin
estímulos y sin influencias directoras porque todo ello aleja al sujeto cada vez más del
equilibrio original (serían fuerzas más desequilibrantes), lo cual traería como consecuencia
una cosecha de ignorantes y delincuentes juveniles sin precedente.
En sicopatología, de idéntica forma, se sabe que los sujetos con privación sensorial, aislados
de todo estímulo externo que 'rompa el equilibrio', en pocas horas sucumben a la llamada
psicosis modelo, con alucinaciones, angustia insufrible, etc. En contraste, el máximo estrés
(que implica aumento de tensiones, no reducción como dice la homeostasis) no produce
necesariamente trastornos mentales.
Nota.
(1) Cannon W., La sabiduría del cuerpo, 1932.
40. HOMOLOGÍA
consideración correcta de los mismos (por oposición a las simples analogías, que se refieren
a semejanzas más superficiales y, por tanto, engañosas). La TGS puede permitir identificar la
distinción entre analogías y homologías, mostrando a las primeras como parecidos sin sentido
y a las segundas como traslados significativos de modelos, cosa que no debe confundirse con
hacer un reduccionismo.
ii. Homología en biología. Cabe suponer, dada su formación como biólogo, que von Bertalanffy
extrajo los términos 'analogía ' y 'homología' de la biología evolutiva. En este contexto,
órganos análogos cumplen la misma función, pero son totalmente diferentes en cuanto a
organización y origen. Ejemplo: las alas de un ave y las alas de una mariposa. En cambio
órganos homólogos son aquellos que sí tienen organización y orígenes semejantes, más allá
de si cumplen actualmente la misma función o no. Por ejemplo el ala de un ave es homóloga
al brazo de un hombre o al ala de un murciélago.
La homología es un concepto científico más fecundo, porque permite establecer si dos seres
vivos provienen de la misma línea evolutiva y, por tanto, resulta necesario para su
clasificación concreta dentro del conjunto de los seres vivos (por ejemplo, como mamífero).
Catalogar los animales por simples analogías puede llevarnos a un sistema artificial de
clasificación y a una incorrecta interpretación de las líneas evolutivas, como por ejemplo
afirmar que la gaviota y la mariposa derivan de un mismo ancestro porque ambas tienen alas.
Un individuo es un sistema centralizado. Por ejemplo una planta, un animal, una gestalten,
el hombre. Tanto en la evolución filogenética como en el desarrollo ontogenético, el ser
vivo evoluciona desde un estado de mínima individualización hacia otra de máxima
individualización, proceso que, bajo la denominación de individualización progresiva,
constituye uno de los principios formales y generales de los sistemas.
Para que un sistema llegue a constituir un individuo, sus diversas partes deben pasar a depender
progresivamente de otra parte central o conductora, es decir, la individualización presupone la
centralización. De aquí la definición de individuo como sistema centralizado. Por ejemplo, una
multitud amorfa no tiene 'individualidad'; para que una estructura social se distinga de otras, es
necesario el agrupamiento en torno a determinados individuos que constituyan su parte
conductora.
El vocablo 'individuo' significa originalmente 'indivisible' o 'único', y en la medida que es único
puede ser recortado o discernido de otros individuos. Este proceso de progresiva individualización
idealmente debiera concluir una individualización completa, pero esto es sólo un ideal: un
organismo, un sistema mental, una sociedad, en virtud de su centralización progresiva, sólo
pueden hacerse cada vez más unificados y más indivisibles, pero no totalmente en la medida en
que subsista algún tipo de relación con los demás individuos-sistemas.
En los animales inferiores (filogenia) o en los primeros estadios embrionarios (ontogenia), hay aún
poca individualización (precisamente porque hay poca centralización). ¿Será posible llamar
'individuo' a una planaria en vista de que si esos animales son cortados en muchos pedazos, cada
uno regenera un animal completo? También es fácil crear experimentalmente hidras de dos
cabezas, las cuales buscarán atrapar una pulga de agua, si bien no tiene importancia cuál de las
dos se la engullirá porque irán a parar un estómago en común para beneficio de ambas partes.
Aquí no hay una centralización suficiente como para que una de ambas cabezas domine sobre la
otra y la haga funcionar, por ejemplo, como vía de excreción. De modo similar, si cortamos en dos
mitades un embrión de salamandra, cada una generará una salamandra completa.
Von Bertalanffy menciona también a los individuos calificando a los seres humanos, y lo hace en
este caso en un sentido ético. La TGS aspira a rescatar la individualidad del hombre, sus valores,
sus derechos, etc., alertando acerca del mal uso de la teoría de sistemas cuando se pone al
servicio de organizaciones totalitarias que sojuzgan al hombre considerándolo menos como un
individuo que como un engranaje más de la máquina social. En este sentido, rescata la
advertencia del Leviatán acerca de que la organización no debe engullir al individuo si no quiere
firmar su sentencia de muerte.
Teoría matemática desarrollada desde la década del '40 en adelante y basada en gran parte
en los trabajos de Shannon, que se ocupa de testimoniar la unidad conceptual de una
diversidad de procesos que implican transmitir, almacenar y procesar información.
La Teoría de la información, junto con la cibernética, la teoría de los juegos y otras disciplinas
igualmente recientes, constituyen progresos que están destinados a enfrentarse a las necesidades
de una TGS. Se trata, concretamente, de enfoques centrados en una concepción sistémica de la
realidad. Von Bertalanffy se refería a ella también como 'teoría de la comunicación', aunque en
general se tiende a concebir a la teoría de la información como una expresión más generalizada de
la teoría de la comunicación, al acentuar los aspectos formales de ésta última (sintácticos) más que
sus aspectos de contenido (semánticos y pragmáticos).
43. INTEGRACIÓN
Si bien no es un término específico utilizado por von Bertalanffy, este autor utiliza la idea
sobretodo en relación con ciertas propiedades formales de los sistemas, como la centralización y
la individualización (Ver Sistema, Centralización, Individuo / Individualización).
La integración supone la centralización, y da como resultado la individualización. La centralización,
porque integrar implica reunir diferentes procesos y funciones parciales bajo el control de una
parte conductora o central. El sistema nervioso se integra en la medida en que los centros
superiores pueden dirigir o controlar a los inferiores. Esta integración da lugar a una
individualización, es decir, hace funcionar al sistema como un todo idealmente indivisible y
relativamente aislado de los otros sistemas (precisamente, individualización viene de 'individuo' y
este a su vez, de 'indivisible'). Se trata de una unificación a partir de una parte conductora.
Similares características podemos observar también en la personalidad o en los sistemas sociales.
44. INTENCIONALIDAD
Tipo de finalidad en la cual el comportamiento actual está determinado por una meta
prevista de antemano. La verdadera intencionalidad es característica del comportamiento
humano y está vinculada a la evolución del simbolismo del lenguaje y los conceptos.
La intencionalidad presupone que la meta futura está ya presente en el pensamiento y que está
dirigiendo la acción presente: 'si hago esto podré conseguir aquello'. Tal es el concepto aristotélico
original. Aristóteles distinguía cuatro causas: la causa material, la formal, la eficiente y la final. La
causa eficiente es la noción tradicional de causa utilizada sobretodo en la ciencia, mientras que la
causa final es, en la concepción de von Bertalanffy, lo que él llama intencionalidad.
La intencionalidad es típica de la conducta humana. De hecho, es imposible prescindir de la
persecución de metas y de la intencionalidad, aunque se adopte una posición estrictamente
conductista.
El método del ensayo y error físico, tan característico del comportamiento animal, es reemplazado
en el hombre por la 'experimentación mental', con símbolos conceptuales. Esto es lo que hace
posible la persecución de metas. La persecución de metas y la teleología en un sentido metafísico
(o sea, la tendencia del organismo a mantenerse, producirse y reproducirse) constituyen un criterio
general de vida. Sin embargo, la verdadera intencionalidad, propia del hombre, implica que las
acciones son realizadas con conocimiento de su meta o resultado final futuro; la concepción de la
meta venidera ya existe e influye sobre las acciones presentes. Esto se aplica tanto a las acciones
cotidianas como a los supremos logros del intelecto humano en la ciencia y la tecnología.
45. INTERDISCIPLINARIO
Punto de vista defendido por la TGS, y que sostiene la posibilidad de introducir nuevos
modelos conceptuales, llamados modelos interdisciplinarios, que trascienden los
compartimientos ordinarios de la ciencia y son aplicables a fenómenos de diferentes
campos.
46. ISOMORFISMO
Dos o más sistemas son isomorfos cuando comparten las mismas características
generales más allá de sus diferencias específicas, que también existen. El concepto de
isomorfismo es fundamental en el pensamiento de von Bertalanffy, en la medida en que, al
afirmar la existencia de similaridades formales o estructurales en diferentes ámbitos del
conocimiento científico, sustenta y justifica la existencia misma de la TGS, que pretende
justamente lograr la unificación de la ciencia.
también hay semejanzas formales entre fenómenos tan diferentes como la formación de un
animal completo a partir de un germen dividido de salamandra, y los fenómenos perceptivos
descriptos por la psicología de la Gestalt.
En la evolución de las lenguas y en la evolución de los seres vivos también se verifican
isomorfismos: a partir de una lengua (o un ser vivo) en común, evolucionaron en forma
paralela e independiente una de otra varias otras lenguas (o especies vivientes). Von
Bertalanffy destaca este paralelismo evolutivo entre lenguas, o entre especies animales, y con
ello busca ilustrar la presencia de isomorfismos.
Otros ejemplos de isomorfismos son, finalmente:
d. similaridades estructurales entre un sistema biológico y una sociedad humana;
e. similaridades estructurales entre la teoría biológica de Volterra y la teoría de la economía
cuantitativa, que son isomorfas en muchos puntos. Hemos seleccionado estos dos
últimos ejemplos deliberadamente, para mostrar que los isomorfismos se pueden
establecer tanto entre 'realidades' (ejemplo d) como entre 'esquemas conceptuales' de
realidades, o teorías (ejemplo e). Esta distinción nos lleva al problema de los requisitos
previos para la existencia de isomorfismos.
En un sentido amplio, capacidad que tiene el individuo de elegir entre varios caminos de
acción posibles, de acuerdo a su propio provecho o satisfacción y más allá de si sus
elecciones son o no racionales. El concepto está estrechamente vinculado con las ideas de
determinismo, responsabilidad, elección racional y elección irracional.
una a nivel global o molar (determinismo histórico y social), otra a nivel individual o molecular
(libre albedrío personal), y para cada una de ellas la TGS dispone de modelos para
estudiarlos y explicarlos. Así por ejemplo, para el comportamiento de masas se aplicarían
leyes de sistemas que, si pudieran ser matematizadas, tendrían la forma de cierto tipo de
ecuaciones diferenciales, mientras que las elecciones individuales quedarían descriptas por
teorías como la de los juegos y la decisión, que se ocupan de elecciones racionales. Incluso
las grandes decisiones de los grandes hombres de la historia pueden ser entendidas como
'partes conductoras', 'disparadores' o 'catalizadores' del proceso histórico, es decir,
recurriendo a una característica básica de todo sistema que es la centralización (ver
Centralización). El libre albedrío, el problema filosófico más resistente al análisis científico,
puede así ser estudiado científicamente desde la TGS.
iii. Libre albedrío y responsabilidad. Separada de la cuestión epistemológica vista
precedentemente, está la cuestión moral y legal de la relación entre libre albedrío y
responsabilidad. Esta última es juzgada siempre dentro de un marco simbólico de valores, de
los que acepta una sociedad en circunstancias dadas. Si alguien tiene obliterada la
comprensión simbólica y no puede distinguir el bien y el mal es inimputable: carece de
responsabilidad. Pero si puede distinguir una cosa de otra, su acción será castigada o no
según los valores de cada sociedad y de cada circunstancia. Por ejemplo, en periodos de paz
el matar se castiga, y en periodos de guerra el no aceptar la orden de matar será lo castigado.
48. MAQUINA
Dispositivo creado por el hombre que sirve para producir determinados efectos. El término
designa también, entre otros varios significados, al conjunto de las partes de un todo,
especialmente el caso de un animal (máquina viviente).
El paso más reciente es el de las máquinas moleculares, concepto aplicado a los seres vivos
en la medida en que se verifican en él complejas reacciones químicas (metabolismo), y en la
medida en que encierra una 'micromáquina' que traduce el código genética del ADN a
proteínas específicas y, a fin de cuentas, lleva a constituir al organismo en sí.
iii. Limitaciones del modelo del organismo como máquina.- A pesar del éxito del modelo del
organismo como una máquina, este tiene ciertas dificultades y limitaciones que se pueden
sintetizar en tres puntos:
a. No puede explicar el origen de los seres vivos a partir de un universo de acontecimientos
físico-químicos no dirigidos.
b. No pueden explicar cómo un ser vivo puede regularse luego de un inmenso número de
perturbaciones arbitrarias (una máquina mecánica exhibe regulación, pero sólo cuando
se produce un número finito de perturbaciones, como ocurre por ejemplo con la máquina
de Turing).
c. No explica cómo es posible que el organismo vivo puede preservarse o auto mantenerse
a pesar de ser él mismo una máquina compuesta de combustible que se consume
continuamente. En general, estas limitaciones pueden superarse si abandonamos el
modelo del organismo como máquina, e introducimos el modelo del organismo como
sistema abierto (ver Organismo).
Este modelo permite arrojar alguna luz sobre el origen de la vida (ver Organísmica,
concepción), y también permite por ejemplo entender al organismo viviente como sistema
capaz de autoorganización, es decir, capaz de organizarse y complejizarse pero no por
estímulos externos, sino por sus propias leyes internas de organización. Los sistemas
autodiferenciantes que evolucionan hacia una complejidad creciente son, por razones
termodinámicas, sólo posibles como sistemas abiertos, pues necesitan importar materia y
energía del exterior. Sin embargo, no podemos decir que los cambios deban proceder de
algún agente externo: la diferenciación y complejización de un embrión en desarrollo son
debido a sus leyes internas de organización, y la entrada de materia y energía apenas la
posibilita energéticamente, es decir, aporta la el material y la energía para que las leyes
internas actúen.
Nota.
(1) Ferrater Mora J., Diccionario de filosofía, Madrid, Alianza, 1979, pág. 2163.
49. MATEMÁTICA
Disciplina puramente formal en sí misma, pero aplicable a las diversas ciencias empíricas.
En tal sentido, constituye una meta hacia la cual tiende la TGS, en la medida en que esta
aspira a formular principios válidos para los 'sistemas' en general, más allá de sus
componentes o contenidos específicos. De hecho, es posible definir matemáticamente un
sistema de varias maneras distintas, y plantear la TGS como un riguroso sistema
axiomático.
i. Matemática y TGS. Para von Bertalanffy, la matemática ha de servir de modelo para una
TGS más elaborada, pues ésta última estudia los aspectos más generales y formales de los
sistemas. En forma elaborada, la TGS no sería más que una disciplina lógico-matemática, y
tendría la misma aplicación en las ciencias que se ocupan de 'todos organizados' que la teoría
de la probabilidad aplicada a las ciencias que estudian 'acontecimientos aleatorios'. De hecho,
es posible definir matemáticamente un sistema de varias maneras distintas, como por ejemplo
50. MECANICISMO
Punto de vista nacido de la física clásica del siglo XIX según el cual:
A. el mundo es el resultado de acontecimientos casuales o fortuitos, sin ninguna meta o
direccionalidad;
B. todos los fenómenos del mundo, inanimado, viviente y mental, están regidos por las
leyes inexorables de la causalidad, y por lo tanto,
C. la ciencia ha de ocuparse de descomponer la realidad en unidades cada vez menores y
de aislar cadenas causales separadas o independientes; d) el mecanicismo reduce todos
los fenómenos al dominio de la física.
La TGS criticará el dogma mecanicista por resultar insuficiente para la explicación de
muchos fenómenos, especialmente los de la vida. Se opondrá, concretamente, a sus
pretensiones anti-finalistas, causalistas lineales y reduccionistas.
del estado inicial de un proceso y de las leyes que lo rigen, es posible predecir con exactitud
cualquier otro estado subsiguiente.
iii. Mecanicismo y determinismo. Sin embargo, no debe identificarse el mecanicismo con el
determinismo. La concepción mecanicista del mundo fue determinista en sus orígenes,
cuando postulaba que los fenómenos del mundo estaban regidos por leyes causales
inexorables. A esta primera etapa se refiere von Bertalanffy cuando habla de causalidad
unidireccional y vínculos causales separados e independientes.
Sin embargo, esta visión mecanicista no quedó alterada -antes bien, se reforzó- cuando en la
física las leyes deterministas fueron reemplazadas por leyes estadísticas. De acuerdo con la
derivación de Boltzmann del segundo principio de la termodinámica, los fenómenos
evolucionan hacia un estado de máxima probabilidad, de suerte que las leyes físicas son
esencialmente 'leyes del desorden', fruto de acontecimientos desordenados, estadísticos. Un
desarrollo posterior del mecanicismo fue, entonces, el indeterminismo.
Más claramente: cuando tratamos con partículas muy pequeñas, sub-atómicas, desaparecen
los nexos causales y todo parece estar regido por el desorden. Esto no implica imposibilidad
de predecir: las predicciones ya no se realizan en base a leyes causales estrictas sino en
base a leyes estadísticas, las cuales, por ejemplo, en lugar de afirmar que una partícula
estará con seguridad en un cierto momento en tal lugar (ley causal), afirmarán que ello sólo
puede saberse con un cierto grado de probabilidad (ley estadística).
iv. Mecanicismo y atomismo. El mecanicismo clásico es atomista, y por lo tanto la tarea del
científico es eminentemente analítica: descomponer el fenómeno en unidades o partes cada
vez más pequeñas, aislando cadenas causales separadas o independientes. Así, la realidad
física era descompuesta en puntos de masa o átomos, el organismo vivo en células, el
comportamiento en reflejos, la percepción en sensaciones puntuales, etc.
Con el advenimiento del indeterminismo, el atomismo perdió mucho de su vigencia: los
electrones, por ejemplo, ya no eran elementos o partes discernibles e identificables como
tales, sino que quedaban definidos como 'nubes de probabilidades' en un espacio cuántico
(distinto al espacio cotidiano que conocemos), espacio donde cada sector queda definido por
un cierto grado de probabilidad de encontrar un electrón, entendido este último más como
energía que como punto material.
v. Mecanicismo y reduccionismo. Si el mecanicismo es reduccionista es sobretodo porque
reduce todas las ciencias al modelo mecánico proporcionado por la física clásica. Más
concretamente, son reducidas a la física la biología, las ciencias del comportamiento, la
sociología, la historia, etc.
a. Reducción de la biología a la física. El fisicalismo, de inspiración mecanicista,
consideraba al organismo viviente como una extraña (en el sentido de fortuita, azarosa)
combinación de aconteceres o máquinas de naturaleza físico-química. La biología
mecanicista veía su meta en la fragmentación de los fenómenos vitales en entidades
atómicas y procesos parciales. El organismo vivo era descompuesto en células, sus
actividades en procesos fisiológicos y por último físico-químicos, el comportamiento en
reflejos condicionados y no condicionados, el mecanismo de la herencia en genes
discretos, y así sucesivamente. Es así que este reduccionismo no intenta explicar el
fenómeno de la vida sino a partir de procesos físico-químicos, es decir, proporcionando la
misma explicación que daba de la materia inanimada, con lo cual soslayaba la
especificidad del fenómeno vital. Como indica von Bertalanffy, para el fisicalismo no
interesa si el perro está vivo o está muerto, pues los procesos que en ambos ocurren,
aunque diferentes, son igualmente explicables desde el único modelo de la física.
La evolución era explicada de manera similar. El mundo viviente aparecía como producto
de la casualidad, fruto de mutaciones al azar y de la supervivencia en el apuro de la
selección natural.
b. Reducción de las ciencias del comportamiento y sociales a la física. La psicología de
la asociación, de inspiración mecanicista, trataba de resolver los fenómenos mentales en
unidades elementales -átomos psicológicos, se diría- tales como sensaciones. Del mismo
modo, en las ciencias sociales el concepto de sociedad fue concebido como una suma de
individuos como si fuesen átomos sociales.
Por otra parte, tanto para el conductismo como para el psicoanálisis, la personalidad
humana era considerada, desde la perspectiva mecanicista y posivitista, como el
producto casual de 'natura y nurtura', de una mezcla de genes y una sucesión accidental
de acontecimientos desde la primera infancia hasta la madurez. En la práctica, este
reduccionismo ha sido fatal para nuestra civilización, ya que la actitud de considerar los
fenómenos físicos como único patrón de realidad ha llevado a la mecanización del género
humano y a la devaluación de los valores superiores.
vi. Mecanicismo y TGS. Según von Bertalanffy, el mecanicismo ha resultado ser un punto de
vista insuficiente para la comprensión de una gran variedad de acontecimientos del mundo.
Entre las principales críticas que caben formularse al mecanicismo desde una TGS,
encontramos las siguientes:
a. No es verdad que el mundo esté regido por las 'ciegas' leyes de la naturaleza y que
muchos acontecimientos no tengan una meta o una direccionalidad. No podríamos
concebir un organismo vivo -no digamos ya un comportamiento o la misma sociedad
humana- sin tener en cuenta lo que se suele llamar adaptabilidad, intencionalidad,
persecución de metas y cosas semejantes.
La idea de teleología, o bien era explicada a partir de ciertos agentes sobrenaturales o
misteriosos, como lo hacía por ejemplo el vitalismo, o bien considerada un seudo
problema, como lo hacía el mecanicismo al sostener que mal puede plantearse el
problema del porqué de las metas, cuando en rigor no hay metas preestablecidas y todos
los procesos son resultado del azar.
La TGS optará por una tercera solución: las metas existen, y pueden ser entendidas a
partir de ciertas características de ciertos sistemas tales como por ejemplo la
equifinalidad y la intencionalidad. Frente a la visión mecanicista del mundo como caos,
opondrá una nueva visión del 'mundo como organización'.
b. No es verdad que todo pueda ser explicado a partir de cadenas causales lineales
independientes entre sí. La ciencia clásica se ocupaba ante todo de problemas de dos
variables, de cursos causales lineales, de una causa y un efecto o de unas pocas
variables cuanto mucho. Daba así soluciones perfectas para la atracción entre dos
cuerpos celestes, un sol y un planeta, por ejemplo, pudiendo predecir exactamente sus
futuras configuraciones. También podían solucionarse problemas de dos cuerpos como el
protón y el electrón. Si las variables en juego o los cuerpos se multiplicaban, surgían
problemas: ya la situación de tres cuerpos en mecánica es insoluble en principio y sólo
puede abordarse mediante aproximaciones.
Muchos problemas quedaban así sin resolver, como los que aparecían en la física y la
biología modernas, donde había en juego muchas variables (aunque no infinitas), es
decir, frente a totalidades organizadas en las cuales los elementos interactúan
mutuamente. La TGS viene a llenar este vacío introduciendo nuevas herramientas
conceptuales tales como interacciones multivariable (por ejemplo la cinética de reacción,
51. MECANIZACIÓN
Propiedad formal de los sistemas o principio de organización de los mismos según el cual
estos, en su evolución, van pasando de un estado de interacción dinámica entre sus
componentes, hacia otro estado donde se establecen disposiciones fijas y condiciones
restrictivas que tornarán al sistema más eficiente. Se dice así, que el sistema va
mecanizándose progresivamente.
las estructuras sociales. En una comunidad primitiva cada miembro puede hacer casi cualquier
cosa que pueda esperarse en su conexión con el todo, pero en una comunidad altamente
diferenciada (estadio posterior) cada miembro tiene su propia función específica: la
especialización llevó a la mecanización. El progreso sólo es posible pasando de un estado de
totalidad indiferenciada a la diferenciación de partes, o también, por subdivisión de una acción
inicialmente unitaria en acciones de partes especializadas. La diferenciación de estructuras
(partes) y funciones (acciones que ejecutan las partes) lleva entonces a la mecanización
progresiva.
Cabe destacar, sin embargo, que jamás se alcanza la mecanización completa, mientras la vida
persista. Aún cuando el organismo esté en parte mecanizado, no deja de ser un sistema unitario:
tal es el fundamento de la regulación y de la interacción con las cambiantes exigencias del medio
ambiente. Esto significa que, si el sistema vivo es afectado por influencia del entorno, buscará
compensar el desequilibrio producido comportándose como una totalidad, donde cada parte
mecanizada quedará subordinada inmediatamente a ella.
52. METABOLISMO
i. Metabolismo y TGS. Los procesos metabólicos ilustran la hipótesis sistémica del organismo
como sistema abierto con tendencia al estado uniforme. Es un sistema abierto porque intercambia
materia y energía con el medio. Una planta, por ejemplo, incorpora moléculas simples y entrega
moléculas transformadas, y también recibe energía solar y entrega a su vez energía al medio.
Además, la célula y el organismo vivos no son máquinas estáticas compuestas de materiales de
construcción más o menos permanentes, entre los cuales los materiales productores de energía
procedentes de la nutrición fueran degradados para abastecer de energía los procesos. Encierran
en realidad un dinamismo continuo en el cual hay degradación y regeneración tanto de los
materiales de construcción (por ejemplo proteínas) como de las sustancias productoras de energía
(por ejemplo carbohidratos), procesos ambos que están regulados de tal manera que la célula y el
organismo se mantienen aproximadamente constantes en un estado llamado estado uniforme. Los
sistemas abiertos y los estados uniformes en general desempeñan un papel fundamental en el
metabolismo, si bien sólo ha sido posible formularlos matemáticamente únicamente en casos
sencillos.
53. MODELO
es el fenómeno. Fenómenos complejos son los culturales e históricos, por ejemplo, y de aquí
que las grandes teorías de la cultura y la historia resultan ser modelos muy imperfectos.
iii. Modelos matemáticos y verbales. Los primeros describen la realidad en términos de
ecuaciones y algoritmos, y los segundos son menos precisos ya que utilizan palabras para
esas descripciones. Ciertos modelos económicos y evolucionistas como el de Darwin
comenzaron siendo modelos verbales, y luego fue posible matematizarlos parcialmente. Otros
modelos son fundamentalmente verbales, como el psicoanálisis. Otros, en fin, nacieron como
modelos matemáticos, pero pronto encontraron dificultad en ser aplicados como tales en
psicología y sociología.
Von Bertalanffy piensa al respecto que primero debe intentarse la construcción de un modelo
no matemático, verbal, aún cuando los algoritmos sean mucho más precisos que el lenguaje
ordinario, y, a partir de ellos, intentar luego matematizarlos hasta donde sea posible. No
conviene, en cambio, construir a priori un modelo matemático prematuro que calque
algoritmos conocidos, ya que con ello se puede restringir el campo visual, es decir, no ver
ciertos aspectos esenciales de los fenómenos de la realidad.
iv. Otros tipos de modelos. Von Bertalanffy contrapone en primer lugar los modelos
mecanicistas y vitalistas a los modelos organísmicos (ver Mecanicismo, Vitalismo y
Organísmica, concepción). Entre los modelos mecanicistas está por ejemplo el modelo del
hombre-robot como esquema con pretensiones de universalidad para explicar el
comportamiento humano, y fundado en cuatro principios básicos: estímulo-respuesta,
equilibrio, ambientalismo y economía (ver estos artículos, y también Comportamiento).
Ejemplos de modelos organísmicos que von Bertalanffy describe con cierto detalle son: el
modelo de organismo como sistema abierto y estado uniforme, la homeostasis, la alometría, y
el modelo de Bertalanffy para el crecimiento.
54. OBSERVACIÓN
Parte de la Filosofía de los sistemas que se ocupa de establecer qué se entiende por
'sistema' y cómo están plasmados los sistemas en los distintos niveles del mundo de la
observación.
La TGS en sentido amplio abarca la Ciencia de los Sistemas, la Tecnología de los sistemas y la
Filosofía de los sistemas y, dentro de esta última, una parte es la Ontología de sistemas.
En sentido genérico, la ontología es el estudio de los entes. Específicamente, la Ontología de
sistemas aborda el estudio de entidades especiales llamadas 'sistemas', fijando su significación,
alcance y tipos.
Discrimina así dos tipos de sistemas: los sistemas reales y los sistemas conceptuales. Los
primeros son entidades percibidas en la observación o inferidas de ésta. Por ejemplo un perro,
una galaxia, una célula o un átomo. Los segundos son ante todo construcciones simbólicas, como
por ejemplo la lógica o la matemática, sin referencia a la realidad, pero también los hay referidos a
ella, como los llamados sistemas abstraídos, es decir, las diversas teorías científicas. (Para mayor
información, ver Sistema).
Propiedad formal de los sistemas según la cual estos están superpuestos de forma tal que
sus miembros o partes son a su vez sistemas del nivel inmediato inferior. Semejante
estructura jerárquica y combinación en sistemas de orden creciente es característica de la
realidad como un todo y tiene fundamental importancia especialmente en biología,
psicología y sociología.
i. Generalidades. Hoy en día 'vemos' el universo como una gran jerarquía. Empezando desde
las más inferiores encontramos, en orden: partículas elementales, núcleos atómicos, átomos,
moléculas, compuestos de molécula compleja, una pléyade de estructuras que caen entre las
moléculas y las células (y visualizables en microscopía electrónica y óptica), luego células-
organismos y, más allá, organizaciones supraindividuales como los organismos inferiores, los
animales, el hombre, hasta llegar a los sistemas socio-culturales y simbólicos.
Una jerarquía parecida surge tanto en 'estructuras' como en 'funciones', pero sea cual fuese el
punto de vista considerado, una teoría general del orden jerárquico será un pilar de la TGS. Si
bien hay progresos en cuanto a forma de representar los niveles jerárquicos (en forma verbal,
semi matemática, lógica matemática, 'árboles', etc.), aún no pueden ser expresados
adecuadamente en términos de energía (entropía negativa) ni el términos de información
(bits), habida cuenta de que el orden jerárquico está íntimamente vinculado a las ideas de
diferenciación, evolución y medición de la organización.
ii. Relación entre los niveles. Los niveles jerárquicos no son independientes entre sí. Por
ejemplo el organismo vivo es un orden jerárquico de sistemas abiertos. Lo que se impone
como estructura duradera en determinado nivel está sustentado, de hecho, por un continuo
intercambio de componentes en el nivel inmediatamente inferior. Así el organismo multicelular
se mantiene en y por intercambio de células, la célula por intercambio de estructuras
celulares, éstas por intercambio de ingredientes químicos, etc. Como regla general, los ritmos
de renovación son tanto más veloces cuanto menores son los componentes considerados.
iii. Orden jerárquico y centralización. Se trata de dos de las propiedades formales de los
sistemas (ver Sistema), y están particularmente vinculadas entre sí, en el sentido que la
progresiva centralización conduce a un progresivo desarrollo de nuevos niveles jerárquicos.
Al respecto, von Bertalanffy refiere que la mecanización conduce a menudo al establecimiento
de 'partes conductoras', o componentes que dominan la conducta del sistema. Tales centros
pueden funcionar como disparadores, es decir, un cambio pequeño en una parte conductora
por medio de mecanismos amplificadores, provoca grandes cambios en el sistema total. De
esta manera llega a establecerse un orden jerárquico de partes o procesos. En el cerebro, así
como en la función mental, se alcanzan la centralización y el orden jerárquico por
estratificación, es decir por superposición de 'capas' más altas que adoptan el papel de partes
conductoras
i. Generalidades. Básicamente hay tres puntos de vista que intentan explicar el fenómeno de la
vida: el mecanicismo, el vitalismo y la concepción organísmica.
a. El mecanicismo reduce los procesos biológicos a las leyes de la naturaleza inanimada: en
términos físico-químicos, un organismo vivo es un agregado de un gran número de
procesos definibles mediante fórmulas químicas, ecuaciones matemáticas y leyes de la
naturaleza. Tales procesos ocurren tanto en organismos vivos como en organismos
muertos, por lo cual recurrir a ellos para explicar la vida carece de sentido.
b. El vitalismo intenta explicar la vida a partir de la existencia de ciertas entidades
metafísicas como el impulso vital, etc. Se requiere, sin embargo, una explicación
científica de la vida, y a ella se acerca más la TGS al dar cuenta de ciertos fenómenos
vitales a partir de ciertas características de los sistemas, como por ejemplo la
equifinalidad (ver Vitalismo).
c. En oposición a los planteos mecanicistas y vitalistas, la TGS procura explicar el
fenómeno vital desde una concepción organísmica, según la cual la regulación de
aconteceres en el sentido del mantenimiento, la producción y la reproducción de la
totalidad orgánica- constituyen un criterio general de la vida.
El comportamiento de los seres vivos puede ser explicado si los consideramos como
sistemas abiertos. Todo organismo viviente es ante todo un sistema abierto. Se mantiene
en continua incorporación y eliminación de materia, constituyendo y demoliendo
componentes, sin alcanzar, mientras la vida dure, un estado de equilibrio químico y
termodinámico, sino manteniéndose en un estado llamado uniforme (steady) que difiere
de aquél. Tal es la esencia misma de ese fenómeno fundamental de la vida llamado
metabolismo, es decir el conjunto de los procesos químicos que ocurren dentro de las
células vivas.
El organismo viviente como sistema abierto que se mantiene en estado uniforme
presenta algunas características como las siguientes:
1. Equifinalidad: los estados uniformes son equifinales, es decir, el mismo estado
independientemente del tiempo puede ser alcanzado a partir de diferentes
condiciones iniciales y por distintos caminos, en gran contraste con los sistemas
físicos ordinarios, donde el estado de equilibrio está determinado por las condiciones
iniciales.
2. Entropía positiva: Mientras los sistemas físicos exhiben entropía positiva, los
sistemas vivientes poseen entropía negativa. En los sistemas cerrados el cambio de
entropía es siempre positivo, es decir, la entropía siempre aumenta, lo que equivale a
decir que hay una continua destrucción del orden. En los sistemas abiertos, sin
embargo, no sólo tenemos producción de entropía debida a procesos irreversibles,
sino también entrada de entropía que bien puede ser negativa, vale decir, pueden
desarrollarse hacia estados de orden y organización crecientes. Tal es el caso del
organismo vivo, que importa complejas moléculas ricas en energía libre. Orden y
organización crecientes implican la posibilidad de persistir, crecer, desarrollarse,
reproducirse, etc..
3. Orden jerárquico: El organismo vivo es un orden jerárquico de sistemas abiertos. Lo
que se impone como estructura duradera en determinado nivel está sustentado por
un continuo intercambio de componentes en el nivel inmediatamente inferior. Así, el
organismo se mantiene en y por intercambio de células, la célula por intercambio de
estructuras internas a la célula, éstas por intercambio de ingredientes químicos, etc.
La teoría de los sistemas abiertos y los estados uniformes es una expansión de la físico-
química, la cinética y la termodinámica ordinarias, necesaria para poder explicar el
acontecer vital. Esta expansión es conocida como 'termodinámica irreversible'. Esta
'revolución organísmica' es relativamente reciente, y está basada en los modernos
adelantos de las ciencias biológicas y del comportamiento.
Puesto que los sistemas vivos son sistemas abiertos, remitimos al lector a los
correspondientes artículos para ampliar las características del sistema vivo tales como el
estado uniforme, la equifinalidad, la entropía negativa, el orden jerárquico, etc.
ii. La concepción organísmica y la biogénesis. Examinemos por último, la posición de la
concepción organísmica frente al problema del origen de la vida. Von Bertalanffy admite la
posibilidad de responder a este interrogante desde la teoría de los sistemas abiertos, aún
cuando todavía falte investigar más en este ámbito.
Concepciones tales como la teoría del océano primordial y la teoría sintética de la evolución
resultan, hoy por hoy, insuficientes para la explicación del origen de la vida y la evolución de
las especies vivientes. La primera de estas teorías explica el origen de la vida por la aparición
casual de compuestos orgánicos (aminoácidos, ácidos nucleicos, enzimas, ATP, etc.) en un
océano primordial, los cuales, por selección, constituyeron unidades que se reproducían,
formas análogas a los virus, protoorganismos, células, etc. De modo similar, la teoría sintética
de la evolución explica la evolución de la vida como el resultado de mutaciones casuales en el
código genético bajo el imperio de la selección, es decir de la supervivencia de aquellos
genotipos que producen mayor descendencia en las condiciones externas existentes.
Von Bertalanffy criticará estas posturas, señalando que la selección, la competencia y la
supervivencia del más apto 'presuponen' la existencia de sistemas que se auto mantengan, es
decir de sistemas vivos; así, no pueden ser el resultado de la selección. Hoy por hoy no
conocemos ley física alguna que prescriba que, en una 'sopa' de compuestos orgánicos como
la del océano primordial, se formen sistemas abiertos que se auto mantengan, ni menos aún
que evolucionen formando nuevos y distintos seres vivos. La generación de las condiciones
para que haya vida y para que ésta evolucione es físicamente posible sólo si intervienen
'fuerzas organizacionales' de alguna clase y haya una acumulación de información en el
código genético. Este último no estaría constituido solamente por un vocabulario (dado por los
nucleótidos) sino por una 'gramática' sin la cual, en el mejor de los casos, produciría un
montón de proteínas, pero no un organismo organizado. Ciertas experiencias sobre la
regulación genética indican la existencia de esa organización del sustrato hereditario; habrá
que estudiar también sus efectos en las leyes macroscópicas de la evolución.
58. ORGANISMO
i. El organismo como sistema abierto. Si bien dentro del organismo existen sistemas en
equilibrio (sistemas cerrados como por ejemplo el sistema oxígeno-hemoglobina-
oxihemoglobina), al organismo como tal no puede considerárselo como un sistema cerrado o
en equilibrio, porque continuamente está intercambiando materia y energía con el medio
ambiente y, en lugar de tender hacia un estado de equilibrio, tiende hacia un estado uniforme,
propio de los sistemas abiertos. En efecto, el organismo mantiene un desequilibrio llamado
estado uniforme, y está así en situación de canalizar tensiones hacia la actividad espontánea
o en respuesta a estímulos desencadenantes, lo que hace que, respectivamente, el
organismo pueda ser considerado como activo por tener actividad autónoma, y como pasivo
por responder a estimulaciones perturbadoras, aunque la primera de estas características
tiene una especial importancia en la consideración sistémica.
El modelo de organismo como sistema abierto ha demostrado su utilidad en la explicación y
formulación matemática de numerosos fenómenos vitales, y lleva también, como es de
esperar de toda hipótesis científica de trabajo, a nuevos problemas, algunos de ellos
fundamentales. En oposición a este modelo, existe también el modelo de organismo como
máquina (modelo mecanicista), cuyas dificultades y limitaciones obligaron a abandonarlo,
sustituyéndoselo por el modelo sistémico abierto (ver Máquina).
ii. Organismo y personalidad. Del mismo modo que los fenómenos de la vida los hallamos en
entidades llamadas organismos, los fenómenos psicológicos sólo se hallan en entidades
individualizadas que en el hombre se denominan personalidades. Como indica Allport, sea lo
que fuere la personalidad, tiene las propiedades de un sistema.
59. ORGANIZACIÓN
60. PARADIGMA
Muy esquemáticamente, podemos decir con Kuhn que los paradigmas nacen, se desarrollan a
través de la llamada 'ciencia normal', y luego poco a poco van siendo reemplazados, total o
parcialmente, por nuevos paradigmas: es el momento de la 'revolución científica'.
Von Bertalanffy señala que tal desarrollo ocurrió cuando el paradigma sistémico, que él designa
como 'nueva filosofía de la naturaleza', reemplazó al anterior paradigma de la ciencia clásica, un
paradigma analítico que sustentaba una causalidad unidireccional y un mecanicismo que hablaba
de las 'leyes ciegas de la naturaleza' que regían el mundo y el devenir, como si fuese un
argumento shakesperiano contado por un idiota.
El nuevo paradigma propone una visión organísmica del mundo 'como una gran organización',
sólo comprensible a partir de la idea de sistema. Permite explicar muchos fenómenos de la
naturaleza como sistemas, es decir, como conjuntos de partes en interacción. El paradigma
clásico estaba muy limitado en este sentido porque, si bien desmenuzaba el todo en partes, no
tomaba en cuenta la interacción entre las mismas, característica esta definitoria de todo sistema.
El nuevo paradigma pone así en primer plano aspectos de la realidad que anteriormente no eran
considerados, y aún eran suprimidos, por el paradigma anterior.
Las primeras versiones de un nuevo paradigma suelen ser toscas, resuelven pocos problemas, y
las soluciones distan mucho de ser perfectas. Hay una profusión y competencia de teorías,
limitada cada una al número de problemas que puede resolver con elegancia. Sin embargo, el
nuevo paradigma abarca nuevos problemas, especialmente los que antes eran rechazados por
'metafísicos'. Estos criterios que Kuhn establece para un nuevo paradigma se aplican, según von
Bertalanffy, al nuevo paradigma sistémico. Por ejemplo en cuanto a la profusión de teorías, la
teoría de los sistemas comprende un conjunto de enfoques que difieren en estilo y propósito (ver
Enfoques de sistemas). Y en cuanto a los nuevos problemas que abarca y que anteriormente
eran 'metafísicos', encontramos el problema del espíritu vital como entidad metafísica, y que el
paradigma sistémico plantea en los términos más científicos de la equifinalidad (ver Vitalismo).
Nota
(1) Kuhn T., La estructura de las revoluciones científicas, Madrid, Fondo de Cultura Económica, 1975, pág. 13.
61. PERSONALIDAD
62. PERSPECTIVISMO
Postura asumida por von Bertalanffy según la cual ninguna ciencia ni ninguna cosmovisión
en particular tienen el monopolio del conocimiento. Antes bien, cada disciplina o cada
cosmovisión constituyen simplemente una determinada 'perspectiva' desde la cual puede
conocerse el mundo.
También debe distinguirse el perspectivismo del kantismo y del relativismo, ubicándose como una
postura intermedia entre éstas dos últimas. En rigor, al relativismo debiera llamárselo relativismo
absoluto o estricto, y al perspectivismo, relativismo moderado, aún cuando von Bertalanffy no
utilice estas denominaciones (ver Categoría).
63. PSICOLOGÍA
entonces incorporarla en las reuniones regulares de psiquiatras para desarrollar esta teoría
unificada del comportamiento humano fundada en la idea de sistema, y a la que por entonces
se calificó como la 'tercera revolución psicológica', después del conductismo y el psicoanálisis.
v. La noción de sistema en psicología, sicopatología y psiquiatría. Considerar la
personalidad como un sistema implica un estudio del comportamiento fundado en los
siguientes criterios (algunos de los cuales corresponden a importantes propiedades formales
de los sistemas en general):
a. El criterio de totalidad. El concepto 'molar' de organismo psicofísico como sistema se
opone al concepto 'molecular', o sea como agregado de unidades últimas tales como
reflejos, sensaciones, pulsiones, respuestas reforzadas, rasgos, factores, etc. En un
contexto sistémico, la disfunción mental no significa pérdida de funciones sueltas sino
perturbación del sistema en conjunto. Incluso las lesiones muy localizadas (por ejemplo
las corticales), afectan al sistema total de la personalidad, en particular a las funciones
superiores.
b. El criterio de integración. Es posible definir limpiamente las perturbaciones mentales en
términos de funciones de sistema: la enfermedad mental es a fin de cuentas una
perturbación de las funciones de sistema del organismo psicofísico. Entonces, ¿cómo
definir un sistema no perturbado, es decir, cómo definir la salud mental? Von Bertalanffy
ofrece su propio criterio, derivado del enfoque sistémico, cuando indica que la salud
mental depende en última instancia de un universo integrado congruente con el marco
cultural que le toque vivir a cada persona, de lo cual se desprende que lo que para una
cultura puede ser patológico para otra no lo es, según han mostrado los antropólogos
culturales. Así, un científico y un esquizofrénico construyen un mundo igualmente
fantástico e impresionante, porque la percepción no capta las cosas tal cual son. La
diferencia radica en que en la esquizofrenia los elementos subjetivos están 'desbocados y
desintegrados', y en el científico las ideas encajan en un sistema integrado.
c. El criterio de autonomía. Aún sin estímulos externos, el organismo psicofísico no es un
sistema pasivo sino intrínsecamente activo. El estímulo no 'causa' algún proceso en el
sistema, sino que 'modifica' procesos ya existentes en un sistema autónomamente activo
que tiende a mantener un desequilibrio permanente llamado estado uniforme. De hecho,
la actividad espontánea es la forma más primitiva de comportamiento, e intentar reducir
las tensiones desde el modelo del hombre-robot implica el riesgo de provocar desórdenes
mentales e impedir al hombre el desarrollo de sus potencialidades. Una personalidad con
la espontaneidad perturbada se torna un autómata, un ser pasivo, estado típico de la
conducta estereotipada de los catatónicos, por ejemplo. El hecho de que la personalidad
sea un sistema activo que busca la integración con su entorno, lleva a considerar a la
psicoterapia no como ajuste pasivo, sino como una oportunidad para desarrollar
potencialidades creativas, instaurar motivaciones normales que impliquen una actividad
autónoma, con integración de la conducta, plasticidad y adaptabilidad a situaciones
cambiantes, libre curso de la anticipación simbólica, etc. Las ideas de 'actividad
espontánea' y 'funciones simbólicas' deben ser la piedra angular para la consideración de
la salud y la enfermedad a la luz de la TGS.
d. El criterio homeostático. En general, el modelo de la homeostasis no es aplicable a la
personalidad en tanto sistema activo y autónomo. Sí es aplicable en sicopatología porque
en general las funciones no homeostáticas decaen en los pacientes mentales, incluso
hasta llegar a convertirse en un ente que subviene exclusivamente a sus necesidades
fisiológicas.
vi. Síntesis del aporte del enfoque sistémico. Entre las consecuencias generadas a partir de
una consideración sistémica en el ámbito de la psicología, pueden citarse las siguientes:
a. Ofrece un armazón teórico psicofísicamente neutral, en el sentido de que se opone a
reducir lo fisiológico a lo psicológico o viceversa, proponiendo en cambio la idea de
sistema como concepto igualmente aplicable a ambos campos, sin reducir uno al otro.
b. Ofrece un 'lenguaje común' para la comprensión de aspectos muy diversos entre sí como
conciencia e inconciente, cuerpo y mente, exterior y yo interior, etc., renunciando por
tanto a escindir estas áreas de lo real en compartimientos aislados, al modo dualista
cartesiano. Aquel 'lenguaje común', proporcionado por la TGS, algún día podrá
desembocar en alguna teoría unificada que pueda explicar al mismo tiempo todos los
aspectos mencionados.
c. Ofrece un nuevo sentido al libre albedrío y al determinismo, al proponer que este último
no limita la libertad humana, sino que funciona como marco de referencia para organizar
causalmente nuestro universo simbólico.
d. Ofrece también un nuevo sentido de la responsabilidad: el hombre no es ni un ser
totalmente irresponsable a merced de sus pulsiones e impulsos, ni totalmente
responsable según una norma universal, que por otra parte no existe. La responsabilidad
se juzga siempre dentro de un marco simbólico de valores, de los que acepta una
sociedad en una circunstancia dada.
64. REDUCCIONISMO
Punto de vista según el cual todos los fenómenos, tanto biológicos, del comportamiento
como los sociales pueden ser 'reducidos', es decir, explicados a partir de las leyes y teorías
de la física. Al referirse al reduccionismo, entonces, von Bertalanffy habla específicamente
de un fisicalismo, postura que considerará insostenible, y que debe ser reemplazada por
otra llamada 'perspectivismo'.
Si bien existen otros tipos de reduccionismos, incluso mencionados por von Bertalanffy tales como
el vitalismo y el biologismo, el autor tiende a definir reduccionismo en términos de fisicalismo, es
decir, la pretensión de explicar toda la realidad desde procesos puramente físicos, o bien de
reducir toda ciencia posible a la ciencia física. Por ejemplo, se ha hablado de una 'física social',
que intentaría explicar las ciencias sociales a partir de leyes físicas. En otra parte, von Bertalanffy
reserva el término fisicalismo sólo para la reducción de la biología a la física, y en tal sentido lo
distingue del biologismo (ver más adelante en este mismo artículo).
Como indicó Aldous Huxley, el mundo es un helado napolitano cuyos niveles -físico, biológico,
social, moral- corresponden a las capas de chocolate, fresa y frutilla, y la ridícula pretensión
reduccionista es precisamente reducir la fresa al chocolate.
Las tesis fisicalista y reduccionista se volvieron problemáticas y hasta se manifestaron como
prejuicios metafísicos. Las entidades de que trata la física (átomos, partículas subatómicas, etc.)
resultaron ser mucho más ambiguas de lo supuesto: no son metafísicas piedras de construcción
del universo sino modelos conceptuales harto complicados, inventados para explicar ciertos
fenómenos observados.
Von Bertalanffy propone un punto de vista más modesto, que él denominó 'perspectivismo'. En
rigor, cada nivel de la realidad tiene sus propias leyes, distintas a las de la física ordinaria, y lo que
propone el perspectivismo es mostrar que la física (y, por extensión, la ciencia que conocemos en
nuestra cultura) no es la única forma de conocer la realidad, ya que este conocimiento depende de
65. REGULACIÓN
i. Introducción. Si bien las máquinas creadas por el hombre exhiben cierto tipo de
autorregulación, como los proyectiles autodirigidos o la máquina de Turing, en lo que sigue
nos referiremos exclusivamente a las llamadas regulaciones orgánicas u organísmicas, es
decir, las que intervienen en los procesos vitales.
Para el vitalismo, las regulaciones orgánicas quedaban explicadas por la intervención de
agentes suprafísicos, como por ejemplo las entelequias, que misteriosamente eran capaces
de controlar y reparar la maquinaria orgánica. Con el advenimiento de la TGS, estas
regulaciones orgánicas pudieron ser tratadas en un contexto más científico y menos
66. RETROALIMENTACIÓN
ii. Ejemplos. Este tipo de regulación existe tanto en los organismos vivos como en las máquinas
creadas por el hombre, y, en ambos casos, existen las dos modalidades de la
retroalimentación: como mantenimiento de variables en un valor fijo, y como búsqueda de
metas (ver esquema anterior). Expliquemos brevemente un ejemplo de cada una de las cuatro
posibilidades.
a. Termorregulación: el enfriamiento de la sangre estimula ciertos centros cerebrales que
'echan a andar' los mecanismos productores de calor del cuerpo, y la temperatura de éste
es registrada a su vez por aquellos centros, de manera que es mantenida a nivel
constante.
b. Control propioceptivo del movimiento voluntario: si queremos alcanzar un lápiz, se
envía al sistema nervioso central un informe acerca de la distancia que nos impidió llegar
al lápiz en el primer intento; esta información es retroalimentada al sistema nervioso
central para que el movimiento sea controlado, hasta que se logre la meta.
c. Termostato: Dispositivo que regula la temperatura. Cuando hace mucho calor, el
termostato lo baja, y cuando el calor desciende, el termostato lo sube automáticamente.
Se usa en muchos sistemas, como por ejemplo el motor de un automóvil, el que para
funcionar óptimamente debe mantenerse a una temperatura constante.
d. Proyectiles autodirigidos: proyectiles que automáticamente corrigen su propio rumbo
en función de la posición cambiante del blanco: apuntan a un blanco, se dirigen hacia él,
advierten que el blanco cambia y vuelven a cambiar su dirección en el rumbo correcto.
Ejemplos de retroalimentación
67. SEGREGACIÓN
Propiedad formal de los sistemas según la cual las interacciones entre sus elementos van
disminuyendo con el tiempo. Tal característica parece desacostumbrada en los sistemas
físicos, pero es común y fundamental en sistemas biológicos, psicológicos y sociológicos.
68. SIMBOLISMO
i. Concepto. Von Bertalanffy indica que la especificidad de la condición humana no tiene una
relación necesaria con la racionalidad, sino con la capacidad exclusiva del hombre de crear
símbolos y ser dominado por ellos. Este criterio es reconocido por biólogos, por fisiólogos
pavlovianos, por psiquiatras como Appleby, Arieti y Goldstein, y por filósofos como E.
Cassirer.
Si bien en el mundo animal se observa 'lenguaje' (como por ejemplo el canto de las aves),
sólo en el hombre el lenguaje funciona como representación y comunicación de hechos y
como sistema de símbolos no heredados sino libremente creados y transmitidos por tradición.
En tal sentido, el lenguaje no sólo comprende la palabra hablada sino también la escritura y el
lenguaje matemático.
ii. Ejemplos. Sin intentar una definición precisa de actividad simbólica, von Bertalanffy cita un
repertorio de nociones que suelen utilizarse para caracterizar la conducta humana y que son
consecuencias o aspectos diferentes de aquella actividad. Entre ellas, sobresalen las
siguientes:
a. cultura y civilización,
b. creatividad en contraste con la percepción pasiva,
c. objetivación, tanto de la realidad como del sí mismo,
d. visión del pasado y del porvenir,
e. intencionalidad como planeamiento conciente,
f. temor a la muerte y suicidio,
g. devoción a una causa,
h. afán de auto trascendencia,
i. códigos morales, superyo, disimulo, mentira,
j. la experimentación mental, que se realiza mediante símbolos conceptuales por oposición
al ensayo-error físico, tan típico del comportamiento animal, etc.
Todas estas características están sostenidas por los universos simbólicos, y no pueden ser
explicadas por simples pulsiones biológicas, instintos psicoanalíticos, reforzamiento de
gratificaciones u otros factores biológicos Mientras los valores biológicos conciernen a la
conservación del individuo o la especie, los valores propiamente humanos están vinculados a
la actividad simbólica. De hecho, muchas perturbaciones mentales son perturbaciones de las
funciones simbólicas, ya que la enfermedad mental es un fenómeno específicamente humano.
iii. Simbolismo y autonomía. Von Bertalanffy menciona, finalmente, una característica única y
muy importante de la actividad simbólica: su autonomía relativa. El mundo simbólico creado
por el hombre es capaz de adquirir vida propia, por así decirlo: se torna más inteligente que su
creador.
Al respecto, von Bertalanffy cita el ejemplo del sistema simbólico de la matemática, el cual
está encarnado en una enorme máquina de pensar que, cuando se le administra un
enunciado, produce una solución en base a un proceso fijo de concatenación de símbolos que
hubiera sido difícil de prever. En otros términos, una vez introducidas las instrucciones
adecuadas, la maquinaria matemática funciona por sí sola, dando resultados inesperados que
sobrepasan el volumen inicial de hechos y reglas de donde se partió originalmente. Tal ocurre
con cualquier predicción algorítmica (como por ejemplo un razonamiento deductivo) o con
cualquier predicción sobre los hechos del mundo, como el de un nuevo elemento químico o el
de un nuevo planeta, cuyas existencias pueden ser predichas sobre la base de una fórmula
matemática. Esta sustitución de la experiencia directa por un sistema algorítmico que marcha
solo, está estrechamente relacionada con la progresiva desantropomorfización de la ciencia,
cuestión esta última desarrollada con mayor detalle en el artículo Categoría.
69. SISTEMA
conceptual por cuanto los datos no son simples impresiones sensoriales sino que están
organizados o construidos mentalmente sobre la base de determinantes lingüísticos,
culturales, gestálticos, etc. (Ver Categoría).
c. Según su apertura al medio, los sistemas pueden ser cerrados o abiertos, siendo esta la
clasificación que más desarrolla y detalla von Bertalanffy. Un sistema abierto es definido
como un sistema que intercambia materia [y consiguientemente energía] con el medio
circundante, que exhibe importación y exportación, formación y degradación de sus
componentes materiales. El sistema cerrado se considera aislado del exterior, no
intercambiando materia con él. Un sistema puede recibir desde afuera información, como
el caso de los sistemas retroalimentados, sin que ello implique recibir materia. Un tal
sistema sería abierto desde el punto de vista de la información, pero cerrado desde el
punto de vista material, energético o entrópico, siendo éste último enfoque el que tomará
von Bertalanffy para definir sistema cerrado o abierto. A partir de estas definiciones se
desarrollan toda una serie de características diferentes en cada tipo de sistema. Dada la
amplitud con que este tema es tratado, remitimos al lector a los correspondientes
artículos del presente trabajo (ver Sistema abierto, Sistema cerrado).
d. Según el modo de concebirlo según una u otra teoría, los sistemas pueden ser pasivos o
activos, estas calificaciones o tipificaciones encuentran su mayor aplicabilidad
especialmente en en psicología. Así, las teorías del hombre-robot conciben el psiquismo
como una entidad pasiva, que busca reducir tensiones y evitar la estimulación
desequilibrante, mientras que las nuevas orientaciones conciben a la personalidad más
como un sistema esencialmente activo (ver Personalidad).
v. Propiedades formales. Más allá de las propiedades típicas de cada tipo de sistema von
Bertalanffy, al comienzo de su desarrollo de la TGS ha establecido ciertas propiedades
formales de todo sistema, y que también ha designado como 'principios generales' o
'principios de Bertalanffy'. Sin la pretensión de ser exhaustivo al respecto, este autor ha
ilustrado estos principios a partir de otras tantas propiedades de las ecuaciones diferenciales
simultáneas, que en sí mismas ya son sistemas matemáticos. La denominación 'formales'
apunta mostrar que tales principios son a priori, es decir, independientes de su interpretación
física, química, biológica, sociológica, etc. No obstante resultan ser intuitivamente accesibles,
sin aspirar al rigor y la generalidad matemática. Von Bertalanffy subrayará, unos veinte años
después de haber formulado estos principios, que un sistema de ecuaciones diferenciales
simultáneas no es en modo alguno la formulación más general, y que la ha escogido sólo con
propósitos ilustrativos. Con los ulteriores progresos en la TGS y con la distinción más
detallada entre sistemas abiertos y cerrados, algunas de las llamadas propiedades formales
de los sistemas se han revelado ora como predominantes, ora como exclusivas de cierto tipo
de sistema (no de 'todos' los sistemas).
Prescindiendo entonces de los tecnicismos matemáticos, definiremos cada una de las
propiedades formales de los sistemas tal como fueron formuladas originalmente, del siguiente
modo:
a. Crecimiento. Propiedad según la cual los sistemas tienden a aumentar o a disminuir su
cantidad de elementos, es decir, que el crecimiento podrá ser positivo o negativo. Tal
incremento o decremento no ocurre al azar sino de acuerdo a ciertas leyes, como por
ejemplo la ley exponencial o la ley logística, y son aplicables a un gran número de
sistemas: el crecimiento individual de ciertas bacterias y animales, la variación
cuantitativa de poblaciones, el aumento del conocimiento científico a partir del número de
publicaciones, las reacciones auto catalíticas donde el producto formado acelera su
propia producción, etc.
medida que las partes van diferenciándose, unas empiezan a dirigir o a dominar a las
otras, es decir, se constituyen en 'partes conductoras' o centros conductores
(centralización). Así por ejemplo, conforme evoluciona el sistema nervioso, se observa
que algunas partes pasan a controlar a las otras (los centros superiores a los inferiores),
mientras que en estadios muy primitivos de este sistema no se advierte esto, como en el
caso de los sistemas nerviosos difusos de animales inferiores, constituidos por una red
nerviosa homogénea. Durante el desarrollo embrionario, del mismo modo, ciertas partes
empiezan a estar privilegiadas, dirigiendo el desarrollo de las demás partes: son los
llamados 'organizadores'.
Correlativamente con la centralización, el organismo va individualizándose, es decir,
haciéndose 'único', individual. Von Bertalanffy define precisamente individuo como un
sistema centrado, lo cual de hecho es un caso límite al cual tienden el desarrollo y la
evolución, de modo que el organismo se vuelve cada vez más unificado e 'indivisible'. La
relación entre centralización e individualización es evidente: en la medida que todas las
partes pasan a depender de otra parte central, el todo queda unificado en torno de esta
última.
g. Orden jerárquico. Los sistemas están frecuentemente estructurados de modo tal que
sus partes son a su vez sistemas del nivel inmediato inferior. Aunque von Bertalanffy no
suele utilizar el término, podríamos decir que los sistemas se organizan en 'sub-sistemas',
etc., y así sucesivamente. Desde ya, en la dirección opuesta habrá también 'supra-
sistemas', es decir, sistemas formados por sistemas.
Semejante estructura jerárquica es característica de la realidad como un todo y tiene
fundamental importancia especialmente en biología, psicología y sociología.
h. 'Diversidad'. Este principio, que aquí podríamos llamar principio de diversidad, afirma
simplemente que no hay una única clase de sistemas. La clasificación más importante los
divide en sistemas cerrados y sistemas abiertos, cada cual con sus propiedades
específicas (ver los respectivos artículos).
i. Finalidad. A medida que evolucionan, los sistemas están o parecen estar orientados
hacia un fin, como por ejemplo mantener constante alguna variable (directividad
estructural u homeostasis). Hay sin embargo otros tipos de finalidad más típicas de los
sistemas biológicos, como la equifinalidad, o de los sistemas psicológicos como la
intencionalidad.
Para una ampliación de todos estos principios, remitimos al lector a los artículos
respectivos. Aquí completamos nuestra explicación afirmando que, si bien von Bertalanffy
enunció estos principios sin pretender ser exhaustivo, dicho repaso demostró ser
notablemente completo. Salvando variaciones secundarias en cuanto a terminología, no
han sido agregados más principios de significación comparable, por deseable que esto
hubiese sido. Aún así, consideramos conveniente agregar a las propiedades formales
explícitamente enunciadas por von Bertalanffy, también la estabilidad y la adaptación.
vi. Sistema y modelo. Si se enfatizan y desarrollan alguno o algunos de los principios indicados
en el ítem anterior a ciertas áreas de la realidad, se obtienen ciertos modelos específicos. Por
ejemplo en el campo del metabolismo cuantitativo, si enfatizamos el principio del crecimiento
se obtendrán modelos como el alométrico, o incluso otro modelo propuesto por el mismo von
Bertalanffy (ver Crecimiento). Asimismo, si enfatizamos el principio de finalidad, se podrán
desarrollar modelos del organismo como sistema abierto y estado uniforme, o modelos de
homeostasis.
Todo sistema que intercambia materia (y por tanto, energía) con el medio circundante, que
exhibe importación y exportación, constitución y degradación de sus componentes
materiales. Los sistemas abiertos poseen ciertas características propias tales como la
tendencia hacia un estado uniforme, la entropía negativa, o tendencia hacia grados
crecientes de complejidad y organización y hacia estados de máxima improbabilidad, la
presencia de procesos irreversibles etc. Ejemplos: los seres vivos, la personalidad, la
familia, las sociedades, etc.
a. Los sistemas abiertos tienden a evolucionar hacia un estado uniforme, y los sistemas
cerrados hacia un estado de equilibrio (ver Estado uniforme, donde se detallan varias
otras características derivables de este tipo de estado).
b. Los sistemas abiertos tienen entropía negativa, es decir, 'pueden' evolucionar hacia
estados de mayor organización y complejidad, mientras que los sistemas cerrados
exhiben entropía positiva, o sea 'deben' evolucionar hacia estados de menor organización
y complejidad. La diferencia entre 'deben' y 'pueden' alude la hecho de que el sistema
abierto puede también tener entropía positiva, y de hecho esta es su tendencia final,
desde que su destino es la muerte. Los sistemas vivos, si se mantienen como tales es
porque logran evitar el aumento de entropía (positiva) y hasta pueden desarrollarse hacia
estados de orden y organización crecientes. (Para mayores detalles, ver Entropía).
c. Si bien hay ejemplos de sistemas abiertos y cerrados, como un ser vivo y un átomo,
respectivamente, ello no debe hacernos pensar que nada tienen que ver uno con el otro,
puesto que un ser vivo (sistema abierto) contiene dentro de sí átomos (sistemas
cerrados). En efecto, algunos sub-sistemas de los sistemas abiertos son cerrados, pero
ello no alcanza para caracterizar a los primeros como cerrados, porque el todo es más
que la suma de partes.
d. En cuanto a la finalidad todos los sistemas abiertos, en oposición a los sistemas
cerrados, exhiben ciertos tipos de finalidad como la equifinalidad y, particularmente el
hombre, la intencionalidad (ver Finalidad, Equifinalidad e Intencionalidad). Los
sistemas cerrados poseen exclusivamente otros tipos de finalidad.
e. Los sistemas abiertos son estudiados por la termodinámica de los procesos irreversibles,
y los sistemas cerrados los estudia la termodinámica clásica, o termodinámica de los
procesos reversibles (ver Estado uniforme, punto 2, apartado 6). Hemos ya indicado que
la termodinámica irreversible es una extensión de la última de manera de poder incluir los
sistemas abiertos de la biología, la psicología, la historia, etc.
Los estudios clásicos de física y química estudiaban los sistemas cerrados, y sólo en décadas
recientes se incorporaron los estudios de sistemas abiertos.
Von Bertalanffy considera los sistemas cerrados en relación con la ausencia de intercambio de
materia. No obstante esto, debemos tener en cuenta que algunos sistemas cerrados son 'abiertos'
a otras influencias como por ejemplo a la energía radiante (que puede ingresar al sistema sin un
sustrato material) o a la información (como los sistemas retroalimentados). La definición de un
sistema cerrado pasa entonces por especificar qué cosas puede intercambiar y qué cosas no. En
el texto de von Bertalanffy se considera predominantemente el intercambio de materia.
En rigor, sistemas cerrados ciento por ciento no existen, salvo que se considere como tal al
universo en su conjunto. Si se habla de sistemas cerrados a una escala mucho menor, como por
ejemplo una reacción química que sigue la ley de acción de masas, es por razones más bien
convencionales.
Los sistemas cerrados presentan una serie de características, que el lector podrá consultar en el
artículo Sistema Abierto, apartado 3.
Se trata entonces de una reacción reversible, lo que queda indicado por la doble flecha. Las
sustancias seguirán reaccionando en uno y otro sentido hasta llegar a un estado de equilibrio
donde las velocidades en uno y otro sentido se igualan. Esto ocurre, dice la ley de acción de
masas, cuando las sustancias involucradas en la reacción adquieren una determinada
concentración.
La ley de acción de masas puede ser descripta a partir de un determinado sistema de
ecuaciones. Este último, dado sus carácter matemático abstracto, puede ser también aplicado
a otros campos, como la demografía, la cinética de los procesos celulares y la teoría de la
competencia dentro de un organismo.
ii. Sistemas químicos abiertos. Un sistema químico abierto se caracteriza porque los
componentes no son siempre los mismos: continuamente está ingresando la sustancia A y
eliminándose la sustancia B (recambio permanente). Ejemplos típicos de sistemas químicos
abiertos los encontramos en la química industrial (en la fermentación continua, en la
producción de ácido acético, etc.) y en la biología (el organismo viviente es, en sí mismo, un
parte de esta puede ser utilizada para producir trabajo (por ejemplo para desplazar un
objeto mediante la fuerza muscular). Estos sistemas abiertos se mantienen siempre
alejados del estado de equilibrio típico del sistema cerrado (es decir mantienen intacta su
capacidad de producir trabajo) gracias al continua suministro de energía del medio. El
estado uniforme tiene precisamente esa capacidad de producir trabajo, mientras que el
estado de equilibrio de los sistemas cerrados se caracteriza, al revés, por un mínimo de
energía libre.
73. SOCIOLOGÍA
Ciencia que se ocupa del estudio de grupos o sistemas humanos, desde los más reducidos
como la familia, hasta los más grandes como las naciones. El moderno enfoque de
sistemas va introduciéndose cada vez más en la sociología, a través de conceptos como
sistema general, retroalimentación, información, comunicación, etc.
i. Sociología e historia. Ambas disciplinas estudian las sociedades humanas, con la diferencia
de que la historia la estudia a través del tiempo, en su devenir, y la sociología lo hace sobre el
presente analizando cómo es la sociedad hoy. El primero es un estudio longitudinal, y el
segundo es un estudio transversal de la sociedad.
ii. Objeto de estudio de la sociología. Más específicamente, la sociología estudia los sistemas
humanos, desde los más reducidos como la familia o el grupo de trabajo, hasta las naciones,
bloques de poder y las relaciones internacionales. Entre ambos extremos hay también una
gama de organizaciones tanto formales como informales, también estudiadas por la
sociología. Aunque tradicionalmente la sociología estudia organizaciones informales,
últimamente ha incorporado también el estudio de organizaciones formales, como las
empresas, el ejército o las organizaciones confesionales, todas estructuras escrupulosamente
instituídas con fines determinados. Tanto las organizaciones informales como las formales
han sido estudiadas, sobre todo en los últimos tiempos, desde un punto de vista sistémico.
iii. Enfoque sistémico en organizaciones informales. La reciente teoría sociológica busca en
gran medida definir el 'sistema' sociocultural y en discutir el funcionalismo, vale decir, la
consideración de los fenómenos sociales con respecto al 'todo' al que sirven. A grandes
rasgos se trata de un enfoque similar al de la TGS, con la única diferencia de que ciertas
teorías funcionalistas (por ejemplo la de Parsons) insiste demasiado en el mantenimiento del
equilibrio, el ajuste, la homeostasis y la estabilidad institucional, mientras que el enfoque
sistémico procura ceder el mismo espacio teórico también a los procesos de cambio, al
desarrollo dirigido desde dentro del seno social, a los conflictos, etc.
Como ejemplo de aplicación de la TGS a la sociedad humana, von Bertalanffy cita los análisis
de Boulding, quien elabora un modelo general de organización regida por las llamadas leyes
férreas, válidas para cualquier organización social. Ejemplos:
a. Ley de Malthus: el incremento de la población supera por regla general al de los
recursos para alimentarla;
b. Ley de las dimensiones óptimas: mientras más crece una organización, más se alarga
el camino para la comunicación, lo cual a su vez actúa como factor limitante, no
permitiendo a la organización crecer más allá de ciertas dimensiones críticas:
c. Ley de inestabilidad: muchas organizaciones no están en equilibrio estable, sino que
exhiben fluctuaciones cíclicas resultantes de la interacción entre sub-sistemas.
Existen aún otras muchas leyes similares, como las leyes de Volterra y la ley del oligopolio,
etc., pero todas están enunciadas en el marco teórico de un enfoque sistémico de los estudios
sociológicos.
iv. Enfoque sistémico en organizaciones formales. Las teorías de las organizaciones formales
encaran su estudio bajo la premisa de que el único modo significativo de estudiar la
organización es estudiarla como sistema de variables mutuamente dependientes, lo cual
implica nuevamente un acercamiento al enfoque de la TGS.
Un ejemplo podría ser el estudio funcionalista de una empresa de negocios, donde se trata de
examinar las interacciones entre sus elementos en función al todo. Un análisis de sistemas de
este tipo tendrá en cuenta por ejemplo hombres, máquinas, edificios, entradas de materia
prima, salida de productos, valores monetarios, buena voluntad y otros imponderables, dando
diagnósticos sobre la situación de la empresa y sugiriendo medidas prácticas de intervención.
En general, la TGS ha ejercido considerable influencia sobre el funcionalismo sociológico de
finales del Siglo XX en general y muy especialmente en la nueva conceptualización de mundo
actual: la Globalización.
74. SUMATIVIDAD
Siguiendo el esquema adjunto, podemos apreciar que, en cuanto al número, los sistemas A y
B son distintos, porque el primero tiene cuatro y el segundo cinco. En cuanto a las especies,
ambos sistemas también son distintos porque en el sistema B aparece un elemento de tipo
diferente, aún cuando ambos tengan el mismo número de elementos. Finalmente en cuanto a
las relaciones, los sistemas A y B también son distintos porque, aún cuando tengan el mismo
número y todos los elementos sean de la misma especie, sus relaciones son diferentes: en el
sistema A el primero y el último elemento no se relacionan directamente, cosa que sí ocurre
en el sistema B.
En los casos 1 y 2, el complejo puede ser comprendido como suma de elementos
considerados aisladamente; pero en el caso 3 no sólo hay que conocer los elementos, sino
también las relaciones entre ellos. Características del primer tipo se llaman 'sumativas', y
del segundo tipo 'constitutivas'.
Las características sumativas de un elemento, entonces, son aquellas que son iguales tanto
dentro como fuera del sistema, con lo cual el comportamiento de éste resulta de la simple
suma de las características o comportamientos de los elementos. Por ejemplo el peso de un
juguete o de un átomo, que resulta de la simple suma de los pesos parciales de sus partes
componentes.
Las características constitutivas son las que dependen de las relaciones específicas dadas
dentro del sistema, como el caso de las características químicas. Un ejemplo es la isomería:
los isómeros son compuestos con iguales elementos (iso = igual, mero = parte), pero
relacionados de distinta manera según el isómero considerado, vale decir, los átomos
presentan diferentes disposiciones dentro de la molécula. Las características constitutivas no
son explicables a partir de las características de las partes aisladas, y por lo tanto aparecen
como 'nuevas' o 'emergentes'. Sin embargo, si conocemos el total de partes contenidas en un
sistema y la relación que hay entre ellas, el comportamiento del sistema es derivable a partir
del comportamiento de las partes. También puede decirse: si bien es concebible la
composición gradual de una suma, un sistema, como total de partes interrelacionadas, tiene
que ser concebido como compuesto instantáneamente.
Si bien las características sumativas han sido privilegiadas por el paradigma mecanicista y las
constitutivas por el paradigma sistémico, interesarán también para este último las
características sumativas por encontrarse presentes también en los sistemas. En particular,
los principios de sumatividad son aplicables al organismo hasta cierto punto, como cuando
consideramos que la palpitación de un corazón ocurre del mismo modo tanto si lo
consideramos dentro del organismo (dentro del sistema), como aislado, experimentalmente o
no, fuera de él.
ii. La sumatividad como propiedad formal de los sistemas. Entre las propiedades de los
sistemas encontramos la totalidad y la sumatividad (ver Sistema). La totalidad está
estrechamente vinculada con las características constitutivas, pero aquí explicaremos
brevemente la sumatividad, vinculada con las características sumativas.
Desde esta perspectiva, diremos entonces que la sumatividad es una propiedad formal de los
sistemas según la cual sus elementos pueden ser considerados independientemente unos de
otros, es decir, su suma total es igual a la suma de sus elementos componentes. La
sumatividad aparece por ejemplo en sistemas matemáticos (sumatividad matemática o en
sentido matemático y en los sistemas reales (sumatividad física o independencia).
Nos interesa especialmente la sumatividad según este segundo planteo, y en tal sentido la
sumatividad resulta ser una propiedad formal de los sistemas parciales [es decir, sub-
sistemas] altamente 'mecanizados'. Esto significa lo siguiente: un organismo vivo es un
sistema total donde tienen gran importancia las características constitutivas. Sin embargo, y
como consecuencia de los procesos de diferenciación y segregación, a medida que dicho
sistema evoluciona sus partes o conjuntos de partes van aislándose progresivamente entre sí
(aunque no totalmente) y constituyendo sistemas parciales o sub-sistemas donde sí pasan a
un primer plano las simples características sumativas, es decir, estos sub-sistemas se
comportarán del mismo modo tanto dentro del sistema como fuera de él, por encontrarse
altamente 'mecanizados'. Es el ejemplo del corazón que dimos en un párrafo anterior en este
mismo artículo.
Para von Bertalanffy, las propiedades constitutivas son muy importantes en el contexto de los
sistemas abiertos como los seres vivos, y en este sentido critica la posición de Bertrand
Russell según la cual hasta la fecha, no hay evidencias que en los fenómenos biológicos
existan propiedades constitutivas y, por ende, sólo debe admitirse como hipótesis de trabajo
la hipótesis de las propiedades sumativas, en tanto no aparezcan elementos de juicio en
contra de ella.
75. TECNOLOGÍA
La ciencia abarca dos grandes campos: la ciencia pura y la ciencia aplicada, o tecnología. La
primera elabora conocimiento, la segunda aplica ese conocimiento a la realidad con algún fin
utilitario. Por ejemplo, la física es ciencia pura, y la ingeniería es un ejemplo de la correspondiente
tecnología o ciencia aplicada. Otro tanto ocurre por ejemplo con la química y la merceología, o con
la biología y la medicina.
La Tecnología de los sistemas es la parte de la TGS en sentido amplio que se ocupa de los
problemas que surgen en la tecnología y la sociedad modernas y que comprenden tanto el
hardware de las computadoras y máquinas autorreguladas, como del software de los nuevos
adelantos y disciplinas teóricas. Es, entonces, la aplicación práctica de los conocimientos acerca
de los sistemas.
76. TEORÍA
Empecemos por aclarar que, en general, una teoría científica es un sistema de enunciados
ordenados jerárquicamente desde los más generales a los menos generales, donde los últimos se
deducen de los primeros, y donde todos están referidos a un determinado sector de la realidad.
Casi todos estos enunciados son hipótesis, y de aquí que una teoría sea en última instancia un
sistema hipotético-deductivo. Por ejemplo, la TGS, la teoría psicoanalítica, la teoría de la
probabilidad, etc.
En la perspectiva de von Bertalanffy, la ciencia busca siempre construír teorías para explicar cada
vez mejor la realidad. No obstante, queda abierta aún la cuestión de si algún día se llegará a
establecer un sistema hipotético-deductivo que abarque todas las ciencias, de la física a la
biología y la sociología. Por ahora, sólo estamos en condiciones de establecer leyes específicas
para los distintos niveles o estratos de la realidad, y de ahí encontramos una correspodencia o
isomorfismo de leyes y esquemas conceptuales en diferentes campos que sustentan la unidad de
la ciencia.
Para von Bertalanffy es esencial no considerar a las teorías como sistemas cerrados y definitivos.
A partir de allí, la discusión acerca de si una teoría debe o no estar enunciada axiomáticamente o
bien formulada laxamente como una hipótesis de trabajo, puede pasar a un segundo plano
Suele oponerse observación y teoría: por un lado estarían los 'hechos observados' y por el otro la
'mera teoría' como producto de alguna especulación sospechosa. Para von Bertalanffy tal
oposición no existe, en cuanto una presupone la otra. Por ejemplo, los datos supuestamente
brutos o incontaminados de la observación están siempre impregados de teoría (ver también
Observación), y además, ésta última se construye como un intento por resolver los problemas
detectados mediante la observación.
i. Qué es la TGS. La TGS busca aquellos principios que sean aplicables a los sistemas en
general, sin importar que sean de naturaleza física, biológica o sociológica. A partir de aquí y
definiendo bien el sistema, hallaremos que existen modelos, principios y leyes que se aplican
a sistemas generalizados, o sistemas en general, sin importar su particular género, elementos
y 'fuerzas' participantes. Consecuencia de la existencia de propiedades generales de sistemas
es la aparición de similaridades estructurales (ver Isomorfismo) en diferentes campos, es
decir, hay correspondencias entre los principios que rigen el comportamiento de entidades
intrínsecamente muy distintas. Conceptos, modelos y leyes parecidos surgen una y otra vez
en campo muy diversos, independientemente y fundándose en hechos del todo distintos.
Estas correspondencias o isomorfismos constituyen el dominio de la TGS, y de aquí que su
utilidad reside precisamente en proporcionar modelos utilizables y transferibles entre
diferentes campos evitando, al mismo tiempo, vagas analogías que a menudo han
perjudicado el progreso en dichos campos.
La denominación 'teoría general de los sistemas' y su respectivo programa fueron introducidos
por Ludwig von Bertalanffy, aún cuando no pocos investigadores de varios campos habían
llegado ya a conclusiones y enfoques similares.
ii. Qué NO es la TGS. Diversos críticos han cuestionado la TGS desde varios ángulos. Al
respecto, von Bertalanffy contesta estas críticas indicando lo que NO es la TGS.
a. La TGS no es una simple o trivial aplicación de la matemática conocida a diferentes
ámbitos de la realidad. La aparición de problemas novedosos vinculados a nociones
como totalidad, organización, teleología, etc., requieren, en realidad, nuevos modos de
pensamiento matemático. En forma elaborada, la TGS sería una disciplina lógico-
matemática, puramente formal en sí mísma pero aplicable a las varias ciencias empíricas.
b. La TGS no se ocupa de trazar simples analogías entre diferentes fenómenos de la
realidad. Las analogías superficiales son engañosas, como por ejemplo pretender
comparar un organismo viviente con un Estado o nación. La TGS no busca analogías
sino isomorfismos, que son correspondencias más profundas que permiten afirmar que
las realidades comparadas tienen en común el hecho de constituír sistemas.
c. La TGS no es una concepción que carezca de valor explicativo. Von Bertalanffy
plantea que hay grados y grados en la explicación científica, y que en ciertos campos
complejos y teóricamente poco desarrollados debemos conformarnos con 'explicaciones
en principio' (ver Explicación), que siempre son mejores a la falta total de explicación.
iii. Metas de la TGS. Sus metas principales pueden resumirse del siguiente modo:
1. Hay una tendencia general hacia la integración en las varias ciencias, naturales y
sociales.
2. Tal integración parece girar en torno a una TGS.
3. Tal teoría pudiera ser un recurso importante para buscar una teoría exacta en los campos
no físicos de la ciencia.
4. Al elaborar principios unificadores que corren 'verticalmente' por el universo de las
ciencias, esta teoría nos acerca a la meta de la unidad de la ciencia.
5. Esto puede conducir a una integración, que hace mucha falta, en la instrucción científica.
En última instancia, según se ve, la TGS busca la unificación de todas las ciencias, pero no a
partir de un reduccionismo (reducir todas las ciencias a la física), sino a partir un
perspectivismo (el principio unificador es la existencia de sistemas en todos los niveles, es
decir, de principios comunes o uniformidades estructuraless denominadas isomorfismos, en
diferentes ámbitos científicos).
iv. Motivos que llevaron a postular una TGS. Von Bertalanffy resume estos motivos en seis
puntos, que son un tanto redundantes:
1. Los mismos adelantos en la física mostraron que los átomos, partículas subatómicas, etc,
no eran piedras metafísicas de construcción del universo sino modelos conceptuales
harto complicados, inventados para dar razón de lo observado. Por otro lado, los avances
en biología, ciencias del comportamiento y ciencias sociales revelaron conexiones con
estos nuevos campos, con lo cual se impuso una 'generalización de los conceptos
científicos', más allá de la física clásica, plasmada en una TGS.
2. La aparición de nuevos modelos en biología, ciencias del comportamiento, sociología,
etc., que, retomando aspectos clásicamente considerados ilusorios o metafísicos como la
interacción multivariable, la organización, el automantenimiento, la directividad, etc.,
obligó a la introducción de nuevas categorías en el pensamiento y la investigación
científica.
3. En la física y la biología modernas salen sin cesar al paso problemas tocantes a la
'complejidad organizada', interacciones entre muchas (pero no infinitas) variables, que
requieren nuevas herramientas conceptuales.
4. Cada ciencia tiene sus propios instrumentos conceptuales para explicar y predecir sus
fenómenos correspondientes, no obstante lo cual ellas no son compartimientos estancos
e independientes, habiendo una cierta continuidad, por ejemplo, entre la física y la
biología, y entre ésta y las ciencias del comportamiento y de la sociedad.
5. Hace falta expandir la ciencia para vérselas con los nuevos fenómenos biológicos,
comportamentales y sociales, para lo cual hay que introducir nuevos modelos
conceptuales.
6. Estas construcciones teóricas ampliadas y generalizadas son interdisciplinarias:
trascienden el marco de una determinada ciencia y son aplicables a fenómenos de
distintos campos, lo que conduce al isomorfismo de modelos.
v. Métodos de la TGS. Hay dos métodos generales posibles en la investigación general de los
sistemas: el método empírico-intuitivo y el método deductivo.
a. Método empírico-intuitivo. Parte de la observación de diversos fenómenos del mundo,
examina los varios sistemas encontrados, y acto seguido ofrece enunciados acerca de
las regularidades que se han hallado válidas. Aunque no tiene mucha elegancia
matemática ni vigor deductivo, este procedimiento tiene la ventaja de mantenerse muy
cerca de la realidad y de ser fácil de ilustrar y hasta de verificar mediante ejemplos
tomados de distintas ciencias.
Este método lo utilizó por ejemplo el mismo von Bertalanffy, cuando investigando en
biología encontró ciertos principios básicos como totalidad, suma, centralización,
finalidad, competencia, y varios otros que han sido luego utilizados para la definición
general de sistema.
b. Método deductivo. En lugar de estudiar un sistema, después otro, y luego otro más, etc.,
se empieza considerando el conjunto de todos los sistemas concebibles, y se reduce el
conjunto a dimensiones más razonables mediante ciertos conceptos fundamentales. Un
problema de este método es cómo saber si los términos fundamentales del punto de
partida están o no correctamente elegidos, vale decir, si serán lo suficientemente
generales como para incluir en ellos todos los fenómenos observados.
Ashby fue un autor que siguió este segundo método. Por ejemplo, comenzó
preguntándose por el 'concepto fundamental de máquina' y lo describe en términos de
ecuaciones diferenciales simultáneas. El método tiene su limitación: el concepto de
máquina de Ashby no resultó lo suficientemente general, pues no era aplicable a muchos
problemas de organización (cosa que el mismo Ashby reconoció), y por lo tanto no
alcanzaba la generalidad del concepto de 'sistema'. Adujo simplemente que había
escogido ese modelo con propósitos de ilustración.
Von Bertalanffy indica que ambos métodos son importantes: como en cualquier otro
campo científico, la TGS tendrá que desarrollarse por interacción de procedimientos
empíricos, intuitivos y deductivos.
vi. Clasificación de la TGS. Von Bertalanffy empieza discriminando una TGS en sentido
estricto, y una TGS en sentido amplio. La primera es también designada como TGS en
sentido técnico o también 'teoría clásica de los sistemas'.
a. En sentido estricto, la TGS procura derivar, partiendo de una definición general de
'sistema' como complejo de componentes interactuantes, conceptos característicos de
totalidades organizadas, tales como interacción, suma, mecanización, centralización,
competencia, finalidad, etc., y aplicarlos entonces a fenómenos concretos. Los principios
generales podrán ser aplicados a sistemas en general o también a subclases definidas de
ellos (por ejemplo sistemas cerrados y abiertos). En razón de la generalidad de tal
descripción, puede afirmarse que algunas propiedades formales así encontradas serán
aplicables a cualquier entidad en tanto sistema, aún cuando su naturaleza específica se
desconozca o no se investigue. La TGS en sentido técnico sigue entonces un camino
deductivo, y más concretamente intenta caracterizar el sistema desde el punto de vista
matemático.
b. En sentido amplio, que es el adoptado por von Bertalanffy, la TGS se define como
hemos indicado al comienzo de este artículo. Surgió debido al escaso alcance de la TGS
en sentido estricto, la cual, al describir los sistemas en términos matemáticos, dejaba
fuera muchos otros problemas de sistemas que no podían ni pueden por el momento ser
descriptos en dichos términos. La TGS en sentido amplio resulta ser así una expansión
de la TGS en sentido técnico, pero debe tenerse presente que también se constituyó
como una generalización de la llamada Teoría de los Sistemas Abiertos, surgida de la
observación de esta clase de sistemas.
La TGS en sentido amplio (designada en este trabajo simplemente como TGS),
comprende las siguientes subdivisiones:
incluirlos, fue necesaria la expansión de la física acostumbrada, lo que más tarde se concretó
cuando por ejemplo la termodinámica clásica se expandió como termodinámica irreversible. Al
mismo tiempo, se vio que podía construirse un modelo matemático general que incluyese la
consideración de estos nuevos problemas como los de orden, organización, totalidad,
teleología, etc. Tal fue la idea de la 'TGS'.
La propuesta de una TGS fue recibida como fantástica o presuntuosa, y llovieron las críticas
(ver en este mismo artículo "Qué NO es la TGS"). Finalmente, en 1954 cuajó el proyecto de
una sociedad dedicada a la TGS que se llamó Sociedad para la Investigación General de
Sistemas, y hoy está afiliada a la AAAS (American Association for de Advancement of
Science), teniendo varios centros en EE.UU. y Europa. Sus funciones principales son:
a. investigar el isomorfismo de conceptos, leyes y modelos en varios campos, y fomentar
provechosas transferencias de un campo a otro;
b. estimular el desarrollo de modelos teóricos adecuados en los campos que carecen de
ellos;
c. minimizar la repetición de esfuerzo teórico en diferentes campos;
d. promover la unidad de la ciencia mejorando la comunicación entre especialistas.
Mientras tanto hubo otros progresos: surgen la cibernética de Wiener (1948), la teoría de la
información de Shannon y Weaver (1949) y la teoría de los juegos de von Neumann y
Morgenstern (1947). Wiener, por ejemplo, llevó los conceptos de cibernética,
retroalimentación e información más allá de la tecnología, generalizándolos en los dominios
biológico y social.
Sin embargo, no debe reducirse la TGS a la cibernética. Esta última es sólo una parte de la
primera, pues los sistemas cibernéticos son un caso especial de los sistemas que exhiben
autorregulación. La cibernética, junto con la teoría de la información, la teoría de los juegos y
otras teorías constituyen diferentes 'enfoques' dentro de la TGS (ver Enfoques de sistemas).
Tampoco debe pensarse que la TGS surgió para resolver problemas tecnológicos en la
segunda guerra mundial pues, como quedó indicado, sus orígenes son bastante anteriores.
La TGS tiene aún importantes problemas para resolver, como por ejemplo la formulación de
una teoría general de las ecuaciones diferenciales no lineales, de los estados uniformes y los
fenómenos rítmicos, un principio generalizado de mínima acción, la definición termodinámica
de los estados uniformes, etc.
79. TOTALIDAD
Propiedad formal de los sistemas según la cual éstos se conducen como un 'todo', es decir,
los cambios en cada elemento dependen de todos los demás. Como tal, este concepto está
estrechamente vinculado con los de 'ORGANISMO', 'ORGANIZACIÓN' y 'SISTEMA
ABIERTO' y, en algún sentido, se opone a la idea de 'SUMATIVIDAD'.
Existen, desde ya, sistemas en los cuales en vez de encontrar totalidad encontramos sumatividad,
pero la TGS pone de relieve la importancia de aquellos puntos de vista que subrayan el carácter
no sumativo (es decir, totalista) de los sistemas físicos y biológicos, como modo de oponerse a la
insuficiencia del paradigma mecanicista. En efecto, es necesario estudiar no sólo partes y
procesos aislados, sino también resolver los problemas decisivos encontrados en la organización
y el orden que los unifican, resultantes de la interacción dinámica de partes y que hacen que estas
se comporten de distinta manera cuando se estudian aisladas o dentro del todo.
Propensiones similares se manifestaron en psicología. En tanto que la clásica psicología de la
asociación trataba de resolver fenómenos mentales en unidades elementales -átomos
psicológicos, se diría-, tales como sensaciones elementales, la psicología de la Gestalt reveló la
existencia y la primacía de totalidades psicológicas que no son suma de unidades elementales y
que están gobernados por leyes dinámicas. Finalmente, en las ciencias sociales el concepto de
sociedad como suma de individuos a modo de átomos sociales (el modelo del hombre económico)
fue sustituido por la inclinación a considerar la sociedad, la economía, la nación, como un todo
superordinado a sus partes.
El concepto de sistema es eminentemente holista: procura poner al organismo psicofisiológico, al
comportamiento, a la sociedad, etc., como un todo bajo la lente del examen científico. Tal holismo
80. VALOR
Los valores son entidades estudiadas dentro del contexto de la Filosofía de los sistemas, a
los efectos de rescatar el aspecto humanístico que debe tener la TGS, en contraposición a
las tendencias que consideran en ésta sólo sus aspectos teóricos y tecnocráticos, que
podrían conducir a la deshumanización del hombre y, en última instancia, a su destrucción.
81. VITALISMO
Doctrina según la cual la organización y regulación de los procesos vitales sólo pueden ser
explicados a partir de ciertos factores animoides (entelequias, espíritus, etc.) que acechan
en la célula o el organismo. Von Bertalanffy critica, en la biología, tanto las doctrinas
vitalistas como las mecanicistas, proponiendo en su lugar el punto de vista llamado
organísmico.
V. GLOSARIO DE ESTADÍSTICA
GLOSARIO
001. Abstract 002. Alcance 003. Análisis de clusters
004. Análisis de datos 005. Análisis de supervivencia 006. Análisis discriminante
007. Análisis factorial 008. Análisis multivariado 009. Clase
010. Codificación 011. Coeficiente 012. Coeficiente de Crombach
013. Coeficiente de variación 014. Confiabilidad 015. Confirmación
016. Correlación 017. Correlación múltiple 018. Cuantil
019. Curva asimétrica 020. Curva normal 021. Curva simétrica
022. Dato 023. Definición operacional 024. Desviación
025. Discusión 026. Distribución de frecuencias 027. Efectos del experimentador
028. Émico/ético 029. Encuesta social 030. Error Standard
031. Error tipo I 032. Error tipo II 033. Estadística
034. Estadística bivariada 035. Estadística descriptiva 036. Estadística inferencial
037. Estadística multivariada 038. Estadística univariada 039. Estadístico
040. Estandarización 041. Estudio de casos 042. Etnografía
043. Experimento 044. Experimento de campo 045. Experimento de laboratorio
046. Experimento por demostración 047. Falsación 048. Fractil
049. Frecuencia 050. Frecuencia relativa 051. Hipótesis
052. Hipótesis alternativa 053. Hipótesis nula 054. Histograma
055. Idea 056. Inferencia estadística 057. Informe de investigación
058. Instrumento de medición 059. Intervalo de confianza 060. Intervalo de clase
061. Investigación 062. Investigación, tipos 063. Investigación-acción
064. Investigación aplicada 065. Investigación básica 066. Investigación científica
067. Investigación correlacional 068. Investigación cualitativa 069. Investigación descriptiva
070. Investigación explicativa 071. Investigación exploratoria 072. Investigación no experimental
073. Investigación social 074. Límite del intervalo 075. Manova
076. Marco teórico 077. Media aritmética 078. Mediana
079. Medición 080. Medida de dispersión 081. Medida de distancia
082. Medida de tendencia central 083. Método 084. Método científico
085. Moda 086. Muestra 087. Muestra no probabilística
088. Muestra probabilística 089. Muestreo 090. Muestreo aleatorio estratificado
091. Muestreo aleatorio simple 092. Muestreo no aleatorio 093. Muestreo polietápico
094. Muestreo por conglomerados 095. Nivel de confianza 096. Nivel de significación
097. Observación participante 098. Parámetro 099. Percentil
100. Población 101. Polígono de frecuencia 102. Precisión
103. Probabilidad 104. Problema de investigación 105. Procedimiento
GLOSARIO
106. Prueba estadística 107. Prueba no paramétrica 108. Prueba paramétrica
109. Puntaje Z 110. Recolección de datos 111. Regresión
112. Regresión logística 113. Replicabilidad 114. Sesgo
115. Sociometría 116. Tamaño de la muestra 117. Tasa
118. Técnica 119. Teoría 120. Tesis empírica
121. Tesis teórica 122. Unidad de análisis 123. Universo
124. Validez 125. Validez interna 126. Variable
127. Variable dependiente 128. Variable independiente 129. Variable extraña
001. ABSTRACT
El abstract de una tesis o resumen “debe dar cuenta en forma clara y simple del contenido
de la obra. El orden recomendable de presentación es el siguiente: Una formulación precisa
y concisa del objetivo de la investigación, una breve descripción de la metodología y
formulación general de las conclusiones o resultados obtenidos. El resumen debe ser
informativo y expresar en un mínimo de palabras, el mayor número posible de información
sobre el contenido de la tesis (máximo una página)”.
Droppelmann A (coordinador Escuela de Psicología- Universidad de La Plata, Argentina, 2002), Procedimientos para la elaboración de
proyecto y tesis de grado y proceso de titulación (Reglamento interno).
002. ALCANCE
Es la distancia entre los valores más bajo y más alto de un conjunto de datos. Las
distribuciones de extremo abierto no tienen alcance. Conceptos similares son los
siguientes:
i. Alcance intercuartil: diferencia entre los valores del primer y tercer cuartiles; esta
diferencia representa el alcance de la mitad central del conjunto de datos.
ii. Alcance interfractil: medida de la dispersión entre dos fractiles de una distribución; es
decir, l a diferencia entre los valores de dos fractiles.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
“Conjunto de transformaciones numéricas de los datos encaminado a lograr que éstos sean
interpretables en relación a la hipótesis de investigación. En Psicología tales
transformaciones suelen ser de índole estadístico”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
“Analiza las correlaciones de un conjunto amplio de variables intentando hallar unas pocas
dimensiones subyacentes que expliquen la mayor parte de la varianza. Intenta eliminar
redundancias en la información para simplificar un campo de estudio”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 75.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
009. CLASE
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
010. CODIFICACIÓN
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
011. COEFICIENTE
“En matemáticas, es el número o símbolo que se coloca frente a una variable o a una
incógnita en una ecuación. En la ecuación, por ejemplo, x3 – 10 x2 – 5x = 0, los coeficientes
son 5 y 10. En física y en mecánica es el número que define las características especiales de
una sustancia”. Por ejemplo, el coeficiente de dilatación de un gas determinado.
Speck G (comp) (1966) “Diccionario científico ilustrado”, New York: Editors Press Service, pág. 79.
“En estadística, número que caracteriza cantidades de datos al compararlos con otras
cantidades de datos”.
satisfactoria. En general, se admite que por encima de 0.80, la prueba es confiable. El alfa de
Cronbach varía entre 0 y 1 (0 es ausencia total de consistencia, y 1 es consistencia perfecta).
El valor 0.90 es satisfactorio si, como dijimos antes, el test tiene muchos ítems. Si el test
llegara a tener pocos ítems, se pueden aceptar valores alfa de Cronbach de 0.60 y 0.50 (como
sostienen Carmines y Zeller 1979; Pedhazur y Schmelkin 1991).
Finalmente, digamos que puede ocurrir que un test tenga varios alfa de Cronbach distintos.
Por lo regular esto significa que el test está midiendo una variable compleja, multidimensional,
y entonces se ha obtenido un alfa para cada dimensión. No obstante, aún en estos casos
puede obtenerse un alfa único para toda la variable.
014. CONFIABILIDAD
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
O fiabilidad.
La fiabilidad es el grado en que un test aporta resultados válidos, y se pone a prueba
evaluando la consistencia de las puntuaciones obtenidas en dos mitades del test, o en
formas alternadas del test, o mediante su repetición tardía.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, Pág. 71.
015. CONFIRMACIÓN
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
016. CORRELACIÓN
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
018. CUANTIL
Nombre genérico que reciben ciertas medidas de posición no centrales. Un cuantil puede
definirse como un valor de la variable que permite saber cuántos otros valores obtenidos de
la variable se encuentran por debajo y por encima en la serie ordenada de dichos valores.
Los cuantiles se clasifican en cuartiles, quintiles, deciles y percentiles, según que dividan la
serie ordenada de valores en cuatro, cinco, diez o cien partes iguales.
Algunos autores (1) consideran los cuantiles como medidas de dispersión. Sin embargo, en un
sentido más estricto, las medidas de dispersión que corresponden a los cuantiles son los desvíos
intercuantílicos, como por ejemplo, los desvíos intercuartílicos Q1, Q2 y Q3.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998).
(1) Por ejemplo Vessereau A, La estadística, Buenos Aires, Eudeba, 1963, 2da. edición, pág. 12.
"Si una curva no es simétrica, entonces es asimétrica. Cuando una curva es asimétrica en
forma positiva, la mayor parte de los datos aparecen en los valores menores del eje
horizontal y la curva se reduce hacia el extremo superior. Cuando una curva es asimétrica
en forma negativa, gran parte de los datos aparecen en los valores mayores y la curva se
reduce hacia el extremo inferior del eje horizontal".
Pagano R, Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 55.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág 429.
Una curva "es simétrica si sus dos lados coinciden al doblarla a la mitad".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 55.
022. DATO
Valor que adquiere una variable para una determinada unidad de análisis. El dato es siempre
el resultado de un proceso de medición. Ejemplos: "el coche de Juan es rojo" y "Juan mide
1,70 m". En el primer caso, la unidad de análisis es el coche, la variable es el color, y el valor
es rojo. En el segundo caso, la unidad de análisis es Juan, la variable es la estatura, y el
valor es 1,70 m. El dato incluye también una especificación del procedimiento utilizado para
hacer la medición, y de la unidad de medida utilizada. Por ejemplo, para establecer que Juan
pesa 70 kgs, se ha utilizado una balanza y, como unidad de medida, el kilogramo.
Los datos son los valores cualitativos o cuantitativos mediante los cuales se miden las
características de los objetos, sucesos o fenómenos a estudiar pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
024. DESVIACIÓN
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
025. DISCUSIÓN
“Reflexión que realiza el investigador en relación a las implicaciones que los datos
obtenidos en su investigación tienen para su hipótesis”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
Distribución que "presenta los valores de los datos y su frecuencia de aparición. Al ser
presentados en una tabla, los valores de los datos se enumeran en orden, donde por lo
general el valor del dato menor aparece en la parte inferior de la tabla".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 35.
Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 69.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 618.
La descripción émica es la que ofrece el nativo (por ejemplo para un aborigen cierta enfermedad es
obra de los dioses), mientras que la descripción ética es el punto de vista del observador exterior
(por ejemplo un etnógrafo que visita la tribu y para él la misma enfermedad es entendida de
acuerdo a su cultura occidental).
Lo émico sería todo aquello que tras haber sido recogido por el etnógrafo es reconocido por el
nativo como real, significativo y apropiado. La traducción científica, no familiar al nativo sería el étic,
que según Harris sería el émic del etnógrafo.
La perspectiva ética se refiere a las afirmaciones generalizadas sobre los datos, que el investigador
establece en función de un conocimiento transcultural; mientras que la émica se refiere a los
modelos y patrones que se observan en una cultura particular concreta. Lo ético es externo y lo
émico es interno; en el primero el investigador se coloca fuera de las culturas, comparando unas
con otras; en lo segundo el investigador descubre desde dentro lo específico de una cultura
particular.
Pimienta Lastra Rodrigo (2002), Reflexiones sobre Pensamiento Epistémico. El uso de los datos en la investigación aplicada. En Cinta
de Moebio No. 13. Marzo 2002. Facultad de Ciencias Sociales. Universidad de Chile. Disponible en
http://www.moebio.uchile.cl/13/frames11.htm
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
“Posible error al aceptar la hipótesis nula. Su probabilidad se representa por beta. Su valor
ha de ser inferior a 0,20, es decir, 20%”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
033. ESTADÍSTICA
La Estadística estudia los métodos científicos para recoger, organizar, resumir y analizar
datos, así como para sacar conclusiones válidas y tomar decisiones razonables basadas
con tal análisis.
En un sentido menos amplio, el término estadística se usa para denotar los propios datos, o
número derivados de ellos, tales como los promedios. Así se habla de estadística de empleo,
estadística de accidentes pequeña.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
Analiza “el grado de interacción de dos variables apareadas dependientes”. Entre los
coeficientes usados para evaluar la intensidad de una relación está el coeficiente de
Pearson (para dos variables de intervalos), los coeficientes de Spearman y de Kendall (para
dos variables ordinales), el coeficiente biserial puntual (para una variable nominal y una de
intervalos), y los coeficientes tetracórico y el coeficiente k (para vincular dos variables
nominales).
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
"Si estudiamos una característica de un grupo, sea en una población o en una muestra, por
ejemplo talla, peso, edad, cociente intelectual, ingreso mensual, etc. y lo describimos sin
sacar de ello conclusiones estamos en la etapa de la estadística descriptiva"
(Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 25).
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
"Si estudiamos en una muestra una característica cualquiera e inferimos, a partir de los
resultados obtenidos en la muestra, conclusiones sobre la población correspondiente,
estamos haciendo estadística inductiva o inferencial y como estas diferencias no pueden
ser exactamente ciertas, aplicamos el lenguaje probabilístico para sacar las conclusiones"
(Cohan N., Diseño estadístico, Buenos Aires, Eudeba, 1994, pág. 25).
"La interpretación estadística supone dos fases esenciales: una inductiva, que permite el
pasaje de la muestra a la población total, y la otra deductiva, que sitúa la muestra, señalada
con una tasa de probabilidad, en el grupo de todas las eventualidades que pueden intervenir
por extracción al azar en el seno de la población total. Si hay varias hipótesis admisibles, se
elegirá aquella que conduzca, para la muestra, a la probabilidad máxima. La primera fase del
trabajo supone una cierta intuición; la segunda, que se realiza matemáticamente basada en
las normas del cálculo de probabilidades, constituye la crítica de la primera"
Vessereau A., La estadística, Buenos Aires, Eudeba, 1963, 2da. edición, pág. 28.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág 429.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
Los diseños estadísticos clásicos mencionados en la tabla adjunta “se basan en el estudio
de los efectos de una o más variables independientes sobre una variable dependiente, por lo
que las técnicas se denominan univariantes”.
CONTRASTES
TIPOS DE COMPARACIÓN
PARAMÉTRICOS NO PARAMÉTRICOS
DOS MUESTRAS
Datos no apareados t de Student para datos no apareados Mann-Whitney
Datos apareados t de Student para datos apareados Wilcoxon
MÁS DE DOS MUESTRAS
Datos no apareados ANOVA (Análisis de la varianza) Kruskal-Wallis
Datos apareados ANOVA para datos apareados Friedman
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
039. ESTADÍSTICO
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
040. ESTANDARIZACIÓN
Un buen test debe estar estandarizado, de modo que el rendimiento de una persona pueda
ser comparado significativamente con el rendimiento de otras. La estandarización es la
definición de puntuaciones significativas comparadas con el rendimiento de un ‘grupo de
estandarización’ al que se administró previamente el test.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
042. ETNOGRAFÍA
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
043. EXPERIMENTO
“Estudio en el cual el investigador manipula o varía una o más variables (llamadas variables
independientes) y mide otras variables (llamadas variables dependientes)”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
En un sentido amplio, es toda modificación introducida deliberadamente en la realidad con el fin de
examinar sus efectos o consecuencias. Ejemplo: cuando un niño intenta averiguar si su llanto atrae
a su mamá, está realizando un experimento. Un tipo especial de experimento es el experimento
científico, donde se manipula una variable con el fin de examinar sus efectos en otra variable
i. En su acepción más general, un experimento consiste en aplicar un estímulo a un individuo o
grupo de individuos y ver el efecto de ese estímulo en alguna(s) variable(s) del
comportamiento de éstos. Esta observación se puede realizar en condiciones de mayor o
menor control. El máximo control se alcanza en los <experimentos verdaderos>.
ii. Deducimos que un estímulo afectó cuando observamos diferencias –en las variables que
supuestamente serían las afectadas- entre un grupo al que se le administró dicho estímulo y
un grupo al que no se le administró, siendo ambos iguales en todo excepto en esto último.
iii. Hay dos contextos en donde pueden realizarse los experimentos: el laboratorio y el campo.
iv. En los cuasi-experimentos no se asignan al azar los sujetos a los grupos experimentales, sino
que se trabaja con grupos intactos.
v. Los cuasi-experimentos alcanzan validez interna en la medida en que demuestran la
equivalencia inicial de los grupos participantes y la equivalencia en el proceso de
experimentación.
vi. Los experimentos <verdaderos> constituyen estudios explicativos, los pre-experimentos
básicamente son estudios exploratorios y descriptivos; los cuasi-experimentos son –
fundamentalmente- correlacionales aunque pueden llegar a ser explicativos.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 6: Diseños experimentales de investigación, pág. 182.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 619.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 620.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 620.
047. FALSACIÓN
048. FRACTIL
En una distribución de frecuencias, es la posición de un valor en, o por encima de, una
fracción dada de los datos. Los fractiles pueden ser: cuartiles (fractiles que dividen los
datos en cuatro partes iguales), deciles (fractiles que dividen los datos en diez partes
iguales) o percentiles (fractiles que dividen los datos en 100 partes iguales).
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
049. FRECUENCIA
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
051. HIPÓTESIS
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i. Las hipótesis son proposiciones tentativas acerca de las relaciones entre dos o más variables
y se apoyan en conocimientos organizados y sistematizados.
ii. Las hipótesis contienen variables; éstas son propiedades cuya variación puede ser medida.
iii. Las hipótesis surgen normalmente del planteamiento del problema y la revisión de la literatura
–algunas veces de teorías-.
iv. Las hipótesis deben referirse a una situación real. Las variables contenidas tienen que ser
precisas, concretas y poder observarse en la realidad; la relación entre las variables debe ser
clara, verosímil y medible. Asimismo, las hipótesis deben estar vinculadas con técnicas
disponibles para probarlas.
v. Las hipótesis se clasifican en:
a. hipótesis de investigación,
b. hipótesis nulas,
c. hipótesis alternativas.
vi. A su vez, las hipótesis de investigación se clasifican de la siguiente manera:
vii. Puesto que las hipótesis nulas y las alternativas se derivan de las hipótesis de investigación,
pueden clasificarse del mismo modo pero con los elementos que las caracterizan.
viii. Las hipótesis estadísticas son la transformación de las hipótesis de investigación, nulas y
alternativas en símbolos estadísticos. Se clasifican en:
a. hipótesis estadísticas de estimación,
b. hipótesis estadísticas de correlación, y
c. hipótesis estadísticas de la diferencia de grupos.
ix. En una investigación puede formularse una o varias hipótesis de distintos tipos.
x. Las hipótesis se contrastan contra la realidad para aceptarse o rechazarse en un contexto
determinado.
xi. Las hipótesis constituyen las guías de una investigación.
xii. La formulación de hipótesis va acompañada de las definiciones conceptuales y operacionales
de las variables contenidas dentro de las hipótesis.
xiii. Hay investigaciones que no pueden formular hipótesis porque el fenómeno a estudiar es
desconocido o se carece de información para establecerlas (pero ello sólo ocurre en los
estudios exploratorios algunos estudios descriptivos).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 5: Formulación de hipótesis, pág. 103.
xiv. Modos de formulación. Una hipótesis puede formularse como una hipótesis de correlación o
como hipótesis de causalidad. En el primer caso, la hipótesis afirma una asociación estadística
entre dos variables: cuando aumenta una aumenta o disminuye la otra en la misma proporción.
Esto no presupone que haya un vínculo causal. En el segundo caso no sólo se afirma que hay
correlación sino que además, hay un vínculo causal: X causa Y, y por lo tanto es más una
hipótesis explicativa que meramente descriptiva.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
“Enuncia que no existen diferencias entre las poblaciones de donde proceden las muestras.
Las diferencias observadas son atribuidas a errores aleatorios de muestreo”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 74.
054. HISTOGRAMA
Es una serie de rectángulos con bases iguales al rango de los intervalos y con área
proporcional a sus frecuencias.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
055. IDEA
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 1: La idea: nace un proyecto de investigación, pág. 6.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i. Antes de elaborar el reporte de investigación debe definirse el usuario, ya que el reporte
deberá adaptarse a éste.
ii. Los reportes de investigación pueden presentarse en un contexto académico o en un contexto
no académico.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
“Se calcula a partir del error standard. Es un intervalo por encima y por debajo de la
estimación puntual en el que se puede asegurar, con un determinado nivel de confianza, que
se sitúa el valor de la población”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 429.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
061. INVESTIGACIÓN
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 121.
Según cierto criterio, las investigaciones pueden ser longitudinales o transversales. Las
investigaciones longitudinales estudian un proceso a lo largo del tiempo, mientras que las
investigaciones transversales estudian un estado de cosas en determinado instante del tiempo. Por
ejemplo, estudiar a lo largo de un año como fue cambiando la relación entre índice de
desocupación y depresión psicológica es un estudio longitudinal, mientras que estudiar como es
esa relación sólo en el momento en que se recogieron los datos, es una investigación transversal.
Pérez Serrano G (1990), “Investigación-Acción. Aplicaciones al campo social y educativo”. Madrid, Dykinson, pág. 134.
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 123.
Guarda íntima relación con la investigación básica “pues depende de los descubrimientos y
avances de ella y se enriquece con ellos. Se trata de investigaciones que se caracterizan por
su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos”. La
investigación aplicada busca conocer para hacer, para actuar (modificar, mantener, reformar
o cambiar radicalmente algún aspecto de la realidad).
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 68.
“En contraste con la Investigación social Básica, la Aplicada antepone la resolución de los
problemas sociales al interés científico. Consiste en la aplicación y puesta en práctica de los
descubrimientos para crear, desarrollar o mejorar estrategias y acciones concretas de
acción social”.
Indican Rubio y Varas que la principal crítica que recibe la investigación aplicada es que responden
a exigencias meramente institucionales, dejando de lado el interés de los usuarios así como su
participación. En este sentido, otro tipo de investigación viene a compensar esta insuficiencia (ver
Investigación-Acción).
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 121.
“O pura, es la que se realiza con el propósito de acrecentar los conocimientos teóricos para
el progreso de una determinada ciencia, sin interesarse en sus posibles aplicaciones o
consecuencias prácticas; es más formal y persigue propósitos teóricos en el sentido de
aumentar el acervo de conocimientos de una teoría.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 68.
Rubio J y Varas J (1997), “El análisis de la realidad, en la intervención social”. Métodos y técnicas de investigación. Madrid: Editorial
CCS, pág. 120.
“Es un procedimiento reflexivo, sistemático, controlado y crítico que tiene por finalidad
descubrir o interpretar los hechos y los fenómenos, relaciones y leyes de un determinado
ámbito de la realidad”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 57.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
De acuerdo con algunos autores (Rubio J y Varas J, 1997:237), el método cualitativo opera
“en dos momentos:
1. en un primer momento el investigador intenta (mediante grupos de discusión,
entrevistas abiertas, historias de vida, etc.) reproducir los discursos de determinado
grupo social, comunidad o colectivo. O en su caso, produce o recopila documentos
(relatos históricos, biográficos, tradiciones orales, etc.) referidos al ámbito o población
en la que se centra la investigación.
2. Posteriormente, se analiza e interpreta la información recogida”.
Los estudios descriptivos sirvan para analizar como es y se manifiesta un fenómeno y sus
componentes (Vg., el nivel de aprovechamiento de un grupo, cuántas personas ven un
programa televisivo y porqué lo ven o no, etc.).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
“Estudios que recopilan información detallada acerca de situaciones específicas, los cuales
a menudo utilizan la observación, encuestas, entrevistas, grabaciones o una combinación
de estos métodos”.
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
Los estudios explicativos buscan encontrar las razones o causas que provocan ciertos
fenómenos. A nivel cotidiano y personal sería como investigar porqué Brenda gusta tanto
de ir a bailar a una disco o por qué se incendió un edificio.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996, pág. 71.
Descriptivos
Transeccionales
Correlacionales / causales
De tendencia
Longitudinales De análisis evolutivo de grupo
Panel
“Es el proceso que, utilizando el método científico, permite obtener nuevos conocimientos
en el campo de la realidad social (investigación pura) o bien estudiar una situación para
diagnosticar necesidades y problemas a efectos de aplicar los conocimientos con fines
prácticos (investigación aplicada)”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 59.
Son los valores extremos que tiene el intervalo de clase, inferior y superior, entre los cuales
van a estar los valores de los datos agrupados en ese intervalo de clase.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
075. MANOVA
Análisis múltiple de la varianza similar al ANOVA, pero con diversas variables dependientes
simultáneas.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 3: La elaboración del marco teórico: revisión de la literatura y construcción de una perspectiva teórica, pág. 54.
Se define "como la suma de los datos dividida por el número de los mismos". Entre las
propiedades de la media se cuentan:
i. la media es sensible al valor exacto de todos los datos de la distribución;
ii. la suma de las desviaciones con respecto a la media es cero;
iii. la media es muy sensible a los datos extremos;
iv. la suma de los cuadrados de las desviaciones de todos los datos en torno a su media es
la mínima posible;
v. para un gran número de circunstancias, de todas las medidas utilizadas para calcular la
tendencia central, la media es la que menos se sujeta a la variación debida al muestreo.
Esta última propiedad se relaciona con el uso de la media para la inferencia estadística.
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, pág. 62-65.
078. MEDIANA
"Es el valor central o medida de posición de la variable que divide una distribución
estadística con igual número de observaciones por debajo y por encima. Se utiliza en lugar
de la media aritmética cuando el número de datos es pequeño y pueden ser sensibles a
unos cuantos valores grandes que distorsionarían el valor central. En estos casos la
mediana es más real que una media aritmética".
Ander-Egg E., Técnicas de investigación social, Buenos Aires, Hvmanitas, 1987, 21 edición, pág. 363.
079. MEDICIÓN
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
Medida de dispersión en términos de la diferencia entre dos valores del conjunto de datos.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
(O de posición): medida que indica el valor esperado de un punto de datos típico o situado
en el medio. Cantidades numéricas que dan una idea sobre la ubicación de la distribución
de frecuencias.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
083. MÉTODO
Es “el camino a seguir mediante una serie de operaciones, reglas y procedimientos fijados
de antemano de manera voluntaria y reflexiva, para alcanzar un determinado fin que puede
ser material o conceptual”.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 41.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i. Características. “El método científico consiste en establecer unas reglas o procedimientos
generales que aseguren una investigación científicamente significativa”. Las más importantes
características del método científico son las siguientes:
a. Es fáctico en el sentido de que los hechos son su fuente de información y de respuesta.
b. Trasciende los hechos: si bien el método científico parte del conocimiento de los hechos
particulares, no se detiene en ellos: mediante un ‘salto del nivel observacional al teórico’,
los trasciende.
c. Se atiene a reglas metodológicas formalizadas (operaciones y procedimientos
establecidos de antemano), pero no por ello desecha la imaginación y la intuición.
d. Se vale de la verificación empírica para formular respuestas a los problemas planteados y
para apoyar sus propias afirmaciones.
e. Esta permanente confrontación hace que el método sea además auto correctivo y
progresivo: ajusta sus conclusiones a los nuevos datos, y sus conclusiones no son finales.
f. Sus formulaciones son generales: el hecho en particular interesa en tanto es miembro de
una clase o caso de una ley.
g. Es objetivo en tanto busca alcanzar la verdad fáctica, independientemente de los valores y
creencias del científico.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 44.
ii. Pasos. Los pasos del método científico son: formular correctamente el problema y
descomponerlo; proponer una tentativa de explicación verosímil y contrastable con la
experiencia; derivar consecuencias de esas suposiciones; elegir los instrumentos
metodológicos para realizar la investigación; someter a prueba los instrumentos elegidos;
obtener los datos que se buscan mediante la contrastación empírica; analizar e interpretar los
datos recogidos; y estimar la validez de los resultados obtenidos y determinar su ámbito de
validez: hacer inferencias a partir de lo que ha sido observado o experimentado.
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 44-45.
085. MODA
"Llamada también módulo, modo, valor prevalente, promedio típico, valor dominante, etc.,
es la medida de posición que nos da la magnitud del valor que se presenta con más
frecuencia en una serie. Dicho en otras palabras: se trata del valor de la variable que tiene
mayor frecuencia absoluta".
Ander-Egg E., Técnicas de investigación social, Buenos Aires, Hvmanitas, 1987, 21 edición, pág. 364.
086. MUESTRA
Parte de una población que está disponible, o que se selecciona expresamente para el
estudio de la población.
La muestra es un subgrupo de la población –previamente delimitada- y puede ser
probabilística o no probabilística. El elegir qué tipo de muestra se requiere depende de los
objetivos del estudio y del esquema de investigación. Para seleccionar la muestra, lo
primero que se tiene que plantear es el quiénes van a ser medidos, lo que corresponde a
definir la unidad de análisis –personas, organizaciones o periódicos-. Se procede después a
delimitar claramente la población con base en los objetivos del estudio y en cuanto a
características de contenido, de lugar y en el tiempo.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
088. MUESTRA PROBABILÍSTICA
Las muestras probabilísticas son esenciales en los diseños de investigación por encuestas
donde se pretenden generalizar los resultados a una población. La característica de este
tipo de muestra, es que todos los elementos de la población tienen al inicio la misma
probabilidad de ser elegidos, de esta manera los elementos muestrales tendrán valores muy
aproximados a los valores de la población, ya que las mediciones del subconjunto, serán
estimaciones muy precisas del conjunto mayor. Esta precisión depende del error de
muestreo, llamado también error estándar.
Para una muestra probabilística necesitamos dos cosas: determinar el tamaño de la muestra
y seleccionar los elementos muestrales en forma aleatoria.
El tamaño de la muestra se calcula con base a la varianza de la población y la varianza de la
muestra. Esta última expresada en términos de probabilidad de ocurrencia. La varianza de la
población se calcula con el cuadrado del error estándar, el cual determinamos. Entre menor
sea el error estándar, mayor será el tamaño de la muestra.
Las muestras probabilísticas pueden ser: simples, estratificadas y por racimos. La
estratificación aumenta la precisión de la muestra e implica el uso deliberado de
submuestras para cada estrato o categoría que sea relevante en la población. El muestrar
por racimos implica diferencias entre la unidad de análisis y la unidad muestral. En este tipo
de muestreo hay una selección en dos etapas, ambas con procedimientos probabilísticos.
En la primera se seleccionan los racimos –escuelas, organizaciones, salones de clase- en la
segunda y dentro de los racimos a los sujetos que van a ser medidos.
Los elementos muestrales de una muestra probabilística siempre se elijen aleatoriamente
para asegurarnos de que cada elemento tenga la misma probabilidad de ser elegido. Pueden
usarse tres procedimientos de selección:
1. Tómbola,
2. Tabla de números random y
3. Selección sistemática.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 8: Cómo seleccionar la muestra?, pág. 233.
089. MUESTREO
Procedimiento por el cual se selecciona una muestra de una población. Los procedimientos
de muestreo suelen clasificarse en probabilísticos, si cualquier elemento de la población
tiene las mismas probabilidades de ser incluido en la muestra, y no probabilísticos, en caso
contrario.
“Se consideran diferentes estratos (por Ej., grupos de edad) y se extrae de cada uno de ellos
un número determinado de sujetos por un procedimiento aleatorio simple. Es más complejo
que el muestreo aleatorio simple, pero es muy útil si interesa obtener información de los
subgrupos, además de la global. En determinadas circunstancias a igualdad de tamaño de la
muestra es más preciso que un muestreo aleatorio simple”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
“Se enumeran todos los elementos del universo y se eligen los integrantes de la muestra
siguiendo una tabla de números aleatorios. Este procedimiento es simple y seguro a la hora
de evitar sesgos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
“Cualquier procedimiento en que la elección de los sujetos no sea debida al azar. Las
posibilidades de sesgar la muestra son muy grandes y lo que es más grave, no pueden
estimarse”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
“Es una combinación encadenada de otros tipos de muestreo aleatorio y se utiliza en los
muestreos muy grandes. Es complejo y requiere para la interpretación de los resultados
transformaciones únicamente disponibles en programas muy específicos”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 623.
Woolfolk A (1996) “Psicología educativa”, México, Prentice-Hall Hispanoamericana SA, pág. 14.
098. PARÁMETRO
Valor numérico que describe las características de una población completa, representado
generalmente por letras griegas. Ejemplos: media aritmética poblacional, desvío standard
poblacional.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
099. PERCENTIL
Un percentil o "punto percentil es el valor sobre la escala de medida, debajo del cual cae un
porcentaje dado de los datos de la distribución".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. Edición, pág. 43.
100. POBLACIÓN
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
102. PRECISIÓN
103. PROBABILIDAD
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i. Plantear el problema de investigación es afinar y estructurar más formalmente la idea de
investigación, desarrollando tres elementos: objetivos de investigación, preguntas de
investigación y justificación de ésta. Los tres elementos deben ser capaces de guiar a una
investigación concreta y con posibilidad de prueba empírica.
ii. Los objetivos y preguntas de investigación deben ser congruentes entre sí e ir en la misma
dirección.
iii. Los objetivos establecen qué pretende la investigación, las preguntas nos dicen que
respuestas deben encontrarse mediante la investigación y la justificación nos indica porqué
debe hacerse la investigación.
iv. Los criterios principales para evaluar el valor potencial de una investigación son: conveniencia,
relevancia social, implicaciones prácticas, valor teórico y utilidad metodológica. Además debe
analizarse la viabilidad de la investigación y sus posibles consecuencias.
v. El planteamiento de un problema de investigación científico no puede incluír juicios morales o
estéticos. Pero debe cuestionarse si es o no ético llevarlo a cabo.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 2: Planteamiento del problema, pág. 17.
105. PROCEDIMIENTO
“Plan de actuación del investigador a la hora de recoger los datos en el que se detallan los
aspectos relativos a instrumentos utilizados, medidas empleadas, unidades de observación,
pasos seguidos, etc.”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
i. El uso de las pruebas estadísticas en investigación. Para decidir con objetividad si una
hipótesis es confirmada por un conjunto de datos, se utiliza un procedimiento que, por lo
común, tiene los siguientes pasos:
a. Hipótesis de nulidad. Formulación de la hipótesis de nulidad (Ho), que se formula con la
idea de ser rechazada. Si los datos nos permiten rechazarla, entonces corroboramos
nuestra hipótesis alterna (H1), que es la hipótesis de investigación que queremos poner a
prueba.
b. Elección de la prueba estadística. Elección de una prueba estadística adecuada para
probar Ho. Debemos decidirnos entre una prueba paramétrica o una no paramétrica.
c. Nivel de significación y tamaño de la muestra.- Especificación del nivel de significación
(a) y del tamaño de la muestra (N). El nivel de significación lo establecemos de antemano,
y define el riesgo de error que estamos dispuestos a aceptar. Por ejemplo, un a = 0.01
significa que la probabilidad de error aceptable es 0.01 (el 1%). Esto se llama Error Tipo I
(rechazar Ho siendo verdadera), pero también está el Error Tipo II (aceptar Ho siendo
falsa).
La potencia de una prueba estadística mide la probabilidad de rechazar acertadamente la
Ho (o sea cuando es falsa). En términos generales, la potencia de una prueba aumenta al
aumentar el tamaño de la muestra (N).
d. Distribución muestral. Encuentro (o suposición) de la distribución muestral de la prueba
estadística conforme a Ho. Conociendo la distribución muestral, podemos hacer
aseveraciones de probabilidad acerca de la ocurrencia de ciertos valores numéricos que
nos interesan.
e. Región de rechazo. En base a 2, 3 y 4, definición de la región de rechazo. La región de
rechazo es una zona de la distribución muestral, y contiene todos los valores posibles
conforme a Ho.
f. Decisión. Cálculo del valor de la prueba estadística con los datos obtenidos de la (s)
muestra (s). Si ese valor cae dentro de la región de rechazo de la hipótesis nula, ésta
debe rechazarse; si cae fuera de dicha región, la hipótesis nula no puede rechazarse al
nivel de significación escogido.
ii. Elección de la prueba estadística adecuada. Los siguientes factores intervienen en la
determinación de qué prueba estadística será la más adecuada para analizar datos de una
investigación en particular:
a. Potencia de la prueba.
b. Forma de obtención de la muestra de puntajes.
c. Naturaleza de la población de la que se extrajo la muestra.
d. Tipo de escala de medición usada para los puntajes. Respecto de esto último, las
operaciones permitidas con un conjunto de puntajes dado dependen del nivel de medida
que se logre. El siguiente esquema indica cuatro niveles de medida, así como las
operaciones, estadísticas y pruebas estadísticas permitidas en cada nivel.
EJEMPLOS DE ESTADÍSTICAS
RELACIONES APROPIADAS PRUEBAS ESTADÍSTICAS
ESCALA
DEFINIDAS APROPIADAS
• Modo
Pruebas estadísticas no
NOMINAL • Equivalencia • Frecuencia
paramétricas
• Coeficiente de contingencia
• Mediana
• Percentiles
• Equivalencia
ORDINAL • Spearman rs Idem anterior
• Orden
• Kendall r
• Kendall W
• Media
• Equivalencia
• Desviación stándard
• Orden
• Correlación del producto- Pruebas estadísticas
INTERVALO • Proporción conocida momento de Pearson paramétricas y no paramétricas
de un intervalo a
cualquier otro • Correlación del múltiple
momento-producto
• Equivalencia
• Orden
• Proporción conocida
de un intervalo a • Media geométrica
PROPORCION Idem anterior
cualquier otro • Coeficiente de variación
• Proporción conocida
de un valor a
cualquier otro
En todas las pruebas estadísticas paramétricas las variables están medidas en un nivel por
intervalos o razón.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
109. PUNTAJE Z
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, págs. 84-87.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
110. RECOLECCIÓN DE DATOS
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
111. REGRESIÓN
"Tema que analiza la relación entre dos o más variables para determinar una predicción".
Pagano R., Estadística para las ciencias del comportamiento, México, International Thomson Editores, 1999, 5ta. edición, págs. 127.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 75.
113. REPLICABILIDAD
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 22.
114. SESGO
Grado en que una distribución de puntos está concentrada en un extremo o en el otro; falta
de simetría. Asimetría en distribuciones de frecuencias no simétricas.
Levin R y Rubin D (1996) Estadística para administradores. Prentice Hall, Sexta edición.
115. SOCIOMETRÍA
“Método objetivo para evaluar criterios de atracción, rechazo o indiferencia que operan
entre los miembros de un grupo”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 626.
Es la cantidad de datos que serán extraídos de la población para formar parte de la muestra.
Valdés Fernando, “Comprensión y uso de la estadística”, Glosario, Universidad Rómulo Gallegos, 1998.
117. TASA
Una tasa es la relación entre el número de casos de una categoría y el número total de
casos, multiplicada por un múltiplo de 10.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 10: Análisis de los datos, pág. 429.
118. TÉCNICA
Ander-Egg E, “Técnicas de investigación social” Hvmanitas, Buenos Aires, 1987, pág. 42.
119. TEORÍA
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 626.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 3: La elaboración del marco teórico: revisión de la literatura y construcción de una perspectiva teórica, pág. 54.
Droppelmann A (coordinador Escuela de Psicología) (2002), Procedimientos para la elaboración de proyecto y tesis de grado y
proceso de titulación (Reglamento interno).
“Una Tesis teórica, es un tipo de investigación que tiene como objeto de estudio conceptos,
teorías, modelos, leyes o hipótesis propias del campo y de la tradición psicológica. Su
desarrollo y operaciones se basan en la búsqueda de nuevas relaciones, en la generación
de hipótesis, el análisis y la discusión critica de algún concepto o variable de una teoría.
Una investigación teórica enfatiza la interpretación de los conceptos, la aclaración y
profundización de enunciados, el estudio del alcance y consecuencias de las teorías,
modelos y conceptos al interior de la tradición psicológica. Para el desarrollo de la
investigación se deben recopilar antecedes e información extraída fundamentalmente de
material bibliográfico. Sin embargo una tesis teórica no se reduce solo a la revisión
bibliográfica sino que debe procurar establecer relaciones, proponer lecturas y examinar
críticamente el material recopilado”.
Droppelmann A (coordinador Escuela de Psicología) (2002), Procedimientos para la elaboración de proyecto y tesis de grado y
proceso de titulación (Reglamento interno).
123. UNIVERSO
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 70.
124. VALIDEZ
Un test, y, en general cualquier instrumento de medición “debe ser válido, o sea que mida lo
que supuestamente quiere medir. A veces es suficiente una validez de contenido, es decir,
que mida lo que pretende medir. En otros casos se evalúa la validez de un test
comparándolo con otros tests que miden lo mismo, y en otros casos se aplica la validez
predictiva, según la cual un test es válido si puede predecir una puntuación en el futuro”.
Myers David, Psicología, Editorial Médica Panamericana, Madrid, 3° edición, pág. 319.
La validez se refiere al grado en que el instrumento de medición mide realmente la(s) variable(s)
que pretende medir. Se pueden aportar tres tipos de evidencia para la validez: evidencia
relacionada con el contenido, evidencia relacionada con el criterio y evidencia relacionada con el
constructo.
Los factores que principalmente pueden afectar la validez son: improvisación, utilizar instrumentos
desarrollados en el extranjero y que no han sido validados a nuestro contexto, poca o nula
empatía, factores de aplicación.
La validez de contenido se obtiene contrastando el universo de ítems contra los ítems presentes en
el instrumento de medición. La validez de criterio se obtiene comparando los resultados de aplicar
el instrumento de medición contra los resultados de un criterio externo. La validez de constructo se
puede determinar mediante el análisis de factores.
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 9: Recolección de los datos, pág. 338.
i. Para lograr el control o la validez interna los grupos que se comparen deben ser iguales
en todo, menos en el hecho de que a un grupo se le administró el estímulo y al otro no.
A veces graduamos la cantidad del estímulo que se administra, es decir, a distintos
grupos (semejantes) les administramos diferentes grados del estímulo para observar si
provocan efectos distintos.
ii. La asignación al azar es –normalmente- el método preferible para lograr que los grupos
del experimento sean comparables (semejantes).
iii. Hay nueve fuentes de invalidación interna: historia, maduración, inestabilidad,
administración de pruebas, instrumentación, regresión, selección, mortalidad,
interacción entre selección y maduración.
iv. Los experimentos que hacen equivalentes a los grupos y que mantienen esta
equivalencia durante el desarrollo de aquellos, controlan las fuentes de invalidación
interna.
v. Lograr la validez interna es el objetivo metodológico y principal de todo experimento.
Una vez que se consigue es ideal alcanzar validez externa (posibilidad de generalizar los
resultados a la población, otros experimentos y situaciones no experimentales).
Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”, México, McGraw-Hill, 1996. Resumen del
capítulo 6: Diseños experimentales de investigación, pág. 182.
126. VARIABLE
“Factor que resulta afectado dentro de un marco experimental; aquello que ocurre o cambia
como resultado de la manipulación de otro factor (la variable independiente)”.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 628.
“En un sentido general, fenómeno que se pretende explicar con una hipótesis”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
“Es la variable sobre la que se quiere analizar los efectos de las variables independientes”.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 73.
Son todas aquellas variables que el investigador no controla directamente, pero que pueden
influir en el resultado de su investigación. Deben ser controladas, hasta donde sea posible,
para asegurarnos de que los resultados se deben al manejo que el investigador hace de la
variable independiente, más no a variables extrañas, no controladas. Algunos métodos para
realizar este control son los siguientes:
i. Eliminación: Cuando sabemos que existe una variable extraña que puede alterar los
resultados de la investigación, podemos controlarla mediante la eliminación.
ii. Constancia de condiciones: Si, por ejemplo, en un estudio experimental deseamos estudiar
dos o más grupos de sujetos, éstos se deben someter exactamente a las mismas condiciones,
tanto físicas como de lugar, manteniendo, de esta manera, constantes las circunstancias bajo
las cuales se investiga.
iii. Balanceo: Cuando tenemos una variable extraña puede influir de manera definitiva en nuestro
estudio y, si no la podemos eliminar ni igualar las condiciones de los grupos, deberemos
recurrir al balanceo. Este mecanismo distribuye en forma equitativa la presencia de la variable
extraña entre los grupos.
iv. Contrabalanceo: En algunas investigaciones se pide a los sujetos que respondan varias
veces a un mismo estímulo o a varios estímulos diferentes. Esta serie de respuestas puede
provocar en los mismos dos reacciones: por un lado, fatiga, porque los sujetos se cansan de
estar respondiendo; por otro lado, aprendizaje, ya que después de presentar 2 o 3 veces el
mismo estímulo el sujeto ya sabe cómo responder. Para evitar estos problemas, los grupos se
pueden subdividir en subgrupos para que los efectos de la fatiga y/o aprendizaje queden
anulados.
v. Aleatorización: Este método de control es uno de los más sencillos y más utilizados en
ciencias sociales, sobre todo cuando se llevan a cabo estudios experimentales. Se parte del
postulado de que si la selección y distribución de sujetos en grupos de control fue hecha al
azar, podemos inferir que las variables extrañas, desconocidas por el investigador, se habrán
repartido también al azar en ambos grupos, y así quedarán igualadas.
Pick S y López A.L, (1998), Cómo investigar en ciencias sociales. Buenos Aires: Trillas.
X = Variable Independiente
Y = Variable Dependiente
Z = Variable Extraña
En el primero, se puede apreciar que Z actúa como Variable Antecedente cuando ocurre
cronológicamente antes de X; en el segundo esquema Z actúa como Variable Interviniente
cuando ocurre después de X; y por último, en el tercero, que Z actúa como Variable Contextual o
Variable Moderante como más se utiliza en nuestro medio, cuando ocurre al mismo tiempo
(simultáneamente) que X.
Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 628.
“En forma general, factor que se considera explicación del fenómeno que se está
estudiando”.
León O y Montero I, “Diseño de investigaciones”, Introducción a la lógica de la investigación en psicología y educación, McGraw Hill,
Madrid, 1995, pág. 23.
Vallejo Ruiloba J y otros, “Introducción a la sicopatología y la psiquiatría”, Masson, Barcelona, 1999, 4° edición, pág 73.
Muy genéricamente, entonces, una Variable Adicional es aquella de la cual sospechamos que
puede estar ejerciendo influencia causal sobre Y, con lo cual resulta que no es X el único factor
causal pero sí el único que nos interesa. En un esquema multivariado también habrá que controlar
otros posibles factores z, mientras investigamos sólo los que nos interesan en ese momento (X1,
X2, X3, etc.).
NOTA FINAL DEL CAPÍTULO.
El presente Capítulo correspondiente al Glosario de Estadística, tiene la sola
intención de plantear la terminología básica de la Ciencia de la Estadística y de
ninguna manera pretende ser un compendio completo de los conceptos de esta
ciencia.
VI. BIBLIOGRAFÍA
Se debe destacar que la siguiente relación Bibliográfica contiene referencia a volúmenes, que no
necesariamente se han incorporado en las notas aclaratorias de algunos artículos del presente
volumen, de forma tal que si es que el eventual lector desee una relación completa, deberá, al
menos, revisar todo el trabajo; de esta manera intento conseguir que algunos de los ocasionales
lectores o consultores de este trabajo, se tomen la tarea de revisarlo todo.
A. Bibliografía de EPISTEMOLOGÍA
01. Aron Raymond, Las etapas del pensamiento sociológico. Buenos Aires, Ed. Ateneo, 1998
02. Bastide Qué es estructura? Incluído en Bastide y otros, Sentidos y usos del término
estructura. Buenos Aires, Ed. Paidós, 1968.
03. Celener Graciela, Fundamentos teóricos para la inclusión de láminas en blanco (Ort-Tat),
publicación interna de la Cátedra de Técnicas psicodiagnósticas II de la Facultad de
Psicología de la Universidad de Buenos Aires, 1996.
04. Feyerabend Paul, Adiós a la razón, Ed. Ateneo, 2002
05. Hempel K, Filosofía de la ciencia natural. Madrid: Alianza, 3° edición, 1977
06. Kuhn Thomas. La estructura de las revoluciones científicas. Madrid: Fondo de Cultura
Económica, 1975.
07. O’Neil W, “Introducción al método en psicología”, Eudeba, Buenos Aires, 1968.
08. Rodríguez de Rivera J, Epistemología o Teoría de la Ciencia y Reflexión Crítica sobre los
Fundamentos de las Ciencias de la Organización, Universidad de Alcalá,2000
09. Russell B, La perspectiva científica, Sudamericana, Ed. Trillas, 1986.
10. Usher R y Bryant I, La educación de adultos como teoría, práctica e investigación. El triángulo
cautivo. Morata, Madrid, 1999
11. Vera María Teresa, "El aprendizaje por resolución de problemas", incluído en Sanjurjo L. y
Vera M., "Aprendizaje significativo y enseñanza en los niveles medio y superior", Rosario,
Homo Sapiens Ediciones, 1995.
B. Bibliografía de LÓGICA
01. Bochenski, "Los métodos actuales del pensamiento", Barcelona, Ed. Ariel, 2003
02. Bunge Mario, "La investigación científica: su estrategia y su filosofía", Barcelona, Ariel, 1969
03. Cazau Pablo, "Acerca de la inteligencia lógica" El Observador N°17, 2001
04. Cazau Pablo, "Identidad (I)" El Observador N°3, 2000
05. Cazau Pablo, "La dialéctica como estrategia de investigación", El Observador, N°16, 1999
06. Cazau Pablo, "La síntesis kantiana", El Observador Psicológico, Tomo I, N°5, 1979
07. Cazau Pablo, "Lenguaje y metalenguaje", El Observador Psicológico, Tomo I, N° 3, 1997.
08. Cazau Pablo, "Psicología, Derecho y Etica", El Observador Psicológico, Tomo 2, N°22, 2003
09. Colacilli de Muro M y J, "Elementos de lógica moderna y filosofía", Buenos Aires, Estrada,
1979,
10. Copi Irving, "Introducción a la lógica", Buenos Aires, Eudeba, 1974, 15° edición
11. Fatone Vicente, "Lógica e Introducción a la filosofía", Buenos Aires, Kapelusz, 1969, 9°
edición.
12. Ferrater Mora José, "Diccionario de Filosofía", Madrid, Alianza, 1979
02. Ander-Egg E, “Técnicas de Investigación Social”, Ed. Humanitas, Buenos Aires, 1987,
03. Berenson M.L., "Conceptos y Aplicaciones de Estadística”, Ed. Prentice Hall, New Jersey,
1992
04. Bickel P.J. y Doksum K.A., “Estadística Matemática: Ideas Básicas y Tópicos Seleccionados”,
Ed. Holden Day, San Francisco, 1987.
05. Cox D.R. y Snell E.J., ”Estadística Aplicada” Ed. Chapman & Hall, Londres, 2002
06. Fiemberg S.E., “El Análisis de Cruce y Clasificación Categòrica de Datos”, Ed. MIT Press,
Massachusetts, 2002
07. Fox J., “Modelos Estadísticos Lineales y Métodos Relacionados”, Ed. John Wiley & Sons, New
York, 1999
08. Hernández Sampieri R, Fernández Collado C y Lucio P, “Metodología de la investigación”,
México, McGraw-Hill, 2002.
09. León O y Montero I, “Diseño de investigaciones”, Ed. McGraw Hill, Madrid, 1995
10. Mc Cullagh P. y Nelder J.A., "Modelos Lineales Generalizados” Ed. Chapman & Hall, Londres,
2000
Al concluir este trabajo, apelo a todas aquellas personas que por cualquier
razón revisaren su contenido, tengan la gentileza de: