Está en la página 1de 68

Vamos a llevar estos pasos lógicos para las publicaciones de las memorias

digitales de todos los trabajos, por favor no los borre ni los cambie para que los
demás compañeros sigan las mismas pautas y el documento final quede mucho
más claro y útil a todos.

1. Biografía del autor.


2. Ciencia que se estudia.
3. Títulos centrados.
4. Subtítulos costado Izquierdo.
5. Fuente arial 12
6. Ref. bibliográficas o sitios Web de donde tomamos la información.
7. Presentado por: (Lauren Eliana Camargo, Sandra Yaneth Sierra)

PSICOLOGÍA DE LA GESTALT
Presentado por: Franky Stiven Achagua Moreno, Sebastian Arias Tay

BIOGRAFÍA DE CHRISTIAN VON EHRENFELS


Christian von Ehrenfels nació el 20 de junio de 1859 en Rodaun, cerca de Viena, y creció
en el castillo de su padre Brunn am Walde en la Baja Austria . Ingresó a la escuela
secundaria en Krems y primero estudió en la Hochschule für Bodenkultur en Viena y luego
se cambió a la Universität Wien .

Allí estudió filosofía, fue alumno de Franz Brentano y Alexius Meinong , promovido bajo la
supervisión de Meinong, siguiéndolo después de su traslado a la
Karl-Franzens-Universität (Graz), en 1885 sobre el tema de Größenrelationen und Zahlen.
Eine psychologische Studie ("Relaciones de magnitud y números. Un estudio
psicológico"). Obtuvo su habilitación en 1888 en Viena con la obra Über Fühlen und
Wollen ("Sobre el sentimiento y la voluntad"). De 1896 a 1929 fue profesor de filosofía en
la universidad alemana de Praga . Los interesados en sus conferencias fueron, entre
otros, Max Brod , Franz Kafka y Felix Weltsch.(1)

Se le atribuye, junto con Stern, K. Bühler y Kueger, la introducción en 1890 de la idea de la


Gestalt, o de la forma o estructura. Introdujo el término cualidades de la Gestalt para
denotar la percepción de la forma o melodía que, aunque basada en la estimulación
sensorial, en modo alguno puede considerarse inherente al patrón de estimulación. En su
opinión las cualidades de la Gestalt representaban elementos nuevos en el campo de la
percepción, lo que dio lugar a plantearse el fenómeno de la transposición. Por ejemplo
una figura geométrica puede ser reconocida después de haberle introducido cambios en
el tamaño o el color.

En aquella época esta idea de las cualidades de la Gestalt era poco conocida fuera de
Austria, pero parece haber inspirado al filósofo y psicólogo británico George Frederick
Stout.(2)
CIENCIA QUE SE ESTUDIA
Objeto de estudio: La conducta molar o masiva: actos globales de una persona. Ej.
Conducir un automóvil. Una conducta con sentido o significado.• Tiene lugar en un
ámbito, geográfico o conductual; el primero, constituido por estímulos físicos y el
segundo es de naturaleza psicológica (depende de la percepción de los estímulos
por parte del sujeto). Resultado de la interacción entre el ámbito geográfico y el
ámbito conductual.
Se divide en:
Conducta aparente: la interpretación que otro sujeto efectúa de la conducta de otro.
Conducta Fenoménica: la interpretación que cada sujeto realiza a cerca de su propia
conducta.
Conducta Real: Sin una conceptualización consistente dentro de esta teoría, es
definida como una mezcla de los dos anteriores. Se contrapone a La conducta
molecular: se reduce a reacciones fisiológicas (como entendía el conductismo).(3)

WEBGRAFÍA

1.

2. “Christian Von Ehrenfels.” EcuRed, www.ecured.cu/Christian_von_Ehrenfels.

3. Sarmiento, Escuela, and Seguir. “Gestalt. Psicologia[1][1].” LinkedIn SlideShare,

es.slideshare.net/roxanalaks/gestalt-psicologia11

CIBERNÉTICA 1

Presentado por: Daniel Alejandro Acero Almanza y Geinerd Exleimar Arevalo Torres

BIOGRAFÍA DEL AUTOR

Norbert Wiener (Columbia, Misuri, Estados Unidos, 26 de noviembre de 1894


Estocolmo, Suecia, 18 de marzo de 1964) fue un matemático
estadounidense,conocido como el fundador de la cibernética. Acuñó el término en su
libro Cibernética o el control y comunicación en animales y máquinas, publicado en
1948.

Su padre, Leo Wiener fue profesor de lenguas eslavas en la Universidad de Harvard.


Norbert se educó en casa hasta los siete años, edad a la que empezó a asistir al
colegio, pero durante poco tiempo. Siguió con sus estudios en casa hasta que volvió
al colegio en 1903, graduándose en el instituto de Ayer en 1906.

En septiembre de 1906, a la edad de once años, ingresó en la Universidad Tufts para


estudiar matemáticas.1 Se licenció en 1909 y entró en Harvard, en donde estudió
zoología, pero en 1910 se trasladó a la Universidad Cornell para emprender estudios
superiores en filosofía; sin embargo, meses después, volvió a Harvard. Wiener obtuvo
el doctorado en dicha universidad en 1912, con una tesis que versaba sobre lógica
matemática.

De Harvard pasó a Cambridge, Inglaterra, donde estudió con Bertrand Russell y G. H.


Hardy. En 1914 estudió en Gotinga, Alemania con David Hilbert y Edmund Landau.
Luego regresó a Cambridge y de ahí a los EE.UU. Entre 1915 y 1916 enseñó filosofía
en Harvard y trabajó para la General Electric y la Encyclopedia Americana antes de
dedicarse a trabajar en cuestiones de balística en el campo de pruebas de Aberdeen
(Aberdeen Proving Ground), en Maryland. Permaneció en Maryland hasta el final de la
guerra, cuando consiguió un puesto de profesor de matemáticas en el MIT.

Durante el tiempo que trabajó en el MIT hizo frecuentes viajes a Europa y es en esa
época cuando entabla contacto con Leonardo Torres Quevedo y su máquina "El
Ajedrecista".2 En 1926 se casó con Margaret Engemann y regresó a Europa con una
beca Guggenheim.3 Pasó casi todo el tiempo en Gotinga o con Hardy en Cambridge.
Trabajó en el movimiento browniano, la integral de Fourier, el problema de Dirichlet, el
análisis armónico y en los teoremas tauberianos, entre otros problemas. Ganó el
premio Bôcher en 1933.

Durante la Segunda Guerra Mundial trabajó para las Fuerzas Armadas de los Estados
Unidos en un proyecto para guiar a la artillería antiaérea de forma automática
mediante el empleo del radar.1 El objetivo del proyecto era predecir la trayectoria de
los bombarderos y con ella orientar adecuadamente los disparos de las baterías,
mediante correcciones basadas en las diferencias entre trayectoria prevista y real,
conocidas como innovaciones del proceso. Como resultado de los descubrimientos
realizados en este proyecto introduce en la ciencia los conceptos de feedback o
retroalimentación, y de cantidad de información, con lo que se convierte en precursor
de la teoría de la comunicación o la psicología cognitiva. Posteriormente, en 1956,
formulará parte del concepto de Causalidad de Granger (WIENER, 2019)

CIENCIA QUE ESTUDIA


La Cibernética
En el año 1948, Norbert Wiener publicó en Nueva York su Cybernetics, or Control and
Communication in the Animal and the Machine (Cibernética o el control y
comunicación en animales y máquinas), libro escrito en clave netamente matemática
en el que propuso su teoría del control y la comunicación en máquinas y animales,
que denominó Cibernética, palabra que hizo derivar de la voz griega kubernetes
(Κυβερνήτης) o timonel, misma raíz de la cual procede el término gobierno y sus
derivados.

La Cibernética, nacida de la combinación de las matemáticas y la neurofisiología, se


propone como la ciencia que permitirá el control de los “factores antihomeostáticos”
inherentes a la Naturaleza y al funcionamiento de la sociedad. La homeostasises un
concepto central de la teoría cibernética, y se refiere al proceso mediante el cual los
organismos vivos conservan cierto estado de organización dentro de la tendencia
general del universo hacia la corrupción y la decadencia, tendencia que se conoce con
el nombre de entropía.

La entropía es la medida de la probabilidad de encontrar respuesta, en un conjunto


más grande de universos posibles, a las preguntas que podemos hacernos acerca de
algunos de ellos (Wiener 1988a, 14). Dicho más simplemente, la entropía mide el nivel
de desorganización y homogeneidad de un determinado sistema (Wiener 1988a, 34).
A menor entropía, mayor diferenciación; a mayor entropía, mayor homogeneidad.
Wiener creía que a medida que aumentaba la edad del universo aumentaba la entropía
y, por extensión, la homogeneidad entre los elementos que lo constituyen.

La información representa la medida de la reducción de la incertidumbre, esto es, es


una medida antientrópica que permite reducir el grado de caos en el Universo. La
información se opone a la entropía: a mayor entropía, menor información; a mayor
información, menor entropía. Los medios de comunicación (en cuanto que aseguran la
libre circulación de la información al interior del medio social) son vistos, en este
sentido, como mecanismos fundamentales en la lucha contra la entropía o la tendencia
natural a la merma de información en la Naturaleza. Al respecto, Wiener anticipa, con
pocas esperanzas, su preocupación acerca de la propiedad de los medios de
comunicación y el uso interesado del poder.

La noción de feedback

La Cibernética ha colaborado desde sus inicios a formular analogías operativas y


funcionales entre hombres y máquinas: de acuerdo con Wiener, el funcionamiento de
los seres vivos y el de las máquinas (en particular el de las modernas máquinas
electrónicas) son análogos y paralelos en sus tentativas de regular la entropía mediante
la retroalimentación. Esta analogía operativa fundamental entre el funcionamiento
general de los seres humanos y el de las máquinas se basa en el hecho de que ambos
sistemas operan como enclavados locales de entropía negativa, con tendencia
temporal creciente hacia mayores niveles de organización (Wiener 1988b, 29-33).

La noción de feedback o retroalimentación es un elemento clave de la teoría


cibernética. Se refiere al retorno de salida al interior de un circuito de información,
aspecto que habilita la posibilidad de controlar el comportamiento de un sistema, sea
técnico, físico, biológico o social. Desde el punto de vista de las teorías de
comunicación, eso supone un avance fundamental en cuanto que se reconoce por
primera vez la existencia de un esquema circular más complejo y fecundo que supera a
las teorías precedentes.

Cibernética y cíborgs

Norbert Wiener afirmaba en 1948 que uno de los incipientes campos prácticos de
aplicación de los conceptos cibernéticos era el de las prótesis sustitutivas de
extremidades o sentidos mutilados o paralizados (Wiener 1998, 50). Más tarde, en
1964, proponía al diseño de prótesis o dispositivos que reemplazan miembros u
órganos sensibles dañados como uno de los caminos válidos para el estudio
independiente de sistemas de naturaleza mixta, que comprende tanto elementos
humanos como mecánicos (Wiener 1998b, 57).

La Cibernética ha tenido derivaciones en la teoría del conocimiento, la inteligencia


artificial, la computación, la bioelectrónica y la robótica, entre otros campos de estudio.
En particular, ha dado lugar a la noción de ciborg u organismo cibernético. De acuerdo
con la definición ofrecida por Clynes y Kline en 1960, el cíborg es un organismo capaz
de integrar eficaz e inconscientemente los componentes externos que expanden las
funciones que regulan su cuerpo y su mente. Esto es: un sistema orgánico que integra a
sus mecanismos autopoiéticos extensiones no-biológicas que cooperan, sin el
beneficio de la conciencia, con sus controles homeostáticos autónomos.

Video explicativo:

VIDEO DE AYUDA

WEBGRAFÍA

1. WIENER, N. (01 de 08 de 2019). WIKIPEDIA. Obtenido de


https://es.wikipedia.org/wiki/Norbert_Wiener

2. Wiener, Norbert. 1988a. Cibernética y sociedad. Buenos Aires: Editorial


Sudamericana.

3. Wiener, Norbert. 1988b. Dios & Golem, S.A. México D.F: Siglo Ventiuno Editores.

4. Wiener, Norbert. 1998. Cibernética o el control y comunicación en animales y


máquinas. Barcelona: Tusquets.
----------------------------**---------------------------------------------------------------**------------------

ECONOMÍA
presentado por: Luz Angelica Benavides Leiton

Kenneth E. Boulding fue también un activo militante pacifista que mediante el análisis
teórico y su lucha social práctica, procuró la consecución y defensa de la paz en todo el
mundo. Como teórico del pacifismo, aplicó los instrumentos de análisis de las ciencias
sociales para promover métodos pacíficos de resolución de conflictos. Como pacifista en
la práctica social y política cotidiana, se enfrentó y denunció públicamente todas las
guerras de su tiempo, destacándose en los movimientos universitarios estadounidenses
contra la guerra en Vietnam. ((CV), s.f.)

Nació y se crió en un barrio de Liverpool donde su padre tenía una pequeña empresa de
fontanería. Hijo y nieto único, él fue el primer miembro de su familia que estudió más allá
de la educación básica. La primera Guerra Mundial debió suponer para él un fuerte
impacto a pesar de su corta edad ya que pocos años antes de morir seguía siendo capaz
de describir con minucioso detalle algunas anécdotas de aquella guerra: el retorno de las
trincheras de un tío suyo al que tuvieron que despiojar con una plancha ardiente o la
muerte en combate de otros conocidos. Parece que fue en estos años y, según él, debido
a esos acontecimientos, cuando comenzó a tartamudear, defecto que le acompañó
durante toda su vida pero que no le impidió ser un profesional de la docencia y reputado
conferenciante. Su familia era de religión metodista, pero su anti belicismo le hizo entrar
de joven en la «Sociedad de Amigos» (Ios cuáqueros), comunidad de la que fue siempre
activo miembro y prolífico publicista. Los cuáqueros son un grupo religioso cristiano
fundado en Inglaterra por George Fox en 1652 y que siempre se ha distinguido por su
activismo social en temas como el pacifismo y la igualdad. Fueron pioneros en la defensa
pública de la abolición de la esclavitud, en la lucha por la igualdad de derechos de las
mujeres, la libertad religiosa y de pensamiento, la reforma de los regímenes carcelarios, la
objeción de conciencia a todas las guerras y la promoción activa de la paz. Hoy en día los
cuáqueros siguen destacándose en la lucha por estas causas, con un protagonismo
especial en la denuncia del reclutamiento y utilización de niños-soldado y el fomento de la
educación para la paz y la igualdad. Estudió en la Universidad de Oxford, donde tuvo
como tutor de Economía a Lionel Robbins. Tras su graduación obtuvo una beca para
estudiar en Estados Unidos, en la Universidad de Chicago, donde tuvo como tutor a
Jacob Viner. La muerte de su padre en 1933 le obligó a interrumpir su estancia en
América y volver para liquidar el negocio familiar que estaba en franca bancarrota.
«Aprendí un montón de Economía en aquellos diez días». El padre había sido insolvente
durante más de veinte años, pero los banqueros y sus acreedores habían seguido
renovándole los créditos en la esperanza de que al año siguiente se recupera. Un año
después de la muerte de su padre consiguió su primer puesto como profesor ayudante en
el Departamento de Economía de la Universidad de Edimburgo. En 1937, mientras
estaba en una conferencia internacional de cuáqueros en Filadelfia, un antiguo
compañero de Chicago le ofreció un puesto en la Colgate University, en Nueva York. En
1941 conoció, se comprometió y se casó con Elise Bjorn-Hansen, la mujer con la que
compartió el resto de su vida. Después trabajó un año en Princeton, en la Sección
Financiera y Económica de la Liga de las Naciones. Parece que fue la divulgación de
unos panfletos pacifistas cuáqueros lo que determinó la pérdida de aquel empleo. ((CV),
s.f.)

El siguiente curso lo pasó en la Fisk University, un colige para negros en Nashville,


Tennessee. En 1943 fue al Iowa State College en Ames, donde empezó a trabajar con
Theodore Schultz en Economía del Trabajo. Finalmente arribó a la que sería su primera
base estable, la Universidad de Michigan en Ann Arbor; allí permaneció desde 1949 hasta
que, en 1967, acepto una oferta de la Universidad de Colorado en Boulder, a la que
perteneció hasta su muerte. ((CV), s.f.)

Un economista heterodoxo

Las aportaciones de Boulding a la ciencia económica tuvieron un carácter innovador,


abriendo caminos que fueron posteriormente seguidos por muchos y destacados
economistas. En su obra mantuvo una inquietud multidisciplinaria, tratando de romper las
barreras que el mundo académico ha establecido entre las diversas ciencias y que
dificultan una colaboración fructífera. En la Universidad de Michigan, Boulding promovió un
seminario interdisciplinar que integraba científicos de diferentes áreas. Uno de los temas
que abordó, por ejemplo, fue «el crecimiento» sobre el que consiguió que dialogaran
biólogos, economistas, arquitectos e ingenieros, aportando cada uno su propia visión
orgánica, social o física. En 1954, en la Universidad de Stanford, en California, en una
reunión con un grupo informal multidisciplinar, decide promover una sociedad, la Society
for General Systems Research. En el grupo inicial están, además de Boulding, el biólogo
Ludwig von Bertalanffy, el psicólogo-matemático especialista en teoría de juegos Anatol
Rapoport y el neurólogo Ralph W. Gerard. Boulding es el primer presidente de la
sociedad. ((CV), s.f.)

La teoría general de sistemas trata de unificar los enfoques organicista, matemático y


tecnológico de lo que es un sistema; se trata de encontrar los elementos comunes a todos
los enfoques, de definir un conjunto de proposiciones y leyes aplicables a todo tipo de
sistemas. Los componentes de estos sistemas cumplen funciones determinadas:
información, realimentación (feed-back), evolución y control, entre otros. ((CV), s.f.)

El punto de vista de los sistemas biológicos llama especialmente la atención de Boulding.


«Hay muchos paralelismos entre la teoría ecológica en biología y la teoría del equilibrio
general y el desarrollo de los bienes» (Boulding 1987). Para Boulding, Adam Smith puede
ser considerado el primer teórico de la evolución, ya que percibió el sistema económico
como un ecosistema de bienes con poblaciones en equilibrio, en las que los nacimientos
(producción) y las muertes (consumo) eran iguales y que el equilibrio en la población de
cada bien dependía de la población de todos los demás. «La principal diferencia entre Ios
sistemas biológico y económico es que la estructura genética de los productos biológicos
está contenida en los mismos productos, mientras que, en el caso de los bienes, la
estructura genética está contenida en las mentes de muchos hombres y artefactos
humanos. El sistema económico es multiparental» ((CV), s.f.)

La bioeconomía, la aplicación a la ciencia económica de ideas surgidas en el ámbito


biológico se produce en Boulding desde sus primeros escritos en la década de los 30.
Considera que el universo está formado por poblaciones químicas, biológicas y sociales
que atienden al principio demográfico de que el crecimiento es igual a los aumentos
menos las disminuciones: nacimientos menos defunciones, cantidades producidas menos
cantidades consumidas. Tanto en la producción biológica como en la económica el factor
productivo es el «know how». Un huevo fecundado «sabe cómo» producir un hipopótamo
mientras que otro huevo «sabe cómo» producir una jirafa. Lo esencial en cualquier
elemento productivo es que «sabe cómo» captar energía y materiales y transformarlos en
bebés o en coches. En el estudio de la producción, clasificar los factores que la
determinan como tierra, trabajo y capital es tan burdo como la antigua clasificación de los
componentes de la naturaleza en tierra, aire, fuego y agua. La teoría de la producción de
Ios economistas clásicos es calificada por Boulding como "teoría del libro de cocina», ya
que en ella se considera cómo se producen los bienes y servicios a partir de diferentes
mezclas de aquellos tres ingredientes. En realidad, la tierra, el trabajo y el capital no son
factores que determinen la producción sino la distribución. ((CV), s.f.)

También se desvía del pensamiento económico habitual cuando decide estudiar la


economía de las donaciones. El análisis tradicional, afirma, se ha limitado a estudiar un
tipo de relaciones económicas, las que se establecen en el intercambio de bienes y
servicios; pero existen otras relaciones económicas en las que la transferencia de bienes
es unidireccional. El estudio de este tipo de relaciones es lo que Boulding llamó
«economía de las donaciones» (Boulding 1973). Estas transferencias unidireccionales
surgen de dos tipos de motivaciones diferentes, las integradoras y las coactivas. Hay
pues dos tipos de donaciones: el regalo, que surge del amor, y el tributo, provocado por el
temor. ((CV), s.f.)

Economía y Paz: Junto a su amigo el psicólogo-matemático Anatol Rapoport funda el


Center for Research in Conflicto Resolución, organización editora del prestigioso Journal
of Conflict Resolution, y la Internacional Peace Research Association. La obsesión por la
paz originada en la primera Guerra Mundial se refleja en múltiples escritos (Boulding
1945, 1962, 1963, 1993). En los tiempos de la guerra de Vietnam se convierte en un
destacado líder del movimiento pacifista, pero su actitud va mucho más lejos que la de un
pacifismo reivindicativo elemental. Hay ya, afirma, suficiente «demanda» de paz; lo que
se necesita es «oferta». Se trata de ofrecer soluciones alternativas, de elaborar métodos
para la resolución de conflictos.

Boulding veía al mundo y la sociedad humana como un sistema muy complejo y en


continuo cambio pero en el que se podían distinguir ciertos rasgos o mecanismos con una
presencia estable. Una de sus más importantes contribuciones fue la identificación de tres
grandes sistemas de relación entre seres humanos: la amenaza, el intercambio y el amor.
((CV), s.f.)

El sistema de la amenaza puede ser descrito mediante la frase “Haz esto que yo quiero
o yo haré una cosa que tú no quieres”. El sistema del intercambio puede ser descrito
mediante “Haz esto que yo quiero y yo haré algo que tú quieres”. Finalmente, el sistema
del amor se describe como “Yo voy a hacer algo que tú quieres porque quiero hacerlo,
independientemente de lo que tú hagas y sin pedirte nada a cambio”. La visión
economicista de la sociedad humana considera que el sistema dominante es el
intercambio y que la mayoría de los intercambios se producen en la práctica mediante ese
sistema. Otras personas piensan que el sistema dominante es el de la amenaza y que la
explotación, la sumisión y el dominio subyacen en un mundo en el que todos somos o
explotados o explotadores. Boulding sin embargo consideraba que la mayor parte de la
actividad y las relaciones sociales entre seres humanos están motivadas por el afecto y un
cierto sentido de obligación mutua. El sistema del amor, muy poco estudiado por los
científicos sociales, puede jugar un papel clave en la mejora de la sociedad humana, en
poner límites a las desigualdades creadas por el sistema de intercambio y a la
destrucción y dolor creados por el sistema de amenaza. ((CV), s.f.)

· El Sistema de la Amenaza

Está muy extendida la creencia en la eficacia del sistema de la amenaza. Mucha gente
está convencida de que siempre que una amenaza sea suficientemente fuerte y creíble
conseguirá provocar la sumisión. Pero lo cierto es que las amenazas tienen
frecuentemente consecuencias imprevistas e indeseables para el que las formula:

· A nadie le gusta ser obligado a hacer una cosa que no quiere por lo que aunque una
amenaza provoque a corto plazo la sumisión, también debe esperarse que produzca
resentimiento, hostilidad y estrategias más o menos astutas y ocultas para evitar la
sumisión a la amenaza.

· Otra posible respuesta a la amenaza es la huida, en la que la parte amenazada se retira,


aun con pérdida, para evitar que el que amenaza disfrute de los beneficios de un
comportamiento sumiso.

· El desafío es una forma de respuesta a una amenaza en la que el amenazado


simplemente se niega a someterse, forzando a elegir al amenazante entre cumplir o no
cumplir su amenaza. Cumplir una amenaza suele tener un coste, pero no cumplirla
también lo tiene, ya que las amenazas serán a partir de ese momento menos creíbles.
((CV), s.f.)

· Otra posible respuesta, aún más peligrosa, es la contra-amenaza, que puede generar
una escalada en la que ambas partes busquen armas para hacer que sus amenazas sean
más creíbles y más temibles. Kenneth Boulding vivió en la época de la llamada ‘guerra
fría’ y la ‘disuasión’. Estuvo especialmente interesado por tanto en el análisis de la
escalada armamentista entre USA y la URSS, en la que cada parte aumentaba sus
arsenales nucleares y sus amenazas como forma de reducir su vulnerabilidad. ((CV), s.f.)

· Las escaladas pueden conducir al punto en el que ambas partes destinan todos sus
recursos disponibles en su intento por prevalecer. Llega un momento en que los temas
que provocaron el comienzo de la escalada pierden todo sentido y de la inicial situación
de conflicto y amenaza se llega a otra de venganza y autodefensa. Es muy difícil debatir
cualquier problema entre gente que se está disparando. Boulding también subrayaba que
en estas fases desaparecen muchos tabúes y atrocidades que antes eran inimaginables
pasan a ser habituales y aceptadas. ((CV), s.f.)

Si aplicamos estas propuestas de Boulding al análisis del conflicto internacional más


grave en el momento de escribir este artículo, la guerra en Irak, podemos empezar
recordando las amenazas iniciales, la fase en la que los gobernantes de Irak y de EEUU
se amenazan mutuamente con sus palabras y gestos; la fase de contra-amenazas, en la
que los gobernantes de Irak y EEUU hacen ver a los ciudadanos de sus países que "el
otro" es una amenaza para su seguridad y se produce una escalada en la que ambas
partes prepararon armas, estructuras y disposición psicológica de los ciudadanos para
una guerra; el desencadenamiento de la guerra aparece asociado a una actitud de
venganza y autodefensa por ambos países; en el proceso se rompen tabúes tales
como la ruptura de acuerdos internacionales o engaños y traiciones a países amigos o
aliados y se cometen atrocidades inimaginables tales como bombardeo de
poblaciones civiles, torturas y detenciones masivas ilegales e indefinidas. ((CV), s.f.)

Boulding también destacó que ese proceso no era irreversible y que podía ser controlado
por la razón humana. De hecho, detectaba y ponía de manifiesto el fenómeno
esperanzador de que cada vez más amplias regiones de la tierra se ven libres de guerras
durante períodos más largos de tiempo. En ese proceso la formación, el conocimiento y la
información tienen un papel clave. Las personas responsables de los procesos políticos
cada vez están mejor formadas y son capaces de analizar con más datos los posibles
resultados de los conflictos. Cada vez está más claro que las guerras suelen ser muy
perjudiciales para todas las partes implicadas. En casi todas las guerras el vencedor solo
puede enorgullecerse de haber tenido menos pérdidas y menos costes que el vencido.
Cada vez está más claro que los posibles beneficios de conquistar territorios y
apoderarse de recursos ajenos por la fuerza son sobrepasados por los costes de
obtenerlos y de mantenerlos. Los científicos pueden cumplir un papel crucial al buscar
formas alternativas de solucionar los conflictos. Aumentar la formación de los ciudadanos
y la cultura de las sociedades es la mejor forma de bloquear los mecanismos del sistema
de amenaza e impedir que las situaciones conflictivas sean resueltas mediante la
violencia. ((CV), s.f.)

«Sin embargo, la paz crece por un casi inconsciente proceso de aprendizaje. Vemos
esto en la extensión de las áreas de paz estable por todo el mundo en los últimos 150
años. Lo vemos en el auge de la democracia política, lo vemos en el movimiento de los
trabajadores, lo vemos en Gandhi y en Martin Luther King, pero pienso que aún no lo
comprendemos muy bien. Y la comprensión de la paz permanece como uno de los
grandes desafíos intelectuales de la mente humana y, podríamos añadir, del corazón
humano» ((CV), s.f.)

BIBLIOGRAFÍA

(CV), J. C. (s.f.). KENNETH E. BOULDING, ECONOMISTA Y PACIFISTA. Obtenido

de http://www.eumed.net/rev/tepys/01/jcmc-1.htm

Enlaces de Material de Apoyo: ¿Cómo funcionan las economías de escal

¿Qué es la economía de mercado?

Microeconomia y Macroeconomia

Claude Elwood Shannon

Fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado


como el padre de la teoría de la información, Shannon es reconocido por haber
fundado el campo de la teoría de la información con la publicación. Una teoría
matemática de la comunicación, que supuso un hito en 1948. Es quizás igualmente
conocido por haber sentado las bases de la teoría del diseño del ordenador digital y
el circuito digital en 1937.
Con 21 años, mientras realizaba su maestría en el Massachusetts Institute of
Technology (MIT), demostró con su tesis, que las aplicaciones electrónicas de
álgebra booleana podrían construir cualquier relación lógico-numérica.
Shannon contribuyó asimismo al campo del criptoanálisis para la defensa de
Estados Unidos durante la Segunda Guerra Mundial, con trabajos sobre el
descifrado de códigos y la seguridad en las telecomunicaciones.
Los primeros años de su vida los pasó en Gaylord, donde se graduó de la
secundaria en 1932. Desde joven, Shannon mostró una clara inclinación hacia las
cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de
ciencias. Su héroe de la niñez era Edison, con quien luego descubrió que tenía un
parentesco y a cuyas investigaciones se aproximó bastante.
En 1932 ingresó en la Universidad de Míchigan, donde su hermana Catherine se
doctoró como matemática. En 1936 obtuvo los títulos de
ingeniero electricista y matemático. Su interés por la matemática y la ingeniería
continuó durante toda su vida.

En 1936 aceptó el puesto de asistente de investigación en el departamento de


ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT).
Su situación le permitió continuar estudiando mientras trabajaba por horas para el
departamento, donde trabajó en el computador analógico más avanzado de esa
era, el analizador diferencial de Vannevar Bush.

TEORÍA DE LA COMUNICACIÓN

¿QUÉ ES COMUNICACIÓN?
Es una de las actividades humanas que todo el mundo reconoce pero que pocos pueden
definir satisfactoriamente. Comunicación es hablar uno con otro, es difundir información.
Comunicar etimológicamente se refiere a compartir o intercambiar. Se trata de un
proceso de interacción o transacción entre dos o más elementos de un sistema. Las
siguientes son definiciones de carácter general de lo que llamamos comunicación:
"Es un proceso de transmisión de estructuras entre las partes de un sistema que son
identificables en el tiempo o en el espacio".
"Es el mecanismo por medio del cual existen y se desarrollan las relaciones humanas, es
decir, todos los símbolos de la mente junto con los medios para instruirlos a través del
espacio y presentarlos en el tiempo".
Este poner en común constituye lo propio de la vida social y la condición humana.
La comunicación, por lo tanto, será entendida como una dimensión de lo humano que se
reconoce en la constitución del universo de significados y valoraciones adjudicados a
experiencias. Es decir, esta definición debe pensarse como dependiente del concepto,
esencialmente semiótico, de cultura.

La teoría de la información, también conocida como teoría matemática de la


comunicación o teoría matemática de la información, es una propuesta teórica
presentada por Claude E. Shannon y Warren Weaver a finales de la década de los
años 1940.
Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el
procesamiento de la información y se ocupa de la medición de la información y de la
representación de la misma. Es básicamente una teoría sobre la transmisión óptima de
los mensajes, la transferencia de información se efectúa de la fuente al destinatario,
mientras que la transferencia de la energía vectora se lleva a cabo del transmisor al
receptor.
La funcionalidad de dicho modelo comunicativo no sólo ha consistido evidentemente en
su amplia aplicabilidad: se ha focalizado en el hecho de que permitía descubrir los
actores de interferencia de la transmisión de información, es decir, el problema del ruido
(debido a una pérdida de señal o a una información parasitaria que se produce en el
canal). Se trataba de un punto importante, ya que la finalidad operativa principal de la
teoría informacional de la comunicación era justamente la de hacer pasar a través del
canal la máxima información con las mínimas interferencias y la máxima economía de
tiempo y energía.

Verdaderamente no ha existido nunca una teoría de la comunicación. Lo que tenemos es


un sin número de resultados de investigaciones aglutinados bajo el indefinido nombre
de: Teoría de la Comunicación.
La gran mayoría de los estudiosos de la comunicación han formulado sus propios y
personales esquemas y modelos, en un principio éstos se basaban en una simple
relación de estímulo-respuesta para llegar hoy a plantear profundas interpretaciones.

Los profesionales de la comunicación, por otra parte, siempre han realizado su trabajo
sobre la base de la experiencia y el sentido común, y entre ellos y los investigadores
sobre temas comunicacionales ha habido muy poca o ninguna colaboración en la
mayoría de los países. La investigación de la comunicación empezó como investigación
de la comunicación de masas después de la Primera Guerra Mundial (1914-1918). Los
primeros modelos de comunicación fueron los denominados “modelos de aguja
hipodérmica”, modelos simples de estímulo- respuesta.

En 1948, Shannon y Weaver lanzaron una teoría matemática de la comunicación, casi al


mismo tiempo que Laswell, elaboran su fórmula de cinco elementos. Se trata de un
modelo de comunicación o, más exactamente, de una teoría de la información pensada
en función de la cibernética, la cual es el estudio del funcionamiento de las máquinas,
especialmente las máquinas electrónicas. Cuando Shannon habla de información, se
trata de un término con un sentido completamente diferente del que nosotros le
atribuimos generalmente (noticias que nos traen diariamente la prensa, la radio y la TV).
Se trata para él de una unidad cuantificable que no tiene en cuenta el contenido del
mensaje.
El modelo de Shannon se aplica entonces a cualquier mensaje, independientemente de
su significación. Esta teoría permite sobre todo estudiar la cantidad de información de un
mensaje en función de la capacidad del medio. Esta capacidad se mide según el
sistema binario (dos posibilidades, O ó 1) en bite (bínary digits) asociados a la velocidad
de transmisión del mensaje, pudiendo esta velocidad ser disminuida por el ruido.
El modelo de Shannon se representa por un esquema compuesto por cinco elementos:
una fuente, un transmisor, un canal, un receptor, un destino. Dentro de este modelo
incluimos el ruido, que aporta una cierta perturbación.

ELEMENTOS DEL MODELO DE SHANNON Y WEAVER


La fuente: es el elemento emisor inicial del proceso de comunicación; produce un cierto
número de palabras o signos que forman el mensaje a transmitir. Por ejemplo, puede ser
la persona que, habiendo descolgado el teléfono y marcado el número, comienza a
hablar. Puede ser, del mismo modo, el parlante de la radio o de la TV.
El transmisor: es el emisor técnico, esto es el que transforma el mensaje emitido en un
conjunto de señales o códigos que serán adecuados al canal encargado de transmitirlos.
Así, en nuestro ejemplo, el transmisor transformará la voz en impulsos eléctricos que
podrán ser transmitidos por el canal.

El canal: es el medio técnico que debe transportar las señales codificadas por el
transmisor. Este medio será, en el caso del teléfono, los cables, o la red de micro- ondas
utilizada por la empresa telefónica en comunicaciones internacionales.
El receptor: también aquí se trata del receptor técnico, cuya actividad es la inversa de la
del transmisor. Su función consiste entonces en decodificar el mensaje transmitido y
vehiculizado por el canal, para transcribirlo en un lenguaje comprensible por el verdadero
receptor, que es llamado destinatario. Es entonces el aparato telefónico, el receptor de
radio o el televisor.

El destinatario: constituye el verdadero receptor a quien está destinado el mensaje.


Será entonces la persona a quien se dirige el llamado telefónico o el conjunto de
personas audiencia de radio o de TV.
El ruido: es un perturbador, que parasita en diverso grado la señal durante su transmisión:
“nieve” en la pantalla de TV, fritura o lloro en un disco, ruidos de interferencia en la radio,
también la voz demasiado baja o cubierta por la música; en el plano visual puede.

Bibliografía
Mattelart, Armand y Mattelart, Michéle. Historia de las teorías de la
comunicación. s.l. : Copyright, 2013-11-22.

Unknown. BLOGGER. [En línea]


http://algarabiacomunicacion.blogspot.com/2013/04/modelo-de-comunicacion-de-shan
non-y.html.

[En línea]
http://files.felixruizrivera.webnode.mx/200000138-8395d858a0/Modelos_Comunicacin_
Humana.pdf.

INFO AMARICA. [En línea] Iberoamerican Communication


Review. http://www.infoamerica.org/teoria/shannon1.htm.

INFOAMERICA. [En línea] http://www.infoamerica.org/teoria/shannon2.htm.

Presentado por:
JEANNDRY EDUAR IBICA GOMEZ
JUAN FELIPE CASTAÑEDA POLANCO

BIOQUÍMICA

BIOGRAFÍA DE LAWRENCE J. HENDERSON

(3 de junio de 1878, Lynn, Massachusetts - 10 de febrero de 1942, Cambridge,


Massachusetts) fue fisiólogo, químico, biólogo, filósofo y sociólogo. Se convirtió en uno de
los principales bioquímicos de principios del siglo XX. Su trabajo contribuyó a la ecuación
de Henderson-Hasselbalch, utilizada para calcular el pH como medida de acidez. Fue
doctor en medicina, profesor de química biológica y química, presidente de la Sociedad
de Historia de la Ciencia, desarrolló trabajos como sociólogo y escribió cinco libros según

sus conocimientos, críticas y opiniones, adquiridas de sus diferentes estudios.

CIENCIA: BIOQUÍMICA

La bioquímica, en general, se define como una ciencia experimental que se encarga del
análisis de las estructuras químicas de los seres vivos, biomas y biosistemas, teniendo en

cuenta las moléculas, sus compuestos y reacciones químicas mediante el uso de varias
técnicas instrumentales; incorporando las leyes químico-físicas y la evolución biológica y

aportando a diferentes campos o sectores cotidianos, en los cuales intervienen los seres
vivos.

HISTORIA

Desde el siglo XIX, se empezó a crear una relación entre química y biología para formar
una nueva ciencia: bioquímica, la cual se conoció y se aplicó por primera vez hace

aproximadamente 5000 años, con el proceso de fermentación en la elaboración de pan


empleando levaduras. También, se dice que ésta inicia en 1928, cuando Friedrich Wöhler
halla la forma para crear urea artificialmente, publicado en un artículo sobre la síntesis de
urea; continuando en 1833, con la diastasa, la primera enzima descubierta por Anselme
Payen y Jean-François Persoz. A mitad del siglo XIX, Louis Pasteur probó los fenómenos

de isomería química entre moléculas de seres vivos y las obtenidas artificialmente,


estudió el fenómeno de la fermentación y aportó a la idea de la generación de los seres
vivos.

Luego, en 1869, es descubierta la nucleína como un compuesto favorecido en fósforo; dos


años después, Albrecht Kossel determina que ésta también resulta rica en proteínas y

bases púricas; y en 1889, se separan sus compuestos principales. Más tarde, en 1878,
se empleó la palabra enzima para aludir a los compuestos biológicos ignorados que
causaban la fermentación, pero después, se usó para aludir a las sustancias inertes. En
1897, se inició el estudio de la capacidad de los extractos de levadura para fermentar
azúcar teniendo en cuenta la falta de células vivientes de levadura, lo cual generó un

debate entre diferentes químicos y bioquímicos, quienes entre 1926 y 1930 concluyeron
que las proteínas puras pueden ser enzimas.

Durante los siguientes años, se estudia la cromatografía para separar pigmentos, el


glucólisis, la lisozima, similitud entre clorofila y hemoglobina, el ATP en las mitocondrias,
la fotosíntesis; el descubrimiento de la existencia de ADN y ARN en las células que se
diferencian según el azúcar, la prueba de que las proteínas son macromoléculas, la
estructura de dos hélices del ADN.

Durante la segunda mitad del siglo XX, inició la revolución de la bioquímica y la biología
molecular moderna puesto que se desarrollaron diferentes técnicas experimentales

(cromatografía, centrifugación, electroforesis, radioisotópicas, microscopía electrónica,


cristalografía de rayos X, resonancia magnética nuclear, PCR, e inmuno-técnicas).
Igualmente, se logran grandes avances como el descifrado del código genético,
descubrimiento de enzimas de restricción, nacimiento de la ingeniería genética, inicio de
secuencia de ADN, creación de industrias biotecnológicas, clonación de seres vivos,

desarrollo de la bioinformática y computación de sistemas complejos, creación del primer


cromosoma artificial, entre otras, que conllevaron al reconocimiento total de la bioquímica
como ciencia.

RAMAS

El tema principal que estudia la bioquímica es las propiedades de las proteínas, siendo la

mayoría enzimas, aunque existen otras disciplinas que se basan en: glucobiología y
lipobiología, investigación del ARN y ADN, la síntesis de proteínas, la dinámica de la
membrana celular y los ciclos energéticos; la bioquímica se ramifica en torno a la
evolución de las innovaciones de biología, química y física.

Las disciplinas en las cuales se subdivide la bioquímica son la estructural (estudia


proteínas y ácidos nucleicos: ADN y ARN), la bioorgánica (estudia compuestos orgánicos
provenientes de los seres vivos), enzimología (estudia el comportamiento de los
catalizadores biológicos o enzimas: algunas proteínas y ciertos RNA catalíticos), la
metabólica (estudia diferentes tipos de rutas metabólicas a nivel celular, y su contexto
orgánico: bioenergética, bioquímica general, bioquímica clínica, metabolómica),
xenobioquímica (estudia el comportamiento metabólico de los compuestos con estructura
química no propia del metabolismo regular de un organismo determinado: farmacología y
toxicología), inmunología (analiza la reacción del organismo frente a otros organismos
como bacterias y virus), endocrinología (estudio de hormonas: animal, vegetal y médica),

neuroquímica (estudio de moléculas orgánicas que intervienen en la actividad neuronal),


quimiotaxonomía (se encarga de clasificar e identificar organismos de acuerdo a sus
diferencias y similitudes según su composición química), ecología química (estudio de
compuestos químicos de origen biológico presentes en las interacciones de organismos
vivos), virología (estudio de virus), genética molecular e ingeniería genética (estudia los

genes, su herencia y su expresión: ADN y ARN), biología molecular (estudio de procesos


desarrollados en los seres vivos desde un ámbito molecular) y biología celular (estudio de
morfología y fisiología de las células procariotas y eucariotas).

TÉCNICAS BIOQUÍMICAS BÁSICAS

Al ser una ciencia experimental la bioquímica requiere de numerosas técnicas

instrumentales que posibilitan su desarrollo y ampliación, algunas de ellas se usan


diariamente en cualquier laboratorio y otras son muy exclusivas.

• Fraccionamiento subcelular, incluyen multitud de técnicas.

• Espectrofotometría

• Centrifugación

• Cromatografía

• Electroforesis

• Técnicas radioisotópicas
• Citometría de flujo

• Inmunoprecipitación

• ELISA

• Microscopio electrónico

• Cristalografía de rayos X

• Resonancia magnética nuclear

• Espectrometría de masas

• Fluorimetría

• Espectroscopia de resonancia magnética nuclear

BIBLIOGRAFÍA

[1] Ferry, RM (1942), "Lawrence Joseph Henderson.", Ciencia (Publicado 27 de Mar,


1942), 95 (2465), pp 316-318,. Doi : 10.1126 / science.95.2465.316 , PMID 17752667

[2] Talbott, JH (1966) "Lawrence Joseph Henderson (1878 a 1942).", JAMA (publicada el
19 de Dec, 1966), 198 (12), pp 1304-6,. Doi : 10.1001 / jama.198.12.1304 , PMID
5332544

[3] Hankins, TL "sangre, suciedad y nomogramas: Una historia particular de gráficos". Isis
90, 1 (1999), 50-80.

[4] Windeln, Rudolf "LJ Henderson (1878-1942)". 409-415, Volumen 2. En: Michel Weber y
Will Desmond (Eds.): Manual de Proceso whiteheadiana pensamiento. Frankfurt,
Lancaster, Ontos Verlag, 2 volúmenes, 2008.

[5] Bioquímica. (2019, 1 de septiembre). Wikipedia, La enciclopedia libre. Disponible en:

https://es.wikipedia.org/w/index.php?title=Bioqu%C3%ADmica&oldid=118793438.
Presentado por: Jennifer Yuley Montañez Rativa, Aura Yaneth Garcia Alfonso

----------------------------**---------------------------------------------------------------**------------------

SOCIOLOGÍA SEGÚN TALCOTT PARSONS

-Biografía de Talcott Parsons:

Talcott Parsons (1902-1979) Sociólogo norteamericano, cabeza de la escuela funcional. A


su nombre están asociadas las búsquedas de la “teoría general” en la sociología
burguesa moderna. Pretende desempeñar este papel su “teoría de la acción social”, la
cual él expuso en La estructura de la acción social (1937), Los ensayos de la teoría
sociológica pura y aplicada (1949), El sistema social (1951) y en otros trabajos.
Valiéndose del método de análisis estructural-funcional, Parsons construye un modelo de

sistema social, cuya célula de partida es el acto de interacción de individuos abstractos.


El mecanismo con cuya ayuda se establece la coordinación de sus acciones y se cumplen
los papeles a ellos prescritos por la sociedad es, desde el punto de vista de Parsons, la
asimilación de las normas y patrones de conducta generalmente aceptados y su
transformación en motivos internos de la actividad. Considerando el equilibrio como

importantísimo indicador del estado normal del sistema social, Parsons presta gran
atención a los procesos de regulación y a los medios de control de este estado (actuación
de los organismos políticos y jurídicos, reacción a los actos de unos individuos por parte
de otros individuos, &c.), que deben salvaguardar la sociedad de los conflictos
indeseables, los cambios bruscos, &c. En la obra Sociedades. Análisis histórico y

comparativo (1967), Parsons trata de utilizar algunas ideas del evolucionismo e incorporar
a la descripción de los sistemas sociales el análisis de sus cambios. Sin embargo, sus
opiniones sobre los procesos que transcurren en la sociedad continúan siendo
conservadoras. Entiende por cambios principalmente la diferenciación interna del
sistema, que refuerza su adaptabilidad, y no su transformación en sistema distinto por
principio.

-Ciencia que estudia:

La sociología fue la ciencia social que estudio Talcott Parsons que se encarga del análisis
científico de la estructura y funcionamiento de la sociedad humana o población regional.

-Ref. Bibliográficas:

http://www.fes-sociologia.com/que-es-la-sociologia/pages/27/

https://sistemaspoliticos.org/talcott-parsons-teoria-de-sistemas-estudio-sociedad/

http://www.filosofia.org/enc/ros/par9.htm

https://es.wikipedia.org/wiki/Sociología

-Presentado por: YOLMAR FELIPE SUAREZ RODRIGUEZ, JOSE LUIS BARACALDO

· Biografía del autor.

WALTER BRADFORD CANNON

Walter Bradford Cannon fue un fisiólogo extraordinario, representativo de las primeras

generaciones de investigadores norteamericanos que, con su estilo peculiar, irrumpieron


con fuerza en la escena científica internacional. Fue un profesor brillante de Harvard,
sencillo y de trato fácil, que acudía en bicicleta o en un viejo coche a su trabajo, que
cultivaba multitud de aficiones y que, más allá de los temas de laboratorio, reflexionó con
rigor sobre la docencia de la medicina y sobre la labor de los investigadores. Ahí está su
artículo "The Case Method of Teaching Systematic Medicine" (1900) cuya influencia llegó
a muchas universidades, y su libro The Way of An Investigator (1945). Perteneció a
multitud de comités y consejos internacionales y participó en las dos grandes guerras.
Médicos de todo el mundo fueron a su laboratorio a formarse.

Cannon nació el 19 de octubre de 1871 en Prairie du Chien (Wisconsin).

Su padre trabajaba en una empresa ferroviaria.

Su madre murió cuando él tenía diez años.

Tras realizar los primeros estudios en Milwaukee y Saint Paul (Minnesota), a la edad de
17 años comenzó los estudios secundarios.

Con la ayuda de una beca que solicitó uno de sus profesores, ingresó en la Universidad
de Harvard en 1892 para cursar medicina aunque él deseaba hacerlo en la John Hopkins.
Durante sus estudios, el profesor Bowditch, discípulo de Ludwig en Leipzig, le encomendó
como tema de investigación la aplicación de los recién descubiertos rayos X al estudio de

los procesos digestivos en animales.

Como sustancia opaca utilizó sales de bismuto y sulfato de bario. Pudo observar la
velocidad de tránsito por el esófago, la rapidez de la peristalsis, el ritmo gástrico, los
movimientos de segmentación rítmicos del intestino delgado, etc.

En 1898 publicó un trabajo sobre la motricidad del estómago en el American Journal of


Physiology

y años más tardeThe Mechanical Factors of Digestion (London, 1911).

El anillo de Cannon hace referencia a las contracciones tónicas visibles a menudo en la


mitad derecha del colon transverso.

Durante el cuarto año de carrera dictó el curso de anatomía comparada de los


vertebrados en la universidad de Harvard y en el Instituto Radcliffe. Tras su graduación
ocupó varios cargos hasta que en 1906 sucedió a Bowditch como titular de la cátedra de
fisiología.

El objeto fundamental de los trabajos de investigación de Cannon fue, como hemos dicho,
la mecánica del aparato digestivo, especialmente su motilidad. Más tarde se ocupó de las
influencias neuromusculares sobre los procesos de la digestión, el reflejo inducido por el
vago, de adaptación del estómago al contenido alimenticio así como su papel en el
mantenimiento de la función de la musculatura gástrica.

Fue en esta época, hacia 1912, cuando demostró que el hambre dolorosa
(gastralgoquenosis) obedece a contracciones espasmódicas de los músculos de las
paredes del estómago.

Ilustración que acompañaba a uno de sus trabajos sobre la motilidad gástrica. American

Journal of Physiology, mayo de 1898.

El hecho de que los movimientos viscerales se interrumpían como resultado de las


alteraciones emocionales de los animales de laboratorio le llevó a investigar el sistema
nervioso simpático considerándolo de forma global. Descubrió así que la inhibición de los
movimientos viscerales depende principalmente de las descargas simpáticas emanadas
de los nervios esplácnicos. Sus trabajos de más de veinte años sobre la influencia del
sistema nervioso autónomo en la regulación de las funciones gastrointestinales le condujo
a afirmar que en condiciones de estrés por excitación, dolor, hipoglucemia o asfixia, la
sangre transporta una mayor cantidad de adrenalina que promueve cambios útiles en el
organismo.
Debido a las controversias que despertaron sus trabajos, perfeccionó sus métodos que le
llevaron, a la vez, a nuevos descubrimientos.

Para medir la adrenalina con mayor precisión, por ejemplo, utilizó el corazón
neurectomizado. Sus trabajos demostraron que el fenómeno de aceleración cardíaca

provocado por las excitaciones desaparecía cuando se eliminaban por completo las
secreciones suprarrenales y hepáticas. Sin embargo, persistía un aumento tardío y poco
pronunciado en torno a los 30 latidos adicionales por minuto. Cannon explicó este hecho
al poner de manifiesto que el estímulo de los nervios simpáticos de cualquier región
puede producir un aumento reflejo de la velocidad cardíaca que desaparece si se suprime
la circulación. Así, junto con el fisiólogo mexicano Arturo Rosenbleuth, publicó la obra
Autonomic Neuro-Efecctor Systems donde sintetiza los conceptos de "mediación
química".

Canon, yendo más lejos que Claude Bernard, describió en The Wisdom of the Body (New
York, 1932) los mecanismos fisiológicos que intervienen en el mantenimiento de un

equilibrio físico-químico esencial, para lo que propuso el nombre de homeóstasis. Por


tanto, el sistema simpático-adrenal desempeña un papel primordial en el mantenimiento
de los líquidos orgánicos en un estado relativamente estable cuando el mencionado
estado está expuesto a cambios externos e internos.

Durante la primera guerra mundial Cannon fue con el equipo médico de Harvard a
Béthune (Francia) donde se puso a estudiar el shock que se producía en los heridos
graves. Durante esta etapa tuvo ocasión de conocer a muchos investigadores de
prestigio de Gran Bretaña, Francia y Bélgica. Después de cinco largos años de trabajo
publicó sus resultados en el libro Traumatic Schok (New York-London, 1923) y dos años
después estableció métodos seguros para desecar plasma humano. Veinticinco años

después, durante la segunda guerra mundial, presidió la Comisión de Choque y


Transfusión del Consejo Estadounidense de Investigación.

En 1929 fue invitado a dar un curso en la Sorbona y fue nombrado doctor honoris causa

de varias universidades europeas entre las que estaban Madrid y Barcelona. Tenía
buenas relaciones con el fisiólogo español Juan Negrín, entonces catedrático de Madrid.
Más tarde, en 1936, cuando éste era ministro de Hacienda, mostró simpatías hacia el
gobierno republicano.

Como consecuencia de sus investigaciones con rayos X sin protección, llegó a padecer
una micosis fungoide; se le trató un carcinoma epidermoide en la muñeca izquierda en
1940; y en 1944 se le extirpó un carcinoma basocelular bajo uno de los orificios de la
nariz. En 1945, tras un viaje de trabajo a México, se le presentó un cuadro de disnea y
astenia grave. Moría el 1 de octubre de ese año a la edad de 73 años víctima de un
linfoma maligno.

José L. Fresquet. Instituto de Historia de la Ciencia y Documentación (Universidad de


Valencia - CSIC). Septiembre, 1999.

· Ciencia que se estudia.

BASES DE LA FISIOLOGÍA

La estructura y la vida de los seres vivos es más compleja que la suma de sus partes por
separado (células, tejidos, órganos, etc.). Por este motivo, la fisiología se apoya las bases
de otras disciplinas relacionadas con la biología:

· Anatomía: estudia los huesos, músculos, articulaciones, etc.


· Biofísica: se centra en el estudio de principios físicos que están presentes en los
procesos de los seres vivos.
· Genética: hace referencia al estudio de los fenómenos hereditarios que se transmiten
de una generación a otra.
· Bioquímica: esta ciencia se encarga del estudio de la composición química de los
organismos vivos.
· Biomecánica: estudia las fuerzas y estructuras mecánicas que actúan y están
presentes en los seres vivos.

TIPOS DE FISIOLOGÍA

Dado la cantidad de campos que la fisiología abarca, es posible clasificar esta disciplina
en distintas especialidades:

FISIOLOGÍA VEGETAL Estudio de aquellos componentes fisiológicos que afectan a las


plantas y vegetales, como pueden ser la fotosíntesis, la nutrición y reproducción vegetal o
las funciones de las hormonas vegetales.

FISIOLOGÍA ANIMAL: Es la rama de la fisiología se encarga del estudio biológico de las


especies animales.

FISIOLOGÍA HUMANA: Esta rama de la fisiología pertenece a la fisiología animal, pero se


centra en el estudio del cuerpo humano y sus distintas partes y funciones.

FISIOLOGÍA GENERAL: El estudio tanto de la fisiología vegetal como la fisiología animal


es lo que se conoce como fisiología general.

FISIOLOGÍA COMPARADA: Tiene como objetivo la comparación del funcionamiento y las


estructuras de los animales y el hombre.

FISIOLOGÍA CELULAR: Centrada en estudiar las funciones y la anatomía de las células y


cómo éstas captan estímulos y procesan información, se reproducen y crecen, se
alimentan, etcétera.

PSICOLOGÍA FISIOLÓGICA: Se encarga del estudio de las estructuras, elementos y


procesos biológicos que se relacionan con la vida mental y la conducta normal o
patológica.

· Ref. bibliográficas o sitios Web de donde tomamos la información.

1. Escuelapedia. (s.f.). Obtenido de Escuelapedia:


http://www.escuelapedia.com/walter-cannon/

2. Garcia, J. (s.f.). Psicologia y Mente. Obtenido de Psicologia y Mente:


https://psicologiaymente.com/neurociencias/fisiologia

3. Mayo Clinic. (s.f.). Obtenido de Mayo Clinic:


https://www.mayoclinic.org/es-es/tests-procedures/nephrectomy/about/pac-203
85165

4. Vidas, B. y. (s.f.). Biografia y Vidas. Obtenido de Biografia y Vidas:


https://www.biografiasyvidas.com/biografia/c/cannon_walter.htm

Presentado por: Erika Paola Aguilar Melendez, Danna Katerine Gutierrez Rojas

CIBERNETICA 2

BIBLIOGRAFIA DE WILLIAN ROSS ASHBY

(Londres, 1903-1972) Neurólogo inglés. Tras graduarse en el prestigioso Sidney Sussex


College de Cambridge, recibió el título de doctor en medicina y dedicó más de quince
años al estudio científico del cerebro humano, en especial de su funcionamiento en los
enfermos deficientes mentales.

Una vez finalizada la Segunda Guerra Mundial, Ashby continuó estos trabajos como
director de investigaciones del hospital psiquiátrico Barnwood House, en Gloucester
(Inglaterra), etapa en la que estableció una serie de analogías entre la estructura del
cerebro humano y la de las máquinas, especialmente en lo referente a los mecanismos de
feedback (retroalimentación).

En su primera obra, publicada en el año 1952 con el título Desing for a Brain (Proyecto
para un cerebro), W. Ross Ashby describió su célebre homeostato, dispositivo electrónico
autorregulado por retroalimentación, que perfeccionó posteriormente. En esta obra
también expuso su novedosa concepción de un cerebro artificial, contribuyendo de forma
esencial a la consolidación de la cibernética moderna como ciencia.

Más tarde, con su otra obra principal, An Introduction to Cybernetics (Introducción a la


Cibernética, 1956), estableció los principios generales para la creación de mecanismos
de funcionamiento análogos al cerebro humano que sirviesen de ayuda a la inteligencia. A
finales del año 1960, Ashby marchó a Estados Unidos para enseñar e investigar en la
sección de ingeniería eléctrica de la Universidad de Illinois, en Urbana, hasta su regreso a
Londres, donde falleció en el año 1972.

W. Ross Ashby escribió numerosos trabajos en revistas científicas y en volúmenes


colectivos de neurofisiología del más alto nivel y prestigio mundial, y una serie de obras
fundamentales en el campo de la cibernética, de entre las que destacan Automatic
Studies (1956) e Introduction: Some Current Issues (1963). Su obra influyó en
investigadores tan prominentes como los norteamericanos Herbert A. Simon y Norbert
Wiener.

CIENCIA QUE ESTUDIA


La cibernética es el estudio de cómo los sistemas complejos afectan y luego se adaptan
a su ambiente externo; en términos técnicos, se centra en funciones de control y
comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es
natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial
atención se presta a la retroalimentación y sus conceptos derivados.
La cibernética estudia los flujos de información que rodean un sistema, y la forma en que
esta información es usada por el sistema como un valor que le permite controlarse a si
mismo. Entonces la información es para la teoría cibernética un elemento fundamental
para la organización del sistema. Wiener trató de encontrar un ejemplo para explicar que
quería en la operación de los grandes barcos de la antigua Grecia. En el mar, los grandes
barcos batallaban contra la lluvia, el viento y las mareas
-- cuestiones de ninguna forma predecibles. Sin embargo, si el hombre, operando sobre
el timón, podía mantener su mirada sobre un lejano faro, podría manipular la caña del
timón, ajustándola constantemente en tiempo-real, hasta alcanzar la luz. Se reconvertido
una situación impredecible a predecible.
En el ejemplo presentado se observa que un factor se retroalimenta del otro: el feedback.
El feedback se define como la capacidad de respuesta para el mantenimiento de un
estado de equilibrio. Nace el concepto de circularidad, o sea de retroalimentación: a una
acción le corresponde otra acción y a ésta otra y así consecutivamente. La reacción del
sistema tiene un efecto contrario al del elemento perturbador y, por consiguiente, éste
busca recuperar el equilibrio a través del
mantenimiento del estado ideal. Esto se llama feedback negativo

WEBGRAFIA

1. Cibernetica. (s.f.). Obtenido de Cibernetica:


https://areatecnologia.files.wordpress.com/2009/09/2-cibernetica.pdf

Biografía de John Von Neumann

John von Neuman nació en Budapest el 28 de diciembre de 1903, en el seno de una


familia de banqueros acomodada.

De origen húngaro, fue un gran matemático del siglo XX que realizó contribuciones
importantes en la física cuántica, análisis funcional, teoría de conjuntos, ciencias de
comunicación, economía, análisis numérico, cibernética, hidrodinámica de expresiones,
estadística y otros campos de las matemáticas.

Considerado por muchos como “una persona jovial, inteligente, optimista, vividor y
mujeriego”, sus antepasados eran originarios de Rusia, y aunque refugiados y pobres,
prosperaron en un par de generaciones. Su padre poseía el título de hidalguía dado por
José I de Habsburgo, mediante la política aristocrática del imperio, con el fin de servir a
fines políticos. Desde muy pequeño demostró aptitudes en idiomas y matemáticas,
además de tener una memoria prodigiosa.

Estudió en el colegio luterano Fasori Gimnazium de Budapest, a pesar de su origen judío.


Además, fue instruido por profesores privados que le dieron una educación en idiomas,
memorización y matemáticas.

Posteriormente, curso matemáticas y química en las universidades de Budapest y Berlín


(donde asistió a los cursos de Albert Einstein) e Ingeniería química en el Instituto Federal
de Tecnología de Zurich en Suiza en 1925 a instancias de su padre, que quería que su hijo
invirtiera tiempo en temáticas con mayor futuro que las temáticas. Aunque también
frecuentó la Universidad de Gotinga, donde conoció al matemático David Hillbert, cuya
obra ejerció relativa importancia sobre él, y contribuyó de manera importante al desarrollo
de la teoría de la demostración y aportó diversas mejoras a la fundamentación de la teoría
de conjuntos de Zermelo.

En 1921, recibió su doctorado en matemáticas por la Universidad Pázmány Péter en


Budapest con una tesis sobre los números ordinales.

Por otra parte, en lo referente a su experiencia docente, fue profesor de universidad. Entre
1927 y 1930 estuvo como profesor en la universidad de Berlin y Hamsburgo.
Convirtiéndose así en el profesor más joven de la historia. Y posteriormente, en América
enseño durante más de 25 años en la Universidad de Princeton hasta su muerte, donde
emigro al morir su padre ante la inseguridad que tenía por la opresión junto a su madre, su
mujer y sus hermanos.

Al instalarse en Estados Unidos convirtió su nombre al inglés manteniendo el apellido


aristócrata de Von Neumann.

Una vez en Estados Unidos fue invitado a la Universidad de Princeton y posteriormente


fue una de las cuatro personas seleccionadas para el personal docente del Instituto de
Estudios Avanzados (junto con Albert Einstein y Kurt Gödel).

En lo que respecta a su vida sentimental, esta fue un poco escabrosa debido a la fama
que tenia de mujeriego. Se casó dos veces. De la primera mujer tuvo descendencia. Su
hija es, actualmente, profesora de comercio internacional y política pública en la
universidad de Michigan. Posteriormente, se casó con una mujer que conoció en sus
continuos viajes de retorno a Budapest antes del estallido de la Segunda Guerra Mundial.
Junto a la cual fue muy activo socialmente en la comunidad académica de Princeton.

Finalmente, en 1955 le diagnosticaron un cáncer de páncreas, del cual murió unos años
después.

Durante los últimos días de su vida se reconvirtió a la iglesia católica, cosa que
conmociono a algunos de los amigos que tenía. Murió el 8 de febrero de 1957 bajo
seguridad militar por miedo a que revelase secretos militares mientras se estaba
medicando. (Contreras, 2010)

Ciencias que estudió

Lógica

La axiomatización de las matemáticas, de acuerdo con el modelo de Los elementos de


Euclides, había alcanzado nuevos niveles de rigor y envergadura a finales del siglo XIX;
particularmente en aritmética (gracias a Richard Dedekind y Giuseppe Peano) y
geometría (gracias a David Hilbert). A comienzos del siglo XX, de cualquier manera, la
teoría de conjuntos no había sido formalizada. Esta nueva rama de las matemáticas había
sido creada por Georg Cantor y puesta en crisis por Bertrand Russell con el
descubrimiento de su famosa paradoja sobre el conjunto de todos los conjuntos que no
pertenecen a sí mismos. La paradoja de Russell consistía en la observación de que si el
conjunto x (de todos los conjuntos que no son miembros de sí mismos) es un miembro de
sí mismo, entonces debe pertenecer al conjunto de los conjuntos que no pertenecen a sí
mismos y, por otra parte, si el conjunto x no pertenece a sí mismo, entonces debe
pertenecer al conjunto de los conjuntos que no pertenecen a sí mismos y, por lo tanto,
debe pertenecer a sí mismo.

Una de sus famosas aportaciones a la Teoría de Números fue la definición de Número


ordinal (teoría de conjuntos).
El problema de una axiomatización adecuada de la teoría de conjuntos fue resuelto,
implícitamente, cerca de 20 años después, gracias a Ernst Zermelo y Abraham Fraenkel,
por medio de una serie de principios que permitieron la construcción de todos los
conjuntos utilizados en la práctica actual de las matemáticas, pero que no excluía,
explícitamente, la posibilidad de la existencia de conjuntos que pertenecieran a sí mismos.
En su tesis doctoral de 1925, von Neumann demostró cómo era posible excluir esta
posibilidad en dos formas complementarias: el axioma de la fundación y la noción de
clase.

El axioma de la fundación establecía que cada conjunto puede ser construido de abajo
hacia arriba en una sucesión de pasos ordenada por medio de los principios de Zermelo
y Fraenkel, de tal manera que, si un conjunto pertenece a otro, entonces, necesariamente,
el primero debe ir antes del segundo en la sucesión (con esto se excluye la posibilidad de
que un conjunto pertenezca a sí mismo). Con el objetivo de demostrar que la adición de
este nuevo axioma a los otros no implicaba contradicciones, von Neumann introdujo un
método de demostración (llamado método de los modelos internos) que más tarde se
convertiría en un instrumento esencial de la teoría de conjuntos.

La segunda aproximación al problema toma como base la noción de clase y define un


conjunto como una clase que pertenece a otras clases, mientras una clase de propiedad
se define como una clase que no pertenece a otras clases. Mientras en la aproximación
Zermelo/Fraenkel los axiomas impiden la construcción de un conjunto de todos los
conjuntos que no pertenecen a sí mismos, en la aproximación de von Neumann la clase de
todos los conjuntos que no pertenecen a sí mismos puede ser construida, pero es una
clase de propiedad y no un conjunto.

Con esta contribución de von Neumann, el sistema axiomático de la teoría de conjuntos se


hizo completamente satisfactorio y la siguiente cuestión era si aquel era o no definitivo y si
no estaba sujeto a mejoras. La contundente respuesta negativa la dio Kurt Gödel, cuando
anunció, en el histórico Congreso de Königsberg de septiembre de 1930, su famoso
primer teorema de la incompletitud: los sistemas axiomáticos usuales son incompletos, en
el sentido de que no pueden probar cada verdad que puede expresarse en su lenguaje.
Este resultado fue lo suficientemente innovador como para desconcertar a la mayoría de
los matemáticos de aquella época. Pero von Neumann, que había participado en el
congreso, confirmó su fama de pensador instantáneo y, en menos de un mes, estuvo en
disposición de comunicarle a Gödel una interesante consecuencia de su teorema: los
sistemas axiomáticos usuales son incapaces de demostrar su propia consistencia. Esta
es, precisamente, la consecuencia que ha atraído la mayor atención, incluso si Gödel,
originalmente, la consideraba como una simple curiosidad, la habría derivado
independientemente; por esta razón el resultado es llamado el segundo teorema de
Gödel, sin mención alguna a von Neumann. (Wikipedia, 2019)

Mecánica cuántica

En el Congreso Internacional de Matemáticos de 1900, David Hilbert presentó su famosa


lista de 23 problemas considerada central para el desarrollo de las matemáticas del
nuevo siglo: el sexto problema era la axiomatización de las teorías físicas. Entre las
nuevas teorías físicas del siglo la única que tenía todavía que recibir tal tratamiento para
finales de la década de 1930 era la mecánica cuántica. De hecho, la mecánica cuántica
se encontraba, en ese momento, en una condición de crisis de fundamentos, similar a
aquella que pasó la teoría de conjuntos a comienzos de siglo, enfrentando problemas
tanto de naturaleza filosófica como técnica; por otra parte, su aparente indeterminismo no
había sido reducido, como Albert Einstein creía que debía ser a fin de que la teoría se
hiciera satisfactoria y completa, a una explicación de forma determinista; además, todavía
existían dos formulaciones heurísticas distintas, pero equivalentes: la supuesta mecánica
matricial de Werner Heisenberg y la mecánica ondulatoria de Erwin Schrödinger, pero no
había todavía una formulación teórica unificada satisfactoria.

Después de haber completado la axiomatización de la teoría de conjuntos, von Neumann


empezó a enfrentarse a la axiomatización de la mecánica cuántica. Inmediatamente, en
1926, comprendió que un sistema cuántico podría ser considerado como un punto en un
llamado espacio de Hilbert, análogo al espacio de fase 6N dimensional (N es el número
de partículas, 3 coordenadas generales y 3 momentos canónicos para cada una) de la
mecánica clásica, pero con infinidad de dimensiones (correspondiente a la infinidad de
estados posibles del sistema) en su lugar: las cantidades de la física tradicional (es decir,
posición y momento) podrían estar, entonces, representadas como operadores lineales
particulares operando en esos espacios. Por consiguiente, la física de la mecánica
cuántica era reducida a las matemáticas de los operadores lineales hermitianos en los
espacios de Hilbert. Por ejemplo, el famoso principio de incertidumbre de Heisenberg,
según el cual la determinación de la posición de una partícula impide la determinación de
su momento y viceversa, es trasladado a la no conmutatividad de los dos operadores
correspondientes. Esta nueva formulación matemática incluía, como clases especiales,
las formulaciones tanto de Heisenberg como de Schrödinger y culminó en el clásico de
1932 Las fundamentaciones matemáticas de la mecánica cuántica. De cualquier manera,
los físicos, en general, terminaron prefiriendo otra aproximación diferente a la de von
Neumann (la cual era considerada extremadamente elegante y satisfactoria por los
matemáticos). Esta aproximación, formulada en 1930 por Paul Dirac y que estaba
basada en un extraño tipo de función (la llamada delta de Dirac), fue severamente
criticada por von Neumann.

De cualquier forma, el tratamiento abstracto de von Neumann le permitió también


confrontar el problema extremadamente profundo y fundamental del determinismo contra
el no determinismo y en el libro demostró un teorema de acuerdo con el cual es imposible
que la mecánica cuántica sea derivada por aproximación estadística de una teoría
determinista del mismo tipo de la utilizada en mecánica clásica. Esta demostración
contenía un error conceptual, pero ayudó a inaugurar una línea de investigaciones que,
gracias al trabajo de John Stuart Bell en 1964 sobre el teorema de Bell y los experimentos
de Alain Aspect en 1982, finalmente demostraron que la física cuántica, en definitiva,
requiere una noción de la realidad sustancialmente diferente de la manejada en la física
clásica.

En un trabajo complementario de 1936, von Neumann demostró, junto con Garret Birkhoff,
que la mecánica cuántica también requiere una lógica sustancialmente diferente de la
lógica clásica. Por ejemplo, la luz (los fotones) no puede pasar a través de dos filtros
sucesivos que estén polarizados perpendicularmente (por ejemplo, uno horizontal y el otro
vertical) y por eso, a fortiori, la luz no puede pasar si un tercer filtro, polarizado
diagonalmente, se agrega a los otros dos ya sea antes o después de ellos en la sucesión.
Pero si el tercer filtro se coloca entre los otros dos, los fotones sí pasarán. Esta
observación experimental se traduce, en términos lógicos, como la no conmutatividad de
la conjunción. (Wikipedia, 2019)

Economía

Hasta la década de 1930, la economía parecía involucrar el uso de una gran cantidad de
matemáticas y números, pero casi todo era superficial o irrelevante. La economía se
utilizaba, sobre todo, para proveer, inútilmente, formulaciones precisas y soluciones a
problemas que eran, de hecho, intrínsecamente vagos. La economía se encontraba en un
estado similar al de la física del siglo XVII: esperaba todavía el desarrollo de un lenguaje
apropiado a través del cual expresarse y resolver sus problemas. Mientras la física, por
supuesto, había encontrado su lenguaje en el cálculo infinitesimal, von Neumann propuso
el lenguaje de la teoría de juegos y la teoría del equilibrio general para la economía.

Su primera contribución significativa fue el teorema minimax de 1928. Este teorema


establece que en ciertos juegos de suma cero, que involucran información perfecta (esto
es, cada jugador conoce de antemano la estrategia de su oponente y sus consecuencias),
existe una estrategia que permite a ambos jugadores minimizar su máxima pérdida (de
ahí el nombre «minimax»). En particular, cuando se examina cada posible estrategia, un
jugador debe considerar todas las respuestas posibles del jugador adversario y la
pérdida máxima que puede acarrear. El jugador juega, entonces, con la estrategia que da
como resultado la minimización de su máxima pérdida. Tal estrategia se llama óptima
para ambos jugadores sólo en caso de que sus minimaxes sean iguales (en valor
absoluto) y contrarios (en signo). Si el valor común es cero, el juego se convierte en un
sinsentido.

Von Neumann finalmente perfeccionó y extendió el teorema minimax para incluir juegos
que involucran información imperfecta y juegos de más de dos jugadores. Este trabajo
culminó en el clásico de 1944 Theory of Games and Economic Behavior (Teoría de juegos
y comportamiento económico), escrito con Oskar Morgenstern.

La segunda contribución importante de von Neumann en esta área fue la solución, en


1937, a un problema descrito por Léon Walras en 1874: la existencia de situaciones de
equilibrio en modelos matemáticos de desarrollo del mercado basado en oferta y
demanda. Primero reconoció que tal modelo tendría que estar expresado por medio de
inecuaciones y no de ecuaciones (como solía hacerse), y entonces encontró la solución al
problema de Walras aplicando un teorema de punto fijo derivado del trabajo de Luitzen
Brouwer. La importancia perdurable del trabajo en equilibrio general y la metodología de
los teoremas de punto fijo es resaltada por la concesión del Premio Nobel, en 1972, a
Kenneth Arrow y, en 1983, a Gerard Debreu. (Wikipedia, 2019)

Armamentismo

En 1937 von Neumann, habiendo obtenido recientemente su ciudadanía estadounidense,


empezó a interesarse en problemas de matemática aplicada. Se convirtió rápidamente
en uno de los más grandes expertos en materia de explosivos y se comprometió con un
gran número de consultorías militares, principalmente para la Marina de Estados Unidos.
En 1942 desarrolló una teoría sobre el proceso de detonación. Un resultado notable en el
campo de explosiones fue el descubrimiento de que las bombas de grandes dimensiones
son más devastadoras si se detonan antes de tocar el suelo, por la fuerza adicional
causada por las ondas de detonación (los medios mantuvieron, simplemente, que von
Neumann había descubierto que es mejor perder un objetivo que acertarlo). Lo cual era lo
opuesto al empleo operacional de las bombas más potentes utilizadas en ese momento,
las bombas terremoto, que se incrustaban en el suelo antes de explotar. Las más famosas
(o infames) aplicaciones de este descubrimiento ocurrieron el 6 y 9 de agosto de 1945,
cuando dos proyectiles nucleares fueron detonados sobre Hiroshima y Nagasaki, a la
altitud precisa, calculada por el mismo von Neumann, con el objetivo de que produjeran el
mayor daño posible.

Von Neumann se incorporó al Proyecto Manhattan y su principal contribución fue el


concepto y el diseño de los explosivos de contacto necesarios para comprimir el núcleo
de plutonio de la primera detonación nuclear de la historia, la prueba Trinity, y de la bomba
Fat Man lanzada sobre Nagasaki.

Desde un punto de vista político, Von Neumann era un miembro del comité cuyo trabajo
era seleccionar «objetivos» potenciales. La primera elección de von Neumann, la ciudad
de Kioto, fue rechazada por el Secretario de la Guerra Henry Stimson.

Después de la guerra, Robert Oppenheimer había hecho notar que los físicos «habían
conocido el pecado» como resultado del desarrollo de las primeras bombas atómicas. La
respuesta de von Neumann, algo cínica, fue que «algunas veces alguien confiesa un
pecado con el fin de darse el crédito por él». En cualquier caso, continuó imperturbable en
su trabajo, y finalmente se convirtió, junto con Edward Teller, en uno de los más
convencidos defensores del proyecto de construcción de la bomba de hidrógeno. Von
Neumann había colaborado con el espía Klaus Fuchs en el desarrollo de la bomba de
hidrógeno y los dos archivaron una patente secreta sobre «mejora en métodos y medios
para la utilización de energía nuclear» en 1946, la cual esbozaba un esquema para el uso
de la explosión de una bomba de fisión que produjera la compresión de combustible de
fusión necesaria para poder iniciar una reacción termonuclear. Aunque el método
escogido para el diseño final de la bomba de hidrógeno fue el de Teller y Ulam, se
reconoció posteriormente que fue un paso en la dirección correcta hacia el logro de éste.

El trabajo de Von Neumann en la bomba de hidrógeno se encontraba también en el


dominio de la computación, donde él y Stanislaw Ulam desarrollaron simulaciones
computacionales en las nuevas calculadoras digitales de von Neumann para los cómputos
hidrodinámicos necesarios. Durante este tiempo contribuyó al desarrollo del método de
Montecarlo, el cual permitía la aproximación de problemas muy complicados a través del
uso de números aleatorios. Como utilizar listas de «verdaderos» números aleatorios era
demasiado lento para el ENIAC, Von Neumann elaboró una forma tosca de generar
números pseudoaleatorios, utilizando el método middle-square ('método del centro del
cuadrado'). Aunque está demostrado que este método no es fiable, Von Neumann era
consciente de eso en aquel entonces: lo justificó por ser más rápido, en términos de
tiempo computacional, que cualquier otro método a su disposición en ese momento, y
también hizo notar que cuando aquel fallaba lo hacía de manera muy obvia, no como otros
métodos que podían ser sutilmente incorrectos.

En 1952 la primera bomba de hidrógeno, Ivy Mike, fue detonada en el atolón de


Enewetak. (Wikipedia, 2019)

Ciencia Computacional

Von Neumann le dio su nombre a la arquitectura de von Neumann, utilizada en casi todos
los computadores, por su publicación del concepto; aunque muchos piensan que este
nombramiento ignora la contribución de J. Presper Eckert y John William Mauchly, quienes
contribuyeron al concepto durante su trabajo en ENIAC.16 Virtualmente, cada computador
personal, microcomputador, minicomputador y supercomputador es una máquina de von
Neumann. También creó el campo de los autómatas celulares sin computadores,
construyendo los primeros ejemplos de autómatas autorreplicables con lápiz y papel. El
concepto de constructor universal fue presentado en su trabajo póstumo Teoría de los
autómatas autorreproductivos. El término «máquina de von Neumann» se refiere
alternativamente a las máquinas autorreplicativas. Von Neumann probó que el camino
más efectivo para las operaciones mineras a gran escala, como minar una luna entera o
un cinturón de asteroides, es a través del uso de máquinas autorreplicativas, para
aprovechar el crecimiento exponencial de tales mecanismos.

Además de su trabajo en arquitectura computacional, von Neumann ofreció una


contribución al estudio de algoritmos. Donald Knuth considera a von Neumann el inventor,
en 1945, del conocido algoritmo merge sort, en el cual la primera y segunda mitad de un
array (vector) se clasifican recursivamente por separado y luego se fusionan juntas.

También participó en la investigación de problemas en el campo de la hidrodinámica


numérica. Junto con R. D. Richtmyer desarrolló un algoritmo para definir la viscosidad
artificial, que probó la esencia para el entendimiento de las ondas de choque. Puede
decirse que no sería posible entender mucho de astronáutica y ni siquiera podrían
haberse desarrollado los reactores y los motores espaciales sin ese trabajo. El problema
era que cuando los computadores resuelven problemas hidro o aerodinámicos, buscan
poner muchos puntos de rejilla (o malla, en inglés grid) computacionales en regiones con
onda de choque de discontinuidad aguda. La viscosidad artificial era un truco matemático
para suavizar levemente la transición del choque sin sacrificar la física básica. (Wikipedia,
2019)

Bibliografía

1. Contreras, L. (03 de Noviembre de 2010). John Von Neumann. Obtenido


de Blog Historia de la Informática:
https://histinf.blogs.upv.es/2010/11/03/bibliografia-de-john-von-neumann-190
3-1957/
2. Wikipedia, C. d. (25 de Julio de 2019). John von Neumann. Obtenido de
Wikipedia, La enciclopedia libre.:
https://es.wikipedia.org/wiki/John_von_Neumann

PRESENTADO POR: Juan José Bohórquez Cabrera y Carlos Andrés Muñoz Montoya.
LA ADMINISTRACIÓN

GLOSARIO

ULS: Airlines Cargo (anteriormente Kuzu Airlines Cargo), es una aerolínea de carga con
sede en Estambul, Turquía; o. Universidad de La Serena, universidad chilena cuyo
acrónimo es ULS

CBS: Es una gran cadena de televisión comercial en Estados Unidos, que comenzó como
una cadena de radio. Su nombre se deriva de las iniciales del nombre anterior de la
cadena, Columbia Broadcasting System. Es la tercera cadena de radiodifusión más
grande en el mundo

CNN: Cable News Network (más conocido por sus siglas CNN) es un canal de televisión
por suscripción estadounidense fundado en 1980 por el empresario Ted Turner.
Actualmente es parte de WarnerMedia, y es operada actualmente por WarnerMedia News
& Sports.1 CNN fue la primera cadena de televisión en cubrir noticias las 24 horas del día
y el primer canal de noticias de Estados Unidos.
MSNBC: Es un canal de noticias estadounidense que emite por cable las 24 horas del
día. Su nombre surge de la combinación de Microsoft y NBC.1 Actualmente se considera
el primer canal de su género en audiencia en Estados Unidos,

VI-1: (conocido como VH-1: Video Hits One desde 1985 hasta 1994) es un canal de
televisión por suscripción estadounidense, radicado en la ciudad de Nueva York.
Estrenado el 1° de enero de 1985

RESUMEN

La administración es un proceso en donde se planea, se organiza, en dirección hacia el


control de los recursos para lograr un objetivo eficiente de las diferentes funciones de una
empresa.

Eficiencia es la capacidad de obtener los mayores resultados con la mínima inversión. Se


define como "hacer las cosas bien".

Eficacia es completar las actividades para conseguir las metas de la organización con
todos los recursos disponibles. Se define como "hacer las cosas correctas".

La administración no sólo se ocupa de determinar las actividades y cumplir con las metas
de la organización, sino también de hacerlo de la manera más eficiente.

1. BIOGRAFIA ROBERT LILIENFELD

(Nacido el 30 de mayo de 1953) es co-autor de utilizar menos material: Soluciones


para el medio ambiente lo que realmente somos. También es presidente de La

Cygnus Group, una empresa de consultoría de gestión situado en Rochester,

Michigan.

Asesor de gestión con 30 años de experiencia en la planificación estratégica,

mercadeo, marcas, publicidad y comunicaciones de marketing. Sólidos

antecedentes en ambos bienes de consumo y empresas de marca, la

comercialización de planificación, y desarrollo creativo.

También es un experto reconocido en los ámbitos de la prevención de residuos, la

reducción de las fuentes y las tendencias ambientales. Co-autor de Uso Menos

cosas: Soluciones para el medio ambiente lo que realmente somos (Random

House, 1998), y editor de la influyente Informe ULS. Que figuran en más de 500

entrevistas de radio y televisión, y han sido un comentarista de NPR en cuestiones

ambientales.

El objetivo de Robert Lilienfeld es usar sus habilidades para ayudar a crear una

economía sostenible, que también fomenta una ecología sostenible.

Marca, la planificación estratégica, desarrollo creativo y la evaluación, la motivación

de investigación.

Lilienfeld ha aparecido en una amplia variedad de red de programas de radio y

televisión incluyendo CBS Late Night, CNN, MSNBC, VH-1 y la Radio Nacional

Pública de Morning Edition, de todas formas, Mercado y Vida en la Tierra. Se prevé

para el comentario público de radio y es un semi-huésped en Fox TV de noticias

de la mañana en Detroit.
ROBERT LILIENFELD (1991) PLANTEA QUE:

. “En el siglo veinte comenzaron a surgir gran número de disciplinas, las cuales

pueden clasificarse bajo el nombre general de pensamiento sistémico”. Señala

como ejemplos la filosofía biológica de Ludwing von Bertalanffy y su concepto de

sistema abierto; las formulaciones cibernéticas de Norbert Wiener y el trabajo de

Ross Ashby sobre las máquinas a las que se atribuyen propiedades de pensar y

aprender; la teoría de la información y las comunicaciones basadas en los trabajos

de Shanon, Weaver, Cerry y otros; la teoría de juegos de von Neumann y

Morgenstern y las técnicas para simular procesos sociales y ambientales por

computadoras propuestas por Jay Forrester y muchos otros. “Los avances técnicos

y científicos en diferentes campos han dado lugar a la formación de nuevas

disciplinas, las cuales se institucionalizaron y legitimaron mediante el

establecimiento de sociedades académicas, muchas de las cuales han elaborado

revista y ofrecidos anuarios.”

2. QUÉ ES ADMINISTRACIÓN

Es un proceso que consiste en las actividades de planeación, organización, dirección

y control para alcanzar los objetivos establecidos utilizando para ellos recursos

económicos, humanos, materiales y técnicos a través de herramientas y técnicas

sistematizadas.

Es una ciencia compuesta de principios, técnica y práctica, cuya aplicación a


conjuntos humanos permite establecer sistemas racionales de esfuerzo

cooperativo a través de los cuales se pueden alcanzar propósitos comunes que

individualmente no se pueden lograr en los organismos sociales

2.1 ¿EN QUÉ CONSISTE LA ADMINISTRACIÓN?

Consiste en planear, organizar dirigir, y controlar diversas actividades que permite a


cualquier organización alcanzar sus objetivos mediante la optimización de los recursos
humanos, técnicos, materiales y económicos.

2.2 CARACTERÍSTICAS DE LA ADMINISTRACIÓN

• Es un medio para ejercer impacto en la vida humana. Es decir, la administración


influye en su medio ambiente.

• Se logra mediantes los esfuerzos. Para participar en la administración se refiere


dejar la tenencia a ejecutar todo por uno mismo.

• Es una actividad, no una persona o grupo de ellas. La administración no es gente;


es una actividad. Las personas que administran pueden ser asignadas como directores,
gerentes, etc.

• La administración es intangible. Su presencia queda evidenciada por el resultado


de los esfuerzos.

3 FUNCIONES

Muchos académicos y gerentes han descubierto que el análisis de la administración

se facilita mediante una organización útil y clara del conocimiento como primer

orden de clasificación del conocimiento se han usado las cinco funciones de los
gerentes:

❖ Planeación.
❖ Organización.
❖ Integración de personal.
❖ Dirección.

Esta estructura se ha utilizado y ha sido sometida a prueba desde la primera edición de


esta obra en 1955. Aunque existen diferentes formas de organizar, el conocimiento
administrativo, la mayoría de los autores han adoptado esta estructura u otra similar,
incluso después de experimentar a veces con otras formas de estructurar el conocimiento.

Algunos académicos han organizado el conocimiento administrativo en torno a los


papeles de los administradores. En realidad, se han hecho alguna contribución valiosa ya
que este enfoque también se concentra en los que hacen los administradores y son
evidencia de planeación, organización, integración de personal, dirección y control. Sin
embargo, este enfoque basado en los papeles tiene ciertas limitaciones.

4. FASES DEL PROCESO ADMINISTRATIVO

Se compone por dos fases que son: La mecánica y la dinámica.

● La fase mecánica: es la parte teórica de la administración, en la que se establece


lo que debe de hacerse, es decir, se dirige siempre hacia el futuro. Y se divide en:
previsión, planeación y organización.

● La fase dinámica: se refiere a cómo manejar de hecho el organismo social. Y se


divide en: control, dirección e integración.

5. CONCLUSIONES

La administración es una ciencia, técnica y arte ya que necesitamos de estas tres


cualidades. La ciencia; porque el administrador siempre busca conocimientos científicos
para que el resultado que tenga sea verificable, para ello el administrador se basa en
teorías que personajes famosos de la administración han plasmado en libros, también es
arte; la creatividad y la pasión de un artista son cualidades que necesita el administrador
para ser original e innovador. Por otra parte, también es técnica ya que toda acción del
administrador debe estar sistematizada y metódicamente hecha, utilizando estrategias
para hacer eficiente el proceso por el cual se llega al resultado.

La administración se encuentra desde el surgimiento del hombre en la tierra, ya que


desde el periodo primitivo las personas dividían el trabajo y asignaban funciones en
jerarquías, ya existía un líder, aunque de una manera informal, pero con el paso del tiempo
la administración fue tomando un papel más importante. La administración ha
evolucionado al mismo paso que el hombre y la tecnología.

6. BIBLIOGRAFÍA

https://www.emprendices.co/el-proceso-administrativo-y-los-principios-en-la-administracio
n-de-las-empresas/

http://admonyeconomia.blogspot.com/2012/02/concepto-de-administracion.html?m=1

https://m.monografias.com/trabajos33/que-es-la-administracion/que-es-la-administracion.
shtml

https://es.wikipedia.org/wiki/ULS

https://es.wikipedia.org/wiki/CBS
https://es.wikipedia.org/wiki/CNN

https://es.wikipedia.org/wiki/MSNBC

https://es.wikipedia.org/wiki/VH1

VIDEO MOSTRADO EN CLASE

https://youtu.be/-k-ivFMrh_o

PRESENTADO POR: (Angelica Amezquita Naranjo y Lizeth Dayanna Espinel Vacca)


EUGENE PLEASANTS ODUM Y LA ECOLOGÍA

"EL PADRE DEL ECOSISTEMA ECOLÓGICO"

SONIA LORENA MAYORGA

HERNÁN NUÑEZ SALAMANCA

FUNDACION UNIVERSITARIA DE SAN GIL-UNISANGIL

FACULTAD DE CIENCIAS NATURALES E INGENIERÍA

TEORÍA DE SISTEMAS

YOPAL-CASANARE

2019
EUGENE PLEASANTS ODUM Y LA ECOLOGÍA

"EL PADRE DEL ECOSISTEMA ECOLÓGICO"

SONIA LORENA MAYORGA

HERNÁN NUÑEZ SALAMANCA

Objeto de la ecologia; Principios y conceptos relativos al ecosistema; el padre del


ecosistema ecológico.

DOCENTE: SIMON EDGAR GOMEZ

Ingeniero de sistemas

FUNDACION UNIVERSITARIA DE SAN GIL-UNISANGIL

FACULTAD DE CIENCIAS NATURALES E INGENIERÍA

TEORÍA DE SISTEMAS

YOPAL-CASANARE

2019
TABLA DE CONTENIDO

INTRODUCCIÓN.. 5

1. EUGENE PLEASANTS ODUM... 6

1.1 ECOSISTEMAS. 6

1.2 AMBIENTALISMO.. 7

1.3 LEGADO.. 7

1.4 ALGUNAS PUBLICACIONES. 8

2. ECOLOGÍA.. 9

2.1 SUBDIVISIONES DE LA ECOLOGÍA: 9

2.1.1 Autoecología: 9

2.1.2 Cienciología: 10

3. ECOSISTEMAS. 10

3.1 TIPOS DE ECOSISTEMA.. 11

3.1.1 ECOSISTEMA MARINO.. 12

3.1.2 ECOSISTEMAS DE AGUA DULCE. 14

3.1.3 ECOSISTEMA DESÉRTICO.. 15

3.1.4 ECOSISTEMA MONTAÑOSO.. 16

3.1.5 ECOSISTEMA FORESTAL. 17

3.1.6 ECOSISTEMA ARTIFICIAL. 18

BIBLIOGRAFÍA.. 19
LISTA DE FIGURAS

Ilustración 1.Eugene Pleasants Odum.. 6

Ilustración 2.Autoecología. 9

Ilustración 3.Sinecología. 10

Ilustración 4.ECOSISTEMAS. 10

Ilustración 5.Ecosistema Marino. 12

Ilustración 6.Ecosistema de agua dulce. 14

Ilustración 7.Ecosistema desértico. 15

Ilustración 8.Ecosistema montañoso. 16

Ilustración 9.Ecosistema forestal 17

Ilustración 10.Ecosistema artificial 18


INTRODUCCIÓN

¿Alguna vez has paseado por el bosque y has visto la increíble diversidad de organismos
que viven juntos, de los helechos a los árboles, a los hongos del tamaño de platos? ¿O
has viajado por carretera y visto por la ventana cómo va cambiando el paisaje, de los
bosques de encinos a los pinos altos, a los pastizales? Si es así, ya conoces lo más
clásico de la ecología, la rama de la biología que estudia cómo los organismos
interactúan entre ellos y con su entorno físico.

Sin embargo, la ecología no se trata solo de bosques ricos en especies, naturaleza virgen
o vistas panorámicas. ¿Alguna vez has encontrado cucarachas viviendo bajo tu cama,
moho creciendo en tu ducha o incluso hongos invadiendo la piel entre tus dedos? Si es
así, entonces has visto ejemplos igualmente válidos de la ecología en acción.
1. EUGENE PLEASANTS ODUM

Ilustración 1.Eugene Pleasants Odum

Fuente: The National Academics Of, Eugene Pleasants Odum [en línea], [fecha de consulta 01
de septiembre 2019], disponible en < https://www.nap.edu/read/11522/chapter/18 >

Eugene Pleasants Odum, biólogo (Newport, Nuevo Hampshire, EUA, 17 de septiembre


de 1913 - † Athens, Georgia, EUA, 10 de agosto de 2002), fue uno de los más
importantes promotores de la ecología contemporánea.1 Está referido como "el padre del
ecosistema ecológico".2 Él y su hermano Howard T. Odum escribieron el popular libro de
texto de ecología, Fundamentals of Ecology (1953). La Escuela de Ecología de Odum de
la Universidad de Georgia fue nombrada así en su honor.

1.1 ECOSISTEMAS

En los años 1940 y 1950, la "ecología" todavía no era un campo de estudio que se había
definido como una disciplina separada. Incluso los biólogos profesionales le parecían a
Odum poco educados sobre cómo los sistemas ecológicos de la Tierra interactúan entre
sí. Odum planteó la importancia de la ecología como una disciplina que debería ser una
dimensión fundamental de la formación de un biólogo.
Odum adoptó y desarrolló aún más el término "ecosistema". Aunque a veces se dice que
fue acuñado por Raymond Lindeman en 1942, el término "ecosistema" apareció por
primera vez en una publicación de 1935 del ecólogo británico Arthur Tansley,3 y en 1930
había sido acuñado por el colega de Tansley, Roy Clapham. Antes de Odum, la ecología
de organismos y entornos específicos se había estudiado en una escala más limitada
dentro de las subdisciplinas individuales de la biología. Muchos científicos dudaron que se
pudiera estudiar a gran escala o como una disciplina en sí misma.

Odum escribió un libro de texto sobre ecología con su hermano, Howard Thomas Odum,
graduado en Yale. El libro de los hermanos Odum (primera edición, 1953), Fundamentals
of Ecology, fue el único libro de texto en el campo durante aproximadamente diez años.
Entre otras cosas, los Odum exploraron cómo un sistema natural puede interactuar con
otro.

1.2 AMBIENTALISMO

Si bien Odum deseaba influir en la base de conocimientos y el pensamiento de sus


colegas biólogos y de los estudiantes universitarios, su papel histórico no fue un promotor
del ecologismo público como lo conocemos ahora. Sin embargo, su dedicatoria en su
libro de 1963, Ecología, expresó que su padre lo había inspirado a "buscar relaciones
más armoniosas entre el hombre y la naturaleza".

Para 1970, cuando se organizó el primer Día de la Tierra, la concepción de Odum de la


Tierra viviente como un conjunto global de ecosistemas entrelazados se convirtió en una
de las ideas clave del movimiento ecologista que desde entonces se ha extendido por el
mundo. Sin embargo, era un pensador independiente que a veces criticaba suavemente
los lemas y los conceptos de moda del movimiento ecologista.

1.3 LEGADO

El testamento de Odum estipula que, después de su muerte, sus 26 acres (110.000 m²)
en el río Middle Oconee en Athens, Ga. fueran vendidos y desarrollados de acuerdo a los
planes que presentó antes de su muerte. A menudo mostraba a los amigos y colegas
planes hechos a mano para su visión de esta comunidad verde. Los planes incluyeron que
más del 50 por ciento de la propiedad sería un espacio verde protegido y senderos para
caminar, administrado por el Oconee River Land Trust. Las ganancias de la venta de la
tierra se destinarán al Fondo de Ecología de Eugene y William Odum, después de que se
haya destinado un millón de dólares para una cátedra de UGA con el nombre de Odum.
La tierra fue vendida al constructor John Willis Homes, quien honra los deseos de Odum
en Beech Creek Preserve.4

En última instancia, las contribuciones financieras de Odum se centraron no sólo en la


Universidad de Georgia, sino también en la Universidad de Virginia, dado el
nombramiento de su hijo en la facultad de allí, y en la Universidad de Carolina del Norte,
donde su padre fue un erudito prolífico. En última instancia, su riqueza, en parte producto
de las regalías de los libros, benefició a las instituciones que respetaba.

1.4 ALGUNAS PUBLICACIONES

Libros

1939. Variations in the heart rate of birds: a study in physiological ecology

1953. Fundamentals of Ecology. Con Howard T. Odum

1963. Ecology

1975. Ecology, the link between the natural and the social sciences

1983. Basic Ecology

1993. Ecology and Our Endangered Life Support Systems

1998. Ecological Vignettes: Ecological Approaches to Dealing with Human Predicament

2000. Essence of Place (coautoría con Martha Odum)

Artículos

1969. La Estrategia de Desarrollo de Ecosistemas

Comparación del flujo de energía de la población de herbívoros y un depósito alimentario


de invertebrados en un ecosistema de pantano salino (con Alfred E. Smalley)
2. ECOLOGÍA

Ciencia que estudia la relación entre los seres vivos y el ambiente, entendido como la
suma de los factores abióticos (como el clima y la geología) y los factores bióticos
(organismos que comparten el hábitat). Analiza también la distribución y la abundancia de
los seres vivos como resultado de la mencionada relación. Es además, una ciencia
multidisciplinaria que recurre a la Biología, la Climatología, la Ingeniería Química, la
Mecánica, la Ética, etc.

2.1 SUBDIVISIONES DE LA ECOLOGÍA:

2.1.1 Autoecología: se ocupa del estudio del organismo individual. Concede


importancia a las historias y comportamientos biológicos como medio de
adaptación al mundo circundante.

Ilustración 2.Autoecología

Fuente: EcuRed [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://www.ecured.cu/Autoecolog%C3%ADa>

2.1.2 Cienciología: se ocupa del estudio de grupos de organismos que están asociados
unos a otros o con otros formando la unidad.

componentes bióticos + componentes abióticos = biosistemas

Ilustración 3.Sinecología

Fuente: EcuRed [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://www.ecured.cu/Sinecolog%C3%ADa>

3. ECOSISTEMAS

Ilustración 4.ECOSISTEMAS

Fuente: Ingeexpert [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ingeoexpert.com/tipos-de-ecosistemas/?v=42983b05e2f2>
Un ecosistema es un conjunto de organismos vivos que comparten un mismo habitat o
biotopo.

Partiendo de la base de que un ecosistema es el conjunto de organismos de una


comunidad y su entorno, podemos definir varios tipos de seres vivos que los componen.
Atendiendo a la cadena trófica, encontraríamos en primer lugar los productores primarios,
aquellos que son capaces de producir materia orgánica a partir de compuestos
inorgánicos, es decir, son organismos autótrofos. Siguiendo la cadena trófica
encontramos en el segundo escalón a los consumidores, organismos heterótrofos
(herbívoros, carnívoros u omnívoros) que se alimentan de materia y energía que fabrican
otros seres vivos. En el último eslabón de la cadena trófica de organismos que componen
un ecosistema encontramos los descomponedores, los que se alimentan de materia
orgánica muerta.

Se distinguen varios tipos de ecosistemas teniendo en cuenta su naturaleza y sus


propiedades físicas. Así mismo estos tipos de ecosistemas se pueden dividir en subtipos
muy diferenciados los unos de los otros también respecto a los organismos que los
habitan. Sin embargo, muchos de estos se pueden agrupar nuevamente en otras clases
de ecosistemas llamados biomas. Cada bioma agrupa distintas áreas de similares
condiciones tanto climática como geográficamente.

3.1 TIPOS DE ECOSISTEMA

Aparte de diferenciar cada uno de los grupos de organismos que viven en un ecosistema,
también podemos elaborar una clasificación por tipos. Así encontramos que existen
distintos tipos de ecosistemas atendiendo a su naturaleza:

3.1.1 ECOSISTEMA MARINO

Ilustración 5.Ecosistema Marino


Fuente: Decologia.infot [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://decologia.info/ecosistemas/ecosistema-marino/#top>

Los ecosistemas marinos son los ecosistemas acuáticos más grandes de la Tierra y se
distinguen por las aguas que tienen un alto contenido de sal. Estos sistemas contrastan
con los ecosistemas de agua dulce, que tienen un menor contenido de sal.

Las aguas marinas cubren más del 70% de la superficie de la Tierra y representan más
del 97% del suministro de agua de la Tierra y el 90% del espacio habitable en la Tierra.
Los ecosistemas marinos incluyen sistemas costeros, como las marismas, las praderas
de pastos marinos, los manglares, los sistemas intermareales rocosos y los arrecifes de
coral.

También se extienden hacia afuera desde la costa para incluir sistemas en alta mar, como
la superficie del océano, las aguas pelágicas del océano, las profundidades del mar, los
respiraderos hidrotermales oceánicos y el fondo marino. Los ecosistemas marinos se
caracterizan por la comunidad biológica de organismos con los que están asociados y su
entorno físico.

3.1.1.1 Tipos de ecosistemas marinos

Las marismas saladas se definen como «humedales costeros que son inundados y
drenados por el agua salada traída por las mareas». Estos terrenos pantanosos pueden
prevenir las inundaciones y ayudar a mantener la calidad del agua al absorber el agua de
lluvia y la escorrentía que llega a la zona.
-Los manglares

Los manglares son una compilación de diferentes especies de árboles de manglar que
viven juntas cerca de la costa para crear un bosque. Estos bosques de manglares tienen
sistemas de raíces intrincados que proporcionan un hábitat a muchas especies y actúan
como un amortiguador para la erosión del suelo.

-Zonas intermareales

Las zonas intermareales son las áreas que son visibles durante la marea baja y cubiertas
por agua salada durante la marea alta. En estas zonas se pueden encontrar organismos
simples en pozas de marea.

-Estuarios

Los estuarios ocurren donde hay un cambio notable en la salinidad entre las fuentes de
agua salada y de agua dulce. Por ejemplo, la confluencia entre un río y un océano. Muchos
organismos dependen de este frágil ecosistema al menos una vez durante su ciclo de
vida.

-Lagunas

Las lagunas como un «cuerpo de agua poco profundo protegido de un cuerpo de agua
más grande (generalmente el océano) por bancos de arena, islas de barrera o arrecifes
de coral». Hay dos tipos diferentes de lagunas: lagunas costeras y lagunas de atolón.

-Los arrecifes de coral

Los arrecifes de coral son uno de los ecosistemas marinos más conocidos del mundo,
siendo el más grande la Gran Barrera de Coral.
3.1.2 ECOSISTEMAS DE AGUA DULCE

Ilustración 6.Ecosistema de agua dulce

Fuente: Ovacen [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ecosistemas.ovacen.com/acuaticos/agua-dulce/>

En éstos, los cuerpos de agua se caracterizan por la ausencia de salinidad. Sus


principales formas son los ríos, lagos, lagunas y pantanos entre otros. El caudal y la
regularidad de sus aguas son aspectos clave para determinar el tipo de vegetación y
fauna que habitará en ellos.

Existen a su vez varios tipos de ecosistemas de agua dulce:

-Ecosistema léntico

Son aquellos en los que sus masas de agua están quietas, como por ejemplo las lagunas.

-Ecosistema lótico
Se caracterizan porque sus aguas están en movimiento constante, por ejemplo, los ríos.

3.1.3 ECOSISTEMA DESÉRTICO

Ilustración 7.Ecosistema desértico

Fuente: Ingeexpert [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ingeoexpert.com/tipos-de-ecosistemas/?v=42983b05e2f2>

Se caracteriza por ser un terreno extremadamente inhóspito en donde no existe


prácticamente vegetación ni fauna, ya que solo las especies más duras son capaces de
sobrevivir en este entorno tan hostil.

Según el tipo de suelo podemos distinguir entre desiertos arenosos y rocosos. Los
primeros se caracterizan por la formación de dunas debido al desplazamiento de la arena
por el viento y los segundos por estar formados, como su propio nombre indica, por rocas.
Existen tanto desiertos cálidos como desiertos fríos y en ambos sus temperaturas son
extremas, habiéndose registrado en ocasiones temperaturas máximas de casi 60ºC y
mínimas que rondan los – 50ºC. En ambos tipos de desiertos la amplitud térmica es muy
elevada y las precipitaciones son escasas, llegando en algunos casos a ser
prácticamente nulas.
3.1.4 ECOSISTEMA MONTAÑOSO

Ilustración 8.Ecosistema montañoso

Fuente: Ingeexpert [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ingeoexpert.com/tipos-de-ecosistemas/?v=42983b05e2f2>

Este tipo de ecosistema se caracteriza por presentar un relieve elevado y una fuerte
variación topográfica con fuertes pendientes. Los sistemas montañosos se encuentran
repartidos a lo largo de todo el planeta y en ellos está contenida el 80% de las reservas
de agua dulce de todo el planeta. Desempeñan un papel esencial en el ciclo del agua, ya
que al chocar las masas nubosas contra las mismas se convierten en precipitaciones
nutriendo de manera constante las aguas fluviales.

El paisaje está formado principalmente por rocas, aunque existen numerosos tipos de
vegetación y especies dependiendo de la altura y la localización. Como norma general, en
la parte inferior de la montaña habrá más vegetación y fauna que en la parte más alta.
Podremos encontrar desde lobos hasta aves rapaces, pasando por zorros o cabras.
3.1.5 ECOSISTEMA FORESTAL

Ilustración 9.Ecosistema forestal

Fuente: Ingeexpert [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ingeoexpert.com/tipos-de-ecosistemas/?v=42983b05e2f2>

Este tipo de ecosistema es aquel que tiene como vegetación predominante los árboles y
la flora en general, y representa un 25% de la superficie terrestre del planeta. Existen
varios tipos de ecosistemas forestales en función de su temperatura, frondosidad y
humedad pudiendo distinguir de manera genérica entre:

-Bosque de frondosas

Estos presentan una vegetación de hoja ancha y están dominados por plantas
angiospermas. Son muy ricos en especies y fauna, un ejemplo de éstos son las selvas.

-Bosque de coníferas

Son aquellos que están dominados por plantas gimnospermas, es decir, que carecen de
frutos. Presentan hojas perennes aciculares y un ejemplo de éstos son las taigas.
-Bosque mixto

En este grupo englobamos aquellos en donde hay un equilibrio entre los dos tipos
anteriormente citados.

3.1.6 ECOSISTEMA ARTIFICIAL

Ilustración 10.Ecosistema artificial

Fuente: Ovacen [en línea], [fecha de consulta 01 de septiembre 2019], disponible en <
https://ecosistemas.ovacen.com/artificiales-o-humanizados/>

Son ambientes donde intervienen los humanos. Donde la mayoría de condiciones del tipo
de suelo, lluvia e incluso organismos vivos sean plantas, animales o flora, pueden ser
controlados por la mano del hombre o ha intervenido de alguna forma.

La principal diferencia que se establece entre un ecosistema artificial y los ecosistemas


naturales, es que en estos últimos el hombre no interviene.
La mayoría de condicionantes naturales y nutrientes es controlado por la intervención del
trabajo humano; el tipo de agua que se aporta (Riego), el tipo de suelo, los organismos
vivos o la alimentación (Fertilizantes), e incluso en la mayoría de casos se controla su
crecimiento o reproducción.

BIBLIOGRAFÍA

➢ Odum, E. P., & Barrett, G. W. (1971). Fundamentals of ecology (Vol. 3, p. 5).


Philadelphia: Saunders.
➢ Odum, E. P., Ortega, A., & Teresatr, M. (2006). Fundamentos de ecología (No.
574.5 O35).
➢ Pianka, E. R., & Ayala, J. (1982). Ecología evolutiva (Vol. 365). Barcelona: Omega.
➢ Romero Ruíz, M. H., Galindo García, G., Otero García, J., & Armenteras Pascual, D.
(2017). Ecosistemas de la cuenca del Orinoco colombiano.
➢ https://ecosistemas.ovacen.com/acuaticos/agua-dulce/
➢ https://ingeoexpert.com/tipos-de-ecosistemas/?v=42983b05e2f2
➢ https://decologia.info/ecosistemas/ecosistema-marino/#top

ANEXO VIDEO

LOS ECOSISTEMAS

RECURSIVIDADA:FOLLETOS
DINÁMICA DE SISTEMAS
Presentado por Neider German Garzon Vallejo, Juan Daniel Dueñas Castiblanco

Biografía de JAY FERRESTER


Jay Wright Forrester nace en 1918 en Anselmo, Nebraska, EUA, y después de haber
obtenido el título de Ingeniero Eléctrico en la Universidad de Nebraska, continuó sus
estudios en el MIT, Forrester inventó la memoria de acceso aleatorio del
magnético-corazón durante la primera onda de calculadoras numéricas modernas,
también inició el campo de la dinámica de sistemas, análisis del comportamiento de
sistemas. Él persigue tres intereses principales basados en dinámica del sistema: el
modelo nacional de la dinámica del sistema, que genera los modos observados
principales del comportamiento económico; una nueva educación de la gerencia basada
en la complejidad inherente, dinámica de todas las partes relacionadas de una
corporación y las trae en un sistema unificado; y dinámica del sistema como metodología
para dar la cohesión, el significado, y la motivación a la educación de la Pre Universidad.
Él comenzó su carrera como ingeniero eléctrico que trabajaba en los servomecanismos y
las calculadoras numéricas en grande. Él era responsable del diseño y de la construcción
del torbellino I, una de las primeras calculadoras numéricas de alta velocidad.

En 1956, Forrester comenzó en un grupo de Dinámica de Sistemas en la escuela de


Sloan y con ella, el campo de la dinámica del sistema. Los cinco libros que él ha escrito
en dinámica del sistema están disponibles en las comunicaciones de Pegasus ensartan,
Massachusetts. Ya profesor de la Sloan School of Management del MIT, Forrester crea en
1961 la dinámica industrial (Industrial Dynamics). Su objetivo: considerar las empresas
como sistemas cibernéticos, para simular (e intentar prever) su comportamiento. En 1964,
enfrentado con problemas del crecimiento y degeneración de las ciudades, extiende la
dinámica industrial a la de los sistemas urbanos (Urban Dynamics).

Actualmente se encuentra trabajando en el proyecto modelo nacional, un modelo de la


computadora grande de la economía de los E.E.U.U. Él es también el director de la

Dinámica del sistema en el proyecto de la educación (SDEP), que está desarrollando


maneras de utilizar la dinámica y la computadora del sistema que modelan como
fundación para una nueva clase de jardín de la infancia.

APLICACIONES

Según Javier Aracil en su libro “introducción a la dinámica de sistemas” menciona que hay
tres disciplinas básicas para la Dinámica de sistemas que son: la cibernética, la
informática y la teoría general de sistemas.

LA CIBERNÉTICA

Es la ciencia del control descubierta por Wiener, menciona los mecanismos de control los
que constan de cuatro aspectos:

• Una meta u objetivo deseado

• Un mecanismo de medición o estado actual del sistema

• Un mecanismo de comparación entre

• la toma de decisiones para emprender acciones, que afectaran al desempeño del


sistema

LA TEORÍA GENERAL DE SISTEMAS

Proporciona un enfoque sistémico muy diferente a los tradicionales en diferentes


disciplinas científicas, proponiendo una nueva visión de conjunto, donde la suma de las
partes es más que el todo, por la interacción de sus partes, formando parte de los
métodos de la ciencia, dado que el método científico tradicional no posee el alcance de
este nuevo enfoque, orientado al estudio de los sistemas complejos, formados por
múltiples variables y con un comportamiento dinámico.

APLICACIONES EN LAS EMPRESAS


Los modelos de simulación basados en la Dinámica de Sistemas encuentran aplicación
en todas las actividades dentro de la empresa, y no voy a relatarles todas, sino
simplemente comentar algunas de las que creo son más importantes. La Dinámica de
Sistemas se utiliza dentro de las empresas en ámbitos operativos, como por ejemplo en
la Gestión de Proyectos. Las herramientas habituales de Gestión de Proyectos permiten
organizar las tareas que se han de hacer de una forma lineal, pero tienen dificultades para
gestionar imprevistos, cambios bruscos en la planificación, o errores en las tareas ya
realizadas. La Dinámica de Sistemas no pretende sustituir a los clásicos PERT o Project
Management en la ordenación de las tareas que componen un proyecto, pero puede
ayudar a comprender y prevenir los habituales problemas que aparecen en la ejecución
de los proyectos, como son los retrasos en la entrega, la baja calidad del producto final o
el incremento en los costes reales en relación al presupuesto.

BIBLIOGRAFÍA

[1] Dinámica de Sistemas, «http://dinamicadesistemasudo.blogspot.com,» [En línea].


Available:http://dinamicadesistemasudo.blogspot.com/2012/07/biografia-de-jay-wright-forr
ester.html

[2] Definicion de Dinámica Sistema,«inamicasistematicatgs.blogspot.com,»[En línea].


Available:http://dinamicasistematicatgs.blogspot.com/2009/11/definicion-dinamica-de-sist
emas_22.html

[3] Introducción a la Dinámica de Sistemas,«Rosa Xiomara Sanchez,»[En línea].


Available:https://www.youtube.com/watch?v=gAgvvvQIb_M&t=4s

[4] historia de Dinámica Sistema,«Juan Francisco Castillo Borrego,»[En línea].


Available:https://www.youtube.com/watch?v=p1rsGZfuIf8&t=132s

También podría gustarte