Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. La Cibernética
La Cibernética es la ciencia de los sistemas de control y comunicación basados en
retroalimentación, soportados o impulsados por la computación, particularmente
en su relación con los seres vivos y el ser humano.
La palabra Cibernética surge como concepto en 1942 con Norbert Wiener y Arturo
Rosenblueth Stearns, inicialmente en sus estudios de control y comunicación entre
máquinas y seres vivos. El término Cibernética se consolida hasta 1947. Durante
la década de los 50’s, William Ross Ashby, propone las teorías relacionadas con la
Inteligencia Artificial.
La Cibernética es la ciencia que se ocupa de los sistemas de control y de
comunicación en las personas y en las máquinas, estudiando y aprovechando
todos sus aspectos y mecanismos comunes. La palabra cibernética podría
significar ciencia de los mandos. Estos mandos son estructuras con elementos
especialmente electrónicos y en correlación con los mecanismos que regulan la
psicología de los seres vivientes y los sistemas sociales humanos, y a la vez que
permiten la organización de máquinas capaces de reaccionar y operar con más
precisión y rapidez que los seres vivos, ofrecen posibilidades nuevas para
penetrar más exactamente las leyes que regulan la vida general y especialmente
la del hombre en sus aspectos psicológicos, económicos, sociales etc.
3. Teoría de la información.
La teoría de la información, conocida también como teoría matemática de la
comunicación o teoría matemática de la información, es una propuesta teórica
presentada por Claude E. Shannon y Warren Weaver a finales de la década de los
años 1940. Esta teoría está relacionada con las leyes matemáticas que rigen la
transmisión y el procesamiento de la información y se ocupa de la medición de la
información y de la representación de la misma, así como también de la capacidad
de los sistemas de comunicación para transmitir y procesar información. La teoría
de la información es una rama de la teoría de la probabilidad y de las ciencias de
la computación que estudia la información y todo lo relacionado con ella: canales,
compresión de datos y criptografía, entre otros. El modelo propuesto por Shannon
es un sistema general de la comunicación que parte de una fuente de información
desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un
canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal
sale del canal, llega a un receptor que decodifica la información convirtiéndola
posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría
de la información se trata de llegar a determinar la forma más económica, rápida y
segura de codificar un mensaje, sin que la presencia de algún ruido complique su
transmisión. Para esto, el destinatario debe comprender la señal correctamente; el
problema es que, aunque exista un mismo código de por medio, esto no significa
que el destinatario va a captar el significado que el emisor le quiso dar al mensaje.
El principal objetivo de esta teoría es el de proporcionar una definición rigurosa de
la noción de información que permita cuantificarla. Fue desarrollada con el objetivo
de encontrar límites fundamentales en las operaciones de procesamiento de
señales tales como compresión de datos, almacenamiento y comunicación. Sus
aplicaciones se extienden a campos diversos, entre ellos la física, la química, la
biología, la inferencia estadística, la robótica, la criptografía, la computación, la
lingüística, el reconocimiento de patrones y la teoría de la comunicación.
Elementos de la teoría
Fuente: Una fuente es en sí misma un conjunto finito de mensajes. Todos
los posibles mensajes que puede emitir dicha fuente. En compresión de
datos se tomará como fuente el archivo a comprimir y como mensajes los
caracteres que conforman dicho archivo.
Mensaje: Un mensaje es un conjunto de ceros y unos. Un archivo, un
paquete de datos que viaja por una red y cualquier cosa que tenga una
representación binaria puede considerarse un mensaje. El concepto de
mensaje se aplica también a alfabetos de más de dos símbolos, pero
debido a que tratamos con información digital nos referiremos casi siempre
a mensajes binarios.
Información: La información contenida en un mensaje es proporcional a la
cantidad de bits que se requieren como mínimo para representar al
mensaje.
Código: Un código es un conjunto de unos y ceros que se usan para
representar un cierto mensaje de acuerdo a reglas o convenciones
preestablecidas.
4. Teoría de Juegos
La teoría de juegos es un método matemático que deriva el comportamiento
racional de toma de decisiones en situaciones de conflicto social, en las que el
éxito del individuo depende no solo de sus propias acciones, sino también de las
acciones de los demás. Es decir, la teoría de los juegos comienza cuando
diferentes personas u organizaciones interactúan entre sí. Es la modelización y el
análisis de las interacciones (juegos) entre diferentes partes (jugadores), cada una
de las cuales persigue sus propios intereses particulares.
La teoría de los juegos ayuda a comprender mejor las reglas de una interacción,
por ejemplo, las normas de licitación o los procesos de negociación de la otra
parte, y a comportarse de la mejor manera posible dentro de este marco
establecido. De este modo, se pueden desarrollar estrategias individuales para
decidir el “juego” en beneficio propio.
Categorías de juegos
La teoría de juegos se ocupa de situaciones de toma de decisiones en las que
participan varias personas. La mejor decisión que toma una persona depende de
las decisiones de las demás. El objetivo es tomar la decisión óptima. La teoría de
juegos es muy diversa. Se puede diferenciar según los tipos de juegos o las áreas
de estudio.
Simétricos: Todos los jugadores adoptan las mismas estrategias. En
este tipo de juegos es posible la simetría solo a corto plazo, es decir, en
cortos periodos de tiempo. Y es que cuando hay más tiempo simple surgen
un mayor número de opciones para los jugadores. En un juego simétrico las
decisiones dependen de la estrategia utilizada, no de los jugadores del
juego en sí. Inclusive se pueden intercambiar jugadores y las decisiones
siguen siendo las mismas en juegos simétricos.
Cooperativos: Esta parte de la teoría de juegos se caracteriza porque dos
o más personas se unen para lograr un objetivo en común. Aquí se
analizan todas las posibilidades y se desarrollan una serie de estrategias
para conseguir la meta. De esta manera, se demuestra el potencial que
tiene la raza humana cuando trabaja de forma colaborativa y el deporte es
un buen ejemplo. Estas dinámicas pueden trasladarse a múltiples
actividades en las que haya que hacer equipos con otros en algún
momento.
Suma cero o distinta de cero: Esta dinámica es muy exacta, y es que si
un usuario triunfa el otro pierde, y viceversa. Esto sería un ejemplo de
suma cero, ya que solo hay dos opciones posibles y se traslada al póker y
el ajedrez. No obstante, los juegos como el fútbol y el dilema del prisionero
forman parte de las dinámicas de sumas distintas de cero. La razón es que
aquí se puede empatar, lo que beneficia de alguna mínima forma a ambas
partes, algo que no sucede en la suma cero.
Equilibrio de Nash: El equilibrio de Nash de los ejemplos más aplicados
en la actualidad. Básicamente consiste en que, ninguno de los usuarios
puede ganar modificando su táctica mientras los demás sí mantengan
la suya. Esto significa que cada decisión que toma una persona de una u
otra manera perjudica la situación. Por ende, lo interesante en esta
situación es que los jugadores quieren mejorar la coyuntura, pero no lo
hacen al desconocer las intenciones de los demás. Así es como se llega al
denominado equilibrio.
Simultáneos o secuenciales: En el caso de los juegos secuenciales, cada
jugador se comporta luego de haber actuado otro, lo que explica el
nombre. Por otro lado, en simultáneo todos actúan al mismo tiempo y
refleja el comportamiento que podrían tener. De esta manera, es
interesante ver las diferentes reacciones que se dan en cada situación, ya
que el panorama es completamente diferente.
5. Teoría de la Decisión
La teoría de la decisión es un método para la toma de decisiones el cual se
caracteriza por hacer elecciones de forma coherente cuando se presentan varias
opciones ante un problema dado. Cuando hablamos de datos, información,
informes y cuadros de mando, lo relacionamos estrechamente con la toma de
decisiones informada.
La teoría de la decisión es un estudio interdisciplinar de las decisiones de agente,
recurriendo a un conjunto de modelos de las ramas de la ciencia, de
empresariales, economía y psicología. También está estrechamente relacionado
con la teoría de juegos, el estudio de modelos matemáticos de la interacción
estratégica entre personas que toman decisiones.
6. Teoría de Colas.
La teoría de colas es el estudio matemático de las colas o líneas de espera dentro
de un sistema. Esta teoría estudia factores como el tiempo de espera medio en las
colas o la capacidad de trabajo del sistema sin que llegue a colapsar. Dentro de
las matemáticas, la teoría de colas se engloba en la investigación de operaciones
y es un complemento muy importante a la teoría de sistemas y la teoría de control.
Se trata así de una teoría que encuentra aplicación en una amplia variedad de
situaciones como negocios, comercio, industria, ingenierías, transporte y logística
o telecomunicaciones.
La teoría de colas permite modelar sistemas en los que existe una población de
agentes (también llamados clientes o usuarios) que demandan cierto servicio que
es proporcionado por uno o más servidores (también llamados recursos). Dado
que puede haber más agentes que recursos, pueden registrarse esperas desde
que un agente llega al sistema hasta que el servidor atiende su demanda, o
incluso un agente puede ser rechazado del sistema al no haber espacio donde
esperar (esto es, una cola). La teoría de colas sirve para modelar procesos tales
como la llegada de datos a una cola en ciencias de la computación, la congestión
en red de computadoras o de telecomunicación, o la implementación de una
cadena productiva en la ingeniería industrial.
7. Investigación de operaciones
La investigación de operaciones o Investigación Operativa es una disciplina que
consiste en la aplicación de métodos analíticos avanzados con el propósito de
apoyar el proceso de toma de decisiones, identificando los mejores cursos de
acción posibles.
En este contexto la investigación de operaciones utiliza técnicas de modelamiento
matemático, análisis estadístico y optimización matemática, con el objetivo de
alcanzar soluciones óptimas o cercanas a ellas cuando se enfrentan problemas de
decisión complejos. Se espera que las decisiones alcanzadas mediante el uso de
un modelo de investigación operativa sean significativamente mejores en
comparación a aquellas decisiones que se podrían tomar haciendo uso de la
simple intuición o experiencia del tomador de decisiones. Lo anterior es
particularmente cierto en aquellos problemas de naturaleza real complejos, que
consideran cientos, incluso miles de variables de decisión y restricciones.
La Investigación de Operaciones se complementa con otras disciplinas como la
Ingeniería Industrial y la gestión de operaciones. En términos estrictos un modelo
de optimización considera una función objetivo en una o varias variables que se
desea maximizar (por ejemplo, el ingreso o beneficio asociado a un plan de
producción) o por el contrario minimizar (por ejemplo, los costos de una firma, el
riesgo asociado a una decisión, la pérdida de una alternativa, etc). Los valores que
pueden adoptar las variables de decisión usualmente están restringidos por
restricciones que adoptan la forma de ecuaciones y/o inecuaciones que buscan
representar las limitantes asociadas a la problemática.
El enfoque de la Investigación de Operaciones es el modelaje. Un modelo es una
herramienta analítica que nos sirve para lograr una visión bien estructurada de la
realidad. Así, el propósito del modelo es proporcionar un medio para analizar el
comportamiento de las componentes de un sistema con el fin de optimizar su
desempeño (identificar el mejor curso de acción posible).
8. Sinegia y Recursividad.
Sinergia: significa cooperación, y es un término de origen
griego, "synergía", que significa "trabajando en conjunto". La sinergia es
un trabajo o un esfuerzo para realizar una determinada tarea muy compleja,
y conseguir alcanzar el éxito al final. La sinergia es el momento en el que el
todo es mayor que la suma de las partes, por tanto, existe un rendimiento
mayor o una mayor efectividad que si se actúa por separado
En matemáticas, específicamente en la teoría de sistemas, la sinergia es la
convergencia de las partes de un todo que pretenden conseguir el mismo
resultado.
Características:
Realista: Se basa en los elementos que cada parte puede aportar dentro de
una asociación (sean recursos tangibles o intangibles), con la finalidad de
alcanzar los objetivos que se ajusten a las posibilidades de cada parte.
Activa: Todos los participantes contribuyen en el desarrollo de la asociación
y sus objetivos.
Sincrónica: Las operaciones son coordinadas y realizadas de forma
cooperativa.
Potencial: Su desarrollo se basa en las oportunidades que pueden generar
a los asociados y sus intereses.
9. Sistema.
Un sistema es un conjunto de elementos relacionados entre sí que funciona como
un todo. Si bien cada uno de los elementos de un sistema puede funcionar de
manera independiente, siempre formará parte de una estructura mayor. Del mismo
modo, un sistema puede ser, a su vez, un componente de otro sistema.
Los sistemas pueden clasificarse tomando en cuenta diversos criterios, algunos de
ellos son:
Sistemas naturales: Son los existentes en el ambiente.
Sistemas artificiales: Son los creados por el hombre.
Sistemas sociales: Integrados por personas cuyo objetivo tiene un fin
común.
Sistemas hombre-máquina: Emplean equipo u otra clase de objetivos,
que a veces se quiere lograr la autosuficiencia.
Sistemas abiertos: Intercambian materia y energía con el ambiente
continuamente.
Sistemas cerrados: No presentan intercambio con el ambiente que los
rodea, son herméticos a cualquier influencia ambiental.
Sistemas temporales: Duran cierto periodo de tiempo y posteriormente
desaparecen.
Sistemas permanentes: Duran mucho más que las operaciones que en
ellos realiza el ser humano, es decir, el factor tiempo es más constante.
Sistemas estables: Sus propiedades y operaciones no varían o lo hacen
solo en ciclos repetitivos.
Sistemas no estables: No siempre es constante y cambia o se ajusta al
tiempo y a los recursos.
Sistemas adaptativos: Reacciona con su ambiente mejora su
funcionamiento, logro y supervivencia.
Sistemas no adaptativos: tienen problemas con su integración, de tal
modo que pueden ser eliminados o bien fracasar.
Sistemas determinísticos: Interactúan en forma predecible.
Sistemas probabilísticos: Presentan incertidumbre.
Subsistemas: Sistemas más pequeños incorporados al sistema original.
Supersistemas: sistemas extremadamente grandes y complejos, que
pueden referirse a una parte del sistema original.
Características:
Propósito u objetivo: Las unidades u elementos, así como las relaciones,
definen una distribución que trata de alcanzar un objetivo.
Globalismo: Todo sistema tiene naturaleza orgánica; cualquier estimulo en
cualquier unidad del sistema afectará a todas las demás unidades debido a
la relación existente entre ellas.
Entropía: Tendencia que tienen los sistemas al desgaste o desintegración,
es decir, a medida que la entropía aumenta los sistemas se descomponen
en estados más simples.
Homeostasis: Equilibrio dinámico entre las partes del sistema, esto es, la
tendencia de los sistemas a adaptarse con el equilibrio de los cambios
internos y externos del ambiente.
Equifinalidad: Se refiere al hecho que un sistema vivo a partir de distintas
condiciones iniciales y por distintos caminos llega a un mismo estado final.
No importa el proceso que reciba, el resultado es el mismo.
Elementos: