Está en la página 1de 12

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Universitaria


Universidad Alejandro de Humboldt
CIBN901IIV1

Metodología de la cibernética

Alumno: Cedula:
Julio Lugo v-26.279.635

15/4/2020
Índice

El Método Delphy.......................................................................................................3
Experimentos mentales.............................................................................................6
Técnica AHP..............................................................................................................8
Análisis morfológico...............................................................................................9
Árboles de relevancia...........................................................................................10
La nanotecnología...................................................................................................10
Conclusión...............................................................................................................12
El Método Delphy

El método más primitivo de pronóstico, basado en adivinar. El resultado puede ser


calificado de aceptable si la persona que hace la adivinación es un experto en el
asunto. Una cosa importante que hay que hacer notar es que la adivinación es el
único método que puede hacer uso del conocimiento tácito que el especialista no
ha sido capaz de expresar en palabras o cifras exactas. El mejor método para
obtener tal pronóstico del experto es la entrevista no estructurada. El método de la
entrevista nos permite inquirir sobre las razones y explicaciones para el pronóstico
presentado, que podría optar por criticar y así intentar llegar a un pronóstico
mejorado. Cuando entrevistamos a un experto puede que también aprendamos
algo que más tarde podamos usar si preferimos construir nuestros propios
pronósticos con otros métodos.
El método Delphi se utilizó por primera vez durante el apogeo de la Guerra Fría,
para encontrar las respuestas a problemas secretos por medio de preguntas a los
militares, tales como: ¿cuántas bombas atómicas Soviética sería necesaria para
destruir los EEUU? ¿Puede la industria soviética asumir esa fabricación? La
votación se llevó a cabo a menudo para obtener una gama más amplia de
opiniones con la esperanza de aumentar la precisión de las proyecciones y las
previsiones.
Esta metodología requiere de la participación de un grupo de expertos en el tema
que se desea indagar. De ellos se espera que puedan dar una opinión
fundamentada sobre el comportamiento futuro de un conjunto de variables que
definen una situación o sistema de interés. El grupo de expertos debe ser lo más
homogéneo posible en cuanto a su composición y sus integrantes deben trabajar
en forma individual y en perfecto anonimato.
En al método Delphi, comienza con la preparación de un cuestionario que debe
ser elaborado por un panel de especialistas, el cual será entregado a un grupo de
expertos en el tema, los cuales deberán dar sus suposiciones sobre el futuro
desarrollo del tema. El tema es tratado en el cuestionario en forma de preguntas o
hipótesis sobre eventos futuros (introducción de innovaciones de producto o de
proceso en el mercado), su fecha de materialización esperada, la capacidad del
país para desarrollar dichos eventos, restricciones (económicas, tecnológicas,
comerciales) y medidas más importantes para favorecer la materialización del
evento. Este cuestionario debe ser respondido de forma anónima en dos o más
rondas
En el siguiente paso, el panel que investiga el tema, hace un sumario de todas las
respuestas que ha recibido, analizando en cuales, los expertos, están de acuerdo
y en cuales no y luego se le envía a cada integrante del grupo a fin de que ellos
puedan revisarlas y comparar sus opiniones con las opiniones de los demás Aquí
es cuando el experto puede decidir si cambia de opinión o si la mantiene.
Puesto que es difícil hacer sumarios de algo distinto de respuestas cuantitativas,
las preguntas que se usan en el procedimiento Delphi suelen ser cuantitativas,
como "¿Cuál será el precio del crudo dentro de 20 años?" Sobre la base de este
tipo de respuestas, el investigador será capaz de calcular por ejemplo las medias y
los rangos. Una ventaja del método es que siempre se puede usar el rango como
una medida de la fiabilidad del pronóstico. Por supuesto, nada impide que se usen
preguntas cualitativas o de cualquier otro tipo si la naturaleza del objeto así lo
exige.

En una segunda ronda, también se le envía, la información estadística de las


respuestas recibidas de la primera ronda, en particular la media o mediana de las
respuestas y medidas de dispersión; se pide a los expertos en la primera ronda,
sobre todo a los que más disienten con el promedio, que reconsideren sus
respuestas. Esta segunda ronda permite reducir la dispersión y obtener un mayor
grado de consenso. El número de rondas sucesivas depende del grado de
consenso que se persiga. Generalmente en estos ejercicios se usan dos rondas.
Este proceso de retroalimentación de los resultados obtenidos continúa hasta que
se cumpla alguna de las dos condiciones siguientes:

Se alcanza el número máximo de rondas establecido al comienzo del
ejercicio.
 Antes de alcanzar el número máximo de rondas se produce la estabilización
de las opiniones de los expertos, es decir que cada experto se mantiene
firme en su posición.
La clave del éxito en un ejercicio Delphi es la preparación de las preguntas o
hipótesis por el panel de especialistas, que debe por tanto ser cuidadosamente
elegido. El panel también tiene un papel clave en el análisis de la primera ronda y
la preparación del segundo cuestionario. También debe hacer una evaluación de
todo el ejercicio Delphi y preparar las conclusiones para el informe final.

Es importante tener en cuenta que durante la realización de un ejercicio Delphi


existen tres aspectos críticos:
 formulación adecuada del cuestionario que será suministrado a los expertos
 correcto procesamiento de la información, en particular el tratamiento de las
variables cualitativas
 interpretación adecuada de los resultados.

Por medio de la técnica Delphi se llega a identificar situaciones como las


siguientes:
 Futuras tecnologías
 Impacto de las tecnologías de futuro sobre: condiciones de vida, relaciones
industriales y condiciones de trabajo
 Mercados de estas tecnologías.

Experimentos mentales
Un buen ejercicio para desarrollar el análisis prospectivo son los experimentos
mentales. Aunque los experimentos mentales están encasillados como una
técnica propia de los físicos, los filósofos, para descubrir las grandes leyes de la
naturaleza, también forma parte de forma indirecta en cualquier análisis sobre el
futuro y las tendencias.
El experimento mental consiste en partir de una suposición, ¿Qué pasaría si…? Y
a partir de ahí se comienzan a desarrollar escenarios sobre las acciones que se
desencadenan a partir de la hipótesis (lo supuesto) hasta llegar a un escenario
final en el que se ven las consecuencias finales de esa hipótesis.
Este es un proceso individual donde un especialista en el tema de forma aislada
realiza la experimentación y aunque la mayoría prefiere realizarlos acostado de
forma relajada otros han preferido realizarlos debajo de una mata de manzana, el
caso de Newton, otros como Einstein, quien prefería realizarlos caminando por
lugares tranquilos, tampoco han faltado quien ha preferido realizarlos en el baño,
como Arquímedes.
Un ejemplo de experimento mental es la sala china.
La Sala china es un experimento mental, propuesto originalmente por John Searle
y popularizada por Roger Penrose, por el que se trata de rebatir la validez del Test
de Turing y de la creencia de que una máquina puede llegar a pensar. Searle se
enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la
cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos.
Además de una sintaxis, posee una semántica.
Searle y la Inteligencia Artificial Fuerte:
En 1995, cuando Herbert Simon y Allen Newell Simon escribió que "Ahora hay
máquinas que leen, aprenden y pueden crear"1 Por lo que se trataba de dar a
entender que se había dado una solución al problema mente cuerpo.
Pero Searle en su texto de "Mentes, Cerebros, Ciencia" ataca este pensamiento, y
con el experimento de la Habitación China muestra cómo una máquina puede
realizar una acción sin siquiera entender lo que hace y el por qué lo hace. Por lo
tanto según Searle la lógica usada por las computadoras es nada más que una
que no busca el contenido en la acción como la usada por los seres humanos.
El experimento de la habitación china
Supongamos que han pasado muchos años, y que el ser humano ha construido
una máquina aparentemente capaz de entender el idioma chino, la cual recibe
ciertos inputs (datos de entrada) que le da un hablante natural de ese idioma;
estos inputs serían los signos que se le introducen a la computadora, la cual más
tarde proporciona una respuesta en su output (dato de salida). Supóngase a su
vez que esta computadora fácilmente supera la Prueba de Turing, ya que
convence al hablante del idioma chino de que sí entiende completamente el
idioma, y por ello el chino dirá que la computadora entiende su idioma.
Ahora Searle nos pide que supongamos que él está adentro de ese computador
completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura
para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos
en chino.
Supongamos también que fuera de la sala o computador está el mismo chino que
creyó que la computador entendía su idioma y dentro de esta sala está Searle que
no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de
manuales y diccionarios que le indican las reglas que relacionan los caracteres
chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros").
De este modo Searle, que manipula esos textos, es capaz de responder a
cualquier texto en chino que se le introduzca, ya que tiene el manual con las
reglas del idioma, y así hacer creer a un observador externo que él sí entiende
chino, aunque nunca haya hablado o leído ese idioma.
Dada esta situación cabe preguntarse:
• ¿Cómo puede Searle responder si no entiende el idioma chino?
• ¿Acaso los manuales saben chino?
• ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus
respuestas) como, un sistema que entiende chino?
De acuerdo a los creadores del experimento, los defensores de la inteligencia
artificial fuerte -los que afirman que programas de ordenador adecuados pueden
comprender el lenguaje natural o poseer otras propiedades de la mente humana,
no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma
chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia.
Para los creadores del experimento ninguno de los componentes del experimento
comprende el chino, y por tanto, aunque el conjunto de componentes supere el
test, el test no confirma que en realidad la persona entienda chino, ya que como
sabemos Searle no conoce ese idioma. (Tomado de Wikipedia)
Otras técnicas
Técnica de las matrices de impacto cruzado

La técnica de las matrices de impacto cruzado es una de las metodologías de


prospectiva más usada por los países europeos. Su lógica consiste en realizar una
exploración del futuro sobre la base de la ocurrencia de una serie de eventos que
pueden o no ocurrir dentro de un horizonte temporal considerado. En esta técnica
evento se define como una hipótesis que puede o no ser cierta, en el sentido en
que el evento ocurra o no.

En este sentido, los escenarios futuros que puedan presentarse dependerán de la


ocurrencia o no de los eventos visualizados como la base del pronóstico por el
grupo de expertos. En otras palabras, la dinámica de los acontecimientos factibles
de ocurrir conformará el abanico de los escenarios que describen el futuro posible.

No obstante, no es suficiente con identificar los eventos cuyas combinatorias de


ocurrencia definen los escenarios futuros posibles; también es necesario
establecer las interrelaciones entre la ocurrencia de unos y otros, es decir el
impacto cruzado en las ocurrencias de los mismos.

Es así que debe poder calcularse de qué manera la ocurrencia de un evento


(hipótesis) impacta de manera positiva o negativa sobre la ocurrencia de los otros.
En lenguaje matemático se habla de probabilidades condicionadas.
Técnica AHP
El Proceso Jerárquico Analítico (en inglés analytical hierarchy process o AHP) es
una técnica creada en principio, como una técnica muy adecuada para generar
modelos de toma de decisiones en problemas no estructurados, típicos en la
gerencia tanto pública como privada. Aunque la AHP es una técnica "focalizada
fundamentalmente" como herramienta de apoyo a la toma de decisiones, ha sido
impulsada como una técnica que da apoyo también a otros problemas de
naturaleza intrínsecamente no estructurada, como la modelación, el análisis de
conflicto y el análisis prospectivo.

El objeto conceptual básico de la técnica, como instrumento de modelación, como


las llamadas redes jerárquicas o simplemente jerarquías. Una jerarquía es una
construcción mental conformado por unos elementos llamados "nodos" y unas
"relaciones" de pertenencia o subordinación entre ellos usualmente llamados
arcos de la red jerárquica.

Al modelar con esta técnica, sea en un problema de toma de decisiones, en un


problema de análisis de conflictos o en un problema de pronóstico o prospectiva,
siempre se partirá del nivel cero n(0) en el cual esta el foco: lo que se quiere. Por
ejemplo, si se trata de un problema de toma de decisiones, el foco se referirá a la
alternativa más conveniente en función de un conjunto dado de criterios,
subcriterios, factores, etc. Si se trata de una aplicación relativa a un ejercicio de
análisis de conflictos, el foco consistirá en la probabilidad de ocurrencia de las
posibles salidas del conflicto. Si se trata de un ejercicio de pronóstico el foco
también se referirá a la probabilidad de ocurrencia de los escenarios exploratorios
planteados.

Dentro de este contexto, la técnica AHP a diferencia de las otras técnicas de


pronóstico y/o prospectiva cualitativas, trabaja en base a un enfoque causal, es
decir, identificando los elementos que en forma relevante o significativa son la
fuerza motriz o causalidad del futuro que se pretende explorar.

El llamado nivel base, el cual siempre será el último nivel de la red jerárquica
formulada, se relaciona con los elementos esenciales del problema en cuestión.
Por ejemplo, si la aplicación es referida a un problema de toma de decisiones cada
nodo de este nivel está referido a cada una de las alternativas consideradas en el
modelo de decisión. Si la aplicación se tratase de un ejercicio de pronostico, por
ejemplo, distintos escenarios del comportamiento de los precios del petróleo,
entonces los nodos de este nivel estarían representando los distintos escenarios
que se contemplan en el ejercicio de pronostico y/o prospectiva.
Análisis morfológico

El análisis morfológico fue concebido como técnica de apoyo al proceso de


análisis prospectivo para visualizar tecnologías futuras. En realidad, su aplicación
genuina se focaliza en explorar posibilidades para el diseño y desarrollo de nuevas
tecnologías de un sistema en particular. No obstante, es perfectamente factible
usarla para visualizar escenarios futuros probables en cualquier área de interés,
en especial en lo referente a futuros desarrollos económicos, sociales o políticos
en una sociedad determinada.

La técnica fue desarrollada por el astrónomo suizo F. Zwicky en sus esfuerzos por
descubrir nuevas inversiones en el campo de turbinas para jets. Ha habido
múltiples aplicaciones en el campo industrial, con esfuerzos orientados en
descubrir nuevas posibilidades tecnológicas. El Tempo Center (perteneciente a la
firma General Electric) y el Stanford Research Institute, este último con
aplicaciones en los campos de desarrollos políticos y sociales, han desarrollado
amplia experiencia en esta metodología.

Como objeto, la técnica persigue explorar todas las posibilidades a que pueda
evolucionar un sistema determinado. Para ello, es necesario identificar con gran
precisión lo que se denominan los parámetros (variables) caracterizadores del
sistema (o tecnología) bajo estudio.

Dentro de este orden de ideas, al Análisis Morfológico le concierne el desarrollo de


aplicaciones prácticas, que permitirán descubrir y analizar lo estructural o inter-
relaciones morfológicas entre fenómenos, objetos o conceptos. Los resultados
obtenidos serán utilizados en la construcción de nuevos sistemas o en la
visualización de nuevas formas en los sistemas sociales, económicos y políticos
de nuestras sociedades.

Los cinco pasos del método son los siguientes:


• Definición clara y precisa del problema que se quiere tratar, para así proceder a
una formulación adecuada y correcta del mismo.
• Identificación de todos los parámetros (variables) caracterizadores del problema
en cuestión.
• Construcción de la matriz multidimensional (en inglés suele usarse el término
morphological box), la cual debe contener todos los parámetros identificados en el
paso 2.
• Todas las soluciones de la caja morfológica multidimensional deberán ser
examinadas en términos de su factibilidad, analizadas y evaluadas con respecto a
los propósitos que deben ser alcanzados.
• La mejor solución identificada en el paso 4 deberá ser analizada (utilizando otro
estudio morfológico), así como su factibilidad de ser materializada en términos de
los recursos disponibles.
Árboles de relevancia
La técnica de los árboles de relevancia es un método normativo (es decir que, a
partir de un futuro determinado, se retrocede hasta el presente), que tiene sus
fundamentos en el análisis de sistemas. Parte de un conjunto de necesidades
futuras establecidas, e identifica las acciones tecnológicas requeridas para las
mismas. El objetivo es asociar objetivos lejanos con decisiones inmediatas, y es
usada para analizar situaciones en las cuales pueden ser identificadas distintos
niveles de complejidad o jerárquicos.

El procedimiento se basa en la construcción de un "árbol" jerárquicamente


estructurado. En un primer nivel se identifican el o los objetivos más generales, le
siguen los niveles estratégicos (globales y sectoriales), luego el táctico
(programas), hasta llegar hasta los subsistemas más simples e inmediatos (por ej.,
proyectos). Para cada nivel se establece un conjunto de criterios de evaluación y
ponderaciones cuantitativos. Sobre esta base se construyen matrices que
permiten asignar una nota de "relevancia" (un número) para los elementos de
cada nivel, y así poder comparar opciones en los niveles de interés

La nanotecnología

es el diseño, caracterización, la producción y la aplicaciones de estructuras,


dispositivos y sistemas mediante la regulación de la forma y el tamaño a escala
nanometrico. Siendo actualmente la tecnología más codiciada y en la cual se
están invirtiendo millones en el mundo entero. La nanotecnologia a pesar de estar
en sus inicios ya representa un mercado multimillonario
El tamaño del mercado de la nanoelectrónica era de 1.827 millones de dólares en
2005; se prevé que alcanzará los 4.219 millones en el 2010.
• Los nanoalimentos crecerán a un índice de un 30,94% y en el 2010, alcanzaran
un volumen de 20,4 miles de millones de dólares
• El mercado de los textiles que utilizan la nanotecnología se espera que en el
2010 alcance los 115 mil millones de dólares.
• El mercado de las nanoherramientas se proyecta que se incrementará en un
30% anual hasta el 2008, año en que llegará a los 900 millones de dólares, para
triplicarse de nuevo, hasta alcanzar los 2,7 mil millones en el 2013.
La nanotecnologia esta permitiendo el desarrollo de materiales mas resistentes y
flexibles. Lo cual puede significar un desafió para los productos básicos de los
países pobres. Con las investigaciones en nanotecnologia, los materiales
tradicionales van a ser reemplazados por materiales más baratos, con más
variedad de aplicación y más resistentes. Lo cual sacara del mercado a los
productos básicos (tales como el cobre o el níquel) de los países
subdesarrollados.
Como consecuencia
• Los nuevos materiales de nanotecnologia podrían desestabilizar los mercados
básicos y perturbar el desarrollo del comercio y eliminar puestos de trabajo.
• Los países desarrollados como creadores de nuevas tecnologías están mejor
preparados para los cambios que los países pobres que dependen de uno o dos
productos básicos
• La nanotecnologia podría permitir a los países desarrollados agregar valor a los
productos básicos actuales tales como los medicamentes (nanofarmacologia) y en
especial a la biotecnología...
Otro desafilo, es el interés de las grandes corporaciones por patentar los nuevos
productos (propiedad intelectual). De todo lo anterior se desprenden las siguientes
consecuencias.
• Desarrollo de productos nanotecnologicos que en muchos casos sustituirán
productos básicos actuales.
• Patentes de los nuevos productos y con ellos conservar el derecho de
producción.
• Los productos nanotecnologicos, en sus inicios no estarán legislados
internaciolmente y responderán a los intereses de los desarrollados.

Conclusión
En general la sociedad no esta preparada para las grandes transformaciones que
provocara la nanotecnologia así como el papel que desempeñara la propiedad
intelectual, ya que decidirá quien va a hacerse del mercado de la nanotecnologia.
Como sabemos la estrategia actual para los productos básicos se basa en reducir
los obstáculos comerciales y promover un sistema comercial mas justo, Hacer
hincapié únicamente en este aspecto no es suficiente debido al rápido avance de
la ciencia y la tecnología (sobre todo la nano) y dada la relación cada vez mas
estrecha entre investigación, producción y comercialización, la nanotecnologia
será una de las ventajas competitivas mas importante del siglo XXI.

También podría gustarte