Está en la página 1de 65

CAPITULO II

MARCO TEORICO

1. Antecedentes de la Investigación

Durante seis meses de revisión bibliográfica de fuentes nacionales e

internacionales no se encontró evidencia alguna sobre estudios en

Venezuela que muestren relación directa entre las tendencias tecnológicas

en el área de la Fusión Nuclear como fuente alterna de energía. Esto quizás

se deba principalmente, a que la Fusión Nuclear es una ciencia emergente a

nivel mundial y recientemente ha comenzado a ser conocida en el país.

En el ámbito internacional, la literatura existente, relacionadas con las

fuentes de energía y la Fusión Nuclear, es muy amplia, por tanto, se

seleccionaron solamente aquellos trabajos de investigación en los cuales se

analizan las categorías objeto de este estudio, permitiendo así hacer aportes

a la investigación realizada desde el punto de vista teórico y metodológico.

En Alemania investigaciones realizadas por el gran físico Hermann von

Helmholtz, en 1854, expresaban que la propia gravedad del Sol suministraría

una apreciable cantidad de energía. Este investigador se preguntó, ¿Qué

suministra la propia energía del Sol? ¿Cuanto brillará hasta acabársele el

combustible? ¿Desde cuando nos ha estado enviando su energía?, y

15
16

concluyó que si el Sol se estuviera contrayendo gradualmente, si toda su

materia estuviera cayendo gradualmente hacia su centro, se estaría

emitiendo suficiente energía para mantener su radiación durante mucho

tiempo. Calculó que esta fuente proveería energía al Sol durante más de 20

millones de años basados en elementos pesados tales como el hidrogeno.

Posteriormente se descubrió la radiación; la descomposición de los

elementos pesados en otros más ligeros con emisión de partículas rápidas,

portadoras de una gran cantidad de energía. Es esta energía, cuando se

despide de los elementos radiactivos de las rocas, la que proporciona el calor

interno de la Tierra.

La radioactividad también permite hacer nuevas estimaciones de la edad

de la Tierra, por cuanto la cantidad de productos acumulados residuales en

los minerales indican la duración del proceso. Esto sugiere que la edad de la

Tierra es mucho mayor de la estimada Helmholtz, quizás miles de millones

de años. ¿Quizás el mismo tipo de fuente puede también suministrar las

necesidades del Sol para tanto tiempo?

Otra investigación realizada en 1947 por los físicos rusos Sakharov y

Frank propuso la posibilidad de obtener la fusión fría, la cual es llamada

fusión catalizada por muones. La cual caracteriza la distancia promedio entre

núcleos que disminuye si la masa de la carga intermediaria es mayor. En las

moléculas normales la carga intermediaria es un electrón.

Por tanto, los investigadores propusieron una manera de acelerar el

proceso de fusión fría el cual consiste en sustituir uno de los electrones de la


17

molécula de deuterio por un muon negativo. Esta partícula, aunque posee la

misma carga que el electrón y tiene muchas propiedades idénticas al mismo,

es doscientas veces más masiva.

De esta forma concluyeron que los núcleos ligados por muones se

acercan mucho y la probabilidad de fusionarse aumenta considerablemente.

Así, el tiempo de espera para la ocurrencia de una fusión en una muestra de

1 cm³ de agua pesada a cuyas moléculas se les hubiera cambiado un

electrón por un muon, es en este caso pequeñísimo, tan sólo 10-31

segundos. Su problema, sin embargo, consistió en obtener al mismo tiempo

los 1022 muones necesarios. Por ello, estas conclusiones de Sakharov y

Frank permanecieron marginadas durante una década hasta que, en 1956, el

físico norteamericano Luís Álvarez descubrió accidentalmente la fusión en

frío inducida por muones en una cámara llena de hidrógeno y deuterio

líquidos.

Álvarez años después relató que había descubierto la solución ideal al

problema energético mundial. Sin embargo, al poco tiempo se convenció de

lo insignificante de la energía que se obtiene en este proceso debido a la

reducida vida media de los muones y al escaso flujo de muones cósmicos.

En Italia en 1983, los físicos Fleischmann y Pons, expusieron que los

núcleos pueden acelerarse de manera natural hasta alcanzar las energías

necesarias para lograr la fusión. Ellos aseguraron haber logrado la fusión fría

mediante un sencillo ingenio y a través de la electrolisis, con una barra de

paladio rodeada de hilo de platino, sumergida en agua pesada (rica en


18

deuterio). Concluyeron haber obtenido el equivalente a un vatio de energía

por centímetro cúbico de agua, lo que representaría un millón de veces más

de lo que mostraron las emisiones de neutrones medidas y unas 50 veces

más de la energía utilizada.

Sin embargo, la comunidad científica no creyó tales resultados, intentando

por todos los medios reproducir el experimento sin éxito. Es más, si esos

datos fuesen correctos, los neutrones liberados habrían matado a todo el

equipo científico que estuviera presente en el experimento.

A pesar de que el experimento se ha vuelto a repetir sin obtenerse el

mismo resultado, los dos científicos intentaron publicar el experimento en la

revista Nature, pero no lo lograron al no responder a las lógicas preguntas de

los equipos científicos de la publicación.

Pese a la afirmación de que la fusión fría no era posible, el Profesor

italiano Scaramuzzi, posteriormente, cambió algunos elementos de l

experimento y, si bien no logró la energía "obtenida" por Fleischmann y Pons,

pudo demostrar que la fusión en fría es posible. Su experimento eliminó la

electrolisis y sustituyó el paladio por un ovillo de titanio, sumergiendo el

titanio en deuterio gaseoso, y logrando un equilibrio entre la presión del gas y

la temperatura, se consiguió la fusión. Scaramuzzi midió 491 unidades de

neutrones emitidas cuando sólo esperaba contabilizar 30.

En otro orden de ideas se hace referencia a la investigación realizada por

Morales (2004) titulado Portafolio de Oportunidad de Negocios de Diodos de

Emisores de luz. Su objetivo general fue proponer un portafolio de


19

oportunidades de negocios en el área de los Diodos de Emisiones de Luz

para el área petrolera, coincide con la presente investigación pues incorpora

procesos de investigación tecnológicas basados en estudios bibliométricos,

con sustentación teórica en la incorporación de nuevas tecnologías para la

industria petrolera nacional.

El tipo y diseño de la investigación se definió considerando los criterios

establecidos por: Bravo (1985), Chávez ( 2001), Hernández, Fernández y

Batista (2003), Bisquerra (1989), como documental, descriptiva, no

experimental, bibliométrica y transeccional – descriptiva.

La población de estudios estuvo conformada por las patentes,

publicaciones e investigaciones en el área de los Diodos Emisores de Luz

(LED’s) para un total de 191 extraídas de un universo de 2359 documentos

en el periodo de tiempo del 2000 hasta el 30 de Abril del 2003.

Se empleó como técnica la recolección de datos el análisis documental y

como instrumento la matriz de análisis. Para la base de datos de las patentes

se utilizó la página Web de la Oficina de Patente y Marcas Registradas de

España, así mismo la pagina Web de la revista científica Technologyreview,

donde se encuentran publicaciones relacionadas con la tecnología del led´s.

Se considera valida la matriz de análisis por presentar los datos tal cual

fueron publicados, luego la autora los asocio a diferentes campos de

aplicación según su contenido a fin de determinar posteriormente las

tendencias tecnológicas.
20

Las patentes se clasificaron de acuerdo al campo de aplicación,

seleccionándose los campos de electrónica, iluminación y óptica con los

campos de estudios. Según su madurez y dominio la tecnología de los led´s

fue considerada por Morales (2004) en su etapa Embrionaria e Incipiente. En

el campo de electrónica se detectaron cuatro nichos de oportunidades,

treinta oportunidades de negocio; en el campo de la iluminación cuatro

nichos de oportunidades y diecinueve oportunidades de negocio y en el

campo de la óptica, seis nichos de oportunidades y veintinueve

oportunidades de negocios.

Como resultado de su investigación Morales (2004) formula un portafolio

tecnológico basado en la tecnología de led´s para la industria petrolera

nacional cumpliendo con el objetivo general de su investigación.

El aporte de este antecedente a esta investigación es de tipo

metodológico, en cuanto a los métodos de análisis y recolección de datos e

incorporación de nuevas tecnologías a las industrias.

Por otra parte en el estudio realizado por Fontanet (2001) en su tesis

Simulación de plasma de dispositivos de fusión por confinamiento magnético

tipo tokamak, define como base esencial que en el estudio de la fusión por

confinamiento magnético es crucial conocer con detalle las condiciones

físicas del plasma confinado. En este sentido a lo largo de su tesis se estudio

las propiedades del plasma de tokamaks y stellarators contribuyendo al

desarrollo del código de transporte PRETOR, creado en el JET.


21

El código presentado por Fontanet permite simular la variación radial y la

evolución temporal de las principales magnitudes físicas de un plasma de

fusión, para valorar la bondad de los modelos implementados en el código y

determinar la corrección de sus resultados, se toman estos de la simulación

de las magnitudes más relevantes de diversas descargas y se comparan con

los datos experimentales. De esta comparación se dedujo que las

magnitudes simuladas presentan un buen acuerdo con los datos

experimentales aunque debe destacarse que los errores experimentales son

bastante grandes y no siempre están disponibles.

De igual forma en esta tesis se observó la aplicación del código PRETOR

para el estudio de la parada de emergencia de ITER-DDR, con 1500 MW de

potencia de fusión funcionando en un estado estacionario en ignición,

estudiando con detalle la evolución del plasma durante una parada

implementada mediante la interrupción del suministro de combustible.

En los últimos años la investigación de stellarators ha adquirido una

creciente importancia debido a las ventajas que presentan este tipo de

dispositivos. Además hay que destacar que el programa de fusión por

confinamiento magnético español se centra en el Heliac Flexible TJ-II de la

asociación EURATOM -CIEMAT. Por estos motivos y para disponer de un

código que sea capaz de simular descargas de stellarators.

En este sentido se observa en este trabajo de grado la inversión en

tecnología y desarrollo de mecanismos que serán usados en el proceso de

fusión, contribuyendo en los estudios del plasma y su mecanismo de


22

confinamiento, para adaptarlos a las nuevas tendencias y mecanismos que

vayan surgiendo.

En otro orden de ideas la tesis de Fontdecaba (2004), estudió el

transporte de energía en plasma de fusión termonuclear controlada por

confinamiento magnético, donde concluyo la importancia de conocer el

transporte de energía en los plasmas, pues este transporte es el que hace

que se enfríe más o menos rápidamente con lo que se obtendrán o no las

reacciones de fusión.

De igual forma Fontdecaba menciona que el transporte de energía en los

plasmas es mayoritariamente turbulento o anómalo, y que hasta la fecha no

hay una teoría que explique satisfactoriamente este tipo de transporte,

siendo esencial para el estudio de este proceso las extrapolaciones y

modelos semiempíricos en códigos de simulación validados. Uno de estos

códigos de simulación está PRETOR-Stellarator coincidiendo con el

planteamiento de Fontanet antes mencionado.

Por otra parte según Fontdecaba un aspecto importante de los

dispositivos de fusión son los diagnósticos, herramientas imprescindibles

para comprender las propiedades del plasma confinado en su interior. Uno

de los diagnósticos instalados en el stellarator heliac flexible TJ-II del

Laboratorio Nacional de Fusión de Madrid es el espectrómetro de

intercambio de carga, objeto de estudio de su tesis.

Continúa Fontdecaba a lo largo de su tesis explicando que con la

siguiente generación de máquinas de fusión se pretende aumentar las


23

prestaciones y llegar a demostrar la viabilidad de esta tecnología para

producir electricidad. Para ello la máquinas deben ser mucho mayores y, por

tanto, más caras y complejas. Por esto, diversos países han colaborado en el

diseño y, en el futuro, construcción del dispositivo, como lo es el proyecto

ITER a desarrollarse en Francia con la ayuda de las diferentes potencias

mundiales, con el único fin de que los científicos de todos los países

participantes puedan beneficiarse de los datos obtenidos por las nuevas

tecnologías.

Fontdecaba en su tesis realizó diferentes estudios de transporte de calor

por los electrones en el plasma. Primero valido según el código PRETOR -

Stellarator con datos de descargas de TJ -II obtenidos mediante la

participación remota. Seguidamente introdujo una modificación del código

que permite simular con mayor exactitud la parte central del plasma, con

estas modificaciones se realizó un estudio del modo de confinamiento

mejorado de TJ -II.

En semejanza con esta investigación, los estudios realizados por el autor

se basaron en la transferencia de calor mediante códigos y diseños en

reactores de fusión, al igual a una de las áreas objeto de nuestro estudio. A

su vez. Fontdecaba aporta un gran adelanto es dispositivos de medición y

control del calor generados en prototipos Stellarator y los cuales pudiesen

ser aplicados a los dispositivos tipo Tokamak.

En conclusión el propósito de la tesis de Fontdecaba fue probar una

herramienta de participación remota comprobando que son aptas para su


24

empleo en grandes instalaciones científicas como lo son los reactores de

fusión nuclear. Además profundizó el conocimiento de los plasmas de TJ -II y

de igual forma que lo hiciera Fontanet en su tesis se baso en validar el

código PRETOR-Stellarator, con la finalidad de obtener una herramienta útil

para la simulación de plasmas de fusión.

En el mismo orden de ideas la tesis de Schlatter (2004) menciona que la

situación actual del plasma mediante métodos de fusión Tokamak con la

finalidad de la producción de energía, mediante una estructura de

confinamiento por un período de tiempo largo, pudiese ser un reto difícil,

debido a que los iones pudiesen causar alguna inestabilidad en el transporte

de energía.

El rol de las partículas en plasmas ha sido estudiada en varios

laboratorios, aun estando en etapa de investigación y desarrollo. Schlatter

profundiza que mas estudios con respecto a las partículas iónicas contenidas

en los plasmas debería ser mas estudiadas para el mejor entendimiento de

su distribución al momento de interactuar en campos magnetohidrodinámicas

debido a que estas podrían causar inestabilidades dentro del plasma.

Al igual que este estudio, Schaltter lo que plantea es la necesidad de

ampliar conocimiento en el área de confinamiento con la finalidad de la

producción final de energía.

Por otra parte, los grandes reactores de hoy en día como lo es el JET, en

el centro de ciencias de la Universidad de Oxford (Inglaterra), operan

actualmente produciendo la ignición de fusión, adicionalmente esquemas de


25

temperaturas mediante ondas de iones o rangos y frecuencias sobre la

partículas supratermales, para algunos Tokamak es conveniente usar rayos

para medir los iones altamente energéticos y detectores de neutrones.

La tesis de Schlatter tuvo como propósito el estudio de partículas de alta

velocidad usando datos de pasados experimentos tanto de los Tokamak

como de las configuraciones de sus variantes.

Luego de realizar su investigación concluyo que las igniciones auto

sostenidas del plasma en el proyecto ITER dependerán del calor

proporcionado en el reactor, donde las partículas alpha crecen un 5% de

ignición a ignición, pudiendo producir grandes daños a las paredes del

reactor.

Aunado a estas investigaciones se encuentra el estudio realizado por

Vergara (2006), destaca que no se puede continuar obteniendo energía a

través de combustibles fósil, las cuales podrían sustentar por mas de 50

años, es debido esto que Vergara destaca que se deberían buscar otras

fuentes de energía limpia como lo es la energía nuclear.

A lo largo de su investigación Vergara expone unos valores con respecto

al uso de la producción de energía mediante combustibles fósil, destacando

que las tres cuartas partes de la producción global de la energía son a base

de ellos.

En el mismo orden de ideas el autor resalta la necesidad de una energía

limpia debido al gran impacto que tendría la contaminación de seguir usando

como fuente principal el combustible fósil, de igual forma resalta que 440
26

reactores generan en la actualidad un 6% de la energía primaria de algunos

países, como lo son Francia, Lituana, Eslovaquia, Suecia entre otros,

menciona también que los países lideres en el renacimiento nuclear son

Estados Unidos, Reino Unido, G8, y Austria.

Vergara se basa en que la energía nuclear ofrece oportunidades amplias,

en el caso de producción de electricidad libre de dióxido de carbono y calor

industrial, y en el ámbito tecnológico reconoce el avance en materiales,

conocimientos y mejoramientos de servicios, de igual forma el autor realiza

un proyección en cuanto al desarrollo de la energía nuclear, ubicando que

durante el periodo entre 2030 y 2050 los reactores nucleares estarán en una

etapa avanzada una vez lograda su comercialización global, y que para el

año 2070 estarán fusionando en el mercado los reactores de fusión nuclear,

es así que el autor concluye sus estudios y proyecciones en cuanto a la

necesidad de sustituir el combustible fósil por métodos mas avanzados y su

posible desenvolvimiento durantes los años venideros.

Todas estas investigaciones, representan una significativa información en

el área tecno lógica, creación de portafolios y tendencias tecnológicas. A su

vez algunas de estas investigaciones se basan en el estudio de energía

limpia a nivel tecnológico, son importantes por cuanto permiten conocer la

madurez, las brechas y el estado actual de esta área.

En consecuencia, es indispensable elaborar un portafolio de

oportunidades a fin de que las instituciones, empresas o usuarios, estudien y

comprendan esta nueva alternativa energética, con el fin de ser los primeros
27

en desarrollar y poner en práctica estas nuevas tendencias en sus centros de

investigación, universidades e industrias.

2. Bases Teóricas

Hablar de la obtención de energía limpia y económica mediante el uso de

la Fusión Nuclear, para luego preparar un caso de negocio rentable para

explotar esta nueva tecnología, requiere conocer de información tanto

técnica como económica. Por estas razones, se ha desarrollado una

investigación donde convergen varias teorías que comprende una serie de

artículos, especificaciones, definiciones y teorías referentes a la Fusión

Nuclear, sus propiedades tanto en frío y caliente, gestión tecnológica y

evaluaciones económicas de proyectos.

2.1. Gestión Tecnológica.

Gaynor (1999), considera que los conceptos “gestión” y “tecnología” por

separado, cargan el peso de muchos significados, y el concepto de Gestión

Tecnológica podría traducirse como gestión de la información o gestión de la

investigación, sin preocupación alguna por el espectro global de las

actividades que abarcan el concepto de los negocios con respecto al proceso

de comercialización. El mismo autor considera la Gestión Tecnológica más

parecida a la Gestión como una tecnología, definiéndola como el proceso de

integrar los recursos y la infraestructura de la unidad de negocios en el logro

de sus propósitos, sus objetivos, sus estrategias y sus operaciones definidos.


28

Según Alfonzo y otros (2002), el proceso de Gestión Tecnológica

involucra actividades relativas a la identificación de nuevas oportunidades de

negocios, apalancadas por la incorporación oportuna de nuevas tecnologías,

así como, la elaboración del plan Tecnológico, como parte de las estrategias

para asegurar la viabilidad futura de las empresas. Citan estos mismos

autores que Irving Langmuir, Premio Nóbel en Físico-Química, define la

Gerencia de la Tecnología como el sistema que garantiza la solución de

necesidades y deseos de una sociedad, mediante la innovación continúa.

Explica además, que, para gerenciar tecnología se requiere del manejo

conjunto de profesionales que solucionen problemas operacionales con ideas

innovadoras en beneficio de la sociedad y las corporaciones.

Coincidente con esa conceptualización, Roberts (2002), profesor en

Gestión Tecnológica del Instituto Tecnológico de Massachussets (MIT), en su

discurso ante la Primera Conferencia Internacional sobre Gestión e

Ingeniería en 1986, sugirió que para gerenciar la tecnología se requiere de

un equipo multidisciplinario que resuelva problemas a través de soluciones

innovadoras y hace énfasis en la palabra clave para la Gestión Tecnológica:

Integración.

A continuación se describen algunos conceptos que ayudan a

comprender mejor el proceso de gestión Tecnológica, así como a desarrollar

proyectos tecnológicos.
29

2.1.1. Tecnología.

Hidalgo (1999), define tecnología como el medio para transformar ideas

en productos o servicios, permitiendo además mejorar o desarrollar

procesos. Por su parte Gaynor (1999), describe la tecnología de las maneras

siguientes:

Es el medio para llevar a cabo una tarea, incluye lo que es necesario para

convertir recursos en productos o servicios, también incluye el conocimiento

y los recursos que se requieren para lograr un objetivo.

Es el cuerpo del conocimiento científico y de ingeniería que puede

aplicarse en el diseño de productos y/o procesos o en la búsqueda de

nuevo conocimiento.

Para los citados autores sus definiciones encierran el accionar humano

para satisfacer sus necesidades y van aún más allá cuando la convierte en

un proceso que evoluciona constantemente. Gaynor (1999), clasifica las

tecnologías en 10 tipos que se detallan a continuación:

Tecnologías del Estado del Arte: Tecnologías que igualan o superan a

las tecnologías competidoras.

Tecnologías de Propiedad Intelectual: Tecnologías protegidas por

patentes o acuerdos de reserva, que ofrecen una ventaja competitiva

mensurable.

Tecnologías conocidas: Pueden ser comunes a muchas organizaciones

pero se utilizan de manera única.


30

Tecnologías esenciales: Son esenciales para mantener una posición

competitiva.

Tecnologías de Apalancamiento : Apoyan varios productos, líneas de

productos, no clases de productos.

Tecnologías secundarias: Sirven de apoyo a las tecnologías esenciales.

Tecnologías de paso: Son aquellas cuya tasa de desarrollo controla la

tasa de desarrollo de producto o de proceso.

Tecnologías emergentes: Sirven en la actualidad como objeto de estudio

para futuros productos o procesos.

Tabla 1. Fases de la integración de la tecnología para la


gestión tecnológica.

Grado de Integración de las Funciones de los Negocios en la Gestión


Tecnológica
I&D I&D
Diseño Diseño
Manufactura Manufactura -Marketing
Investigación Marketing Ventas -Distribución
Desarrollo Ventas física
Diseño Distribución física Servicio al cliente
Investigación

Investigación Manufactura Servicio al cliente Sistemas de información


Desarrollo

Desarrollo Marketing Sistemas de Recursos Humanos


Diseño Ventas información Finanzas -Compras
Manufactura Distribución Recursos Humanos Asuntos Legales y
física Finanzas Patentes
Servicio al Compras Relaciones Publicas
cliente Asuntos Legales y Administración General
Patentes Clientes
Relaciones Publicas Proveedores
Administración Otras influencias internas
General externas
FASE FASE FASE FASE FASE
1 2 3 4 5
Fuente: Gaynor, (1999), p.10.
31

Según Gaynor (1999) en su tabla 1 define por fase el proceso de la

integración tecnológica, dividiéndolo por fases, siendo su primera división el

área de Investigación y desarrollo, debido que está fase es donde se origina

toda la información y esquema de la tecnología en estudio, es necesario

invertir tiempo y recurso en una buena culminación de la fase 1 debido a que

todos los procesos están ligados con esta primera fase.

En cuanto a la Fase 2 se engloba un poco más el área de manufactura,

que ya teniendo establecidos los parámetros y definiciones básicas del

objeto en estudio se puede comenzar su proceso de fabricación ya sea

inicialmente en prototipo para luego masificarlo.

En la fase 3 una vez diseñado la mejor forma de utilizar el nuevo objeto

de estudio y siendo comprendidas todas sus características básicas, se

procede a la distribución masiva entre clientes y usuarios objeto base del

surgimiento de la tecnología.

Gaynor en la Fase 4 menciona que se procede a la distribución física,

recursos humanos, patentes entre otros, dando así origen en esta etapa a la

legalización de los derechos de autor, comercialización a gran escala y

masificación del producto u objeto de estudio.

En la ultima fase el autor incorpora proveedores y otras influencia, debido

a que por ya pertenecer al dominio público en este caso a causa de la

osificación y distribución el producto u objeto de estudio pasa a masificarse

en manos de proveedores y comienza el nuevo estudio de nuevas

derivativas con el fin de mejorar el mismo.


32

2.1.2. Proceso de Identificación y Adopción de Tecnologías.

Por medio de este proceso se identifica y adopta la tecnología más

prometedora para el negocio. Para Alfonzo y otros (2002), este proceso se

lleva a cabo mediante cuatro etapas:

Identificar: Se detecta tecnología a través de estudios de inteligencia

tecnología y elaboración de propuestas tecnológicas.

Evaluar: Se establece efectividad, aplicabilidad y rentabilidad de la misma

a través de proyectos pilotos donde se compra incertidumbre.

Transferir: Se practican las lecciones aprendidas y se prepara el recurso

humano para el nuevo proceso.

Masificación: Es la materialización de la oportunidad a través de la

adopción efectiva de la tecnología de punta que agreguen valor adicional.

2.1.3. Plan de Negocios.

Para hablar de Gestión Tecnológica, se debe hablar de lo que es el Plan

de Negocios, simplemente porque al identificar una tecnología a la cual se le

visualice potencial comercial o científico, se debe crear este plan de negocios

ya que el nuevo producto competirá en el mercado. Una persona con visión,

al concebir una idea de un negocio, sabe lo que quiere y como llegar a ello, y

también sabrá con que estrategias conseguirá su objetivo.

Borello, (2000), define el Plan de Negocios como un instrumento sobre el

que se apoya un proceso de planificación sistemático y eficaz. Este debe


33

entenderse como un estudio que incluye, por una parte, un análisis del

mercado, del sector y de la competencia, y por la otra, un plan desarrollado

por la empresa para incursionar en el mercado con un producto o servicio,

una estrategia y un tipo de organización, proyectando esta visión de conjunto

a corto plazo. A corto plazo; a través de la cuantificación de las cifras que

permitan determinar el nivel de atractivo económico del negocio y la

factibilidad financiera de la iniciativa, y a largo plazo, mediante definición de

una visión empresarial clara y coherente.

Por otra parte Douglas (2004) describe plan de negocios como la creación

de un proyecto escrito que evalúe todos los aspectos de la factibilidad

económica de su iniciativa comercial con una descripción y análisis de sus

perspectivas empresariales.

De cierto modo Douglas (2004) menciona como plan de negocio, una

estrategia evaluatíva de las necesidades que la empresa y el empresario

poseen dependiendo sus fortaleza y debilidades, este plan se origina

mediante estudios de mercado, acciones a seguir y estudios socio

económicos de factibilidad.

2.1.4. Ciclo de Vida, Madurez y Dominio Tecnológico.

A lo largo de la historia de la humanidad se han visto nacer y desaparecer

diferentes tecnologías, muchas de las cuales hoy día causan asombro por lo

elementales que parecen, pero otras se ven como muy ingeniosas y

visionarias a pesar de tener ya varios siglos de creadas. El hombre siempre


34

está innovando, pues su necesidad de satisfacer sus deseos no se detiene,

además de su constante deseo de mejorar lo ya inventado siempre está

presente.

En el siglo XIX nadie hubiera creído que el hombre volaría para viajar de

un lugar a otro, y a mediados del siglo XX, el hombre pisaba la Luna. Se vive

en un cambio constante de modo de vida y de pensamiento, y en todo esto

posiblemente la tecnología ha actuado como catalizador. Mediante esta

comparación se observa que toda tecnología tiene un ciclo de existencia y tal

como los seres vivientes nacen, crece y muere. Esta es la visión de Tapias

(2000), quien divide el ciclo de vida de la tecnología en cuatro etapas:

gestación, nacimiento, crecimiento y desarrollo, y finalmente muerte u

obsolescencia. La etapa de gestación la asocia a la idea de crear un nuevo

producto o proceso. Esta etapa está vinculada directamente con el

cumplimiento de las necesidades y deseos existentes o latentes de los seres

humanos, así mismo, cuando este producto o proceso ha sido creado lo

asocia al nacimiento.

El crecimiento y desarrollo está asociado con la adopción, propagación o

difusión masiva de la tecnología. El éxito de la difusión masiva depende del

momento u oportunidad en que entró el producto o proceso al mercado.

Por último, la muerte u obsolescencia, que ocurre cuando ya se han

agotado las posibilidades de innovaciones incrementales del producto o

proceso. A nivel empresarial, esta tecnología ya no le rinde beneficios, no

mejora su productividad, y en este momento es cuando muchas empresas

adoptan nuevas tecnologías.


35

Esta etapa pudiera ser muy larga o no, muchas tecnologías mueren

definitivamente pero otras se siguen utilizando tal y como fueron creadas.

Por ejemplo, los televisores de circuitos no han logrado desplazar

completamente a los de tubos de vacío e igualmente las maquinas de coser

computarizadas no han desplazado completamente a las máquinas de

pedaleo, así como los computadores portátiles no han desplazado a las

máquinas de escribir eléctricas en ese uso específico.

En muchas instituciones públicas en Venezuela todavía se exige la

impresión de documentos o planillas con estos equipos, aunque utilizan para

otros fines los computadores portátiles.

Para Alfonzo y otros (2002), tanto el ciclo de vida como la madurez

tecnológica tienen un comportamiento parecido al de una curva “S” de

esfuerzo versus tiempo.

Este comportamiento se puede observar en la Figura 1, que se presenta

a continuación.

MADUREZ
TECNOL ÓGICA
ETAPA MADURA

ETAPA DE
COMERCIALIZACIÓN

ETAPA EMBRIONARIA

Figura 1. CURVA “S” Madurez Tecnológica


Fuente: Steele (1989) y Alfonzo y otros (2002).
36

El autor, define la Madurez Tecnológica como “el grado de disponibilidad

de una tecnología”. Esta, a su vez, se divide en tres etapas: embrionaria,

comercialmente disponible y comercialmente madura.

El Dominio de la tecnología lo define como “la experiencia del usuario

en la aplicación de una tecnología” y al igual que el concepto anterior lo

dividen en tres etapas: uso incipiente, masificación y dominio.

Para comprender ambos conceptos se explica a continuación el contenido

de la Figura 2. La primera porción de la curva representa la etapa

embrionaria de la tecnología.

Dentro de esta porción están contenidas las tecnologías incipientes o en

desarrollo, prototipos que posiblemente se encuentren disponibles en

laboratorios o centros de investigación, y por lo tanto el conocimiento de esta

tecnología es muy precario. Algunas de estas tecnologías no están

accesibles al publico, por ser desarrollos de inteligencia militar en países

desarrollados.

MADUREZ DE LA CICLO DE VIDA DE LA


TECNOLOGÍA TECNOLOGÍA

ETAPA MADURA DESARROLLO

ETAPA DE CRECIMIENTO
COMERCIALIZACIÓN

ETAPA EMBRIONARIA INCIPIENTE

Figura 2 . CURVA “S” Madurez Tecnológica y Ciclo de Vida de la Tecnología


Fuente: Steele (1989) y Alfonzo y otros (2002).
37

La segunda porción de la curva contiene las tecnologías de las cuales no

se tiene suficiente información aunque están comercialmente disponibles, es

la etapa de masificación de la misma y es accesible para todo tipo de

usuario.

Por último, en la figura 3, se observa la etapa de dominio en donde se

encuentran tecnologías comercialmente maduras y bien conocidas, que ya

han sido bien desarrolladas.

DOMINIO DE LA TECNOLOGÍA

DOMINIO

USO MASIVO

USO INCIPIENTE

Figura 3. CURVA “S” Dominio de la Tecnología


Fuente: Steele (1989) y Alfonzo y otros (2002).

2.1.5. Matriz de Análisis de Impacto .

Una de las herramientas para la toma de decisiones en proyectos

tecnológicos es la Matriz de Impacto. Alfonzo y otros (2000) la definen como

una herramienta de apoyo a la toma de decisiones asociada a la

materialización de una oportunidad de negocio. Consiste en la determinación

de la importancia, urgencia, riesgo y creación de valor. Cada uno de estos

parámetros se explica a continuación:


38

La Importancia está relacionada a las estrategias corporativas asociadas

a la producción, y se refiere a como impacta la tecnología a una organización

en el mediano y largo plazo.

La Urgencia es un indicador de la viabilidad futura inmediata de la

empresa. Se refiere a como impacta la tecnología a una organización a corto

plazo.

El Riesgo está asociado a la madurez y dominio de la tecnología,

mientras más madura y más información se tenga de la misma, el riesgo

para su implantación es menor.

La Creación de Valor está asociada al tamaño de la oportunidad

expresada reservas a producir y rentabilidad económica.

Estos parámetros se definen a través de los perfiles bajo (B), medio (M),

medio alto (MA) y alto (A), los cuales son determinados a través de jui cio de

expertos (ver Figura 4).

B MB M MA A
A
I

Figura 4. Matriz de Impacto


Fuente: Alfonzo y otros (2002).
39

Si se tiene la función de masificar la tecnología se debe determinar el

grado de madurez de la misma, de esta forma cuantificar el riesgo de

masificación de la tecnología, dado que a menor grado de madurez mayor

riesgo existe al momento de la masificación. Si la tecnología se encuentra en

estado embrionario, se debe invertir en un proyecto piloto para comprar

certidumbre. Cuando se alcanza el estado comercial se procede a transferir

los conocimientos adquiridos en el proyecto piloto y una vez alcanzada la

madurez de la tecnología se masifica la misma y se materializa la creación

de valor adicional.

2.1.6. Análisis de Brechas.

Mediante este instrumento se determina la diferencia entre la tecnología

en uso con respecto a las nuevas tecnologías. Alfonzo y otros (2000), la

definen como el análisis que permite determinar posibles debilidades y/u

oportunidades asociadas a tecnologías en desarrollo y por tanto dicho

análisis permite tomar decisiones estratégicas para el posicionamiento

definitivo. Estas brechas las clasifican en brechas respecto a la tecnología y

brechas de competitividad.

Las brechas respecto a la tecnología representan la diferencia entre la

tecnología en uso con respecto a la tecnología de punta. Las brechas

respecto a la competitividad se originan al comparar el nivel de uso actual de

una tecnología con respecto al uso de tecnologías de punta por parte de los

competidores.
40

El aná lisis de brechas, simplificado por la matriz mostrada en la figura 5,

consta de tres áreas:

Área de riesgo mayor: riesgo de pérdida de competitividad y al mismo

tiempo de alertas de posicionamiento futuro oportuno. Ubicada en las dos

áreas sombreadas del extremo superior derecho.

Área de riesgo medio : es el área sombreada media de la Figura, en la

cual el riesgo es medio.

Área de riesgo menor: es el área no sombreada de la Figura, representa

la de bajo riesgo y es donde las acciones de posicionamiento pueden

tomarse con más tiempo.

Alta

Media
Alta

Media

Brecha respecto a los Baja


competidores Media

Baja
Baja Baja Media Media Alta
Media Alta
Brecha respecto a la Tecnología
Figura 5. Matriz de Análisis de Brechas.
Fuente: Alfonzo y otros (2002).

2.1.7. Posicionamiento Tecnológico.

Según Alfonzo y Otros, una vez aplicadas las herramientas anteriores en

la evaluación de una oportunidad de negocio, (madurez tecnológica, análisis


41

de impacto, análisis de brechas) se deriva la información en la cual se

deciden las acciones a seguir para materializar dicha oportunidad.

Las acciones a seguir son: ejecutar proyecto tecnológico, invertir en

investigación y desarrollo, transferir/ masificar y materializar alianzas

tecnológicas. Mediante estas acciones se realizan estrategias de cierre de

brechas para la materialización de oportunidades. Las mismas atienden a lo

siguiente:

Ejecutar proyecto tecnológico: se lleva a cabo cuando se requiere

comprar información para cerrar brecha tecnológica.

Invertir en investigación y desarrollo: Esta decisión se toma cuando el

grado de madurez de la tecnología es embrionario, así como el grado de

incertidumbre acerca de la potencialidad de la misma y cuando se tiene una

brecha muy alta v, respecto a tecnologías de punta.

Transferir / Masificar: se implementa cuando la tecnología en evaluación

es dominada por la empresa y puede formar parte rutinaria de los planes de

la empresa.

Materializar Alianza Tecnológica: se realiza cuando la brecha existente

respecto a los competidores es alta y se desea cerrarla en el menor tiempo

posible para acelerar el aprendizaje organizacional.

2.1.8. Inteligencia Tecnológica.

Alfonzo (1999) define como el conjunto de acciones coordinadas para la

resolución e interpretación de información actualizada de cómo los usuarios y


42

competidores orientan la investigación, tratamiento, distribución y protección

de la información útil para los entes responsables de los procesos de toma

de decisiones.

Para Flores (2000) coordinador de Inteligencia Tecnológica del IMP,

maestro en ciencias, define inteligencia tecnológica como la investigación, en

cualquiera de los ámbitos en que se realice, en incursionar en procesos de

conocimiento que involucran los avances en la materia de que se trate en

todo el mundo. En otras palabras, saber qué se hace y cómo se hace.

Este ejercicio se realiza prácticamente desde que el hombre efectuó sus

primeros desarrollos tecnológicos y a dado pie a los avances con que hoy

contamos, la tecnología de punta que respalda tanto a instituciones como a

empresas que se desenvuelven dentro de los parámetros de la ciencia.

Sin embargo, efectuar esta revisión de los avances científicos y

tecnológicos dentro de los marcos legales, con las herramientas adecuadas,

tiene apenas una década de llevarse a cabo en el mundo. Hablar de ello es

referirse a la Inteligencia Tecnológica, estrategia que no solo reditúa

beneficios tecnológicos y científicos, sino también el las áreas comerciales de

la organizaciones que ya la tienen en práctica, y que a nivel mundial

reconoce a más de 6 mil 500 agremiadas en la Sociedad de Profesionales de

Inteligencia Competitiva (SCIP).

Los dos autores coinciden que la inteligencia tecnológica se base

primordialmente en el conocimiento de información, y la forma como se

interprete con fines prácticos para su utilización protegiendo en todo

momento la interpretación de cada individuo.


43

2.1.8.1. Elaboración de Estudios de Inteligencia Tecnológica.

Según PDVSA, citado por Salas (2001), los estudios de inteligencia

tecnológica tienen la finalidad de detectar oportunidades de negocios que

pueden ser evaluados como proyectos integrados de producción.

Durante la ejecución de los estudios de inteligencia tecnológica se

recopila, analiza e interpreta información sobre las capacidades y avances

técnicos externos que facilitan la toma de decisiones y mejora las

competencias técnicas propias.

Los estudios de inteligencia tecnológica permiten:

Proporcionar información sobre oportunidades de negocios apalancados

por tecnología.

Hacer seguimiento continuo, facilitar acceso y proporcionar información

útil sobre tecnologías que agreguen valor a la corporación.

Proporcionar información para la toma de decisiones en lo relativo a

oportunidades de negocios apoyados en la adopción de tecnologías.

Proporcionar estrategias para: cerrar brechas de competencias y

tecnológicas, estimular innovaciones.

2.2. Fusión Nuclear

Dies, Fontanet, Fontdecaba, Schaltter, definen la fusión nuclear como la

energía que se libera de la unión entre los átomos. Concretamente en la

fusión intervienen dos isótopos del hidrógeno: el tritio y el deuterio. Se


44

utilizan estos isótopos pues para que se produzca la fusión de los átomos -su

unión- es necesario que sus núcleos tengan la mínima fuerza de repulsión, y

esto se logra precisamente con los átomos más ligeros, los de hidrógeno,

que sólo tienen un protón en su núcleo. En la fisión se requiere todo lo

contrario, que los núcleos tengan la máxima repulsión posible, lo que

consigue con átomos con muchos protones.

Según Valdés, Rocha (1995) un átomo está compuesto por un núcleo ,

formado por neutrones (sin carga eléctrica y no siempre presentes) y

protones (con carga positiva). Además consta de una envoltura electrónica a

base de electrones, de carga eléctrica negativa. En la naturaleza todos los

átomos son eléctricamente neutros , teniendo igual número de protones que

de electrones.

Para que la reacción de fusión sea posible hay que vencer la mencionada

repulsión electrostática entre dos núcleos igualmente cargados. Es decir que,

al existir núcleos atómicos con igual carga y según el principio de que cargas

iguales se repelen, hay que aplicar una gran energía para conseguir la unión

de las mismas. Esto se logra gracias al calor, aplicando temperaturas de

millones de grados. El problema referido proviene de la dificultad de

encontrar un reactor que aguante esta temperatura.

Dicha temperatura se logra en el interior de una explosión de fisión, que

es el comienzo de toda bomba de fusión o bomba H. Con el calor se crea un

nuevo estado de la materia, el plasma, en el que se da un absoluto desorden

de iones y electrones. Una vez acabada la reacción de fusión nos


45

encontraremos con una esfera expandida con una temperatura de millones

de grados en la que vagan los productos de la fusión (litio e isótopos del

hidrógeno).

Tal es su velocidad que pueden fundirse unos con otros dando lugar a la

reacción de fusión. Esta reacción genera más energía que la anterior y libera

gran cantidad de partículas nucleares, pero no es una reacción en cadena,

ya que el propio calor que genera hace que las partículas se separen y se

expandan en forma de esfera de plasma con una temperatura que tan sólo

experimenta el universo de manera natural en muy raras ocasiones

(supernova).

Kendall (2005), profesor del Instituto Tecnológico de Massachussetts

define que un átomo está compuesto por un núcleo, formado por neutrones

con carga eléctrica positiva y neutrones sin carga eléctrica. A su vez,

rodeando al átomo hay la envoltura electrónica a base de electrones, de

carga eléctrica negativa.

Kendall define que para que se de la fusión hay que vencer las fuerzas

de repulsión electrostática entre dos núcleos igualmente cargados;

esto es, al existir núcleos atómicos con igual carga, y dado que cargas

iguales se repelen, hay que aplicar una gran energía para conseguir la unión

de las mismas.

Esto se logra aplicando temperaturas de millones de grados. El problema

viene de la dificultad de encontrar un reactor que aguante esa temperatura.

Con este calor se crea un nuevo estado de la materia, el plasma, en el que


46

iones y electrones se hallan en total desorden concordando por lo dicho por

Valdez y Rocha. Una vez acabada la reacción de fusión nos encontraremos

con una esfera expandida con una temperatura de millones de grados en la

que están los productos de la fusión (litio e isótopos del hidrógeno), donde

cada gramo de Hidrógeno produce del orden de 173.000 Kilovatios/hora.

Halffter (1995) menciona cuáles serian las posibilidades de que se

produzca la fusión en las condiciones habituales de temperatura y presión.

Aunque los núcleos normalmente se hallan alejados uno del otro y apartados

por la barrera de repulsión eléctrica, la mecánica cuántica permite penetrarla.

En otros términos, en el mundo microscópico las barreras no son insalvables

debido al principio de incertidumbre y a las propiedades ondulatorias de la

materia.

En una molécula diatómica de un gas a la temperatura ambiente, por

ejemplo, la distancia media entre los dos núcleos es del orden de 10-8 cm.

Sin embargo, la posición no se puede conocer con precisión absoluta, pues

entonces el ímpetu (y con él la velocidad) de los núcleos estaría totalmente

indeterminado. Por lo tanto, la probabilidad de que los dos núcleos se

encuentren en el mismo sitio y que choquen, no es nula desde un punto de

vista cuántico. Sin embargo, este proceso de fusión, que bien podríamos

catalogar como "fría", es muy poco probable.

Así, las estimaciones más optimistas predicen que para que ocurriera un

solo proceso de fusión en un litro de gas de hidrógeno a presión atmosférica


47

y temperatura ambiente (del orden de 20°C), habría que esperar un tiempo

¡mucho mayor que el transcurrido desde el origen del Universo !

Entonces, ¿qué hacer para acelerar el proceso? Conceptualmente, la

manera más simple de inducir la fusión es producir, por algún método,

núcleos con una energía cinética superior a la energía de repulsión eléctrica,

para que así se acerquen mucho unos a otros. Una posibilidad es utilizar

aceleradores de partículas, aparatos que con inmensos campos eléctricos y

magnéticos pueden lograr que las partículas alcancen altas velocidades. Con

estos aparatos se ha podido estudiar no sólo el proceso de fusión sino la

estructura interna misma de los núcleos. Sin embargo para producir energía

mediante la fusión nuclear; el uso de los aceleradores resulta inoperante,

pues para acelerar cada núcleo necesitamos invertir mucho más energía de

la que se obtiene de la fusión.

Se debe, pues, buscar otros caminos. Como ya se ha visto, la reacción de

fusión es más probable mientras menor sea la carga de los núcleos que se

unen, pues entonces la barrera repulsiva es más pequeña. En consecuencia,

se recurre al hidrógeno y entre los isótopos de éste al deuterio o al tritio,

cuyas fusiones son muy favorables energéticamente.

En la Tabla 2 se ve que Q es positiva, o sea que los productos finales de

las reacciones posibles de fusión emergen con energías mayores de las que

se impartieron a los núcleos iniciales. Además del valor Q para cada reacción

se da, en la tercera columna, de la tabla, la probabilidad relativa con la que


48

puede ocurrir cada uno de los procesos. Así, las reacciones entre deuterones

que producen ya sea 3He más neutrones o tritio más protones, se presentan

con la misma frecuencia, pero aquella reacción entre dos núcleos de deuterio

que produce 4He y rayos gamma es diez millones de veces menos probable

que las dos reacciones anteriores. Por otro lado, las que se han marcado en

la tercera columna como secundaria, también son poco probables, pues es

necesario que alguna otra reacción haya tenido lugar antes. En particular; las

que incluyen deuterio y tritio, obviamente requieren que este último ya se

haya generado.

Tabla 2. Fusion National Laboratory (CIEMAT)

Reacción Valor de Q en MeV Probabilidad relativa

d + d ??
3He + n 3.3 1

D + d?
? ? +p 4.0 1

d + d ? 4He + ? 23.9 10-7

d + r ? 4He + n 17.6 Secundaria

p + d ? 3He + ? 5.5 Secundaria

p + r ? 4He + ? 19.8 Secundaria

Fuente: Flores (1997)

El uso del deuterio presenta varias ventajas adicionales. La primera, que

en su abundancia como energético; pues puede extraerse del agua de mar

con tecnologías bien conocidas. El tritio, por su parte, es más escaso,


49

aunque es un subproducto de las reacciones de fusión. El riesgo radiológico

del tritio es pequeño si se le compara con el que implican los residuos de los

productos de la fisión; hoy empleada en los reactores nucleares.

Por un lado, la vida media del tritio es poco más de doce años, mucho

más corta que la de los productos de fisión que alca nza miles de años. Por

otro lado, el tritio al decaer emite un electrón con energías pequeñas,

comparables a las producidas en un televisor a color; por lo que su

penetración en el aire es apenas de unos cuantos centímetros. Sin embargo,

el principal riesgo asociado al tritio es que lo inhalamos, pues reemplaza al

hidrógeno del agua que hay en el organismo y causa irradiación interna.

Carlos Alejaldre, Director of the Magnetic Confinement Fusion (2003)

expone que la fusión nuclear es una fuente alterna de energía con grandes

posibilidades y muchas ventajas sobre otros métodos, incluida la discutida

fisión nuclear. Pero en la práctica las cosas no resultan tan simples. Fabricar

un reactor de fusión nuclear controlada ha sido el objetivo de muchos años

de investigación científica y tecnológica, y ha requerido de inversiones

astronómicas. Aun así, sigue siendo una gran ilusión, y aunque algunos

problemas se encuentran ya resueltos, aun quedan muchos otros por

resolver.

2.2.1 Fusión en Frío

Se basa en la electrolisis, con una barra de paladio rodeada de hilo de

platino, sumergida en agua pesada (rica en deuterio) Alonso (1995).


50

Con este sistema, aplicando una corriente eléctrica, el deuterio se separa

del oxígeno del agua y se acumula en la barra de paladio. Llegado un punto,

los núcleos del deuterio y del paladio se funden a temperatura ambiente,

provocando la reacción nuclear, que libera energía, detectada por la emisión

de neutrones. Fleischmann y Pons aseguraron haber obtenido, el equivalente

a 1 vatio de energía por centímetro cúbico de agua, lo que representaría 1

millón de veces más de lo que mostraron las emisiones de neutrones

medidas y unas 50 veces más de la energía utilizada.

Un solo litro de combustible satisfacería las necesidades energéticas de

todo un edificio durante varios años, o de una familia durante toda su vida.

Además, la energía de fusión fría, no sólo no contamina y es inagotable

(como la de fusión en caliente), sino que también es muchísimo más barata

de conseguir. Todas las naciones podrían tener sus plantas generadoras y

se podría llegar a pensar incluso en vehículos movidos por fusión nuclear,

equipos generadores portátiles, baterías atómicas inagotables, aeronaves y

buques que no necesitaran repostar, entre otros.

2.2.2 Fusión en Caliente

Tarrasa, Pino, Albajar del Departamento de Física e Ingeniería Nuclear

(1998) define la fusión nuclear en caliente como el procedimiento mas

investigado y consiste en la unión de los isótopos de hidrógeno (tritio y

deuterio) a través de altas temperaturas (cien millones de grados


51

centígrados). Este inmenso calor es necesario para vencer la fuerza de

repulsión electrostática de los isótopos (al tener la misma carga eléctrica),

excitándolos de tal forma que llegan a unirse, creando un nuevo estado de la

materia: el plasma.

En nuestro Sol las reacciones de fusión nuclear ocurren de manera

sostenida, sin que sea preciso inyectarle energía del exterior. Que éstas

sean reacciones auto sostenidas, se debe a que el gas en el Sol se

encuentra a muy altas presiones y temperaturas. Así, los núcleos en la

estrella chocan con mucha frecuencia y gran velocidad, lo que les permite

superar la barrera de repulsión eléctrica que los separa. Algo análogo ocurre

en la vecindad de objetos cósmicos, como los pulsares y los cuásares, donde

se producen campos electromagnéticos de gran intensidad.

En un gas a alta temperatura, la velocidad promedio de las moléculas es

grande. Por ejemplo, en el centro del Sol se tiene una temperatura de 20

millones de grados y la velocidad promedio de las moléculas es de 30 000

km/s, un décimo de la velocidad de la luz. Desde luego, hay algunas

moléculas que son más rápidas que otras. Al aumentar la presión y

comprimir al gas, acercamos más a las partículas, que ahora chocan con

mayor frecuencia.

Cuando el gas se halla a muy alta temperatura, los choques son muy

violentos y pueden disociar las moléculas en átomos, o aun desprender de

éstos a los electrones.


52

Se produce, pues, materia ionizada en forma de gas. Este es el estado en

que se encuentra el Sol, y se le conoce como plasma, el cuarto estado de la

materia.

Para vencer la repulsión eléctrica en un gas formado por una mezcla de

tritio y deuterio es necesaria una energía cinética mínima de alrededor de

100 000 eV. Ello implica una temperatura equivalente a mil millones de

grados. Como antes se dijo, la temperatura es proporcional a la energía

cinética promedio de las moléculas de un gas.

Sin embargo, siempre hay moléculas más rápidas que el promedio

correspondiente a una temperatura dada. Este hecho permite que a una

temperatura considerablemente menor que esos 109 K pueda haber una

actividad de fusión razonable y suficiente. Así, se ha encontrado que a unos

60 millones de grados la fusión nuclear puede auto sostenerse. El otro

parámetro importante para mantener la fusión nuclear sostenida es la

cercanía entre los núcleos, pues mientras más juntos se encuentren más

probable es que se unan.

Los físicos e ingenieros que intentan controlar el plasma usan el llamado

parámetro de confinamiento, que es igual al producto de la densidad del gas

por el tiempo que la densidad puede sostenerse. La condición mínima para la

reacción de fusión autosostenida es que el parámetro de confinamiento sea

mayor que 3 x 1014s/cm3 Si el valor es menor; se requiere inyectar energía

al plasma, lo que se logra calentándolo.


53

Si se agrega una energía E, se obtiene del plasma una energía qE,

donde q es un cierto factor de ganancia. Cuando q sobrepasa el valor

unidad, el reactor se comporta ya como un amplificador de energía.

Figura 6. El reactor Tokamak


Fuente: Grupo de Física del Plasma, Universidad Carlos III, Madrid (2002)

El problema tecnológico que plantea la fusión caliente es, pues,

formidable: se debe confinar un plasma muy caliente durante un cierto

tiempo. Debemos producirlo, calentarlo y todavía confinarlo. Para ello se

requieren máquinas enormes, como el Tokamak, que se muestra en la

figura 6 y que semeja una inmensa dona. En este aparato, el plasma se

confina por la acción de campos magnéticos muy intensos y se le calienta

por diversos medios, según su diseño para así mediante el cambio de

temperatura y por su confinamiento genera mediante un proceso altamente

tecnológico electricidad.

Hoy existen en el mundo sólo seis grandes proyectos destinados a

producir la fusión controlada. Cinco son del tipo Tokamak y, como se ve en la


54

Tabla 3, sólo los países más ricos son capaces de emprender acciones tan

ambiciosas. En México, como en otros países de menor poderío económico,

hay proyectos pequeños.

Tabla 3. Los grandes proyectos de la física de plasmas

Reactor Lugar País Inicio

TFTR Princeton EUA 1982

JET Oxford CEE 1983

JT-60 Tokio Japón 1986

MFTF Stanford EUA 1986

Fuente: Valdés / Rocha (2002)

El problema planteado por la fusión caliente es de gran magnitud. Sólo

tres reactores de prueba operan hoy y sus valores del parámetro de

confinamiento no están muy lejos de 3x 1014s/cm3, la condición que antes

mencionamos para que la reacción se sostenga por sí misma. También el

valor de q es cercano a uno, es decir; los reactores producen ya casi tanta

energía como la que consumen. Este valor de q, sin embargo, no es

suficiente para la operación comercial rentable, para la cual se requiere más

bien un valor cercano a 20. Ya se proyecta una nueva generación de

reactores, que podrán alcanzar esta meta en la primera o segunda décadas

del siglo XXI. Entre las técnicas del siglo XXI, alternas a los reactores

Tokamack, se halla la fusión inducida por láser. En ella, una mezcla de tritio y

deuterio se calienta al concentrar varios haces de luz láser sobre una


55

pelotita, de un milímetro de diámetro, que contiene el combustible. La luz

ultravioleta, que se obtiene después de pasar la radiación láser infrarroja a

través de un cristal perfecto que triplica la frecuencia de la luz incidente,

fuerza a los electrones a oscilar y éstos calienta n el plasma cuando chocan

con sus iones. Al recibir tanta energía, el plasma en la periferia de la pelotita

explota y, a causa de la tercera ley de Newton, ejerce una gran fuerza sobre

el plasma en el interior de la bolita. Ésta se comprime mucho en

consecuencia y las reacciones termonucleares pueden llevarse a cabo.

2.2.3 Tipos de Confinamientos

El objetivo final de la investigación en fusión controlada es lograr la

ignición, es decir mantener la combustión del plasma mediante el único

aporte de energía de la propia reacción de fusión. En un reactor de D-T la

energía del helio mantendrá la temperatura necesaria para que se sigan

produciendo reacciones de fusión. La condición de ignición se escribe como

Donde es la densidad de los iones, T su temperatura y ? E es el tiempo

de confinamiento de la energía.

Para alcanzar esta condición hay dos estrategias:

Confinamiento inercial Departamento de Física de la Comunidad

Europea (2005), define donde una diminuta cápsula de combustible se

comprime mediante láser o haces de iones pesados a unas densidades


56

extremas (más de mil veces la densidad de un líquido). Las reacciones de

fusión empiezan en su centro y se propagan hacia el exterior, donde el

combustible está más frío. En este método, el tiempo de confinamiento es

extremadamente corto, del orden del milisegundo.

Confinamiento magnético Departamento de Física de la Comunidad

Europea (2005) en el cual un plasma caliente se mantiene aislado de las

paredes del reactor mediante campos magnéticos logrando densidades del

orden de 1020 iones por m3 (105 veces inferior a la densidad de un gas en

condiciones normales), en consecuencia el tiempo de confinamiento

requerido es del orden del segundo. Este método es el más desarrollado y el

que presenta mayores posibilidades de llegar a producir energía eléctrica.

El confinamiento magnético se basa en que las partículas cargadas en

presencia de un campo siguen un movimiento helicoidal a lo largo de las

líneas de campo, evitando que el plasma oc upe todo el espacio disponible.

Existen dos tipos de configuraciones: las abiertas y las cerradas. En las

configuraciones abiertas las líneas de campo no se cierran sobre sí mismas y

el plasma está confinado en un espacio finito por espejos magnéticos.

Las configuraciones cerradas son de geometría toroidal, de forma que el

plasma esta confinado en un volumen finito aunque las líneas de campo no

tienen un límite. Para conseguir una configuración estable se necesita crear

unas líneas de campo que giren e n forma de hélice alrededor del eje del toro.

Dispositivos de confinamiento magnético:


57

2.2.3.1 Dispositivos tipo tokamak

El término tokamak proviene del acrónimo de toroidalnya kamera y

magnetnaya katushka que significa cámara toroidal y bobina magnética.

El primer tokamak se desarrollo en la URSS a principios de los años 50 a

partir concepto original de Andrei Sakharoz e Igor Tamm. Los éxitos

obtenidos con el experimento T-3 a comienzos de los años 70 fue el origen

de la expansión de los tokamaks en todo el mundo.

Actualmente existen varios grandes tokamaks en el mundo como el JET

de la UE, JT60 en Japón y TFTR de Estados Unidos (ya clausurado).

Como se puede ver en la figura 7, en un tokamak mediante unas bobinas

situadas a lo largo del toro (bobinas toroidales) se crea un campo magnético

en la dirección del toro, y por medio de una corriente Ip inducida en el

seno del plasma se genera un campo perpendicular al primero (dirección

poloidal).

Esta corriente se induce por las bobinas poloidales que actúan de circuito

primario de un transformador mientras que el propio plasma es el circuito

secundario.

Las líneas de campo magnético resultantes son la combinación de estos

dos campos (poloidal y toroidal) y tienen una forma helicoidal a lo largo del

toro, de forma que las partículas pasan alternativamente por zonas exteriores

e interiores del toro.


58

Figura 7. Esquema del funcionamiento de un tokamak.


Fuente: DG-XII de la Unión Europea (2005)

¿Como lograr construir en la Tierra aparatos que semejan pequeños soles,

donde la fusión nuclear se auto sostiene?, Debemos, entre otras muchas

cosas, conseguir que en una región limitada del espacio un buen número de

iones de deuterio choquen entre sí con la energía suficiente para que se

fusionen. En el lenguaje de los plasmas, lo que deseamos es confinar un gas

ionizado a muy alta temperatura. Esto se obtiene con campos magnéticos.

Para entender por qué se ha diseñado el Tokamak de modo que semeje

una inmensa dona, se debe recordar algunos conceptos básicos del

movimiento de cargas dentro de campos magnéticos. He aquí algunos: si el

campo magnético es muy grande, la dirección de la velocidad de la carga

puede cambiar, pero su magnitud no; en otras palabras, la energía cinética

de la partícula se conserva. Si el campo magnético es constante y uniforme,


59

las partículas se mueven a lo largo de una curva helicoidal cuyo eje está en

la dirección del campo. Mientras más intenso sea, las partículas giran más

rápidamente en órbitas de menor radio.

Variando el campo magnético en posición perpendicular a el, para que las

líneas de campo se enrollen en círculos, cuyo radio sea muy grande en

comparación con las órbitas citadas anteriormente. La partícula cargada

recorre ahora una hélice que se curva con el campo magnético, como si

fuera un estambre enhebrado alrededor de las líneas del campo. Desde

luego, mientras mayor sea la velocidad de las partículas, es decir; mientras

más caliente esté el plasma, los campos magnéticos habrán de ser mayores

para guiar a los iones. En el Tokamak se acomodan una serie de

electroimanes anulares para formar una dona hueca, como se ve en la

figura 8.

Figura 8. Los electroimanes del Tokamack forman una dona hueca para
confinar el plasma de alta temperatura.
Fuente: DG-XII de la Unión Europea (2005)
60

En el interior de la dona se genera el plasma, cuyas partículas se ven

forzadas a viajar en trayectorias helicoidales a lo largo de las líneas del

campo magnético toroidal que han generado los electroimanes.

Desgraciadamente, las partículas del plasma son muy caprichosas y tienden

a escaparse del campo magnético, produciendo lenguas de plasma que

evitan el confinamiento y producen inestabilidad. El mayor esfuerzo técnico y

científico reside, en este momento, en evitar las inestabilidades del plasma.

Schaltter (2004) menciona que para confinar plasmas muy calientes,

resulta necesario que los campos magnéticos sean muy intensos. Las

bobinas que los producen han de ser por tanto muy potentes. Las mejores

que se conocen están construi das de material superconductor; cuya

resistencia eléctrica se reduce enormemente si se le enfría a temperaturas

muy bajas, del orden de -250 grados centígrados. Los campos magnéticos

producidos por estos imanes superconductores son enormes, 100 000 veces

más intensos que el campo magnético terrestre. Sin embargo, mantener frías

estas bobinas agrega un problema técnico más: para evitar que dejen de ser

superconductoras, las bobinas están hechas de alambres huecos por cuyo

interior se hace circular helio líquido en grandes cantidades. ¡Un dolor de

cabeza más!

En los reactores Tokamak, el campo magnético se varía lentamente en el

tiempo, subiendo y bajando de manera cíclica. Esto induce una corriente en

el plasma, que así se calienta por efecto Joule, como el que actúa en una

plancha eléctrica.
61

El plasma se comporta entonces como el secundario de un transformador

de corriente directa y todo depende de esta corriente en el plasma.

Ya que el campo magnético no puede ser elevado indefinidamente, la

actividad nuclear se debe interrumpir cuando el campo

magnético baja para reiniciar el ciclo, disminuyendo así la eficiencia del

reactor de fusión.

Para evitar esas interrupciones de las reacciones nucleares, y con ellas la

pérdida en eficiencia del reactor; hoy se busca producir la corriente en el

plasma por medio de un haz rasante de ondas de radiofrecuencia.

En este método, el ímpetu de los fotones del haz se transmite a las

partículas del plasma, forzando la corriente necesaria.

El vaivén del campo magnético produce grandes tensiones sobre los

alambres del embobinado. Éstas, que pueden llegar a ser de varias

toneladas por centímetro cuadrado en campos magnéticos grandes y

variables, producen fatiga mecánica en los materiales. El problema de

resistencia de materiales que así se presenta no ha sido aún resuelto.

También el diseño de la cámara que ha de contener el plasma presenta

serios retos tecnológicos. La cámara debe mantenerse al vacío, para evitar la

contaminación con aire, pues éste enfría el proceso. Además, la camisa que

rodea la cámara debe soportar grandes temperaturas, sirviendo de

aislamiento térmico entre plasma e imanes pues , como hemos dicho, estos

últimos deben mantenerse muy fríos. Estas camisas han de recuperar la

enorme energía proveniente del gran flujo de neutrones producidos en la


62

fusión. Deben servir; también, para intercambiar el calor producido en el

plasma con un fluido que acarrea la energía térmica para utilizarla, por

ejemplo, en mover una turbina y producir energía eléctrica.

Por todo ello, el volumen interior de un reactor comercial necesita ocupar

varios miles de metros cúbicos.

Las paredes internas de la cámara del plasma se encuentran además

sujetas a la fuerte irradiación de partículas cargadas que escapan al

confinamiento. No obstante, el principal daño por radiación se debe al flujo

de neutrones, que es enorme, cercano a 1013 neutrones/cm²·s. Por ello, al

cabo de un año todos los átomos de la camisa han sido golpeados y

desplazados de la red cristalina del sólido que la forma. En consecuencia, se

debe cambiar la camisa cada dos o tres años.

Como en los reactores de fisión, en los de fusión también existen

problemas de seguridad radiológica. El de los desechos radiactivos es casi

despreciable, si se compara con el de los reactores de fisión. El problema

reside, más bien, en el gran volumen de tritio que se maneja en los reactores

de fusión, que alcanza casi un kilogramo, lo que produce 1017

desintegraciones nucleares cada segundo. En efecto, como combustible del

reactor de fusión se inyectan cristales fríos de deuterio y tritio a gran

velocidad para que lleguen al interior del plasma.

El proceso no es cien por ciento eficiente y el combustible debe ser

recuperado bombeándolo por medio de lo sistemas de vacío. El gran flujo de

neutrones hace necesario el uso de múltiples sistemas de blindaje. Como ya


63

dijimos, la camisa debe desmantelarse cada dos o tres años. El reactor

mismo, al acabar su vida útil, que será tal vez de dos o tres decenios,

también debe deshacerse. Todos los elementos que lo formaron podrían

quedar radiactivos, con vidas medias tan largas como años, pues han sido

activados por neutrones. A pesar de todo lo anterior; el problema de los

desechos radiactivos es mucho menor que en los reactores de fisión

actuales.

Como se puede ver de esta breve descripción de un reactor caliente de

fusión nuclear; los retos tecnológicos son gigantescos. No asombra,

entonces, que en cuarenta años de investigación se hayan invertido más de

cinco mil millones de dólares para conseguir un reactor de fusión nuclear

eficiente y que este proceso de diseño aún no toque fin. Aunque esta línea

de trabajo es la más avanzada y la más prometedora, debido a los altos

costos y a la complejidad tecnológica se han explorado otros caminos para

producir la fusión nuclear. De todos, la fusión fría es la vía más socorrida.

2.2.3.2 Dispositivos Tipo Stellarator

Departamento de Física de la Comunidad Europea (2005) define que los

stellarators son también dispositivos toroidales, pero a diferencia de los

tokamaks el campo magnético poloidal no se genera a partir de la corriente

del plasma sino únicamente por bobinas exteriores. La primera máquina de

confinamiento magnético se basó en este concepto, pero debido a la

complejidad de su diseño no consiguieron grandes resultados y fue

abandonada debido a los buenos resultados obtenidos en los primeros

tokamaks.
64

El hecho que no se consiguieran grandes avances con este tipo de

dispositivos era debido a que en éstos las tolerancias de construcción son

muy pequeñas. Una mínima desviación de construcción puede hacer que el

plasma no se confine, ya que todos los campos magnéticos son creados por

bobinas exteriores cuya geometría puede ser muy compleja. En un tokamak

las tolerancias no son tan estrictas porque su diseño es más sencillo y

porque además el campo poloidal lo crea el propio plasma.

La principal ventaja de este tipo de dispositivos es su funcionamiento en

continuo pues no hay ninguna corriente inductiva, esta característica hace

que este concepto sea muy atractivo en vistas a la construcción de una

central comercial. Otra ventaja de este concepto es que al carecer de

corriente interna en el plasma evita el riesgo de disrupciones. A pesar que el

desarrollo de estos dispositivos tiene un retraso respecto a los tokamaks, los

actuales stellarators están dando resultados comparables a los obtenidos en

tokamaks similares.

2.3. Proyecto ITER

El proyecto ITER quiere decir (Internacional Tokamak

Experimental Reactor) es un experimento que representa la ultima

fase experimental de la construcción del primer reactor de fusión con fines

comerciales.

Proceso el cual se explica a continuación basado en los diagramas

aportados por el centro DG-XII de la Unión Europea (2006):


65

1. Se toman dos elementos de núcleos ligeros.

Figura 9. Proceso de Fusión Nuclear


Fuente: Departamento de Física de la Comunidad Europea (2005)

2. Se calientan a una temperatura de cien millones de grados con el fin de

que los núcleos cargados positivamente se acerquen lo suficiente para

unirse.

Figura 10. Proceso de Fusión Nuclear


Fuente: Departamento de Física de la Comunidad Europea (2005)

3. En esta etapa el gas se encuentra en estado de plasma, los iones y los

electrones forman un fluido microscópicamente neutro que no pueden

estar en contacto con los elementos materiales.


66

Figura 11. Proceso de Fusión Nuclear


Fuente: Departamento de Física de la Comunidad Europea (2005)

4. La energía calorífica que se desprenden de las reacciones se utilizará

para crear calor de agua.

Figura 12. Proceso de Fusión Nuclear


Fuente: Departamento de Física de la Comunidad Europea (2005)

5. El reactor Tokamak es un diseño de confinamiento de plasma, en este

punto, el plasma se calienta y se mantiene confinado en una cámara de

vació con forma toroidal. Para aislar el plasma se aísla mediante campos

magnéticos mediante componentes internos descritos a continuación.


67

Componentes:

a. El solenoide central es el superconductor el cual induce la corriente

eléctrica en el plasma. Se encuentra dentro de el la bobina que tiene un

peso de 840Tn y mide 12m de alto y 4 m de diámetro.

Figura 13. Reactor Tokamak Componentes del ITER Selenoide Central


Fuente: Departamento de Física de la Comunidad Europea (2005)

El celonoide central esta conformado a su vez por:

I. Criostato: cuya función es de mantener los imanes aislados

térmicamente y sirve de segunda barrera de confinamiento después

de la vasija de vació. Sus paredes son de acero inoxidable de 50mm

de grosor.

Figura 14. Reactor Tokamak Componentes del ITER Selenoide Central


Fuente: Departamento de Física de la Comunidad Europea (2005)
68

II. Vasija de Vació: su función es de absorber la energía el flujo del

plasma a niveles tolerables para los imanes y el equipo circulante.

Este permite una alta calidad de vacío, desviando el helio y las

impurezas provenientes de fusión. De igual forma sirve de defensa de

primera línea de perdida de refrigerantes y materiales radiactivos.

Figura 15. Reactor Tokamak Componentes del ITER Selenoide Central


Fuente: Departamento de Física de la Comunidad Europea (2005)

III. El Divertor concentra la interacción de las partículas cargadas con los

materiales que rodean el plasma, su principal función es soportar el

gran flujo de energía de estas partículas y eliminar el helio resultante

de las reacciones de fusión y otras impurezas.

Figura 16. Reactor Tokamak Componentes del ITER, Selenoide Central


Fuente: Departamento de Física de la Comunidad Europea (2005)
69

b. Alrededor del Selenoide Central se encuentran 18 bobina

superconductoras del campo toroidal, se encargan de confinar y

estabilizar el plasma, cada una de ellas pesa 290Tn, miden 14m de alto

y 9m de ancho.

Figura 17. Reactor Tokamak Componentes del ITER, Bobina Toroidal


Fuente: Departamento de Física de la Comunidad Europea (2005)

c. Dentro de la bobina toroidal se encuentra la cámara de vació donde se

mantiene en vacío el plasma y es la primera barrera de confinamiento

para el tritio y materiales activados que se encuentran en su interior

Figura 18. Reactor Tokamak Componentes del ITER, Cámara de Vacío


Fuente: Departamento de Física de la Comunidad Europea (2005)
70

Campos Magnéticos:

a. El Campo coloidal es producido por una corriente eléctrica que fluye en

el interior del plasma inducido principalmente por el selenoide central.

Figura 19. Reactor Tokamak Componentes del ITER, Campos Magnéticos


Fuente: Departamento de Física de la Comunidad Europea (2005)

b. El Campo Toroidal los conforman las bobinas equidistantes que se

encuentran alrededor del toroide

Figura 20. Reactor Tokamak Componentes del ITER, Campos Magnéticos


Fuente: Departamento de Física de la Comunidad Europea (2005)
71

c. El Campo Helicoidal es el campo resultante de la suma de los campos

Coloidal y Toroidal.

Figura 21. Reactor Tokamak Componentes del ITER, Campos Magnéticos


Fuente: Departamento de Física de la Comunidad Europea (2005)

6. Para el funcionamiento del reactor Tokamak se debe cumplir las

siguientes condiciones:

a. La temperatura se debe producir a ritmo suficiente a más de cien

millones de Grados Centígrados y debe confinarse con el fin de que la

temperatura se mantenga.

b. El confinamiento magnético debe ser eficiente con el fin de evitar

enfriamientos. Este tipo de confinamiento de plasma mediante

confinamiento magnético se mide mediante el tiempo de

confinamiento de la energía.

c. La densidad de los iones del combustible debe ser lo suficientemente

elevada para que las reacciones de fusión se produzcan al ritmo

requerido. La potencia se ve reducida si el combustible

está contaminado por impurezas liberadas por el material


72

circulante o por acumulaciones de “cenizas” de helio. Es por esto

que se deben remplazar los iones por otros nuevos y

extraer las cenizas del helio.

El proyecto piloto ITER con base en Francia, se basa especialmente en

la obtención del deuterio y triíto pasando por todas la etapas

explicadas anteriormente del confinamiento magnético del

Tokamak para lograr de esta forma una fuente confiable de

energía limpia.

2.4. Patentes

Considerando la definición indicada por la Organización Mundial de la

Propiedad intelectual (OMPI), una patente es “Un derecho Exclusivo

concedido a una invención, que es el producto o proceso que ofrece una

nueva manera de hacer algo, o una nueva solución técnica a un problema”.

Según la OMPI la protección de una patente significa que la invención no

puede ser confeccionada, utilizada, distribuida o vendida comercialmente sin

el consentimiento del titular de la patente. Los derechos de patentes

generalmente son definidos en los tribunales que, en la mayoría de los

sistemas, tiene la potestad de sancionar las infracciones a las patentes. La

función primordial de la patente es proteger las invenciones. Para poder

realizarla, han de ser publicadas y estar disponibles al público. Sin embargo,

las patentes, no solo contienen soluciones a los problemas técnicos si no que

también son una fuente inestimables de información tecnológica.


73

De hecho, más del 80% del conocimiento técnico del mundo se

encuentran contenido en las patentes. Para otorgar una patente, en primer

lugar se debe presentar una solicitud la cual contiene por lo general, el titulo

de la invención, así como una indicación sobre su ámbito técnico; a subes

como los antecedentes y una descripción de la invención, en un lenguaje

claro y con los detalles suficiente para que una persona con un conocimiento

medio del ámbito en cuestión pueda utilizar o reproducir la invención. La

Solicitud contiene así mismo varias “Reindivicaciones” es decir, información

que determina el alcance de protección que concede la patente.

Posteriormente al análisis para determinar si la solicitud de la patente es

realmente innovadora, es útil y si cumple con los requisitos legales

establecidos para el otorgamiento de la propiedad, en caso de ser positivo, el

inventor obtiene un número y fecha de asignaciones de la patente, es decir,

la patente es concedida.

3. Definición de Términos Básicos

Muones: Moore (1990) Los define como partículas elemental de la familia

del electrón. Estos no aparecen como constituyentes de la materia como los

electrones, pues son partículas inestables que tienen un tiempo de vida muy

corto, y por lo tanto decaen poco después de haberse formado.

El muon aparece al decaer otra partícula subnuclear llamada pion o

mesón, se encuentran de manera natural en los rayos cósmicos secundarios

sobre todo a nivel del mar, pues interactúan muy poco con la materia, y
74

pueden atravesar toda la atmósfera sin perderse. También pueden crearse

artificialmente haciendo chocar un haz de iones energéticos con un material

cualquiera.

Pion: es la partícula que transmite las fuerzas nucleares de un nucleón a

otro, en forma semejante a como los fotones transmiten las fuerzas

electromagnéticas. Como partícula libre decae rápidamente, dando lugar a

un muon Departamento de Física de la Comunidad Europea (2005).

Innovación Tecnológica: Escobar (2000) define el proceso de

Innovación Tecnológica como el conjunto de actividades científicas,

tecno lógicas, financieras y comerciales que permiten:

Introducir nuevos o mejorados productos en el mercado nacional o

extranjero (ejemplos: medicamentos, equipos, dispositivos médicos,

diagnosticadores; y de productores: LABEX, IMEFA, CIDEM, CQF, etc.).

Introducir nuevos o mejorados servicios (ejemplos: nuevos servicios

quirúrgicos, preventivos, de atención estomatológica, PPU).

Implantar nuevos o mejorados procesos productivos o procedimientos

(ejemplos: medicoquirúrgicos, docente -educativos, informativos y de

automatización).

Introducir y validar nuevas o mejoradas técnicas de gerencia y sistemas

organizacionales con los que se presta atención sanitaria y que se aplican en

nuestras fábricas y empresas.

Por tanto, la innovación tecnológica es la que comprende los nuevos

productos y procesos y los cambios significativos, desde el punto de vista


75

tecnológico, en productos y procesos. Se entiende que se ha aplicado una

innovación cuando se ha puesto en el mercado (innovación de productos) o

se ha utilizado en un proceso de producción (innovación de procesos).

Fusión: La fusión nuclear se basa en la energía que se libera de la unión

entre los átomos. Concretamente en la fusión intervienen dos isótopos del

hidrógeno: el tritio y el deuterio. Se utilizan estos isótopos pues para que se

produzca la fusión de los átomos -su unión- es necesario que sus núcleos

tengan la mínima fuerza de repulsión, y esto se logra precisamente con los

átomos más ligeros, los de hidrógeno, que sólo tienen un protón en su

núcleo. En la fisión se requiere todo lo contrario, que los núcleos tengan la

máxima repulsión posible, lo que consigue con átomos con muchos protones

Nichos de Mercado: el Diccionario de Marketing, 1999 (p.230), define

nicho de mercado como la fracción de un segmento de mercado que puede

ser usado como el público objetivo para la promoción de un producto

determinado.

Por su parte, Ostertag (2000) sostiene que el mercado no solo se puede

dividir en segmentos, sino también en nichos y en última instancia en

individuos.

En la medida en que una empresa vendedora subdivide un mercado al

identificar características más singulares, los segmentos tienden a

convertirse en un conjunto de nichos. Los clientes que constituyen el nicho

tienen un conjunto de necesidades, en alguna medida, singular y complejo;

están dispuestos a pagar una prima a aquella empresa que mejor satisfaga
76

sus necesidades, si pretende obtener el éxito, el mercadeó logo

especializado en nichos tendrá que especializa r sus operaciones; y para

otros competidores no resulta fácil atacar al líder del nicho”

Proyecto: se define como un conjunto ordenado de acciones que tienden

a la realización de un determinado fin. Por consiguiente un proyecto lleva

consigo un inicio y un fin que se alcanza cuando todas las actividades que lo

constituyen han sido completadas. (Cartay. 1995). En el presente trabajo de

investigación se trabaja con un proyecto de tipo tecnológico.

4. Definición Conceptual y Operacional de las Categorías

En la presente investigación las categorías de análisis del estudio fueron

cuatro (04), Tendencias Tecnológicas, Madurez Tecnológica, Oportunidad de

Negocio y Formulación del Portafolio.

La conceptualización de las categorías se refiere a cómo desea el

investigador que se interprete las categorías que investiga; y la

operacionalización de las mismas.

Se define directamente como se medirán las variables en términos de las

subcategorías y elementos de análisis que la conforman.

4.1. Categoría: Tendencias Tecnológicas

Definición conceptual: esta categoría se define como los “estados

probables en la evolución de una tecnología a lo largo del tiempo” (Alfonzo y

otros, 2002).
77

Definición operacional: esta categoría se concibe como la

orientación de la tecnología respecto al campo de conocimiento al que se

direccionan sus aplicaciones, uso de los trabajos patentados y el grado de

madurez y dominio tecnológico, todo esto fundamentado en trabajos

patentados e investigaciones.

4.2. Categoría: Oportunidades de Negocios

Definición conceptual: esta categoría se define como la

“conveniencia en tiempo y en lugar para ejecutar una actividad que

posee como fin obtener una ganancia, lucro, interés o utilidad”

(Torres, 1993, p.99).

Definición operacional: son las diferentes alternativas que se

abren en el mercado sobre la base de las tendencias tecnológicas en el

área de la fusión nuclear y sus aplicaciones, las cuales se orientan a

nuevos nichos de mercado, brechas tecnológicas, avances, y desarrollos

específicos con el objeto de satisfacer necesidades desde un punto

de vista gerencial y operacional con el fin de obtener beneficios

económicos.

4.3. Categoría: Madurez Tecnológica.

Se define como madurez tecnológica al grado de dominio y desarrollo que

se encuentra el área de estudio.


78

4.4. Categoría: Portafolio de Oportunidades.

El Portafolio de Oportunidades es componente esencial de la

planificación estratégica. La planificación estratégica dirige la continua

viabilidad de la estrategia para mantener la empresa competitiva y

sobreviviendo en el mercado, asimismo, sondea las necesidades de cambio.

Dentro de este contexto, el portafolio de oportunidades juega un papel

importante ya que de allí se toman las oportunidades tecnológicas que

formarán parte del plan de negocios tecnológico de la empresa, del cual

dependerá la competitividad y sobrevivencia futura de la empresa y por ende

la creación de valor.

Las categorías, subcategorías y elementos de análisis, se presentan a

continuación en la Tabla 4.

Tabla 4. Categorías y Subcategorías de Análisis .

Categorías Subcategorías Elementos de análisis


Fecha de Publicación de la
patente
Tendencias
Innovación Utilidad y Campo de aplicación
Tecnológicas
Tecnológica de las Patentes
Campo de Conocimiento a la
que se asocia la Patente
Embrionaria
Madurez Nivel de Madurez
Comercial
Tecnológica de la Tecnológica
Madura
Incipiente
Nivel de Dominio
Masivo
de la Tecnología
Dominio
79

Cont. Tabla 4

Categorías Subcategorías Elementos de análisis


Importancia
Urgencia
Análisis de impacto
Riesgo
Creación de valor
Baja
Baja media
Análisis de Brechas
Media
Media alta
Alta
Oportunidades Madurez
de Negocio Madurez Tecnológica
Tecnológicas de las
Oportunidades de
Penetración del Mercado
Negocio

Ejecutar Proyecto Tecnológico


Invertir en Investigación y
Posicionamiento Desarrollo
Tecnológico Transferir/Masificar
Materializar Alianzas
Tecnológicas
Formulación Elaboración del
del Portafolio Portafolio Se logra con los anteriores
Fuente: Gutiérrez (2007)

También podría gustarte