CAPITULO II MARCO TEORICO 1. Antecedentes de la

Anuncio
CAPITULO II
MARCO TEORICO
1.
Antecedentes de la Investigación
Durante seis meses de revisión bibliográfica de fuentes nacionales e
internacionales no se encontró evidencia alguna sobre estudios en
Venezuela que muestren relación directa entre las tendencias tecnológicas
en el área de la Fusión Nuclear como fuente alterna de energía. Esto quizás
se deba principalmente, a que la Fusión Nuclear es una ciencia emergente a
nivel mundial y recientemente ha comenzado a ser conocida en el país.
En el ámbito internacional, la literatura existente, relacionadas con las
fuentes de energía y la Fusión Nuclear, es muy amplia, por tanto, se
seleccionaron solamente aquellos trabajos de investigación en los cuales se
analizan las categorías objeto de este estudio, permitiendo así hacer aportes
a la investigación realizada desde el punto de vista teórico y metodológico.
En Alemania investigaciones realizadas por el gran físico Hermann von
Helmholtz, en 1854, expresaban que la propia gravedad del Sol suministraría
una apreciable cantidad de energía. Este investigador se preguntó, ¿Qué
suministra la propia energía del Sol? ¿Cuanto brillará hasta acabársele el
combustible? ¿Desde cuando nos ha estado enviando su energía?, y
15
16
concluyó que si el Sol se estuviera contrayendo gradualmente, si toda su
materia estuviera cayendo gradualmente hacia su centro, se estaría
emitiendo suficiente energía para mantener su radiación durante mucho
tiempo. Calculó que esta fuente proveería energía al Sol durante más de 20
millones de años basados en elementos pesados tales como el hidrogeno.
Posteriormente se descubrió la radiación; la descomposición de los
elementos pesados en otros más ligeros con emisión de partículas rápidas,
portadoras de una gran cantidad de energía. Es esta energía, cuando se
despide de los elementos radiactivos de las rocas, la que proporciona el calor
interno de la Tierra.
La radioactividad también permite hacer nuevas estimaciones de la edad
de la Tierra, por cuanto la cantidad de productos acumulados residuales en
los minerales indican la duración del proceso. Esto sugiere que la edad de la
Tierra es mucho mayor de la estimada Helmholtz, quizás miles de millones
de años. ¿Quizás el mismo tipo de fuente puede también suministrar las
necesidades del Sol para tanto tiempo?
Otra investigación realizada en 1947 por los físicos rusos Sakharov y
Frank propuso la posibilidad de obtener la fusión fría, la cual es llamada
fusión catalizada por muones. La cual caracteriza la distancia promedio entre
núcleos que disminuye si la masa de la carga intermediaria es mayor. En las
moléculas normales la carga intermediaria es un electrón.
Por tanto, los investigadores propusieron una manera de acelerar el
proceso de fusión fría el cual consiste en sustituir uno de los electrones de la
17
molécula de deuterio por un muon negativo. Esta partícula, aunque posee la
misma carga que el electrón y tiene muchas propiedades idénticas al mismo,
es doscientas veces más masiva.
De esta forma concluyeron que los núcleos ligados por muones se
acercan mucho y la probabilidad de fusionarse aumenta considerablemente.
Así, el tiempo de espera para la ocurrencia de una fusión en una muestra de
1 cm³ de agua pesada a cuyas moléculas se les hubiera cambiado un
electrón por un muon, es en este caso pequeñísimo, tan sólo 10-31
segundos. Su problema, sin embargo, consistió en obtener al mismo tiempo
los 1022 muones necesarios. Por ello, estas conclusiones de Sakharov y
Frank permanecieron marginadas durante una década hasta que, en 1956, el
físico norteamericano Luís Álvarez descubrió accidentalmente la fusión en
frío inducida por muones en una cámara llena de hidrógeno y deuterio
líquidos.
Álvarez años después relató que había descubierto la solución ideal al
problema energético mundial. Sin embargo, al poco tiempo se convenció de
lo insignificante de la energía que se obtiene en este proceso debido a la
reducida vida media de los muones y al escaso flujo de muones cósmicos.
En Italia en 1983, los físicos Fleischmann y Pons, expusieron que los
núcleos pueden acelerarse de manera natural hasta alcanzar las energías
necesarias para lograr la fusión. Ellos aseguraron haber logrado la fusión fría
mediante un sencillo ingenio y a través de la electrolisis, con una barra de
paladio rodeada de hilo de platino, sumergida en agua pesada (rica en
18
deuterio). Concluyeron haber obtenido el equivalente a un vatio de energía
por centímetro cúbico de agua, lo que representaría un millón de veces más
de lo que mostraron las emisiones de neutrones medidas y unas 50 veces
más de la energía utilizada.
Sin embargo, la comunidad científica no creyó tales resultados, intentando
por todos los medios reproducir el experimento sin éxito. Es más, si esos
datos fuesen correctos, los neutrones liberados habrían matado a todo el
equipo científico que estuviera presente en el experimento.
A pesar de que el experimento se ha vuelto a repetir sin obtenerse el
mismo resultado, los dos científicos intentaron publicar el experimento en la
revista Nature, pero no lo lograron al no responder a las lógicas preguntas de
los equipos científicos de la publicación.
Pese a la afirmación de que la fusión fría no era posible, el Profesor
italiano
Scaramuzzi,
posteriormente,
cambió
algunos
elementos
de l
experimento y, si bien no logró la energía "obtenida" por Fleischmann y Pons,
pudo demostrar que la fusión en fría es posible. Su experimento eliminó la
electrolisis y sustituyó el paladio por un ovillo de titanio, sumergiendo el
titanio en deuterio gaseoso, y logrando un equilibrio entre la presión del gas y
la temperatura, se consiguió la fusión. Scaramuzzi midió 491 unidades de
neutrones emitidas cuando sólo esperaba contabilizar 30.
En otro orden de ideas se hace referencia a la investigación realizada por
Morales (2004) titulado Portafolio de Oportunidad de Negocios de Diodos de
Emisores de luz. Su objetivo general fue proponer un portafolio de
19
oportunidades de negocios en el área de los Diodos de Emisiones de Luz
para el área petrolera, coincide con la presente investigación pues incorpora
procesos de investigación tecnológicas basados en estudios bibliométricos,
con sustentación teórica en la incorporación de nuevas tecnologías para la
industria petrolera nacional.
El tipo y diseño de la investigación se definió considerando los criterios
establecidos por: Bravo (1985), Chávez ( 2001), Hernández, Fernández y
Batista (2003), Bisquerra (1989), como documental, descriptiva, no
experimental, bibliométrica y transeccional – descriptiva.
La población de estudios estuvo conformada por las patentes,
publicaciones e investigaciones en el área de los Diodos Emisores de Luz
(LED’s) para un total de 191 extraídas de un universo de 2359 documentos
en el periodo de tiempo del 2000 hasta el 30 de Abril del 2003.
Se empleó como técnica la recolección de datos el análisis documental y
como instrumento la matriz de análisis. Para la base de datos de las patentes
se utilizó la página Web de la Oficina de Patente y Marcas Registradas de
España, así mismo la pagina Web de la revista científica Technologyreview,
donde se encuentran publicaciones relacionadas con la tecnología del led´s.
Se considera valida la matriz de análisis por presentar los datos tal cual
fueron publicados, luego la autora los asocio a diferentes campos de
aplicación según su contenido a fin de determinar posteriormente las
tendencias tecnológicas.
20
Las patentes se clasificaron de acuerdo al campo de aplicación,
seleccionándose los
campos de electrónica, iluminación y óptica con los
campos de estudios. Según su madurez y dominio la tecnología de los led´s
fue considerada por Morales (2004) en su etapa Embrionaria e Incipiente. En
el campo de electrónica se detectaron cuatro nichos de oportunidades,
treinta oportunidades de negocio; en el campo de la iluminación cuatro
nichos de oportunidades y diecinueve oportunidades de negocio y en el
campo de la óptica, seis nichos de oportunidades y veintinueve
oportunidades de negocios.
Como resultado de su investigación Morales (2004) formula un portafolio
tecnológico basado en la tecnología de led´s para la industria petrolera
nacional cumpliendo con el objetivo general de su investigación.
El aporte de este antecedente a esta investigación es de tipo
metodológico, en cuanto a los métodos de análisis y recolección de datos e
incorporación de nuevas tecnologías a las industrias.
Por otra parte en el estudio realizado por Fontanet (2001) en su tesis
Simulación de plasma de dispositivos de fusión por confinamiento magnético
tipo tokamak, define como base esencial que en el estudio de la fusión por
confinamiento magnético es crucial conocer con detalle las condiciones
físicas del plasma confinado. En este sentido a lo largo de su tesis se estudio
las propiedades del plasma de tokamaks y stellarators contribuyendo al
desarrollo del código de transporte PRETOR, creado en el JET.
21
El código presentado por Fontanet permite simular la variación radial y la
evolución temporal de las principales magnitudes físicas de un plasma de
fusión, para valorar la bondad de los modelos implementados en el código y
determinar la corrección de sus resultados, se toman estos de la simulación
de las magnitudes más relevantes de diversas descargas y se comparan con
los datos experimentales. De esta comparación se dedujo que las
magnitudes
simuladas
presentan
un
buen
acuerdo
con
los
datos
experimentales aunque debe destacarse que los errores experimentales son
bastante grandes y no siempre están disponibles.
De igual forma en esta tesis se observó la aplicación del código PRETOR
para el estudio de la parada de emergencia de ITER-DDR, con 1500 MW de
potencia de fusión funcionando en un estado estacionario en ignición,
estudiando con detalle la evolución del plasma durante una parada
implementada mediante la interrupción del suministro de combustible.
En los últimos años la investigación de stellarators ha adquirido una
creciente importancia debido a las ventajas que presentan este tipo de
dispositivos. Además hay que destacar que el programa de fusión por
confinamiento magnético español se centra en el Heliac Flexible TJ-II de la
asociación EURATOM -CIEMAT. Por estos motivos y para disponer de un
código que sea capaz de simular descargas de stellarators.
En este sentido se observa en este trabajo de grado la inversión en
tecnología y desarrollo de mecanismos que serán usados en el proceso de
fusión, contribuyendo en los estudios del plasma y su mecanismo de
22
confinamiento, para adaptarlos a las nuevas tendencias y mecanismos que
vayan surgiendo.
En otro orden de ideas la tesis de Fontdecaba (2004), estudió el
transporte de energía en plasma de fusión termonuclear controlada por
confinamiento magnético, donde concluyo la importancia de conocer el
transporte de energía en los plasmas, pues este transporte es el que hace
que se enfríe más o menos rápidamente con lo que se obtendrán o no las
reacciones de fusión.
De igual forma Fontdecaba menciona que el transporte de energía en los
plasmas es mayoritariamente turbulento o anómalo, y que hasta la fecha no
hay una teoría que explique satisfactoriamente este tipo de transporte,
siendo esencial para el estudio de este proceso las extrapolaciones y
modelos semiempíricos en códigos de simulación validados. Uno de estos
códigos de simulación está PRETOR-Stellarator coincidiendo con el
planteamiento de Fontanet antes mencionado.
Por otra parte según Fontdecaba un aspecto importante de los
dispositivos de fusión son los diagnósticos, herramientas imprescindibles
para comprender las propiedades del plasma confinado en su interior. Uno
de los diagnósticos instalados en el stellarator heliac flexible TJ-II del
Laboratorio Nacional de Fusión de Madrid es el espectrómetro de
intercambio de carga, objeto de estudio de su tesis.
Continúa Fontdecaba a lo largo de su tesis explicando que con la
siguiente generación de máquinas de fusión se pretende aumentar las
23
prestaciones y llegar a demostrar la viabilidad de esta tecnología para
producir electricidad. Para ello la máquinas deben ser mucho mayores y, por
tanto, más caras y complejas. Por esto, diversos países han colaborado en el
diseño y, en el futuro, construcción del dispositivo, como lo es el proyecto
ITER a desarrollarse en Francia con la ayuda de las diferentes potencias
mundiales, con el único fin de que los científicos de todos los países
participantes puedan beneficiarse de los datos obtenidos por las nuevas
tecnologías.
Fontdecaba en su tesis realizó diferentes estudios de transporte de calor
por los electrones en el plasma. Primero valido según el código PRETOR Stellarator con datos de descargas de TJ -II obtenidos mediante la
participación remota. Seguidamente introdujo una modificación del código
que permite simular con mayor exactitud la parte central del plasma, con
estas modificaciones se realizó un estudio del modo de confinamiento
mejorado de TJ -II.
En semejanza con esta investigación, los estudios realizados por el autor
se basaron en la transferencia de calor mediante códigos y diseños en
reactores de fusión, al igual a una de las áreas objeto de nuestro estudio. A
su vez. Fontdecaba aporta un gran adelanto es dispositivos de medición y
control del calor generados en prototipos Stellarator y los cuales pudiesen
ser aplicados a los dispositivos tipo Tokamak.
En conclusión el propósito de la tesis de Fontdecaba fue probar una
herramienta de participación remota comprobando que son aptas para su
24
empleo en grandes instalaciones científicas como lo son los reactores de
fusión nuclear. Además profundizó el conocimiento de los plasmas de TJ -II y
de igual forma que lo hiciera Fontanet en su tesis se baso en validar el
código PRETOR-Stellarator, con la finalidad de obtener una herramienta útil
para la simulación de plasmas de fusión.
En el mismo orden de ideas la tesis de Schlatter (2004) menciona que la
situación actual del plasma mediante métodos de fusión Tokamak con la
finalidad de la producción de energía, mediante una estructura de
confinamiento por un período de tiempo largo, pudiese ser un reto difícil,
debido a que los iones pudiesen causar alguna inestabilidad en el transporte
de energía.
El rol de las partículas en plasmas ha sido estudiada en varios
laboratorios, aun estando en etapa de investigación y desarrollo. Schlatter
profundiza que mas estudios con respecto a las partículas iónicas contenidas
en los plasmas debería ser mas estudiadas para el mejor entendimiento de
su distribución al momento de interactuar en campos magnetohidrodinámicas
debido a que estas podrían causar inestabilidades dentro del plasma.
Al igual que este estudio, Schaltter lo que plantea es la necesidad de
ampliar conocimiento en el área de confinamiento con la finalidad de la
producción final de energía.
Por otra parte, los grandes reactores de hoy en día como lo es el JET, en
el centro de ciencias de la Universidad de Oxford (Inglaterra), operan
actualmente produciendo la ignición de fusión, adicionalmente esquemas de
25
temperaturas mediante ondas de iones o rangos y frecuencias sobre la
partículas supratermales, para algunos Tokamak es conveniente usar rayos
para medir los iones altamente energéticos y detectores de neutrones.
La tesis de Schlatter tuvo como propósito el estudio de partículas de alta
velocidad usando datos de pasados experimentos tanto de los Tokamak
como de las configuraciones de sus variantes.
Luego de realizar su investigación concluyo que las igniciones auto
sostenidas del plasma en el proyecto ITER dependerán del calor
proporcionado en el reactor, donde las partículas alpha
crecen un 5% de
ignición a ignición, pudiendo producir grandes daños a las paredes del
reactor.
Aunado a estas investigaciones se encuentra el estudio realizado por
Vergara (2006), destaca que no se puede continuar obteniendo energía a
través de combustibles fósil, las cuales podrían sustentar por mas de 50
años, es debido esto que Vergara destaca que se deberían buscar otras
fuentes de energía limpia como lo es la energía nuclear.
A lo largo de su investigación Vergara expone unos valores con respecto
al uso de la producción de energía mediante combustibles fósil, destacando
que las tres cuartas partes de la producción global de la energía son a base
de ellos.
En el mismo orden de ideas el autor resalta la necesidad de una energía
limpia debido al gran impacto que tendría la contaminación de seguir usando
como fuente principal el combustible fósil, de igual forma resalta que 440
26
reactores generan en la actualidad un 6% de la energía primaria de algunos
países, como lo son Francia, Lituana, Eslovaquia, Suecia entre otros,
menciona también que los países lideres en el renacimiento nuclear son
Estados Unidos, Reino Unido, G8, y Austria.
Vergara se basa en que la energía nuclear ofrece oportunidades amplias,
en el caso de producción de electricidad libre de dióxido de carbono y calor
industrial, y en el ámbito tecnológico reconoce el avance en materiales,
conocimientos y mejoramientos de servicios, de igual forma el autor realiza
un proyección en cuanto al desarrollo de la energía nuclear, ubicando que
durante el periodo entre 2030 y 2050 los reactores nucleares estarán en una
etapa avanzada una vez lograda su comercialización global, y que para el
año 2070 estarán fusionando en el mercado los reactores de fusión nuclear,
es así que el autor concluye sus estudios y proyecciones en cuanto a la
necesidad de sustituir el combustible fósil por métodos mas avanzados y su
posible desenvolvimiento durantes los años venideros.
Todas estas investigaciones, representan una significativa información en
el área tecno lógica, creación de portafolios y tendencias tecnológicas. A su
vez algunas de estas investigaciones se basan en el estudio de energía
limpia a nivel tecnológico, son importantes por cuanto permiten conocer la
madurez, las brechas y el estado actual de esta área.
En
consecuencia,
es
indispensable
elaborar
un
portafolio
de
oportunidades a fin de que las instituciones, empresas o usuarios, estudien y
comprendan esta nueva alternativa energética, con el fin de ser los primeros
27
en desarrollar y poner en práctica estas nuevas tendencias en sus centros de
investigación, universidades e industrias.
2.
Bases Teóricas
Hablar de la obtención de energía limpia y económica mediante el uso de
la Fusión Nuclear, para luego preparar un caso de negocio rentable para
explotar esta nueva tecnología, requiere conocer de información tanto
técnica como económica. Por estas razones, se
ha desarrollado una
investigación donde convergen varias teorías que comprende una serie de
artículos, especificaciones, definiciones y teorías referentes a la Fusión
Nuclear, sus propiedades tanto en frío y caliente, gestión tecnológica y
evaluaciones económicas de proyectos.
2.1.
Gestión Tecnológica.
Gaynor (1999), considera que los conceptos “gestión” y “tecnología” por
separado, cargan el peso de muchos significados, y el concepto de Gestión
Tecnológica podría traducirse como gestión de la información o gestión de la
investigación, sin preocupación alguna por el espectro global de las
actividades que abarcan el concepto de los negocios con respecto al proceso
de comercialización. El mismo autor considera la Gestión Tecnológica más
parecida a la Gestión como una tecnología, definiéndola como el proceso de
integrar los recursos y la infraestructura de la unidad de negocios en el logro
de sus propósitos, sus objetivos, sus estrategias y sus operaciones definidos.
28
Según Alfonzo y otros (2002), el proceso de Gestión Tecnológica
involucra actividades relativas a la identificación de nuevas oportunidades de
negocios, apalancadas por la incorporación oportuna de nuevas tecnologías,
así como, la elaboración del plan Tecnológico, como parte de las estrategias
para asegurar la viabilidad futura de las empresas. Citan estos mismos
autores que Irving Langmuir, Premio Nóbel en Físico-Química, define la
Gerencia de la Tecnología como el sistema que garantiza la solución de
necesidades y deseos de una sociedad, mediante la innovación continúa.
Explica además, que, para gerenciar tecnología se requiere del manejo
conjunto de profesionales que solucionen problemas operacionales con ideas
innovadoras en beneficio de la sociedad y las corporaciones.
Coincidente con esa conceptualización, Roberts (2002), profesor en
Gestión Tecnológica del Instituto Tecnológico de Massachussets (MIT), en su
discurso ante la Primera Conferencia Internacional sobre Gestión e
Ingeniería en 1986, sugirió que para gerenciar la tecnología se requiere de
un equipo multidisciplinario que resuelva problemas a través de soluciones
innovadoras y hace énfasis en la palabra clave para la Gestión Tecnológica:
Integración.
A
continuación se describen algunos conceptos que ayudan a
comprender mejor el proceso de gestión Tecnológica, así como a desarrollar
proyectos tecnológicos.
29
2.1.1. Tecnología.
Hidalgo (1999), define tecnología como el medio para transformar ideas
en productos o servicios, permitiendo además mejorar o desarrollar
procesos. Por su parte Gaynor (1999), describe la tecnología de las maneras
siguientes:
Es el medio para llevar a cabo una tarea, incluye lo que es necesario para
convertir recursos en productos o servicios, también incluye el conocimiento
y los recursos que se requieren para lograr un objetivo.
Es el cuerpo del conocimiento científico y de ingeniería que puede
aplicarse en el diseño de productos y/o procesos o en la búsqueda de
nuevo conocimiento.
Para los citados autores sus definiciones encierran el accionar humano
para satisfacer sus necesidades y van aún más allá cuando la convierte en
un proceso que evoluciona constantemente. Gaynor (1999), clasifica las
tecnologías en 10 tipos que se detallan a continuación:
Tecnologías del Estado del Arte: Tecnologías que igualan o superan a
las tecnologías competidoras.
Tecnologías de Propiedad Intelectual: Tecnologías protegidas por
patentes o acuerdos de reserva, que ofrecen una ventaja competitiva
mensurable.
Tecnologías conocidas: Pueden ser comunes a muchas organizaciones
pero se utilizan de manera única.
30
Tecnologías esenciales: Son esenciales para mantener una posición
competitiva.
Tecnologías de Apalancamiento : Apoyan varios productos, líneas de
productos, no clases de productos.
Tecnologías secundarias: Sirven de apoyo a las tecnologías esenciales.
Tecnologías de paso: Son aquellas cuya tasa de desarrollo controla la
tasa de desarrollo de producto o de proceso.
Tecnologías emergentes: Sirven en la actualidad como objeto de estudio
para futuros productos o procesos.
Tabla 1. Fases de la integración de la tecnología para la
gestión tecnológica.
Investigación
Desarrollo
Grado de Integración de las Funciones de los Negocios en la Gestión
Tecnológica
Investigación
Desarrollo
Diseño
Manufactura
Investigación
Desarrollo
Diseño
Manufactura
Marketing
Ventas
Distribución
física
Servicio al
cliente
FASE
FASE
FASE
1
2
3
Fuente: Gaynor, (1999), p.10.
I&D
Diseño
Manufactura
Marketing
Ventas
Distribución física
Servicio al cliente
Sistemas de
información
Recursos Humanos
Finanzas
Compras
Asuntos Legales y
Patentes
Relaciones Publicas
Administración
General
I&D
Diseño
Manufactura -Marketing
Ventas -Distribución
física
Servicio al cliente
Sistemas de información
Recursos Humanos
Finanzas -Compras
Asuntos Legales y
Patentes
Relaciones Publicas
Administración General
Clientes
Proveedores
Otras influencias internas
externas
FASE
4
FASE
5
31
Según Gaynor (1999) en su tabla 1 define por fase el proceso de la
integración tecnológica, dividiéndolo por fases, siendo su primera división el
área de Investigación y desarrollo, debido que está fase es donde se origina
toda la información y esquema de la tecnología en estudio, es necesario
invertir tiempo y recurso en una buena culminación de la fase 1 debido a que
todos los procesos están ligados con esta primera fase.
En cuanto a la Fase 2 se engloba un poco más el área de manufactura,
que ya teniendo establecidos los parámetros y definiciones básicas del
objeto en estudio se puede comenzar su proceso de fabricación ya sea
inicialmente en prototipo para luego masificarlo.
En la fase 3 una vez diseñado la mejor forma de utilizar el nuevo objeto
de estudio y siendo comprendidas todas sus características básicas, se
procede a la distribución masiva entre clientes y usuarios objeto base del
surgimiento de la tecnología.
Gaynor en la Fase 4 menciona que se procede a la distribución física,
recursos humanos, patentes entre otros, dando así origen en esta etapa a la
legalización de los derechos de autor, comercialización a gran escala y
masificación del producto u objeto de estudio.
En la ultima fase el autor incorpora proveedores y otras influencia, debido
a que por ya pertenecer al dominio público en este caso a causa de la
osificación y distribución el producto u objeto de estudio pasa a masificarse
en manos de proveedores y comienza el nuevo estudio de nuevas
derivativas con el fin de mejorar el mismo.
32
2.1.2. Proceso de Identificación y Adopción de Tecnologías.
Por medio de este proceso se identifica y adopta la tecnología más
prometedora para el negocio. Para Alfonzo y otros (2002), este proceso se
lleva a cabo mediante cuatro etapas:
Identificar: Se detecta tecnología a través de estudios de inteligencia
tecnología y elaboración de propuestas tecnológicas.
Evaluar: Se establece efectividad, aplicabilidad y rentabilidad de la misma
a través de proyectos pilotos donde se compra incertidumbre.
Transferir: Se practican las lecciones aprendidas y se prepara el recurso
humano para el nuevo proceso.
Masificación: Es la materialización de la oportunidad a través de la
adopción efectiva de la tecnología de punta que agreguen valor adicional.
2.1.3. Plan de Negocios.
Para hablar de Gestión Tecnológica, se debe hablar de lo que es el Plan
de Negocios, simplemente porque al identificar una tecnología a la cual se le
visualice potencial comercial o científico, se debe crear este plan de negocios
ya que el nuevo producto competirá en el mercado. Una persona con visión,
al concebir una idea de un negocio, sabe lo que quiere y como llegar a ello, y
también sabrá con que estrategias conseguirá su objetivo.
Borello, (2000), define el Plan de Negocios como un instrumento sobre el
que se apoya un proceso de planificación sistemático y eficaz. Este debe
33
entenderse como un estudio que incluye, por una parte, un análisis del
mercado, del sector y de la competencia, y por la otra, un plan desarrollado
por la empresa para incursionar en el mercado con un producto o servicio,
una estrategia y un tipo de organización, proyectando esta visión de conjunto
a corto plazo. A corto plazo; a través de la cuantificación de las cifras que
permitan determinar el nivel de atractivo económico del negocio y la
factibilidad financiera de la iniciativa, y a largo plazo, mediante definición de
una visión empresarial clara y coherente.
Por otra parte Douglas (2004) describe plan de negocios como la creación
de un proyecto escrito que evalúe todos los aspectos de la factibilidad
económica de su iniciativa comercial con una descripción y análisis de sus
perspectivas empresariales.
De cierto modo Douglas (2004) menciona como plan de negocio, una
estrategia evaluatíva de las necesidades que la empresa y el empresario
poseen dependiendo sus fortaleza y debilidades, este plan se origina
mediante estudios de mercado, acciones a seguir y estudios socio
económicos de factibilidad.
2.1.4. Ciclo de Vida, Madurez y Dominio Tecnológico.
A lo largo de la historia de la humanidad se han visto nacer y desaparecer
diferentes tecnologías, muchas de las cuales hoy día causan asombro por lo
elementales que parecen, pero otras se ven como muy ingeniosas y
visionarias a pesar de tener ya varios siglos de creadas. El hombre siempre
34
está innovando, pues su necesidad de satisfacer sus deseos no se detiene,
además de su constante deseo de mejorar lo ya inventado siempre está
presente.
En el siglo XIX nadie hubiera creído que el hombre volaría para viajar de
un lugar a otro, y a mediados del siglo XX, el hombre pisaba la Luna. Se vive
en un cambio constante de modo de vida y de pensamiento, y en todo esto
posiblemente la tecnología ha actuado como catalizador. Mediante esta
comparación se observa que toda tecnología tiene un ciclo de existencia y tal
como los seres vivientes nacen, crece y muere. Esta es la visión de Tapias
(2000), quien divide el ciclo de vida de la tecnología en cuatro etapas:
gestación, nacimiento, crecimiento y desarrollo, y finalmente muerte u
obsolescencia. La etapa de gestación la asocia a la idea de crear un nuevo
producto o proceso. Esta etapa está vinculada directamente con el
cumplimiento de las necesidades y deseos existentes o latentes de los seres
humanos, así mismo, cuando este producto o proceso ha sido creado lo
asocia al nacimiento.
El crecimiento y desarrollo está asociado con la adopción, propagación o
difusión masiva de la tecnología. El éxito de la difusión masiva depende del
momento u oportunidad en que entró el producto o proceso al mercado.
Por último, la muerte u obsolescencia, que ocurre cuando ya se han
agotado las posibilidades de innovaciones incrementales del producto o
proceso. A nivel empresarial, esta tecnología ya no le rinde beneficios, no
mejora su productividad, y en este momento es cuando muchas empresas
adoptan nuevas tecnologías.
35
Esta etapa pudiera ser muy larga o no, muchas tecnologías mueren
definitivamente pero otras se siguen utilizando tal y como fueron creadas.
Por ejemplo, los televisores de circuitos no han logrado desplazar
completamente a los de tubos de vacío e igualmente las maquinas de coser
computarizadas no han desplazado completamente a las máquinas de
pedaleo, así como los computadores portátiles no han desplazado a las
máquinas de escribir eléctricas en ese uso específico.
En muchas instituciones públicas en Venezuela todavía se exige la
impresión de documentos o planillas con estos equipos, aunque utilizan para
otros fines los computadores portátiles.
Para Alfonzo y otros (2002), tanto el ciclo de vida como la madurez
tecnológica tienen un comportamiento parecido al de una curva “S” de
esfuerzo versus tiempo.
Este comportamiento se puede observar en la Figura 1, que se presenta
a continuación.
MADUREZ
TECNOL ÓGICA
ETAPA MADURA
ETAPA DE
COMERCIALIZACIÓN
ETAPA EMBRIONARIA
Figura 1. CURVA “S” Madurez Tecnológica
Fuente: Steele (1989) y Alfonzo y otros (2002).
36
El autor, define la Madurez Tecnológica como “el grado de disponibilidad
de una tecnología”. Esta, a su vez, se divide en tres etapas: embrionaria,
comercialmente disponible y comercialmente madura.
El Dominio de la tecnología lo define como “la experiencia del usuario
en la aplicación de una tecnología” y al igual que el concepto anterior lo
dividen en tres etapas: uso incipiente, masificación y dominio.
Para comprender ambos conceptos se explica a continuación el contenido
de la Figura 2. La primera porción de la curva representa la etapa
embrionaria de la tecnología.
Dentro de esta porción están contenidas las tecnologías incipientes o en
desarrollo, prototipos que posiblemente se encuentren disponibles en
laboratorios o centros de investigación, y por lo tanto el conocimiento de esta
tecnología es muy precario.
Algunas de estas tecnologías no están
accesibles al publico, por ser desarrollos de inteligencia militar en países
desarrollados.
MADUREZ DE LA
TECNOLOGÍA
CICLO DE VIDA DE LA
TECNOLOGÍA
ETAPA MADURA
DESARROLLO
ETAPA DE
COMERCIALIZACIÓN
CRECIMIENTO
ETAPA EMBRIONARIA
INCIPIENTE
Figura 2 . CURVA “S” Madurez Tecnológica y Ciclo de Vida de la Tecnología
Fuente: Steele (1989) y Alfonzo y otros (2002).
37
La segunda porción de la curva contiene las tecnologías de las cuales no
se tiene suficiente información aunque están comercialmente disponibles, es
la etapa de masificación de la misma y es accesible para todo tipo de
usuario.
Por último, en la figura 3, se observa la etapa de dominio en donde se
encuentran tecnologías comercialmente maduras y bien conocidas, que ya
han sido bien desarrolladas.
DOMINIO DE LA TECNOLOGÍA
DOMINIO
USO MASIVO
USO INCIPIENTE
Figura 3. CURVA “S” Dominio de la Tecnología
Fuente: Steele (1989) y Alfonzo y otros (2002).
2.1.5. Matriz de Análisis de Impacto .
Una de las herramientas para la toma de decisiones en proyectos
tecnológicos es la Matriz de Impacto. Alfonzo y otros (2000) la definen como
una herramienta de apoyo a la toma de decisiones asociada a la
materialización de una oportunidad de negocio. Consiste en la determinación
de la importancia, urgencia, riesgo y creación de valor. Cada uno de estos
parámetros se explica a continuación:
38
La Importancia está relacionada a las estrategias corporativas asociadas
a la producción, y se refiere a como impacta la tecnología a una organización
en el mediano y largo plazo.
La Urgencia es un indicador de la viabilidad futura
inmediata de la
empresa. Se refiere a como impacta la tecnología a una organización a corto
plazo.
El Riesgo está asociado a la madurez y dominio de la tecnología,
mientras más madura y más información se tenga de la misma, el riesgo
para su implantación es menor.
La Creación de Valor está asociada al tamaño de la oportunidad
expresada reservas a producir y rentabilidad económica.
Estos parámetros se definen a través de los perfiles bajo (B), medio (M),
medio alto (MA) y alto (A), los cuales son determinados a través de jui cio de
expertos (ver Figura 4).
B
I
A
U
R
V
Figura 4. Matriz de Impacto
Fuente: Alfonzo y otros (2002).
MB
M
MA
A
39
Si se tiene la función de masificar la tecnología se debe determinar el
grado de madurez de la misma, de esta forma cuantificar el riesgo de
masificación de la tecnología, dado que a menor grado de madurez mayor
riesgo existe al momento de la masificación. Si la tecnología se encuentra en
estado embrionario, se debe invertir en un proyecto piloto para comprar
certidumbre. Cuando se alcanza el estado comercial se procede a transferir
los conocimientos adquiridos en el proyecto piloto y una vez alcanzada la
madurez de la tecnología se masifica la misma y se materializa la creación
de valor adicional.
2.1.6. Análisis de Brechas.
Mediante este instrumento se determina la diferencia entre la tecnología
en uso con respecto a las nuevas tecnologías. Alfonzo y otros (2000), la
definen como el análisis que permite determinar posibles debilidades y/u
oportunidades asociadas a tecnologías en desarrollo y por tanto dicho
análisis permite tomar decisiones estratégicas para el posicionamiento
definitivo. Estas brechas las clasifican en brechas respecto a la tecnología y
brechas de competitividad.
Las brechas respecto a la tecnología representan la diferencia entre la
tecnología en uso con respecto a la tecnología de punta. Las brechas
respecto a la competitividad se originan al comparar el nivel de uso actual de
una tecnología con respecto al uso de tecnologías de punta por parte de los
competidores.
40
El aná lisis de brechas, simplificado por la matriz mostrada en la figura 5,
consta de tres áreas:
Área de riesgo mayor: riesgo de pérdida de competitividad y al mismo
tiempo de alertas de posicionamiento futuro oportuno. Ubicada en las dos
áreas sombreadas del extremo superior derecho.
Área de riesgo medio : es el área sombreada media de la Figura, en la
cual el riesgo es medio.
Área de riesgo menor: es el área no sombreada de la Figura, representa
la de bajo riesgo y es donde las acciones de posicionamiento pueden
tomarse con más tiempo.
Alta
Media
Alta
Media
Brecha respecto a los
competidores
Baja
Media
Baja
Baja
Baja
Media
Media Media
Alta
Alta
Brecha respecto a la Tecnología
Figura 5. Matriz de Análisis de Brechas.
Fuente: Alfonzo y otros (2002).
2.1.7. Posicionamiento Tecnológico.
Según Alfonzo y Otros, una vez aplicadas las herramientas anteriores en
la evaluación de una oportunidad de negocio, (madurez tecnológica, análisis
41
de impacto, análisis de brechas) se deriva la información en la cual se
deciden las acciones a seguir para materializar dicha oportunidad.
Las acciones a seguir son: ejecutar proyecto tecnológico, invertir en
investigación y desarrollo, transferir/ masificar y materializar alianzas
tecnológicas. Mediante estas acciones se realizan estrategias de cierre de
brechas para la materialización de oportunidades. Las mismas atienden a lo
siguiente:
Ejecutar proyecto tecnológico: se lleva a cabo cuando se requiere
comprar información para cerrar brecha tecnológica.
Invertir en investigación y desarrollo: Esta decisión se toma cuando el
grado de madurez de la tecnología es embrionario, así como el grado de
incertidumbre acerca de la potencialidad de la misma y cuando se tiene una
brecha muy alta v, respecto a tecnologías de punta.
Transferir / Masificar: se implementa cuando la tecnología en evaluación
es dominada por la empresa y puede formar parte rutinaria de los planes de
la empresa.
Materializar Alianza Tecnológica: se realiza cuando la brecha existente
respecto a los competidores es alta y se desea cerrarla en el menor tiempo
posible para acelerar el aprendizaje organizacional.
2.1.8. Inteligencia Tecnológica.
Alfonzo (1999) define como el conjunto de acciones coordinadas para la
resolución e interpretación de información actualizada de cómo los usuarios y
42
competidores orientan la investigación, tratamiento, distribución y protección
de la información útil para los entes responsables de los procesos de toma
de decisiones.
Para Flores (2000) coordinador de Inteligencia Tecnológica del IMP,
maestro en ciencias, define inteligencia tecnológica como la investigación, en
cualquiera de los ámbitos en que se realice, en incursionar en procesos de
conocimiento que involucran los avances en la materia de que se trate en
todo el mundo. En otras palabras, saber qué se hace y cómo se hace.
Este ejercicio se realiza prácticamente desde que el hombre efectuó sus
primeros desarrollos tecnológicos y a dado pie a los avances con que hoy
contamos, la tecnología de punta que respalda tanto a instituciones como a
empresas que se desenvuelven dentro de los parámetros de la ciencia.
Sin embargo, efectuar esta revisión de los avances científicos y
tecnológicos dentro de los marcos legales, con las herramientas adecuadas,
tiene apenas una década de llevarse a cabo en el mundo. Hablar de ello es
referirse a la Inteligencia Tecnológica, estrategia que no solo reditúa
beneficios tecnológicos y científicos, sino también el las áreas comerciales de
la organizaciones que ya la tienen en práctica, y que a nivel mundial
reconoce a más de 6 mil 500 agremiadas en la Sociedad de Profesionales de
Inteligencia Competitiva (SCIP).
Los dos autores coinciden que la inteligencia tecnológica se base
primordialmente en el conocimiento de información, y la forma como se
interprete con fines prácticos para su utilización protegiendo en todo
momento la interpretación de cada individuo.
43
2.1.8.1.
Elaboración de Estudios de Inteligencia Tecnológica.
Según PDVSA, citado por Salas (2001), los estudios de inteligencia
tecnológica tienen la finalidad de detectar oportunidades de negocios que
pueden ser evaluados como proyectos integrados de producción.
Durante la ejecución de los estudios de inteligencia tecnológica se
recopila, analiza e interpreta información sobre las capacidades y avances
técnicos externos que facilitan la toma de decisiones y mejora las
competencias técnicas propias.
Los estudios de inteligencia tecnológica permiten:
Proporcionar información sobre oportunidades de negocios apalancados
por tecnología.
Hacer seguimiento continuo, facilitar acceso y proporcionar información
útil sobre tecnologías que agreguen valor a la corporación.
Proporcionar información para la toma de decisiones en lo relativo a
oportunidades de negocios apoyados en la adopción de tecnologías.
Proporcionar estrategias para: cerrar brechas de competencias y
tecnológicas, estimular innovaciones.
2.2.
Fusión Nuclear
Dies, Fontanet, Fontdecaba, Schaltter, definen la fusión nuclear como la
energía que se libera de la unión entre los átomos. Concretamente en la
fusión intervienen dos isótopos del hidrógeno: el tritio y el deuterio. Se
44
utilizan estos isótopos pues para que se produzca la fusión de los átomos -su
unión- es necesario que sus núcleos tengan la mínima fuerza de repulsión, y
esto se logra precisamente con los átomos más ligeros, los de hidrógeno,
que sólo tienen un protón en su núcleo. En la fisión se requiere todo lo
contrario, que los núcleos tengan la máxima repulsión posible, lo que
consigue con átomos con muchos protones.
Según Valdés, Rocha (1995) un átomo está compuesto por un núcleo ,
formado por neutrones (sin carga eléctrica y no siempre presentes) y
protones (con carga positiva). Además consta de una envoltura electrónica a
base de electrones, de carga eléctrica negativa. En la naturaleza todos los
átomos son eléctricamente neutros , teniendo igual número de protones que
de electrones.
Para que la reacción de fusión sea posible hay que vencer la mencionada
repulsión electrostática entre dos núcleos igualmente cargados. Es decir que,
al existir núcleos atómicos con igual carga y según el principio de que cargas
iguales se repelen, hay que aplicar una gran energía para conseguir la unión
de las mismas. Esto se logra gracias al calor, aplicando temperaturas de
millones de grados. El problema referido proviene de la dificultad de
encontrar un reactor que aguante esta temperatura.
Dicha temperatura se logra en el interior de una explosión de fisión, que
es el comienzo de toda bomba de fusión o bomba H. Con el calor se crea un
nuevo estado de la materia, el plasma, en el que se da un absoluto desorden
de iones y electrones. Una vez acabada la reacción de fusión nos
45
encontraremos con una esfera expandida con una temperatura de millones
de grados en la que vagan los productos de la fusión (litio e isótopos del
hidrógeno).
Tal es su velocidad que pueden fundirse unos con otros dando lugar a la
reacción de fusión. Esta reacción genera más energía que la anterior y libera
gran cantidad de partículas nucleares, pero no es una reacción en cadena,
ya que el propio calor que genera hace que las partículas se separen y se
expandan en forma de esfera de plasma con una temperatura que tan sólo
experimenta el universo de manera natural en muy raras ocasiones
(supernova).
Kendall (2005), profesor del Instituto Tecnológico de Massachussetts
define que un átomo está compuesto por un núcleo, formado por neutrones
con carga eléctrica positiva y neutrones sin carga eléctrica. A su vez,
rodeando al átomo hay la envoltura electrónica a base de electrones, de
carga eléctrica negativa.
Kendall define que para que se de la fusión hay que vencer las fuerzas
de repulsión electrostática entre dos núcleos igualmente cargados;
esto es, al existir núcleos atómicos con igual carga, y dado que cargas
iguales se repelen, hay que aplicar una gran energía para conseguir la unión
de las mismas.
Esto se logra aplicando temperaturas de millones de grados. El problema
viene de la dificultad de encontrar un reactor que aguante esa temperatura.
Con este calor se crea un nuevo estado de la materia, el plasma, en el que
46
iones y electrones se hallan en total desorden concordando por lo dicho por
Valdez y Rocha. Una vez acabada la reacción de fusión nos encontraremos
con una esfera expandida con una temperatura de millones de grados en la
que están los productos de la fusión (litio e isótopos del hidrógeno), donde
cada gramo de Hidrógeno produce del orden de 173.000 Kilovatios/hora.
Halffter (1995) menciona cuáles serian las posibilidades de que se
produzca la fusión en las condiciones habituales de temperatura y presión.
Aunque los núcleos normalmente se hallan alejados uno del otro y apartados
por la barrera de repulsión eléctrica, la mecánica cuántica permite penetrarla.
En otros términos, en el mundo microscópico las barreras no son insalvables
debido al principio de incertidumbre y a las propiedades ondulatorias de la
materia.
En una molécula diatómica de un gas a la temperatura ambiente, por
ejemplo, la distancia media entre los dos núcleos es del orden de 10-8 cm.
Sin embargo, la posición no se puede conocer con precisión absoluta, pues
entonces el ímpetu (y con él la velocidad) de los núcleos estaría totalmente
indeterminado. Por lo tanto, la probabilidad de que los dos núcleos se
encuentren en el mismo sitio y que choquen, no es nula desde un punto de
vista cuántico. Sin embargo, este proceso de fusión, que bien podríamos
catalogar como "fría", es muy poco probable.
Así, las estimaciones más optimistas predicen que para que ocurriera un
solo proceso de fusión en un litro de gas de hidrógeno a presión atmosférica
47
y temperatura ambiente (del orden de 20°C), habría que esperar un tiempo
¡mucho mayor que el transcurrido desde el origen del Universo !
Entonces, ¿qué hacer para acelerar el proceso? Conceptualmente, la
manera más simple de inducir la fusión es producir, por algún método,
núcleos con una energía cinética superior a la energía de repulsión eléctrica,
para que así se acerquen mucho unos a otros. Una posibilidad es utilizar
aceleradores de partículas, aparatos que con inmensos campos eléctricos y
magnéticos pueden lograr que las partículas alcancen altas velocidades. Con
estos aparatos se ha podido estudiar no sólo el proceso de fusión sino la
estructura interna misma de los núcleos. Sin embargo para producir energía
mediante la fusión nuclear; el uso de los aceleradores resulta inoperante,
pues para acelerar cada núcleo necesitamos invertir mucho más energía de
la que se obtiene de la fusión.
Se debe, pues, buscar otros caminos. Como ya se ha visto, la reacción de
fusión es más probable mientras menor sea la carga de los núcleos que se
unen, pues entonces la barrera repulsiva es más pequeña. En consecuencia,
se recurre al hidrógeno y entre los isótopos de éste al deuterio o al tritio,
cuyas fusiones son muy favorables energéticamente.
En la Tabla 2 se ve que Q es positiva, o sea que los productos finales de
las reacciones posibles de fusión emergen con energías mayores de las que
se impartieron a los núcleos iniciales. Además del valor Q para cada reacción
se da, en la tercera columna, de la tabla, la probabilidad relativa con la que
48
puede ocurrir cada uno de los procesos. Así, las reacciones entre deuterones
que producen ya sea 3He más neutrones o tritio más protones, se presentan
con la misma frecuencia, pero aquella reacción entre dos núcleos de deuterio
que produce 4He y rayos gamma es diez millones de veces menos probable
que las dos reacciones anteriores. Por otro lado, las que se han marcado en
la tercera columna como secundaria, también son poco probables, pues es
necesario que alguna otra reacción haya tenido lugar antes. En particular; las
que incluyen deuterio y tritio, obviamente requieren que este último ya se
haya generado.
Tabla 2. Fusion National Laboratory (CIEMAT)
Reacción
Valor de Q en MeV Probabilidad relativa
d + d ??
3He + n
3.3
1
D + d?
? ? +p
4.0
1
d + d ? 4He + ?
23.9
10-7
d + r ? 4He + n
17.6
Secundaria
p + d ? 3He + ?
5.5
Secundaria
p + r ? 4He + ?
19.8
Secundaria
Fuente: Flores (1997)
El uso del deuterio presenta varias ventajas adicionales. La primera, que
en su abundancia como energético; pues puede extraerse del agua de mar
con tecnologías bien conocidas. El tritio, por su parte, es más escaso,
49
aunque es un subproducto de las reacciones de fusión. El riesgo radiológico
del tritio es pequeño si se le compara con el que implican los residuos de los
productos de la fisión; hoy empleada en los reactores nucleares.
Por un lado, la vida media del tritio es poco más de doce años, mucho
más corta que la de los productos de fisión que alca nza miles de años. Por
otro lado, el tritio al decaer emite un electrón con energías pequeñas,
comparables a las producidas en un televisor a color; por lo que su
penetración en el aire es apenas de unos cuantos centímetros. Sin embargo,
el principal riesgo asociado al tritio es que lo inhalamos, pues reemplaza al
hidrógeno del agua que hay en el organismo y causa irradiación interna.
Carlos Alejaldre, Director of the Magnetic Confinement Fusion (2003)
expone que la fusión nuclear es una fuente alterna de energía con grandes
posibilidades y muchas ventajas sobre otros métodos, incluida la discutida
fisión nuclear. Pero en la práctica las cosas no resultan tan simples. Fabricar
un reactor de fusión nuclear controlada ha sido el objetivo de muchos años
de investigación científica y tecnológica, y ha requerido de inversiones
astronómicas. Aun así, sigue siendo una gran ilusión, y aunque algunos
problemas se encuentran ya resueltos, aun quedan muchos otros por
resolver.
2.2.1 Fusión en Frío
Se basa en la electrolisis, con una barra de paladio rodeada de hilo de
platino, sumergida en agua pesada (rica en deuterio) Alonso (1995).
50
Con este sistema, aplicando una corriente eléctrica, el deuterio se separa
del oxígeno del agua y se acumula en la barra de paladio. Llegado un punto,
los núcleos del deuterio y del paladio se funden a temperatura ambiente,
provocando la reacción nuclear, que libera energía, detectada por la emisión
de neutrones. Fleischmann y Pons aseguraron haber obtenido, el equivalente
a 1 vatio de energía por centímetro cúbico de agua, lo que representaría 1
millón de veces más de lo que mostraron las emisiones de neutrones
medidas y unas 50 veces más de la energía utilizada.
Un solo litro de combustible satisfacería las necesidades energéticas de
todo un edificio durante varios años, o de una familia durante toda su vida.
Además, la energía de fusión fría, no sólo no contamina y es inagotable
(como la de fusión en caliente), sino que también es muchísimo más barata
de conseguir. Todas las naciones podrían tener sus plantas generadoras y
se podría llegar a pensar incluso en vehículos movidos por fusión nuclear,
equipos generadores portátiles, baterías atómicas inagotables, aeronaves y
buques que no necesitaran repostar, entre otros.
2.2.2 Fusión en Caliente
Tarrasa, Pino, Albajar del Departamento de Física e Ingeniería Nuclear
(1998) define la fusión nuclear en caliente como el procedimiento mas
investigado y consiste en la unión de los isótopos de hidrógeno (tritio y
deuterio) a través de altas temperaturas (cien millones de grados
51
centígrados). Este inmenso calor es necesario para vencer la fuerza de
repulsión electrostática de los isótopos (al tener la misma carga eléctrica),
excitándolos de tal forma que llegan a unirse, creando un nuevo estado de la
materia: el plasma.
En nuestro Sol las reacciones de fusión nuclear ocurren de manera
sostenida, sin que sea preciso inyectarle energía del exterior. Que éstas
sean reacciones auto sostenidas, se debe a que el gas en el Sol se
encuentra a muy altas presiones y temperaturas. Así, los núcleos en la
estrella chocan con mucha frecuencia y gran velocidad, lo que les permite
superar la barrera de repulsión eléctrica que los separa. Algo análogo ocurre
en la vecindad de objetos cósmicos, como los pulsares y los cuásares, donde
se producen campos electromagnéticos de gran intensidad.
En un gas a alta temperatura, la velocidad promedio de las moléculas es
grande. Por ejemplo, en el centro del Sol se tiene una temperatura de 20
millones de grados y la velocidad promedio de las moléculas es de 30 000
km/s, un décimo de la velocidad de la luz. Desde luego, hay algunas
moléculas que son más rápidas que otras. Al aumentar la presión y
comprimir al gas, acercamos más a las partículas, que ahora chocan con
mayor frecuencia.
Cuando el gas se halla a muy alta temperatura, los choques son muy
violentos y pueden disociar las moléculas en átomos, o aun desprender de
éstos a los electrones.
52
Se produce, pues, materia ionizada en forma de gas. Este es el estado en
que se encuentra el Sol, y se le conoce como plasma, el cuarto estado de la
materia.
Para vencer la repulsión eléctrica en un gas formado por una mezcla de
tritio y deuterio es necesaria una energía cinética mínima de alrededor de
100 000 eV. Ello implica una temperatura equivalente a mil millones de
grados. Como antes se dijo, la temperatura es proporcional a la energía
cinética promedio de las moléculas de un gas.
Sin embargo, siempre hay moléculas más rápidas que el promedio
correspondiente a una temperatura dada. Este hecho permite que a una
temperatura considerablemente menor que esos 109 K pueda haber una
actividad de fusión razonable y suficiente. Así, se ha encontrado que a unos
60 millones de grados la fusión nuclear puede auto sostenerse. El otro
parámetro importante para mantener la fusión nuclear sostenida es la
cercanía entre los núcleos, pues mientras más juntos se encuentren más
probable es que se unan.
Los físicos e ingenieros que intentan controlar el plasma usan el llamado
parámetro de confinamiento, que es igual al producto de la densidad del gas
por el tiempo que la densidad puede sostenerse. La condición mínima para la
reacción de fusión autosostenida es que el parámetro de confinamiento sea
mayor que 3 x 1014s/cm3 Si el valor es menor; se requiere inyectar energía
al plasma, lo que se logra calentándolo.
53
Si se agrega una energía E, se obtiene del plasma una energía qE,
donde q es un cierto factor de ganancia. Cuando q sobrepasa el valor
unidad, el reactor se comporta ya como un amplificador de energía.
Figura 6. El reactor Tokamak
Fuente: Grupo de Física del Plasma, Universidad Carlos III, Madrid (2002)
El problema tecnológico que plantea la fusión caliente es, pues,
formidable: se debe confinar un plasma muy caliente durante un cierto
tiempo. Debemos producirlo, calentarlo y todavía confinarlo. Para ello se
requieren máquinas enormes, como el Tokamak, que se muestra en la
figura 6 y que semeja una inmensa dona. En este aparato, el plasma se
confina por la acción de campos magnéticos muy intensos y se le calienta
por diversos medios, según su diseño para así mediante el cambio de
temperatura y por su confinamiento genera mediante un proceso altamente
tecnológico electricidad.
Hoy existen en el mundo sólo seis grandes proyectos destinados a
producir la fusión controlada. Cinco son del tipo Tokamak y, como se ve en la
54
Tabla 3, sólo los países más ricos son capaces de emprender acciones tan
ambiciosas. En México, como en otros países de menor poderío económico,
hay proyectos pequeños.
Tabla 3. Los grandes proyectos de la física de plasmas
Reactor
Lugar
País
Inicio
TFTR
Princeton
EUA
1982
JET
Oxford
CEE
1983
JT-60
Tokio
Japón
1986
MFTF
Stanford
EUA
1986
Fuente: Valdés / Rocha (2002)
El problema planteado por la fusión caliente es de gran magnitud. Sólo
tres reactores de prueba operan hoy y sus valores del parámetro de
confinamiento no están muy lejos de 3x 1014s/cm3, la condición que antes
mencionamos para que la reacción se sostenga por sí misma. También el
valor de q es cercano a uno, es decir; los reactores producen ya casi tanta
energía como la que consumen. Este valor de q, sin embargo, no es
suficiente para la operación comercial rentable, para la cual se requiere más
bien un valor cercano a 20. Ya se proyecta una nueva generación de
reactores, que podrán alcanzar esta meta en la primera o segunda décadas
del siglo XXI. Entre las técnicas del siglo XXI, alternas a los reactores
Tokamack, se halla la fusión inducida por láser. En ella, una mezcla de tritio y
deuterio se calienta al concentrar varios haces de luz láser sobre una
55
pelotita, de un milímetro de diámetro, que contiene el combustible. La luz
ultravioleta, que se obtiene después de pasar la radiación láser infrarroja a
través de un cristal perfecto que triplica la frecuencia de la luz incidente,
fuerza a los electrones a oscilar y éstos calienta n el plasma cuando chocan
con sus iones. Al recibir tanta energía, el plasma en la periferia de la pelotita
explota y, a causa de la tercera ley de Newton, ejerce una gran fuerza sobre
el plasma en el interior de la bolita. Ésta se comprime mucho en
consecuencia y las reacciones termonucleares pueden llevarse a cabo.
2.2.3 Tipos de Confinamientos
El objetivo final de la investigación en fusión controlada es lograr la
ignición, es decir mantener la combustión del plasma mediante el único
aporte de energía de la propia reacción de fusión. En un reactor de D-T la
energía del helio mantendrá la temperatura necesaria para que se sigan
produciendo reacciones de fusión. La condición de ignición se escribe como
Donde es la densidad de los iones, T su temperatura y ? E es el tiempo
de confinamiento de la energía.
Para alcanzar esta condición hay dos estrategias:
Confinamiento inercial Departamento de Física de la Comunidad
Europea (2005), define donde una diminuta cápsula de combustible se
comprime mediante láser o haces de iones pesados a unas densidades
56
extremas (más de mil veces la densidad de un líquido). Las reacciones de
fusión empiezan en su centro y se propagan hacia el exterior, donde el
combustible está más frío. En este método, el tiempo de confinamiento es
extremadamente corto, del orden del milisegundo.
Confinamiento magnético Departamento de Física de la Comunidad
Europea (2005) en el cual un plasma caliente se mantiene aislado de las
paredes del reactor mediante campos magnéticos logrando densidades del
orden de 1020 iones por m3 (105 veces inferior a la densidad de un gas en
condiciones normales), en consecuencia el tiempo de confinamiento
requerido es del orden del segundo. Este método es el más desarrollado y el
que presenta mayores posibilidades de llegar a producir energía eléctrica.
El confinamiento magnético se basa en que las partículas cargadas en
presencia de un campo siguen un movimiento helicoidal a lo largo de las
líneas de campo, evitando que el plasma oc upe todo el espacio disponible.
Existen dos tipos de configuraciones: las abiertas y las cerradas. En las
configuraciones abiertas las líneas de campo no se cierran sobre sí mismas y
el plasma está confinado en un espacio finito por espejos magnéticos.
Las configuraciones cerradas son de geometría toroidal, de forma que el
plasma esta confinado en un volumen finito aunque las líneas de campo no
tienen un límite. Para conseguir una configuración estable se necesita crear
unas líneas de campo que giren e n forma de hélice alrededor del eje del toro.
Dispositivos de confinamiento magnético:
57
2.2.3.1
Dispositivos tipo tokamak
El término tokamak proviene del acrónimo de toroidalnya kamera y
magnetnaya katushka que significa cámara toroidal y bobina magnética.
El primer tokamak se desarrollo en la URSS a principios de los años 50 a
partir concepto original de Andrei Sakharoz e Igor Tamm. Los éxitos
obtenidos con el experimento T-3 a comienzos de los años 70 fue el origen
de la expansión de los tokamaks en todo el mundo.
Actualmente existen varios grandes tokamaks en el mundo como el JET
de la UE, JT60 en Japón y TFTR de Estados Unidos (ya clausurado).
Como se puede ver en la figura 7, en un tokamak mediante unas bobinas
situadas a lo largo del toro (bobinas toroidales) se crea un campo magnético
en la dirección del toro, y por medio de una corriente Ip inducida en el
seno del plasma se genera un campo perpendicular al primero (dirección
poloidal).
Esta corriente se induce por las bobinas poloidales que actúan de circuito
primario de un transformador mientras que el propio plasma es el circuito
secundario.
Las líneas de campo magnético resultantes son la combinación de estos
dos campos (poloidal y toroidal) y tienen una forma helicoidal a lo largo del
toro, de forma que las partículas pasan alternativamente por zonas exteriores
e interiores del toro.
58
Figura 7. Esquema del funcionamiento de un tokamak.
Fuente: DG-XII de la Unión Europea (2005)
¿Como lograr construir en la Tierra aparatos que semejan pequeños soles,
donde la fusión nuclear se auto sostiene?, Debemos, entre otras muchas
cosas, conseguir que en una región limitada del espacio un buen número de
iones de deuterio choquen entre sí con la energía suficiente para que se
fusionen. En el lenguaje de los plasmas, lo que deseamos es confinar un gas
ionizado a muy alta temperatura. Esto se obtiene con campos magnéticos.
Para entender por qué se ha diseñado el Tokamak de modo que semeje
una inmensa dona, se debe recordar algunos conceptos básicos del
movimiento de cargas dentro de campos magnéticos. He aquí algunos: si el
campo magnético es muy grande, la dirección de la velocidad de la carga
puede cambiar, pero su magnitud no; en otras palabras, la energía cinética
de la partícula se conserva. Si el campo magnético es constante y uniforme,
59
las partículas se mueven a lo largo de una curva helicoidal cuyo eje está en
la dirección del campo. Mientras más intenso sea, las partículas giran más
rápidamente en órbitas de menor radio.
Variando el campo magnético en posición perpendicular a el, para que las
líneas de campo se enrollen en círculos, cuyo radio sea muy grande en
comparación con las órbitas citadas anteriormente. La partícula cargada
recorre ahora una hélice que se curva con el campo magnético, como si
fuera un estambre enhebrado alrededor de las líneas del campo. Desde
luego, mientras mayor sea la velocidad de las partículas, es decir; mientras
más caliente esté el plasma, los campos magnéticos habrán de ser mayores
para guiar a los iones. En el Tokamak se acomodan una serie de
electroimanes anulares para formar una dona hueca, como se ve en la
figura 8.
Figura 8. Los electroimanes del Tokamack forman una dona hueca para
confinar el plasma de alta temperatura.
Fuente: DG-XII de la Unión Europea (2005)
60
En el interior de la dona se genera el plasma, cuyas partículas se ven
forzadas a viajar en trayectorias helicoidales a lo largo de las líneas del
campo
magnético
toroidal
que
han
generado
los
electroimanes.
Desgraciadamente, las partículas del plasma son muy caprichosas y tienden
a escaparse del campo magnético, produciendo lenguas de plasma que
evitan el confinamiento y producen inestabilidad. El mayor esfuerzo técnico y
científico reside, en este momento, en evitar las inestabilidades del plasma.
Schaltter (2004) menciona que para confinar plasmas muy calientes,
resulta necesario que los campos magnéticos sean muy intensos. Las
bobinas que los producen han de ser por tanto muy potentes. Las mejores
que se conocen están construi das de material superconductor; cuya
resistencia eléctrica se reduce enormemente si se le enfría a temperaturas
muy bajas, del orden de -250 grados centígrados. Los campos magnéticos
producidos por estos imanes superconductores son enormes, 100 000 veces
más intensos que el campo magnético terrestre. Sin embargo, mantener frías
estas bobinas agrega un problema técnico más: para evitar que dejen de ser
superconductoras, las bobinas están hechas de alambres huecos por cuyo
interior se hace circular helio líquido en grandes cantidades. ¡Un dolor de
cabeza más!
En los reactores Tokamak, el campo magnético se varía lentamente en el
tiempo, subiendo y bajando de manera cíclica. Esto induce una corriente en
el plasma, que así se calienta por efecto Joule, como el que actúa en una
plancha eléctrica.
61
El plasma se comporta entonces como el secundario de un transformador
de corriente directa y todo depende de esta corriente en el plasma.
Ya que el campo magnético no puede ser elevado indefinidamente, la
actividad
nuclear
se
debe
interrumpir
cuando
el
campo
magnético baja para reiniciar el ciclo, disminuyendo así la eficiencia del
reactor de fusión.
Para evitar esas interrupciones de las reacciones nucleares, y con ellas la
pérdida en eficiencia del reactor; hoy se busca producir la corriente en el
plasma por medio de un haz rasante de ondas de radiofrecuencia.
En este método, el ímpetu de los fotones del haz se transmite a las
partículas del plasma, forzando la corriente necesaria.
El vaivén del campo magnético produce grandes tensiones sobre los
alambres del embobinado. Éstas, que pueden llegar a ser de varias
toneladas por centímetro cuadrado en campos magnéticos grandes y
variables, producen fatiga mecánica en los materiales. El problema de
resistencia de materiales que así se presenta no ha sido aún resuelto.
También el diseño de la cámara que ha de contener el plasma presenta
serios retos tecnológicos. La cámara debe mantenerse al vacío, para evitar la
contaminación con aire, pues éste enfría el proceso. Además, la camisa que
rodea la cámara debe soportar grandes temperaturas, sirviendo de
aislamiento térmico entre plasma e imanes pues , como hemos dicho, estos
últimos deben mantenerse muy fríos. Estas camisas han de recuperar la
enorme energía proveniente del gran flujo de neutrones producidos en la
62
fusión. Deben servir; también, para intercambiar el calor producido en el
plasma con un fluido que acarrea la energía térmica para utilizarla, por
ejemplo, en mover una turbina y producir energía eléctrica.
Por todo ello, el volumen interior de un reactor comercial necesita ocupar
varios miles de metros cúbicos.
Las paredes internas de la cámara del plasma se encuentran además
sujetas a la fuerte irradiación de partículas cargadas que escapan al
confinamiento. No obstante, el principal daño por radiación se debe al flujo
de neutrones, que es enorme, cercano a 1013 neutrones/cm²·s. Por ello, al
cabo de un año todos los átomos de la camisa han sido golpeados y
desplazados de la red cristalina del sólido que la forma. En consecuencia, se
debe cambiar la camisa cada dos o tres años.
Como en los reactores de fisión, en los de fusión también existen
problemas de seguridad radiológica. El de los desechos radiactivos es casi
despreciable, si se compara con el de los reactores de fisión. El problema
reside, más bien, en el gran volumen de tritio que se maneja en los reactores
de fusión, que alcanza casi un kilogramo, lo que produce 1017
desintegraciones nucleares cada segundo. En efecto, como combustible del
reactor de fusión se inyectan cristales fríos de deuterio y tritio a gran
velocidad para que lleguen al interior del plasma.
El proceso no es cien por ciento eficiente y el combustible debe ser
recuperado bombeándolo por medio de lo sistemas de vacío. El gran flujo de
neutrones hace necesario el uso de múltiples sistemas de blindaje. Como ya
63
dijimos, la camisa debe desmantelarse cada dos o tres años. El reactor
mismo, al acabar su vida útil, que será tal vez de dos o tres decenios,
también debe deshacerse. Todos los elementos que lo formaron podrían
quedar radiactivos, con vidas medias tan largas como años, pues han sido
activados por neutrones. A pesar de todo lo anterior; el problema de los
desechos radiactivos es mucho menor que en los reactores de fisión
actuales.
Como se puede ver de esta breve descripción de un reactor caliente de
fusión nuclear; los retos tecnológicos son gigantescos. No asombra,
entonces, que en cuarenta años de investigación se hayan invertido más de
cinco mil millones de dólares para conseguir un reactor de fusión nuclear
eficiente y que este proceso de diseño aún no toque fin. Aunque esta línea
de trabajo es la más avanzada y la más prometedora, debido a los altos
costos y a la complejidad tecnológica se han explorado otros caminos para
producir la fusión nuclear. De todos, la fusión fría es la vía más socorrida.
2.2.3.2
Dispositivos Tipo Stellarator
Departamento de Física de la Comunidad Europea (2005) define que los
stellarators son también dispositivos toroidales, pero a diferencia de los
tokamaks el campo magnético poloidal no se genera a partir de la corriente
del plasma sino únicamente por bobinas exteriores. La primera máquina de
confinamiento magnético se basó en este concepto, pero debido a la
complejidad de su diseño no consiguieron grandes resultados y fue
abandonada debido a los buenos resultados obtenidos en los primeros
tokamaks.
64
El hecho que no se consiguieran grandes avances con este tipo de
dispositivos era debido a que en éstos las tolerancias de construcción son
muy pequeñas. Una mínima desviación de construcción puede hacer que el
plasma no se confine, ya que todos los campos magnéticos son creados por
bobinas exteriores cuya geometría puede ser muy compleja. En un tokamak
las tolerancias no son tan estrictas porque su diseño es más sencillo y
porque además el campo poloidal lo crea el propio plasma.
La principal ventaja de este tipo de dispositivos es su funcionamiento en
continuo pues no hay ninguna corriente inductiva, esta característica hace
que este concepto sea muy atractivo en vistas a la construcción de una
central comercial. Otra ventaja de este concepto es que al carecer de
corriente interna en el plasma evita el riesgo de disrupciones. A pesar que el
desarrollo de estos dispositivos tiene un retraso respecto a los tokamaks, los
actuales stellarators están dando resultados comparables a los obtenidos en
tokamaks similares.
2.3.
El
Proyecto ITER
proyecto
ITER
quiere
decir
(Internacional
Tokamak
Experimental Reactor) es un experimento que representa la ultima
fase experimental de la construcción del primer reactor de fusión con fines
comerciales.
Proceso el cual se explica a continuación basado en los diagramas
aportados por el centro DG-XII de la Unión Europea (2006):
65
1. Se toman dos elementos de núcleos ligeros.
Figura 9. Proceso de Fusión Nuclear
Fuente: Departamento de Física de la Comunidad Europea (2005)
2. Se calientan a una temperatura de cien millones de grados con el fin de
que los núcleos cargados positivamente se acerquen lo suficiente para
unirse.
Figura 10. Proceso de Fusión Nuclear
Fuente: Departamento de Física de la Comunidad Europea (2005)
3. En esta etapa el gas se encuentra en estado de plasma, los iones y los
electrones forman un fluido microscópicamente neutro que no pueden
estar en contacto con los elementos materiales.
66
Figura 11. Proceso de Fusión Nuclear
Fuente: Departamento de Física de la Comunidad Europea (2005)
4. La energía calorífica que se desprenden de las reacciones se utilizará
para crear calor de agua.
Figura 12. Proceso de Fusión Nuclear
Fuente: Departamento de Física de la Comunidad Europea (2005)
5. El reactor Tokamak es un diseño de confinamiento de plasma, en este
punto, el plasma se calienta y se mantiene confinado en una cámara de
vació con forma toroidal. Para aislar el plasma se aísla mediante campos
magnéticos mediante componentes internos descritos a continuación.
67
Componentes:
a.
El solenoide central es el superconductor el cual induce la corriente
eléctrica en el plasma. Se encuentra dentro de el la bobina que tiene un
peso de 840Tn y mide 12m de alto y 4 m de diámetro.
Figura 13. Reactor Tokamak Componentes del ITER Selenoide Central
Fuente: Departamento de Física de la Comunidad Europea (2005)
El celonoide central esta conformado a su vez por:
I. Criostato: cuya función es de mantener los imanes aislados
térmicamente y sirve de segunda barrera de confinamiento después
de la vasija de vació. Sus paredes son de acero inoxidable de 50mm
de grosor.
Figura 14. Reactor Tokamak Componentes del ITER Selenoide Central
Fuente: Departamento de Física de la Comunidad Europea (2005)
68
II. Vasija de Vació: su función es de absorber la energía el flujo del
plasma a niveles tolerables para los imanes y el equipo circulante.
Este permite una alta calidad de vacío, desviando el helio y las
impurezas provenientes de fusión. De igual forma sirve de defensa de
primera línea de perdida de refrigerantes y materiales radiactivos.
Figura 15. Reactor Tokamak Componentes del ITER Selenoide Central
Fuente: Departamento de Física de la Comunidad Europea (2005)
III. El Divertor concentra la interacción de las partículas cargadas con los
materiales que rodean el plasma, su principal función es soportar el
gran flujo de energía de estas partículas y eliminar el helio resultante
de las reacciones de fusión y otras impurezas.
Figura 16. Reactor Tokamak Componentes del ITER, Selenoide Central
Fuente: Departamento de Física de la Comunidad Europea (2005)
69
b.
Alrededor
del
Selenoide
Central
se
encuentran
18
bobina
superconductoras del campo toroidal, se encargan de confinar y
estabilizar el plasma, cada una de ellas pesa 290Tn, miden 14m de alto
y 9m de ancho.
Figura 17. Reactor Tokamak Componentes del ITER, Bobina Toroidal
Fuente: Departamento de Física de la Comunidad Europea (2005)
c.
Dentro de la bobina toroidal se encuentra la cámara de vació donde se
mantiene en vacío el plasma y es la primera barrera de confinamiento
para el tritio y materiales activados que se encuentran en su interior
Figura 18. Reactor Tokamak Componentes del ITER, Cámara de Vacío
Fuente: Departamento de Física de la Comunidad Europea (2005)
70
Campos Magnéticos:
a. El Campo coloidal es producido por una corriente eléctrica que fluye en
el interior del plasma inducido principalmente por el selenoide central.
Figura 19. Reactor Tokamak Componentes del ITER, Campos Magnéticos
Fuente: Departamento de Física de la Comunidad Europea (2005)
b.
El Campo Toroidal los conforman las bobinas equidistantes que se
encuentran alrededor del toroide
Figura 20. Reactor Tokamak Componentes del ITER, Campos Magnéticos
Fuente: Departamento de Física de la Comunidad Europea (2005)
71
c.
El Campo Helicoidal es el campo resultante de la suma de los campos
Coloidal y Toroidal.
Figura 21. Reactor Tokamak Componentes del ITER, Campos Magnéticos
Fuente: Departamento de Física de la Comunidad Europea (2005)
6. Para el funcionamiento del reactor Tokamak se debe cumplir las
siguientes condiciones:
a. La temperatura se debe producir a ritmo suficiente a más de cien
millones de Grados Centígrados y debe confinarse con el fin de que la
temperatura se mantenga.
b. El confinamiento magnético debe ser eficiente con el fin de evitar
enfriamientos. Este tipo de confinamiento de plasma mediante
confinamiento
magnético
se
mide
mediante
el
tiempo
de
confinamiento de la energía.
c. La densidad de los iones del combustible debe ser lo suficientemente
elevada para que las reacciones de fusión se produzcan al ritmo
requerido.
está
La
potencia
contaminado
por
se
ve
impurezas
reducida
liberadas
si
el
por
combustible
el
material
72
circulante o por acumulaciones de “cenizas” de helio. Es por esto
que
se
deben
remplazar
los
iones
por
otros
nuevos
y
extraer las cenizas del helio.
El proyecto piloto ITER con base en Francia, se basa especialmente en
la
obtención
explicadas
Tokamak
del
deuterio
anteriormente
para
lograr
de
y
triíto
del
esta
pasando
por
confinamiento
forma
una
todas
la
etapas
magnético
fuente
confiable
del
de
energía limpia.
2.4. Patentes
Considerando la definición indicada por la Organización Mundial de la
Propiedad intelectual (OMPI), una patente es “Un derecho Exclusivo
concedido a una invención, que es el producto o proceso que ofrece una
nueva manera de hacer algo, o una nueva solución técnica a un problema”.
Según la OMPI la protección de una patente significa que la invención no
puede ser confeccionada, utilizada, distribuida o vendida comercialmente sin
el consentimiento del titular de la patente. Los derechos de patentes
generalmente son definidos en los tribunales que, en la mayoría de los
sistemas, tiene la potestad de sancionar las infracciones a las patentes. La
función primordial de la patente es proteger las invenciones. Para poder
realizarla, han de ser publicadas y estar disponibles al público. Sin embargo,
las patentes, no solo contienen soluciones a los problemas técnicos si no que
también son una fuente inestimables de información tecnológica.
73
De hecho, más del 80% del conocimiento técnico del mundo se
encuentran contenido en las patentes. Para otorgar una patente, en primer
lugar se debe presentar una solicitud la cual contiene por lo general, el titulo
de la invención, así como una indicación sobre su ámbito técnico; a subes
como los antecedentes y una descripción de la invención, en un lenguaje
claro y con los detalles suficiente para que una persona con un conocimiento
medio del ámbito en cuestión pueda utilizar o reproducir la invención. La
Solicitud contiene así mismo varias “Reindivicaciones” es decir, información
que determina el alcance de protección que concede la patente.
Posteriormente al análisis para determinar si la solicitud de la patente es
realmente innovadora, es útil y si cumple con los requisitos legales
establecidos para el otorgamiento de la propiedad, en caso de ser positivo, el
inventor obtiene un número y fecha de asignaciones de la patente, es decir,
la patente es concedida.
3.
Definición de Términos Básicos
Muones: Moore (1990) Los define como partículas elemental de la familia
del electrón. Estos no aparecen como constituyentes de la materia como los
electrones, pues son partículas inestables que tienen un tiempo de vida muy
corto, y por lo tanto decaen poco después de haberse formado.
El muon aparece al decaer otra partícula subnuclear llamada pion o
mesón, se encuentran de manera natural en los rayos cósmicos secundarios
sobre todo a nivel del mar, pues interactúan muy poco con la materia, y
74
pueden atravesar toda la atmósfera sin perderse. También pueden crearse
artificialmente haciendo chocar un haz de iones energéticos con un material
cualquiera.
Pion: es la partícula que transmite las fuerzas nucleares de un nucleón a
otro, en forma semejante a como los fotones transmiten las fuerzas
electromagnéticas. Como partícula libre decae rápidamente, dando lugar a
un muon Departamento de Física de la Comunidad Europea (2005).
Innovación Tecnológica: Escobar (2000) define el proceso de
Innovación Tecnológica como
el conjunto de actividades científicas,
tecno lógicas, financieras y comerciales que permiten:
Introducir nuevos o mejorados productos en el mercado nacional o
extranjero
(ejemplos:
medicamentos,
equipos,
dispositivos
médicos,
diagnosticadores; y de productores: LABEX, IMEFA, CIDEM, CQF, etc.).
Introducir nuevos o mejorados servicios (ejemplos: nuevos servicios
quirúrgicos, preventivos, de atención estomatológica, PPU).
Implantar nuevos o mejorados procesos productivos o procedimientos
(ejemplos:
medicoquirúrgicos,
docente -educativos,
informativos
y
de
automatización).
Introducir y validar nuevas o mejoradas técnicas de gerencia y sistemas
organizacionales con los que se presta atención sanitaria y que se aplican en
nuestras fábricas y empresas.
Por tanto, la innovación tecnológica es la que comprende los nuevos
productos y procesos y los cambios significativos, desde el punto de vista
75
tecnológico, en productos y procesos. Se entiende que se ha aplicado una
innovación cuando se ha puesto en el mercado (innovación de productos) o
se ha utilizado en un proceso de producción (innovación de procesos).
Fusión: La fusión nuclear se basa en la energía que se libera de la unión
entre los átomos. Concretamente en la fusión intervienen dos isótopos del
hidrógeno: el tritio y el deuterio. Se utilizan estos isótopos pues para que se
produzca la fusión de los átomos -su unión- es necesario que sus núcleos
tengan la mínima fuerza de repulsión, y esto se logra precisamente con los
átomos más ligeros, los de hidrógeno, que sólo tienen un protón en su
núcleo. En la fisión se requiere todo lo contrario, que los núcleos tengan la
máxima repulsión posible, lo que consigue con átomos con muchos protones
Nichos de Mercado: el Diccionario de Marketing, 1999 (p.230), define
nicho de mercado como la fracción de un segmento de mercado que puede
ser usado como el público objetivo para la promoción de un producto
determinado.
Por su parte, Ostertag (2000) sostiene que el mercado no solo se puede
dividir en segmentos, sino también en nichos y en última instancia en
individuos.
En la medida en que una empresa vendedora subdivide un mercado al
identificar características más singulares, los segmentos tienden a
convertirse en un conjunto de nichos. Los clientes que constituyen el nicho
tienen un conjunto de necesidades, en alguna medida, singular y complejo;
están dispuestos a pagar una prima a aquella empresa que mejor satisfaga
76
sus necesidades, si pretende obtener el éxito, el mercadeó logo
especializado en nichos tendrá que especializa r sus operaciones; y para
otros competidores no resulta fácil atacar al líder del nicho”
Proyecto: se define como un conjunto ordenado de acciones que tienden
a la realización de un determinado fin. Por consiguiente un proyecto lleva
consigo un inicio y un fin que se alcanza cuando todas las actividades que lo
constituyen han sido completadas. (Cartay. 1995). En el presente trabajo de
investigación se trabaja con un proyecto de tipo tecnológico.
4.
Definición Conceptual y Operacional de las Categorías
En la presente investigación las categorías de análisis del estudio fueron
cuatro (04), Tendencias Tecnológicas, Madurez Tecnológica, Oportunidad de
Negocio y Formulación del Portafolio.
La conceptualización de las categorías se refiere a cómo desea el
investigador
que
se
interprete
las
categorías
que
investiga;
y
la
operacionalización de las mismas.
Se define directamente como se medirán las variables en términos de las
subcategorías y elementos de análisis que la conforman.
4.1.
Categoría: Tendencias Tecnológicas
Definición conceptual: esta categoría se define como los “estados
probables en la evolución de una tecnología a lo largo del tiempo” (Alfonzo y
otros, 2002).
77
Definición
operacional: esta categoría se concibe como la
orientación de la tecnología respecto al campo de conocimiento al que se
direccionan sus aplicaciones, uso de los trabajos patentados y el grado de
madurez y dominio tecnológico, todo esto fundamentado en trabajos
patentados e investigaciones.
4.2.
Categoría: Oportunidades de Negocios
Definición conceptual: esta
categoría
se
define
como
la
“conveniencia
en tiempo y en lugar para ejecutar una actividad que
posee
fin
como
obtener
una
ganancia,
lucro,
interés
o
utilidad”
(Torres, 1993, p.99).
Definición operacional: son las diferentes alternativas que se
abren en el mercado sobre la base de las tendencias tecnológicas en el
área de la fusión nuclear y sus aplicaciones, las cuales se orientan a
nuevos nichos de mercado, brechas tecnológicas, avances, y desarrollos
específicos con el objeto de satisfacer necesidades desde un punto
de vista gerencial y operacional con el fin de obtener beneficios
económicos.
4.3.
Categoría: Madurez Tecnológica.
Se define como madurez tecnológica al grado de dominio y desarrollo que
se encuentra el área de estudio.
78
4.4.
Categoría: Portafolio de Oportunidades.
El Portafolio de Oportunidades es componente esencial de la
planificación estratégica. La planificación estratégica dirige la continua
viabilidad de la estrategia para mantener la empresa competitiva y
sobreviviendo en el mercado, asimismo, sondea las necesidades de cambio.
Dentro de este contexto, el portafolio de oportunidades juega un papel
importante ya que de allí se toman las oportunidades tecnológicas que
formarán parte del plan de negocios tecnológico de la empresa, del cual
dependerá la competitividad y sobrevivencia futura de la empresa y por ende
la creación de valor.
Las categorías, subcategorías y elementos de análisis, se presentan a
continuación en la Tabla 4.
Tabla 4. Categorías y Subcategorías de Análisis .
Categorías
Tendencias
Tecnológicas
Madurez
Tecnológica
Subcategorías
Innovación
Tecnológica
Nivel de Madurez
de la Tecnológica
Nivel de Dominio
de la Tecnología
Elementos de análisis
Fecha de Publicación de la
patente
Utilidad y Campo de aplicación
de las Patentes
Campo de Conocimiento a la
que se asocia la Patente
Embrionaria
Comercial
Madura
Incipiente
Masivo
Dominio
79
Cont. Tabla 4
Categorías
Subcategorías
Elementos de análisis
Importancia
Urgencia
Análisis de impacto
Riesgo
Creación de valor
Baja
Baja media
Análisis de Brechas
Media
Media alta
Alta
Oportunidades Madurez
Madurez Tecnológica
de Negocio
Tecnológicas de las
Oportunidades de
Penetración del Mercado
Negocio
Posicionamiento
Tecnológico
Formulación Elaboración del
del Portafolio Portafolio
Fuente: Gutiérrez (2007)
Ejecutar Proyecto Tecnológico
Invertir en Investigación y
Desarrollo
Transferir/Masificar
Materializar Alianzas
Tecnológicas
Se logra con los anteriores
Descargar