la nanotecnología como meta

Anuncio
LA NANOTECNOLOGÍA COMO META-TÉCNICA *
Alberto Castillo Vicci
Introducción
Con sus investigaciones filosóficas sobre la meta-técnica, el doctor Ernesto Mayz
Vallenilla
avanzó
fundamentos
epistemológicos,
metafísicos
y
ontológicos
para
la
nanotecnología o tecnología de escala cuántica, treinta años antes de que comenzara a
pensarse en construir computadores cuánticos y otros artefactos tan minúsculos que se
rigen por las reglas de la mecánica cuántica y no de la llamada física clásica que gobierna el
comportamiento de máquinas y artefactos de escala corriente, como los actuales
computadores que se ofrecen en el mercado mundial.
La revolución que se espera de tal tecnología de lo nanométrico, en este siglo XXI
que apenas termina su primera década, en opinión experta [2] y [7], tendrá mayores
efectos sociales, económicos y culturales sobre la humanidad que la que tuvo la revolución
industrial del siglo XIX.
En el presente trabajo examinamos la nanotecnología desde la perspectiva metatécnica, partiendo de las investigaciones realizadas por el doctor Mayz Vallenilla en Los
Fundamentos de la Meta-técnica [1], a la Técnica y meta-técnica de la computación de los
profesores Alfredo Vallota, Douglas Jiménez y Alberto Castillo Vicci [4], como también a
varias publicaciones sobre la nanotecnología [7] y a conversaciones entre el doctor Ernesto
Mayz Vallenilla y el autor de estas páginas.
Alcance
En esta monografía sólo se hace referencia a los conceptos extraídos de las
formalizaciones de la computación cuántica, motor de la nanotecnología, según textos y
monografías clásicos y actuales [7], pero no a las formalizaciones en sí, con el fin de limitar
su extensión a pocas páginas.
*
Artículo publicado en la Separata 5 de Principia, Revista de Cultura de la Universidad Centro Occidental
Lisandro Alvarado de Venezuela, julio de 2010, en homenaje a Ernesto Mayz Vallenilla. Fuente:
http://www.ucla.edu.ve/separata5.pdf
Objetivo
Argumentar que la nanotecnología es meta-técnica en su etapa más desarrollada y
sus fundamentos se ajustan a las interpretaciones filosóficas elaboradas por el doctor
Ernesto Mayz Vallenilla para la meta-técnica.
La nanotecnología
La nanotecnología es la comprensión y control de la materia en dimensiones entre 1 a
100 nanómetros (billonésimas de un metro) donde fenómenos únicos de propiedades
cuánticas permiten nuevas aplicaciones en la construcción de artefactos y maquinarias
(motores, robots, servomecanismos, computadores…) tan diminutos que sus partes o
elementos son moléculas o átomos u otras partículas elementales a escala atómica (no en
millones de millones de átomos como son las partes de la maquinaria a escala normal, sino
de uno, dos o tres átomos o partículas atómicas controlados individualmente); de tal manera
que su comportamiento se explica y controla por las leyes de la mecánica cuántica y no de la
física clásica de las dimensiones intermedias. De aquí viene su nombre: “nano” o pequeño;
valga decir, nanotecnología o tecnología de lo pequeño; como su medida: nanómetros
(millardésimas de metro). Por lo tanto, envuelve la generación de imágenes (escanners,
tomógrafos, ecosonógrafos...), la toma de medidas (contadores geigers, computadores
cuánticos), el modelaje y la manipulación de la materia en tal escala (ciclotrones,
nanorobots, nanomotores...); con resultados imposibles de lograr por medio de las
tecnologías tradicionales, y enfrentar así problemas cuyas soluciones no parecían al alcance
de la capacidad de la técnica y la tecnología anterior.
Aunque existen muy diversas y múltiples propuestas de artefactos y máquinas
nanotecnológicas en vías de construcción, en 40 centros de investigación en nanotecnología
alrededor del mundo, particularmente en países desarrollados, que se aplicarán en dominios
tales como: la computación, la informática, la medicina, la biología, el medio ambiente, la
construcción, la ingeniería genética, la manufactura molecular... vamos a concentrar nuestro
análisis en el más general de todos ellos, el de la computación, conocido como computación
cuántica; pues, como toda nanotecnología, la computación cuántica opera con partículas
elementales y lo que se argumente acerca de ellas como nanotecnología, en tal contexto, es
válido para todas las demás disciplinas de carácter nanotecnológico.
La computación cuántica es el resultado de la evolución de la tecnología para
construir computadores que, al reducirlos en tamaño continuamente, alcanzan dimensiones
tales
que
ya
se
miden
en
nanómetros,
realizando
computaciones
que
controlan
individualmente átomos y otras partículas elementales. Esta evolución podrá medirse en el
número de electrones necesarios para almacenar un bit o dígito binario (0 ó 1, también “on”
u “off”) base de la computación y de la información, así:
Año
Electrones
1950
1012
1970
108
1990
104
2010
1
Y se alcanza la nanotenología o tecnología a escala cuántica.
El ganador del Premio Nobel de Física (1965), Richard Feynman, fue el primero en
hacer referencia a las posibilidades de la nanociencia y la nanotecnología en una célebre
conferencia que dio en el Instituto Tecnológico de California, el 29 de diciembre de 1959,
titulado En el fondo hay espacio de sobra (“There’s plenty of room at the bottom”); y
acertadamente predijo que para la primera década del siglo XXI aparecerían los primeros
computadores cuánticos; es decir, en el presente.
La computación cuántica consiste, de manera general, en controlar la evolución de los
estados cuánticos por los que pasan un conjunto de partículas elementales sujetas a tal
control. El estado inicial de las partículas que pueden tomar uno de dos posibles estados
(aunque también tienen la particularidad de poder estar en ambos a la vez, en superposición
de estados) para formar un sistema binario, puede ser evaluado como los datos de entrada
al computador cuántico y su estado final como la salida. El proceso de evolución del estado
inicial al final es la computación realizada. De esta manera memoria y procesador son uno
mismo en un computador cuántico. La evolución se llama unitaria porque debe realizarse
como un proceso elemental único, como unidad sola, sin ninguna interferencia externa al
sistema.
La computación cuántica tiene características que la diferencian radicalmente de la
computación clásica o tradicional, como consecuencia de obedecer a las leyes de la mecánica
cuántica, tales como (además de la evolución unitaria) el operar con amplitudes de
probabilidades, la interferencia cuántica, el paralelismo cuántico y el enramado cuántico.
Estas características pueden resumirse diciendo que un computador cuántico es un sistema
físico que acepta estados de entradas (inputs states) que representan una superposición
coherente de muchos posibles argumentos (inputs). La palabra coherente significa que el
sistema aunque aislado del ambiente se acopla con él en grado tal que la evolución unitaria
procede: la decoherencia es el grado en que tal acoplamiento es aceptable. Y es la causa de
que el mundo de nuestra vida diaria, del sentido común, sea aparentemente clásico,
determinista y no aleatorio como el de la verdadera naturaleza cuántica.
La computación cuántica ofrece un enorme paralelismo y la amplitud del espacio
computacional está exponencialmente relacionada con el tamaño del sistema (por ejemplo:
un computador cuántico de 3 bits, por superposición es el equivalente a 23 = 8 clásicos
operando en paralelo; si se llegaran a construir computadores cuánticos con la capacidad en
gigabits, como los clásicos de hoy, entonces el potencial de computación se incrementaría en
cantidades
inimaginables);
pero,
además,
el
enramado
cuántico
permite
codificar
información en partes de un sistema físico mutuamente correlacionada... aunque pudieran
estar
separadas
entre
sí
ilimitadamente.
Sin
embargo,
es
elemental
(pero
fundamentalmente importante) el hecho que la evolución cuántica es ultra sensible a
interacciones con el medio ambiente; la enorme fragilidad de los estados cuánticos usados
para procesar información hace que su construcción sea en extremo difícil y supone superar
varias barreras técnicas, entre las que sobresale la reversibilidad de sus componentes para
que el proceso de evolución sea unitaria. Es decir, que pueda ser aislada del ambiente que le
rodea. Una operación es reversible si se pueden reconstruir sus entradas (inputs) de sus
salidas (outputs).
Richard Feynman, en 1985, mostró como un computador cuántico podía partir del
diseño de un circuito booleano (la lógica de la computación, pues la computación es lógica
más control) que realizara la computación deseada en que cada conmutador o gate booleano
del circuito realiza una operación unitaria en uno o más bits cuánticos para lo que usaba
unos gates reversibles diseñados por Fredkin y Toffoli [4] y [7]; de aquí Feynman pasaba a
construir un operador de evolución o hamiltoniano, que es el verdadero computador
cuántico, partiendo de tal circuito. Era evidente, como lo mostraron quienes mejoraron el
diseño de Feymann a partir de su trabajo de los años ochenta, que no se puede construir un
computador cuántico de los circuitos clásicos. Sabemos que toda la lógica puede hacerse con
sólo las combinaciones del NOT con el AND o el OR; y hasta con una sola clase operador o
gate como el juntor NO Y (o NAND en inglés) pero sólo el NO es reversible; de los demás no
se pueden construir las entradas de la salida, pues borran información en el proceso,
disipando calor en el medio ambiente y la evolución unitaria de un circuito que se diseñe
tomándolos como modelos, colapsa.
Mucho del trabajo en el diseño de computación cuántica, en nuestros días, consiste
en tratar de impedir que computación y ambiente interactúen (o se controle, hasta cierto
grado su interrelación y se mantenga la coherencia de la evolución cuántica). Hasta ahora,
esto se ha logrado sólo con la reversibilidad (esto es que el proceso vaya en un doble
sentido y la computación pueda invertirse y se ha logrado el diseño y construcción de gates
reversibles).
De tal manera que, recapitulando, programar un computador cuántico consiste en
simular, con un operador de evolución cuántica o hamiltoniano, el comportamiento de un
circuito booleano o máquinas de Turing clásicos, que realizan la computación deseada.
Puesto que tanto los circuitos booleanos como las máquinas de Turing clásicos son
irreversibles y de tales no es posible simular la evolución cuántica que obedece leyes físicas
reversibles, el primer paso consiste en convertir los circuitos o máquina irreversibles en
reversibles; el segundo, a partir de allí, construir el hamiltoniano.
Existen procedimientos generales para efectuar el primer paso. Es decir, para
convertir un circuito o máquina irreversibles en reversibles; pero no existe un procedimiento
formal y sistemático que no sea otro que el ingenio particular del programador para el
segundo: crear de los sistemas reversibles un hamiltoniano.
Sin embargo, desde hace un par de años, los centros de investigación que se dedican
a la nanotecnología han construido computadores cuánticos de dos y tres bits (llamados
quatum bits o qbits) con tecnologías diferentes; pero, en junio del 2009, la Escuela de
Ingeniería de la Universidad de Yale reportó la construcción de un computador cuántico de
dos bits usando ingeniería de estado sólido en una base de aluminio que se asemeja mucho
a las técnicas actuales de producción de computadores clásicos, pero con las características
del computador cuántico de superposición de estados, enramado, evolución unitaria…. Es
decir, anunciando el umbral de la industria de la nanotecnología.
Y, según piensan los expertos, problemas de computación de complejidad tal que no
son ni siquiera concebible en los computadores actuales encontrarán su solución en la
computación cuántica.
La meta-técnica
La meta-técnica, según la descubre y desarrolla el doctor Ernesto Mayz Vallenilla en
su original obra Fundamentos de la meta-técnica [1], es la ruptura revolucionaria o
discontinuidad de cánones inteligibilizadores con sintaxis de logos distintos a los de la
técnica evolucionada históricamente hasta el siglo XX; identificada por la trans-racionalidad i
que abandona un logos de carácter óptico-lumínico de lo sensorio antropomórfico,
antropocéntrico y geocéntrico de raigambre humana, propio de la técnica anterior, y
mediante la cual una serie de nuevos productos y artefactos no sólo extienden el potencial
sensorial del hombre
sino que incursionan en otros dominios
epistemológicos no
directamente accesibles al conocimiento humano por medios naturales (diferente en grado al
menos en unos casos, pero la mayoría diferentes en clase); sensibles a mensajes de
moléculas en el aire o a ondas sonoras o de calor imperceptibles a los humanos...
desarrollados por la evolución natural en el aparato sensorial de algunos animales pero no
en los mamíferos primates del grupo homínido, y más allá en algunos artefactos resultantes
de la técnica y la evolución cultural que ningún producto de la evolución biológica ostenta,
como son los instrumentos y dispositivos sensores de espectros de luz, del sonido, del gusto
o el tacto en menor grado, y que operan en escala microscópica y más profunda de
radiaciones y energía. Representados como ejemplos paradigmáticos en escáneres,
tomógrafos, ecosonógrafos, sensores Geiger, ciclotrones y aceleradores de partículas, rayos
láser, misiles guiados por el calor,... para mencionar algunos; pero que avanza a su clímax a
principios del siglo XXI, con la nanotecnología, como mostraremos en adelante, por medio
de la cual se espera no sólo construir computadores cuánticos sino también una serie de
robots y servomecanismos que pudieran, a escala de nanómetros, ser capaces de participar
de otra alteridad; por ejemplo, ser enviados en el flujo sanguíneo para extirpar un tumor
maligno en un sitio específico del cuerpo humano, autónomamente, sin contacto con la
alteridad humana; o teleportar información a los confines del universo de manera
instantánea, no local, violando el principio de que nada se mueve a mayor velocidad que la
de la luz; pero, sobre todo, la más profunda e inimaginable alteridad: la de contactos entre
multi-universos como lo avizora David Deutsch [5].
Como la nanotecnología, la meta-técnica es el resultado de la evolución de la técnica.
Diferencias entre técnica y meta-técnica
En este punto debemos aclarar qué significa para Mayz ratio y logos. Ambas palabras
se refieren a la facultad de razonar. Una tiene origen latino y la otra el griego. En general, es
la habilidad de pensar correctamente, formar conceptos, explicar y justificar las cosas e
inferir conclusiones correctas de ciertas premisas
o postulados: en síntesis, usar
eficientemente el conocimiento. Mayz reserva el término ratio para la razón técnica
tradicional, pero que está a punto de transmutarse en una nueva razón que denomina logos.
La primera, la ratio, esencialmente humana, caracteriza al ser humano; la segunda, el logos,
es post-humana, autónoma y autárquica, independiente del ser humano.
Hasta el presente, la razón técnica o ratio technica como la llama Mayz,
consubstanciada con la subjetividad del hombre, depende de lo sensorio humano, pues tiene
su eje y base en la naturaleza humana y sus limitaciones somato-psíquicas, que Mayz
caracteriza como antropomórficas, antropocéntricas y geocéntricas. Valga decir que:
1. La técnica, en tanto antropomórfica, tiene su eje en las características somatopsíquicas naturales del hombre y su potenciación.
2. En tanto antropocéntrica, la técnica se mide en términos de eficiencia para lograr
las metas que la voluntad de poder del hombre impone sobre la alteridad (lo que
acaece). En tal sentido, está concebida para dotar al hombre de un dominio cuyo
centro y agente es el propio hombre. En consecuencia, predomina en ella una
ratio humana con carácter de exclusividad y privilegio.
3. En tanto geocéntrica, el ámbito en el que se origina y primero de su aplicación es
la Tierra y sus peculiares características dentro del cosmos, en la que el hombre
natural ha habitado hasta el actual siglo. Puesto que lo sensorio somato-psíquico
humano es primordialmente visual, la ratio technica está dominada por una
sintaxis ordenadora óptico-lumínica como llama a lo visual, unión del ver y la luz,
y que se expresa primordialmente en el lenguaje. Un lenguaje óptico-lumínico.
Los Fundamentos de la meta-técnica de Mayz Vallenilla son un completo, complejo y
riguroso recorrido por descubrir en todo el filosofar del pensamiento occidental la influencia
y dependencia ordenadora fundamental de todo el conocimiento acumulado por siglos bajo
el logos óptico-lumínico según se expresa en el lenguaje común, filosófico o científico; es
decir, de lo visual y la luz como ordenadores del conocimiento humano.
Dice Mayz:
Asimismo, a partir de semejante hecho [la erección de lo óptico-lumínico como fundamento exclusivo
de la razón humana] idéntica y complementaria jerarquía se le ha otorgado a la luz −así como,
derivadamente, a todo el universo de lo luminoso− convirtiendo a sus estímulos y manifestaciones en
agentes o exponentes de aquella fulgurosa ratio.
Testimonios de ello se encuentran −reiterados desde diversas perspectivas− a lo largo de la historia
de la filosofía occidental… el binomio de lo óptico-lumínico −sea en forma metafórica o real− actúa
como raíz o fundamento, primario o primigenio, de lo racional [3].
Es precisamente la ruptura con el logos óptico-lumínico lo que abre paso en el pensar
a la meta-técnica. Frente a esta modalidad de la técnica tradicional, tal como afirma Mayz,
se avizora una modalidad del logos (pensar, discurso, razonamiento, proto-fundamento,
principio ordenador) diferente. Pues el logos que sustenta la técnica tradicional (con límites
dados por la dotación somato-psíquica humana y caracterizado por una naturaleza
antropomórfica, antropocéntrica y geocéntrica, con preponderancia óptico-lumínica, eje del
sistema sinestésico y de sinergia de la técnica tradicional) se suplanta, se transmuta en un
logos trans-humano que trasciende los límites ingénitos de lo tradicional, al abandonar los
ejes exclusivamente óptico-lumínicos de ese logos antropocéntrico, antropomórfico y
geocéntrico connatural al hombre. Este paso se da gracias al mismo desarrollo tecnológico y
por ello Mayz denomina a este nuevo logos meta-técnico, ya que constituye una nueva
racionalidad, que no es i-rracional ni a-rracional sino la expresión de la misma racionalidad
humana en conjunción con los resultados de su hacer, la técnica. Según Mayz, esta ruptura
procede en varias fases. Una fase puramente antropomórfica, antropocéntrica y geocéntrica
en la que potencia lo sensorio humano como son los casos de los telescopios y microscopios
y otros artefactos. Otra en que se amplía su dominio por mimetismo con otros seres vivos, y
se elimina lo antropomórfico. Por ejemplo artefactos como el radar o los resonadores
magnéticos que imitan algún sensorio animal, como la captación de ondas electromagnéticas
como lo hacen las amebas o los ultrasonidos como sucede con los delfines y los murciélagos.
Que ya no es una técnica antropomórfica, aunque sí geocéntrica y antropocéntrica. Y
finalmente, la fase de la propia meta-técnica, como es el caso de la nanotecnología en la que
no hay nada que pueda calificarse de antropomórfico ni antropocéntrico ni geocéntrico: sus
dominios son universales y no corresponden a algún sensorio humano y resultan autárquicos
y autónomos con relación a la voluntad humana. El logos de esta última fase es en
consecuencia trans-racional, con naturaleza distinta a la racionalidad humana.
En consecuencia, la meta-técnica es un nuevo pensar: un pensar trans-racional i .
Dominios de la meta-técnica
Mayz establece tres vertientes [10] de nuevos instrumentos, artefactos y aparatos de
carácter meta-técnico:
1. Instrumento y aparatos que al modo de sentidos artificiales alteran y transmutan
lo sensorio humano ingénito; y se nos ocurren como paradigmas de tales los
ecosonogramas que extienden los sentidos con imágenes tridimensionales
obtenidas por el empleo de ultrasonidos a través de cuerpos orgánicos opacos;
los visores nocturnos que se valen de luz infrarroja y otro artefactos e
instrumentos que emiten y captan emisiones de energía de luz, calor, radiaciones
no detectables por lo sensorio humano pero que le dan acceso a una alteridad no
antropomórfica, ni antropocéntrica ni geocéntrica de la técnica tradicional ii .
2. Una segunda vertiente meta-técnica se halla representada por instrumentos o
aparatos que alteran lo congénito o connatural de la estructura psico-somática del
hombre alterando el grado y códigos para darle acceso a otra alteridad.
En esta vertiente estaría incluida toda la nanotecnología como computadores
cuánticos, robots moleculares, computadores ADN…
i
Ver “Modelo de trans-racionalidad en el contexto de la meta-técnica y desde la perspectiva del pensamiento
complejo” de Ennodio Torres en esta misma separata de Principia en homenaje al doctor Ernesto Mayz Vallenilla.
ii
Esta vertiente ha sido cuestionada como meta-técnica como lo reporta Vallota [11].
3. Y la más reciente y compleja la constituyen instrumentos y aparatos que
transustancian
ilimitadamente
la
energía
y
la
materia
trans-formando
y
transmutando el perfil de los entes y del universo en total. Su final designio es
convertir progresivamente la alteridad en general en un sistema u holo energético
trans-finito y en constante devenir transmutatorio.
Creemos que el mejor ejemplo de tal meta-técnica lo forman los aceleradores de
partículas, por ejemplo el LHC (Large Hadron Collider en el CERN donde se espera
recrear en escala cuántica el Big Bang iii ).
Mayz dedica gran parte de sus fundamentos de la meta-técnica a mostrar cómo toda
la epistemología y la ontología que evoluciona con la tecnociencia hasta la aparición de los
artefactos e instrumentos de la meta-técnica, tiene una limitación de la raigambre ópticolumínica por su carácter antropomórfico, antropocéntrico y geocéntrico; y que la metatécnica al darnos acceso a una alteridad impone variaciones tanto en la eventual
objetivación e inteligibilización epistemológica como en el campo de la ontología; y necesita
de un nuevo logos que se desprenda de principios y sintaxis óptico-lumínica que permita
expresar la trans-racionalidad de la alteridad de la supranaturaleza dominio de la metatécnica; aunque como la racionalidad humana óptico-lumínica o ratio technica seguirá siendo
como tal, necesita de un lenguaje traductor o nootecnia que pase de la transracionalidad
meta-técnica de la alteridad de la supranaturaleza alcanzada con la meta-técnica a la
racionalidad técnica de naturaleza humana.
No toda la técnica avanzada es meta-técnica. Por ejemplo, la computación tradicional
no cuántica no lo es; pues su paradigma central es el Principio de Turing, según el cual para
toda computación existe una máquina de Turing, y el logos de ésta es óptico-lumínico; a
saber: los principios de identidad, el tercero excluso, el de no-contradicción y la función de
transición sobre los que se fundamenta [9]; en consecuencia es técnica. La inteligencia
artificial y la realidad virtual, tampoco lo son. La inteligencia artificial y la realidad virtual son
mimesis de la inteligencia y realidad que ejerce y conoce el hombre por sus medios
sensorios
y
son,
en
consecuencia,
óptico-lumínicas
y
de
logos
antropomórfico,
antropocéntrico y geocéntrico [12].
En cambio, los instrumentos y artefactos fundamentados en la mecánica cuántica
como la computación cuántica y la nanotecnología en general, lo son. En efecto, nada es
más extraño a los sentidos humanos, menos antropocéntrico, antropomórfico y egocéntrico,
que la mecánica cuántica: que las cosas no existen cuando no las percibimos o medimos;
iii
año.
El experimento no pudo llevarse a cabo en el año 2009 pero se espera hacer de nuevo en el presente
que la materia se concentre en partículas y se disperse en ondas a la vez para coexistir en
este doble comportamiento; que el tiempo pueda moverse hacia atrás o quedarse estático
detenido para siempre en partículas sin masa como los fotones desde el principio del gran
estallido con que comenzó el Universo unos 13.500 millones de años atrás; que todas las
partículas de una misma especie son idénticas y la energía se transmite en cantidades
discretas llamadas cuántos; como, por ejemplo, cuando un electrón pasa de una órbita a
otra sin haber estado en estados intermedios y que hay partículas que están en posiciones
distintas simultáneamente, al mismo tiempo; que hay transmisión
instantánea de
información entre partículas de un mismo origen separadas a distancias tan grandes como
los extremos de una galaxia; y que en el mundo sub-atómico rige el principio de
incertidumbre que nos impide conocer la posición y el momento a la vez de una partícula, es
decir de complementaridad, y prevalece como ley estadística inexorable de los hechos que
hacen del mundo cuántico un mundo de probabilidades en el que la tecnología habitual
tradicional no tiene cabida pues todos los estados del sistema están superpuestos mientras
no se midan... Una de las consecuencias de este Principio es que el observador científico, en
el estudio de los fenómenos del microcosmos, no puede realizar observaciones objetivas: su
participación altera la realidad. El acto voluntario de su conciencia (escoger entre medir la
posición, el momento...) influye sobre la medición. Y esto, que la conciencia aprehenda
directamente la realidad y por sí sola, la modifica; es decir, que al medir creamos la realidad
que
sólo
existe
potencialmente,
no
actualmente,
como
conjetura
de
una
de
las
interpretaciones de la mecánica cuántica. Y, en los últimos años, la posibilidad de que existan
universos paralelos al nuestro o multiverso, como los llama David Deutsch [5], dentro de otra
interpretación, que se detectan por interferencias cuánticas, y que creamos cada momento
con observaciones, mantiene perplejos tanto a científicos como a filósofos. De manera que el
logos, razón, inteligibilización o explicación que nos proporciona esta teoría como lenguaje,
discurso o pensamiento acerca de tal realidad física, por ahora sólo refleja lo que hemos
alcanzado del conocimiento y no es toda la realidad; y deberá ser ajustado en posteriores
avances. Esto es así porque hasta el momento lo que la teoría nos presenta es totalmente
anti-intuitivo a lo que el mundo de la vida diaria es para nosotros. En particular, las leyes de
las probabilidades. Y aunque los físicos suelen recurrir a transformaciones de imágenes con
que pudieran compararse los fenómenos cuánticos con los de la vida diaria, estas
comparaciones sólo sirven para comunicar en lo posible al hombre común lo que ocurre a
nivel sub-atómico. Y hasta algunas veces para presentar experimentos imaginarios. Pero, los
expertos entre sí, sólo pueden entenderse en un logos matemático sin imágenes. En
consecuencia, no conocemos cómo es la realidad en sí, sólo la deducimos matemáticamente.
Lo que las teorías nos dicen es algo sobre lo que nosotros sabemos, no cómo son las cosas
en sí. Por lo tanto, caben interpretaciones o especulaciones científicas de cómo es la realidad
del mundo en que participamos y cómo deberíamos interpretar la teoría cuántica.
Interpretación meta-técnica de la nanotecnología
En tal sentido, encontramos un paralelismo aunque diferentes lenguajes, uno
filosófico y el otro científico, entre lo que dice el filósofo Ernesto Mayz Vallenilla sobre la
trans-racionalidad de la alteridad que alcanzamos por medio de la meta-técnica y los
científicos que interpretan la mecánica cuántica. Según Mayz “la trans-racionalidad del logos
meta-técnico, a pesar de su disimilitud con la racionalidad humana, posibilita e inaugura una
dimensión y/o proyección de la misma (trans-óptica, trans-finita, trans-humana) que en
lugar de aniquilarla, propicia no sólo su enriquecimiento intrínseco, sino paralelamente la
transformación y trans-mutación de la alteridad total” [11]. Ahora, la formalización de la
mecánica cuántica por medio de la matemática de los espacios de Hilbert se hizo con la
lógica clásica (racionalidad); es decir, basada en los principios de identidad, tercero excluso
y consistencia; pero, la lógica cuántica, que pretende inteligibizar la formalización de Hilbert
y otras más, es no-clásica, valga decir, no se sostiene en los anteriores principios o ratio,
como los califica Mayz; como por ejemplo, el de la ley distributiva clásica que no es válida
en la lógica cuántica [13] y [15].
1. Transracionalidad
Toda teoría científica se espera alcance dos objetivos: (a) prediga los resultados de
los procesos en su dominio; (b) explique los fenómenos bajo estudio para que aumente
nuestra comprensión humana de la naturaleza. La mecánica cuántica es la teoría más
exitosa de la física actual en cuanto a precisión de cálculos y predicciones: no existen
conflictos entre los experimentos en la mecánica cuántica y lo que la teoría predice. No es
así en cuanto a la explicación que ofrece sobre estos fenómenos, pues no concuerdan de
ninguna manera con nuestras intuiciones y sentido común de la percepción humana del
universo. Algunas interpretaciones buscan acomodar los resultados de la mecánica cuántica
con el sentido común, valga decir, a las dimensiones intermedias de la mecánica de Newton
o hamiltoniana; otras intentan aceptar que vivimos en un mundo no-clásico, es decir no
hamiltoniano, y que la visión que hasta ahora hemos tenido del mundo, esto es, de la metafísica y la epistemología pre-cuántica, son limitadas, circunscritas al dominio de la
dimensiones intermedias; valga decir, en las que nos desenvolvemos los seres humanos en
el quehacer diario; pero esto es lo mismo que decir, a las limitaciones óptico-lumínicas de
raigambre humana, tal como lo expone Mayz en sus Fundamentos... [1]. Pero, Mayz abre
una posibilidad dentro de la interpretación, no limitada de la mecánica cuántica pero que la
incluiría, y ésta es la de la trans-racionalidad de una realidad más allá del alcance de lo
sensorio humano; es decir, de la alteridad trans-óptica y trans-lumínica que nos genera la
meta-técnica, pero a la que tendríamos sólo acceso a través de un lenguaje traductor que
nos permitiría su interpretación y que él llama nootecnia. Dentro de su esquema filosófico,
tal nootecnia pudiera ser un formalismo como el que se inicia con los trabajos de John von
Neumann en 1932 en lógica cuántica, que es no clásica en cuanto que al derivar de redes no
distributivas, no se cumple la tautología distributiva como en la clásica; y continúa hoy en
día desarrollándose sin alguna interpretación generalmente aceptada y persigue unos
principios más fundamentales que los de la física para la mecánica cuántica, otro logos…
como lo llamaría Mayz.
La interpretación meta-técnica de la alteridad que gobierna la mecánica cuántica y,
en consecuencia, de la nanotecnología, incluiría un lenguaje traductor o nootécnico con las
características prefiguradas por Mayz en sus fundamentos de la meta-técnica; en el caso de
la lógica cuántica, desprendida de sus principios clásicos en su totalidad: una verdadera
nueva lógica traductora entre la trans-racionalidad y la racionalidad: es decir entre el mundo
no-clásico y el clásico o entre las dimensiones nanométricas y las métricas. En consecuencia,
en el dominio de la alteridad física, la interpretación meta-técnica sería una opción a
estudiarse entre las siguientes interpretaciones de la mecánica cuántica dentro de otras
más:
La de Copenhague que es pragmática. La teoría sirve para calcular no para explicar y
se le debe a Bohr. La teoría cuántica tiene como fin relacionar observaciones no realidades.
No intenta decirnos cuál es la realidad física, sólo lo que observamos y nuestra observación
la cambia. La física se reduce a tratar lo que pasa en nuestras mentes conscientes.
La de Bohn, según el cual hay dos mundos, el clásico y el cuántico, y todo se fijó al
principio del universo. Nuestra conciencia tiene sólo acceso al clásico. Como esperaba
Einstein, hay variables ocultas que una mejor teoría revelará.
La de Everett. El universo se separa constantemente en nuevos universos para cada
observación. Sólo conocemos uno. Y lo que conocemos es una superposición de muchos
mundos, la realidad última no es un universo sino un multiverso.
La de Heisenberg y Popper: afirma que hay dos realidades, una potencial y otra de
actualidades. En la cuántica todas son posibles, en la observada una se hizo actual.
La de Wigner extendiendo la anterior que dice que lo que caracteriza a un
dispositivo detector es la experiencia en relación con la medida. En tal sentido el dispositivo
de medida en última instancia es la dinámica cerebral de la conciencia. Es decir, nuestras
vivencias.
Más otras conocidas por variables ocultas, probabilidades extendidas, modelos
transaccionales, modelos lineales...
Y la de la meta-técnica que se expondría así:
La mecánica cuántica pertenece al dominio de una alteridad no óptica-lumínica sólo accesible por
instrumentos y artefactos meta-técnicos inventados por el ser humano pero que se han desprendido
de la raigambre óptico-lumínica de carácter antropomórfico, antropocéntrico y geocéntrico de la
naturaleza humana, propios de una técnica anterior, que podríamos llamar clásica pues se
fundamenta en una físico-matemática clásica, previa al desarrollo tecno-científico del siglo XIX en el
caso de la matemática y de la física en el XX. Estos artefactos operan bajo principios meta-técnicos
de la trans-racionalidad que no obedecen a la lógica clásica, sino que sólo pueden ser interpretados
mediante una nueva lógica no sostenida en tales principios; una lógica no clásica en que estos se han
trans-mutados, pero que pueden traducir a nuestro mundo clásico mediante un formalismo, una
sintaxis, denominada nootecnia. Esto es que entre la lógica no clásica de la meta-técnica y la clásica
debe existir una correspondencia, proyección o nootecnia para que su interpretación nos permita
acceder con nuestro entendimiento a la alteridad trans-racional: es decir, sea el puente entre la
trans-racionalidad cuántica y la racionalidad clásica indispensable para continuar con el avance del
conocimiento humano.
2. Nootecnia
Si el argumento anterior es válido, podríamos encontrar algunos paradigmas en las
matemáticas actuales que sirvan de modelos a la nootecnia. Puesto que los artefactos metatécnicos se fundamentan y fundamentarán en la mecánica-cuántica como la teoría noclásica 1 más acabada de la física actual, su formalización matemática sería un buen dominio
para explorar la nootecnia como lenguaje traductor de la trans-racionalidad meta-técnica a
nuestra racionalidad humana.
A manera de una introducción a la sintaxis matemática de la nootecnia, consideremos
los principios o ratio de la lógica tradicional que es técnica por sus características
antropomórficas, antropocéntricas y geocéntricas evidentes en los principios de identidad,
tercero excluso y de consistencia o no contradicción y su equivalente nootécnico de la lógica
cuántica que se libera en parte de tal ratio.
La más usada formalización y axiomatización de la mecánica cuántica se hace en
términos de estructura de espacios lineales, en particular de espacios de Hilbert; esto es:
todos los objetos de la física cuántica deben ser expresados en términos de la teoría de los
espacios de Hilbert: productos escalares, suma lineal, sub-espacios, operadores, medida y
así… [14].
1
La Teoría de la relatividad es considerada clásica.
La lógica cuántica se deriva de los espacios de Hilbert de la mecánica cuántica,
entonces todos los primitivos lógicos, valga decir, proposiciones y operadores deben ser
definidos por entidades de espacios de Hilbert. Esto es, que la operación con proposiciones
que afirman o niegan estados observables de objetos físicos son verdaderas o falsas según
sea la proyección del espacio de Hilbert en tales proposiciones. De tal manera, la realidad
del sistema físico asociado a las estructuras especificadas por el espacio de Hilbert, al que no
tenemos acceso sino cuando tomamos medidas del sistema, se hace accesible a nuestro
entendimiento. En consecuencia, la lógica cuántica es el traductor en términos de la
racionalidad humana, de la trans-racionalidad cuántica. Lo que en términos meta-técnicos es
un intento de nooctecnia. ¿Qué le faltaría? [15]. En primer lugar, por lo que se espera de la
trans-racionalidad, los principios de la racionalidad del ratio óptico-lumínico de identidad,
tercero-excluso y consistencia o no contradicción deberían ser trans-mutados en la transracionalidad, en otros principios no óptico-lumínicos como lo son aquellos; valga decir, en
una nueva ratio que Mayz llama logos. Pero las lógicas no clásicas, tales como la modal,
probabilística, difusa, no-monotónicas y muchas otras especiales, sólo trans-mutan uno o
dos de estos principios, no todos a la vez; el más comúnmente no transmutado es el del
tercero-excluso. En el caso de lógica cuántica, sólo el principio de ley distributiva deducido
de los anteriores, no es transmutado a la lógica cuántica desarrollada hasta ahora, pues no
se sostiene. La razón es que, en su fundamento, la mecánica cuántica es considerada un
cálculo de probabilidades no-clásico que descansa sobre una lógica proposicional no clásica.
Más específicamente, en la mecánica cuántica cada proposición del tipo “El valor de la
cantidad física A cae dentro de un rango B” [14] está representada por un operador del
espacio de Hilbert H. Esto forma una estructura matemática de red (latice) no distributiva
[14] y [16]. Por lo que un estado cuántico corresponde a la medida probabilística definida en
esta red. En consecuencia, la lógica asociada o derivada de la formalización de la mecánica
clásica, es decir la lógica cuántica es no clásica o en términos más precisos no-boleana [15].
Lo más importante al respecto que debemos hacer notar es que no hay una
interpretación generalmente aceptada y satisfactoria de tal lógica cuántica; valga decir, un
modelo explicativo de la realidad física que representa. El caso es que no lo hay tampoco
para la mecánica cuántica.
En síntesis, nuestra tesis es que: en el dominio de la mecánica cuántica, la lógica
cuántica se perfila como nootecnia traductora entre la trans-racionalidad meta-técnica y la
racionalidad técnica y su expresión meta-técnica más pura es la nanotecnología.
Esperamos que el futuro desarrollo de tal formalismo confirme la tesis propuesta; ya
avizorada por el doctor Ernesto Mayz Vallenilla en Fundamentos de la meta-técnica.
Al respecto, sólo bastaría añadir que, hasta el presente, apenas hemos abordado la
frontera en que termina la técnica de la computación clásica y comienza la de la
computación cuántica, en primer lugar, y posteriormente hacia la nanotecnología. Y
avizoramos un puente de comunicación formal entre ambas con la lógica cuántica; y con tal
puente de comunicación, un perfil de nootecnia. Pero, no sabemos si los lenguajes lógicomatemáticos, con sus teoremas de limitación, serán los más apropiados para una nootecnia
universal, como aspira Mayz, a fin de que ésta abarque toda la epistemología del logos
meta-técnico, y para todo tipo de meta-técnica y correspondiente técnica, en todos los
dominios de la tecno-ciencia. Efectivamente, Mayz avizora la sintaxis inteligibilizadora de la
transracionalidad sin imágenes ni símbolos para suprimir toda influencia óptico-lumínica
como ya discutimos. La matemática misma debería ser refundada, según nos lo ha dicho el
Dr. Mayz, para que no use necesariamente términos optico-lumínicos... originados en los
caracteres antropocéntricos, antropomórficos y geocéntricos de su evolución. Y aunque la
búsqueda de un lenguaje universal para toda la ciencia que desde Leibniz ha sido el sueño
de muchos pensadores dista hoy de ser una posibilidad por el carácter cada vez más
especializado
del
conocimiento
tecno-científico,
algunos
científicos
piensan
que
la
computación pudiera ser la ciencia integradora de todas las ciencias... dado el carácter
universal que como instrumento tiene [8]. Y, aún más, si se la ve de una manera más
profunda, tratando a las leyes de la Naturaleza como programas que se están ejecutando en
el contenido material del universo: es decir, expuesto meta-teóricamente, como si las leyes
de la Naturaleza fuesen el software que se ejecuta en el hardware de la materia cósmica.
Un resultado fructífero de una visión computacional de la naturaleza es que nos
revela los motivos profundos del porqué la Naturaleza es inteligible para la mente humana;
por qué la ciencia es posible y por qué las matemáticas son tan efectivas para la descripción
de la alteridad [8]. De ser así, la investigación en la computación cuántica desde una
perspectiva lógico-matemática con visión meta-técnica, como la concebida por Mayz
Vallenilla en la búsqueda de la nootecnia correspondiente, es de fundamental importancia
para la comprensión del desarrollo de la filosofía de la ciencia y la tecnología en el futuro,
como de la epistemología misma; y, según Alfredo Vallota, de una nueva meta-física [4].
Nuestros trabajos, de tal manera, no pueden ser más que apenas el inicio de otros proyectos
por venir, necesariamente más complejos y de mayor envergadura. Al respecto, no podemos
menos que ser fieles seguidores del pensamiento universal de este distinguido y perspicaz
filósofo contemporáneo y, con orgullo decirlo, latinoamericano, que es el Dr. Ernesto Mayz
Vallenilla, quien ha dedicado su vida, con sus lecciones, sus libros y sus desvelos a favor de
una educación para el hombre técnico en América Latina consciente de su identidad y sus
virtualidades; como sus propias palabras lo anuncian, cuando sobre la Meta-técnica nos
dice:
Ello significa desde ahora tal como se verá en los tiempos por venir una lenta pero inexorable
implantación de nuevas modalidades, horizontes y límites, en el despliegue de la racionalidad humana
y transhumana... y, por supuesto, en la sintaxis de sus proyectos y gestas instituyentes. En algo tan
aparentemente simple como esto según pensamos reposan los gérmenes del próximo futuro [1].
Referencias
[1]
Mayz Vallenilla Ernesto. Fundamentos de la meta-técnica. Monte Ávila Editores,
1990.
[2]
K. Eric Drexler. La nanotecnología. Gedisa editorial. Barcelona, España. 1993.
[3]
Mayz Vallenilla Ernesto. Fundamentos de la meta-técnica. Monte Ávila Editores,
1990. Página 11.
[4]
Castillo, Alberto; Jiménez, Douglas; Alfredo Vallota. Técnica y meta-técnica de
la computación. UCLA-IDEA. Capítulo II de Alfredo Vallota.
[5]
Deutsch, David. The Fabric of Reality. Penguin Books. 1997. Página 50.
[6]
Ibidem. Página 134.
[7]
Feynman, Richard. Quatum mechanical computers. Optic News. Vol. 11.
Deutsch, D. Quantum theory, the Church-turing Principle and the Universal
Quantum Computer. Proceeding Royal Society London, volume A400, 1985, pp.
97-117. Según esta monografía, todo proceso físico puede ser simulado en un
computador cuántico universal; valga decir, todo artefacto nanotecnológico
corresponde a por lo menos una computación cuántica.
Benett, C.H. Logical reversibility computations. IBM Journal of Research and
Development. 1979. Pp. 525-532.
Williams P y Scott H. Explorations in Quantum Computing. Telos, California USA
1997, Vol. 54. Pp. 147-157.
Milburn, G. Feynman Processor: Perseus Book, 1998, Mass, USA.
Nanotechnology white papers. Diciembre del 2009. http://www.nanotechnow.com/white-papers-abstracts.htm
Nanotechweb.org monografías para la divulgación en inglés.
[8]
Chaitin, Gregory J. Conversations with a mathematician, Math, Art, science and
the limits of reasons. Springer Verlag. 2002. Página 125.
[9]
Castillo, Alberto; Jiménez, Douglas; Alfredo Vallota. Técnica y meta-técnica de
la computación. UCLA-IDEA. Capítulo II de Alfredo Vallota. Capítulo IV.
[10] Mayz Vallenilla Ernesto. Fundamentos de la meta-técnica. Monte Ávila Editores,
1990. Páginas 22 y 23.
[11] Castillo, Alberto; Jiménez, Douglas; Alfredo Vallota. Técnica y meta-técnica de
la computación. UCLA-IDEA. Capítulo II de Alfredo Vallota. Páginas 45-47.
[12] Mayz Vallenilla Ernesto. Fundamentos de la meta-técnica. Monte Ávila Editores,
1990. Página 47.
[13] Putnam, H. “Is logic empirical?” in R. Cohen and M.P. Wartofski (eds.), Boston
Studies in the Philosophy of Science 5 (Dordrecht, Holland: D. Reidel, 1968).
Reprinted as “The logic of quantum mechanics” in H. Putnam, Mathematics,
Matter and Method, Cambridge University Press (1976).
[14] Svozil, Karl. Quantum Logic. Springer Verlag. 1998. Páginas 3-6.
[15] Quantunm Logic and Probability Theory. Stanford Encyclopedia of Philosophy.
http://plato.stanford.edu/entries/qt-quantlog/#2.
[16] Quantum Logic is alive. Michael Dickson. History and Philosophy of Science.
Indiana University.
Descargar