DILEMAS MORALES

Anuncio
DILEMAS MORALES
Efraín Villanueva Arcos
“Así que nunca más pasearemos tan tarde de noche, aunque el corazón siga enamorado y aunque siga brillando la luna”.
Lord Byron (citado por Ray Bradbury en sus “Crónicas Marcianas”).
Estas reflexiones vinieron a mí al revisar la edición del dos de junio de The Economist
(“Robot ethics: Morals and the machines”) donde se analiza ya el asunto de la ética que
debe imprimirse en los robots que alcanzan una gran autonomía de acción. Me parece que
al iniciar la cuarta década de este siglo lo más sorprendente será el avance de la robótica y
los usos de modernas máquinas para situaciones de la vida cotidiana, que están llevando a
filósofos y científicos de otras latitudes a discutir sobre el futuro de las máquinas. The
Economist nos recuerda aquella película de ciencia ficción estrenada en el año de 1968 que
fue todo un acontecimiento cultural. “2001 Odisea del Espacio” de Stanley Kubrick, que
impulsó una reflexión sobre la relación del ser humano consigo mismo y con los demás,
pero sobre todo su relación con las herramientas creadas por él mismo: las máquinas. Hay
dos momentos que son espectaculares en dicha película. El primero es cuando un homínido,
un primate antecedente del homo sapiens utiliza por primera vez un hueso como arma para
defenderse de otros depredadores y aprende así a dominar también a otros primates rivales
(es la etapa más antigua y el inicio de la civilización: el uso de la herramienta), y el otro
momento es futurista, el viaje del Discovery en el espacio cuando la computadora central
de la nave (Hal 9000) se enfrenta a un dilema: por un lado, completar la misión de la nave
para la cual fue programada que consiste en investigar un artefacto cerca de Júpiter, y por la
otra mantener esta misión lejos del conocimiento de la tripulación; para lograrlo, el robot
decide eliminar a la tripulación, con lo cual se enfrenta a su propio creador. El viejo dilema
de la máquina que al adquirir autonomía se vuelve contra su creador: el ser humano.
Los conflictos morales que está generando la proliferación de robots para usos civiles y
militares es por demás interesante. Hoy se plantean los problemas que se presentan con las
fallas de la robótica (recordemos el conflicto suscitado entre Estados Unidos y Pakistán
cuando un avión no tripulado –un drone- masacró por error a un grupo de soldados
paquistaníes), pero insistiendo que los robots con capacidad de autonomía pueden hacer
más bien que mal. Lo cierto es que la sociedad moderna no puede prescindir ya de las
máquinas y sus cerebros artificiales –las computadoras; la mayoría de los aviones
comerciales modernos cuentan con dispositivos que les permiten volar y aterrizar bajo el
control de una máquina; en algunos países ya están circulando los autos sin chofer en
amplios tramos carreteros y los robots-soldados ya demostraron su efectividad al combatir
en diversos puntos de Iraq y Afganistán.
Pero ciertamente, no se está siguiendo la recomendación del científico y escritor de ciencia
ficción Isaac Asimoc según la cual las leyes de un robot deben ser tres y en ese orden:
proteger a los humanos, obedecer órdenes y preservarse a sí mismos. Los drones y los
soldados robot no siguen este orden; los cerebros que están detrás de ellos no los están
programando así. Hay humanos que aún piensan que existen otros humanos a quienes hay
que eliminar.
Por ello, en otros países ya están debatiendo e incluso legislando sobre el papel de los
robots autónomos en la vida social, proponiéndose cuáles son las responsabilidades para el
diseñador, el programador y el fabricante en caso de falla, e incluso las implicaciones para
el uso de las redes neuronales artificiales y los sistemas cibernéticos de toma de decisiones.
En este sentido, los sistemas éticos sobre los cuales los robots puedan realizar juicios y
tomar decisiones deben parecer los justos y correctos ante los ojos de la mayoría de los
filósofos, los ingenieros, los abogados, sociólogos y diseñadores de políticas públicas.
Pero mientras en otros países están enfrascados en este tipo de debates futuristas, en
México estamos aún discutiendo si conviene que avance o no la propuesta del Presidente
Electo Enrique Peña Nieto para instalar una Comisión Anticorrupción –lo que
necesariamente nos lleva a pensar en la difusa ética del ser humano, sobre todo del político
en funciones-, y debatimos también si en la reforma laboral debe o no obligarse a los
sindicatos a la transparencia y la rendición de cuentas así como también al voto libre y
secreto en la elección de sus dirigentes. Desde una perspectiva optimista, puedo decir que
por lo menos en México ya empezamos a discutir seriamente sobre los dilemas éticos que
nos presenta la profundización democrática, así como esa corrupción tan extendida.
Mi conclusión es que en ambos niveles de debate el eje debe necesariamente ser el sentido
humanista de la elección, tal como lo plantea Kubrick al final de su película, o bien como lo
resume Ray Bradbury, otro genial escritor de ciencia ficción en una de sus maravillosas
historias: al relatar el momento cuando un grupo de astronautas pierden su nave y están
condenados a morir irremediablemente al caer sin protección en el espacio sideral, algunos
se intercambian mensajes radiofónicos de reclamo y de acusaciones mutuas; solamente uno
de ellos se concentra pensando que ojalá al momento de desintegrarse al ingresar a la
atmósfera terrestre y convertirse en una estrella fugaz, un niño lo vea y pida un deseo: es el
sentido último de la utilidad de la vida, el momento de enfrentar lo irremediable y pensar
que has sido útil a los demás.
Correo-e: [email protected]
Descargar