LA ÉTICA EN LA ROBÓTICA

Anuncio
LA ÉTICA EN LA ROBÓTICA
1. situación actual del tema.
Actualmente en países como Japón y estados unidos, se desarrollan robots con el
fin de ayudar a los seres humanos en sus labores diarias en el hogar, pero es
sobre todo en la industria donde ya vemos implementación por una diversidad de
procesos industriales como lo son: la soldadura de punto y soldadura de arco,
pinturas de spray, transportación de materiales, molienda de materiales, moldeado
en la industria plástica, máquinas-herramientas, y otras más.
Uno de los campos de la tecnología más extensos es el de la robotica en campos
como:
Medicina
 Rehabilitación
 Cirugías
 Diagnósticos
Exploración
 Sondas planetarias, satélites, fondo marino, volcanes
 Rovers (vehículos con diferentes tipos de ruedas)
Industria
 Ensamble (automotriz, distribución, empaque, etc ..)
Tareas dedicadas
 Inspección de reactores nucleares, o lugares peligrosos
Se ha planteado sobre todo en libros y películas, ¿que sucedería si los robots
cobraran inteligencia parecida a la de los seres humanos y quisieran dominarnos?
Por ello Asimov planteaba tres leyes sobre las que se debería establecer el
comportamiento de un robot:
1º: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que
un ser humano sufra daño.
2º: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si
estas órdenes entrasen en conflicto con la Primera Ley.
3º: Un robot debe proteger su propia existencia en la medida en que esta
protección no entre en conflicto con la Primera o la Segunda Ley.
Sobre estas leyes se basa la creación y manipulación de los Robots, poniendo
siempre sobre estos al ser humano y su supervivencia.
2. ¿Cuáles son los problemas éticos relacionados?
Quién es propiamente responsable de una eventual mala acción realizada por un
robot? ¿El robot o su constructor? ¿El constructor o el programador?
Según Robert Wiener “Hoy nosotros somos los creadores, y los robots son
nuestros Golem. Pero, ¿somos realmente como Dios?, y más aún, ¿cuál es la
relación que podemos tener con nuestras criaturas? (o, mejor dicho, con nuestras
creaciones), ¿qué responsabilidad tenemos en estos casos?, y ¿qué significa, en
estos casos, tiene la responsabilidad?.”
3. ¿Este tema está contemplado en el código de ética?
El gobierno de Corea del Sur está redactando un código ético para evitar que los
humanos abusen de los robots, y viceversa. La llamada Carta de Ética para
Robots abarcará los principios para usuarios y fabricantes de robots, así como las
normas éticas que habrán de ser programadas en los androides, informó el
Ministerio de Comercio, Industria y Energía de Corea del Sur.
"La medida se anticipa al día en que los robots, sobre todo los robots inteligentes
de servicio, puedan ser parte de la vida cotidiana conforme se realicen mayores
adelantos tecnológicos", decía la declaración del ministerio. Un grupo de cinco
expertos, que incluye futuristas y un escritor de ciencia ficción, comenzó a trabajar
en la carta el noviembre pasado.
Gianmarco Veruggio, de la Escuela de Robótica en Génova, Italia, y reconocida
autoridad en ética para robots (roboética), comentó, "la robótica es una nueva
ciencia, con numerosas aplicaciones, que puede ayudar a la humanidad y resolver
muchos, muchos problemas. Sin embargo, como en todos los cambios de la
ciencia y la tecnología, siempre surgen áreas delicadas, por lo cual los científicos
que laboran en este campo tienen la responsabilidad de enfrentar la nueva
diversidad de problemas sociales y éticos".
Maltrato de robots
El objetivo principal de la carta ética consiste en resolver los problemas sociales,
tales como el control humano sobre los robots y la posibilidad de que el ser
humano se vuelva adicto a la interacción con los androides. El documento también
tocará aspectos legales, como la protección de los datos que adquieran los robots,
y tratará de establecer una clara identificación y la capacidad para rastrear las
máquinas.
Los adelantos tecnológicos han permitido nuevos modelos de interfaz humanomáquina que podrían plantear diversos desafíos éticos, apuntó Veruggio, el
científico italiano. "Piense en la biorrobótica, en la aplicación militar de la robótica,
en los robots dentro de los cuartos de los niños", declaró.
Las leyes de la robótica
El código surcoreano, que posiblemente incluya lineamientos para los propios
robots, podría ser considerado una especie de reconocimiento a las tres leyes de
la robótica formuladas por Isaac Asimov. Conocidas por los aficionados a la
ciencia ficción, dichas leyes aparecieron por primera vez en un cuento corto del
difunto autor, Círculo vicioso (Runaround), publicado en 1942.
Las leyes establecen que los robots no pueden lastimar a los humanos ni permitir
que corran peligro como consecuencia de una falta de intervención; los robots
deben obedecer las órdenes humanas a menos que estén en conflicto con la
primera ley, y los robots deben protegerse si para ello no entran en conflicto con
las otras leyes.
No obstante, los investigadores en robótica afirman que las leyes de Asimov y la
normativa surcoreana son cosa de ciencia ficción y todavía no pueden aplicarse a
su campo de especialidad. "Aunque celebro el esfuerzo coreano para establecer
una carta de ética para robots, temo que sería prematuro basarla en las leyes de
Asimov", declaró Mark Tilden, diseñador de RoboSapien, un robot parecido a un
juguete.
"Por experiencia, sé que el problema de conferir principios morales a los robots es
como enseñarle a una hormiga a cantar. Todavía no hemos alcanzado ese nivel y,
como demuestran muchas historias de Asimov, los enigmas que enfrentarían
robots y humanos resultarían en más tragedias que beneficios", agregó Tilden,
quien trabaja para Wow Wee Toys, en Hong Kong.
Hiroshi Ishiguru, investigador de la Universidad de Osaka y uno de los creadores
de Repliee Q1 y Q2, un androide femenino, asegura que todavía es demasiado
pronto para determinar el futuro de la ética robótica basándose sólo en las leyes
de Asimov. "Si tenemos un vehículo inteligente, ¿quién se hace responsable
cuando ocurre un accidente? -plantea-. Lo mismo podríamos preguntarnos acerca
de los robots, que carecen de inteligencia humana. Son más parecidos a los
vehículos que tenemos en la actualidad".
4. Plantear un caso de estudio (diseñar el caso de estudio, recolectar los
datos, analizar el caso de estudio y elaborar el reporte).
Las actuales máquinas inteligentes son simples en extremo; en parte porque son
muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante,
su avance arrollador las hará inmensamente más complejas en poco tiempo más.
Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra
cosa.
Si una máquina puede desarrollar tanto actividades cognitivas como afectivas
(emociones), habría que empezar a pensar seriamente sobre qué posición ocupa
la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su
programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág.
145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera
nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985].
De acuerdo con las leyes vigentes, los robots son simplemente una propiedad
inanimada sin derechos ni deberes. No son personas legales (al igual que las
máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin
embargo, se debe recordar que, en algún momento de la historia del Hombre,
tampoco fueron considerados como personas legales los negros, los niños, las
mujeres, los extranjeros y las empresas [Freitas Jr., 1985].
Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener
debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si
desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo
permanentemente” constituiría una especie de asesinato.
Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una
gama de emociones equivalentes a las que componen al ser humano promedio?
Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese
animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más
que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000].
¿Chatarra o asesinato?
Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un
modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o
cualquier electrodoméstico, ¿no sería también una especie de asesinato?
Antes de construir humanoides inteligentes, se deberían resolver algunos
problemas. De hecho, al momento de diseñarlos se debería tener definido si no es
una crueldad producir en masa androides sintientes y luego eliminarlos en
“campos de exterminio”.
Actualmente, cualquier robot se considera un bien instrumental; en consecuencia,
su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es
probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos
derivados de la propiedad de los androides [Monopoli, 2005].
Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y
demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay
quienes afirman que el homo sapiens compartirá el planeta con formas de vida
sintética que hasta podrían tener “derechos legales”.
¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar
los “derechos humanos”? Si un robot emula perfectamente las características
humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que
tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían
rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006].
¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su
propia sociedad?
Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para
asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas
que la diseñaron, de la empresa que la diseñó, de las personas que la
construyeron o de la empresa que la construyó? Asimismo, ¿deberían
concedérseles patentes a las máquinas? Si un robot (una computadora o una
máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?
Descargar