LA ÉTICA EN LA ROBÓTICA 1. situación actual del tema. Actualmente en países como Japón y estados unidos, se desarrollan robots con el fin de ayudar a los seres humanos en sus labores diarias en el hogar, pero es sobre todo en la industria donde ya vemos implementación por una diversidad de procesos industriales como lo son: la soldadura de punto y soldadura de arco, pinturas de spray, transportación de materiales, molienda de materiales, moldeado en la industria plástica, máquinas-herramientas, y otras más. Uno de los campos de la tecnología más extensos es el de la robotica en campos como: Medicina Rehabilitación Cirugías Diagnósticos Exploración Sondas planetarias, satélites, fondo marino, volcanes Rovers (vehículos con diferentes tipos de ruedas) Industria Ensamble (automotriz, distribución, empaque, etc ..) Tareas dedicadas Inspección de reactores nucleares, o lugares peligrosos Se ha planteado sobre todo en libros y películas, ¿que sucedería si los robots cobraran inteligencia parecida a la de los seres humanos y quisieran dominarnos? Por ello Asimov planteaba tres leyes sobre las que se debería establecer el comportamiento de un robot: 1º: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2º: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. 3º: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley. Sobre estas leyes se basa la creación y manipulación de los Robots, poniendo siempre sobre estos al ser humano y su supervivencia. 2. ¿Cuáles son los problemas éticos relacionados? Quién es propiamente responsable de una eventual mala acción realizada por un robot? ¿El robot o su constructor? ¿El constructor o el programador? Según Robert Wiener “Hoy nosotros somos los creadores, y los robots son nuestros Golem. Pero, ¿somos realmente como Dios?, y más aún, ¿cuál es la relación que podemos tener con nuestras criaturas? (o, mejor dicho, con nuestras creaciones), ¿qué responsabilidad tenemos en estos casos?, y ¿qué significa, en estos casos, tiene la responsabilidad?.” 3. ¿Este tema está contemplado en el código de ética? El gobierno de Corea del Sur está redactando un código ético para evitar que los humanos abusen de los robots, y viceversa. La llamada Carta de Ética para Robots abarcará los principios para usuarios y fabricantes de robots, así como las normas éticas que habrán de ser programadas en los androides, informó el Ministerio de Comercio, Industria y Energía de Corea del Sur. "La medida se anticipa al día en que los robots, sobre todo los robots inteligentes de servicio, puedan ser parte de la vida cotidiana conforme se realicen mayores adelantos tecnológicos", decía la declaración del ministerio. Un grupo de cinco expertos, que incluye futuristas y un escritor de ciencia ficción, comenzó a trabajar en la carta el noviembre pasado. Gianmarco Veruggio, de la Escuela de Robótica en Génova, Italia, y reconocida autoridad en ética para robots (roboética), comentó, "la robótica es una nueva ciencia, con numerosas aplicaciones, que puede ayudar a la humanidad y resolver muchos, muchos problemas. Sin embargo, como en todos los cambios de la ciencia y la tecnología, siempre surgen áreas delicadas, por lo cual los científicos que laboran en este campo tienen la responsabilidad de enfrentar la nueva diversidad de problemas sociales y éticos". Maltrato de robots El objetivo principal de la carta ética consiste en resolver los problemas sociales, tales como el control humano sobre los robots y la posibilidad de que el ser humano se vuelva adicto a la interacción con los androides. El documento también tocará aspectos legales, como la protección de los datos que adquieran los robots, y tratará de establecer una clara identificación y la capacidad para rastrear las máquinas. Los adelantos tecnológicos han permitido nuevos modelos de interfaz humanomáquina que podrían plantear diversos desafíos éticos, apuntó Veruggio, el científico italiano. "Piense en la biorrobótica, en la aplicación militar de la robótica, en los robots dentro de los cuartos de los niños", declaró. Las leyes de la robótica El código surcoreano, que posiblemente incluya lineamientos para los propios robots, podría ser considerado una especie de reconocimiento a las tres leyes de la robótica formuladas por Isaac Asimov. Conocidas por los aficionados a la ciencia ficción, dichas leyes aparecieron por primera vez en un cuento corto del difunto autor, Círculo vicioso (Runaround), publicado en 1942. Las leyes establecen que los robots no pueden lastimar a los humanos ni permitir que corran peligro como consecuencia de una falta de intervención; los robots deben obedecer las órdenes humanas a menos que estén en conflicto con la primera ley, y los robots deben protegerse si para ello no entran en conflicto con las otras leyes. No obstante, los investigadores en robótica afirman que las leyes de Asimov y la normativa surcoreana son cosa de ciencia ficción y todavía no pueden aplicarse a su campo de especialidad. "Aunque celebro el esfuerzo coreano para establecer una carta de ética para robots, temo que sería prematuro basarla en las leyes de Asimov", declaró Mark Tilden, diseñador de RoboSapien, un robot parecido a un juguete. "Por experiencia, sé que el problema de conferir principios morales a los robots es como enseñarle a una hormiga a cantar. Todavía no hemos alcanzado ese nivel y, como demuestran muchas historias de Asimov, los enigmas que enfrentarían robots y humanos resultarían en más tragedias que beneficios", agregó Tilden, quien trabaja para Wow Wee Toys, en Hong Kong. Hiroshi Ishiguru, investigador de la Universidad de Osaka y uno de los creadores de Repliee Q1 y Q2, un androide femenino, asegura que todavía es demasiado pronto para determinar el futuro de la ética robótica basándose sólo en las leyes de Asimov. "Si tenemos un vehículo inteligente, ¿quién se hace responsable cuando ocurre un accidente? -plantea-. Lo mismo podríamos preguntarnos acerca de los robots, que carecen de inteligencia humana. Son más parecidos a los vehículos que tenemos en la actualidad". 4. Plantear un caso de estudio (diseñar el caso de estudio, recolectar los datos, analizar el caso de estudio y elaborar el reporte). Las actuales máquinas inteligentes son simples en extremo; en parte porque son muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante, su avance arrollador las hará inmensamente más complejas en poco tiempo más. Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra cosa. Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág. 145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985]. De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas [Freitas Jr., 1985]. Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato. Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000]. ¿Chatarra o asesinato? Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato? Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides sintientes y luego eliminarlos en “campos de exterminio”. Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides [Monopoli, 2005]. Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el homo sapiens compartirá el planeta con formas de vida sintética que hasta podrían tener “derechos legales”. ¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006]. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad? Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó? Asimismo, ¿deberían concedérseles patentes a las máquinas? Si un robot (una computadora o una máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?