Informática y Sociedad Tu, Robot Alumnos: Profesor: Concepción, 21 de marzo de 2005 Rodrigo Almendras Roberto Vargas Yussef Farrán Introducción Los cuestionamientos éticos relacionados con la posible creación futura de maquinas superinteligentes son absolutamente distintas de cualquier problema ético que se presente en sistemas actuales de la automatización y la información. La creación de robots con inteligencia similar a los humanos no seria solo otro desarrollo tecnológico sino que sería la invención más importante en la historia de humanidad, y conduciría al progreso explosivo en todos los campos científicos y tecnológicos. Temores de la gente podrían conducir a racismo y eliminación de libre albedrío como cualidades de las maquinas. Robots humanos Desde hace algún tiempo el hombre ha tratado de incorporar características humanas a la tecnología que crea, ya es posible ver robots que se paran en sus dos piernas, que pueden equilibrarse bastante bien y llegar a caminar como humanos, algo mucho mas complejo de lo que suena. Por otro lado se les ha incorporado audición, visión estereoscópica, y habilidades a partir de redes neuronales, que pretenden emular el funcionamiento del cerebro humano. El hecho de que se logre una maquina a imagen y semejanza nuestra todavía se ve un poco distante, pero el cine se ha encargado de plantear la posibilidad de que se llegue a construir una maquina que, con procesos mecánicos y electrónicos, haga lo mismo que hace un humano con procesos biológicos y químicos. Estas películas han logrado que las personas vean los aspectos éticos de la construcción de una inteligencia artificial tan conciente como un humano, o incluso más. En algunas se plantea la forma en que se verían estos robots, y si deben ser discriminados como “Blade Runner” y más reciente I Robot, basados en los libros “Sueñan los androides con ovejas eléctricas” y “I, Robot” de Isaac Asimov respectivamente. Otras crean el temor de que si creamos inteligencia artificial más poderosa que el pensamiento humano podría ser peligroso, como en la trilogía “Matrix”, “2001 Odisea del Espacio” y “Terminador”. Todas estas películas han logrado lo que la comunidad se preocupe de algo que podría llegar a ocurrir en algunas décadas, pero existe un cuento que ya había planteado estos dilemas mucho antes que las nombradas. Se trata de la historia de Pinocho, que es una marioneta creada por un titiritero que se le es dado el don de la vida y lucha por ser un niño. Lo cual lleva a los cuestionamientos ¿es realmente Pinocho un niño?, ¿al momento que las maquinas razonen como nosotros, las consideraremos como iguales? En si, la definición de humano es una clasificación biológica a partir de la evolución de ciertas especies, por lo tanto desde ese punto de vista quedarían totalmente descartadas las maquinas como un par nuestro. Ética Artificial El Profesor Richard Epstein en sus novelas plantea la existencia de maquinas dedicadas a la ética y a otras actividades, pero dependen de su diseño y función, las características que traerán incorporadas, MedicHelp por ejemplo trae una avanzada base de conocimientos médicos, pero las soluciones planteadas por este sistema eran motivadas por razones económicas que buscaban beneficiar a sus creadores, para los temas éticos estaba Berkeley Ethics Advisor que según sus detractores, el problema serian los usuarios ya que no tendrían que tomar mas decisiones éticas. Discriminación artificial Turing plantea su famosa prueba, ¿si una maquina supera esta prueba, la consideraremos como una par?, existe la posibilidad que a medida que la maquinas se vuelvan inteligentes comiencen movimientos en contra de estas, al igual que pasó con el racismo, el hecho de que esta “etnia” sea diferente, pero esencialmente razone y pueda cumplir las misma tareas que nosotros, ¿traerá batallas como las que plantea las películas? Humanos esclavizando humanoides, ¿es similar a lo ocurrido con los nazis?¿o al racismo que hubo en Estados Unidos?. Si la prueba de Turing fuera un indicador de humanidad se podría hablar directamente de racismo. Los temores de que maquinas traten de apoderarse de los humanos no es lógico. Si en realidad lo que algunos llaman alma es el diferenciador, todavía faltaría bastante para que las maquinas se volvieran peligrosas, pues se puede atribuir la maldad, ambición y otra clase de sentimientos como componentes de esta alma y no a la inteligencia, hasta cierto punto, esto es, porque como se plantea en “I, Robot” la inteligencia puede llevar a las maquinas a cuestionar estas leyes y a distorsionar lo que entienden como llevar a cabo sus tareas a cabalidad, y conducir a un camino que no es realmente el deseado. Como se plantea en Blade Runner es probable que no tengan sentimientos propios las máquinas, pero pueden ser programados y no sean nada mas que emuladores humanos y no un ser emergente. Este termino proviene de la IA, un ser emergente es el que sus acciones no emerge de código sino que son respuesta a una serie de estímulos que conducen a esta acción. Esto traerá mas implicaciones a las maquinas que a los humanos pues puede llegar el punto en que las maquinas crean ser humanos pero en realidad solo tienen una amplia base de datos con respuestas predefinidas. Mucha de esta tecnología creada para realizar tareas tal como las haríamos los humanos, es solo un soporte para que podamos hacer mejor nuestras cosas. Un buscador de sitios Web inteligente no sería mas que unas líneas de código corriendo sobre alguna plataforma en particular que nos ayudaría a encontrar de manera mas rápida y precisa lo que requerimos y no un par nuestro. Visiones negativas plantean que el hecho de dotar a maquinas con inteligencia sería mas peligroso, las maquinas no descansan ni comen, podrían absorber información continuamente, podrían, tal como los humanos fueron capaces de crear estos seres inteligentes, mejorarse ellos mismos hasta el momento de competir por el mismo espacio con nosotros. ¿Reglas irrompibles o cuestionables? Isaac Asimov planteó las tres leyes de la robótica, para evitar lo que algunos llaman el “complejo de Frankenstein” o temor irracional de los humanos a las maquinas: Primera ley: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley. Alguna gente cree que el punto de vista de Asimov es muy simplista y como se plantea en la película “I, Robot” y “The Matrix”, estas leyes podrían llegar a ser malinterpretadas o ignoradas. Según el Singularity Institute for Artificial Intelligence se hacen necesarias otras medidas que sean mas efectivas, a medida que vaya mejorando la tecnologías de estas maquinas y se haga latente el peligro de que estos errores de diseño dominen el mercado de maquinas dotadas de inteligencia artificial. Estas medidas serian para hacer las maquinas seguras para los humanos pero esto interferiría con posibilidad de dotar de libre albedrío a las maquinas. Este concepto de que un robot pueda ignorar alguna de estas tres reglas es debatible, pues la reglas son entregadas como inquebrantables a las maquinas y estas las cumplirán a cabalidad mientras estas no sean contradictorias, esto no lo podemos atribuir a un problema de las maquinas, sino a un error de diseño de las reglas que las gobiernan. Las maquinas son un reflejo de el diseño de sus creadores y cada imperfección en su desempeño y actuar es atribuible solo a los creadores y no a las maquinas, no es razonable culpar a un sistema operativo en sí de sus fallas y desempeño, esto es culpa solo de sus diseñadores y creadores, las maquinas solo computan lo que se les entrega como código, las visiones negativas solo son guías de lo que podría pasar en caso de que se cometiera un error de diseño que diera paso a que las maquinas ignoren y malentiendan estas leyes. Lecturas recomendadas Ethical Issues in Advanced Artificial Intelligence Nick Bostrom http://www.answers.com/topic/ethical-issues-of-ai Ethical issues of AI Artificial intelligence, or AI, is a somewhat recent (1960s) development in computer science. Nowadays, AI is used in many ways, including computer software. However, if true AI becomes realized, many interesting ethicals will presumably arise. 1. Freedoms and rights - presumably, AI systems wouldn't be considered "humans" nor "animals", but should they receive some rights? 2. AI systems could presumably become smarter and more effective than any human, a situation that arises in many movies. 3. AI systems could also be used for harmful purposes (e.g. murder, robbery, spying). Laws will need to be made to regulate AI systems. These are just some presumable ethical issues with AI; many others exist. For more information, see artificial intelligence. An Interview with the MediHelp Expert System, Richard Gary Epstein A COMPUTER EXPLAINS ITS OWN PERSONAL CODE OF ETHICS, Richard Gary Epstein