Inteligencia artificial, aspectos eticos

Anuncio
Informática y Sociedad
Tu, Robot
Alumnos:
Profesor:
Concepción, 21 de marzo de 2005
Rodrigo Almendras
Roberto Vargas
Yussef Farrán
Introducción
Los cuestionamientos éticos relacionados con la posible creación futura
de maquinas superinteligentes son absolutamente distintas de cualquier
problema ético que se presente en sistemas actuales de la automatización y la
información. La creación de robots con inteligencia similar a los humanos no
seria solo otro desarrollo tecnológico sino que sería la invención más
importante en la historia de humanidad, y conduciría al progreso explosivo en
todos los campos científicos y tecnológicos. Temores de la gente podrían
conducir a racismo y eliminación de libre albedrío como cualidades de las
maquinas.
Robots humanos
Desde hace algún tiempo el hombre ha tratado de incorporar
características humanas a la tecnología que crea, ya es posible ver robots que
se paran en sus dos piernas, que pueden equilibrarse bastante bien y llegar a
caminar como humanos, algo mucho mas complejo de lo que suena. Por otro
lado se les ha incorporado audición, visión estereoscópica, y habilidades a
partir de redes neuronales, que pretenden emular el funcionamiento del cerebro
humano. El hecho de que se logre una maquina a imagen y semejanza nuestra
todavía se ve un poco distante, pero el cine se ha encargado de plantear la
posibilidad de que se llegue a construir una maquina que, con procesos
mecánicos y electrónicos, haga lo mismo que hace un humano con procesos
biológicos y químicos. Estas películas han logrado que las personas vean los
aspectos éticos de la construcción de una inteligencia artificial tan conciente
como un humano, o incluso más. En algunas se plantea la forma en que se
verían estos robots, y si deben ser discriminados como “Blade Runner” y más
reciente I Robot, basados en los libros “Sueñan los androides con ovejas
eléctricas” y “I, Robot” de Isaac Asimov respectivamente. Otras crean el temor
de que si creamos inteligencia artificial más poderosa que el pensamiento
humano podría ser peligroso, como en la trilogía “Matrix”, “2001 Odisea del
Espacio” y “Terminador”. Todas estas películas han logrado lo que la
comunidad se preocupe de algo que podría llegar a ocurrir en algunas
décadas, pero existe un cuento que ya había planteado estos dilemas mucho
antes que las nombradas. Se trata de la historia de Pinocho, que es una
marioneta creada por un titiritero que se le es dado el don de la vida y lucha por
ser un niño. Lo cual lleva a los cuestionamientos ¿es realmente Pinocho un
niño?, ¿al momento que las maquinas razonen como nosotros, las
consideraremos como iguales?
En si, la definición de humano es una clasificación biológica a partir de la
evolución de ciertas especies, por lo tanto desde ese punto de vista quedarían
totalmente descartadas las maquinas como un par nuestro.
Ética Artificial
El Profesor Richard Epstein en sus novelas plantea la existencia de
maquinas dedicadas a la ética y a otras actividades, pero dependen de su
diseño y función, las características que traerán incorporadas, MedicHelp por
ejemplo trae una avanzada base de conocimientos médicos, pero las
soluciones planteadas por este sistema eran motivadas por razones
económicas que buscaban beneficiar a sus creadores, para los temas éticos
estaba Berkeley Ethics Advisor que según sus detractores, el problema serian
los usuarios ya que no tendrían que tomar mas decisiones éticas.
Discriminación artificial
Turing plantea su famosa prueba, ¿si una maquina supera esta prueba,
la consideraremos como una par?, existe la posibilidad que a medida que la
maquinas se vuelvan inteligentes comiencen movimientos en contra de estas,
al igual que pasó con el racismo, el hecho de que esta “etnia” sea diferente,
pero esencialmente razone y pueda cumplir las misma tareas que nosotros,
¿traerá batallas como las que plantea las películas? Humanos esclavizando
humanoides, ¿es similar a lo ocurrido con los nazis?¿o al racismo que hubo en
Estados Unidos?. Si la prueba de Turing fuera un indicador de humanidad se
podría hablar directamente de racismo.
Los temores de que maquinas traten de apoderarse de los humanos no
es lógico. Si en realidad lo que algunos llaman alma es el diferenciador, todavía
faltaría bastante para que las maquinas se volvieran peligrosas, pues se puede
atribuir la maldad, ambición y otra clase de sentimientos como componentes de
esta alma y no a la inteligencia, hasta cierto punto, esto es, porque como se
plantea en “I, Robot” la inteligencia puede llevar a las maquinas a cuestionar
estas leyes y a distorsionar lo que entienden como llevar a cabo sus tareas a
cabalidad, y conducir a un camino que no es realmente el deseado.
Como se plantea en Blade Runner es probable que no tengan
sentimientos propios las máquinas, pero pueden ser programados y no sean
nada mas que emuladores humanos y no un ser emergente. Este termino
proviene de la IA, un ser emergente es el que sus acciones no emerge de
código sino que son respuesta a una serie de estímulos que conducen a esta
acción. Esto traerá mas implicaciones a las maquinas que a los humanos pues
puede llegar el punto en que las maquinas crean ser humanos pero en realidad
solo tienen una amplia base de datos con respuestas predefinidas.
Mucha de esta tecnología creada para realizar tareas tal como las
haríamos los humanos, es solo un soporte para que podamos hacer mejor
nuestras cosas. Un buscador de sitios Web inteligente no sería mas que unas
líneas de código corriendo sobre alguna plataforma en particular que nos
ayudaría a encontrar de manera mas rápida y precisa lo que requerimos y no
un par nuestro. Visiones negativas plantean que el hecho de dotar a maquinas
con inteligencia sería mas peligroso, las maquinas no descansan ni comen,
podrían absorber información continuamente, podrían, tal como los humanos
fueron capaces de crear estos seres inteligentes, mejorarse ellos mismos hasta
el momento de competir por el mismo espacio con nosotros.
¿Reglas irrompibles o cuestionables?
Isaac Asimov planteó las tres leyes de la robótica, para evitar lo que
algunos llaman el “complejo de Frankenstein” o temor irracional de los
humanos a las maquinas:
Primera ley: Un robot no puede hacer daño a un ser humano o, por
inacción, permitir que un ser humano sufra daño.
Segunda ley: Un robot debe obedecer las órdenes dadas por los seres
humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
Tercera ley: Un robot debe proteger su propia existencia en la medida en
que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Alguna gente cree que el punto de vista de Asimov es muy simplista y
como se plantea en la película “I, Robot” y “The Matrix”, estas leyes podrían
llegar a ser malinterpretadas o ignoradas. Según el Singularity Institute for
Artificial Intelligence se hacen necesarias otras medidas que sean mas
efectivas, a medida que vaya mejorando la tecnologías de estas maquinas y se
haga latente el peligro de que estos errores de diseño dominen el mercado de
maquinas dotadas de inteligencia artificial. Estas medidas serian para hacer las
maquinas seguras para los humanos pero esto interferiría con posibilidad de
dotar de libre albedrío a las maquinas.
Este concepto de que un robot pueda ignorar alguna de estas tres reglas
es debatible, pues la reglas son entregadas como inquebrantables a las
maquinas y estas las cumplirán a cabalidad mientras estas no sean
contradictorias, esto no lo podemos atribuir a un problema de las maquinas,
sino a un error de diseño de las reglas que las gobiernan.
Las maquinas son un reflejo de el diseño de sus creadores y cada
imperfección en su desempeño y actuar es atribuible solo a los creadores y no
a las maquinas, no es razonable culpar a un sistema operativo en sí de sus
fallas y desempeño, esto es culpa solo de sus diseñadores y creadores, las
maquinas solo computan lo que se les entrega como código, las visiones
negativas solo son guías de lo que podría pasar en caso de que se cometiera
un error de diseño que diera paso a que las maquinas ignoren y malentiendan
estas leyes.
Lecturas recomendadas
 Ethical Issues in Advanced Artificial Intelligence
Nick Bostrom
http://www.answers.com/topic/ethical-issues-of-ai

Ethical issues of AI
Artificial intelligence, or AI, is a somewhat recent (1960s) development in
computer science. Nowadays, AI is used in many ways, including computer
software. However, if true AI becomes realized, many interesting ethicals will
presumably arise.
1. Freedoms and rights - presumably, AI systems wouldn't be considered
"humans" nor "animals", but should they receive some rights?
2. AI systems could presumably become smarter and more effective than any
human, a situation that arises in many movies.
3. AI systems could also be used for harmful purposes (e.g. murder, robbery,
spying). Laws will need to be made to regulate AI systems.
These are just some presumable ethical issues with AI; many others exist. For
more information, see artificial intelligence.

An Interview with the MediHelp Expert System, Richard Gary Epstein

A COMPUTER EXPLAINS ITS OWN PERSONAL CODE OF ETHICS,
Richard Gary Epstein
Descargar