Seguridad Informática – Inteligencia Artificial Inteligencia Artificial: IA

Anuncio
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
Inteligencia Artificial: IA
El factor humano de la IA
El concepto de inteligencia tiene múltiples facetas e interpretaciones. Si
alguien calculase mentalmente la raíz trece de un número de cien cifras en
menos de un segundo cualquiera de nosotros quedaría fascinado ante tal
proeza, y por eso diríamos que un tal hombre es muy inteligente para el
cálculo matemático. Dicho hombre existe, es colombiano y se llama Jaime
García Serrano. En otra esfera de acción, Ronaldinho guía el balón y lo
dirige con sus pies de forma magistral allá donde pone el ojo. Decimos
también que es un hombre muy inteligente para jugar al fútbol. También en
su día Onassis fue considerado un exitoso e inteligente hombre de negocios.
Podríamos así ir analizando las diferentes facetas del quehacer humano y
encontraríamos un tipo de inteligencia para cada una de esas facetas.
La inteligencia se desvela finalmente como una capacidad especial, y superior a la media de un determinado grupo
humano, para realizar determinadas actividades. En ámbitos académicos estaría relacionada con una sobrecapacidad
mental para almacenar y procesar información. En ámbitos deportivos estaría relacionada con una capacidad
extraordinaria para coordinar movimientos y/o ejecutar determinadas acciones físicas. En ámbito financiero estaríamos
hablando de un olfato fuera de lo común para crear y poner en marcha negocios que reporten sustanciosas ganancias
económicas. De cualquiera de las maneras, siempre se trataría de una propiedad cerebral, o si se quiere, de ‘circuitos
neuronales’, fuera de lo común. Así, el reconocimiento de la inteligencia siempre se ha manifestado sigilosamente entre
los compañeros del ‘afortunado’ con aquella frase que dice: "Este chaval tiene coco". Pero atención, no nos llevemos a
engaño, el hardware sin software, es decir, sin trabajo, de poco sirve. Como el propio Jaime García reconoce: "Lo mío
no es magia ni genes, sino trabajo, técnica y método", o tal como el mismo Picasso afirmó en su día: "95% de trabajo y
5% de inspiración", o lo que es evidente, Ronaldinho sin cinco horas de entrenamiento diarias no sería el singular
jugador de fútbol que actualmente, año 2005, conocemos.
Fijémonos también que el factor tiempo es una variable importante en la consideración de inteligencia. Nadie
consideraría un signo de inteligencia la capacidad de multiplicar dos números de veinte cifras en una semana, pero sí lo
es el hacerlo en cinco segundos, aunque claramente la acción ejecutada es la misma. Evidentemente, muchas de las
cabezas pensantes que han pasado a la historia hicieron algo revelante durante ciertos periodos de sus vidas.
Tenemos, por ejemplo, el caso de Einstein, que en 1905, su Annus Mirabilis, publicó cinco trabajos de alta relevancia
para la Física. Así, está histórica y estadísticamente probado, que las grandes aportaciones científicas se hicieron y se
hacen entre los 25 y los 35 años de las correspondientes eminencias. Observemos en este punto que, aunque la
universidad española está plagada de grandes profesores, lo que sin duda supondría una gran concentración de
inteligencia, si hacemos eco de lo que nos dice la historia académica de nuestro país, y si extendemos el ámbito
espacial más allá del localismo que los envuelve, la mayor parte de ellos se jubilaron sin haber hecho ningún aporte que
resaltar en la correspondiente rama de su especialidad. Así pues, es un puro ejercicio de rango espacial el considerar o
no ciertos casos como muestrario de inteligencia. Queda claro entonces con este ejemplo que la inteligencia tiene un
componente que ciertamente expresa la capacidad de emulación o repetición, pero, desde luego, no acaba por definirla
completamente.
Y es este último punto sugerido donde la Inteligencia Artificial encuentra las mayores pegas para implementar
inteligencia. El tema de la creatividad. Hasta ahora se han desentrañado algoritmos que emulan esa capacidad neuronal
especial, o se pueden diseñar arquitecturas que la recreen. En último término siempre se podría implementar un
algoritmo de tipo fuerza-bruta que sondease todas las soluciones posibles a un problema dado. Si, por otro lado, vamos
aumentando la velocidad de cálculo y procesamiento de las máquinas, es decir, se disminuye el tiempo de ejecución de
la acción en concreto, ya estaríamos en posición de poder decir que hemos resuelto el problema de la inteligencia, y
que somos capaces de ‘producirla’ artificialmente. Pero, a día de hoy, no hemos logrado desvelar los procesos
neuronales por los que los hombres inteligentes hacen gala de esa propiedad tan codiciada y envidiada que se llama
Inteligencia (natural): esa capacidad que poseen ciertos hombres de poder encontrar una solución a un problema sin
resolver o una solución nueva a un problema ya resuelto, sin más herramienta que el uso de una heurística o
experiencia propia, la cual fue adquirida a través del estudio o experimentación sobre un número finito de problemas
más o menos similares. Y es esa dosis de mayor o menor creatividad la que caracteriza y diferencia, ahora mismo, lo
que se considera inteligencia humana de lo que se considera inteligencia implementada en una máquina.
¿QUÉ ES LA IA?
Existen varias definiciones:
“Es la ciencia de hacer máquinas que hacen cosas que realizadas por el hombre requieren el uso de inteligencia”.
Marvin Minsky
En ciencias de la computación se denomina IA a las inteligencias no naturales en agentes racionales no vivos. John
McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes,
especialmente programas de cómputo inteligentes."
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
En otra acepción podríamos definirla como el estudio de las computaciones que permiten percibir, razonar y actuar. Es
una de las aéreas de las ciencias computacionales encargadas de la creación de hardware y software que tenga
comportamientos inteligentes.
La IA es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través
de programas de computador. La IA puede ser tomada como ciencia si se enfoca hacia la elaboración de programas
basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento
humano.
Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un
programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta
para quien la utiliza."
PRUEBA DE TURING, es el denominado experimento para demostrar si un computador piensa o no.
Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de
los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si
una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.
La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en
otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al
contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran
suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna
máquina puede pasar este examen en una experiencia con método científico.
A través de la IA se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y
relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios
acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la
medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.
TRES LEYES DE LA ROBÓTICA.
Estas leyes surgen como medida de protección para los seres humanos. En
ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas
por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están
diseñados para cumplir. En ese universo, las leyes son "formulaciones
matemáticas impresas en los senderos positrónicos del cerebro" de los robots
(líneas de código del programa de funcionamiento del robot guardadas en la
ROM del mismo). Aparecidas por primera vez en el relato Runaround (1942),
establecen lo siguiente:



Un robot no puede herir a un ser humano, ni por inacción dejar que un ser humano sufra daño.
¿Un robot debe obedecer las órdenes impartidas por los seres humanos, salvo si viola la primera ley.
Un robot debe salvaguardar su existencia, salvo cuando ésta contravenga las dos leyes anteriores.
BREVE HISTORIA DE LA IA.
La historia de la IA se remonta a los primeros años de la década del 40, con trabajos teóricos fundamentalmente dado el
estado de la Informática en ese momento, cuando los matemáticos Warren McCullock y Walter Pitts, específicamente
en 1943, desarrollan los algoritmos matemáticos necesarios para posibilitar el trabajo de clasificación, o funcionamiento
en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas
redes neuronales creando, conjuntamente con los trabajos de McCullock y Pitts, la escuela coneccionista. Esta escuela
se considera actualmente como el origen de lo que hoy se conoce como IA (IA).
Sin embargo el modelo coneccionista resultó poco tratado hasta
hace unos años, dando paso en su lugar al razonamiento simbólico
basado en reglas de producción, lo cual se conoce popularmente
como Sistemas Expertos
En el año 1955 Herbert Simon, el físico Allen Newell, uno de los
padres de la IA actual, y J.C. Shaw, programador de la RAND Corp.
y compañero de Newell, desarrollan el primer lenguaje de
programación orientado a la resolución de problemas de la IA, el
IPL-11. Un año más tarde estos tres científicos desarrollan el
primer programa de IA al que llamaron "Logic Theorist", el cual era
capaz de demostrar teoremas matemáticos.
En el mismo año surge la IA como disciplina de la Informática en la
Conferencia de Computación de Dartmouth. En dicha conferencia
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.
A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones
en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina
"Sad Sam"
En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración
simbólica en el área del álgebra.
En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender
oraciones en inglés.
En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a
través de una cámara, sino también la comprensión, por parte del ordenador, de lo que estas imágenes representan.
En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la
mente humana a través de una red neuronal y produce un primer resultado al cual llama Perceptron.
Este trabajo constituye la base de las redes neuronales de hoy en día.
1984. John Hopfield resucita las redes neuronales
1986. La máquina de ajedrez HiTech de CMU compite en un torneo de nivel master.
1991. Aparecen compañías dedicadas al desarrollo de Redes Neuronales.
1989. El chip del 386 ofrece una velocidad a los PCs comparable a la de las máquinas Lisp.
1990. La compañía TI anuncia imcroExplorer una máquina Lisp con tecnología Macintosh.
1994. La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de
intercambio de AT&T.
1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue.
2000 Mascotas robots disponibles en el mercado.
2006 Se celebra el aniversario con el Congreso en español 50 años de IA - Campus Multidisciplinar en Percepción e
Inteligencia.
2008. Investigadores de la Universidad Pablo de Olavide desarrollan un sistema integral de gestión basado en técnicas
de IA, con el objetivo de mitigar los riesgos inherentes a estos sistemas integrados de gestión y facilitar así su
implantación en la empresa.
2010. Sensores y sensibilidad: mejores prótesis gracias al avance de la IA
2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda de tres juegos seguidos de
Jeopardy, venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó
a obras de caridad.
En la actualidad existen grandes avances en robots que utilizan la IA dando como resultado "recepcionistas", "jugadores
de fútbol", "soldados", "exploradores" y hasta "cuidadores de ancianos".
AREAS DE LA IA
Búsqueda de soluciones
Sistemas Expertos
Procesamiento del Lenguaje Natural
Visión de Maquina
Redes Neuronales
Lingüística computacional
Minería de datos (Data Mining)
Industriales
Médicina
Mundos virtuales
Procesamiento de lenguaje natural
(Natural Language Processing)
Robótica
Mecatrónica
Sistemas de apoyo a la decisión
Videojuegos
Prototipos informáticos
Análisis de sistemas dinámicos.
Smart Process Management
Simulación de multitudes
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
Como lenguajes utilizados en I.A. podemos destacar IPL II (para el procesamiento de listas), SAIL (derivado del ALGOL,
para sistemas de visión y procesamiento de lenguaje natural), RAIL(lenguaje de robots), AL(para calcular los
movimientos de un robot en el espacio), VAL(para programación de robots industriales) y AML(desarrollado por IBM
para el control de robots); aunque los más utilizados actualmente son LISP con sus variantes: MACLISP, INTERLISP,
ZETALISP Y PSL. Por otro lado está PROLOG. Es mas utilizado en Europa y Japón, de hecho logró que LISP cayera
en desuso, aunque en la actualidad se encuentra en plena reactivación.
SISTEMAS EXPERTOS
El estudio y desarrollo de los sistemas expertos (ses) comenzó a mediados de la década del 60.
”Son programas de computadora diseñados para resolver problemas que normalmente son solucionados por expertos
humanos en una rama del conocimiento especifica, y mediante esquemas propios del cerebro humano tales como
memorización, razonamiento y aprendizaje automático para apoyar a un usuario en la toma de decisiones”.
Los sistemas expertos son llamados así porque emulan el razonamiento de un
experto en un dominio concreto y en ocasiones son usados por éstos. Con los
sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando
así lugar a una mejora de la productividad del experto.
La IA se utiliza en Sistemas Expertos para representar el conocimiento en una
computadora, es decir, consiste en encontrar una correspondencia entre el mundo
exterior un sistema simbólico que permita el razonamiento.
En teoría estos sistemas son capaces de razonar siguiendo pasos comparables a
los que sigue un especialista (médico, biólogo, geólogo, matemático, etc), cuando
resuelve un problema propio de su disciplina. Por ello el creador de un se debe
comenzar por identificar y recoger, del experto humano, los conocimientos que
éste utiliza: conocimientos teóricos, pero sobre todo los conocimientos empíricos
adquiridos en la práctica.
El Procesamiento del Lenguaje Natural es el área de la IA que se encarga de crear condiciones similares a las seguidas
por un humano para el procesamiento del lenguaje natural a nivel texto y fonético.
ROBÓTICA
Etimológicamente la palabra robot proviene del idioma checo de la palabra robota que significa esclavitud / servidumbre
aunque más asociada al trabajo, habiéndose acuñado en una obra escrita en 1921 por Karel Capeck titulada "Rossum´s
Universal Robots".
Según el diccionario Webster robot es un dispositivo automático que efectúa funciones ordinariamente asociadas a los
seres humano, concepto completado con la idea de robot manipulador reprogramable multifuncional diseñado para
mover materiales, piezas o dispositivos especializados, a través de movimientos programados variables para la
realización de una diversidad de tareas.
Tipos de Robots:
Según su forma
 Poliarticulados: brazos mecánicos y automatismos.
 Móviles: robots rodantes y robots multipodos (mecatrones).
Según su uso:
 robots industriales
 militares
 animatrones o promocionales
 educativos
 médicos
 domésticos o personales
REDES NEURONALES
Sistema computacional que consta de un gran número de elementos simples interconectados, que procesan la
información respondiendo dinámicamente frente a estímulos externos.
Componentes: una red está compuesta por nodos o neuronas, que están unidas mediante conexiones a las cuales se le
asigna un peso numérico. Los pesos constituyen el principal recurso de memoria de la red, a largo plazo.
Aplicaciones
Sistemas de decisión.
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
Procesamiento de señales.
Lenguaje natural.
Visión artificial
Reconocimiento de texto escrito a mano e impreso.
Control en tiempo real.
Problemas de búsqueda de soluciones.
Predicción de series temporales
PERSPECTIVAS FUTURAS.
Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de referencia sólido de la
ciencia actual.
En septiembre de 1987, 160 científicos en informática, física, biología y otras disciplinas se reunieron en el Laboratorio
Nacional de Los Álamos para la primera conferencia internacional sobre Vida Artificial. En aquella conferencia se
definieron los principios básicos que han marcado la pauta desde entonces en la investigación de esta disciplina.
Un concepto básico dentro de este campo es el de comportamiento emergente. El comportamiento emergente aparece
cuando se puede generar un sistema complejo a partir de reglas sencillas. Para que se dé este comportamiento se
requiere que el sistema en cuestión sea iterativo, es decir, que el mismo proceso se repita de forma continua y además
que las ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales.
Por otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un conjunto de celdas, de forma
que cada celda puede encontrarse en dos o más estados, dependiendo de un conjunto de reglas que especifican el
estado futuro de cada celda en función del estado de las celdas que le rodean.
Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.
Para los que apoyan la postura débil, sus modelos son solamente representaciones
simbólicas de los síntomas biológicos naturales, modelos ciertamente muy útiles para
conocer dichos sistemas, pero sin mayores pretensiones.
Para los que defienden la versión fuerte, dicen que se puede crear vida auténtica a partir
de un programa de ordenador que reproduzca las características básicas de los seres
vivos.
Desde este punto de vista, la vida se divide en vida húmeda, que es lo que todo el mundo
conoce como vida, vida seca, formada por autómatas físicamente tangibles, y vida virtual,
formada por programas de computador. Las dos últimas categorías son las que integran lo
que genéricamente se conoce como Vida Artificial.
ALGUNAS NOTICIAS LLAMATIVAS:
En Agosto de 2.011, un grupo de científicos e ingenieros de IBM dice haber dado un paso importante en el
acercamiento de estos dos tipos de aprendizaje.
Estos científicos dicen tener entre manos dos prototipos de chips que procesan información de forma más similar a
como lo hacen los humanos y más alejado de como lo hacen las computadoras.
Esta investigación, que lleva más de 7 años en carrera, fue solventada en parte por la Defense Advanced Research
Projects Agency (DARPA) e IBM Corp.
Es claro que los chips aún están muy lejos de poder aprender a conducir un auto por sí solos o jugar al ping-pong. De
todas maneras los investigadores dicen que este ha sido un gran paso en el campo de la Inteligencia Artificial.
Los investigadores dicen que no debe tomarse en cuenta "qué" pueden hacer hasta ahora los chips, sino "cómo" lo
están haciendo. Ahí está el verdadero progreso de la investigación.
Aplicaciones
Algunos de los usos básicos en los que está pensando la compañía son por ejemplo el control de las luces de tránsito y
semáforos. Ya que sí estos chips pueden aprender la conducta de los conductores y los horarios de los cruces pueden
mejorar considerablemente el tránsito.
Dharmendra Modha, la directora del proyecto de IBM, afirma que los nuevos chips contienen partes que se comportan
como "neuronas" y que crean "sinapsis", esto hace la verdadera diferencia con los chips antiguos.
Este proyecto es parte del mismo el cual usando supercomputadores en 2006 logró simular el 40% de el cerebro de un
ratón. Más tarde en 2007 consiguió simular el cerebro de una rata por completo. Luego siguió avanzando, y en 2009
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
anunció haber simulado parte de la corteza cerebral de un gato. El mismo año también declaró haber podido recrear el
1% de la corteza cerebral de un humano.
22 de febrero de 2012: Inteligencia artificial para proteger el World Trade Center en EE.UU.
El World Trade Center (WTC) de Nueva York, en EE.UU., tendrá cientos de cámaras con "cerebro", preparadas para
detectar movimientos extraños y evitar que el complejo de edificios se convierta en blanco de atentados por tercera vez
en su historia.
Una compañía experta en seguridad militar instalará "cámaras dotadas de inteligencia artificial y capaces de detectar
comportamientos anormales".
El presidente de Behavioral Recognition Systems, John Frazzini, explicó a BBC Mundo que no puede dar detalles del
plan de seguridad de la Zona Cero pero describió el funcionamiento de las cámaras, las que se instalarán en un espacio
que tiene 6.5 hectáreas.
Las sofisticadas medidas, que tienen un costo millonario, buscan impedir que alguien atente contra el conjunto de
edificios, que en un principio incluirá edificios de oficinas, un centro comercial, el memorial de víctimas de los atentados
del 11 de septiembre de 2001, un espacio público y una terminal de transporte público.
En alerta
Un equipo de cámaras inteligentes vigilará todos los movimientos del nuevo complejo, que se inaugurará en 2013.
Tras unos días registrando sobre terreno, las cámaras procesarán la actividad normal del espacio que vigilan y se
pondrán en alerta cuando detecten movimientos nuevos, como que una persona cambie bruscamente de trayecto o
corra hacia peatones, o deje una bolsa o paquete en el suelo.
Las cámaras también reaccionarán cuando un automóvil estacione en un espacio no apto para este uso o permanezca
estacionado por un largo período.
El programa informático vigila movimientos "genéricos" de las personas, que no son identificadas. Espacios como los
aseos públicos quedan fuera del radio de acción de las máquinas.
"Respetamos la privacidad de los ciudadanos y las cámaras no capturan ni registran información de personas
concretas", apuntó Frazzini.
El WTC ha sufrido atentados terroristas en dos ocasiones. Seis personas murieron como consecuencia de un atentado
con bomba el 26 de febrero de 1993. Siete años más tarde, el 11 de septiembre de 2001, las Torres Gemelas se
convirtieron en el objetivo de los atentados terroristas más sangrientos de toda la historia de Estados Unidos, con un
balance de más de 2.700 muertes.
Gran hermano pensante
Hoteles, puertos, aeropuertos y espacios públicos de varias ciudades del mundo utilizan las cámaras inteligentes de
Behavioral Recognition Systems.
El nuevo complejo se inaugurará en 2013.
Con sede en Houston, Texas, la compañía tiene oficinas comerciales en Washington, Londres, Sao Paulo, Riad y
Barcelona, y también trabaja para el Departamento de Defensa de Estados Unidos.
Frazzini asegura que los nuevos avances tecnológicos convierten a las cámaras en máquinas pensantes y con
capacidad de reacción.
"En la última década ciudades como Londres instalaron miles de cámaras que no tenían cerebro", explica Frazzini,
quien agrega: "Se limitaban a registrar comportamientos pero no eran capaces de analizarlos sin la ayuda de seres
humanos".
El experto en seguridad recuerda que solo en el Reino Unido hay más de tres millones de cámaras no inteligentes y "un
número mucho más reducido de agentes que las siguen".
"Estas cámaras eran de utilidad en casos de seguimiento de acciones específicas, por ejemplo, si la policía quería
vigilar una esquina donde se vendiera droga", explica.
Inteligencia artificial, el futuro: Wozniak. Jueves 09 de febrero de 2012
Las aplicaciones son componentes increíbles en los dispositivos móviles, ejemplo de ello es Siri, un programa que viene
en el iPhone 4S, el cual reconoce la voz del usuario, responde preguntas y hace recomendaciones de lugares para
cenar o para divertirse dependiendo del lugar donde nos encontremos: “eso es el futuro de las computadoras y
dispositivos móviles, el que podamos comunicarnos de manera inteligente humanos con máquinas”, dijo Steve Wozniak,
cofundador de Apple, durante el evento de negocios SAP Forum 2012.
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
En su ponencia, Wozniak hizo un recuento de la historia de la compañía Apple, de cómo conoció a Steve Jobs a
principios de los años 70 y de cómo nació la idea de crear una computadora que fuera accesible para todos.
“Estábamos Jobs y yo en nuestros años 20’s, no teníamos dinero ni experiencia en negocios, pero teníamos una buena
idea, así que la echamos a andar y nuestro primer éxito fue la Apple II”, contó Steve Wozniak.
“El futuro es la comunicación entre máquinas y humanos, y hoy ya lo estamos viendo en nuestros dispositivos móviles,
hay una cámara que me reconoce, hay un micrófono que reconoce mi voz y hay una superficie — el touchpad — que
reconoce mi tacto… Las aplicaciones jugarán un papel importante y algún día las computadoras serán más importantes
para los usuarios que sus amigos reales porque sabrán qué quieren y qué necesitan con exactitud”, aseguró el
cofundador de Apple.
Wozniak fundó Apple junto con Steve Jobs en 1976 y creó las computadoras Apple I y II.
Wozniak envió un mensaje a los ingenieros mexicanos: “la videoconferencia será vital; jamás descarten uno de sus
sueños; las aplicaciones son vitales; que sus inventos desemboquen en dar soluciones a las personas; sean un
‘Superman’, no tengan miedo a nada y no tengan límites”, dijo.
Ciencia que no es ficción. Domingo 05 de febrero de 2012
Sistemas que resuelven diagnósticos médicos y asisten a cirujanos, órganos biónicos para llegar más lejos, robots con
habilidades afectivas... Es la era de los post humanos: el futuro está entre nosotros
De La guerra de las galaxias a Matrix , la idea de máquinas que superan a los humanos es una inquietante posibilidad.
Los avances en robótica, inteligencia artificial y sistemas expertos han vuelto reales muchos de los planteos de la
ciencia ficción.
Por primera vez, en 2011 la computadora Watson superó en el juego de preguntas y respuestas Jeopardy a dos
oponentes humanos que habían ganado el concurso anteriormente. El próximo paso de este dispositivo desarrollado por
el laboratorio de inteligencia artificial de IBM es convertirse en médico, para revolucionar los diagnósticos clínicos
gracias a su enorme poder de procesamiento de variables complejas (como síntomas de enfermedades y parámetros de
estudios físicos).
En el campo de las intervenciones quirúrgicas, el robot Da Vinci (operando en el Hospital Italiano de Buenos Aires
desde 2008), es capaz de reproducir con sus cuatro brazos los movimientos que, desde la consola, realiza el cirujano. Y
los efectúa aún con mayor precisión ya que sus circuitos filtran los casi imperceptibles temblores de la mano.
Y para quienes creen que leer la mente es cosa de brujas y pitonisas, un sistema creado por el investigador Jack
Gallant de la Universidad de California en Berkeley permitió escanear los pensamientos de un grupo de voluntarios y
reflejarlos en colores en el monitor de una computadora. Asímismo, los sistemas que permiten controlar dispositivos
externos utilizando meramente el movimiento de los párpados o impulsos cerebrales (como los que utiliza el científico
Stephen Hawking) son parte hace tiempo de la vida cotidiana.
En tanto, la compañía Vint Cerf está desarrollando un protocolo de transmisión M2M (mind to mind) para permitir la
transferencia de información entre personas, a velocidades muy superiores a los de los más avanzados módems, según
reportó la revista The Economist.
Y eso no es todo. Científicos de la University of Southern California crearon una suerte de implante cerebral que
ayudaría a los pacientes con Alzheimer a recobrar los recuerdos. Colocado en una persona normal, serviría para
mejorar la memoria. El dispositivo fue testeado en un grupo de ratas a las que se entrenó para encontrar la salida a un
laberinto, y luego ese aprendizaje, almacenado en el implante neuronal, se trasladó a otro grupo de ratas "inexpertas",
quienes automáticamente encontraron la salida. Si bien las investigaciones son preliminares, la posibilidad de implantar
recuerdos de una persona a otra suena por lo menos inquietante. Pero habrá que acostumbrarse, muchas cosas nuevas
están llegando.
Ciencia que no es ficción
Para entender lo que se viene es preciso, ante todo, diferenciar algunos conceptos. En
primer lugar, "la inteligencia artificial es un campo interdisciplinario que busca que las
máquinas realicen tareas típicamente humanas, como manejar un auto, encender la
calefacción cuando bajó la temperatura, traducir un texto de un idioma a otro", explica
Laura Alonso, doctora en Ciencia Cognitiva y Lenguaje, y miembro del Grupo de
Procesamiento del Lenguaje Natural de la Facultad de Matemática, Astronomía y Física
de la Universidad Nacional de Córdoba.
Alonso coordina, junto con un equipo de científicos cordobeses, el desarrollo de un
sistema de traducción automatizado para las lenguas mocoví y quechua, que están en
riesgo de desaparición.
Hoy la inteligencia artificial puede ir más allá de sistematizar y automatizar el
conocimiento humano. "Hay sistemas que se adaptan a nuevos contextos y aprenden a
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
partir de pruebas de ensayo y error", dice la especialista en Lingüística Computacional. Incluso algunos son capaces de
descubrir información novedosa y detectar correlaciones y fenómenos nuevos, como aquellos que se utilizan en
investigación farmacológica para el descubrimiento de nuevas drogas.
También existen los llamados "sistemas expertos", que son muy rápidos y eficientes en un área restringida de
conocimiento, como autorizar transacciones con una tarjeta de crédito o gestionar un sistema de reservas aéreas. En
tanto, la llamada "simulación cognitiva" se utiliza para investigar cómo funciona la mente humana para reconocer rostros
o interpretar el lenguaje, y cómo trabajan las redes de neuronas.
La llamada Teoría de las Redes es uno de los campos de confluencia entre la computación y la neurología, dado que
permite detectar ciertas regularidades en los sistemas complejos. "Al igual que Internet, el cerebro tiene pocos nodos
que se conectan con una gran cantidad de otros, que a su vez tienen pocas conexiones", dice el físico y biólogo
argentino Guillermo Cecchi, investigador en el laboratorio de inteligencia artificial de IBM en los Estados Unidos. Cecchi
y su equipo se dedican al análisis de redes complejas para estudiar cómo el cerebro se comunica internamente y cómo
piensa. Sus hallazgos ayudarán a comprender mejor y encontrar nuevas alternativas al tratamiento de patologías como
la esquizofrenia.
Robots cada vez mas humanos
Décadas atrás, se hicieron enormes inversiones en el desarrollo de la robótica industrial (automatización en las fábricas,
brazos robóticos) y militar (para detección y desactivación de explosivos, por caso). En los años más recientes, se
incrementaron las investigaciones en robótica aplicada a la salud y el cuidado personal.
También se verán cada vez con mayor frecuencia los "enjambres de robots" (robot swarms) que realizan
coordinadamente múltiples tareas administrativas y de producción. Con la ventaja de que no reclaman por sus derechos
laborales ni se distraen charlando de fútbol, intercambiando chismes en los pasillos, espiando lo que hacen sus amigos
en Facebook ni cuidando granjas virtuales.
"Una de las tendencias actuales más fuertes es la humanización de la robótica", destaca Mei Chen, investigador
principal del Intel Science and Technology Center en California, Estados Unidos. No por nada, la llamada informática
afectiva tiene su propia organización internacional (Humaine), que celebra dos conferencias internacionales al año para
la actualización de sus especialistas.
En Japón -cuna de la robótica-, se han desarrollado comercialmente robots capaces de reproducir expresiones
humanas y mantener conversaciones básicas, diseñados para acompañar a personas de la tercera edad.
Expertos de la Universidad de Illinois crearon un software que permite a un robot imitar expresiones humanas e
interactuar con niños autistas. "Dado que una de las características del autismo es la imposibilidad de mirar a los ojos al
interlocutor, un robot resulta menos intimidante", explica Stephen Porges, uno de los que desarrollaron el software.
La utilización de robots como asistentes en educación también está difundida. Sin embargo, las máquinas difícilmente
reemplacen a los docentes de carne y hueso. "El aprendizaje requiere interactuar con otras personas", afirma el
neurólogo Facundo Manes, director del Instituto de Neurociencias de la Universidad Favaloro y del Instituto de
Neurología Cognitiva de Buenos Aires (Ineco). Manes refiere un experimento en el que tres grupos de bebes, cuya
lengua materna era el inglés, fueron expuestos al aprendizaje de chino. El primer grupo, con un maestro en vivo; el
segundo, con películas del mismo hablante, y el tercer grupo, sólo con audios. El tiempo de exposición y el contenido
fueron idénticos, pero luego del entrenamiento, los bebes que vieron al maestro en vivo distinguieron sílabas y sonidos
con un rendimiento similar al de un bebe nativo chino. Los bebes que estuvieron expuestos a ese idioma a través del
video o el audio no aprendieron a distinguir sonidos, y su rendimiento fue similar al de bebes sin entrenamiento.
Prótesis biónicas
Así como el Hombre nuclear y la Mujer biónica, protagonistas de las populares series de los años 70, tenían
extremidades y órganos artificiales, científicos del Doheny Eye Institute de la Universidad de California del Sur, crearon
un ojo biónico que permite restaurar la visión a personas ciegas.
También se están desarrollando brazos y manos artificiales que pueden accionarse con impulsos cerebrales, aunque
aún no han logrado la sutileza en los movimientos de los miembros naturales.
En 2008, el Comité Olímpico Internacional denegó a Oscar Pistorius, un atleta sudafricano sin piernas, su participación
en los Juegos Olímpicos de Pekín debido a que sus prótesis le daban ventaja sobre los atletas convencionales. "Si
hasta aquí la idea de máquinas inteligentes y dotadas de sentimientos resulta sorprendente, habrá que pensar en
convivir con partes de nuestro cuerpo no biológicas", asegura Santiago Bilinkis, que en 2010 participó de un programa
de capacitación en Singularity University, en la NASA.
"¿Qué ocurrirá cuando los costos de este tipo de prótesis estén al alcance de una mayoría de personas? ¿Nos
cortaremos las piernas para ponernos unas más rápidas? -se pregunta Bilinkis- ¿Si vamos al quirófano para cambiar
partes de nuestro cuerpo por estética, por qué no lo haremos por funcionalidad?"
Los doctores Lucas Terissi y Juan Carlos Gómez, del Centro Internacional Franco Argentino de Ciencias de la
Información y Sistemas (Cifasis) del Conicet, trabajan en la animación de imágenes 3D del rostro humano para imitar los
movimientos del habla.
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
Las aplicaciones de esta tecnología van desde la medicina hasta el
cine. "Se puede usar en un teléfono móvil, donde además de escuchar
el sonido, se pueda ver al modelo 3D hablando", dice el doctor Terissi.
"Esto facilitaría la comunicación para personas con hipoacusia, ya que
para la inteligibilidad de un mensaje no sólo es importante la señal
acústica sino la información visual del movimiento de los labios y
gestos".
Lo cierto es que los avances en el terreno de la inteligencia artificial y
las tecnologías de mejoramiento humano (Human Enhancement
Technologies - HET) plantean enormes dilemas éticos.
"Todos los métodos y herramientas que facilitan el acceso a la
información también pueden ser usados para ocultar y manipular", dice la investigadora Laura Alonso. "La transparencia
está en manos de quienes crean las tecnologías, y la vigilancia de parte de quienes las usan".
Para Mei Chen, del ISTC, la disyuntiva está del lado del acceso a los nuevos dispositivos y tecnologías. "Su uso para
mejorar las capacidades de personas sanas no sólo crea problemas regulatorios y de financiamiento, sino enormes
cuestionamientos éticos, dado que, por su alto costo, sólo las personas ricas accederán a ellos y esto podría ahondar
las inequidades entre un grupo social mejorado y otro convencional." De ahí al diseño de una sociedad de castas
diferenciadas como la que plantea Aldous Huxley en Un mundo feliz, hay sólo un paso. El futuro puede ser tan bueno o
tan malo como seamos capaces de construirlo.
Un laboratorio franco-español impulsará la investigación en inteligencia artificial y lógica computacional.
20/02/2012
El Associated European Laboratory, en el que participan la Universidad Politécnica de Madrid y varias universidades y
centros tecnológicos galos, tendrá su sede en el campus de la UPM de Montegancedo desde donde se llevarán a cabo
programas de I+D en lógica computacional, ingeniería ontológica, agentes inteligentes y programación declarativa.
La Universidad Politécnica de Madrid colaborará estrechamente con las entidades francesas Université Paul Sabatier
Toulouse 3, el Centre National de la Recherche Scientifique (CNRS), la Université Tolouse 1 Capitole, la Université
Toulouse 2 Le Mitail y el Institut National Polytechnique de Toulouse para llevar a cabo tareas de investigación y
desarrollo en incipientes campos como la inteligencia artificial y la lógica computacional.
Para materializar esta colaboración, la UPM ha puesto en marcha el Associated European Laboratory (LEA), un centro
que tendrá su sede en el madrileó campus de Montegancedo y que potenciará la cooperación en áreas relacionadas
con la lógica computacional, la ingeniería ontológica, agentes inteligentes, sistemas multi-agentes y la programación
declarativa. Así lo ha indicado durante la presentación del centro David Pearce, profesor del Departamento de
Inteligencia Artificial de la UPM y codirector del laboratorio junto a Luis Fariñas, director del Instituto de Investigación
Informática de Tolouse (IRIT- Tolouse Institute for Informatics Research).
El laboratorio impulsará métodos formales para la seguridad en computación. Según explica Luis Fariñas, codirector del
LEA, “introducirá avances para el desarrollo de programas informáticos fiables, certificados como programas seguros”,
un tipo de certificación “fundamental para sistemas críticos donde no se pueden permitir errores, por ejemplo en
centrales nucleares o aviones”. La suma de los avances obtenidos por las entidades francesas y españolas “tendrá gran
impacto en la productividad de la ingeniería y fiabilidad del software, dada su aplicación en áreas relacionadas con el
sector aeronáutico y los dispositivos médicos”, afirma Fariñas.
Algunas de las actividades que se realizarán en el laboratorio serán la participación conjunta en programas de
investigación europeos, programas de doctorado, celebración de seminarios y talleres en Madrid y Toulouse, visitas
programadas de profesores e incluso intercambios de personal investigador entre ambos países.
Por otra parte, profesores e investigadores del Departamento de Lenguaje y Sistemas Informáticos e Ingeniería del
Software de la Facultad de Informática y del Departamento de Ingeniería de Sistemas Telemáticos de la Escuela
Técnica Superior de Ingenieros de Telecomunicación de la UPM componen el equipo de expertos que trabajará en la
investigación científica en el Associated European Laboratory (LEA), junto a una representación de profesores e
investigadores procedentes de los institutos de Toulouse.
En la actualidad, los equipos de investigación involucrados en el laboratorio cooperan ya en proyectos europeos
financiados por la Comisión Europea, entre ellos en el nuevo “European Network for Social Intelligence”.
CONCLUSIONES.
Como conclusión digamos que nuestro análisis de inteligencia nos indica que dicha propiedad conlleva la conjunción de
tres parámetros:
Capacidad: gran potencial para procesar determinado tipo de información.
Tiempo: ejecución rápida de tal procesamiento.
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
Creatividad: invención de nuevos métodos de procesamiento.
Las dos primeras hacen referencia al binomio hardware/software del que el mundo de la tecnología dispone, con sus
limitaciones desde luego, hoy en día. La tercera es una línea de trabajo que todavía resta el que dé o pueda dar sus
frutos. De su éxito o fracaso dependerá el futuro de la auténtica revolución pensante de las máquinas.
Dentro del ámbito de las Ciencias de la Computación la IA es una de las áreas que causa mayor expectación, incluso
dentro de la sociedad en general, debido a que la búsqueda para comprender los mecanismos de la inteligencia, ha sido
la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo.
Dentro de las áreas de la IA lo que más ha atraído, es el aprendizaje de máquinas, resultando vital el proceso de emular
comportamientos inteligentes.
Que un sistema pueda mejorar su comportamiento sobre la base de la experiencia que recoge al efectuar una tarea
repetitiva y que además, tenga una noción de lo que es un error y que pueda evitarlo, resulta apasionante.
¿Avance tecnológico o amenaza social?
Al llegar a un perfeccionamiento tal de las máquinas, donde formen un grupo de seres capaces de construir -y al tiempo
destruir- una sociedad, se corre el riesgo que tomen el lugar del hombre, que lo reemplacen tan fácilmente en todos los
ámbitos que desarrolla, que este cambio progresivo podría verse como un hecho cotidiano, e incluso, necesario. Por
ejemplo en el trabajo, si hay una maquina que puede resolver el más mínimo problema al interior de una empresa o
fabrica, se prescindiría de la labor humana y solo se requeriría a aquel capaz de construir los robots, claro está, antes
que estos se construyan a si mismos.
Mientras se tome conciencia de la amenaza que puede constituir la implementación de estas máquinas "pensantes", se
van a seguir buscando formas de perfeccionar la Inteligencia Artificial y ya se abren caminos hacia el mundo robotizado,
con nuevas ideas teóricas y experimentales que en su clímax iluminen el camino para llegar a la verdadera inteligencia
artificial. "Aunque parezca absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta centrado sobre
todo en los chatterbots".
¿Pueden los computadores aprender a resolver problemas a partir de ejemplos?
No hace tanto tiempo esta pregunta bordeaba la ciencia ficción, pero ahora es objeto de profundos y prometedores
estudios.
Las redes de neuronas formales son máquinas que poseen esta capacidad de aprendizaje. Son máquinas propuestas
como modelos extremadamente simplificados del funcionamiento del cerebro que sienta las bases de un modelo
colectivo, donde el sistema global presenta propiedades complejas que no pueden predecirse a partir del estudio
individual de sus componentes.
Los estudios teóricos de redes de neuronas reflejan estos dos aspectos: el de la modelización de fenómenos cognitivos
y el del desarrollo de aplicaciones.
Por ejemplo para una máquina, la clasificación de rostros, datos médicos o reconocimiento de letras son tareas difíciles,
más que para un ser humano. La máquina necesita del aprendizaje, donde el asunto consiste en adaptar los parámetros
de un sistema, en este caso artificial, para obtener la respuesta deseada.
Los métodos tradicionales en IA que permitieron el desarrollo de los primeros sistemas expertos y otras aplicaciones, ha
ido de la mano de los avances tecnológicos y las fronteras se han ido expandiendo constantemente cada vez que un
logro, considerado imposible en su momento, se vuelve posible gracias a los avances en todo el mundo, generando
incluso una nueva mentalidad de trabajo que no reconoce fronteras físicas ni políticas. Se entiende como un esfuerzo
común.
La comprensión de los mecanismos del intelecto, la cognición y la creación de artefactos inteligentes, se vuelve cada
vez más una meta que sueño, a la luz de los enormes logros, tan solo en alrededor de medio siglo de desarrollo de las
ciencias de la computación y de poner la lógica al servicio de la construcción de sistemas.
La Inteligencia artificial es la capacidad de una máquina de pensar y actuar como el hombre, pero para lograr esto
primero se debe conocer totalmente el funcionamiento del pensamiento humano. En el ámbito tecnológico la Inteligencia
Artificial es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en general, debido a que la
búsqueda para comprender los mecanismos de la inteligencia, ha sido la piedra filosofal del trabajo de muchos
científicos por muchos años y lo sigue siendo.
Sin embargo, este avance tecnológico puede traer graves consecuencias como el desempleo, la veneración y el
sometimiento por parte del humano. No se puede negar que la Inteligencia artificial traería grandes ventajas para el
hombre; pero también se debe ser consciente de sus implicaciones negativas.
La polémica desarrollada en el ensayo resulta importante en la reflexión acerca del mundo tecnológico globalizado de
hoy y deja además de los supuestos anteriores, una idea clara y un poco fatalista pero real: No hay que crear una
www.GitsInformatica.com ___________________________________________________ Seguridad Informática – Inteligencia Artificial
maquina tan inteligente para que reemplace al humano en sus labores, sobre todo en una sociedad como la de hoy en
día, basada en la técnica y la productividad, en la lógica y no en la racionalidad.
Pero aun sin haber desarrollado completamente la inteligencia artificial, ya se ven las graves consecuencias sociales
que trae consigo y es probable que al finalizar el análisis y la reflexión acerca de este tema, se evidencie que lo
importante es salvarnos de nosotros mismos, pues sin el uso de la razón, los humanos pueden llegar a ser mucho más
peligrosos. No se debe olvidar que hoy en día la creación de artefactos inteligentes, se vuelve cada vez más una meta
que un sueño; implícitamente se vuelve más una amenaza social que un avance tecnológico.
______________________________________
Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática.
Gits mira por tus derechos. Gits es Pro-Vida.
Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado.
Recomendamos la visualización de este documental: http://www.youtube.com/watch?v=SWRHxh6XepM.
Gracias por su colaboración con el medio ambiente.
Copyright (c) 2003. Gits Informática. All rights reserved.
Descargar