Subido por N13LS

Inteligencia Artificial

Anuncio
Módulo 1
ÍNDICE
PÁGINAS
Unidad 1: Descripción de Inteligencia Artificial.
4
Introducción.
4
¿Qué es Inteligencia Artificial?
5
¿Qué es Machine Learning?
7
¿Qué es Deep Learning?
8
Inteligencia Artificial vs Machine Learning.
9
¿La IA es solo una moda más?
11
¿La IA puede potenciar los ataques cibernéticos futuros?
13
La IA como herramienta para los atacantes.
15
La IA en el malware.
16
Limitaciones del Machine Learning.
18
Unidad 2: Inteligencia Artificial la tecnología del futuro.
22
Concepto de Inteligencia Artificial.
22
Historia de la Inteligencia Artificial.
25
La Inteligencia Artificial como motor del crecimiento.
28
ÍNDICE
Unidad 3: Casos de éxito a nivel internacional.
32
Google.
36
IBM.
38
SAP.
41
Software libre para Inteligencia Artificial.
42
Unidad 4: Los principales modelos en IA.
45
Simbólico, Conexionista, Evolutivo y Corpóreo.
45
Hacia inteligencias artificiales realmente inteligentes.
52
Unidad 1: Descripción de Inteligencia Artificial.
INTRODUCCIÓN
La Inteligencia Artificial (IA) es un tema muy recurrente estos días. Es el eslabón
principal en los argumentos de venta, “potencia” varios servicios online y se menciona en casi todos los productos nuevos al buscar inversores. Mientras que algunos
proveedores realmente tratan de incorporar en sus productos el valor de esta tecnología para beneficio de sus clientes, otros solo la usan como una palabra de moda,
pero no son capaces de cumplir sus promesas.
Una simple búsqueda online de sus siglas en inglés (AI) hoy arroja casi 2.200 millones de resultados, lo que demuestra el gran interés tanto de los expertos como el
público en general. Parte de la moda se puede atribuir a las grandes hazañas logradas gracias a esta tecnología (permitirles a los investigadores ver a través de las
paredes), aunque también tiene connotaciones negativas, por ejemplo, se predice
que la IA podría eliminar millones de puestos de trabajo y dejar obsoletas industrias
enteras.
El aprendizaje automático o Machine Learning (ML), como subcategoría del verdadero objetivo autosustentable de la IA, que aún dista mucho de ser alcanzado, ya
ha desencadenado cambios radicales en muchos sectores, incluyendo el de la seguridad cibernética. Las mejoras en los motores de exploración, en la velocidad de
detección y en la capacidad de identificar irregularidades fueron factores que contribuyeron a proteger mejor a las empresas, en especial frente a las amenazas nuevas y emergentes, así como las amenazas persistentes avanzadas (APT, del inglés).
Desafortunadamente, esta tecnología no está disponible en forma exclusiva para
los defensores de la seguridad. Los hackers de sombrero negro, los ciberdelincuentes y otros actores maliciosos también son conscientes de los beneficios de la IA y
probablemente intentarán aplicarla a sus actividades de alguna forma. Es probable
que los ataques dirigidos a empresas específicas y el robo de dinero o de datos comiencen a ser más difíciles de descubrir, rastrear y mitigar.
Podríamos argumentar que estamos por comenzar una era en la que los “ataques
cibernéticos potenciados por la IA” se convertirán en la norma y reemplazarán a
aquellos operados por actores maliciosos altamente calificados.
4
Fuente: Cuando las máquinas hablan el mismo idioma, TEC.
¿Qué es Inteligencia Artificial?
Dado que se trata de un concepto en constante evolución, resulta difícil ofrecer una
definición que contemple sus múltiples facetas (Figura 1). Se puede afirmar que la IA
es un campo de estudio enfocado en el desarrollo de capacidades en sistemas computacionales que se utilizan para realizar tareas previamente consideradas como
exclusivas de la inteligencia humana, entre ellas razonar, aprender y resolver problemas, por mencionar solo algunas.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) define la
IA como “un sistema computacional que puede, para un determinado conjunto de
objetivos definidos por humanos, hacer predicciones y recomendaciones o tomar
decisiones que influyen en entornos reales o virtuales. Los sistemas de IA están
diseñados para operar con distintos niveles de autonomía” (Cabrol et al., 2010:10).
5
Figura 1. Visión conceptual de alto nivel de la Inteligencia Artificial
Fuente: Fuente: OECD (2019)
En computación, la Inteligencia Artificial se trata de programas o bots diseñados
para realizar determinadas operaciones que se consideran propias de la inteligencia humana. Se trata de hacer que éstos sean tan inteligentes como un humano. La
idea es que perciban su entorno y actúen en base a ello, centrado en el auto-aprendizaje y que sean capaces de reaccionar ante nuevas situaciones.
El sueño de los pioneros en Inteligencia Artificial era construir máquinas complejas,
habilitadas por computadoras emergentes, que poseyeran las mismas características de la inteligencia humana. Este es el concepto que consideramos “genérico” de
Inteligencia Artificial: maquinas fabulosas que tienen todos nuestros sentidos (tal
vez incluso más), toda nuestra razón y piensan igual que nosotros. Podemos poner
ejemplos de este concepto en películas como Star Wars (C-3PO) o Teminator. Claro
está que este concepto genérico de máquinas de IA sólo queda en el imaginario
del cine y de novelas de ciencia ficción por una buena razón: no podemos llevarlo a
cabo, por ahora.
Sin embargo, sí existen en la actualidad tecnologías que pueden realizar tareas
específicas que normalmente requieren inteligencia humana, como la percepción visual, el reconocimiento de voz, la toma de decisiones y la traducción entre idiomas.
Algunos ejemplos de este tipo de Inteligencia Artificial, en la actualidad, son cosas
como la clasificación de imágenes similares en Pinterest o Google Images y el reconocimiento facial en Face ID en iPhone.
6
Fuente: Imágenes similares en Pinterest
Estos son claros ejemplos de Inteligencia Artificial que exhiben algunas características de la inteligencia humana. Pero ¿cómo lo hacen? ¿De dónde viene esa inteligencia? Eso nos lleva al siguiente concepto, Machine Learning.
¿Qué es Machine Learning?.
Machine Learning o aprendizaje automático es un subconjunto de Inteligencia Artificial en el campo de la informática que a menudo utiliza técnicas estadísticas para
dar a las computadoras la capacidad de «aprender» (es decir, mejorar progresivamente el rendimiento en una tarea específica) con datos, sin estar explícitamente
programadas.
En otras palabras, el aprendizaje automático en su forma más básica es la práctica
de usar algoritmos para analizar datos, aprender de ellos y luego hacer una determinación o predicción sobre algo en el mundo. Por lo tanto, la máquina está «entrenada» utilizando grandes cantidades de datos y algoritmos que le dan la capacidad
de aprender a realizar la tarea por sí misma.
El aprendizaje automático vino directamente de las mentes de los pioneros en Inteligencia Artificial. Resultó que una de las mejores áreas de aplicación para el aprendizaje automático, durante muchos años, fue la visión por computadora, aunque
requería una gran cantidad de codificación manual para hacer el trabajo. La gente
entraba y escribía clasificadores codificados a mano, como filtros de detección de
bordes, para que el programa identificara dónde se inició y se detuvo un objeto;
detección de forma para determinar si tenía ocho lados; o un clasificador para reconocer las letras «S-t-o-p». De todos los clasificadores codificados a mano, desarrollarían algoritmos para dar sentido a la imagen y «aprender» a determinar si era una
señal de Stop, especialmente en un día de niebla cuando el cartel no es perfectamente visible o un árbol oscurece parte de él.
Video: Así funciona el robot Da Vinci https://www.youtube.com/watch?v=ZYJaf25ZEAo&feature=youtu.be
7
Hay una razón por la que la visión por computadora y la detección de imágenes no
se acercan a rivalizar con los humanos. Hasta hace poco, era demasiado frágil y
propenso al error. Con el tiempo, los algoritmos de aprendizaje se corrigieron y marcaron una diferencia; esto nos lleva al siguiente concepto, Deep Learning.
¿Qué es Deep Learning?.
Deep Learning o aprendizaje profundo es una técnica dentro del Machine Learning
basado en arquitecturas neuronales. Un modelo basado en Deep Learning puede
aprender a realizar tareas de clasificación directamente a partir de imágenes, texto
o sonido, entre otros. Sin necesidad de intervención humana para la selección de
características. Esto se puede considerar la principal ventaja del Deep Learning, llamada “feature discovering”. Pueden, además, poseer una precisión que supera a la
capacidad del ser humano.
El aprendizaje profundo es un subconjunto de aprendizaje automático en Inteligencia Artificial (IA) que tiene redes capaces de aprender sin supervisión a partir
de datos que no están estructurados ni etiquetados. También conocido como Deep
Neural Learning o Deep Neural Network. Aquí es donde reside la gran diferencia respecto al Machine Learning.
Las Redes Neuronales Artificiales se inspiran en nuestra comprensión de la biología
de nuestros cerebros, todas esas interconexiones entre neuronas. Pero, a diferencia de un cerebro biológico donde cualquier neurona se puede conectar a cualquier
otra neurona dentro de una cierta distancia física, estas redes neuronales artificiales tienen capas discretas, conexiones y direcciones de propagación de datos.
8
Pueden, por ejemplo, tomar una imagen, cortarla en un grupo de teselas que se
ingresan en la primera capa de la red neuronal. En la primera capa, las neuronas
individuales pasan los datos a una segunda capa. La segunda capa de neuronas
hace su tarea, y así sucesivamente, hasta que se produce la última capa y producción final. Cada neurona asigna una ponderación a su entrada: qué tan correcta o
incorrecta es en relación con la tarea que se realiza. El resultado final se determina
luego por el total de esas ponderaciones.
Fuente: Vehículo autónomo de Google
El Deep Learning ha permitido muchas aplicaciones prácticas de Machine Learning
y, por extensión, el campo general de Inteligencia Artifical. El aprendizaje profundo
desglosa las tareas de manera que hace que todo tipo de asistencia en máquinas
parezca posible, incluso probable. Los automóviles sin conductor, una mejor atención médica preventiva, incluso mejores recomendaciones de películas, son claros
ejemplos de aplicación. La Inteligencia es el presente y el futuro. Con la ayuda de
Deep Learning, la Inteligencia Artificial puede llegar a ese estado de ciencia ficción
que tanto tiempo hemos imaginado con Star Wars y Terminator.
En la última década, las empresas están utilizando el aprendizaje profundo para
resolver los desafíos a nivel empresarial. Desde la detección de rostros (Face ID)
hasta recomendaciones de productos, segmentación de clientes, reorganización
de dígitos, traducción automática, inteligencia de negocios, Internet de las cosas,
seguridad de redes, entre otros. El uso del Deep Learning y Machine Learning han
transformado por completo el mundo en el que vivimos hoy.
Inteligencia Artificial vs Machine Learning.
La idea de la Inteligencia Artificial existe desde hace más de 60 años. Representa
el ideal aún inalcanzable de una máquina inteligente y autosustentable que puede
aprender en forma independiente, basándose solo en las entradas del entorno (por
supuesto, sin intervención humana). Sin embargo, hoy en día se suele usar el término “IA” para referirse solamente a una subcategoría de esta tecnología: a Machine
Learning.
9
Este campo de la informática se originó en la década de 1990 y sus aplicaciones en
el mundo real les permiten a las computadoras encontrar patrones en grandes cantidades de datos, analizarlos y actuar sobre los resultados. Estos algoritmos son
el ingrediente no tan secreto de todos los productos de seguridad cibernética que
mencionan la IA en sus propagandas de marketing. Supervisado, no supervisado o
parcialmente supervisado.
En el contexto de la seguridad cibernética, los algoritmos de Machine Learning se
utilizan principalmente para clasificar y analizar muestras, identificar similitudes y
generar un valor de probabilidad para el objeto procesado, de modo de clasificarlo
en una de las tres categorías principales: malicioso, potencialmente no seguro o no
deseado (PUSA/PUA, por sus siglas en inglés), o no infectado.
Sin embargo, para lograr los mejores resultados posibles, es necesario “entrenar”
esta tecnología usando un conjunto muy extenso de muestras no infectadas y maliciosas correctamente etiquetadas, lo que le permite al algoritmo comprender la
diferencia. Esta capacitación y supervisión humana es la razón por la cual se denomina aprendizaje automático supervisado.
Durante el proceso de aprendizaje, se le enseña al algoritmo cómo analizar e identificar la mayoría de las amenazas potenciales en el entorno protegido y también
cómo actuar de manera proactiva para mitigarlas. La integración de este algoritmo
en una solución de seguridad la hace significativamente más rápida y aumenta su
capacidad de procesamiento, en comparación con otras soluciones que solo usan
el conocimiento humano para proteger los sistemas del cliente.
Los algoritmos que no se entrenan con datos completa y correctamente etiquetados pertenecen a la categoría de aprendizaje automático no supervisado. Son adecuados para encontrar similitudes y anomalías en el conjunto de datos que podrían
escapar al ojo humano, pero no necesariamente aprenden cómo separar lo bueno
de lo malo (o para ser más precisos, lo no infectado de lo malicioso). En la seguridad
cibernética, esta puede ser una característica muy útil para trabajar con grandes
conjuntos de muestras etiquetadas.
El aprendizaje no supervisado se puede utilizar para organizar los datos en clústers
y ayudar a crear grupos más pequeños, pero mucho más consistentes, para entrenar otros algoritmos. El aprendizaje automático parcialmente supervisado está
entre las categorías de aprendizaje supervisado y no supervisado. En el proceso de
aprendizaje del algoritmo solo se usan los datos parcialmente etiquetados, y los resultados son supervisados y ajustados por expertos humanos hasta lograr el nivel
deseado de precisión.
Este enfoque es necesario porque la creación de un conjunto de entrenamiento
completamente etiquetado suele ser una tarea laboriosa, costosa y que lleva mucho tiempo. En otros casos, directamente no existen datos etiquetados en forma
completa y correcta, por lo que el aprendizaje parcialmente supervisado es la única
opción para generar un algoritmo útil.
10
¿La “IA” es solo una moda más?
Además de su uso científico original, el término Inteligencia Artificial también es una
palabra de moda. Sin embargo, ¿qué tan exagerada es la publicidad? Gracias a los
avances significativos en el campo de Machine Learning y su aplicación más amplia
en problemas del mundo real, el interés en la IA creció mucho en los últimos años,
y alcanzó picos en 2017 y 2018 que no se veían desde la última década. Esto queda
demostrado al analizar las tendencias de búsqueda de los términos “Machine Learning” e “Inteligencia Artificial” en inglés.
Figura No.XX: // Tendencia de búsqueda de los términos “Inteligencia Artificial”
y “Aprendizaje Automático” en inglés de 2004 a 2018.
Fuente: Tendencias de Google. Esto también aparece en entornos corporativos,
donde el aprendizaje automático o la IA parecen estar ampliamente implementados, como se observó en la encuesta que ESET le encargó a OnePoll.
Según los resultados, el 82% de los responsables de la toma de decisiones de TI en
empresas estadounidenses, británicas y alemanas con más de 50 empleados creen
que su organización ya ha implementado un producto de seguridad cibernética que
utiliza Machine Learning. Del resto, el 53% declaró que su organización planea implementar este tipo de solución en los próximos 3-5 años, y el 23% indica lo contrario.
El 80% de los encuestados también consideran que la IA y el ML ayudan o ayudarán a su organización a detectar y responder a las amenazas más rápidamente.
Los tomadores de decisiones también creen que estas tecnologías los ayudarán a
resolver la escasez de personal capacitado en seguridad cibernética para cubrir los
puestos de su lugar de trabajo.
11
Con la gran cantidad de marketing en torno a la IA y al ML, muchos de los encuestados llegaron a pensar que estas tecnologías podrían ser la clave para resolver
sus problemas más desafiantes de seguridad cibernética; sin embargo, la mayoría
también expresó que las afirmaciones sobre la implementación de la IA y el ML en la
infraestructura de seguridad les parecían exageradas.
12
Por lo tanto, sin menospreciar el verdadero valor de la IA y el ML como herramientas
útiles en la lucha contra el delito cibernético, hay ciertas limitaciones que deben tenerse en cuenta, por ejemplo, que confiar en una sola tecnología es un riesgo que
puede tener consecuencias perjudiciales, en particular cuando el atacante tiene la
motivación, el respaldo financiero y el tiempo suficiente para lograr evadir un algoritmo de ML protector.
Un enfoque más seguro y equilibrado para la seguridad cibernética corporativa es
desplegar una solución de varias capas capaz de aprovechar el poder y el potencial
de la IA y el ML, pero con el respaldo de otras tecnologías de detección y prevención.
¿La IA puede potenciar los ataques cibernéticos futuros?
Los avances tecnológicos del aprendizaje automático les ofrecen un enorme potencial de transformación a los defensores de la seguridad cibernética.
Desafortunadamente, no son los únicos: los ciberdelincuentes también son conscientes de los nuevos beneficios.
La encuesta de OnePoll a casi 1000 participantes, entre gerentes y personal de TI
responsables de la seguridad de empresas estadounidenses, británicas y alemanas, arrojó que: Dos tercios (66%) estuvieron de acuerdo en forma parcial o total en
que las nuevas aplicaciones basadas en la IA incrementarán el número de ataques
a su organización. Una cantidad incluso mayor de encuestados consideran que las
tecnologías basadas en la IA harán que las amenazas sean más complejas y más
difíciles de detectar (69% y 70% respectivamente).
13
Aún no sabemos si estas preocupaciones se van a materializar ni cómo. Sin embargo, no sería la primera vez que los atacantes utilizan los avances tecnológicos para
ampliar el alcance de sus esfuerzos maliciosos.
Ya en 2003, el troyano Swizzor (2) utilizó la automatización para volver a empaquetar el malware una vez por minuto. Como resultado, cada víctima recibía una variante polimórficamente modificada del malware, lo que complicaba su detección y
permitía su mayor propagación.
De todas formas, este enfoque no sería tan efectivo para evadir las soluciones antimalware modernas, hay equipos para endpoints, que detectan el “ADN” del malware
y además pueden identificarlo mediante sus detecciones de red.
Sin embargo, mediante el uso de algoritmos avanzados de Machine Learning, los
atacantes podrían usar un mecanismo similar al de Swizzor e intentar mejorar su
estrategia. Si esta tecnología no es parte de la medida defensiva, el algoritmo del
atacante podría aprender cuáles son los límites de la solución protectora y alterar el
código malicioso lo suficiente como para atravesar sus defensas.
Las variantes automáticas del malware distan mucho de ser la única aplicación maliciosa posible de los algoritmos de Machine Learning. A continuación, analizamos
algunas de las áreas en las que el uso de esta tecnología podría darles una ventaja
a los atacantes (y añadimos algunos ejemplos ilustrativos).
14
La IA como herramienta para los atacantes.
Los atacantes podrían utilizar la IA o el ML para:
Proteger su infraestructura, por ejemplo:
•Detectando intrusos (es decir, investigadores, defensores, cazadores de amenazas) en sus sistemas.
•Detectando nodos inactivos y por lo tanto sospechosos en su red.
Generar y distribuir nuevos contenidos, tales como:
•Correos electrónicos de phishing diseñados y modificados en forma total o parcial por el algoritmo.
•Spam de alta calidad gracias al Machine Learning, la creación de spam nuevo
de alta calidad también sería posible para los idiomas menos frecuentes, según
la cantidad de material de entrenamiento disponible.
•Desinformación combinando automáticamente información legítima con desinformación, y aprendiendo qué es lo que funciona mejor y lo que más comparten
las víctimas.
•Identificar patrones recurrentes, rarezas o errores en el contenido generado y
ayudar a los atacantes a eliminarlos.
•Identificar posibles señales de alarma que probablemente buscarán los defensores.
•Crear señales falsas para desviar la atención a otros actores o grupos.
•Elegir el mejor objetivo para su ataque o repartir varias tareas entre distintas
máquinas infectadas de acuerdo con su rol dentro de la red, sin la necesidad
de una comunicación saliente.
•Utilizar el modelo de la IA de la solución de seguridad como una caja negra con
intenciones maliciosas.
Los atacantes pueden instalar la solución de seguridad de la víctima en su propio
dispositivo con la misma configuración y usarla para identificar qué tipo de tráfico o
contenido atravesará sus defensas.
Encontrar la técnica de ataque más efectiva Las técnicas de ataque pueden abstraerse y combinarse para identificar los enfoques más efectivos. Luego, estos enfoques se pueden priorizar para aprovecharlos en el futuro. En caso de que los
defensores detecten y anulen a uno de los vectores de ataque, el atacante solo necesitará reiniciar el algoritmo y, basándose en esta nueva información, la tecnología
seguirá una ruta de aprendizaje diferente.
15
Encontrar nuevas vulnerabilidades Combinando el enfoque anterior con el fuzzing
(es decir, proporcionarle al algoritmo datos no válidos, inesperados o aleatorios como
entradas), la IA podría aprender una rutina para encontrar nuevas vulnerabilidades.
La IA en el malware.
Los desarrolladores de malware podrían utilizar la IA para:
Generar nuevas variantes de malware difíciles de detectar.
Algunas familias de malware antiguas (por ejemplo, Swizzor) utilizaban la automatización para generar nuevas variantes de sí mismas cada minuto.
Esta técnica podría reinventarse y mejorarse usando algoritmos de Machine Learning para aprender cuáles de las variantes recién creadas son las menos susceptibles de ser detectadas y así producir nuevas cepas con características similares.
Ocultar su malware en la red de la víctima El malware puede monitorear el comportamiento de los nodos o las endpoints en la red objetivo y generar patrones que se
asemejen al tráfico de red legítimo.
Combinar varias técnicas de ataque para encontrar las opciones más efectivas que
no puedan detectarse fácilmente y priorizarlas sobre alternativas menos exitosas.
Ajustar las funcionalidades o el enfoque del malware en función del entorno Si por
ejemplo los ciberdelincuentes quieren atacar navegadores, en lugar de incluir una
lista completa de navegadores y posibles escenarios en el malware, solo necesitarán implementar algunos de ellos para las marcas más frecuentes. El algoritmo de
IA utilizará esta capacitación y aprenderá directamente en la endpoint a infiltrarse
también en los navegadores menos populares y no especificados previamente.
Implementar un mecanismo autodestructivo en el malware que se active si detecta
un comportamiento extraño Al detectar un inicio de sesión de un perfil de usuario o
de un programa que no sean los estándares, el malware activa automáticamente el
mecanismo de autodestrucción para evitar ser detectado o analizado.
Detectar un entorno sospechoso Si el algoritmo detecta una máquina virtual, un
modo sandbox o alguna otra herramienta utilizada por los investigadores de malware, puede alterar el comportamiento o detener temporalmente su actividad para
evitar la detección.
Aumentar la velocidad del ataque La velocidad de un ataque puede ser crucial, especialmente en casos como el robo de datos. Los algoritmos pueden realizar la extracción significativamente más rápido que un ser humano, lo que hace que sea
más difícil de detectar y casi imposible de evitar, ya que la máquina copia los datos
del perímetro protegido antes de que los defensores puedan reaccionar.
Permitir que otros nodos de la botnet aprendan en forma colectiva e identifiquen
las formas de ataque más efectivas.
16
Aprender y compartir información a través de múltiples nodos puede ser una gran
ventaja para los atacantes, ya que cada uno de los bots de la red infectada puede
probar diferentes técnicas de infiltración e informar los resultados. También puede
servirles a los actores maliciosos para aprender más sobre la infraestructura objetivo en menos tiempo.
La IA como parte de los ataques (dirigidos) al elegir sus objetivos, los atacantes podrían utilizar la IA para:
•Decidir si vale la pena atacar al visitante Al monitorear el tráfico del sitio Web
infectado, el algoritmo puede aprender y seleccionar los visitantes que constituyan los objetivos de ataque más valiosos e infectarlos con el malware.
•Identificar una solución de protección específica El atacante externo puede
hacer un reconocimiento de la red objetivo y, en función de las respuestas recibidas (o no recibidas), usar la IA para inferir información sobre las soluciones de
seguridad empleadas por la organización objetivo.
La IA como parte de los ataques en entornos móviles.
Uso indebido de la popularidad de las aplicaciones móviles El algoritmo de Machine
Learning puede identificar las apps con mods populares y crear su propio mod para
modificarlas. Cuando los usuarios incautos descargan estas apps en sus dispositivos móviles, los infectan con malware.
La IA en ataques dirigidos a la IoT: Los dispositivos de la Internet de las cosas, como
los routers, las cámaras de seguridad y distintos tipos de controladores, son cada
vez más numerosos. En general, las empresas que los utilizan subestiman el hecho
de que estos dispositivos son en realidad pequeñas computadoras, y como tales
son propensas a presentar vulnerabilidades y ser víctimas de su aprovechamiento
por actores maliciosos. Además, los productos de la IoT baratos y mal diseñados a
menudo carecen de medidas de seguridad básicas o sus credenciales predeterminadas son débiles: ambas deficiencias pueden permitir la fácil infiltración del malware.
Los atacantes que desean infectar dispositivos de la IoT podrían utilizar la IA para:
• Generar credenciales y usarlas para infiltrarse en otros dispositivos de la IoT similares.
• Encontrar nuevas vulnerabilidades en los dispositivos de la IoT.
• Si los dispositivos de la IoT son parte de una botnet, el algoritmo puede distribuirse
entre todos los nodos para el aprendizaje colectivo.
• Conocer los procesos y comportamientos estándar de dispositivos (o grupos) determinados, identificar malware de la competencia y eliminarlo, deshabilitarlo o inutilizarlo.
Incluso la IA maliciosa tiene sus limitaciones.
17
Al igual que en cualquier otro campo, la aplicación de la IA en el malware y las actividades maliciosas tiene sus limitaciones. La más importante se documentó en el
despliegue del infame Stuxnet, la primera arma cibernética utilizada in the wild.
Esta familia de malware fue muy efectiva para infectar entornos protegidos e incluso IAslados por una barrera de IAre, lo que le permitió extenderse no solo en
los sistemas específicos que quería atacar sino en todo el mundo. Sin embargo, su
comportamiento tan agresivo llamó la atención de los investigadores de seguridad,
que finalmente identificaron y diseccionaron la amenaza.
Esto también podría aplicarse a futuros ataques basados en la Inteligencia Artificial.
Con el creciente número de infiltraciones, estas amenazas también se volverían más
frecuentes y, por lo tanto, visibles, atrayendo más la atención de los defensores de
la seguridad, lo que en última instancia conduciría a su detección y mitigación.
Limitaciones del Machine Learning.
Hemos estado experimentando con varias formas de Machine Learning desde las
primeras versiones del producto, y desarrollamos un sistema de detección automatizado que nos ayuda a proteger a nuestros clientes. Sin embargo, este proceso
también nos mostró las limitaciones de la tecnología:
Limitación número 1: Conjunto de muestras de entrenamiento.
En primer lugar, para utilizar Machine Learning, se necesitan muchas muestras de
entrada, cada una de las cuales debe estar correctamente etiquetada. En una aplicación de seguridad cibernética, esto implica tener una gran cantidad de muestras
divididas en tres grupos: maliciosas, no infectadas y potencialmente no seguras o
no deseadas.
Una sola entrada incorrecta podría ocasionar un efecto en cadena y llegar a socavar la solución hasta el punto de hacerla fallar. La misma situación se produce si el
algoritmo solo utiliza sus propios datos de salida como entradas para seguir entrenándose. En este caso, los errores se consolidan y multiplican, ya que el mismo
resultado incorrecto vuelve a ingresar al algoritmo en un bucle y crea más falsos
positivos (FP) o pasa por alto los elementos maliciosos.
18
Otra limitación de las soluciones que solo se basan en el ML o la IA es cuando los
ciberdelincuentes deciden atacar una nueva plataforma, como un nuevo lenguaje
de script o macro de una aplicación, o un nuevo formato de archivo. En este caso,
puede llevar bastante tiempo reunir la cantidad suficiente de muestras “no infectadas” y “maliciosas” para crear un conjunto de entrenamiento.
Limitación número 2: Las matemáticas no pueden resolverlo todo.
Algunos fabricantes de seguridad afirman que algunas de estas limitaciones no se
aplican a sus algoritmos de ML, ya que pueden identificar cada muestra antes de
que se ejecute y determinar si es inofensiva o maliciosa simplemente haciendo cálculos matemáticos. Sin embargo, como lo demostró el famoso matemático, criptoanalista y científico informático Alan Turing (el hombre que rompió el código Enigma
durante la Segunda Guerra Mundial en Bletchley Park en el Reino Unido), este enfoque no es matemáticamente posible.
Ni siquiera una máquina perfecta sería siempre capaz de decidir si una entrada futura desconocida podría llegar a provocar un comportamiento no deseado (en el caso
de Turing, sería el de hacer que la máquina reprodujera un bucle indefinidamente).
Esto se denomina “problema de la parada” y se aplica a muchos otros campos además del de la informática teórica, donde se originó.
Fred Cohen, el experto informático que definió los virus de computadoras, demostró
la aplicación de este principio en la seguridad cibernética mediante otro problema
indescifrable: es imposible decir con absoluta certeza si un programa actuará en
forma maliciosa si solo se puede analizar durante un tiempo finito. El mismo problema se aplica a futuras entradas o comandos del atacante, que podrían convertir un
programa en malicioso.
Por lo tanto, siempre dude cuando un proveedor afirma que su algoritmo de Machine Learning es capaz de etiquetar todas las muestras antes de ejecutarlas (es decir, mediante su ejecución previa) y decidir si son maliciosas o no. Cuando se utiliza
un enfoque de este tipo, es necesario bloquear preventivamente una gran cantidad
de elementos dudosos, lo que desborda con falsos positivos a los departamentos
de seguridad informática de las empresas.
La otra opción sería que utilicen una detección menos agresiva que genere menos
falsos positivos; pero si solo se aplica la tecnología de Machine Learning, las tasas
de detección se alejarían mucho de la supuesta eficacia infalible del “100%” que estos fabricantes promocionan.
Limitación número 3: Adversario inteligente y adaptable.
Otra limitación importante de los algoritmos de Machine Learning en la seguridad
cibernética es el adversario inteligente. La experiencia nos enseña que contrarrestar los ataques cibernéticos es como un juego interminable del gato y el ratón. La
naturaleza cambiante del entorno de seguridad cibernético hace que sea imposible
crear una solución protectora universal capaz de contrarrestar todas las amenazas
futuras. El aprendizaje automático no modifica esta conclusión.
19
Es cierto que las máquinas se han vuelto lo suficientemente inteligentes como para
derrotar a los humanos en el ajedrez; sin embargo, estos juegos se basan en reglas
estrictas. En cambio, en la seguridad cibernética, los atacantes no siguen pautas ni
aceptan limitaciones. Incluso pueden cambiar el campo de juego completo sin ninguna advertencia.
Un buen ejemplo son los automóviles sin conductor. A pesar de la gran inversión en
su desarrollo, estas máquinas inteligentes no pueden garantizar el éxito en el tráfico real. Trabajan en áreas limitadas y entornos específicos. Pero imagine qué pasaría si alguien tapara o manipulara las señales de tráfico, o recurriera a actos maliciosos sofisticados, como hacer que los semáforos parpadeen a una velocidad que
escapa el reconocimiento humano. Con este tipo de alteraciones en los elementos
más críticos del entorno, los autos podrían comenzar a tomar malas decisiones, lo
que podría provocar accidentes fatales.
En el ámbito de la seguridad cibernética, la esteganografía es un ejemplo de dicha
actividad maliciosa. Los atacantes esconden su código malicioso en archivos inofensivos, como imágenes. Al enterrar el código profundamente entre los píxeles, el
archivo (infectado) logra engañar a la máquina, dado que la forma alterada es casi
indistinguible de su homólogo no infectado.
Del mismo modo, la fragmentación también puede hacer que una detección basada
únicamente en un algoritmo de Machine Learning devuelva una evaluación incorrecta. Los atacantes dividen el malware en partes y las ocultan en varios archivos
separados. Cada uno de ellos es inofensivo en forma individual; recién cuando convergen en una end point o red comienzan a demostrar un comportamiento malicioso. En tales casos, no hay señales de alarma durante la ejecución previa.
Limitación número 4: Falsos positivos.
Se sabe que los cibercriminales trabajan arduamente para evitar la detección y la
sofisticación de sus métodos exceden los ejemplos ya mencionados. Usan sus habilidades para ocultar el verdadero propósito de su código “cubriéndolo” mediante la
ofuscación o el cifrado. Si el algoritmo no ve más allá de esta máscara, puede tomar
una decisión incorrecta. Dejar pasar un elemento malicioso como no infectado o bloquear uno legítimo tiene consecuencias negativas importantes.
Aunque es comprensible por qué un malware no detectado representa un problema
para una empresa, es menos obvio con los falsos positivos, que son los errores cometidos cuando una solución de seguridad etiqueta incorrectamente los artículos
inofensivos como maliciosos.
No todos los falsos positivos necesariamente conducen al colapso total de la infraestructura de TI de una empresa. Pero algunos de ellos pueden interrumpir la
continuidad del negocio y ser potencialmente más destructivos que una infección
de malware. Un falso positivo en una fábrica automotriz que etiquetó incorrectamente parte del software de gestión de la línea de producción como malicioso podría interrumpir la producción, provocar demoras masivas, generar un gasto de mi-
20
llones de dólares en daños financieros y afectar la reputación de la empresa.
De todas formas, no es necesario que los falsos positivos rompan procesos críticos
para que las organizaciones o su personal de seguridad de TI quieran evitarlos a
toda costa. Con decenas o cientos de falsas alarmas diarias (que bien puede ser el
caso con una solución de seguridad basada puramente en ML), a los administradores solo les quedan dos opciones:
1. Mantener la configuración estricta y perder días de trabajo solucionando los falsos positivos.
2. Reducir el nivel de protección, lo que puede ocasionar una menor capacidad de
detección y crear nuevas vulnerabilidades en la infraestructura de la empresa.
Este escenario puede ser provocado y aprovechado fácilmente por un atacante
con experiencia cuando la solución de seguridad es demasiado agresiva.
Limitación número 5: El aprendizaje automático solo no es suficiente.
Crear defensas efectivas de seguridad cibernética para la red corporativa es similar
a proteger una casa. Los propietarios que desean mantener sus hogares seguros
deben instalar tantas capas de protección como sea posible, por ejemplo, poner
rejas fuertes, cámaras de seguridad, alarmas sonoras y detectores de movimiento
en los rincones oscuros.
El enfoque que se debe usar en el entorno corporativo es similar. Sería imprudente confiar en una sola tecnología, por más que sea el último algoritmo de Machine
Learning. Con todas sus limitaciones, es necesario usar otras capas protectoras
para mantener las endpoints y otros sectores cruciales de la red seguros.
En el entorno de seguridad informática actual, la protección perimetral por sí sola
no es suficiente. Se necesitan herramientas adicionales y más elaboradas, como
sistemas de detección y respuesta para endpoints (EDR), inteligencia de amenazas,
y herramientas que permitan el análisis rápido y confiable de los elementos sospechosos, de modo de proporcionarles a los departamentos de seguridad corporativos los registros y la información forense necesarios.
En consecuencia, si una empresa pretende
construir defensas de seguridad cibernética
confiables y sólidas, debe seleccionar una variedad equilibrada de soluciones y herramientas que ofrezcan múltiples tecnologías complementarias con altas tasas de detección y
un bajo número de falsos positivos.
Para volver a la metáfora del hogar: un sistema complejo de seguridad que detecte
a los ladrones pero que no haga sonar la alarma cuando el gato del vecino cruce
caminando por el jardín.
21
Unidad 2: Inteligencia Artificial la tecnología del futuro.
Concepto de Inteligencia Artificial.
La Inteligencia Artificial llamada IA (por sus siglas en inglés) “es considerada una de
las ramas de las ciencias de la computación dedicada al desarrollo de herramientas
racionales para la resolución óptima de problemas, relacionada con la automatización del comportamiento inteligente”1.
Esta línea de investigación nació en los años cincuenta cuando Alan Turing propuso
una prueba para definir de manera operacional la inteligencia, basada en la capacidad de diferenciar entes humanos y artificiales. De esta prueba surgieron 4 de las
áreas más importantes de la Inteligencia Artificial: El procesamiento del lenguaje
natural, La representación del conocimiento, El razonamiento y El aprendizaje automáticos.
Otro campo que ha sido relacionado a la Inteligencia Artificial es la resolución de
problemas, ya que en este se utilizan algoritmos basados en IA para buscar la solución óptima a un determinado problema.
No obstante, la Inteligencia Artificial ha sido definida de diferentes maneras a través de la historia y de su desarrollo, dependiendo del enfoque que le han dado los
investigadores para sus diferentes usos; empero, siempre ha girado en torno al
concepto de inteligencia. Entre las definiciones alternas de la IA se encuentra que
“es el estudio de la de la inteligencia como proceso”2. En esta definición lo más importante es el estudio de la inteligencia y no la automatización a través de sistemas
computacionales o de la automatización de procesos.
Un concepto antagónico a la anterior es la que da ElIAne Rich y Kevin Knigth en su
libro Inteligencia Artificial, en el cual conciben la IA como “el estudio de cómo hacer
que los ordenadores hagan cosas que por el momento las personas realizan de
una forma más perfecta”3. Esta definición está enfocada en los ordenadores y en
su capacidad para reproducir comportamientos humanos. De este concepto nace
el teorema de Tessler que dice que IA es cualquier cosa que los ordenadores son
incapaces de hacer.
Hoy la Inteligencia Artificial pretende replicar y superar el comportamiento de los
seres humanos para desarrollar ciertas tareas. Por ejemplo, en el ajedrez, en el reconocimiento de imágenes, en el reconocimiento de voz en condiciones adversas y
el reconocimiento de los regionalismos. La evolución de los sistemas y máquinas en
el área de la Inteligencia Artificial ha pasado de realizar tareas naturalmente humanas, como el reconocimiento de facciones a tomar decisiones basadas en información con tecnologías como el Big Data, Minería de Datos y el Bussiness Inteligence
entre otras. Entre las ramas que aplican Inteligencia Artificial hay 4 que destacan:
Machine Learning (ML) o Aprendizaje Automático, reconocimiento de patrones, sistemas autónomos y robótica.
1 Espino, L. (2016). Inteligencia Artificial. Ciudad de Guatemala: Guatemala.
2,3 Amador, L. (1996). Inteligencia Artificial y Sistemas Expertos. España, Córdoba: Universidad de Córdoba, Servicio de
Publicaciones.
22
En palabras simples, el Machine Learning es hacer que un ordenador adquiera conocimiento de cierta área de manera automática. Por ejemplo, permitiendo que un
ordenador reconozca lo que es un perro. Para que una computadora sepa lo que
es un perro se puede desarrollar un programa que reconozca a un perro a partir de
una imagen, no obstante, no existe un único tipo de perro. Los perros se clasifican
en razas, según las mezclas de razas, tamaños, colores, pelajes y características
diferentes, por lo que hacer un programa que reconozca un perro basado en una
imagen se vuelve inútil en la misión de identificar lo que es un perro.
Es aquí donde interviene el Machine Learning que basado en la Inteligencia Artificial crea un modelo que se cimienta en características generales que asocia a un
determinado concepto. Volviendo al ejemplo del perro con esta técnica se “entrena”
a la máquina con múltiples imágenes de diferentes perros hasta que el ordenador
relacione las características generales de un perro al concepto de perro.
Una variación de Machine Learning es el Deep Learning que utiliza redes neuronales para que los ordenadores pueden aprender a partir de información no estructurada y sin supervisión. Es decir, a partir de datos crudos, no se le da a la máquina a
un entrenamiento supervisado.
El Deep Learning utiliza millones de datos para poder aprender sobre un determinado tema de forma más similar a la que aprende un humano y con ello poder imitar
comportamientos humanos como el reconocimiento facial, el procesamiento de lenguaje natural, pero en comparación con las personas un ordenador, puede procesar
millones de datos en velocidades que son imposibles para los seres humanos, por lo
que pueden hacer predicciones basados en información ágil y pertinente teniendo
así un mayor grado de certeza y precisión en las mismas.
El desarrollo de Machine y Deep Learning ha permitido el reconocimiento de patrones que es otra técnica basada en IA y cuyos usos son múltiples y van desde la traducción en tiempo real, análisis de sentimientos y comportamientos en diferentes
entornos. Estos pueden ser utilizados para mejorar el campo de la comunicación,
hacer análisis estratégicos en los negocios e incluso ayudar a mejorar los diagnósticos médicos mediante el uso de lecturas de patrones.
También la capacidad de aprendizaje en una máquina permite crear sistemas autónomos que son dispositivos que generalmente incorporan el internet de las cosas
y big data , para manipular objetos y tomar decisiones en espacios reducidos, un
ejemplo de sistemas autónomos son los automóviles sin conductor que utilizan los
datos sobre forma de conducción correcta, leyes de transito señales, GPS, entre
otras bases de datos y tecnologías, para lograr que un automóvil sin conductor
sepa cuando debe detenerse, cuando puede seguir y hacia donde es una vía.
Un paso más allá del Machine y Deep Learning está la robótica que es una de las ramas de la IA más avanzadas, en donde la máquina no solamente tiene la capacidad
de aprender e imitar comportamientos inteligentes desde un punto de vista cognitivo, sino que puede realizar tareas físicas gracias a que está dotado por hardware
que le permite realizar movimientos.
23
El hardware del que se le dota no necesariamente debe ser parecido al de un ser
humano, ni tampoco debe ser de una movilidad completa, por ejemplo, los brazos
robóticos hechos para realizar los movimientos de los brazos humanos o el robot
mesero mencionado al principio de este capítulo que tiene la capacidad de movimiento, pero no tiene una forma humana.
El desarrollo de la IA y todas sus ramas ha sido posible gracias a la creación de tecnologías complementarias como el almacenamiento y el procesamiento de la información en la nube, que permite procesar y almacenar mayores volúmenes de datos
en un menor tiempo. Sin estas tecnologías complementarias la IA tendría un rango
de acción muy limitada ya que se necesitan de grandes cantidades de información
para entrenar a las máquinas y permitir su capacidad de aprendizaje y con ello la
habilidad de imitar comportamientos inteligentes.
Fuente: BID, Algoritmo Landia, 2018.
24
Historia de la Inteligencia Artificial.
En la siguiente figura se presenta un resumen de dichos acontecimientos, los cuales serán ampliados posteriormente.
Fuente: Prosic, 2019
El nacimiento de la IA como una ciencia se puede referenciar en 1950 con la publicación de Alan Turing "Computing Machinery and Intelligence", “publicado en el
volumen 59 de la revista Mind. En este artículo se profundiza sobre la posibilidad
de que una máquina pueda imitar el comportamiento de la mente humana. En este
mismo artículo se propone la conocida prueba de Turing, orientado a demostrar si
una determinada máquina es inteligente o no.4”
El segundo hito importante para el desarrollo de la IA como ciencia se da en 1956
cuando se realiza en Dartmouth, la conferencia Dartmouth Summer Research Conference on Artificial Intelligence, en la que participaron Marvin L. Minsky y Claude E.
Shannon Herbert Simon y Allen Newell, entre otros. El encuentro tuvo una duración
de dos meses y en él se establecieron directrices y líneas de actuación futuras en
el estudio y desarrollo de la IA, “tomando como hipótesis de trabajo la proposición:
Todo aspecto de aprendizaje o cualquier otra característica de inteligencia puede
ser definido de forma tan precisa que puede construirse una máquina para simularlo5.”
En esta conferencia se definieron 7 pilares de investigación dentro del campo de la
Inteligencia Artificial, que son:
1. Computadoras automáticas: En este pilar se busca investigar cómo aprovechar toda la capacidad de los ordenadores en ese momento y se especifica que
la misma capacidad de estos ordenadores limitará la habilidad de una máquina
de poder imitar un comportamiento inteligente.
2. Como programar una computadora usando lenguaje natural: Se basan en
la premisa de que parte del pensamiento humano consiste en el lenguaje, sus
elementos y reglas, por lo que se considera necesario crear ejemplos e investigar
como insertar el lenguaje natural en la programación ya que al momento era un
campo desconocido.
4,5 Crespo, R., Villena, J., & García, J. (2012). Historia de la Inteligencia Artificial. Recuperado de http://ocw. uc3m.es/ingenieriatelematica/inteligencia-enredes-de-comunicaciones/material-de-clase-1/01- historia-de-la-inteligencia-artificial el 20 de agosto
de 2018.
25
3. Redes Neuronales: Plantea el problema de cómo organizar una red de neuronas hipotéticas para formar conceptos.
4. Teoría del tamaño de un cálculo: Este pilar expone la necesidad de investigar
métodos eficientes para grandes cálculos y su nivel de complejidad, así como el
de los dispositivos de cálculo.
5. Auto mejora: Se propone el estudio de cómo lograr que una máquina lleve a
cabo actividades de “autosuperación.”
6. Abstracción: Para este pilar se propone investigar, clasificar y describir los métodos para que una máquina pueda formar abstracciones a partir de datos sensoriales y de otro tipo.
7. Aleatoriedad y Creatividad: Plantea indagar el uso de la aleatoriedad y la creatividad de forma guiada y ordenada.
Las décadas comprendidas entre 1960 y 1980 son conocidas como la época oscura
en la investigación sobre IA ya que las expectativas de los resultados eran muy altos y las capacidades de procesamiento de los equipos insuficientes. Además, se
presentó un problema complejo para el procesamiento del lenguaje natural, ya que
para que un ordenador pudiera reconocer imágenes o palabras se necesitaba grandes cantidades de información para entrenarla e identificar dichos objetos; durante
esas décadas no estaban disponibles las herramientas necesarias para procesar
grandes cantidades de información.
En este contexto surgen pensadores como John Searl en 1970 quien postula que
una computadora no puede reconocer los símbolos con los que se comunica por
lo que argumenta que la misma no puede pensar con similitud a un humano como
postuló anteriormente Turing hablando en términos de simbología.
John McCarthy con una corriente de pensamiento diferente estudia cómo opera el
cerebro humano y la forma en que los humanos piensan, por lo que determina que
los anteriores no son directamente relevantes para la Inteligencia Artificial ya que él
pensaba que realmente se necesitaban máquinas que pudieran resolver problemas
y no qué pensarán como las personas lo hacen.
No obstante, también existen detractores de dichas teorías como Minsky quién
pensaba que era necesario que los ordenadores piensen como humanos para reconocer objetos y conversaciones. Por lo que se da una discusión teórica de cómo
debe proseguir la investigación y el desarrollo de la Inteligencia Artificial. Sin embargo, esta discusión no impidió que durante esas décadas se dieran algunos avances
e hitos importantes para el desarrollo de la IA.
En 1961 aparece la publicación “Pasos Hacia la Inteligencia Artificial” un artículo académico que aborda el problema que enfrenta la investigación en el área de la IA,
la necesidad de tener una base teórica, de las posibilidades de las máquinas de
aprender y de las posibilidades que ofrece hasta ese momento la programación.
26
Para 1966 en el Massachusetts Institute of Technology (MIT) el profesor Joseph Weizenbaum crea Eliza uno de los primeros programas en procesar lenguaje natural
que funcionaba reconociendo palabras o frases claves para que según la pregunta
hecha se mostrará la respuesta preprogramada, dando la ilusión de que la máquina
estaba interactuando con el ser humano.
A pesar de todos los avances hechos, en 1972 empiezan los cuestionamientos a
este nuevo campo de las ciencias de la computación. En ese año Hubert L. Dreyfus
un filósofo estadounidense escribe el artículo What computers cant do4 en el cual
se cuestiona hasta donde puede una computadora ser “inteligente” ya que él considera que para que un dispositivo sea realmente inteligente debe de tener un cuerpo similar y estar inmerso en una sociedad más o menos como la nuestra ya que el
conocimiento se obtiene no solo de las experiencias particulares sino también de
las colectivas.
Sin embargo, entre 1979 y 1987 la IA vuelve a tomar relevancia cuando una computadora vence al campeón mundial de backgammon Luigi Villa, con el programa BKG
9.8 creado por el profesor Hans Berliner de la Universidad Carnegie Mellon.
En 1981 aparece el proyecto del gobierno de Japón Quinta Generación, el más ambicioso hasta ese momento en IA y buscaba que las máquinas conversaran, tradujeran, interpretaran imágenes y razonaran como seres humanos.
En 1987 Martin Fischles y Oscar Firschein describen los atributos de un agente inteligente y consideran que estos van más allá de la capacidad de comunicación entre
los ordenadores y los humanos, abriendo nuevas líneas de investigación.
No obstante, en 1992 vuelve a disminuir el apoyo a la investigación en IA con el fracaso de algunos proyectos entre los que destaca Quinta Generación del gobierno
japonés que a pesar de tener 11 años de desarrollo no logra alcanzar sus objetivos
por lo que es cerrado.
Además de los cuestionamientos realizados a la investigación de la IA, los fracasos
de los proyectos estrellas, los científicos dedicados a este campo se enfrentan a las
limitaciones que tienen las computadoras, la necesidad de grandes bases de conocimiento, la dificultad de computar las habilidades sensoriales y motoras básicas y
de replicar comportamientos humanos básicos, para el desarrollo y evolución de la
IA, por lo cual entre 1992 y el 2005 pierde importancia y son escasos los desarrollos
relacionados a esta área.
Una de las pocas iniciativas en este período se da en 1997 cuando IBM crea Deep
Blue un ordenador que en su segundo partido de ajedrez le logro ganar a Garri Kaspárov campeón del mundo.
Pero en la década de los 2000 con la ampliación de las capacidades de las computadoras y el desarrollo de la computación de la nube, la IA retoma importancia. Se
desarrollan tecnologías como el Big Data, Machine Learning, Deep Learning, el Internet de las cosas, se avanza en el campo de la robótica y permite el surgimiento de
proyectos exitosos en esta materia.
27
En el 2005 la Universidad de Stanford gana una competencia cuando un auto autónomo conduce 212 km en el desierto sin apoyo de un humano, mientras que en
2011 aparece Watson uno de los desarrollos más sonados en esta materia por parte
de IBM y que es una Inteligencia Artificial con capacidad de análisis de datos que
ha impulsado otros desarrollos en esta materia y que obtuvo notoriedad al ganar el
famoso concurso Jeopardi a los campeones del programa.
Cabe destacar que Watson es una Inteligencia Artificial que aún está en entrenamiento ya que para cada nuevo campo que se desee agregar al conocimiento de
Watson es necesario darle un nuevo aprendizaje.
También en ese año Apple lanza Siri el primer asistente virtual que es capaz de entender órdenes humanas a través del procesamiento del lenguaje natural.
En 2014 aparece Eugene un programa que casi supera la prueba de Turing creado
por Vladimir Veselov y a Eugene Demchenko desarrollado en San Petersburgo, Rusia. Este logró convencer a un 33% de los usuarios que conversaban con un niño de
13 años humano.
En esta misma línea de interacción humano – computador a través del lenguaje natural, en 2016 Microsoft lanza Tay una plataforma diseñada para mantener conversaciones informales en redes sociales dirigidas a un público meta de entre 18 y 24
años. No obstante, esta tuvo que ser retirada del mercado 24 horas después de su
lanzamiento por comentarios racistas y xenófobos.
En ese mismo año Google lanza un programa basado en Deep Learning 5 AlphaGo
que vence al campeón mundial del juego Go6 .Sin embargo, Google retiró el programa en 2016 para explorar nuevas aplicaciones de la IA en otras áreas.
La Inteligencia Artificial como motor del crecimiento.
Para algunos la Inteligencia Artificial es considerada como el nuevo factor de la producción que propulsará el crecimiento económico en los años venideros a través de
tres vías: la automatización inteligente, el enriquecimiento del capital y el trabajo y
la difusión de las innovaciones. La diferencia entre la automatización que ofrece la
IA con respecto a las soluciones convencionales, es que la IA puede emplearse en
tareas más complejas que requieren adaptabilidad y agilidad.
La tecnología de automatización tradicional está orientada a tareas concretas. Por
el contrario, la segunda característica de la automatización inteligente basada en
IA es su capacidad de resolver problemas relacionados con diferentes industrias y
tipos de trabajo. La tercera característica de la automatización inteligente (y la más
potente) es el autoaprendizaje, que se obtiene mediante la reproductibilidad a escala6.
El enriquecimiento del capital y el trabajo se refiere a que “una buena parte del
crecimiento económico basado en IA no se deberá a la sustitución del capital y el
trabajo existentes, sino al hecho de que permite usarlos con mucha más eficacia7.”
6,7, Daugherty, P., & Purdy, M. (2017). IA-IndustryGrowth-Full-Report. Recuperado de https://www. accenture.com/
t20171005T065828Z__w__/ us-en/_acnmedia/Accenture/next-gen-5/insightIA-industry-growth/pdf/Accenture-A
28
La IA “enriquece el trabajo, ya que complementa las capacidades humanas y ofrece
a los empleados nuevas herramientas con las que pueden aumentar su inteligencia
natural8.” Por último, IA también puede aumentar la eficiencia del capital, algo muy
importante en industrias en las que representa un gran costo hundido.
La difusión de innovaciones es “una de las ventajas de la Inteligencia Artificial de
las que menos se habla es su capacidad de impulsar la innovación a medida que
penetra en la economía9.”
Tomemos el ejemplo de los vehículos sin conductor. Mediante una combinación de
láseres, sistemas de posicionamiento global, radar, cámaras, visión por ordenador y
algoritmos de aprendizaje automático, estos vehículos pueden detectar lo que ocurre a su alrededor y actuar en consecuencia. En este mercado no solo están entrando empresas de Silicon Valley, sino que también las empresas tradicionales tratan
de establecer nuevas alianzas para seguir siendo competitivas. BMW, por ejemplo,
está colaborando con el gigante chino de Internet BIAdu, mientras que Ford colabora con el Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Stanford.
Dado que la innovación genera más innovación, el impacto potencial de los vehículos sin conductor sobre las economías podría ir mucho más allá de la industria del
automóvil. Incluso los operadores móviles podrían ver cómo aumenta la demanda
de sus servicios, ya que los conductores, con libertad para dedicarse al ocio durante
los viajes, pasarán más tiempo explorando Internet. Eso a su vez podría crear nuevas oportunidades de publicidad para los proveedores de servicios y oportunidades
de venta para sus socios minoristas10.”
Fuente: Accenture y Frontier Economics
En un estudio realizado por Accenture y Frontier Economics se proyecta que el crecimiento de la Economía en el 2035 para Brasil, Chile, Perú y Colombia puede rondar
en 1 punto porcentual en términos de valor agregado bruto.
Como se puede observar en la siguiente figura, la IA tiene mayor potencial de hacer
crecer una economía en países de mayor desarrollo como Estados Unidos, no obstante, ayudar a que economías menos desarrolladas -como la de Perú- crezcan.
8,9,10 Daugherty, P., & Purdy, M. (2017). IA-IndustryGrowth-Full-Report. Recuperado de https://www. accenture.com/
t20171005T065828Z__w__/ us-en/_acnmedia/Accenture/next-gen-5/insightIA-industry-growth/pdf/Accenture-A
29
Pero para lograr alcanzar los niveles de crecimiento proyectado en el gráfico anterior, es necesario preparar a las nuevas generaciones en competencias técnicas
para el desarrollo de sistemas laborales basados en IA entre las que destacan la
robótica, la visión artificial y el reconocimiento de patrones.
Según el estudio "Cómo la Inteligencia Artificial impulsa las ganancias y la innovación de la industria" se estima que para el 2035 con la incorporación de la IA en diferentes sectores productivos, estos podrían crecer económicamente de la siguiente
manera:
Como se puede observar en el siguiente cuadro los sectores que tienen un mayor
potencial de crecimiento económico son: manufactura, utilidades y financiero, los
cuales crecerían alrededor de 2 puntos porcentuales sí agregan IA a sus procesos
productivos. Una característica que tienen un común estos sectores es una alta
cantidad de tareas que pueden ser automatizadas con la IA, aspecto que permitiría
que el personal que trabaja en estas industrias se dedique a tareas de un mayor
valor agregado, maximizando el valor del trabajo y con ello ser más eficiente la producción.
Industria
Educación
Línea Base Crecimiento
con IA
0.9
1.6
Hospedaje y Servicios de comida
1.4
3.2
Construcción
2.3
3.4
Ventas al por mayor y menos
2
4
Salud
2.3
3.4
Agricultura y pesca
1.3
3.4
Servicios Sociales
Transporte y almacenamiento
1.6
2.1
2.8
4
Manufactura
2.1
4.4
Otros servicios
0.7
1.7
Servicios financiero
2.4
4.3
Servicios públicos
0.9
2.3
Arte, entrenamiento y recreación
Servicios profesionales
1.9
2.3
3.1
3.8
Información y Comunicación
3.4
4.8
Utilidades
1.4
3.4
Fuente: Elaboración PROSIC con base a Purdy y Daugherty, 2017
30
Según el cuadro anterior otros sectores que se podrían ver muy beneficiados con la
incorporación de la IA en sus procesos son los de hospedaje y servicios de comida,
agricultura y pesca y otros servicios, que sin la IA proyectan un crecimiento muy
bajo de no más de 1.4 puntos porcentuales, mientras que con la integración de IA
podrían alcanzar hasta 3.4 puntos. En este mismo estudio los investigadores estiman que la “IA tiene el potencial de aumentar la tasa de rentabilidad en un promedio
de 38% para el 2035 en 16 industrias11” a través de 3 canales de la automatización
inteligente, el aumento del trabajo y capital y la difusión de la innovación.
Para lograr preparar el mercado para este cambio es necesario fortalecer los ecosistemas vinculando los startups, la academia, las grandes compañías y los organismos gubernamentales con el fin de crear una red de innovación, y producción que
este regulada de la manera correcta, democratizando la tecnología y asegurando la
protección de los datos de los usuarios de los sistemas basados en IA. Lamentablemente no fue posible encontrar un país en el que exista una legislación enfocada
específicamente en Inteligencia Artificial.
Otro punto importante para preparar a las nuevas generaciones es promover un
código de ética para el desarrollo de la IA ya que más comúnmente este tipo de tecnología está ligada a las actividades clasificadas anteriormente como netamente
humanas. Este código se vuelve cada vez más necesario si se piensa que la Inteligencia Artificial es desarrollada por personas que pueden incluir sus sesgos en los
algoritmos.
Adicionalmente al aprender de manera no supervisada y tomando en cuenta que
esta puede aprender comportamientos o conocimientos perjudiciales para un sector especifico de la población. Por ejemplo, se pueden crear programas con prejuicios racistas u homofóbicos que asignen beneficios en base al color de piel de una
persona y no a criterios objetivos.
Uno de los pasos más importantes en dicha preparación es minimizar los riesgos
sociales ya que una de las mayores preocupaciones de la sociedad con respecto al
fortalecimiento de la IA, es la potencial pérdida de puestos de trabajo, el agrave la
inequidad en la sociedad y la disminución de ingresos a los hogares provocada por
la pérdida de empleos.
Si bien en la mayoría de los casos la IA va a potenciar el trabajo realizado por el recurso humano –por ejemplo el como “el 84% de los gerentes de 14 países creen que
la IA los hará más eficientes y tornará a los trabajos más interesantes12”; también
es cierto que van a haber puestos de empleo que van a ser reemplazados como los
agentes de centros de llamadas que pueden ver disminuidas sus oportunidades laborales por la aparición de chat bots8 que contestan dudas de los clientes a través
de canales digitales y sin la necesidad de la intervención de un humano para emitir
una respuesta.
11 Daugherty, P., & Purdy, M. (2016). Inteligencia Artificial el Futuro del Crecimiento. Recuperado de https://www.accenture.com/
t00010101T000000Z__w__/ve-es/_acnmedia/ PDF-16/Accenture_Inteligencia_artificial_el-futuro-del_crecimiento_esp.pdf
12 Banco Interamericano de Desarrollo & Instituto para la Integración de América Latina y el Caribe. (2018). AlgrotimoLandia:
Inteligencia Artificial para una Integración Predictiva e Inclusiva de América Latina. Buenos IAres, Argentina: BID: Impreso en
Gráfica Latina S.A., Av. Constituyentes .
31
En este punto los responsables de las políticas públicas deben intervenir y crear
políticas que ayuden a disminuir el impacto en las poblaciones más vulnerables, tales como oportunidades de capacitación y educación que potencien a este sector
para acceder a los nuevos nichos laborales que puede abrir el desarrollo de la IA. En
ese sentido, la formación y la educación se vuelven indispensables.
En el marco del desarrollo de la inteligencia como factor de productividad, se va a
romper con el modelo tradicional en el que se entrena a las personas para entender
e interactuar con las máquinas. El nuevo modelo que surge prepara a las máquinas
para entender a los humanos e interactuar con ellos por lo “que se exigirán conocimientos técnicos en muchos campos, como robótica, visión, audio y reconocimiento
de patrones. Al mismo tiempo, las relaciones interpersonales, la creatividad y la inteligencia emocional serán más importantes que nunca13.”
Casos de éxito a nivel internacional.
La Inteligencia Artificial tiene un gran potencial para aumentar la productividad y el
crecimiento económico tanto a nivel de diferentes industrias como de los múltiples
países independientemente del nivel de desarrollo económico actual de los mismos,
pero la IA es una tecnología que ya se está utilizando a nivel mundial por grandes
empresas como Amazon, Google, IBM, SAP entre otras. En esta sección se presentará como las grandes compañías mencionadas han hecho uso de la IA para expandir sus negocios y ofrecer herramientas basadas en IA de fácil uso para empresas
de todo el mundo y de todo tamaño-.
Amazon Amazon es una empresa que nació en 1995 y que se dedicaba a la venta
de libros en línea. En 1998, Amazon incluye nuevas categorías de productos, música
en CD, vídeos en DVD, software y videojuegos. En el año 2000 la compañía se transforma en marketplace permitiendo a sus usuarios encontrar y vender una variedad
de productos y servicios en línea. Y hoy es una de las tiendas en línea más famosas
del mundo, en donde se puede encontrar una gran variedad productos tales como:
productos de cuidados personales, computadoras, muñecas, electrodomésticos y
libros. Ha sido tal el éxito de Amazon que actualmente tiene un valor en bolsa de
más de un billón de dólares y ha expandido su giro de negocio más allá de las ventas minoristas, convirtiéndose también en proveedor de herramientas tecnológicas
basadas en la nube para aumentar la productividad y eficiencia de las empresas, así
como ofrecer el hospedaje de información.
Pero ¿cómo aplica Amazon la IA en sus diferentes negocios? El primer contacto que
tiene el cliente con la IA en la página de ventas del sitio está en la página de inicio
en donde se muestran sugerencias de productos que usted haya buscado anteriormente. Para crear estas recomendaciones se utiliza la IA que analiza su historial de
búsquedas y determina cuales son los productos que a usted le pueden interesar,
así como productos complementarios. Por ejemplo, si ha buscado celulares de una
marca específica en las recomendaciones además de los últimos modelos de teléfonos de esa marca, también se le sugerirán accesorios como manos libres, relojes y
pulseras inteligentes y protectores de pantalla, entre otros.
13 Daugherty, P., & Purdy, M. (2016). Inteligencia Artificial el Futuro del Crecimiento. Recuperado de https://www.accenture.com/
t00010101T000000Z__w__/ve-es/_acnmedia/ PDF-16/Accenture_Inteligencia_artificial_el-futuro-del_crecimiento_esp.pdf
32
El segundo contacto del usuario con la IA es al realizar una búsqueda en donde se
obtienen datos históricos de miles de millones de búsquedas, la evolución que han
tenido esas búsquedas para que al momento que el usuario digite una letra se le
den sugerencias para autocompletar el texto de la búsqueda, colocando en primer
lugar los artículos que encabezan las listas de ventas.
Posteriormente al elegir una opción del menú desplegable, se desencadena varios
sistemas IA más para compilar los resultados. Los algoritmos enumeran las opciones en un pedido diseñado para promover una compra rápida y satisfactoria. Los
productos con mayor número de ventas y comentarios positivos tienden a aparecer
primero. La IA de Amazon decide qué opciones mostrar y qué tan alto deben colocarse en la página. Analiza los datos de ventas para determinar qué opciones se
venden mejor. Esos listados cuentan con la etiqueta naranja “best seller”. (CNN, 9
octubre 2018).
No obstante, cabe destacar que este algoritmo de búsqueda puede ser burlado por
los vendedores que pagan un lugar privilegiado en la página. Una vez que se elige
una opción de las mostradas por la IA de Amazon, en la página del producto elegido
también se muestran opciones de compra basadas en los datos históricos de compras y se ofrecen tanto productos similares como productos complementarios a lo
que se está comprando.
Después que se ha realizado una compra, la IA vuelve a entrar en acción, ya que
debe elegir el centro de atención más cercano a la dirección de entrega en Estados
Unidos para el procesamiento del pedido. Posteriormente, un robot busca el producto elegido y lo lleva hasta un empleado humano de Amazon quién lo entrega a
otro robot para que sea llevado a un área de espera en donde se le toma una fotografía al paquete para que un software de visión por computadora revise la imagen
y si algo no parece estar bien se le lleva a un área de inspección para que un trabajador humano revise si hay algo anormal o defectuoso con el paquete y hace las
correcciones necesarias si se da el caso.
Pero al despachar el paquete para su envío no termina la aplicación de la IA, cuando
se envía, un controlador de Amazon toma una foto del paquete, lo envía por correo
electrónico al comprador para que tenga conocimiento de que el paquete llegó a su
destino. Esta foto es verificada por otra IA para que reconozca la foto del paquete
y se asegure de que la foto está tomada de tal manera que se pueda saber exactamente dónde encontrar el paquete.
El conjunto de las labores realizadas por la IA en esta compañía crea una experiencia personalizada para el comprador y lo que busca es maximizar las oportunidades
de venta, además de asegurar la calidad de entrega de sus productos.
Toda la implementación de esta tecnología no sería posible sin una capacidad de
almacenamiento de datos los suficientemente grande para guardar el historial de
todos sus clientes alrededor del mundo, por lo que en su división de herramientas
tecnológicas desarrolló el Simple Storage Service conocido como S3 y que es un
“servicio de almacenamiento de objetos que ofrece puede crecer y cuenta con disponibilidad de datos, seguridad” (Amazon, 2019, párrafo 1).
33
Este permitió que se pasará de un sistema de almacenamiento físico de la información a un almacenamiento en nube, mejorando el servicio interno en temas de
restablecimiento hasta de 12 veces pasando de 15 horas a 2,5 para restablecer una
información en específico. Además, disminuyó costos y posibilitó que el personal
administrativo dejará de dedicarse a tareas de respaldo de información para destinar su tiempo a otras de mayor valor agregado.
El S3 también es un servicio ofrecido al público en general y así como esta herramienta, Amazon ofrece soluciones técnicas basadas en IA que permiten una mejora
en el proceso productivo o en la toma de decisiones y que además de ofrecerse al
público en general, son aplicadas para optimizar de las diferentes líneas de negocio
de la compañía. A continuación, se puede observar una tabla con las principales herramientas ofrecidas en el MarketPlace de Amazon:
Tabla 1: Herramientas basadas en AI ofrecidas por Amazon
Nombre
Funcionalidad
Trifacta
Plataforma que permite explorar y prepara datos de forma ágil y
oportuna para el análisis y aprendizaje automático.
Alteryx
Plataforma que permite compartir información para implementar
el trabajo colaborativo en equipos de trabajo.
HablaIA
Plataforma de administración del conocimiento para el análisis
de datos y toma de decisiones.
SpliceMachine
Plataforma para aplicaciones predictivas que administran
los procesos operacionales, las infraestructuras, usan el
procesamiento de análisis de uso y el aprendizaje automático
para mejorar con el paso del tiempo.
Veritone
Entorno en continua evolución de aplicaciones avanzadas,
servicios centrales, herramientas del desarrollo y cómputo
cognitivo, ofrece incorporación potente de capacidades
de contenido, indexación, búsqueda, correlación, análisis,
intercambio y colaboración.
DataScience.
com
La plataforma combina las herramientas, las bibliotecas y los
lenguajes de l equipo de datos científicos con la infraestructura,
la seguridad y los flujos de trabajo de una organización de TI.
Compellon
Esta plataforma ofrece análisis predictivo implusada por IA que
produce rápidamente modelos e información prescriptiva desde
big data.
Mangrove
Surface
Esta plataforma permite crear modelos predictivos de inicio
automático basados en todos los orígenes de datos disponibles.
Ade,ás de identificar las señales que son realmente importantes
y evaluar la capacidad predictiva general de sus datos.
Domino Data
Lab
La plataforma de datos científicos de Domino ayuda a que las
compañías aceleren la búsqueda cuantitativa, incrementen la
colaboración y ofrezcan modelos predictivos más efectivos que
orientan el impacto comercial.
34
Bitfusion
Es una herramienta para administrar infraestructura de IA
así como desarrollar, capacitar e implementar aplicaciones de
aprendizaje profundo de manera eficiente.
H2O.IA
Es una plataforma enfocada en traer IA a los negocios mediante
el software. Es una plataforma de fuente abierta que facilita
la implementación de ML y el analísispredictivo para resolver
problemas complejos.
BigDL
Es una fuente abierta y gratuita, distribuida de biblioteca de
aprendizaje profundo creada espicificamente para agilizar y
facilitar la ejecucción de los trabajos de aprendizaje profundo en
Apache Spark.
NVIDIA Volta
Deep Learning
AMI
Es un entorno optimizado para ejecutar contenedores de
marcos de aprendizaje preofundo NVIDIA GPU Cloud (NGC) en las
intancias P3 EC2 de Amazon.
Dimensional
Mechanics Inc
Es una solución completa para capacitar, consultar y administrar
modelos de IA.
SherlockML
Entorno basado en la nube para ánalisis de datos cientificos que
ofrece una combinación entre los paquetes de fuente abierta y
el cómputo escalable.
KNIME
Tiene más de 1000 módulos, cientos de ejemplos listos para
ejecutarse, contribuciones de la comunidad e integraciones con
herramientas, es una plataforma de análises de datos en un
marco fiable y escalable con mucha capacidad para crecer.
SIGOPOT
Es una plataforma de optimación como servicio que ajusta los
parámetros de configuración del modelo de IA mediante un
ensamble de algoritmos de optimización detrá de una simple API.
SDL
Es una herramienta que ofrece soluciones de traducción
automática impulsadas por las tecnologías de procesamientos
de idioma natural y de aprendizaje automático para apoyar la
traducción a alta velocidad y a gran escala.
Plasticity
Ofrece un conjunto de API de procesamineto de idioma natural
para permitir que las empresas y los desarrolladores entiendan
el texto en sus aplicaciones y las interfaces conversacionales.
Twinw.rd api
Es un API de análisis de texto para desarrolladores que
clasifica automáticamente el texto, revisa la similitud entre los
documentos , analiza los sentimientos y más.
Deep Vision
Es un proceso de etiquetado de imagen automático y realización
de búsqueda visual con inteligencia visual. Reúne información
sobre las caras, las marcas y el contexto fuera de sus imágenes
o videos.
Fuente: Elaboración Prosic en la página del MarketPlace de Amazon
35
Todas las soluciones técnicas de la tabla 1 se pueden utilizar en diferentes campos,
para mejorar la productividad de una empresa, el análisis de datos o en la educación,
entre otros usos. Por ejemplo Twinw.rd.api puede ser utilizado en el área educativa
con el fin evitar el plagio y aplicar diferentes técnicas pedagógicas en la enseñanza según la lectura de emociones efectúa la herramienta. Asimismo, Twinw.rd.api
también puede ser utilizada para optimizar la productividad empresarial, evitar los
plagios, detectar desmotivaciones y motivaciones del personal y tomar medidas correctivas o preventivas.
Google.
Google es una empresa que nace en 1998 como un motor de búsquedas en la Red,
que fue evolucionando a diferentes idiomas, pasando de ser un buscador de páginas Web hasta convertirse en un proveedor de soluciones tecnológicas.
Actualmente Google cuenta con un amplio catálogo de productos, tales como Google Imágenes en la que los usuarios pueden buscar entre millones de imágenes según el criterio de búsqueda ingresado, Google Maps, Google Earth, GmIAl para dispositivos móviles y Google Transit, Hangouts, la G Suite para empresas, YouTube,
Google Chrome, entre muchos otros. Google se ha convertido en uno de los líderes
en desarrollo de productos tecnológicos y de las más importantes del mundo tecnológico con un valor en bolsa de más de un billón de dólares.
Esta empresa ha aplicado la IA en la mayor parte de sus productos entre los más
populares su buscador, uno de los más utilizados del mundo. En 2015 se implementó
como parte de la tecnología de búsqueda RankBrIAn, que es un sistema de Inteligencia Artificial que identifica palabras claves para determinar resultados de búsqueda, si no encuentra la palabra exacta el sugiere términos similares que ayudan
al usuario a orientar su búsqueda, además de interpretar la satisfacción del usuario
según su interacción con los resultados.
Adicionalmente, se lanzó la búsqueda por imágenes con Lens, un programa que
hace reconocimiento de una imagen y busca los resultados asociados a ella y se
los muestra al usuario, para que pueda tener mayor información sobre lo que está
viendo. Este es un programa que se encuentra incorporado en el asistente virtual
de Google y en el programa fotos.
Pero según un artículo de la revista Semana del 2018, el gigante de las búsquedas
no solamente aplica Inteligencia Artificial en su algoritmo de búsqueda, sino que
además lo ha implementado en diferentes productos, tales como GmIAl, Fotos, Google Maps, entre otros.
El producto Smart Compose (composición inteligente), es una herramienta que se
implementó en el servicio de correo GmIAl. Utiliza la IA para evaluar frases y ofrecer
opciones de autocompletado y distintas variaciones para finalizarlas. Este servicio
está complementado por un chatbot que es capaz de responder automáticamente
a ciertas preguntas con lo que se reduce el tiempo para contestar correos.
36
Otro producto que utiliza la IA es Fotos que es un servicio en el que se pueden albergar las fotos en la nube, utiliza este tipo de inteligencia para organizar las fotos
de manera intuitiva, detectar diferentes personas que están en las fotos de forma
automática y organizarlas en álbumes de acuerdo a esto. Además, establece carpetas por lugares, actividades o épocas del año como invierno y verano. También
cuenta con herramientas inteligentes para mejorar las fotos de acuerdo a lo que el
usuario desee.
Google Asistente es un programa basado en IA al que usted le puede hacer una
pregunta y Google le dará una respuesta basada en su motor de búsqueda y a medida que lo utiliza va a ir conociéndolo para darle mejores resultados. También puede organizar sus tareas y administrar recordatorios. En la página Noticias dedicada
a contenidos noticiosos de Google, se establece por medio de la IA qué noticias son
las que más le pueden interesar de acuerdo a sus búsquedas y videos. Además,
ofrece contenidos específicos dependiendo de cómo navegue en su interior.
Un producto muy interesante que utiliza la IA es Google Glass. Su primer modelo
salió en 2012 dirigidos a todo público, no obstante, este no tuvo el éxito comercial
esperado por lo que en 2017 volvió a salir un modelo dirigido al sector industrial.
Los anteojos cuentan con una detección de texto inteligente con el que se puede
apuntar a un texto con la cámara para que quede capturado. Además de textos,
reconoce diferentes objetos, tiene habilitada la aparición de información adicional
por medio de códigos QR o la detección de objetos y permite a las empresas añadir
software específico para reducir consultas y trabajos repetitivos.
Google Maps otro de los programas que hacen uso de la IA es una aplicación que
tiene la capacidad de guardar un historial de la información de todos los lugares que
visita una persona por lo que puede analizarla y generar sugerencias de acuerdo a
los restaurantes o lugares en los que ya ha estado. Además, permite dar calificaciones a los lugares visitados y comentarios de los mismos.
Complementando esta aplicación, está la realidad aumentada que entra a jugar un
papel importante en esta aplicación porque por medio de VPS (Sistema visual de
posicionamiento) y Google Street View se pueden mostrar rutas en la vida real y
mostrarle los lugares exactos de su ruta para evitar confusiones cuando se movilice
por medio de estos mapas.
Todos los servicios y programas anteriores son brindados para todo público o al
menos en un inicio fueron diseñados para todo público, pero Google también a utilizado la IA para brindar servicios especializados para las empresas y ayudarlo a
mejorar su productividad o cubrir necesidades específicas de la empresa.
Cloud Talent Solution es uno de los productos que Google ofrece a empresas, es
una solución que ya está preparada y cuenta con API para proveedores de servicios
de contratación y agencias de empleo. Gracias a la tecnología IA, las personas que
buscan empleo pueden encontrar puestos vacantes de forma más precisa; además,
sirve para mejorar la eficacia de las funciones de búsqueda de empleo y de perfiles,
entre otras.
37
Contact Center IA ALFA es un potente modelo de IA capaz de hablar y chatear con
los clientes de una determinada empresa para dar información e indicaciones personalizadas en cada llamada. El Motor de recomendaciones permite crear un servicio
escalable, eficiente y eficaz para recomendar a los usuarios productos relevantes
en una tienda online.
Google también ofrece un API de aprendizaje automático que integra funciones de
IA en una empresa con servicios de aprendizaje automático, modelos ya preparados y soluciones generadas a medida para crear modelos personalizados para una
determinada empresa.
En el caso de Google es importante resaltar que Google es el buscador con un promedio de visitas de 5,5 mil millones por día en el 2018 y actualmente, ofrece muchos
de los servicios mencionados de forma no cobrada al público en general y es uno de
los servicios mayormente utilizados en el mundo. Por lo que Google tiene una base
de datos muy variada y amplia que puede alimentar herramientas de Inteligencia
Artificial que permitan mejorar campos que van desde la medicina hasta el ocio.
IBM.
Otra de las grandes empresas a nivel mundial que ha desarrollado productos basados en Inteligencia Artificial es International Bussiness Machines, conocida comercialmente como IBM.
Esta es una compañía que nace en 1911 bajo el nombre Computing Tabulating Recording producto de la fusión de las empresas Tabulating Machine Company, International Time Recording Company, Computing Scale Corporation y Bundy Manufacturing
Company. Pero en 1924 cambió su nombre por el actual en esa época la compañía
vendía máquinas industriales, comerciales, para controlar las horas de entradas y
salidas de los empleados y máquina de tarjetas perforadas. Este último producto
es el que da el rumbo de negocios de la compañía durante muchos años ya que a
partir de esta, se crean los primero modelos de ordenadores que van evolucionando
desde 1964 hasta 1981 cuando se crea la primera PC, el ordenador personal.
Sin embargo, en las últimas décadas ha dado un giro a su negocio y ha pasado de
fabricar máquinas, a crear soluciones tecnológicas enfocadas a la productividad de
las empresas.
En el campo de la Inteligencia Artificial IBM es una de las más famosas en explorar
los usos de esta tecnología con su producto Watson, que es un sistema cognitivo
que no se programa si no que es capaz de entender el lenguaje natural de las personas y de aprender. Watson fue lanzado en enero de 2011 en el programa de concurso estadounidense Jeopardy! Donde ganó a los mejores jugadores de la historia
del programa.
38
Watson es capaz de:
• Leer y entender el lenguaje natural de las personas.
• Alimentar el sistema de información procedentes de múltiples fuentes: estructurada en bases de datos o no estructurada; es decir, libros, informes de
investigación, tweets, blogs, imágenes, etc.
• Procesar millones de datos en cuestión de segundos y responder a preguntas
complejas casi en tiempo real. Ante una interrogante, formula hipótesis y escoge la respuesta en la que tiene un mayor nivel de confianza.
• Mostrar los pasos que ha dado para llegar a la solución expuesta de una forma
clara y sencilla, es decir, presenta su razonamiento. Y, además, aprende de su
experiencia, de cada interacción, así que cada vez es más inteligente. (IBM s.f.)
Algunos usos de Watson en diferentes sectores son:
Sector Salud: Se puede ayudar para que los médicos identifiquen nuevos tratamientos personalizados, para poder predecir las crisis de una enfermedad crónica
específica horas antes de que ocurra.
Sector Financiero: Watson puede hacer recomendaciones financieras inteligentes
y rápidas basadas en un conocimiento generado a partir del análisis de datos.
Sector Educativo: Watson puede funcionar como un asesor para los estudiantes
sobre sus posibilidades académicas, alternativas de empleo futuros, entre otros
aspectos.
Sector del Entretenimiento: Se ha creado una app basada en IB Watson llamada
MusicGeek que hace búsqueda de música en fuentes de datos no estructurada
como blogs para dar recomendaciones de música a los usuarios de la aplicación.
Sector Comercio: Se creó una aplicación llamada Watson Trend que ha sido capaz
de predecir lo que las personas iban a comprar para navidad.
Sector Medio Ambiente: IBM trabajó con el Beijing Environmental Protection Bureau (EPB) para crear un sistema capaz de controlar la calidad del IAre, y predecir la
contaminación kilómetro a kilómetro con 72 horas de antelación, así como las tendencias de contaminación diez días antes.
Sector Energía: En este sector IBM ha explorado con compañías petroleras, un
sistema que permite optimizar los resultados de las exploraciones y la producción
de hidrocarburos, haciendo un análisis de la información disponible de la zona a explorar o de la producción de hidrocarburos.
39
IBM ha desarrollado muchos productos basado en Watson, algunos en colaboración
con otras empresas, la mayoría de estos están enfocados en el reconocimiento de
patrones y en el aprendizaje profundo. A continuación, se muestra una lista de ellos:
Watson Text to Speech: Permite que los sistemas hablen como las personas convirtiendo el texto escrito en un audio con sonido natural en diversos idiomas y voces.
Watson Natural Language Classifier: Interpreta y clasifica el lenguaje natural
comprendiendo la intencionalidad del texto.
Watson Conversation: Crea y despliega chatbots en dispositivos móviles, plataformas de mensajería o incluso en robots físicos.
Watson Discovery: Utiliza un motor de análisis de contenido y búsqueda cognitiva
que extrae valor de los datos no estructurados.
Watson Visual Recognition: Analiza imágenes de lugares, objetos, caras, colores
y otros aspectos a fin de obtener más información sobre el contenido visual.
Watson Natural Language Understanding: Utiliza el análisis de texto avanzado
para extraer metadatos del contenido del lenguaje natural, como palabras clave,
categorías, sentimientos y emociones.
Watson IoT Platform: Gestiona los dispositivos del Internet de las cosas con una
herramienta basada en cloud.
Servidores virtuales IBM Bluemix: Crea su infraestructura cloud con servidores
de alto rendimiento.
Watson Explorer: Extrae conocimientos de los datos con el análisis y la búsqueda
cognitivos.
IBM Watson for Genomics: Proporciona medicina de precisión a los pacientes oncológicos y mejora la confianza en los enfoques de tratamientos personalizados.
IBM Cognitive Security Operations Center (SOC): Revoluciona su seguridad con
sistemas que comprendan, razonen y aprendan.
IBM Prescriptive MIAntenance on Cloud: Mejora la disponibilidad de los activos
con Machine Learning y analítica de datos.
Watson Asistente: Ofrece la posibilidad de construir un asistente con variedad de
canales, incluidos dispositivos móviles, plataformas de mensajería e incluso robots.
Watson Studio: Ofrece construir modelos basados en Inteligencia Artificial, prepara y analiza datos e integración de ambientes.
Watson Machine Learning: Con la data de una empresa específica permite crear
modelos de autoaprendizaje, para automatizar flujos y construir aplicaciones inteligentes.
40
IA OpenScale: Ofrece operar y automatizar la IA a escala explicando resultados y
eliminando sesgos de apreciación.
Visual Recognition: Permite etiquetar y clasificar contenido visual utilizado en el
aprendizaje de la máquina.
Personality Insights: Predice características personales a través del texto.
Tone Analyzer: Analiza los tonos emocionales en un texto para determinar la intención de este y mejorar el tono del mismo.
Un caso de éxito de uso del sistema Watson en América Latina es el de la empresa
mexicana Human que es una compañía que desarrolla tecnología cuyo objetivo es
identificar y medir las competencias clave del capital humano de las organizaciones
y está basado en cuatro principios: atraer, retener, desarrollar y desvincular el talento.
Esta empresa integró Watson a su plataforma de gestión de talento Khor20, para
detectar la esencia del talento mexicano en las empresas. La integración consistió
en agregar a las funcionalidades de Khor, parte de las funcionalidades de Watson
que permite medir cinco factores específicos de personalidad (apertura, responsabilidad, extroversión, amabilidad e inestabilidad emocional) en la prueba OCEAN
o BIG FIVE, lo que mejora la percepción que el sistema muestra de un candidato.
Con esta herramienta la empresa Human puede brindar a sus clientes un perfil más
acertado del candidato e identificar a las personas exitosas.
SAP.
La empresa SAP fue fundada por cinco exempleados de IBM en 1972 y su nombre
proviene del alemán Systeme, Anwendungen und Produkte in der Datenverarbeitung (Sistemas, Aplicaciones y Productos en Procesamientos de datos). Su principal producto es un sistema modular del mismo nombre que ofrece a las empresas
posibilidades de personalización del sistema para manejar todos los aspectos del
negocio desde un mismo sistema. La empresa SAP también ha incursionado en el
desarrollo de herramientas basadas en IA, como lo son:
SAP Cash Application: Automatiza los procesos de conciliación de facturas. Usa
Machine Learning para unir criterios de su historial y liberar pagos automáticamente con el software inteligente de próxima generación.
SAP Service Ticket Intelligence: Acelera el servicio al cliente ofreciendo atención
de primer contacto de manera omnicanal. La aplicación procesa publicaciones de
redes sociales, correos electrónicos y otras interacciones de canal entrantes determinando automáticamente clasificaciones, enrutamiento y respuestas.
SAP Brand Impact: Mide y comprende el valor de las campañas de publicidad y
patrocinio. Las técnicas avanzadas de visión informática reconocen logos automáticamente en imágenes y videos dándole información estratégica precisa y oportuna
sobre el retorno de inversión de marketing.
41
SAP Conversational IA: Es una plataforma de bots que viene con tecnología de
procesamiento de lenguaje natural, de manera que puede desarrollar robots que
comprendan a los humanos rápida y fácilmente, incluye un bot de soporte al cliente
listo para usar para industrias específicas.
SAP Leonardo Machine Learning Foundation: Crea, opera, consume y mantiene
apps de machine self-learning con facilidad usando algoritmos que no requieran habilidades en ciencia de datos. La base conecta a desarrolladores, partes y clientes
con la tecnología de Machine Learning a través de SAP Cloud Platform.
Uno de los usos que SAP le ha dado a sus productos es transformar municipios en
ciudades inteligentes y las ha llamado Ciudades del Futuro. Uno de los ejemplos de
estas ciudades es la ciudad de Buenos Aires, Argentina.
En el 2013, SAP trabajó con el Ministerio de Medio Ambiente y Espacios Públicos
del Gobierno de la Ciudad de Buenos Aires para gestionar de un modo inteligente
y preventivo las inundaciones que sufre con frecuencia la ciudad. Con la colocación
de sensores de movimientos y el software de SAP ‘traduce’ y analiza la información
de los sensores y permite que con esta información la Ciudad pueda gestionar los
acueductos, los drenajes y los programas de acción para evitar y/o actuar en caso
de inundación. Esto permitió a la ciudad reducir las muertes por inundación, gestionar mejor los recursos públicos y reducir los costos de mantenimiento.
También en la Ciudad de Buenos Aires SAP se aplicaron los programas esta compañía para administrar las agencias de lotería que son alrededor de 1200 agencias, el
uso del Hipódromo Argentino de Palermo y el Casino de Buenos Aires. El objetivo de
esta implementación era proporcionar transparencia en el control del juego, obtener información basada en datos confiables en tiempo real y unificar las gestiones
para administrar el sistema de lotería en un mismo sistema.
Software libre para Inteligencia Artificial.
Además de las herramientas vistas anteriormente para la creación de programas
y plataformas de Inteligencia Artificial, así como de los casos de éxito en el mundo
del software licenciado, también existen experiencias relevantes en el ámbito del
software libre, por lo que a continuación se hace un pequeño resumen de algunas
de estas.
Pythia.
Este es un programa que permite crear redes neuronales artificiales que se utilizan comúnmente en el reconocimiento de patrones, además, cuenta con interfaz
gráfica de usuario. Otra característica de Pythia es que genera automáticamente
las redes neuronales adecuadas según el conjunto de datos con el que se está trabajando. Admite carga de datos de diferentes formatos como Excel. No obstante,
solamente es capaz de trabajar con un tipo de red.
42
Open Neural Networks Library (versión beta).
Es una librería escrita en dos lenguajes de programación en C++ que implementa
redes neuronales para la creación de modelos que permiten la regresión, la clasificación, el pronóstico y la asociación de datos basados en la información con la que
se alimenta el programa creado con la librería. Esta ha sido utilizada por compañías
como IArbus, Philips, la Universidad de Washington, entre otras, en áreas como el
análisis de datos en áreas como la energía, el comercio y la salud.
Open IA.
Es una organización que quiere garantizar que se pongan los beneficios de la IA
al servicio de la humanidad. Fue fundada en 2015 y está basada en los siguientes
principios: distribuir ampliamente los beneficios de la IA para evitar efectos perjudiciales de esta o la concentración indebida del poder, brindar seguridad a largo plazo
apoyando proyectos que tomen en cuenta los aspectos de seguridad en sus investigaciones, ser líderes técnicos en las investigaciones sobre Inteligencia Artificial
y ofrecer orientación cooperativa trabajando en conjunto con otras instituciones
políticas y de investigación.
Esta organización ofrece sitios de discusión, artículos sobre investigaciones y productos a desarrollarse, recursos de educación y herramientas de desarrollo. Algunas de ellas son:
Tabla 2: Herramientas ofrecidas por Open AI
Herramientas
Descirpción
Gym
Es un conjunto de herramientas para
desarrollar.
Es un conjunto de implementaciones de
algoritmos de aprendizaje de refuerzo.
Baseline
Roboschool
Es un software para crear la simulación de un
robot y está integrado con Gym.
Evolution
Es un algoritmo alternativo escalable al
strategies starter aprendizaje reforzado.
Rllab
Es un marco de desarrollo y evaluación de
algoritmos de aprendizaje reforzado.
Universe
Es una plataforma de software para medir y
entrenar Inteligencia Artificial.
Fuente: Tomado de https://openIA.com/resources/
43
Además, de las herramientas mencionadas en la tabla 2. Open IA ofrece muchas
otras herramientas que permiten potenciar las investigaciones en este campo y
hacer desarrollos nuevos.
Para acceder a más información de estas herramientas, así como a la documentación para su uso se recomienda ingresar a la dirección https://openai.com.
Stuttgart Neural Network Simulator.
Este es un software desarrollado por la Universidad de Stuttgart que le da mantenimiento a la Universidad de Tübingen. Este simula las redes neuronales en estaciones de trabajo y está compuesto por una interfaz gráfica y un simulador de Kernel22
escrito en C, el cual se puede utilizar para desarrollar iniciativas de aprendizaje.
Joone es un marco de red neuronal gratuito para crear, entrenar y probar redes
neuronales artificiales. El objetivo es crear un entorno basado en las nuevas tecnologías Java. Está compuesto por un motor central que es el punto de apoyo de todas las aplicaciones que se desarrollan y estas pueden construirse en una máquina
local, capacitarse en un entorno distribuido y ejecutarse en cualquier dispositivo.
ROS (Sistema Operativo Robótico).
Es un marco para el desarrollo de software para robots que provee la funcionalidad
de un sistema operativo en un clúster heterogéneo. ROS se desarrolló originalmente en 2007 bajo el nombre de switchyard por el Laboratorio de Inteligencia Artificial
de Stanford para dar soporte al proyecto del Robot con Inteligencia Artificial de
Stanford (STAIR2).
Desde 2008, el desarrollo continúa primordialmente en Willow Garage, un instituto
de investigación robótico con más de veinte instituciones colaborando en un modelo de desarrollo federado. ROS provee los servicios estándar de un sistema operativo tales como abstracción del hardware, control de dispositivos de bajo nivel,
implementación de funcionalidad de uso común, paso de mensajes entre procesos
y mantenimiento de paquetes.
44
Unidad 4: Los principales modelos en IA.
Simbólico, Conexionista, Evolutivo y Corpóreo.
A partir de la crisis del paradigma simbolista surge un nuevo paradigma dentro de
la Inteligencia Artificial: el paradigma conexionista que asume que la inteligencia es
producto de la asociación, combinación o conexión de entidades independientes
más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. La IA no se quedó en el paradigma conexionista o emergente,
al cual le han seguido el paradigma enactivo o corpóreo y el paradigma basado en
datos o máquinas superinteligentes.
De momento, podemos mencionar los siguientes paradigmas.
Paradigma simbólico.
•Modelo simbólico – Reglas de producción.
Paradigma conexionista.
•Modelo conexionista o neuronal – Redes neuronales.
•Modelo colectivo – Sistemas multiagentes.
•Modelo evolutivo – Algoritmo genético.
45
Paradigma enactivo.
•Modelo corpóreo – Robótica del desarrollo (robótica reactiva).
Paradigma máquinas inteligentes.
•Modelo basado en datos – Aprendizaje profundo.
Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en
unidades interconectadas.
Las unidades interconectadas pueden ser:
» Neuronas.
» Genes.
» Agentes inteligentes.
No se puede olvidar que, hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite
nuevas formas de programación teniendo en cuenta las actuales prestaciones de
las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión.
A su vez, los paradigmas han dado lugar a nuevos modelos y técnicas de investigación entre las técnicas más importantes tenemos:
Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y
sus conexiones en lugar de los algoritmos de la mente.
Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes
agentes (con conocimientos parciales) que al integrarse logran resolver problemas
complejos en lugar de grandes bases de conocimientos cerradas.
Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas
cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la
biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
Robots reactivos: Se desarrollan pequeños robots capaces de interactuar con en
el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos
de forma manual, de ahí que recibieran el mote de sistemas autistas.
46
El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA partiendo de la representación en la computadora de la realidad y, para muchos, esa
representación basada en símbolos es equivalente a los estados mentales, ya que
tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que
procesan información).
El modelo dominante en IA ha sido el simbólico, que tiene sus raíces en la hipótesis
SSF. De hecho, sigue siendo muy importante y actualmente se considera el modelo
clásico en IA (también denominado por el acrónimo GOFIA, de Good Old Fashioned
IA). Es un modelo top-down que se basa en el razonamiento lógico y la búsqueda
heurística como pilares para la resolución de problemas, sin que el sistema inteligente necesite formar parte de un cuerpo ni estar situado en un entorno real.
Es decir, la IA simbólica opera con representaciones abstractas del mundo real que
se modelan mediante lenguajes de representación basados principalmente en la
lógica matemática y sus extensiones.
Por este motivo, los primeros sistemas inteligentes resolvían principalmente problemas que no requieren interactuar directamente con el entorno como, por ejemplo,
demostrar sencillos teoremas matemáticos o jugar al ajedrez —los programas que
juegan al ajedrez no necesitan de hecho la percepción visual para ver las piezas en
el tablero ni actuadores para mover las piezas—. Ello no significa que la IA simbólica
no pueda ser usada para, por ejemplo, programar el módulo de razonamiento de un
robot físico situado en un entorno real, pero en los primeros años los pioneros de la
IA no disponían de lenguajes de representación del conocimiento ni de programación que permitieran hacerlo de forma eficiente y por este motivo los primeros sistemas inteligentes se limitaron a resolver problemas que no requerían interacción
directa con el mundo real.
Actualmente, la IA simbólica se sigue usando para demostrar teoremas o jugar al
ajedrez, pero también para aplicaciones que requieren percibir el entorno y actuar
sobre él como por ejemplo el aprendizaje y la toma de decisiones en robots autónomos.
47
Simultáneamente con la IA simbólica también empezó a desarrollarse una IA bioinspirada llamada conexionista. Los sistemas conexionistas no son incompatibles con
la hipótesis SSF pero, contrariamente a la IA simbólica, se trata de una modelización
bottom-up, ya que se basan en la hipótesis de que la inteligencia emerge a partir de
la actividad distribuida de un gran número de unidades interconectadas que procesan información paralelamente. En la IA conexionista estas unidades son modelos
muy aproximados de la actividad eléctrica de las neuronas biológicas.
Ya en 1943, McCulloch y Pitts (McCulloch y Pitts, 1943) propusieron un modelo simplificado de neurona en base a la idea de que una neurona es esencialmente una
unidad lógica. Este modelo es una abstracción matemática con entradas (dendritas)
y salidas (axones).
El valor de la salida se calcula en función del resultado de una suma ponderada de
las entradas, de forma que si dicha suma supera un umbral preestablecido entonces
la salida es un «1», en caso contrario la salida es «0». Conectando la salida de cada
neurona con las entradas de otras neuronas se forma una red neuronal artificial.
En base a lo que ya se sabía entonces sobre el reforzamiento de las sinapsis entre
neuronas biológicas se vio que estas redes neuronales artificiales se podían entrenar para aprender funciones que relacionaran las entradas con las salidas mediante
el ajuste de los pesos que sirven para ponderar las conexiones entre neuronas, por
este motivo se pensó que serían mejores modelos para el aprendizaje, la cognición
y la memoria, que los modelos basados en la IA simbólica.
Sin embargo, los sistemas inteligentes basados en el conexionismo tampoco necesitan formar parte de un cuerpo ni estar situados en un entorno real y, desde este
punto de vista, tienen las mismas limitaciones que los sistemas simbólicos. Por otra
parte, las neuronas reales poseen complejas arborizaciones dendríticas con propiedades no solo eléctricas sino también químicas nada triviales.
Pueden contener conductancias iónicas que producen efectos no lineales. Pueden
recibir decenas de millares de sinapsis variando en posición, polaridad y magnitud.
Además, la mayor parte de las células del cerebro no son neuronas, son células gliales, que no solamente regulan el funcionamiento de las neuronas, también poseen
potenciales eléctricos, generan ondas de calcio y se comunican entre ellas, lo que
parece indicar que juegan un papel muy importante en los procesos cognitivos. Sin
embargo, no existe ningún modelo conexionista que incluya a dichas células por
lo que, en el mejor de los casos, estos modelos son muy incompletos y, en el peor,
erróneos.
En definitiva, toda la enorme complejidad del cerebro queda muy lejos de los modelos actuales. Esta inmensa complejidad del cerebro también conduce a pensar que
la llamada singularidad, es decir, futuras superinteligencias artificiales que, basadas
en réplicas del cerebro, superarán con mucho la inteligencia humana en un plazo de
unos veinticinco años, es una predicción con poco fundamento científico.
48
Otra modelización bioinspirada, también compatible con la hipótesis SSF, y no corpórea, es la computación evolutiva (Holland, 1975). Los éxitos de la biología evolucionando organismos complejos, hizo que a primeros de los años sesenta algunos
investigadores se plantearan la posibilidad de imitar la evolución con el fin de que
los programas de ordenador, mediante un proceso evolutivo, mejorasen automáticamente las soluciones a los problemas para los que habían sido programados.
La idea es que estos programas, gracias a operadores de mutación y cruce de
«cromosomas» que modelan a los programas, generan nuevas generaciones de
programas modificados cuyas soluciones son mejores que las de los programas de
las generaciones anteriores.
Dado que podemos considerar que el objetivo de la IA es la búsqueda de programas capaces de producir conductas inteligentes, se pensó que se podría usar la
programación evolutiva para encontrar dichos programas dentro del espacio de
programas posibles.
La realidad es mucho más compleja y esta aproximación tiene muchas limitaciones,
aunque ha producido excelentes resultados, en particular en la resolución de problemas de optimización.
Una de las críticas más fuertes a estos modelos no corpóreos se basa en que un
agente inteligente necesita un cuerpo para poder tener experiencias directas con
su entorno (diríamos que el agente está «situado» en su entorno) en lugar de que
un programador proporcione descripciones abstractas de dicho entorno codificadas mediante un lenguaje de representación de conocimientos.
Sin un cuerpo, estas representaciones abstractas no tienen contenido semántico
para la máquina. Sin embargo, gracias a la interacción directa con el entorno, el
agente puede relacionar las señales que percibe a través de sus sensores con representaciones simbólicas generadas a partir de lo percibido.
Algunos expertos en IA, en particular Rodney Brooks (Brooks, 1991) incluso llegaron a
afirmar que no era ni siquiera necesario generar dichas representaciones internas,
esto es, que no es necesario que un agente tenga que tener una representación
interna del mundo que le rodea ya que el propio mundo es el mejor modelo posible
de sí mismo y que la mayor parte de las conductas inteligentes no requieren razonamiento, sino que emergen a partir de la interacción entre el agente y su entorno.
Esta idea generó mucha polémica y el propio Brooks, unos años más tarde, admitió
que hay muchas situaciones en las que una representación interna del mundo es
necesaria para que el agente tome decisiones racionales.
En 1965, el filósofo Hubert Dreyfus afirmó que el objetivo último de la IA, es decir, la
IA fuerte de tipo general, era tan inalcanzable como el objetivo de los alquimistas
del siglo XVII que pretendían transformar el plomo en oro (Dreyfus, 1965).
49
Dreyfus argumentaba que el cerebro procesa la información de manera global y continua mientras que un ordenador utiliza un conjunto finito y discreto de operaciones
deterministas aplicando reglas a un conjunto finito de datos. En este aspecto podemos ver un argumento similar al de Searle, pero Dreyfus, en posteriores artículos
y libros (Dreyfus, 1992), usó también otro argumento consistente en que el cuerpo
juega un papel crucial en la inteligencia. Fue pues uno de los primeros en abogar la
necesidad de que la inteligencia forme parte de un cuerpo con el que poder interactuar con el mundo.
La idea principal es que la inteligencia de los seres vivos deriva del hecho de estar
situados en un entorno con el que pueden interactuar gracias a sus cuerpos. De
hecho, esta necesidad de corporeidad está basada en la Fenomenología de Heidegger que enfatiza la importancia del cuerpo con sus necesidades, deseos, placeres,
penas, formas de moverse, de actuar, entre otros.
Según Dreyfus, la IA debería modelar todos estos aspectos para alcanzar el objetivo
último de la IA fuerte. Dreyfus no niega completamente la posibilidad de la IA fuerte,
pero afirma que no es posible con los métodos clásicos de la IA simbólica y no corpórea, en otras palabras, considera que la hipótesis del Sistema de Símbolos Físicos
no es correcta. Sin duda se trata de una idea interesante que hoy en día comparten
muchos investigadores en IA.
Efectivamente, la aproximación corpórea con representación interna ha ido ganando
terreno en la IA y actualmente muchos la consideramos imprescindible para avanzar
hacia inteligencias de tipo general. De hecho, basamos una gran parte de nuestra
inteligencia en nuestra capacidad sensorial y motora.
En otras palabras, el cuerpo conforma a la inteligencia y por lo tanto sin cuerpo no
puede haber inteligencia de tipo general. Esto es así porque el hardware del cuerpo,
en particular los mecanismos del sistema sensorial y del sistema motor, determinan
el tipo de interacciones que un agente puede realizar. A su vez, estas interacciones
conforman las habilidades cognitivas de los agentes dando lugar a lo que se conoce
como cognición situada.
Es decir, se sitúa a la máquina en entornos reales, como ocurre con los seres humanos, con el fin de que tengan experiencias interactivas que, eventualmente, les
permitan llevar a cabo algo similar a lo que propone la teoría del desarrollo cognitivo
de Piaget (Inhelder y Piaget, 1958), según la cual un ser humano sigue un proceso de
maduración mental por etapas y quizá los distintos pasos de este proceso podrían
servir de guía para diseñar máquinas inteligentes. Estas ideas han dado lugar a una
nueva subárea de la IA llamada robótica del desarrollo (Weng et al., 2001).
Todos los esfuerzos de la investigación en IA se han centrado en construir inteligencias artificiales especializadas y los éxitos alcanzados son muy impresionantes,
en particular durante el último decenio gracias sobre todo a la conjunción de dos
elementos: la disponibilidad de enormes cantidades de datos y el acceso a la computación de altas prestaciones para poder analizarlos.
50
Efectivamente, el éxito de sistemas, como por ejemplo AlphaGo (Silver et al., 2016),
Watson (Ferrucci et al., 2013) y los avances en vehículos autónomos o en diagnóstico médico basado en imágenes, han sido posibles gracias a esta capacidad para
analizar grandes cantidades de datos y detectar patrones eficientemente. Sin embargo, prácticamente no hemos avanzado hacia la consecución de IA general. De
hecho, podemos afirmar que los actuales sistemas de IA son una demostración de
lo que Daniel Dennet llama «competencia sin comprensión» (Dennet, 2018).
Posiblemente la lección más importante que hemos aprendido a lo largo de los sesenta años de existencia de la IA es que lo que parecía más difícil (diagnosticar enfermedades, jugar al ajedrez y al Go al más alto nivel) ha resultado ser relativamente
fácil y lo que parecía más fácil ha resultado ser lo más difícil. La explicación a esta
aparente contradicción hay que buscarla en la dificultad de dotar a las máquinas de
conocimientos de sentido común.
Sin estos conocimientos no es posible una comprensión profunda del lenguaje ni
una interpretación profunda de lo que capta un sistema de percepción visual, entre
otras limitaciones. De hecho, el sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad. Los conocimientos de sentido común son fruto de nuestras vivencias y experiencias.
Algunos ejemplos son: «el agua siempre fluye de arriba hacia abajo», «para arrastrar
un objeto atado a una cuerda hay que tirar de la cuerda, no empujarla», «un vaso se
puede guardar dentro de un armario, pero no podemos guardar un armario dentro
de un vaso», entre otros. Hay millones de conocimientos de sentido común que las
personas manejamos fácilmente y que nos permiten entender el mundo en el que
vivimos. Una posible línea de investigación que podría dar resultados interesantes
en adquisición de conocimientos de sentido común es la robótica del desarrollo
mencionada anteriormente.
51
Otra línea de trabajo muy interesante es la que tiene como objetivo la modelización
matemática y el aprendizaje de relaciones causa-efecto, es decir, el aprendizaje de
causales y, por lo tanto, asimétricos del mundo.
Los sistemas actuales basados en aprendizaje profundo simplemente pueden
aprender funciones matemáticas simétricas, no pueden aprender relaciones asimétricas y por consiguiente no son capaces de diferenciar entre causas y efectos,
como por ejemplo que la salida del sol es la causa del canto del gallo y no lo contrario (Pearl, 2018; Lake et al., 2016).
Hacia inteligencias artificiales realmente inteligentes.
Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos ni previamente preparados. Diseñar sistemas
que tengan estas capacidades requiere integrar desarrollos en muchas áreas de la
IA. En particular, necesitamos lenguajes de representación de conocimientos que
codifiquen información acerca de muchos tipos distintos de objetos, situaciones,
acciones, entre otros, así como de sus propiedades y de las relaciones entre ellos,
en particular relaciones causa-efecto.
También necesitamos nuevos algoritmos que, en base a estas representaciones,
puedan, de forma robusta y eficiente, resolver problemas y responder preguntas
sobre prácticamente cualquier tema. Finalmente, dado que necesitarán adquirir un
número prácticamente ilimitado de conocimientos, estos sistemas deberán ser capaces de aprender de forma continua a lo largo de toda su existencia.
En definitiva, es imprescindible diseñar sistemas que integren percepción, representación, razonamiento, acción y aprendizaje. Este es un problema muy importante en IA, ya que todavía no sabemos cómo integrar todos estos componentes de
la inteligencia. Necesitamos arquitecturas cognitivas (Forbus, 2012) que integren
estos componentes de forma adecuada.
Los sistemas integrados son un paso previo fundamental para conseguir algún día
inteligencias artificiales de tipo general.
Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos ni previamente preparados. Diseñar sistemas
que tengan estas capacidades requiere integrar desarrollos en muchas áreas de la
IA.
Entre las actividades futuras, creemos que los temas de investigación más importantes pasarán por sistemas híbridos que combinen las ventajas que poseen los
sistemas capaces de razonar en base a conocimientos y uso de la memoria (Graves
et al., 2016) y las ventajas de la IA basada en análisis de cantidades masivas de datos, en lo que se conoce por aprendizaje profundo (Bengio, 2009).
52
Actualmente, una importante limitación de los sistemas de aprendizaje profundo es
el denominado «olvido catastrófico», lo cual significa que si una vez han sido entrenados para llevar a cabo una tarea (por ejemplo, jugar al Go), si a continuación los
entrenamos para llevar a cabo otra tarea distinta (por ejemplo, distinguir entre imágenes de perros y de gatos) olvidan completamente la tarea anteriormente aprendida (en este caso jugar al Go). Esta limitación es una prueba contundente de que
en realidad estos sistemas no aprenden nada, por lo menos en el sentido humano
de aprender.
Otra importante limitación de estos sistemas es que son «cajas negras» sin capacidad explicativa, por ello un objetivo interesante de investigación será como dotar de capacidad explicativa a los sistemas de aprendizaje profundo incorporando
módulos que permitan explicar cómo se ha llegado a los resultados y conclusiones
propuestas, ya que la capacidad de explicación es una característica irrenunciable
en cualquier sistema inteligente.
También es necesario desarrollar nuevos algoritmos de aprendizaje que no requieran enormes cantidades de datos para ser entrenados, así como un hardware mucho más eficiente en consumo energético para implementarlos, ya que el consumo
de energía podría acabar siendo una de las principales barreras al desarrollo de la
IA. En comparación, el cerebro es varios órdenes de magnitud más eficiente que el
hardware actual necesario para implementar los algoritmos de IA más sofisticados.
Una posible vía para explorar es la computación Neuromórfica basada en memristores (Saxena et al., 2018).
Otras técnicas más clásicas de IA que seguirán siendo objeto de investigación extensiva son los sistemas multiagente, la planificación de acciones, el razonamiento basado en la experiencia, la visión artificial, la comunicación multimodal persona-máquina, la robótica humanoide y sobre todo las nuevas tendencias en robótica
del desarrollo que puede ser la clave para dotar a las máquinas de sentido común
y, en particular, aprender la relación entre sus acciones y los efectos que estas producen en el entorno.
53
También veremos progresos significativos gracias a las aproximaciones biomiméticas para reproducir en máquinas el comportamiento de animales. No se trata únicamente de reproducir el comportamiento de un animal sino de comprender como
funciona el cerebro que produce dicho comportamiento. Se trata de construir y programar circuitos electrónicos que reproduzcan la actividad cerebral que genera este
comportamiento.
Algunos biólogos están interesados en los intentos de fabricar un cerebro artificial
lo más complejo posible porque consideran que es una manera de comprender mejor el órgano, y los ingenieros buscan información biológica para hacer diseños más
eficaces. Mediante la biología molecular y los recientes avances en optogenética
será posible identificar qué genes y qué neuronas juegan un papel clave en las distintas actividades cognitivas.
En cuanto a las aplicaciones, algunas de las más importantes seguirán siendo aquellas relacionadas con la web, los videojuegos, los asistentes personales y los robots
autónomos (en particular vehículos autónomos, robots sociales, robots para la exploración de planetas, entre otros). Las aplicaciones al medio ambiente y ahorro
energético también serán importantes, así como las dirigidas a la economía y la sociología.
Por último, las aplicaciones de la IA al arte (artes visuales, música, danza, narrativa)
cambiarán de forma importante la naturaleza del proceso creativo.
Los ordenadores ya no son solamente herramientas de ayuda a la creación, los ordenadores empiezan a ser agentes creativos. Ello ha dado lugar a una nueva y muy
prometedora área de aplicación de la IA denominada Creatividad Computacional
que ya ha producido resultados muy interesantes (Colton et al., 2009, 2015; López
de Mántaras, 2016) en ajedrez, música, artes plásticas y narrativa, entre otras actividades creativas.
54
Descargar