Internet de las cosas y BIg data

Anuncio
INFORMÁTICA
Y TELECOMUNICACIONES
Internet de las cosas
y Big Data:
¿hacia dónde va la industria?
• Jon Ander
• Pablo García
• Karin Quiroga
INACAP Puerto Montt, 17 de noviembre de 2015.
Internet de las cosas
y Big Data:
¿hacia dónde va la industria?
• Jon Ander
• Pablo García
• Karin Quiroga
Internet de las cosas
y Big Data:
¿hacia dónde va la industria?
INTRODUCCIÓN
Si nos remontamos 20 años atrás, cuando la cobertura de internet no estaba masificada,
muy pocas personas contaban con ella en sus hogares, e incluso para muchas empresas
resultaba un servicio inalcanzable. En ese tiempo los teléfonos personales eran privilegio
de muy pocos, transportados en pesadas maletas y con grandes antenas que las generaciones de hoy no logran concebir.
Podemos darnos cuenta de que la evolución de las tecnologías ha sido vertiginosa. En
la actualidad, estos avances pueden llegar a concentrar, en una misma plataforma, la información de todo un país: población, registros médicos, movilidad, infraestructura, producción, turismo y demás sectores que engloban el llamado “gobierno electrónico”. Lo
mismo ocurre en el ámbito privado, ya que las tendencias en los avances de tecnología
de información, como Big Data, han permitido a las empresas expandir su conocimiento
sobre sus consumidores y usuarios.
En el marco de la última cumbre de los países que generan más del 30% de la producción global -Brasil, Rusia, India, China, Sudáfrica-, Rusia propuso la creación de una
plataforma única de gobierno electrónico, a fin de generar indicadores conjuntos que
permitan tomar decisiones basadas en toda la Big Data de los ciudadanos de cada país.
La pregunta que corresponde aquí es: ¿podemos siquiera imaginar los resultados que
podría tener para la región unir la fortaleza de cada país en beneficio de todos? Por ejemplo, el liderazgo ingenieril de Brasil con la base científica, industrial y militar de Rusia, así
como la fuerza manufacturera de China y el talento en las tecnologías de la información
de Sudáfrica, pueden provocar insospechados resultados al respecto.
Tal vez nosotros podamos ser testigos de una transición del proceso actual, que consiste
en la recolección y sistematización de información hacia la automatización en la toma
de decisiones, mediante el uso de datos reales y generados en tiempo real. Para profundizar sobre estas temáticas hemos invitado un grupo de expertos que nos entregarán su
visión y así podemos debatir al respecto.
Ciclo de Conferencias en Desarrollo de Capital Humano
6
CONTENIDO
LOS EXPOSITORES
8-12
Big Data: nuevos desafíos y nuevas herramientas
Jon Ander
13-16
El desafío de implementar una solución de Internet de las Cosas
Pablo García
17-21
Internet de las Cosas: una revolución industrial
Karin Quiroga
Ciclo de Conferencias en Desarrollo de Capital Humano
7
LOS EXPOSITORES
Jon Ander
Profesor del Departamento de Sistemas
Informáticos y Computación de la
Universidad Politécnica de Valencia, España.
Licenciado en Informática (MSc) y
Doctor en Informática por la Universitat
Politècnica de València (UPV), España,
donde ejerce la docencia desde 1997.
Es miembro del Centro de Investigación
PRHLT (Pattern Recognition and Human
Language Technologies) de la UPV.
Actualmente es subdirector de Formación
Continua en la Escuela Técnica Superior
de Ingeniería Informática de la UPV, y
director académico del Máster en Big
Data Analytics de la UPV. También ha
participado en diferentes proyectos de
investigación y su principal área de interés
es el Aprendizaje Automático (Machine
Learning). Dentro de dicha área se ha
especializado en Reconocimiento de
Patrones y Reconocimiento Automático
del Habla. Últimamente está incorporando
técnicas de Deep Learning en la mejora
del modelado acústico y usando Redes
Neuronales de Alta Complejidad (Deep
Neural Networks) en tareas de análisis de
sentimientos y detección de lenguaje
figurativo en textos.
Pablo García
Gerente de investigación y Arquitecto del
Centro de I+D de Telefónica en Chile.
Es Magíster en Estudios Avanzados
de Computación y Magíster en
Bioinformática, profesor de Algoritmos
en el Magíster en Bioinformática del
Programa de Desarrollo de Ciencias
Básicas de Udelar e Instituto Pasteur
de Montevideo, Uruguay. Trabajó diez
años en Microsoft y anteriormente
fue ingeniero senior de Motorola
ISG. Fue director y líder técnico de
l a e m p re s a U r u d a t a d u r a n t e 1 8
años, implementando soluciones de
automatización de procesos en diversos
países de Latinoamérica y desarrolló
sistemas de misión crítica, tales como
sistemas de escrutinio de elecciones
nacionales. Sus áreas de interés principal
en la informática son los sistemas de
workflow y los algoritmos de análisis de
secuencias planas de ADN.
Karin Quiroga
Directora del Área Informática y
Telecomunicaciones de INACAP
I ngeniero Civil I nformática de la
Universidad de Concepción y Magíster
en Tecnologías de Información de la
Universidad Técnica Federico Santa
María. Cuenta con más de 18 años de
experiencia en la dirección de proyectos
informáticos y administración académica.
Ha participado en desarrollos web de
sistemas corporativos, de innovación y
proyectos en el área e-learning.
Toda la
información que
generamos los
seres humanos se
está almacenando
y ello implica retos
tecnológicos a
distintos niveles,
así como una
modificación a
nuestro estilo de
vida.
Ciclo de Conferencias en Desarrollo de Capital Humano
8
Me referiré a los nuevos retos y a las nuevas herramientas de software -new toolsque están desarrollándose de manera muy
rápida y vertiginosa para hacer frente a
esos desafíos. Quiero dar una visión más o
menos general de lo que es Big Data, sus
conceptos esenciales; después la relacionaré con otras áreas de las tecnologías de la
comunicación y las telecomunicaciones y,
finalmente, hablaré de las infraestructuras
Big Data para presentar una de las herramientas que actualmente ganan cada vez
más usuarios, tanto en instituciones públicas como en empresas privadas: el Spark.
Jon Ander
Profesor del Departamento
de Sistemas Informáticos y
Computación de la Universidad
Politécnica de Valencia, España
BIG DATA: NUEVOS
DESAFÍOS Y NUEVAS
HERRAMIENTAS
Una de las ideas que me interesa plantear
es cómo sacar partido al hardware que tenemos disponible. Porque, de alguna manera, las limitaciones físicas del desarrollo de
hardware hacen que ya no podamos tener
en una misma computadora la suficiente
capacidad de cómputo y de almacenamiento para resolver ciertos problemas, así
como tampoco de análisis de ciertos datos
en un tiempo razonable que nos entregue una respuesta cuando la necesitamos.
TRABAJAR CON UNA ENORME
CANTIDAD DE DATOS
Una empresa multinacional de Valencia que
entrega servicios a la banca de inversión,
relató que debía proporcionar información
después de procesar los datos para que,
sobre esa base, sus clientes tomaran decisiones. Pero había llegado un momento en
que trabajaban con tal volumen de datos,
que el proceso normal que acostumbraban
a seguir demoraba más de 24 horas. De esta
manera, no podían dar las necesarias respuestas de un día para otro. Fue entonces
cuando asumieron las tecnologías Big Data,
que en la misma ejecución demoraba solo
un par de horas. Por lo tanto, la información
necesaria para tomar ciertas decisiones
-qué invertir en la bolsa y cuándo, por ejemplo-, al día siguiente ya estaba disponible.
Intentaré dar una definición parcializada del
actual concepto de Big Data, que esencialmente aparece cuando necesitamos tra-
bajar con enormes volúmenes de datos. El
problema ocurre al momento de procesar,
recoger y almacenar esos datos, para cuando ya estén disponibles realizar un análisis
que nos permita asumir ciertas determinaciones. Pues bien, cuando estas tareas ya
no caben en un sistema tradicional -incluso
en un sistema computacional de alto rendimiento, como los HPC-, entonces necesitamos ciertas herramientas de software
-el Middleware, que está por encima del
sistema operativo- que permiten que computadores, incluso portátiles, o laptops o
notebooks , estén interconectados entre sí y
sus tareas se realicen de manera simultánea.
El Spark consigue distribuir la carga de cómputo entre los computadores y esto permite integrar entre dos mil y tres mil de ellos.
Actualmente tenemos tantos datos debido a que toda la actividad humana se está
digitalizando: transacciones en las entidades financieras, compras con tarjeta, expedientes médicos, toda esa información se
recolecta y ya no se borra. Y hay diferentes
fuentes, como los teléfonos móviles, que
son dispositivos que interactúan entre
ellos y generan datos de la información
de los sensores que capturan, que a veces
procesan y otras veces la envían para que
se reprogramen. Como sea, siempre están
originando información. Enseguida está la
internet of people, que son las redes sociales:
una fuente de información no estructurada,
que será uno de nuestros caballos de batalla; y también están los dispositivos con
los que nos conectamos para automonitorearnos directamente: tomar la presión, la
temperatura y las pulsaciones, por ejemplo.
Respecto de los smartphones, allí se recibe
una gran cantidad de información de geolocalización relativa a las búsquedas que
realizamos en Google Maps, en Trip Advisor
u otra herramienta. Estas siempre están continuamente recopilando datos de búsqueda
y los guardan. Ello ocurre igualmente cuando una persona se conecta con otra. Según
una predicción facilitada por Benedict Evans,
se estima que para 2020 habrá cuatro mil
millones de teléfonos móviles en el mun-
Ciclo de Conferencias en Desarrollo de Capital Humano
9
do, para siete mil millones de habitantes.
En cuanto a las transacciones financieras
-sobre todo las operaciones de crédito y
débito con las tarjetas-, todas sus contabilidades se almacenan. Igualmente ocurre
con la información de las hipotecas, para
calcular riesgos en los préstamos a una
persona o a una pequeña empresa que
quieren montar o ampliar su negocio. Lo
mismo con las transacciones nacionales
e internacionales y con las compras que
realizan los clientes. Muchas empresas se
basan en esta última información para colocar una publicidad de acuerdo a nuestro
perfil de compra, identificando al usuario
con determinados productos y preferencias.
Con respecto del tema de los datos financieros, desde 2010 no se borra prácticamente
nada de estas transacciones. Los bancos tienen suficiente capacidad de almacenamiento para ello, pero eso está ocurriendo también en otros ámbitos. Se ha descubierto
que los datos tienen un valor inmenso y, por
lo mismo, nadie quiere hacerlos desaparecer.
La gente, las empresas y sobre todo las grandes multinacionales se dieron cuenta de que
los datos tienen mucho valor, aunque todavía no los puedan explotar adecuadamente.
Sin embargo, hay que conservarlos todos.
Cada vez generamos más datos y, por tanto,
este volumen crece de manera exponencial
OTRAS FUENTES DE DATOS
En otras fuentes de datos, tenemos el Internet de las Cosas (IoT en su original inglés,
es decir, Internet of Things). Personalmente
estoy involucrado en un proyecto para una
factoría donde se implantan nuevos sensores a la maquinaria del proceso de fabricación. Con ello se intenta monitorizarlas en el
aprendizaje automático para predecir cuándo estas maquinarias van a fallar o cuándo
conviene -por ejemplo, por las vibraciones
que se observan en su funcionamiento- reemplazar determinada pieza o cuál hay que
revisar en la próxima mantención. El problema es que solo estamos sensorizando a
algo más del 3% de las ciento y tantas maquinarias de la compañía, y la cantidad de
datos que allí se generan por segundo es
tan enorme, que tenemos dificultades para
procesarlos. Debemos usar la base de datos
Cassandra, que es distribuida entre muchos
computadores para almacenar toda la información y, obviamente, herramientas o programas de middleware, como el Spark u otro
software que disponemos para Big Data.
El crecimiento que se prevé de IoT también es bastante exponencial: se estima
que para 2020 habrá alrededor de 25 mil
millones de dispositivos. Respecto de las
redes sociales, también son una gran fuente de datos, porque todo el mundo está
continuamente interactuando en Twitter,
Facebook, Whatsapp y correo electrónico.
Sin embargo, se trata de una fuente de datos no estructurada, es decir, no sigue una
estructura que nos permita almacenar registros en una base, sino que son textos que
debemos ir procesando, parseando y tokenizando hasta encontrar palabras clave que
nos revelen el mensaje que está escrito ahí.
Como se sabe, estos textos hacen un mal uso
del lenguaje, abusan de fórmulas, de metáforas y hasta de un lenguaje irónico, algo
que el ser humano decodifica y comprende
perfectamente, pero que a las máquinas les
cuesta bastante. De allí que se provoque una
alta tasa de fallos: conseguir un 60% de aciertos al analizar ciertos tweets para saber si
hay opiniones positivas o negativas respecto de algún asunto, es un tremendo triunfo.
Sin embargo, se está trabajando mucho en
esta línea, porque aspectos como la reputación en la red son muy relevantes para la
propia empresa. Por ello, las herramientas
de análisis de lo que se escribe por internet
en las redes sociales son fundamentales
para ellas. También lo es para el análisis de
mercado de ciertos productos, información que se obtiene de las conversaciones
en aquellas redes. En muchas ocasiones
las empresas deciden lanzar o no un producto en función de las tendencias que
observan ahí, y hasta determinan cómo organizar la campaña de marketing para impactar al mercado nacional e internacional.
Finalmente, otra fuente de datos son los dispositivos portátiles relacionados con la salud
-wearable devices- y que podemos trasladar
con nosotros para monitorearnos. En los últimos años, en Estados Unidos es fuerte la
tendencia de recolectar todos esos datos y
automáticamente enviarlos a unos servidores para que se utilicen de manera colectiva
en la predicción de ciertas enfermedades. Incluso en un artículo se decía que si se identifica el perfil de las constantes vitales de una
persona, clasificándola en un tipo específico
y se le monitorea continuamente, es posible
que el sistema pueda anticipar un infarto de
miocardio hasta con 15 días de antelación.
BIG DATA: UN FENÓMENO
SOCIOECONÓMICO
Big Data se define con varias V: volumen,
velocidad, variedad y veracidad. Volumen
es la capacidad de almacenamiento; velocidad es la capacidad de procesamiento
online, streaming; variedad significa que
continuamente está explorando datos no
estructurados, y veracidad significa que el
objetivo principal es que las empresas tomen decisiones en función de datos reales.
Y yo agregaría la seguridad. Uno de los espionajes industriales actuales no consiste en
robar los datos de una empresa de la competencia y reutilizarlos, sino que entrar en su
sistema y alterar los datos para que, desde
ahí, se extraigan conclusiones erradas que
lleven a tomar decisiones también equivocadas. Y esto a nivel industrial puede tener consecuencias graves. Por tanto, la seguridad de
datos es un aspecto relevante en Big Data.
Me gusta definir Big Data como un fenómeno socioeconómico, porque está alterando nuestra manera de vivir, algo que ya
es indiscutible. Es un fenómeno socioeconómico porque está replanteando -o provocando que se replanteen- las estrategias
empresariales y de negocios, ya que en la
actualidad el dato tiene un gran valor. Pero
disponer de tales cantidades de datos ya no
es sinónimo de disponer de información.
Antes, con pocos datos, una persona podía
Ciclo de Conferencias en Desarrollo de Capital Humano
10
ver o representar rápidamente una gráfica
y así tener la información que necesitaba.
Ahora debemos realizar los procesos correspondientes para extraer información de
esa gran cantidad de datos. Y ese es uno de
los principales retos que plantea Big Data.
Jon Ander
El disponer de enormes volúmenes de datos
para ciertos análisis o diagnósticos -como la
salud y la medicina- ha provocado que ya no
nos preocupemos por el punto de vista estadístico matemático, si la muestra es representativa o no del conjunto de datos. Porque
poseer volúmenes de datos suficientes ya
nos garantiza que los resultados obtenidos
del modelo matemático estadístico serán
suficientemente fiables y los mejores que
podamos conseguir. Esto marca un punto de
inflexión en la manera de procesar y aprovechar la información almacenada y registrada.
Igualmente, ha cambiado la manera en
que vivimos en lo referente a la privacidad
y a la seguridad de los datos. Todo aquel
que quiera trabajar con Big Data tiene que
garantizar esto a sus clientes. Por ejemplo,
los bancos y los hospitales no tendrán su
infraestructura Big Data en la nube, sino
que in situ: necesitarán un equipo de expertos en Big Data en su propia empresa.
Entiendo Big Data como un conjunto de
retos tecnológicos. Y como desafío, hay que
decir que los sistemas tradicionales ya no
son suficientes para manejar grandes volúmenes de datos. Desde 2006 o 2008 se
necesita explotar de manera masiva lo que
se llama commodity hardware: hardware de
bajo costo, de manera de no tener enormes
servidores con una inmensa capacidad, sino
que muchísimos computadores pequeños,
modestos, con una relativa cantidad de memoria -ocho o 16 GB y un par de TB de disco- y que miles de ellos estén conectados. Es
lo que hacen hoy Google, Facebook y Twitter, quienes carecen de un súper servidor.
LOS EXPERTOS DE BIG DATA
Big Data nos permite a la sociedad, a las instituciones y a los gobiernos realizar operacio-
nes que antes ni nos hubiésemos imaginado.
Un ejemplo de ello es que algunos médicos
de varios hospitales de Estados Unidos se
unieron para procesar la información sobre
los enfermos de cáncer. Por su experiencia y
conocimiento, ellos habían identificado ocho
marcadores relativos a esta enfermedad,
pero no conseguían dar con lo que querían.
La confluencia de estos doctores con expertos de Big Data y de aprendizaje automático
los llevó a tomar una decisión: entregarle
toda la información al sistema, indicando
cuál fue el tiempo de supervivencia de cada
paciente. Así, el sistema descubrió tres marcadores más que los médicos, los que eran
particularmente útiles para el diagnóstico. Es
otro ejemplo de que trabajar con grandes volúmenes de datos, disponer de ellos en conjunto y utilizar técnicas de aprendizaje automático consigue resultados que los expertos
en el tema no podían lograr aisladamente.
Podríamos decir que toda la información
que generamos los seres humanos se está
almacenando y ello implica retos tecnológicos a distintos niveles, así como una
modificación en nuestro estilo de vida.
Trabajar con grandes volúmenes de datos nos permite elaborar mejores modelos
predictivos y mejores modelos matemáticos-estadísticos para tomar decisiones.
Quisiera relacionar Big Data con otras áreas
que son incipientes o que ya existían. Por
ejemplo, computación distribuida, Master Learning, Smart Cities e Internet de las
Cosas, las que, a su vez, trabajan conectadas. Pero de alguna manera Big Data
consigue que, además, se complementen todos los desarrollos en estas técnicas para así obtener mejores resultados.
El objetivo de todo esto es tomar determinaciones en función de los datos obtenidos, realizados por expertos en Big Data.
En términos generales existes tres tipos
de estos expertos. El primero es el system
manager, el que conoce la infraestructura
del Big Data, el “arquitecto software”, que
sabe cómo integrar todas las herramien-
Ciclo de Conferencias en Desarrollo de Capital Humano
11
tas y sacar partido a muchos commodity software y a hardware de bajo costo.
Después está data scientist, que domina las
técnicas de machine learning: cuando están
los datos almacenados, hace transformaciones sobre ellos para obtener resultados. Y,
finalmente, figura el analista de datos, cuyo
campo es más estadístico. Él debe saber sintetizarlos, ocupando las herramientas adecuadas de visualización para presentar los
resultados de sus análisis. Sobre esa base, el
consejo de administración tomará las decisiones finales. Quien asume las decisiones no
suele ser experto en análisis de datos, pero al
menos hay una persona en cada equipo que
debe ser el beta officer. De alguna manera
él dirige al equipo y es experto en presentarlo a dicho consejo de administración.
En síntesis, los datos se preprocesan, se almacenan y se limpian para posteriores aplicaciones de análisis. Manejar hardwares de
bajo costo, de manera masiva y almacenar
en forma distribuida todas las informaciones
simultáneamente en diferentes máquinas, es
importante. Sin embargo, al final es el esfuerzo humano el más significativo, porque -según las empresas- entre el 80 y el 90% de los
resultados le corresponde a esta instancia.
LA INFRAESTRUCTURA ESENCIAL
DE BIG DATA
Me referiré ahora a la infraestructura Big
Data. De acuerdo a lo comentado hasta
ahora, necesitamos sacar partido de manera
masiva al hardware de bajo costo y trabajar
con sistemas distribuidos, no solo para almacenamiento, sino también para el procesamiento de los datos. Se trabaja con distintas
bases de datos que son distribuidas, algunas
orientadas a datos estructurados y otras a
datos no estructurados. De igual manera
necesitamos el middleware para explorar el
hardware de bajo costo. Este middleware se
coloca encima del sistema operativo y permite que lancemos procesos y almacenemos
datos en muchos computadores a la vez.
En este punto quisiera destacar a Spark,
que es un middleware de nuevo cuño y
que desde hace un par de años está copando el mercado en prácticamente todos
los niveles. Spark está sustituyendo definitivamente a Hadoop, que es un sistema que
permitía lanzar procesos de datos o tareas
en muchas máquinas simultáneamente,
aunque siempre operaba en disco. Eso lo
ralentiza mucho. Spark, en cambio, nos
permite guardar los datos de manera distribuida en la memoria de todos los computadores que estemos utilizando al mismo
tiempo. Hay que pensar que tenemos un
clúster con mil computadores personales
interconectados y Spark es la herramienta
que nos permite programar para trabajar en
el clúster y trabajar de manera distribuida
en todas esas máquinas simultáneamente.
Lo consigue gracias a una pieza clave conocida como Resilient Distributed Data
(RDD). Se trata de un objeto que vamos a
manipular en nuestros programas: es una
abstracción de la programación que nos faculta para manejar colecciones de datos de
manera distribuida. Esto le permite al usuario -al programador, en este caso- definir
funciones que se aplicarán contra los datos,
estén donde estén, de manera distribuida.
Entonces, lo que se le entrega es una función que define el usuario y sobre esa base
realiza transformaciones sobre los datos,
gracias a los RDD. Dichas transformaciones
las lleva a cabo de manera secuencial sobre
todos aquellos datos que están en paralelo, con el objeto de obtener los resultados
con una reducción. Ello se llama la “filosofía”
en la manera de funcionar, que la puso de
moda Google y su nombre es Map Reduce.
Gracias al gran desarrollo de los software en
los últimos diez o 15 años, estas tecnologías
se han puesto en marcha y han propiciado
el crecimiento de muchas herramientas de
programación que nos permiten lanzar el
mismo proceso repetido en muchos datos.
Spark se encarga de distribuirlo automáticamente y, además, si deja de funcionar
uno o varios computadores, puede recuperarse y redistribuir la carga en el resto. Ello
Jon Ander
ACTUALMENTE
TENEMOS MUCHOS
DATOS PORQUE TODA
LA ACTIVIDAD HUMANA
SE ESTÁ DIGITALIZANDO:
TRANSACCIONES EN EL
BANCO, COMPRAS CON
TARJETA, EXPEDIENTES
MÉDICOS, TODA
ESA INFORMACIÓN
SE RECOLECTA Y
YA NO SE BORRA.
Y HAY DIFERENTES
FUENTES, COMO LOS
TELÉFONOS MÓVILES,
QUE SON DISPOSITIVOS
QUE INTERACTÚAN
ENTRE ELLOS Y
GENERAN DATOS DE
LA INFORMACIÓN DE
LOS SENSORES QUE
CAPTURAN.
Ciclo de Conferencias en Desarrollo de Capital Humano
12
le permite dar una gran seguridad a los
sistemas Big Data, porque si hay mil o dos
mil máquinas y cada semana fallan dos o
tres, se pueden sustituir sobre la marcha.
Así, el sistema siempre está funcionando.
Jon Ander
Spark trabaja con datos en tiempo real, que
sería la parte de streaming. Aquí diseña otra
abstracción de programación destinada a
procesar datos en streaming. Después incorpora las librerías de Machine Learning. Ellas
son muy relevantes hoy día en un análisis
de datos: las herramientas tipo Spark ya asumen estas librerías para que los principales
algoritmos de aprendizaje automático sean
implementados una vez y para siempre. Y
después está el GraphX -el módulo de procesamiento de grafos- donde está implementado, por ejemplo, ese algoritmo inventado por Google para hacer un ranking de las
páginas cuando las buscamos en internet.
LOS SERVICIOS DE BIG DATA
Cuando no contamos con la infraestructura
Big Data en nuestras instalaciones, podemos
contratar servicios de computación en la
nube a proveedores como Amazon, IBM y
otras. El primer nivel, infrastructure service,
nos proporcionan las máquinas virtuales
y sobre ellas el usuario decide qué sistema operativo coloca, qué middleware para
Big Data. Enseguida está la posibilidad de
contratar los datos y las aplicaciones que
necesitemos en el platforms asset services;
y, por último, está el software asset service,
donde no solo se contrata aquello que se
requiere, sino también se solicitan datos específicos de las redes sociales, por ejemplo.
Ahí se aprovecha la aplicación de aprendizaje automático hecha para procesamiento
de los datos que ellos tienen y no se debe
desarrollar nada, simplemente aprovecharlo. Ello tiene un costo, evidentemente.
Lo que quiero resaltar es que cuando no hay
recursos financieros para tener toda la infraestructura Big Data en una empresa, se puede
tener un equipo que se encargue de contratar estos servicios por un periodo de tiempo,
escalando lo que se necesite en ese momento.
Por ejemplo, si una empresa entrega servicios a un banco y necesita procesar cierta
cantidad de datos en dos horas, se contratan esas dos horas de cómputo en la nube,
más el espacio requerido para almacenar
la información y solo se paga cuando finaliza el proceso y se tienen los resultados
que conducirán a la toma de decisiones.
La compañía que entrega este servicio factura únicamente aquello que se consume.
Ciclo de Conferencias en Desarrollo de Capital Humano
13
El Centro de Investigación y Desarrollo de
Telefónica en Chile se estableció dentro del
programa de atracción de los centros de
excelencia internacional que tiene Corfo,
con el foco de trabajar en Internet de las
Cosas (IoT en su original inglés, es decir, Internet of Things), en especial la aplicada a
la agricultura, la minería y al desarrollo de
ciudades inteligentes. Ahí buscamos lograr
un impacto positivo y sustantivo para Chile.
Pablo García
Gerente de Investigación del Centro
de I+D de Telefónica en Chile
EL DESAFÍO DE
IMPLEMENTAR
UNA SOLUCIÓN DE
INTERNET DE LAS
COSAS
Hace varios años, un compañero de la universidad me trajo un problema de secuencias de ADN: se trataba de unos estudios que
se le realizan a una familia a través del tiempo, de toda su descendencia y de las enfermedades que las han afectado. El volumen
de datos era enorme, imposible de analizarlo
con los sistemas actuales. En ese momento
Hadoop era algo incipiente. A pesar de ello,
lo fuimos a buscar, lo instalamos y estuvimos varios meses trabajando en la solución.
Sin embargo, ahora se ha llegado a un espectacular nivel de automatismo. Uno de los
fenómenos que ocurrió es que el secuenciamiento del ADN ya se volvió un commodity.
Hoy en día, uno entra en una página web, se
registra con una empresa, ella envía un pequeño frasco para recolectar la muestra y al
poco tiempo nos devuelve el perfil genético.
MODELOS DE NEGOCIOS CON
ELEMENTOS BARATOS Y MASIVOS
Ello ocurre porque la fuerza de la evolución
tecnológica y de toda la ciencia trabajando
en pos de resolver aquellas dificultades relevantes en nuestra vida, evoluciona muy
rápidamente y a mayor velocidad de lo que
imaginamos. En la actualidad, cualquier oncólogo tiene acceso a la secuencia completa
de su paciente, que le ayudará a atacar más
eficazmente la enfermedad. Ese es el tipo
de transformaciones donde estamos inmersos, el que también está afectando al IoT. A
veces tenemos la sensación de que hemos
conseguido cierta estabilidad, pero las modificaciones hacia adelante son mucho más
rápidas. Cada vez tenemos menos tiempo,
desde el momento en que surge una deter-
minada tendencia, hasta que la convertimos
en un beneficio para nuestra organización.
El IoT nos da una enorme oportunidad de
cambiar y de que aparezcan nuevos modelos de negocios, con elementos baratos
y masivos. Cuando estos elementos y herramientas tienen costos tan bajos, siempre aparece alguien que logra apalancarlo
para generar otros modelos de negocios.
En el Centro de I+D, nuestro primer desafío fue reclutar a un equipo multidisciplinario de excelencia. Era esencial contar
con especialistas técnicos que asumieran
nuevos retos y que, en poco tiempo, procesaran enormes volúmenes de datos.
Nuestros pilares en el Centro son este equipo de profesionales, el utilizar metodologías ágiles, la tecnología y el data science.
Respecto del equipo humano, el primer año
lo ocupamos en preparar, entrenar, hacer
los prototipos y ganar confianza, para que
de esta manera las situaciones se atacaran
desde diversas áreas. Nos enfocamos hacia
un modelo ágil que definimos como Market Pull. Nos preocupamos de los problemas reales que tienen las organizaciones.
Para ello les preguntamos directamente a
los mineros y a los agricultores qué carencias o conflictos arrastraban en los últimos
años sin poder resolverlos. Con las nuevas
realidades tecnológicas es posible pensar
desde otras miradas aquella situación en
apariencia insoluble. Por ejemplo, para una
plaga difícil de exterminar, hoy podemos
sensorizar en forma mucho más barata un
establecimiento y enfrentar ese enorme
volumen de datos de los sensores para entender su comportamiento. Gracias a estas
informaciones se podrá modificar la estrategia de ataque y, ojalá, erradicar esa plaga.
Nos apasionamos con los problemas y tratamos de ser rápidos en la respuesta. Trabajamos con Canvas y con Scrum, iteramos
rápido y si fallamos en las soluciones enfrentamos el tema desde otra perspectiva
y avanzamos con dos equipos paralelos.
Intentamos enamorarnos del problema, no
de la solución, y esa es mi invitación. Hay
Ciclo de Conferencias en Desarrollo de Capital Humano
14
una enormidad de herramientas tecnológicas para aplicar, abordar y construir un
ingenio que lo resuelva. Esa es una de las
cosas más hermosas de nuestra profesión.
Nos basamos en un pilar de plataformas tecnológicas. Así como el análisis de Big Data
tiene hoy una plataforma y un ecosistema
arriba de Hadoop, y sigue creciendo y continúan apareciendo piezas para cada uno
atacar de forma especializada cada problema, nosotros tomamos la iniciativa de la Comunidad Económica Europea: utilizar plataformas abiertas, fundadas en el principio de
Open Data, que poseen el nivel de madurez
adecuado para desarrollar soluciones en IoT.
Pablo García
LA PLATAFORMA FIWARE
Aquí surgió Fiware, una iniciativa de la Comunidad Económica Europea que está en
pleno proceso de transición y creando varios
software. Hoy en día está robusteciendo los
órganos de gestión de esa plataforma con
un contexto, una fundación y un comité de
responsables de cada uno de los módulos,
totalmente liderado por la comunidad, de
código abierto (el Open Source). En la actualidad tiene 66 módulos que resuelven problemas específicos y se interconectan entre sí.
Están pensados con una lógica de interacción para resolver incertidumbres en esta IoT.
Esta plataforma se ha utilizado con éxito
para entregar soluciones industriales, de la
agricultura y de Smart Cities. En la primera
fase hubo gran uso para solucionar situaciones de las ciudades, porque es un lindo
campo de trabajo. En España se creó Smart
Santander, con más de 20 mil sensores, lo
que generó un ecosistema: cada sensor
puede dialogar con distintas aplicaciones.
Fiware es una plataforma grande y compleja.
Solo me referiré a sus herramientas principales para implementar soluciones de IoT. Aquí
hay que manejar y dialogar con apis abiertas
y protocolos estándares, así como interactuar con las cosas, por ejemplo: el sensor
de humedad tiene que decirle a la bomba
“apágate, porque te estás inundando”; o el
sensor de seguridad del tanque tiene que
ordenarle a la bomba “apágate, porque no
me queda reserva de agua, vas a bombear
en vacío y se te va a quemar el motor”. Ese
diálogo debemos consultarlo desde afuera y esta plataforma resuelve estos asuntos.
Hay que pensar en el fuerte impacto que se
produjo en la construcción de los sistemas,
cuando pasamos desde la orientación hacia
los objetos, a la orientación hacia los servicios. ¿Por qué? Porque salimos del espacio
de un computador y comenzamos a dialogar entre varios computadores, los que ya
estaban integrados. Mantener el tiempo de
vida de un objeto remoto desde otro computador -que a veces se desconectaba o se
apagaba- era muy difícil. Los objetos habían
sido concebidos para estar en la memoria de
un mismo computador. Entonces surgieron
los servicios que hacían explícita la comunicación remota con el otro equipo, y ahí la
interfaz ya no era el chat o la conversación.
En la plataforma, la funcionalidad está implícita. Y, por supuesto, hay que darle seguridad, hay que generar un token para que se
conecten y se autentiquen. Esto es lo que
realiza la plataforma Fiware. Nos basamos
esencialmente en los estándares OMA, EGCI
9 y 10 para que sea muy fácil acceder a los
elementos. Un requisito es que sea sencillo
accesarlo, manipularlo, consultarlo y trabajar,
y que sea flexible, de tal forma que lo puedan analizar y entender tanto un computador como una persona. Por eso toda la información la capsulamos en Jason, de manera
que si se lee, se entienda. Es importante que
todas las partes del sistema tengan apis, que
para un desarrollador sean fáciles de comprender, casi obvias, y así entonces podremos integrarnos más rápido en esos sistemas
y soportar cada parte de él con un servicio.
El Orion Content Broker es un bróker de
publicación-suscripción donde se maneja el
presente de todos los objetos, de todos los
sensores que están conectados a este sistema. Y como la información de su situación es
la actual, es fácil hacerle consultas para que
entregue distintos datos. Cuando los tiene, los
Ciclo de Conferencias en Desarrollo de Capital Humano
15
notifica a otro sistema al cual tenemos acceso.
La comunicación es un desafío. Nosotros
usamos estos estándares para comunicarnos con aplicaciones, pero por debajo hay
que dialogar con sensores que tienen procesadores muy pequeños. Entonces, con
un core ARM nos comunicamos usando
la tecnología que necesite el sensor. Una
plataforma debe tener la capacidad de dialogar con lo que sea, con cualquier estándar que se haya implementado y, además,
debe tener un diseño sencillo. Lo hacemos
con agentes creados para dialogar con las
cosas que tienen sus propios protocolos.
ALGUNOS DESAFÍOS FUTUROS
Hay muchos otros desafíos que vendrán.
En 2020 tendremos desplegadas las redes
5G, aunque por ahora no hay una solución
en los estándares: recién se estandarizó
el tema de las redes de baja energía y va a
demorar un año o más en ser parte de los
estándares LTE y de lo de 4G. Hay redes
como Sicop, por ejemplo, de baja energía,
que abarcan radios de hasta 50 kilómetros
de distancia y su transmisión es de doce
bytes por vez, con una frecuencia máxima de
cada 15 minutos. Ello le permite a un sensor
prenderse, hacer una transmisión, apagarse
y no gastar prácticamente nada de energía,
dando una solución para tener una implementación masiva de Internet de las Cosas.
Tener conectividad con todo ese desafío se
consigue a través de un componente que
maneja el asincronismo, que maneja la comunicación con los dispositivos y nos deja
dialogar con el Context Broker, como si esos
sensores estuvieran presentes. Luego los sincroniza, los actualiza, los comunica, guarda
los comandos y los envía, utilizando los protocolos necesarios dentro de los estándares.
Su cobertura es muy buena. En general, cuando trabajamos con IoT se usa para un sensor
más grande que está conectado a la energía
en una máquina. Pero cuando se habla de
elementos más pequeños, se utiliza Coap o
Mqtt, que son protocolos que emplean muy
pocos bytes para transmitir la información.
Lo importante de este tipo de plataformas
es que tengamos puntos de integración. Durante muchos años fui arquitecto principal
de Microsoft y discutía con el resto justamente decisiones de arquitectura. Y una decisión
de arquitectura es la siguiente: no comprar
ninguna máquina que nos impida conectarnos para sacar en un formato estándar todos
los datos que ella tiene de mi empresa. Hay
determinaciones que son muy importantes
en la vida de una empresa. Y ahí, arquitectura
es decidir que todo aquello que se compre
en el negocio venga con interfaces y conectividad estándar, de tal manera que se pueda
dialogar, que entregue todos los datos y que
no se los guarde el proveedor de ese equipo.
Y este tipo de solución la vamos construyendo de forma tal que cada elemento
que conectamos esté abierto: un api y un
endpoint que permiten dialogar y comunicarnos con ese elemento que conectamos.
Podemos combinar las reglas para que se
tomen acciones en tiempo real y los objetos
se comuniquen con otros objetos, automatizando así las tareas e incluso la toma de
decisiones. De esta manera le sacaremos un
enorme potencial al Internet de las Cosas.
EL SURGIMIENTO DEL CUARTO
PARADIGMA
Finalmente, en nuestro Centro terminamos
haciendo Data Science, que consiste en aplicar todas esas herramientas analíticas a ese
volumen de información. Uno de los desafíos que tiene Chile -y el mundo en generales cómo analizaremos ese tremendo caudal
de información que ya poseemos. Es decir,
cómo educaremos a un grupo de data scientists, personas que sepan un poco de estadística, otro poco de matemática y otro de
gestión de datos, al punto de que sean capaces de estructurar todo lo que poseemos.
Es el gran desafío del mercado hoy. Y está
en explosión. Hacen falta los especialistas
para accionar sobre ese volumen de datos.
Hace años, el científico norteamericano Jim
Gray dio una charla afirmando que hoy vivimos el cuarto paradigma de la ciencia. El primero fue el de Galileo, quien dijo que si una
afirmación no coincide con el experimento,
es falsa. Ahí nació la ciencia experimental. El
segundo paradigma surgió cuando Newton
teorizó que los planetas alrededor del sol recorren áreas iguales en tiempos iguales. Se
formuló ahí la Ley de Gravedad Universal.
Después vino la ciencia asociada a la mecánica cuántica, donde se realizaban simulaciones, y si ellas coincidían con las observaciones
del experimento, concluíamos que teníamos
el resultado correcto. En la actualidad, el
cuarto paradigma, en particular en el área de
bioinformática, es hacer cálculos, búsquedas
y análisis de datos que permiten dinamizar
fuertemente el avance de la ciencia al producir resultados que surgen, precisamente,
de esa enorme cantidad de información.
En el Centro trabajamos en cosas simples,
como control de riesgos. Ahí producimos
modelos predictivos capaces de anunciar,
por ejemplo, cuánta agua de un regadío podrán absorber las raíces y de qué manera ello
permeará el terreno. Lo entregamos como
una aplicación. Acá hay un enorme trabajo
de todo el equipo de desarrollo, que primero
sensoriza, conecta e interconecta los sensores para recolectar los datos. Después, el equipo de científicos analiza esos datos y genera
modelos predictivos, los que luego se integran dentro de una solución completa que
se le entrega al usuario en su teléfono celular.
El resultado final es una integración entre
dos equipos, capaz de generar una aplicación con una interfaz muy sencilla, donde
se indica cómo se debe accionar y planificar el riego en el campo. Estos modelos se
aprenden y se mejoran, y nosotros nos preocupamos, más que nada, de mejorarlos.
LOS MÉTODOS DE
APRENDIZAJE AUTOMÁTICO
Como decía antes, los recursos se volvieron
abundantes y las tecnologías maduran. El
Deep Learning -Aprendizaje Profundo- es
parte de un conjunto más amplio de métodos de aprendizaje automático, basados
en aprender representaciones de datos. Es
algo que avanza a velocidades asombrosas
Ciclo de Conferencias en Desarrollo de Capital Humano
16
y los modelos matemáticos ya están. También se puede aplicar algo parecido en las
imágenes. Una matriz de convulsión, por
ejemplo, toma una imagen y aplicándole
esa matriz a cada conjunto de pixeles, y calculando cada pixel sobre la base de esa matriz, logramos definir los bordes de esa cara.
Pablo García
Estas tecnologías se convierten en un commodity extremadamente barato y pasan
a ser mainstream en forma muy rápida, es
decir, en productos masivos y muy solicitados. Lo importante aquí es la capacidad de
desarrollar el proyecto y las herramientas,
de manejar los datos, gestionar la idea, tener la voluntad de llevarla adelante y emprender. Ese esfuerzo vale más que los recursos, porque estos son baratos. Se puede
emprender con tecnologías de Internet de
las Cosas usando tecnologías de la nube.
En la actualidad, en el Centro hay unos 40
equipos participando en la solución de un
problema agrícola nacional: se trata de una
plaga llamada Lobesia Botrana, que llegó
en alguna máquina que no se fumigó bien,
y que se ha expandido en gran parte del
país, afectando principalmente el cultivo
de la uva. Hay 35 mil trampas desplegadas
en muchos terrenos, capturando a estas
polillas para entender cuál es su ciclo de
reproducción, entre septiembre y marzo,
y así fumigar y mantenerlas controladas.
Existe un protocolo bastante complejo que
afecta a Chile como exportador de uva: abrir
el contenedor y fumigarlo, porque todos los
agrónomos saben que ponerle pesticidas a la
fruta es algo que puede dificultar su comercialización. Además, como no se tiene bien
controlada la plaga, no hay más remedio que
abrir el contenedor y fumigarlo también en
destino, ya que no existe certeza de si va o
no esta polilla. Nosotros estamos trabajando
en la solución. La primera o segunda capa
de una red neuronal ya identificó elementos que son candidatos a ser polillas. Luego,
capas posteriores perciben si es una polilla,
una abeja u otro insecto. Pero este es un
desafío que lanzamos al ecosistema: construir una trampa barata que resuelva este
problema para Chile y ojalá para el mundo.
Pablo García
A VECES TENEMOS
LA SENSACIÓN
DE QUE HEMOS
CONSEGUIDO CIERTA
ESTABILIDAD, PERO
LAS MODIFICACIONES
HACIA ADELANTE SON
MUCHO MÁS RÁPIDAS.
CADA VEZ TENEMOS
MENOS TIEMPO,
DESDE EL MOMENTO
EN QUE SURGE UNA
DETERMINADA
TENDENCIA, HASTA
QUE LA CONVERTIMOS
EN UN BENEFICIO
PARA NUESTRA
ORGANIZACIÓN. El
INTERNET DE LAS COSAS
NOS DA UNA ENORME
OPORTUNIDAD DE
CAMBIAR Y DE QUE
APAREZCAN NUEVOS
MODELOS DE NEGOCIOS,
CON ELEMENTOS
BARATOS Y MASIVOS.
AUTOMONITOREARNOS
DIRECTAMENTE:
TOMAR LA PRESIÓN, LA
TEMPERATURA Y LAS
PULSACIONES.
Ciclo de Conferencias en Desarrollo de Capital Humano
17
El objetivo de mi presentación es mostrar cómo la tecnología de Internet de las
Cosas -IoT en su original inglés, es decir,
Internet of Things- y Big Data se están desarrollando y cuáles son sus proyecciones
desde el ámbito informático y desde la industria. Quisiera mostrarles su evolución,
su utilidad y el futuro de estos grandes
cambios que enfrentamos hoy, cuando
tenemos una gran oportunidad para crecer en el emprendimiento e innovación.
HACIA LA CUARTA
REVOLUCIÓN INDUSTRIAL
Karin Quiroga
Directora del Área Informática
y Telecomunicaciones de
INACAP
INTERNET DE
LAS COSAS: UNA
REVOLUCIÓN
INDUSTRIAL
Debido a esta tremenda evolución tecnológica, en la actualidad se habla de una revolución industrial 4.0, o cuarta revolución
industrial. Como se sabe, entre 1770 y 1840
nació y creció la primera revolución industrial. Fue un hito importante no solo para la
economía de los países, sino que para la humanidad completa. Allí se pasó de una economía rural -una economía del agro- que
no había tenido grandes transformaciones a
través del tiempo, al desarrollo de las fábricas y la utilización de maquinaria: la máquina a vapor, las líneas férreas y las carreteras,
entre otros aspectos, que incrementaron
fuertemente el comercio y la industrialización. Se transitó desde una economía rural
a una donde las máquinas intervinieron
directamente en los procesos productivos.
Luego llegó la segunda revolución industrial, que va desde 1870 hasta el inicio de
la Primera Guerra Mundial (1914). En esta
época continuó creciendo aquello que se
inició en la primera revolución industrial,
aunque incorporando nuevos medios de
transporte, como el automóvil y los aviones. Surgieron y crecieron flamantes mecanismos de comunicación como la radio
y la telefonía, y también aparecieron otros
recursos como el gas, el petróleo y la electricidad. Esta segunda revolución permitió abrir la globalización de los mercados
y por eso marcó un hito sin precedentes.
Una vez que se abrieron estos mercados, la
economía de los países nunca volvió a ser
igual. Se inició fuertemente el comercio y el
transporte entre los países y los continentes.
La tercera revolución industrial es la revolución de internet, donde se produjeron gigantescas modificaciones. Partió, obviamente, cuando no todos teníamos acceso a esta
red, al igual que en la segunda revolución
industrial, donde pocos tenían teléfono. Pero
hoy día es difícil vivir sin internet e, incluso,
trabajar sin conectividad y sin las aplicaciones de los celulares. Es un hito esencial que
se inició en 1950, aproximadamente, hasta
2000, donde internet alcanzó su máxima madurez. Ahí ya teníamos casi todos los servicios disponibles, como ocurre actualmente.
Cuando se abrieron los mercados, nadie estaba dispuesto a cerrar sus fronteras y a decir
que no quería exportar. Sabíamos que era
esencial esa apertura hacia la internacionalización. Igualmente, hoy nadie piensa en desconectarse de internet y vivir como antes.
Entonces, cuando hablamos de esta cuarta
revolución industrial nos referimos a la Internet de las Cosas, porque efectivamente
hoy en día tenemos miles de oportunidades
en esta nueva industria. Ella se inició hacia
el año 2000, cuando comenzaron a explorarse estas nuevas industrias, donde la idea
es que se desarrollen de manera inteligente.
¿Qué significa esto? Que a través de la tecnologización, mediante la incorporación de
sensores o de mecanismos, las industrias
pueden organizar sus medios de producción
de una manera distinta. Y es una revolución,
porque cuando ellas entran en el IoT, no
volverán atrás: asumirán e implementarán
sus procesos productivos a través de estos
sistemas, los que progresivamente adquieren mayor madurez. Es importante tener
conciencia de que no nos podemos sumar
cuando este proceso ya esté definitivamente consolidado, sino que debemos ir a la par
con el cambio. En el año 2000 se anunciaban tendencias, se pensaba que hacia 2020
habría otros parámetros, existirían la sensorización y la virtualización. Hoy ya son una realidad, y nuestra obligación es incorporarnos
dentro de las especialidades profesionales.
Ciclo de Conferencias en Desarrollo de Capital Humano
18
SEGURIDAD Y PRIVACIDAD
Karin Quiroga
¿Por qué Internet de las Cosas? Fundamentalmente porque impulsa una irrupción
digital en el mundo físico. Sus principales
características son mejorar las operaciones de los procesos productivos -por eso
hablamos de las industrias inteligentes-,
bajando los costos, incorporando nuevos
modelos de negocios e implementando la
experiencia del cliente. Al crearse otros modelos de negocios y de productos, estos ya
no serán los mismos que conocemos hasta
hoy. En la actualidad, las aplicaciones web
son un commodity y tenemos oportunidades de generarlas, pero la interactividad de
estas aplicaciones con los servicios y con
las necesidades de la industria constituye de por sí el nuevo modelo de negocio.
Aquí es donde desarrollaremos la sensorización, no solo por automatizar, sino
porque podremos levantar una gran cantidad de información que nos permitirá
prosperar los procesos productivos, la calidad de vida y la experiencia de aquellas
personas que están relacionadas con este
mundo, incluidos los clientes, los usuarios.
Hay algunos desafíos que las empresas deben considerar al incorporar estos nuevos
modelos, y que tienen que ver fundamentalmente con el volumen de la información. Es
decir, en el momento en que la industria comienza a innovar en Internet de las Cosas, recibirá una inmensa cantidad de información.
Por lo tanto, todo esto no solamente pasa
por sensorizar los procesos productivos,
sino que, además, hacerse cargo de cómo
se analizarán los datos para generar mejoras
en el proceso y en la toma de decisiones.
Otro tema importante es la seguridad, que
es un proceso distinto. Vamos a interconectar máquinas con software y trabajaremos
con distintos protocolos de comunicación,
todo lo cual acarrea una especial preocupación por la seguridad y ella está conectada a
la privacidad. En general estamos acostumbrados a manejar los sistemas tradicionales,
las bases de datos, donde sabemos que el
servidor tiene un cierto sistema de seguridad. Sin embargo, en muchos casos aquí
estamos abriendo la información al mundo
y, simultáneamente, requeriremos información de las personas que están relacionadas
con nuestros procesos, ya que de esa manera los perfeccionaremos. No solo queremos
saber cómo se comporta un cierto sensor
o determinada máquina, sino cómo lo percibe el usuario final que interactúa con ella.
Únicamente de esta manera se podrá mejorar esa experiencia y fortalecer el proceso.
Por lo tanto, hay temas de privacidad que
también tienen que ser resueltos. Ocurre mucho con las Smart Cities -ciudades
inteligentes-, donde hay temas de gobierno que es necesario definir y resolver,
porque ellos tienen que entregar información para que se abra a estos grandes
sistemas de IoT. Dicha información debe
estar regulada y, por lo tanto, hay asuntos
relativos a la privacidad que hay que resguardar dentro de los proyectos de IoT.
DISMINUCIÓN DE COSTOS Y
AUMENTO EN LA CAPACIDAD DE
LAS TECNOLOGÍAS
El IoT es importante por la disminución de
costos y por el aumento en la capacidad de
las tecnologías. Los sensores siempre han
existido: en el área de electricidad y electrónica, los eléctricos siempre han trabajado con
ellos, pero hoy los tenemos mucho más cercanos, porque han disminuido sus costos y
sus tamaños, para integrarlos a las máquinas
y a los aspectos físicos donde los necesitamos. Pero, además, estos sensores tienen las
posibilidades del Cloud Computing, es decir,
todas las potencialidades. Por lo tanto, ellos
ya resuelven problemas de almacenamiento
y de conectividad con los recursos que tenemos disponibles y que están en paralelo
con su tecnología. El Cloud Computing y
los protocolos de comunicación resuelven
muchos inconvenientes que antes eran
propios de los sensores. Nos potencia mucho usar estas tecnologías de manera más
económica y con un mejor procesamien-
Ciclo de Conferencias en Desarrollo de Capital Humano
19
to para manejar la información obtenida.
LAS COSAS
decir que se puede desarrollar sin límites.
También hay una disminución en el almacenamiento, porque sabemos que todo
podríamos operarlo en la nube. Por lo
tanto, no es necesario disponer de grandes computadores, complejos de administrar y de mantener. Actualmente,
aquello queda encapsulado en la nube.
¿Qué es la industria de Internet de las Cosas?
A través del cloud y de los servicios estas
industrias se relacionan. Están las Smart Industries, que son las industrias inteligentes,
pero también hay un área relativa a la salud.
Existe un amplio mundo de desarrollo para
la sensorización y el mejoramiento de los
procesos relacionados con este tema. También hay una línea muy grande de las Smart
Cities, que también serán puestas en marcha
con estas tecnologías. Cuando hablamos
de IoT nos referimos a su clara orientación
hacia la industria, a las empresas, a los procesos productivos. Aquí está todo aquello
relacionado con las smart, las factories, las
grid, las machine, las ciudades y los autos.
Debemos pensar que la cantidad de dispositivos conectados supera en gran medida al
total de la población mundial. Y estos tienen
que estar conectados a través de los sistemas. Por lo tanto, esta conectividad será lo
que impulsaremos a través del IoT. No son
únicamente los juegos ni las aplicaciones
que existen hoy: las personas van a requerir
y desplegar nuevas necesidades. Así como
hoy nos cuesta concebir nuestras actividades sin conexión wifi, igualmente con IoT
tendremos la posibilidad de recibir mediciones de máquinas para asuntos impensables: por ejemplo, saber en pocos segundos
en qué lugar de una comuna determinada
existen estacionamientos disponibles. Eso
no será algo impuesto, sino que nosotros
mismos aumentaremos esas necesidades
y crecerá igual como lo ha hecho internet
y como se han desarrollado las empresas.
Respecto de los dispositivos conectados, la
mayoría de nosotros tiene al menos un teléfono celular. Y muchas veces son más los
dispositivos conectados por persona, dos o
incluso tres: tablets, computadores y smart
TV, por ejemplo. Se proyecta que en 2020
el número de dispositivos conectados por
persona será de siete. Por lo tanto, esa conectividad tiene que resolverse. No serán
servicios ni sistemas como los conocemos
hoy, sino que se tratará de otras tecnologías.
Respecto de Big Data, también es una tecnología que ya adquirió su madurez: ahí
existen enormes perspectivas de almacenamiento y de análisis de la información.
A diferencia de las grandes bases de datos
que manejaban las empresas cuando se
consolidó internet, las Big Data tienen otro
sistema, otra arquitectura y se trabaja de otro
modo con la información, porque el procesamiento tradicional de las bases de datos
es incapaz de procesar la información que se
levanta a través de los mecanismos de IoT.
Por lo tanto, hoy tenemos la posibilidad de
relacionar no solo la sensorización y el levantamiento de la información, sino que asimismo el análisis de ella de manera mucho
más desarrollada y con nuevas plataformas.
Internet de las Cosas y Big Data nos permiten
hablar de máquinas inteligentes, capaces de
procesar su propia información y mejorar
sus procesos productivos. Ello las habilita
para que interactúen también con la sociedad y que cambien los modelos de negocios
de las empresas. Por ello es que hablamos de
que vivimos una importante transformación.
LA INDUSTRIA EN INTERNET DE
Si hablamos de los automóviles, por ejemplo, lo hacemos en relación a una industria
que produce vehículos y que IoT le permitirá
potenciarlos para mejorar la experiencia de
los clientes, pero, además, ellos mismos optimizarán sus capacidades. Existe, entonces,
un desarrollo asociado al usuario, a quien va
a consumir esta experiencia. Por ejemplo, están los smart, los teléfonos, la ropa. Existirán
capacidades que permitirán medir situaciones, que nos entregará información tal como
la cantidad de calorías que quemamos al
caminar. Ya tenemos componentes que se
acercan a la televisión, a las aplicaciones en
la casa, a la domótica. Todo ello nos servirá
para interactuar de una manera distinta con
las máquinas: eso es Internet de las Cosas.
Ello se aplicará igualmente al consumo hogareño, a la salud y al retail. Por ejemplo,
cómo sensorizar las salas de ventas para
mantener un stock en línea, manejar el consumo, medir la experiencia de la persona
que se acerca a las grandes tiendas. En los
grandes centros comerciales, si alguien se
detiene en una tienda de zapatos, en su
teléfono podrán aparecer todas las otras
tiendas del rubro comprendidas en una
determinada área, así como ofertas que le
pudieran interesar. Ello puede ocurrir en el
transporte, en la seguridad y en otros múltiples aspectos de la vida cotidiana. Se podría
EJEMPLOS DE SU USO ACTUAL
Algunos ejemplos demuestran de manera
concreta este tema. Está el caso de Bosch,
una compañía que ha automatizado varios
productos, entre ellos los vehículos. Les
ocurría que cada vez que querían lanzar
un modelo diferente, mucho más potenciado que el anterior, debían pasar innumerables horas de tests y de análisis hasta
afirmar categóricamente que ese producto
poseía una importante modernización. La
única forma de mejorar la versión anterior
era conocer, de manera muy estimativa,
cuál era la experiencia de quiénes lo manejaban, opinión que conocían solo referencialmente. Entonces incorporaron sensores
dentro del automóvil, gracias a los cuales
ya no era necesario esperar a que alguien
lo manejara y después relatara su experiencia: estos sensores comunicaban una
gran cantidad de información, la cual era
analizada después de un cierto período.
Por ejemplo, si se quería saber cuál era la calidad de los frenos y cómo se podía perfeccionar, el sensor ubicado en esa zona podía
determinar las características del compor-
Ciclo de Conferencias en Desarrollo de Capital Humano
20
tamiento. Lo mismo ocurría para cualquier
otro componente que se desease medir,
ejercicio que se realiza en tiempo real, sin necesidad de esperar a que el vehículo salga a
la calle. Eso es algo que ya existe, que se está
haciendo y que se utiliza para optimizar los
próximos modelos que saldrán al mercado.
Karin Quiroga
En esta misma línea, si proyectamos cómo
podría ser un taxi del año 2084, podríamos
asegurar que habrá un significativo incremento en el mejoramiento de cada uno de
los servicios y de las máquinas: simplificarán
sus características, usarán tecnologías renovables, serán más saludables con el medio
ambiente y multiplicarán sus capacidades.
También Bosch administra otros dispositivos a través del teléfono celular, gracias a
los cuales estos pueden estar interactuando
en el jardín, regando y cortando el pasto.
IoT no solo actúa a nivel industrial, como
en los casos anteriores, sino que también
en una relación directa con el consumidor,
mejorando la experiencia de los clientes.
Por ejemplo, con una bicicleta que posee
una serie de sensores en distintos puntos,
los que permiten determinar la velocidad y
la aceleración, además de entregar información respecto de nuestro estado físico. Este
caso está orientado a personas que se dedican al ciclismo, a los deportes, ya que proporciona cifras que miden el rendimiento
no solo de la persona, sino que también de
la máquina. A partir de aquella información
se puede optimizar su funcionamiento y así
aumentar las capacidades del deportista.
El desarrollo de maquetería -realización de
maquetas que representan un segmento de
la realidad- permite unir los aspectos de la
industria de IoT con la labor académica. Así,
entonces, se puede diseñar e implementar
una maqueta que tenga varios sensores para
medir, por ejemplo, la velocidad de los autos,
si hay recintos de basura, si están vacíos o no,
y esa información envía señales a una tablet.
ALGUNOS PROYECTOS DE INACAP
¿Cuál es la experiencia de INACAP en Internet de las Cosas? En la actualidad se están
desarrollando varios proyectos en distintas Sedes. Aquí es importante mencionar
que la implementación de esta tecnología es interdisciplinaria, un modelo donde
se congregan varias Áreas Académicas.
Los electrónicos para sensorizar, los informáticos para levantar la información y los
analistas para trabajar con la información
y luego vaciarla a través de aplicaciones.
Uno de ellos es el Proyecto Noez, adjudicado por Telefónica en su primer Desafío IoT. Es
un proyecto académico que lo llevan a cabo
alumnos que optan a su título en INACAP, en
conjunto con la Asociación de Productores y
Exportadores de Frutos Secos, Chilenut AG.
En este caso se trabaja fundamentalmente
para determinar in situ la humedad de secado en frutos secos -nueces-, optimizando
recursos, disminuyendo al mínimo la toma
de muestras durante el proceso y asegurando la homogeneidad del producto final.
El equipo está conformado por alumnos de
seminarios de título de las Áreas Electricidad
y Electrónica, Informática y Telecomunicaciones, y obviamente del Área Agropecuaria
y Agroindustrial que se adjudicó el proyecto.
Otro caso es TemAlert, de la Sede Concepción-Talcahuano, realizado en una feria de
emprendimientos tecnológicos. Este proyecto está implementado para el Área de
Hotelería, Turismo y Gastronomía. En su
esencia, busca registrar alertas de temperaturas en los congeladores del refrigerador, de manera que si por alguna razón las
puertas no están herméticamente cerradas
y la temperatura sube de rango afectando a
los alimentos, el sistema envía alertas a un
dispositivo móvil para que se tomen las medidas y se mantengan las cadenas de frío.
También en Concepción se presentó el
Proyecto SoftCool, que está postulando a
financiamiento, ya sea en desafíos tecnológicos o en proyectos de emprendimiento.
Se trata de un producto bastante avanzado
y que también se relaciona con sensores
Ciclo de Conferencias en Desarrollo de Capital Humano
21
de temperatura, en este caso incorporados
a camiones que transportan mercaderías
y que necesitan de una cadena de frío. Así,
estos sensores van registrando las temperaturas y enviando información en línea
cuando los productos pierden su cadena de
frío. Al llegar a destino se puede conocer en
detalle su calidad en función de este tema.
Recientemente realizamos un concurso de
proyectos de título y se presentaron más
de 100 a nivel nacional, pertenecientes a
todas las Áreas Académicas. Es importante explicar que los clientes que tienen las
mayores necesidades no somos nosotros,
los informáticos, sino quienes viven el día a
día con estos dispositivos y con sus necesidades. Por lo tanto, cuando comenzamos
a desarrollar determinados proyectos no
lo hacemos en el aire, despegados de la
realidad, sino que vamos allí donde existan
usuarios que tengan problemas y auténticas carencias, a los cuales debemos ayudar.
Por ejemplo, en la Sede Maipú la carrera de
Ingeniería Informática presentó un proyecto
para prestar ayuda auditiva al público no vidente, de manera que puedan realizar compras en supermercados en forma independiente. En la Sede Renca hay un proyecto de
título para crear una estación de monitoreo
autosustentable para invernaderos, basado en microcomputadores Raspberry. En
la Sede Santiago Sur se propone un diseño
de implementación de un sistema para la
regulación del índice de glicemia mediante
la metodología de redes neuronales artificiales. En Valparaíso, Ingeniería Informática
trabaja en un sistema de geolocalización
para redes de pesca. Los alumnos le llamaron “¿Y dónde está la boya?”. La idea es dar
una solución orientada a los pescadores
artesanales para que identifiquen el lugar
donde están sus redes en el mar. En Concepción, Ingeniería en Telecomunicaciones
desarrolla redes de sensores inalámbricos
para la detección de incendios forestales.
En Puerto Montt, Ingeniería en Electricidad se dedica a la domotización y control inteligente de las luminarias públicas.
Todo esto demuestra la necesidad de entrar
en estas nuevas tendencias y tecnologías,
y por ello los invito a incorporarlas en los
proyectos de los alumnos. Existe claridad
de que las necesidades no van por la ruta
de las aplicaciones tradicionales. Hoy debemos levantar estas plataformas que nos
ayudarán a resolver estas problemáticas.
Karin Quiroga
¿POR QUÉ INTERNET
DE LAS COSAS?
FUNDAMENTALMENTE
PORQUE ESTÁ
IMPULSANDO UNA
IRRUPCIÓN DIGITAL
EN EL MUNDO FÍSICO.
SUS PRINCIPALES
CARACTERÍSTICAS SON
QUE ESTÁ MEJORANDO
LAS OPERACIONES
DE LOS PROCESOS
PRODUCTIVOS -POR
ESO HABLAMOS DE
LAS INDUSTRIAS
INTELIGENTES-,
BAJANDO LOS COSTOS,
INCORPORANDO NUEVOS
MODELOS DE NEGOCIO
E IMPLEMENTANDO
LA EXPERIENCIA
DEL CLIENTE.
AUTOMONITOREARNOS
DIRECTAMENTE:
TOMAR LA PRESIÓN, LA
TEMPERATURA Y LAS
PULSACIONES.
INACAP es un sistema integrado de Educación Superior, constituido por la Universidad Tecnológica
de Chile INACAP, el Instituto Profesional INACAP y el Centro de Formación Técnica INACAP, que
comparten una Misión y Valores Institucionales.
El Sistema Integrado de Educación Superior INACAP y su Organismo Técnico de Capacitación INACAP
están presentes, a través de sus 26 Sedes, en las 15 regiones del país.
INACAP es una corporación de derecho privado, sin fines de lucro. Su Consejo Directivo está integrado
por miembros elegidos por la Confederación de la Producción y del Comercio (CPC), la Corporación
Nacional Privada de Desarrollo Social (CNPDS) y el Servicio de Cooperación Técnica (SERCOTEC), filial
de CORFO.
Descargar