Análisis de Información generador de eficiencias en el margen de los productos. 19 abril 2016.

Anuncio
Ciudad de México, 19 de abril de 2016.
Versión estenográfica de la Sesión Especializada Accenture,
“Análisis de Información generador de eficiencias en el margen
de los productos”, ofrecida por Juan Pablo Llamas, durante el
Primer Día de Trabajos de la 26 Convención de Aseguradores de
la Asociación Mexicana de Instituciones de Seguros, llevada a
cabo en la Sala Montejo 3, del Centro Banamex de esta ciudad.
Juan Pablo Llamas: (Fallas de audio) …Infinidad de retos de carácter
práctico.
Hablábamos de terabytes, cuando hablábamos de terabytes hay
incluso una empresa muy famosa en el ámbito de Big Data, que sigue
siendo en cierto sentido líder en muchos aspectos que le puso un
nombre visionario a la empresa hablando de teras, y resulta que los
teras ya son cosa del pasado y ahora estamos hablando más bien de
zettabytes. Y la realidad es que precisamente por la ley, en este caso
de crader, del almacenamiento, pues resulta que los zettabytes
también son cosa de quizás el presente y dentro de muy poco tiempo
serán cosa del pasado.
Me detengo un segundo a hablar de las leyes tecnológicas. La primera
que les había mencionado es la Ley de Moore, Moore es el fundador
de Intel, que me acaban de comentar que está despidiendo a 12 mil
personas o acaba de decidir despedir a 12 mil personas porque no
llegó a sus objetivos en el último reporte de bolsa; pero no cabe duda
que Intel es una de esas empresas visionarias que han cambiado el
mundo. Lo que dice Moore es que aproximadamente cada 18 meses
se duplica la capacidad de procesamiento de los microprocesadores.
Si pensamos en que esa función es una función continuada a lo largo
del tiempo tenemos bien claro que ante lo que nos encontramos es
ante una exponencial y eso es lo que está sucediendo con la
tecnología en general.
La de Moore es la primera de estas leyes, las otras tres leyes hablan
básicamente de lo mismo, estamos en un mundo en el que la
tecnología está exponenciando todos nuestros procesos de
generación, almacenamiento, procesamiento, distribución, utilización
en última instancia de información.
La Ley de Cado, la ley del almacenamiento lo mismo nos dice algo
que vivimos todos, comprar un disco de un tera hace 10 años era algo
que estaba solamente en manos o de instituciones, de hecho, que
tuvieran realmente muchos recursos, hoy me parece que se puede
conseguir en cualquier Best Buy por un precio bastante razonable, y
esto no se va a detener, simplemente va a seguir también su ritmo
porque adicionalmente a esto podemos comunicar grandes volúmenes
de información cuando seguramente muchos de nosotros empezamos
a escuchar a hablar de lo que era una videoconferencia o tuvimos
nuestra primera experiencia con una videoconferencia, tuvimos
muchos problemas relacionados con el ancho de banda, como
sabemos esto ya también es cosa prácticamente del pasado, lo único
que podemos esperar es que hacia el futuro se siga exponenciando o
sigamos con una velocidad exponencial en el crecimiento de la
capacidad del ancho de banda.
La última, la ley de Metcalfe es una ley interesante porque de lo que
habla es de la conectividad. A mí me gusta relacionarla también con el
poder que tenemos igual como seres humanos en sociedad gracias a
la posibilidad de colaborar entre nosotros, esto es y diría mucho más
que exponencial, porque lo que dice Metcalfe es que el poder de una
red o la capacidad de una red es igual al cuadrado de todos los
vínculos posibles entre sus nodos.
Entonces, eso realmente nos habla de algo que es enorme y es
pensando en que podemos hacer eso y que eso está conectado a
través de anchos de banda que están creciendo exponencialmente
con capacidades de almacenamiento que ya prácticamente hoy no
tiene límite, que cada vez tienen menos costo y con capacidades
también de almacenamiento y de procesamiento, esas dos que están
en ese caso nos lleva a este nuevo mundo en el que podemos hacer
muchas cosas como las que hemos hablado durante la mañana y
sobre las que abundaremos un poquito en ciertos detalles el día de
hoy.
Hablando de esto me parece que también es interesante ver estas dos
consultas que hice ayer en Google Trends, de estos dos términos, el
término Big Data si lo vemos aquí en 2009 esto prácticamente no
existe, el término Analytics aquí también lo tenemos despegando
prácticamente en el 2011; en los dos casos lo que estamos viendo es
un interés exponenciado y esto es, como saben, a nivel global.
Ya si nos metemos un poco más al análisis en los propios Google
Trends vemos que es el mundo desarrollado aquel en el que más
interés han concitado estos dos conceptos, sin embargo me parece
que también podemos ver cómo se están moviendo las cosas de
geografía y ya no solamente estamos hablando de Estados Unidos,
Canadá y Europa, sino que estamos viendo muchos otros sitios en el
mundo en el que estos conceptos están cobrando interés y que se
están llevando a la práctica de la mano también del poder de los
análisis que se pueden llevar a cabo sobre los datos.
El análisis se aplica hoy, este análisis avanzado, sobre grandes
cantidades de datos que hace muy poco tiempo eran escasos, se
aplica prácticamente a todas las funciones del negocio, desde el
marketing a las ventas, a la gestión de la lealtad, a la evaluación y
gestión de riesgos, al control y prevención del fraude, a la eficiencia de
las operaciones, en prácticamente todos los sectores industriales,
incluso los recursos humanos, y esto es porque los datos son el
combustible del mundo digital.
Cuando decimos que son el combustible del mundo digital es porque
todo lo que logramos con la interacción, con la movilidad, con las
nuevas capacidades de almacenamiento y de procesamiento sería en
cierto sentido menos valioso y poco útil, en última instancia, de no ser
porque tenemos análisis detrás, desde el análisis más simple y la
aplicación de reglas de carácter discreto, que lo que hacen es generar
determinadas acciones automáticas o generar alertas en función de
reglas preestablecidas, hasta la aplicación de algoritmos como
aquellos de los que hablamos igual durante la mañana, algoritmos que
están ya embebidos en los sistemas y que de manera automatizada
están recopilando información, procesando esa información, derivando
una serie de conclusiones y generando incluso procedimientos de
aprendizaje de máquina.
Podemos decir aquí que las empresas reconocen que esto está
sucediendo, pero la realidad también es que sigue siendo bastante
complejo entender cómo sacar provecho del mundo de datos, del mar
de datos en el que muy fácilmente nos podemos ahogar, porque los
datos hoy se puede decir que son prácticamente limitados, pero los
datos –como ustedes saben- si no responden a una pregunta concreta
de negociación no sirven en realidad para nada.
A mí me gusta pensar en ese sentido que más bien hay que comenzar
al revés, comenzar en el final y no en el origen de los datos a los que
podemos tener acceso, sino en aquellas decisiones o en aquellos
procesos concretos específicos de negocio que queremos mejorar
para entonces regresar hacia atrás a ver cuáles son los datos que
tenemos y cuáles deberían de ser tanto los análisis que debemos
llevar a cabo, como los sistemas a través de los cuales debemos de
procesar esos datos o de distribuir los resultados de los análisis.
¿Cuáles son las implicaciones de estas tendencias, que son
tendencias de carácter general para la industria?
Lo primero de lo que podemos hablar aquí es en realidad también la
industria nace, así como hablamos de una industria que nace en torno
al análisis de datos a la probabilidad y a la predicción, la industria nace
también y diseña prácticamente todos sus procesos para un mundo d
escasez de información, y ese mundo de escasez de información
simple y sencillamente se acabó.
Hoy en día más bien lo que tenemos es prácticamente todo lo
contrario, si bien pudiéramos pensar en un momento del negocio hace
10, 15 años, en el que invertíamos una cantidad muy relevante de
dinero en obtener nueva información al respecto de las personas y de
los sucesos, resulta que hoy prácticamente esa información nos está
inundando.
Lo que dice aquí este grupo de Master in data science es que la
riqueza de datos a los que tiene acceso la industria aseguradora hoy
en día es casi vergonzosa, en el sentido de que podemos, si lo
queremos así, contestar mejor a prácticamente cualquier pregunta,
incluso que los individuos relacionados con el problema del que
estamos hablando, y alguien ponía un ejemplo de esto por la mañana,
me parece que en la ponencia de Garner escuchábamos igual hablar
de esta situación que en última instancia nos confronta una disyuntiva
ética, podemos seguir utilizando la información, podemos saber más al
respecto del futuro de las personas en términos de su saludo, en
términos de su seguridad como conductores y quedarnos sin actuar al
respecto de ese fenómeno, la realidad es que sí podemos saber más
que ellos, la realidad es que ahora sí tenemos una cantidad enorme de
información y habría que preguntarnos qué tanto realmente somos
responsables de organizar esa información para el bien de nuestros
negocios y para el bien en última instancia en la sociedad.
Y ya hablaremos un poco más de esto, porque esto tiene su lado –
digámoslo así- oscuro y eso está relacionado con ciertas tendencias
en ciertos reguladores de los que hablaremos.
Hablamos de las tendencias, también en una ponencia hoy en la
mañana, hablamos de las tendencias de la tecnología en 2016
relacionadas con la industria y nos queda muy claro que lo que está
sucediendo nos lleva a pensar en una forma de trabajar que está
enfocada, jalada, movida, empujada, como ustedes quieran por los
datos y esto tiene que ver con lo que acabamos de decir; aquí está
nuestro combustible en esta nueva era digital.
¿Este combustible qué hace también? Lo que nos permite es que
entonces toda esa transparencia y liquidez que nos proporciona las
nuevas tecnologías digitales la podemos transitar, la podemos
convertir en valor gracias a los análisis que podemos hacer con esos
datos. Pero también no está exento de riesgos, produce riesgos,
produce responsabilidades, produce oportunidades, oportunidades de
cuantificar riesgos, de diseñar nuevos productos, de mitigar los propios
riesgos y esa última parte de la primera cita, observar directamente el
comportamiento del consumidor.
O sea, aquí podríamos recuperar también un viejo concepto, aquel
concepto de la aldea global, muchas veces hablando de los problemas
que genera Big Data escuchamos que hay preocupación al respecto
de la privacidad. Lo que me gusta decir algunas veces es que en
realidad nuestro mundo es un mundo en el que el concepto de la
sociedad industrial tradicional al respecto de la privacidad va a
terminar por desaparecer, vamos a terminar regresando a aquella
aldea en la cual todos sabíamos todo al respecto de todos nuestros
vecinos, no había ningún lugar a dónde ir a pasar el fin de semana que
fuera distinto, no había ninguna discoteca a la cual meterse un viernes
para tratar de salirse de la rutina del día a día, todos sabían
absolutamente todo lo que hacíamos, en nuestro mundo digital, en
nuestro nuevo mundo, en nuestra aldea global fusionada por esta
tecnología digital, también en última instancia todos vamos a poder
saber todo al respecto de todos.
De vuelta, eso tiene peligros por supuesto y a todos nosotros que
nacimos en la era de la privacidad y esta sociedad industrial tradicional
nos incomoda escuchar esto, pero la realidad es que no se le puede
poner puertas al campo y yo creo que vamos para allá.
En el pasado habían asimetrías de información, en el presente
observamos como digo las cosas de manera directa. ¿Y esto a dónde
nos va a llevar? Nos va a llevar a una disrupción de todas las formas
en las cuales convivimos entre nosotros, tomamos decisiones, nos
tomamos tiempo libre, producimos, en fin; toda la vida social, política,
cultural, económica va a terminar siendo agitada por estas tendencias.
En concreto, en lo que se refiere también a la industria aseguradora
cara a estos peligros, vemos ya entidades regulatorias como la entidad
regulatoria de Reino Unido moviéndose de una manera decidida con
gran conocimiento de causa además, de leer todos estos papers y
estas convocatorias me ha ilustrado mucho al respecto de hasta qué
punto han permeado estas ideas, incluso la mente del regulador que
como sabemos también tiene la mente bien puesta y bien fija en esas
tendencias que están transformando a la industria.
Y lo que podemos leer, consultando esta publicación de la autoridad a
la conducta financiera del Reino Unido, es que es evidente el
incremento de Big Data, es tan importante el incremento de la
utilización de Big Data que ya es necesario que se pongan recursos
especializados para tratar de resolver las interrogantes más profundas
relacionadas con esto.
¿En qué sector? Si nos preguntamos en el sector financiero en
general, servicios financieros, ¿en qué sector, cuál sector elegiríamos?
Y lo que dice la autoridad regulatoria del Reino Unido es que el sector
idóneo para estudiar esto, porque es el sector donde hay más datos,
es el sector en donde se puede tener también un efecto más
transformador sobre la configuración de los productos y la
configuración de la relación entre la institución y el cliente es el sector
asegurador.
Y es entonces sobre esto, sobre lo cual además la autoridad
regulatoria lo que hace es enfocarse en la evaluación de la cadena
completa, porque toda la cadena se transforma por la utilización de Big
Data Analytics, desde el diseño de los productos, a la suscripción, al
marketing, a la distribución, a la evaluación y procesamiento de
reclamaciones.
Y escuchamos también este otro, porque me parece muy interesante,
¿en dónde se generan estos datos? ¿Por qué dice la autoridad
regulatoria que hay tantos datos en este sector? Pues porque los
dispositivos están absolutamente en todos lados. Y aquí la lista es
bastante más extensa en el documento original, pero lo que traté de
hacer ahí fue una pequeña síntesis para que se den cuenta nada más
del nivel de detalle con el cual estamos pensando también en la
integración de datos de fuentes distintas, que es uno de los retos más
relevantes igual de los Big Data Analytics, y que hace muy poco
tiempo muchas de esas fuentes eran inaccesibles y cuando eran
accesibles el trabajo humano necesario para estructurarlas,
procesarlas y analizarlas era tan grande, tan costoso que entonces
podíamos decir que básicamente nadie llevaba a cabo este tipo de
acciones, al menos no en un mercado de carácter masivo.
¿Pero hoy por qué lo podemos hacer? Porque está automatizado,
porque si la información no está estructurada la podemos estructurar,
no me importa que se trate de un video, de una foto, de un tuit, de la
lectura de un RFID como este RFID que nos leen cuando entramos al
salón plenario, etcétera.
O sea, todo esto igual ya no lo tiene que hacer una persona en
realidad back office, todo esto se hace gracias a la aplicación de
nueva tecnología que en última instancia también implica la utilización
de algoritmos integrados en los sistemas.
Los tres interrogantes, creo que son los mismos tres interrogantes que
tenemos como industria, cómo va a afectar esto a los resultados de los
consumidores; o sea, si podemos agregar valor al cliente, si esto
agregará en última instancia valor al cliente seguramente también
vamos a seguir en ese camino.
¿Cómo va a promover o restringir la competencia? La autoridad
regulatoria, yo aquí hago una lectura del lado contrario –digámoslo
así- de la preocupación de la autoridad, la autoridad regulatoria está
preocupada de que la competencia sería de alguna manera excluida,
de que la capacidad de Big Data Analytics se convierta en una nueva
barrera de entrada que excluya de la competencia a muchos
jugadores.
A mí me parece que también haciendo la otra lectura lo que
tendríamos que decir nosotros es qué tanto estamos nosotros
asegurando que no vamos a ser algunos de esos jugadores excluidos
si no logramos desarrollar nuestras capacidades de Big Data de una
manera inteligente y a tiempo.
Y lo último es cómo afecta el marco regulatorio actual al desarrollo de
los Big Data Analytics, y aquí incluso la lectura de la autoridad es de
alguna manera positiva de cara a la industria; o sea, yo cómo puedo
ayudar a que efectivamente la utilización de Big Data venga en
beneficio en desarrollo de la industria porque viene en beneficio
también del desarrollo de propuestas de valor beneficiosas para los
clientes.
Y aquí ya tratamos básicamente de estos, que este pilar fundamental
de la visión tecnológica hacia el 2016, que es el enfoque en los datos,
y estas otras cuatro grandes tendencias tecnológicas: la
automatización, la generación igual de plataformas en las cuales se da
la integración de la información y la utilización de la información, la
disrupción y las cuestiones relacionadas igual con la confianza.
Bueno, aquí les quiero contar un caso, le llamé a esto avance de la
ciencia de datos y específicamente creo que es un caso apto para
entenderse como un caso de ciencia de datos, porque empieza
además en el ámbito de la academia; el caso se desarrolla gracias a la
colaboración que tiene Accenture con el AMT, y a la colaboración con
un cliente que llega a la mesa de este consorcio de investigación
sobre Big Data que tenemos con AMT a plantear un problema, que es
un problema común –digámoslo así- para la industria.
Y eso es lo que precisamente busca hacer este consorcio, lo que
busca es encontrar problemas concretos, específicos, relacionados
con ciencia de datos, ciencia de datos es la aplicación de Big Data
Analytics igual también en el ámbito de los negocios, le llamamos
ciencia de datos porque una de las cosas fundamentales que
buscamos hacer es plantear muy claramente la hipótesis, yo traduzco
esa idea de hipótesis que es quizás demasiado académica, por la idea
de reto de negocio, plantear muy claramente cuál es el reto de negocio
que tenemos, mientras más concreta y pequeña sea la hipótesis, más
fácil es contrastarla empíricamente, o sea, probarla con datos.
Entonces, en ese mismo camino así es como trabajamos,
encontramos una hipótesis que pueda ayudar a la industria en su
conjunto, encontramos en ese sentido, armamos un equipo en el cual
hay profesores, en el cual hay gente del equipo de Analytics Accenture
y hay gente del equipo de análisis y del equipo de negocio, en este
caso de nuestro colaborador por parte de la industria y lo que
hacemos es empezar a trabajar en resolver con el enfoque de la
ciencia ese problema.
¿Cuál es el problema? Es una empresa que quizás muchos conozcan,
lo que necesitaba era evaluar la exposición al riesgo producido por
desgaste, hablando en estos términos más técnicos de attrition, o sea,
son riesgos no relacionados con catástrofes naturales que pudieran
implicar daños a la propiedad e interrupción de negocio del cliente a
asegurar.
Entonces, el tema es valorar el riesgo para clientes de este estilo que
pueden ser clientes grandes, que tienen muchas locaciones en
muchas partes del mundo es un problema, es un problema técnico
complejo.
¿Qué es lo que hacemos con un problema de ese estilo?
Normalmente lo que hacemos es que utilizamos alguna técnica un
poco más tradicional, buscamos hacer una muestra, esa muestra
puede tener distintos criterios, sobre esa muestra tratamos de obtener
información.
No sé si ven en el ejemplo igual en la forma tradicional de hacer las
cosas seguimos de alguna manera pensando en un mundo de
escasez de información. Entonces, tenemos que ir a obtener, a
realizar de alguna forma la inversión, en este caso es del gasto, de
obtener información que nos permita contar con una cierta evaluación
al respecto del riesgo que pueden tener esas locaciones y después
tenemos que tratar de apegarnos a una metodología que nos permita
expandir esa evaluación del riesgo al conjunto de alguna forma de las
instalaciones y de las operaciones del cliente. Así es como trabajamos
tradicionalmente.
Entonces, ¿qué es lo que nos pusimos a hacer en términos de ciencia
de datos? Primero la parte de la situación, trabajando con el método
tradicional terminamos teniendo a veces, si analizamos las cosas más
a detalle terminamos teniendo a veces resultados muy pobres, este es
el ajuste de este modelo, aquí hay tres niveles, se clasifica una base
de datos completa en función del volumen de las pérdidas incurridas
por distintos clientes a lo largo del tiempo y se compara contra el tipo
de calificación que habían tenido estos tres tipos de clientes, y como
ven ustedes prácticamente no hay ninguna relación.
Entonces, el número de visitas de ingeniería con expertos que hicimos
a una muestra al final en términos de lo que la información me está
proporcionando, lo que me dice este análisis es que prácticamente no
tiene ningún valor.
Qué sucede si nos apalancamos más en datos que ya existen, si
tratamos de encontrar datos y tratamos de ver en esos datos a través
de la aplicación de modelos avanzados algún patrón que nos permita
cambiar de alguna manera el juego y contar con una calificación de
riesgo que sea más potente.
Entonces, no nos basamos en reportes de ingeniería, visitas
especializadas, pero buscamos efectivamente proporcionar y eso es lo
que se logró, proporcionar un modelo más adecuado, y esto en dos
dimensiones, tanto en la predicción necesaria para el proceso de
suscripción, como en la predicción final al respecto de riesgos
rentables y no rentables.
Y aquí les explico estos dos modelos y cómo se comparan contra el
modelo original que era este. Este modelo original lo que nos dice
como estábamos comentando es que la información que tengo con
mis visitas directas no me ayuda a tomar ninguna mejor decisión, lo
cual quiere decir también que estoy encareciendo las primas para
todos los clientes en su conjunto.
El modelo, un modelo puramente estadístico lo que permite entonces
es predecir con mucha mejor certeza el nivel de pérdidas futuras de
los distintos clientes evaluados, y lo que vemos también es que incluso
podemos predecir con la aplicación de estos modelos la rentabilidad
que vamos a terminar obteniendo de un determinado proceso con
“ene” número de clientes.
Entonces, ¿qué logramos aplicando ciencia de datos? Logramos hacer
las cosas de una manera más rápida, más barata y mejor también en
términos de la certeza a la que nos estamos enfrentando.
Esto no es posible sin dos conceptos que hemos hablado igual y
repetido muchas veces el día de hoy, sin Big Data y sin en concreto
técnicas avanzadas de Machine Learning, en donde hacemos un
diseño prácticamente experimental y otra vez pensando en ciencia de
datos, prácticamente experimental, si yo soy capaz de predecir ciertas
cosas que sucedieron en el pasado, cómo eso en un set de pruebas
se va a trasladar, cómo eso en el set de trabajo se va a trasladar en un
luego set de prueba.
Entonces, aplicamos análisis avanzado pero también diría otras dos
cosas que son fundamentales y después cualquier organización quiere
realmente hacer Big Data Analytics y sacar provecho en el mundo real
y en el negocio.
Alineamos objetivos relevantes, porque aquí había mucho dinero
gastado y había muy pocos resultados de ese dinero gastado de las
inspecciones, con un diseño incluso metodológico que fuera relevante
para el negocio en el sentido de que en el proceso de la suscripción
pudiera efectivamente replicarse.
¿Qué sigue? Pues lo que sigue es que esto se pueda embeber en los
sistemas, porque si no está embebido en los sistemas con los cuales
opera la institución pues otra vez no queda más que en un bonito
estudio académico y que esto además implique una transformación de
carácter cultural en las personas y en las decisiones de negocio que
se tienen que tomar para poder implementar cambios a partir de
aprendizajes relacionados con Analytics.
Bueno, voy al siguiente, que es un caso que también tiene que ver con
la eficiencia, en este caso de la prevención y detención de fraudes,
también tiene que ver en cierto sentido con la evaluación de riesgo, en
este caso no para el proceso de suscripción, sí para el proceso de
gestión de las reclamaciones, y lo que vemos es cómo tenemos un
modelo, los falsos positivos; lo que hicimos aquí fue también de vuelta,
es la misma lógica del pensamiento científico, no es porque digamos
que el análisis es más sofisticado, no por eso vamos a suponer que es
mejor, hay que tener evidencias y pruebas de esto.
Y lo que se decidió hacer en este caso fue correr durante un tiempo
determinado un modelo, o sea, seguir corriendo un modelo basado
solamente en reglas de carácter discreto, o sea, una serie de reglas de
negocio basadas en la experiencia versus un modelo basado en
ciencia de datos y análisis avanzado con datos enriquecidos gracias a
Big Data, o sea, datos que provienen igual de análisis de redes
sociales y datos que provienen de otras fuentes.
Con esto, ¿qué es lo que se logra? Pues la comparación es muy clara,
se logra una eficiencia mucho mayor porque las decisiones humanas
están apoyadas también en análisis avanzado que a su vez está
haciendo uso de grandes series de datos de fuentes diversas que
sabemos que existen pero que solamente podemos integrar al proceso
si están embebidas dentro de la lógica de un sistema que está además
relacionado con la manera en la cual operamos. O sea, esto está
convertido en un flujo de datos junto a un proceso de negocio que
habilita una toma de decisiones de carácter continuada en una
plataforma. Resultado de negocio concreto, 48.6 por ciento más de
eficiencia en lo que se refiere a investigación de fraudes que fueron
encontrados como tal en esa misma corrida de tres trimestres, en la
cual evidentemente después de tener estos datos ya no vale la pena
seguir haciendo la prueba, lo que hay que hacer es seguir operando y
tratar de ver cuál es el reto en términos de mejoras continuas en el
futuro.
Este es el último tema, me parece que vamos más o menos bien en
tiempo.
La idea que les quiero compartir aquí es que hay una serie de retos
que podemos entender y que podemos gestionar de una manera muy
clara para poder competir en este mundo de Big Data Analytics, y el
enfoque desde mi punto de vista tiene que estar en la manera en la
cual automatizamos, integramos en una plataforma tres cosas: la
combinación de múltiples fuentes de datos, estructuradas y no
estructuradas, si no hacemos un esfuerzo por integrar fuentes de
datos no estructuradas a nuestros análisis no estamos realmente en la
era de Big Data y, sin embargo, déjenme decirles esto otro, si no
empezamos por analizar con esta lógica científica ni siquiera los datos
estructurados que ya tenemos dentro de nuestros sistemas, también
tampoco pensemos que vamos a poder dar el brinco. Esa es la
primera cosa.
La segunda es la capacidad para analizar eficazmente datos variados
y datos complejos, variados y complejos no solamente porque algunos
de estos no están estructurados y hay que convertirlos entonces en
datos que sea posible analizar con algoritmos y modelos avanzados,
sino incluso cuando hablamos de fuentes transaccionales de todo el
trabajo que tenemos que hacer para unir lo que hoy en día puede
estar en silos distintos para reestructurar lo que hoy en día puede
estar en estructuras diferentes porque están los sistemas hechos no
para el análisis que responde a una pregunta de negocio, sino muchas
veces para soportar una determinada transacción.
Y como tal entonces podemos ver a veces reportes coleccionados en
donde los datos están agregados y en donde no podemos llegar a
convertir en realidad la promesa del Big Data.
Y la tercera es la capacidad para desplegar acciones habilitados por
Analytics en el Frontline, y esto tiene mucho que ver con estas dos
grandes tendencias de las que ya hablamos, con la automatización y
con la integración dentro de una plataforma.
Aquí decimos que la industria aseguradora está liderando la obtención
de valor real de negocio a partir del volumen, velocidad y variedad de
conjuntos masivos de datos y la razón, y esto lo dice un miembro
prominente de la industria especializado en esto, es simplemente
porque Big Data de hecho funciona.
Ya no es una promesa como lo era quizás hace tres años en donde se
empezó a poner de moda, pero nadie realmente sabía de qué se
trataba ni cómo se comía, ya es algo que está funcionando en una
infinidad igual de casos concretos.
Tengo que decir también al respecto de esto que la industria
aseguradora no fue dentro de los servicios financieros la líder en el
desarrollo de Big Data Analytics, entró un poco tarde, pero así como
entró un poco tarde está avanzando muchísimo más rápido que el
resto de las instituciones en el sector financiero.
Por último, los retos. Regresaría igual al estudio que les presentamos
hoy por la mañana, ¿el reto curiosamente cuál termina siendo? El reto
de la gente.
Por ahí tenía yo un dato que quizá alguno de ustedes leyó,
básicamente estamos hablando de 260 mil personas que a finales del
2015 hacían falta en la industria aseguradora en Estados Unidos, que
no nos quepa duda, va a seguir habiendo una demanda enorme de
talento relacionado con Big Data y Analytics simple y sencillamente
porque este tipo de talento se tiene que reinventar, se tiene que formar
a veces.
Pero regreso al tema de que estamos hablando de tecnología y en
última instancia terminamos hablando de gente, a mí me parece que
efectivamente ese es el reto más grande, porque que técnicamente,
que científicamente es posible, no me cabe la menor duda, pero la
cultura tiene que cambiar si queremos que efectivamente Big Data dé
resultado.
Se pueden encontrar muchos hallazgos, pero resultados de negocios
se dan solamente cuando se transforma la cultura y se trasforman los
procesos preestablecidos, de tal manera que las decisiones en el
Frontline –como decíamos- se tomen efectivamente propulsadas por la
fuerza de los analíticos, y si somos capaces de colaborar, de
aprovechar el
colaboración.
potencial
que
tenemos
de
generar
redes
de
Bueno, esto es básicamente lo que tenía que compartirles el día de
hoy.
Si alguien tiene alguna pregunta me encantaría poder intentar
contestarla.
Pregunta: ¿Todos esos casos que presentaron se han analizado en
México?
Juan Pablo Llamas: Los dos casos que presenté en concreto, no.
Pregunta: Me gustaría saber qué es el impacto real de los beneficios
un poco, porque es verdad lo que dice usted, el Big Data es también
una gran posibilidad de invertir mucho dinero sin beneficios concretos,
está un poco escéptico todavía pero con los beneficios y valores se
puede convencer.
Juan Pablo Llamas: Muchas gracias por la pregunta, me parece muy
buena pregunta. De hecho me encanta el escepticismo, soy un
escéptico por naturaleza porque me parece que igual un científico
debe, y no es que yo, quizás demasiado, pero sí me dedico a la
ciencia de datos, entonces terminaré diciendo que sí aspiro a ser
científico, sí, o sea hay que partir de ahí y hay que partir también de
otro principio, hay que partir de la necesidad de cuantificar los
beneficios esperados y además de cuantificar en la medida de lo
posible cuál es la razón por la cual esperamos esos beneficios.
Desde mi punto de vista y en mi experiencia los proyectos que de
manera nativa hacen eso, proyectos de mejora y de transformación
que de manera connatural hacen eso son los proyectos de Big Data
Analytics.
Ahora también, ¡ojo!, porque Big Data es un tema nuevo, hay mucha
gente que no tiene necesariamente experiencia pero que ha leído tres
o cuatro cosas y que tampoco se trata de meterse a Big Data por
meterse a Big Data. Precisamente porque creemos en el poder de los
analíticos hay que ser muy puntuales a la hora de plantear el alcance,
los beneficios esperados y la causalidad –digámoslo así- interna de las
palancas que se tienen que mover para que un producto de Big Data
efectivamente sea exitoso.
Pregunta: En tono de Big Data y de tener a los especialistas y tener
una cultura de Analytic y cuantitativa, cuál es su visión o qué aconseja
a los clientes, porque la decisión es entre México Buy, o bien, me
busco a esos especialistas y los contrato en mi compañía y lo tengo
aquí o me voy con una compañía que tiene mucha experiencia, que
tiene la gente ahí y lo pago.
Y no sé, en su opinión, en qué punto vale la pena invertirlo en la
compañía y hasta dónde es mejor como orientarlo o pagarlo por el
servicio.
Juan Pablo Llamas: Esas preguntas son básicas que conforman una
estrategia relacionada con Big Data.
Yo lo primero que aconsejaría es que se desarrolle una estrategia de
manera formal. ¿Y por qué? Porque eso suena también que puede ser
un ejercicio un poco como en el aire, pero la realidad es que se puede
hacer de una manera muy enfocada y hay que buscar hacer un
ejercicio en el cual además todos los implicados, y esto es importante
igual subrayarlo, en una organización para hablar de una iniciativa de
Big Data Analytics que tenga realmente futuro, que sea
trasformacional, todos tienen que estar implicados, todos los líderes de
primer nivel tienen que poner su compromiso en hacer que las cosas
pasen porque cambia absolutamente, o sea, no cambia todo pero hay
cambios en todo lo que hacemos. Y es eso, es cómo ayudamos a la
organización a adquirir unos nuevos lentes solamente con el
convencimiento de todos de que efectivamente los vamos a usar y los
vamos a usar todos para ver el mundo del mismo color.
Entonces, plantear una estrategia que implica, entre otras cosas,
pensar cuál es el modelo operativo que para el caso específico de la
capacidad analítica que cumple para una organización determinada
con una determinada tecnología, con unas determinadas aspiraciones
y con una determinada capacidad.
Son preguntas estratégicas en las cuales yo no recomendaría
tampoco comenzar, eso no necesariamente tiene que ver con plantear
muy claramente cuáles son los beneficios y cuáles son las palancas,
esto es previo, pero es algo que se puede hacer de una manera muy
ágil y yo recomendaría que se haga para efectivamente plantear esa
visión y convertirla en algo ejecutivo y no en un término más que está
de moda.
Pregunta: Está relacionada con la pregunta que hacía, cuando haces
una estratégica para todo esto analítica, te enfrentas a capacidades en
tu negocio; tienes aspectos de negocio, tienes aspectos en tecnología,
pero de repente te faltan los científicos de datos o aspectos en
estadística, matemáticas.
Y luego estas personas de repente no tienen conocimiento del negocio
y después de esto hay que comprar las herramientas tecnológicas
para explotar Big Data y se te vuelve una inversión millonaria.
La pregunta concreta aquí, dado este contexto, qué tan efectivo en tu
experiencia puede ser una estrategia que esté basado en Analytics
hacia Services.
Juan Pablo Llamas: En mi experiencia yo creo que es uno de los
caminos a probar, porque es un camino con el cual puedes no entrar
en un compromiso que implica efectivamente muchos temas, tanto
financieros como de adquisición y gestión igual de activos, como de
atracción y retención de talento, que además es escaso.
Efectivamente yo creo que es un camino que se puede considerar,
que incluso se puede considerar como un muy buen primer paso
porque no tienes en última instancia también un compromiso que
necesariamente es un compromiso de gran plazo.
Nada más una última cosa, es sobre este mismo, lo que te diría es que
precisamente por eso que dices el Data Scientist es considerado
también como una especie de bicho raro; o sea, tiene que tener
capacidades de comunicación ejecutiva, capacidades de análisis
avanzado y capacidades tecnológicas. Las tres cosas normalmente
viven muy separadas una de las otras.
Pregunta: Dos comentarios; bueno, uno es una pregunta y el otro es
comentario hacia la persona que hizo la otra pregunta.
De una manera en la que siempre se comenta que se puede integrar a
un estadístico es justamente como irlo involucrando poco a poco en
las áreas, pero desde la perspectiva de mejora continua, en algunas
empresas se manejan ese tipo de áreas en las que se involucran
todos esos perfiles que justamente como que empiezan a tener esa
sinergia hacia ese tipo de impacto en analítica.
Hay bancos en los que justamente hay áreas de ese tipo, en algún
momento yo estuve en alguna y aunque yo era la parte de estadística,
toda la parte de aplicación o de cómo llevarla al negocio era la parte
de sistemas, entonces estábamos muy comunicados.
El reto más grande de todo lo que se hizo fue implementar el modelo
que se había hecho al sistema y que se quedara en el sistema sin
tantos problemas. Ese es el gran salto real.
Ahora, el segundo. Dentro de los primeros pasos, que a lo mejor
podría ser muy fructífero es que muchas veces ya tenemos datos, esta
parte me encanta de cómo aumentar los datos, pero la pregunta aquí
sería cómo dar los primeros pasos hacia decisiones analíticas, es
mejor aventarnos a lo grande o empezar a ver nuestros datos cómo
utilizarlos, porque nosotros generamos como todas las industrias
generamos muchos datos y muchas veces ya las tenemos ahí.
Entonces, ¿cuál sería el mejor paso, utilizarlos o ya irnos hacia la
otra?
Juan Pablo Llamas: Muchas gracias por el comentario y la pregunta,
totalmente de acuerdo. Te diría que otra vez depende, si ya has
llevado a cabo actividades, iniciativas, analíticas ya existe una cultura,
ya existe un compromiso, etcétera, pues me parece que dependiendo
del problema del negocio o del reto que estás atendiendo puedes
pensar en enriquecer los datos o puedes pensar en analizar los datos
que tienes. El negocio es el que manda, o sea, cuál es la manera más
práctica y más sencilla de conseguir más valor, cuál es la manera más
eficiente de operar, con Analytics para generar valor tangible y real a
la empresa. Yo creo que eso es lo primero que tenemos que
responder, porque desde el punto de vista de un científico de datos
está padrísimo, vamos a seguir haciendo ingesta de datos y por qué
no metemos datos también de los periódicos locales que ya están en
internet en los últimos cinco años y por qué no metemos datos que
vienen también de este otro sistema y ya tengo una APP para hacer
“X”, “Y” o “Z”.
O sea, si el negocio no plantea la pregunta y la información que vas a
obtener no es información necesaria para responderla, yo recomiendo
no seguir por ese camino.
Bueno, me parece que esto es todo. Les agradezco mucha su
atención y los invito a ver la presentación de la Transformación digital
en acción, que nos dará Martín Folino a continuación.
Gracias.
- - -o0o- - -
Descargar