Ciudad de México, 19 de abril de 2016. Versión estenográfica de la Sesión Especializada Accenture, “Análisis de Información generador de eficiencias en el margen de los productos”, ofrecida por Juan Pablo Llamas, durante el Primer Día de Trabajos de la 26 Convención de Aseguradores de la Asociación Mexicana de Instituciones de Seguros, llevada a cabo en la Sala Montejo 3, del Centro Banamex de esta ciudad. Juan Pablo Llamas: (Fallas de audio) …Infinidad de retos de carácter práctico. Hablábamos de terabytes, cuando hablábamos de terabytes hay incluso una empresa muy famosa en el ámbito de Big Data, que sigue siendo en cierto sentido líder en muchos aspectos que le puso un nombre visionario a la empresa hablando de teras, y resulta que los teras ya son cosa del pasado y ahora estamos hablando más bien de zettabytes. Y la realidad es que precisamente por la ley, en este caso de crader, del almacenamiento, pues resulta que los zettabytes también son cosa de quizás el presente y dentro de muy poco tiempo serán cosa del pasado. Me detengo un segundo a hablar de las leyes tecnológicas. La primera que les había mencionado es la Ley de Moore, Moore es el fundador de Intel, que me acaban de comentar que está despidiendo a 12 mil personas o acaba de decidir despedir a 12 mil personas porque no llegó a sus objetivos en el último reporte de bolsa; pero no cabe duda que Intel es una de esas empresas visionarias que han cambiado el mundo. Lo que dice Moore es que aproximadamente cada 18 meses se duplica la capacidad de procesamiento de los microprocesadores. Si pensamos en que esa función es una función continuada a lo largo del tiempo tenemos bien claro que ante lo que nos encontramos es ante una exponencial y eso es lo que está sucediendo con la tecnología en general. La de Moore es la primera de estas leyes, las otras tres leyes hablan básicamente de lo mismo, estamos en un mundo en el que la tecnología está exponenciando todos nuestros procesos de generación, almacenamiento, procesamiento, distribución, utilización en última instancia de información. La Ley de Cado, la ley del almacenamiento lo mismo nos dice algo que vivimos todos, comprar un disco de un tera hace 10 años era algo que estaba solamente en manos o de instituciones, de hecho, que tuvieran realmente muchos recursos, hoy me parece que se puede conseguir en cualquier Best Buy por un precio bastante razonable, y esto no se va a detener, simplemente va a seguir también su ritmo porque adicionalmente a esto podemos comunicar grandes volúmenes de información cuando seguramente muchos de nosotros empezamos a escuchar a hablar de lo que era una videoconferencia o tuvimos nuestra primera experiencia con una videoconferencia, tuvimos muchos problemas relacionados con el ancho de banda, como sabemos esto ya también es cosa prácticamente del pasado, lo único que podemos esperar es que hacia el futuro se siga exponenciando o sigamos con una velocidad exponencial en el crecimiento de la capacidad del ancho de banda. La última, la ley de Metcalfe es una ley interesante porque de lo que habla es de la conectividad. A mí me gusta relacionarla también con el poder que tenemos igual como seres humanos en sociedad gracias a la posibilidad de colaborar entre nosotros, esto es y diría mucho más que exponencial, porque lo que dice Metcalfe es que el poder de una red o la capacidad de una red es igual al cuadrado de todos los vínculos posibles entre sus nodos. Entonces, eso realmente nos habla de algo que es enorme y es pensando en que podemos hacer eso y que eso está conectado a través de anchos de banda que están creciendo exponencialmente con capacidades de almacenamiento que ya prácticamente hoy no tiene límite, que cada vez tienen menos costo y con capacidades también de almacenamiento y de procesamiento, esas dos que están en ese caso nos lleva a este nuevo mundo en el que podemos hacer muchas cosas como las que hemos hablado durante la mañana y sobre las que abundaremos un poquito en ciertos detalles el día de hoy. Hablando de esto me parece que también es interesante ver estas dos consultas que hice ayer en Google Trends, de estos dos términos, el término Big Data si lo vemos aquí en 2009 esto prácticamente no existe, el término Analytics aquí también lo tenemos despegando prácticamente en el 2011; en los dos casos lo que estamos viendo es un interés exponenciado y esto es, como saben, a nivel global. Ya si nos metemos un poco más al análisis en los propios Google Trends vemos que es el mundo desarrollado aquel en el que más interés han concitado estos dos conceptos, sin embargo me parece que también podemos ver cómo se están moviendo las cosas de geografía y ya no solamente estamos hablando de Estados Unidos, Canadá y Europa, sino que estamos viendo muchos otros sitios en el mundo en el que estos conceptos están cobrando interés y que se están llevando a la práctica de la mano también del poder de los análisis que se pueden llevar a cabo sobre los datos. El análisis se aplica hoy, este análisis avanzado, sobre grandes cantidades de datos que hace muy poco tiempo eran escasos, se aplica prácticamente a todas las funciones del negocio, desde el marketing a las ventas, a la gestión de la lealtad, a la evaluación y gestión de riesgos, al control y prevención del fraude, a la eficiencia de las operaciones, en prácticamente todos los sectores industriales, incluso los recursos humanos, y esto es porque los datos son el combustible del mundo digital. Cuando decimos que son el combustible del mundo digital es porque todo lo que logramos con la interacción, con la movilidad, con las nuevas capacidades de almacenamiento y de procesamiento sería en cierto sentido menos valioso y poco útil, en última instancia, de no ser porque tenemos análisis detrás, desde el análisis más simple y la aplicación de reglas de carácter discreto, que lo que hacen es generar determinadas acciones automáticas o generar alertas en función de reglas preestablecidas, hasta la aplicación de algoritmos como aquellos de los que hablamos igual durante la mañana, algoritmos que están ya embebidos en los sistemas y que de manera automatizada están recopilando información, procesando esa información, derivando una serie de conclusiones y generando incluso procedimientos de aprendizaje de máquina. Podemos decir aquí que las empresas reconocen que esto está sucediendo, pero la realidad también es que sigue siendo bastante complejo entender cómo sacar provecho del mundo de datos, del mar de datos en el que muy fácilmente nos podemos ahogar, porque los datos hoy se puede decir que son prácticamente limitados, pero los datos –como ustedes saben- si no responden a una pregunta concreta de negociación no sirven en realidad para nada. A mí me gusta pensar en ese sentido que más bien hay que comenzar al revés, comenzar en el final y no en el origen de los datos a los que podemos tener acceso, sino en aquellas decisiones o en aquellos procesos concretos específicos de negocio que queremos mejorar para entonces regresar hacia atrás a ver cuáles son los datos que tenemos y cuáles deberían de ser tanto los análisis que debemos llevar a cabo, como los sistemas a través de los cuales debemos de procesar esos datos o de distribuir los resultados de los análisis. ¿Cuáles son las implicaciones de estas tendencias, que son tendencias de carácter general para la industria? Lo primero de lo que podemos hablar aquí es en realidad también la industria nace, así como hablamos de una industria que nace en torno al análisis de datos a la probabilidad y a la predicción, la industria nace también y diseña prácticamente todos sus procesos para un mundo d escasez de información, y ese mundo de escasez de información simple y sencillamente se acabó. Hoy en día más bien lo que tenemos es prácticamente todo lo contrario, si bien pudiéramos pensar en un momento del negocio hace 10, 15 años, en el que invertíamos una cantidad muy relevante de dinero en obtener nueva información al respecto de las personas y de los sucesos, resulta que hoy prácticamente esa información nos está inundando. Lo que dice aquí este grupo de Master in data science es que la riqueza de datos a los que tiene acceso la industria aseguradora hoy en día es casi vergonzosa, en el sentido de que podemos, si lo queremos así, contestar mejor a prácticamente cualquier pregunta, incluso que los individuos relacionados con el problema del que estamos hablando, y alguien ponía un ejemplo de esto por la mañana, me parece que en la ponencia de Garner escuchábamos igual hablar de esta situación que en última instancia nos confronta una disyuntiva ética, podemos seguir utilizando la información, podemos saber más al respecto del futuro de las personas en términos de su saludo, en términos de su seguridad como conductores y quedarnos sin actuar al respecto de ese fenómeno, la realidad es que sí podemos saber más que ellos, la realidad es que ahora sí tenemos una cantidad enorme de información y habría que preguntarnos qué tanto realmente somos responsables de organizar esa información para el bien de nuestros negocios y para el bien en última instancia en la sociedad. Y ya hablaremos un poco más de esto, porque esto tiene su lado – digámoslo así- oscuro y eso está relacionado con ciertas tendencias en ciertos reguladores de los que hablaremos. Hablamos de las tendencias, también en una ponencia hoy en la mañana, hablamos de las tendencias de la tecnología en 2016 relacionadas con la industria y nos queda muy claro que lo que está sucediendo nos lleva a pensar en una forma de trabajar que está enfocada, jalada, movida, empujada, como ustedes quieran por los datos y esto tiene que ver con lo que acabamos de decir; aquí está nuestro combustible en esta nueva era digital. ¿Este combustible qué hace también? Lo que nos permite es que entonces toda esa transparencia y liquidez que nos proporciona las nuevas tecnologías digitales la podemos transitar, la podemos convertir en valor gracias a los análisis que podemos hacer con esos datos. Pero también no está exento de riesgos, produce riesgos, produce responsabilidades, produce oportunidades, oportunidades de cuantificar riesgos, de diseñar nuevos productos, de mitigar los propios riesgos y esa última parte de la primera cita, observar directamente el comportamiento del consumidor. O sea, aquí podríamos recuperar también un viejo concepto, aquel concepto de la aldea global, muchas veces hablando de los problemas que genera Big Data escuchamos que hay preocupación al respecto de la privacidad. Lo que me gusta decir algunas veces es que en realidad nuestro mundo es un mundo en el que el concepto de la sociedad industrial tradicional al respecto de la privacidad va a terminar por desaparecer, vamos a terminar regresando a aquella aldea en la cual todos sabíamos todo al respecto de todos nuestros vecinos, no había ningún lugar a dónde ir a pasar el fin de semana que fuera distinto, no había ninguna discoteca a la cual meterse un viernes para tratar de salirse de la rutina del día a día, todos sabían absolutamente todo lo que hacíamos, en nuestro mundo digital, en nuestro nuevo mundo, en nuestra aldea global fusionada por esta tecnología digital, también en última instancia todos vamos a poder saber todo al respecto de todos. De vuelta, eso tiene peligros por supuesto y a todos nosotros que nacimos en la era de la privacidad y esta sociedad industrial tradicional nos incomoda escuchar esto, pero la realidad es que no se le puede poner puertas al campo y yo creo que vamos para allá. En el pasado habían asimetrías de información, en el presente observamos como digo las cosas de manera directa. ¿Y esto a dónde nos va a llevar? Nos va a llevar a una disrupción de todas las formas en las cuales convivimos entre nosotros, tomamos decisiones, nos tomamos tiempo libre, producimos, en fin; toda la vida social, política, cultural, económica va a terminar siendo agitada por estas tendencias. En concreto, en lo que se refiere también a la industria aseguradora cara a estos peligros, vemos ya entidades regulatorias como la entidad regulatoria de Reino Unido moviéndose de una manera decidida con gran conocimiento de causa además, de leer todos estos papers y estas convocatorias me ha ilustrado mucho al respecto de hasta qué punto han permeado estas ideas, incluso la mente del regulador que como sabemos también tiene la mente bien puesta y bien fija en esas tendencias que están transformando a la industria. Y lo que podemos leer, consultando esta publicación de la autoridad a la conducta financiera del Reino Unido, es que es evidente el incremento de Big Data, es tan importante el incremento de la utilización de Big Data que ya es necesario que se pongan recursos especializados para tratar de resolver las interrogantes más profundas relacionadas con esto. ¿En qué sector? Si nos preguntamos en el sector financiero en general, servicios financieros, ¿en qué sector, cuál sector elegiríamos? Y lo que dice la autoridad regulatoria del Reino Unido es que el sector idóneo para estudiar esto, porque es el sector donde hay más datos, es el sector en donde se puede tener también un efecto más transformador sobre la configuración de los productos y la configuración de la relación entre la institución y el cliente es el sector asegurador. Y es entonces sobre esto, sobre lo cual además la autoridad regulatoria lo que hace es enfocarse en la evaluación de la cadena completa, porque toda la cadena se transforma por la utilización de Big Data Analytics, desde el diseño de los productos, a la suscripción, al marketing, a la distribución, a la evaluación y procesamiento de reclamaciones. Y escuchamos también este otro, porque me parece muy interesante, ¿en dónde se generan estos datos? ¿Por qué dice la autoridad regulatoria que hay tantos datos en este sector? Pues porque los dispositivos están absolutamente en todos lados. Y aquí la lista es bastante más extensa en el documento original, pero lo que traté de hacer ahí fue una pequeña síntesis para que se den cuenta nada más del nivel de detalle con el cual estamos pensando también en la integración de datos de fuentes distintas, que es uno de los retos más relevantes igual de los Big Data Analytics, y que hace muy poco tiempo muchas de esas fuentes eran inaccesibles y cuando eran accesibles el trabajo humano necesario para estructurarlas, procesarlas y analizarlas era tan grande, tan costoso que entonces podíamos decir que básicamente nadie llevaba a cabo este tipo de acciones, al menos no en un mercado de carácter masivo. ¿Pero hoy por qué lo podemos hacer? Porque está automatizado, porque si la información no está estructurada la podemos estructurar, no me importa que se trate de un video, de una foto, de un tuit, de la lectura de un RFID como este RFID que nos leen cuando entramos al salón plenario, etcétera. O sea, todo esto igual ya no lo tiene que hacer una persona en realidad back office, todo esto se hace gracias a la aplicación de nueva tecnología que en última instancia también implica la utilización de algoritmos integrados en los sistemas. Los tres interrogantes, creo que son los mismos tres interrogantes que tenemos como industria, cómo va a afectar esto a los resultados de los consumidores; o sea, si podemos agregar valor al cliente, si esto agregará en última instancia valor al cliente seguramente también vamos a seguir en ese camino. ¿Cómo va a promover o restringir la competencia? La autoridad regulatoria, yo aquí hago una lectura del lado contrario –digámoslo así- de la preocupación de la autoridad, la autoridad regulatoria está preocupada de que la competencia sería de alguna manera excluida, de que la capacidad de Big Data Analytics se convierta en una nueva barrera de entrada que excluya de la competencia a muchos jugadores. A mí me parece que también haciendo la otra lectura lo que tendríamos que decir nosotros es qué tanto estamos nosotros asegurando que no vamos a ser algunos de esos jugadores excluidos si no logramos desarrollar nuestras capacidades de Big Data de una manera inteligente y a tiempo. Y lo último es cómo afecta el marco regulatorio actual al desarrollo de los Big Data Analytics, y aquí incluso la lectura de la autoridad es de alguna manera positiva de cara a la industria; o sea, yo cómo puedo ayudar a que efectivamente la utilización de Big Data venga en beneficio en desarrollo de la industria porque viene en beneficio también del desarrollo de propuestas de valor beneficiosas para los clientes. Y aquí ya tratamos básicamente de estos, que este pilar fundamental de la visión tecnológica hacia el 2016, que es el enfoque en los datos, y estas otras cuatro grandes tendencias tecnológicas: la automatización, la generación igual de plataformas en las cuales se da la integración de la información y la utilización de la información, la disrupción y las cuestiones relacionadas igual con la confianza. Bueno, aquí les quiero contar un caso, le llamé a esto avance de la ciencia de datos y específicamente creo que es un caso apto para entenderse como un caso de ciencia de datos, porque empieza además en el ámbito de la academia; el caso se desarrolla gracias a la colaboración que tiene Accenture con el AMT, y a la colaboración con un cliente que llega a la mesa de este consorcio de investigación sobre Big Data que tenemos con AMT a plantear un problema, que es un problema común –digámoslo así- para la industria. Y eso es lo que precisamente busca hacer este consorcio, lo que busca es encontrar problemas concretos, específicos, relacionados con ciencia de datos, ciencia de datos es la aplicación de Big Data Analytics igual también en el ámbito de los negocios, le llamamos ciencia de datos porque una de las cosas fundamentales que buscamos hacer es plantear muy claramente la hipótesis, yo traduzco esa idea de hipótesis que es quizás demasiado académica, por la idea de reto de negocio, plantear muy claramente cuál es el reto de negocio que tenemos, mientras más concreta y pequeña sea la hipótesis, más fácil es contrastarla empíricamente, o sea, probarla con datos. Entonces, en ese mismo camino así es como trabajamos, encontramos una hipótesis que pueda ayudar a la industria en su conjunto, encontramos en ese sentido, armamos un equipo en el cual hay profesores, en el cual hay gente del equipo de Analytics Accenture y hay gente del equipo de análisis y del equipo de negocio, en este caso de nuestro colaborador por parte de la industria y lo que hacemos es empezar a trabajar en resolver con el enfoque de la ciencia ese problema. ¿Cuál es el problema? Es una empresa que quizás muchos conozcan, lo que necesitaba era evaluar la exposición al riesgo producido por desgaste, hablando en estos términos más técnicos de attrition, o sea, son riesgos no relacionados con catástrofes naturales que pudieran implicar daños a la propiedad e interrupción de negocio del cliente a asegurar. Entonces, el tema es valorar el riesgo para clientes de este estilo que pueden ser clientes grandes, que tienen muchas locaciones en muchas partes del mundo es un problema, es un problema técnico complejo. ¿Qué es lo que hacemos con un problema de ese estilo? Normalmente lo que hacemos es que utilizamos alguna técnica un poco más tradicional, buscamos hacer una muestra, esa muestra puede tener distintos criterios, sobre esa muestra tratamos de obtener información. No sé si ven en el ejemplo igual en la forma tradicional de hacer las cosas seguimos de alguna manera pensando en un mundo de escasez de información. Entonces, tenemos que ir a obtener, a realizar de alguna forma la inversión, en este caso es del gasto, de obtener información que nos permita contar con una cierta evaluación al respecto del riesgo que pueden tener esas locaciones y después tenemos que tratar de apegarnos a una metodología que nos permita expandir esa evaluación del riesgo al conjunto de alguna forma de las instalaciones y de las operaciones del cliente. Así es como trabajamos tradicionalmente. Entonces, ¿qué es lo que nos pusimos a hacer en términos de ciencia de datos? Primero la parte de la situación, trabajando con el método tradicional terminamos teniendo a veces, si analizamos las cosas más a detalle terminamos teniendo a veces resultados muy pobres, este es el ajuste de este modelo, aquí hay tres niveles, se clasifica una base de datos completa en función del volumen de las pérdidas incurridas por distintos clientes a lo largo del tiempo y se compara contra el tipo de calificación que habían tenido estos tres tipos de clientes, y como ven ustedes prácticamente no hay ninguna relación. Entonces, el número de visitas de ingeniería con expertos que hicimos a una muestra al final en términos de lo que la información me está proporcionando, lo que me dice este análisis es que prácticamente no tiene ningún valor. Qué sucede si nos apalancamos más en datos que ya existen, si tratamos de encontrar datos y tratamos de ver en esos datos a través de la aplicación de modelos avanzados algún patrón que nos permita cambiar de alguna manera el juego y contar con una calificación de riesgo que sea más potente. Entonces, no nos basamos en reportes de ingeniería, visitas especializadas, pero buscamos efectivamente proporcionar y eso es lo que se logró, proporcionar un modelo más adecuado, y esto en dos dimensiones, tanto en la predicción necesaria para el proceso de suscripción, como en la predicción final al respecto de riesgos rentables y no rentables. Y aquí les explico estos dos modelos y cómo se comparan contra el modelo original que era este. Este modelo original lo que nos dice como estábamos comentando es que la información que tengo con mis visitas directas no me ayuda a tomar ninguna mejor decisión, lo cual quiere decir también que estoy encareciendo las primas para todos los clientes en su conjunto. El modelo, un modelo puramente estadístico lo que permite entonces es predecir con mucha mejor certeza el nivel de pérdidas futuras de los distintos clientes evaluados, y lo que vemos también es que incluso podemos predecir con la aplicación de estos modelos la rentabilidad que vamos a terminar obteniendo de un determinado proceso con “ene” número de clientes. Entonces, ¿qué logramos aplicando ciencia de datos? Logramos hacer las cosas de una manera más rápida, más barata y mejor también en términos de la certeza a la que nos estamos enfrentando. Esto no es posible sin dos conceptos que hemos hablado igual y repetido muchas veces el día de hoy, sin Big Data y sin en concreto técnicas avanzadas de Machine Learning, en donde hacemos un diseño prácticamente experimental y otra vez pensando en ciencia de datos, prácticamente experimental, si yo soy capaz de predecir ciertas cosas que sucedieron en el pasado, cómo eso en un set de pruebas se va a trasladar, cómo eso en el set de trabajo se va a trasladar en un luego set de prueba. Entonces, aplicamos análisis avanzado pero también diría otras dos cosas que son fundamentales y después cualquier organización quiere realmente hacer Big Data Analytics y sacar provecho en el mundo real y en el negocio. Alineamos objetivos relevantes, porque aquí había mucho dinero gastado y había muy pocos resultados de ese dinero gastado de las inspecciones, con un diseño incluso metodológico que fuera relevante para el negocio en el sentido de que en el proceso de la suscripción pudiera efectivamente replicarse. ¿Qué sigue? Pues lo que sigue es que esto se pueda embeber en los sistemas, porque si no está embebido en los sistemas con los cuales opera la institución pues otra vez no queda más que en un bonito estudio académico y que esto además implique una transformación de carácter cultural en las personas y en las decisiones de negocio que se tienen que tomar para poder implementar cambios a partir de aprendizajes relacionados con Analytics. Bueno, voy al siguiente, que es un caso que también tiene que ver con la eficiencia, en este caso de la prevención y detención de fraudes, también tiene que ver en cierto sentido con la evaluación de riesgo, en este caso no para el proceso de suscripción, sí para el proceso de gestión de las reclamaciones, y lo que vemos es cómo tenemos un modelo, los falsos positivos; lo que hicimos aquí fue también de vuelta, es la misma lógica del pensamiento científico, no es porque digamos que el análisis es más sofisticado, no por eso vamos a suponer que es mejor, hay que tener evidencias y pruebas de esto. Y lo que se decidió hacer en este caso fue correr durante un tiempo determinado un modelo, o sea, seguir corriendo un modelo basado solamente en reglas de carácter discreto, o sea, una serie de reglas de negocio basadas en la experiencia versus un modelo basado en ciencia de datos y análisis avanzado con datos enriquecidos gracias a Big Data, o sea, datos que provienen igual de análisis de redes sociales y datos que provienen de otras fuentes. Con esto, ¿qué es lo que se logra? Pues la comparación es muy clara, se logra una eficiencia mucho mayor porque las decisiones humanas están apoyadas también en análisis avanzado que a su vez está haciendo uso de grandes series de datos de fuentes diversas que sabemos que existen pero que solamente podemos integrar al proceso si están embebidas dentro de la lógica de un sistema que está además relacionado con la manera en la cual operamos. O sea, esto está convertido en un flujo de datos junto a un proceso de negocio que habilita una toma de decisiones de carácter continuada en una plataforma. Resultado de negocio concreto, 48.6 por ciento más de eficiencia en lo que se refiere a investigación de fraudes que fueron encontrados como tal en esa misma corrida de tres trimestres, en la cual evidentemente después de tener estos datos ya no vale la pena seguir haciendo la prueba, lo que hay que hacer es seguir operando y tratar de ver cuál es el reto en términos de mejoras continuas en el futuro. Este es el último tema, me parece que vamos más o menos bien en tiempo. La idea que les quiero compartir aquí es que hay una serie de retos que podemos entender y que podemos gestionar de una manera muy clara para poder competir en este mundo de Big Data Analytics, y el enfoque desde mi punto de vista tiene que estar en la manera en la cual automatizamos, integramos en una plataforma tres cosas: la combinación de múltiples fuentes de datos, estructuradas y no estructuradas, si no hacemos un esfuerzo por integrar fuentes de datos no estructuradas a nuestros análisis no estamos realmente en la era de Big Data y, sin embargo, déjenme decirles esto otro, si no empezamos por analizar con esta lógica científica ni siquiera los datos estructurados que ya tenemos dentro de nuestros sistemas, también tampoco pensemos que vamos a poder dar el brinco. Esa es la primera cosa. La segunda es la capacidad para analizar eficazmente datos variados y datos complejos, variados y complejos no solamente porque algunos de estos no están estructurados y hay que convertirlos entonces en datos que sea posible analizar con algoritmos y modelos avanzados, sino incluso cuando hablamos de fuentes transaccionales de todo el trabajo que tenemos que hacer para unir lo que hoy en día puede estar en silos distintos para reestructurar lo que hoy en día puede estar en estructuras diferentes porque están los sistemas hechos no para el análisis que responde a una pregunta de negocio, sino muchas veces para soportar una determinada transacción. Y como tal entonces podemos ver a veces reportes coleccionados en donde los datos están agregados y en donde no podemos llegar a convertir en realidad la promesa del Big Data. Y la tercera es la capacidad para desplegar acciones habilitados por Analytics en el Frontline, y esto tiene mucho que ver con estas dos grandes tendencias de las que ya hablamos, con la automatización y con la integración dentro de una plataforma. Aquí decimos que la industria aseguradora está liderando la obtención de valor real de negocio a partir del volumen, velocidad y variedad de conjuntos masivos de datos y la razón, y esto lo dice un miembro prominente de la industria especializado en esto, es simplemente porque Big Data de hecho funciona. Ya no es una promesa como lo era quizás hace tres años en donde se empezó a poner de moda, pero nadie realmente sabía de qué se trataba ni cómo se comía, ya es algo que está funcionando en una infinidad igual de casos concretos. Tengo que decir también al respecto de esto que la industria aseguradora no fue dentro de los servicios financieros la líder en el desarrollo de Big Data Analytics, entró un poco tarde, pero así como entró un poco tarde está avanzando muchísimo más rápido que el resto de las instituciones en el sector financiero. Por último, los retos. Regresaría igual al estudio que les presentamos hoy por la mañana, ¿el reto curiosamente cuál termina siendo? El reto de la gente. Por ahí tenía yo un dato que quizá alguno de ustedes leyó, básicamente estamos hablando de 260 mil personas que a finales del 2015 hacían falta en la industria aseguradora en Estados Unidos, que no nos quepa duda, va a seguir habiendo una demanda enorme de talento relacionado con Big Data y Analytics simple y sencillamente porque este tipo de talento se tiene que reinventar, se tiene que formar a veces. Pero regreso al tema de que estamos hablando de tecnología y en última instancia terminamos hablando de gente, a mí me parece que efectivamente ese es el reto más grande, porque que técnicamente, que científicamente es posible, no me cabe la menor duda, pero la cultura tiene que cambiar si queremos que efectivamente Big Data dé resultado. Se pueden encontrar muchos hallazgos, pero resultados de negocios se dan solamente cuando se transforma la cultura y se trasforman los procesos preestablecidos, de tal manera que las decisiones en el Frontline –como decíamos- se tomen efectivamente propulsadas por la fuerza de los analíticos, y si somos capaces de colaborar, de aprovechar el colaboración. potencial que tenemos de generar redes de Bueno, esto es básicamente lo que tenía que compartirles el día de hoy. Si alguien tiene alguna pregunta me encantaría poder intentar contestarla. Pregunta: ¿Todos esos casos que presentaron se han analizado en México? Juan Pablo Llamas: Los dos casos que presenté en concreto, no. Pregunta: Me gustaría saber qué es el impacto real de los beneficios un poco, porque es verdad lo que dice usted, el Big Data es también una gran posibilidad de invertir mucho dinero sin beneficios concretos, está un poco escéptico todavía pero con los beneficios y valores se puede convencer. Juan Pablo Llamas: Muchas gracias por la pregunta, me parece muy buena pregunta. De hecho me encanta el escepticismo, soy un escéptico por naturaleza porque me parece que igual un científico debe, y no es que yo, quizás demasiado, pero sí me dedico a la ciencia de datos, entonces terminaré diciendo que sí aspiro a ser científico, sí, o sea hay que partir de ahí y hay que partir también de otro principio, hay que partir de la necesidad de cuantificar los beneficios esperados y además de cuantificar en la medida de lo posible cuál es la razón por la cual esperamos esos beneficios. Desde mi punto de vista y en mi experiencia los proyectos que de manera nativa hacen eso, proyectos de mejora y de transformación que de manera connatural hacen eso son los proyectos de Big Data Analytics. Ahora también, ¡ojo!, porque Big Data es un tema nuevo, hay mucha gente que no tiene necesariamente experiencia pero que ha leído tres o cuatro cosas y que tampoco se trata de meterse a Big Data por meterse a Big Data. Precisamente porque creemos en el poder de los analíticos hay que ser muy puntuales a la hora de plantear el alcance, los beneficios esperados y la causalidad –digámoslo así- interna de las palancas que se tienen que mover para que un producto de Big Data efectivamente sea exitoso. Pregunta: En tono de Big Data y de tener a los especialistas y tener una cultura de Analytic y cuantitativa, cuál es su visión o qué aconseja a los clientes, porque la decisión es entre México Buy, o bien, me busco a esos especialistas y los contrato en mi compañía y lo tengo aquí o me voy con una compañía que tiene mucha experiencia, que tiene la gente ahí y lo pago. Y no sé, en su opinión, en qué punto vale la pena invertirlo en la compañía y hasta dónde es mejor como orientarlo o pagarlo por el servicio. Juan Pablo Llamas: Esas preguntas son básicas que conforman una estrategia relacionada con Big Data. Yo lo primero que aconsejaría es que se desarrolle una estrategia de manera formal. ¿Y por qué? Porque eso suena también que puede ser un ejercicio un poco como en el aire, pero la realidad es que se puede hacer de una manera muy enfocada y hay que buscar hacer un ejercicio en el cual además todos los implicados, y esto es importante igual subrayarlo, en una organización para hablar de una iniciativa de Big Data Analytics que tenga realmente futuro, que sea trasformacional, todos tienen que estar implicados, todos los líderes de primer nivel tienen que poner su compromiso en hacer que las cosas pasen porque cambia absolutamente, o sea, no cambia todo pero hay cambios en todo lo que hacemos. Y es eso, es cómo ayudamos a la organización a adquirir unos nuevos lentes solamente con el convencimiento de todos de que efectivamente los vamos a usar y los vamos a usar todos para ver el mundo del mismo color. Entonces, plantear una estrategia que implica, entre otras cosas, pensar cuál es el modelo operativo que para el caso específico de la capacidad analítica que cumple para una organización determinada con una determinada tecnología, con unas determinadas aspiraciones y con una determinada capacidad. Son preguntas estratégicas en las cuales yo no recomendaría tampoco comenzar, eso no necesariamente tiene que ver con plantear muy claramente cuáles son los beneficios y cuáles son las palancas, esto es previo, pero es algo que se puede hacer de una manera muy ágil y yo recomendaría que se haga para efectivamente plantear esa visión y convertirla en algo ejecutivo y no en un término más que está de moda. Pregunta: Está relacionada con la pregunta que hacía, cuando haces una estratégica para todo esto analítica, te enfrentas a capacidades en tu negocio; tienes aspectos de negocio, tienes aspectos en tecnología, pero de repente te faltan los científicos de datos o aspectos en estadística, matemáticas. Y luego estas personas de repente no tienen conocimiento del negocio y después de esto hay que comprar las herramientas tecnológicas para explotar Big Data y se te vuelve una inversión millonaria. La pregunta concreta aquí, dado este contexto, qué tan efectivo en tu experiencia puede ser una estrategia que esté basado en Analytics hacia Services. Juan Pablo Llamas: En mi experiencia yo creo que es uno de los caminos a probar, porque es un camino con el cual puedes no entrar en un compromiso que implica efectivamente muchos temas, tanto financieros como de adquisición y gestión igual de activos, como de atracción y retención de talento, que además es escaso. Efectivamente yo creo que es un camino que se puede considerar, que incluso se puede considerar como un muy buen primer paso porque no tienes en última instancia también un compromiso que necesariamente es un compromiso de gran plazo. Nada más una última cosa, es sobre este mismo, lo que te diría es que precisamente por eso que dices el Data Scientist es considerado también como una especie de bicho raro; o sea, tiene que tener capacidades de comunicación ejecutiva, capacidades de análisis avanzado y capacidades tecnológicas. Las tres cosas normalmente viven muy separadas una de las otras. Pregunta: Dos comentarios; bueno, uno es una pregunta y el otro es comentario hacia la persona que hizo la otra pregunta. De una manera en la que siempre se comenta que se puede integrar a un estadístico es justamente como irlo involucrando poco a poco en las áreas, pero desde la perspectiva de mejora continua, en algunas empresas se manejan ese tipo de áreas en las que se involucran todos esos perfiles que justamente como que empiezan a tener esa sinergia hacia ese tipo de impacto en analítica. Hay bancos en los que justamente hay áreas de ese tipo, en algún momento yo estuve en alguna y aunque yo era la parte de estadística, toda la parte de aplicación o de cómo llevarla al negocio era la parte de sistemas, entonces estábamos muy comunicados. El reto más grande de todo lo que se hizo fue implementar el modelo que se había hecho al sistema y que se quedara en el sistema sin tantos problemas. Ese es el gran salto real. Ahora, el segundo. Dentro de los primeros pasos, que a lo mejor podría ser muy fructífero es que muchas veces ya tenemos datos, esta parte me encanta de cómo aumentar los datos, pero la pregunta aquí sería cómo dar los primeros pasos hacia decisiones analíticas, es mejor aventarnos a lo grande o empezar a ver nuestros datos cómo utilizarlos, porque nosotros generamos como todas las industrias generamos muchos datos y muchas veces ya las tenemos ahí. Entonces, ¿cuál sería el mejor paso, utilizarlos o ya irnos hacia la otra? Juan Pablo Llamas: Muchas gracias por el comentario y la pregunta, totalmente de acuerdo. Te diría que otra vez depende, si ya has llevado a cabo actividades, iniciativas, analíticas ya existe una cultura, ya existe un compromiso, etcétera, pues me parece que dependiendo del problema del negocio o del reto que estás atendiendo puedes pensar en enriquecer los datos o puedes pensar en analizar los datos que tienes. El negocio es el que manda, o sea, cuál es la manera más práctica y más sencilla de conseguir más valor, cuál es la manera más eficiente de operar, con Analytics para generar valor tangible y real a la empresa. Yo creo que eso es lo primero que tenemos que responder, porque desde el punto de vista de un científico de datos está padrísimo, vamos a seguir haciendo ingesta de datos y por qué no metemos datos también de los periódicos locales que ya están en internet en los últimos cinco años y por qué no metemos datos que vienen también de este otro sistema y ya tengo una APP para hacer “X”, “Y” o “Z”. O sea, si el negocio no plantea la pregunta y la información que vas a obtener no es información necesaria para responderla, yo recomiendo no seguir por ese camino. Bueno, me parece que esto es todo. Les agradezco mucha su atención y los invito a ver la presentación de la Transformación digital en acción, que nos dará Martín Folino a continuación. Gracias. - - -o0o- - -