Descargar Paper

Anuncio
T
5
1
0
2
s
t
s
o
op P
Expertos en analítica y medición web profundizan y dan su opinión
sobre las diferentes novedades del sector.
Contenidos sobre herramientas concretas y noticias de actualidad
entorno a las diferentes disciplinas digitales con las que trabajamos
día a día los profesionales de DIVISADERO.
Un espacio de nuestra web en el que compartimos información
sobre los Encuentros Digitales que tenemos preparados para cada
mes, contenidos vinculados a la industria y la estrategia de gestión
analítica, sin olvidar todos aquellos eventos a los que asistimos con
cierta periodicidad. Asimismo, compartimos nuestras publicaciones
ya sea en formato libro, paper o estudios que realizamos.
ÍNDICE
TOP 10 de publicaciones en el blog
de Analítica Web:
#1 Not provided en Google Analytics: Libera tus keywords
4
#2 Mobile Advertising: Rentabiliza tu App con AdMob
7
#3 ¿Sabes dónde estás respecto a tu competencia? Vuelven los Benchmark a
Google Analytics
10
#4 RTB y DMP: tus aliados para una publicidad efectiva y personalizada
12
#5 Principales herramientas para la automatización del reporting para Excel
15
#6 Introducción a las APIs de Google Analytics
17
#7 El CRM y la analítica web: aprovechando la información de nuestros clientes
20
#8 Y tú, ¿cómo calculas tu ROI?
23
#9 La predicción del dato: Redes Neuronales Artificiales
25
#10 DoubleClick Digital Marketing – Y Google cerró el círculo
28
TOP 5 de publicaciones en el blog de
Actualidad:
#1 Marketing Data Technology: en el ojo del huracán
32
#2 Cinco consejos inspiradores para ayudarte en la transformación digital
37
#3 Google Analytics Hackathon y Think Performance 2015: Conectando Online y
Offline
40
#4 La transformación digital será a través del Digital Big Data o no será
43
#5 Cerrando el Círculo de la Estrategia Digital
46
Analítica Web:
El blog de DIVISADERO
Expertos en analítica y medición web
profundizan y dan su opinión sobre las
diferentes novedades del sector.
Contenidos sobre herramientas
concretas y noticias de actualidad
entorno a las diferentes disciplinas
digitales con las que trabajamos día a día
los profesionales de DIVISADERO.
#1
PABLO PÉREZ CAPA
Digital Intelligence Consultant
Not provided en
Google Analytics:
Libera tus keywords
Hace ya casi cuatro años Google empezó a estandarizar el
protocolo SSL en sus servicios, y con ello llegó uno de los
grandes escollos que nos encontramos a la hora de evaluar
el rendimiento de cualquier estrategia SEO en Google
Analytics: el famoso ‘not provided‘ que preside desde
entonces los informes de tráfico orgánico. Esto provocó
la desaparición de uno de los pilares de cualquier análisis
referente al posicionamiento en motores de búsqueda e
hizo que los profesionales del sector tuvieran que empezar
a buscar indicadores en otro sitio, pero desde hace unos
meses y gracias a una actualización en los datos que nos
ofrece Google Webmasters Tools, podemos profundizar
de nuevo a nivel de palabra clave y obtener valiosos
insights.
“Asumimos la oscuridad en
una parte crucial del proceso
de adquisición”
GA en 2011: Buenos tiempos para la “SEOlítica”
Tal y como comentamos más arriba, el origen del ‘not
provided‘ se remonta a finales de 2011, cuando Google
decide aplicar el protocolo seguro (SSL) a sus servicios.
A raíz de esto y para preservar la privacidad de los
resultados personalizados que por aquel entonces ya
empezaban a ofrecer, la empresa de Mountain View decidió
dejar de desgranar en Google Analytics las diferentes
consultas que los usuarios utilizan para acceder de manera
orgánica a una web, siempre que estuvieran logados a la
hora de realizar la búsqueda. ¿Y esto qué significado tiene?
Lo que empezó con un anecdótico 10-20% sobre el total,
ya tiene una cuota que afecta a más del 80% del tráfico
obtenido por esta vía, lo que deja tras de sí resultados
sesgados y totalmente marginales como para ser utilizados
en cualquier análisis posterior.
StaySharp! La newsletter de DIVISADERO
4
#1
cadenas de búsqueda se está mostrando una página de
aterrizaje, en qué puesto lo está haciendo y cuántos clics
está recibiendo en cada caso. Una gozada.
Para muestra, un botón
Así pues, durante mucho tiempo tocó buscar alternativas
como fijarnos en el tráfico por página de aterrizaje para
tratar de predecir (con mayor o menor éxito) qué palabras
clave son las que estaban imprimiendo nuestro resultado en
posiciones relevantes y llevando usuarios a nuestra web, o
utilizar herramientas como SEMRush que, efectivamente,
nos indican las keywords que tenemos posicionadas en
top20 pero que, al basarse en un modelo estadístico para
estimar el tráfico que cada una de ellas lleva a nuestro site,
no nos permite asignar a cada una el peso que realmente
tiene dentro de nuestro modelo de atribución. Es decir,
asumimos la oscuridad en una parte crucial del proceso
de adquisición.
Google Webmasters Tools al rescate
Sin embargo, una ‘inocente’ actualización que Google
Webmasters Tools recibió a principios del año pasado, en
la que ponía fin al redondeo de datos en su interfaz, nos iba
a dar el arma definitiva para desbloquear la información
que tanto echábamos de menos. Y es que GWT siempre
ha sido una herramienta tan potente como (en muchos
casos) infravalorada, pero eso daría para varios posts :)
Sacar a la luz estos datos es sencillo siempre que sepamos
donde mirar, así que vamos con un ejemplo:
En primer lugar, accederemos a nuestra cuenta de Google
Webmasters Tools y en el panel inicial pulsaremos sobre
Análisis de Búsqueda.
Análisis de Búsqueda, el nuevo Consultas de Búsqueda
A continuación, mi recomendación es cambiar a la interfaz
vieja de Consultas de Búsqueda, ya que en esta nueva
versión, sorprendentemente, no podemos profundizar
tanto como nos gustaría y, aunque podemos obtener datos
interesantes, se echa en falta buena parte de información
en el último paso del proceso.
Acceder a la antigua interfaz está a un clic de distancia
En este punto ya empezamos a ver datos relevantes,
como las consultas de búsqueda por las que nuestro
dominio se le ha mostrado a los usuarios. Vemos, también,
que tras el número de impresiones, clics y CTR se indica la
posición media por la que hemos aparecido para cada una
de esas cadenas, lo que no está mal pero sigue resultando
un tanto vago.
Ajuste pequeño. Cambio grande.
Gracias a este cambio, no sólo contamos con datos más
precisos sobre el número de impresiones, clics, o CTR
de cada una de las palabras clave por las que estemos
posicionando, sino que podremos ver en detalle para qué
StaySharp! La newsletter de DIVISADERO
Datos propensos a ser malinterpretados
5
#1
Es así, que la verdadera potencia de estos datos se
empieza a vislumbrar cuando seleccionamos la pestaña
de Páginas Principales sobre la gráfica. De este modo
obtendremos las URLs concretas que están posicionando
y por qué palabras clave lo están haciendo, lo que
nos permite ir acotando el terreno al mismo tiempo que
localizamos alguna long tail interesante.
GWT nos permite desplegar una URL siempre que tenga suficientes clicks
“Google Search Console nos
ofrece información muy útil
y accionable que podemos
obtener sin demasiado
esfuerzo.”
La culminación de este proceso llega cuando pulsamos
sobre cualquiera de las palabras clave que aparecen
desplegadas, accediendo a un desglose pormenorizado
de las diferentes posiciones en las que ha aparecido la
URL, con el número de clics obtenido y su CTR en cada
caso.
Al nivel de 2011 y más allá
Sin duda se trata de información muy útil y accionable
que podemos obtener sin demasiado esfuerzo, y las únicas
pegas que se le pueden encontrar vienen dadas por su
complicada integración con las principales herramientas
de analítica y el hecho de que los datos sólo estén
disponibles para el último trimestre, lo que limita en parte
su potencial de explotación.
No obstante, os animo a que exploréis las posibilidades
que ofrecen estos datos, intentéis incorporarlos a vuestros
análisis para tener una visión más completa del
customer journey.
StaySharp! La newsletter de DIVISADERO
6
#2
RUBÉN LUJÁN
Digital Intelligence Specialist
“Saca el máximo rendimiento
a tu app con la ayuda
de AdMob. Monetizar,
promocionar y analizar en una
misma herramienta.”
StaySharp! La newsletter de DIVISADERO
Mobile Advertising:
Rentabiliza tu App
con AdMob
Según un estudio publicado por la revista Forbes, la
publicidad en dispositivos móviles es la que tiene mayor
aceptación entre los usuarios, generando el doble de CTR
en estos dispositivos respecto a los sitios web. Además, la
inversión en publicidad dentro de este sector irá creciendo
paulatinamente durante los próximos años. Esto nos indica,
la importancia que está adquiriendo la publicidad dentro de
las apps.
¿Tienes en mente realizar una aplicación móvil para tu
empresa o negocio, y no sabes como orientar el modelo
de ingresos? Existen distintos modelos que nos pueden
ayudar a generar ingresos a través de aplicaciones móviles.
1. Compras en apps: modelo que permite realizar
compras a través de las apps, para obtener un
contenido adicional. Un ejemplo claro es pagar para
obtener más vidas en un juego o la venta de productos
y/o servicios a través de una tienda de comercio
electrónico.
2. Anuncios en apps: consiste en generar ingresos a
partir de los anuncios mostrados en apps. Existen
principalmente dos tipos de anuncios, los banners,
que aparecen normalmente en la parte inferior o
superior de la app y los anuncios a pantalla completa
(Intersticial). Este modelo está orientado básicamente,
a aquellas apps gratuitas, siendo esta su principal
fuente de ingresos.
3. Pago por descarga/suscripción de apps: existen
dos variantes, el pago por la descarga de la aplicación,
o aquellas que siguen un modelo “freemium”. Estas
7
#2
últimas, nos permite descargar la app gratuitamente,
pero con cierta limitación de opciones. Para ello, será
necesario pagar eventualmente o periódicamente para
obtener todas las funcionalidades de la App.
En este post nos centramos en el modelo “Anuncios en
apps“ (in-app ads), donde la publicidad nos ayudará a
potenciar y rentabilizar nuestra aplicación móvil. Para
ello, analizaremos el uso y funcionamiento de una de las
herramientas distinguidas en este sector y que nos ayudará
a entender cómo llevar a cabo la rentabilización de nuestras
aplicaciones a través de AdMob (acrónimo de “Advertising
Mobile”), herramienta adquirida por Google el año 2009
y que fue fundada y creada por Omar Hamoui tres años
antes.
•
•
Añadir nuestra app manualmente, si todavía no ha sido
publicada, especificando la plataforma utilizada.
Seleccionar una de las apps añadidas anteriormente,
ya que si queremos añadir otro formato de anuncio,
debemos añadir un nuevo tipo de monetización.
Para conseguir que todo esto funcione correctamente,
tenemos que configurar los bloques de anuncios
especificados anteriormente para integrar el SDK de Google
Adwords. Además, si deseamos incluir Google Analytics,
también deberemos configurar la app para implementar
el SDK de Google Analytics, con el ID de seguimiento
asociado. Una vez hecho todo esto, ya estarás listo para
empezar a generar ingresos.
AdMob se caracteriza por ofrecer dos servicios básicos.
Por un lado, tenemos la posibilidad de promocionar nuestra
aplicación a través de campañas, y por el otro puede
ser utilizada para conseguir ingresos, permitiendo añadir
publicidad de otros desarrolladores en nuestra app.
Promocionar: hacer llegar nuestra app a más gente, es
básicamente otro de los objetivos planteados inicialmente
cuando creamos una aplicación. Consecuentemente, esta
sección nos permitirá promocionarla, consiguiendo más
descargas e ingresos. Veamos cuáles son los pasos a
seguir para poner en marcha este proceso:
¿Cuáles son los requisitos para utilizar AdMob?
•
Los únicos requisitos que nos piden para poder crear una
cuenta de AdMob y formalizar el registro, es tener una
cuenta de Google, una de Adsense y otra de AdWords.
Debemos ser conscientes que una vez creada nuestra
cuenta, no podremos cambiar las cuentas asociadas
de Adsense y Adwords. Simplemente, con estas tres
condiciones, ya podremos empezar a utilizar AdMob,
planificando las estrategias de monetización y promoción
de nuestra aplicación.
•
¿Qué me permite hacer AdMob?
Para no olvidarnos ninguna de las funcionalidades de
AdMob, nos centraremos en las secciones del panel
de control (dividido en cuatro pestañas), las cuáles nos
permitirán gestionar la herramienta de modo fácil e intuitivo.
Veamos cuáles son:
Monetizar: a través de esta sección podremos conseguir
ingresos adicionales, incluyendo anuncios de otros
desarrolladores. Para monetizar una nueva aplicación, la
herramienta nos permite 3 opciones:
•
Buscar nuestra aplicación en el Market de Android y/o
App Store.
StaySharp! La newsletter de DIVISADERO
•
Identificar la aplicación: busca en el market de
Google o Apple o añade tu aplicación manualmente.
Diseñar el anuncio: definición del tipo de anuncio,
nombre, mensaje, URL de destino, etc.
Segmentación de la publicación: ubicación
geográfica, idioma, tipos de operadores móviles,
dispositivos y demografía.
Definición de la campaña: especificación del
presupuesto diario, nombre y programación de la
campaña y limitación de frecuencia.
Analizar: del mismo modo que podríamos analizar
los datos en Google Analytics, AdMob permite ver los
datos recogidos en las apps, para su posterior estudio y
evaluación. Además, queremos destacar que el “look &
feel” de pantalla es exactamente igual a la de Analytics,
permitiendo sentirse más cómodo, con un entorno ya
conocido. La total integración entre ambas herramientas,
consigue que podamos ver, indistintamente, los mismos
datos de analítica. Así mismo, destacar la integración de
las campañas generadas en Google Adwords vinculadas
a nuestra cuenta de Google, permitiendo ver de manera
unificada todas las fuentes de adquisición.
Página principal: panel resumen, donde en una sola
pantalla podemos ver un cuadro de mando con las
principales métricas, conversiones, ingresos, etc., de las
pestañas anteriormente descritas (monetizar, promocionar
8
#2
y análisis). Esta pantalla nos ayudará a tener una vista
genérica de cómo están funcionando nuestras aplicaciones,
evitando entrar en excesivo detalle.
¿Por qué incluir anuncios en mi app?
Este es uno de los puntos más críticos que existen cuando
decidimos de qué modo monetizar nuestra app. Como
ya hemos comentado antes, esto está vinculado con el
modelo de ingresos que hayamos definido previamente (al
inicio o durante la fase de desarrollo de la aplicación), pero
existen suficientes beneficios para apostar por este modelo
y que puedes ver detallado a continuación:
Ingresos para mi aplicación gratuita: en el momento
que ofrecemos al usuario una aplicación gratuita, estamos
eliminado cualquier tipo de ingreso por parte del mismo. Es
por ello, que la inclusión de la publicidad, nos permitirá que
los anunciantes nos aporten dinero siempre y cuando el
usuario interaccione con los banners de publicidad.
Mejorar mi aplicación: el hecho de tener suficientes
ingresos, permitirá la subsistencia de la aplicación para
crear nuevas versiones y mejorar la usabilidad y experiencia
del usuario.
Mayor volumen de descargas: aunque nos cueste
aceptarlo, a nuestro usuario prospecto le cuesta mucho
pagar por una aplicación si previamente no ha sido
recomendada por otros usuarios de su confianza o existe
un gran volumen de descargas. Con esto, conseguiremos
incrementar esta volumetría, evitando que el usuario tenga
que pagar por descargar o usar la aplicación.
¿Me compensa promocionar mi app?
Como todo en la vida, depende desde el prisma que se mire
y cuáles sean las estrategias planteadas para la captación
de clientes, pero esta es una buena fuente de promoción si
no tienes muchas alternativas. Gracias a la amplia red de la
que dispone AdMob (más de 300.000 aplicaciones), podrás
llegar a mucha más gente, sin la necesidad de moverte
de la oficina. Claro está, esto tiene un coste, pero piensa
que tu eres quien decide lo que quieres gastar, cuándo y
cómo, ya que gracias a su panel de control, podrás hacer
el seguimiento de las campañas lanzadas y descargas
realizadas, sabiendo en todo momento su rendimiento. Tu
defines cuál es el grado de conversión para tus campañas,
pudiendo modificarlas o eliminarlas si no te aporta el
volumen de descargas e ingresos que esperabas.
StaySharp! La newsletter de DIVISADERO
9
#3
BORJA GUTIÉRREZ
Digital Intelligence Consultant
“Los Benchmark de Google
Analytics es una funcionalidad
que te ayudará a saber en
qué punto estás frente a
tu competencia de manera
sencilla.”
¿Sabes dónde
estás respecto a
tu competencia?
Vuelven los
Benchmark a Google
Analytics
Los que lleven más tiempo utilizando Google Analytics
como su herramienta de Analítica Web, recordarán
que hace unos años Google ponía a disposición de los
usuarios, unos informes donde nos permitía comparar el
funcionamiento de nuestro sitio web frente a otros sites
similares del mismo sector.
En la transición que Google ha realizado en los últimos
años, entre una medición puramente web a una medición
total (la salida de la funcionalidad Measurement Protocol
de Universal Analytics da una libertad total en cuanto a
medición de dispositivos Online/Offline), Google había
eliminado este informe hasta que pudiese ofrecer uno de
más valor.
Por fin esto ha cambiado, y ya podemos volver a
disfrutar de esta información/benchmark en nuestros
informes de Google Analytics.
Lo primero que debemos tener en cuenta es que, para
poder disponer de estos informes deberemos realizar un
sencillo proceso de configuración:
• Iniciar sesión en Google Analytics y acceder a la
pestaña Administrador
StaySharp! La newsletter de DIVISADERO
10
#3
•
•
En el bloque “CUENTA”, acceder al apartado
“Configuración de la cuenta”.
Activar la opción de compartir datos “De forma
anónima con Google y otros.
Asímismo, las métricas disponibles en los informes serán:
Adquisición:
1. Sesiones (por ejemplo, número de sesiones)
2. % de sesiones nuevas
3. Número de nuevas sesiones
Comportamiento:
1. Páginas por sesión
2. Duración media de la sesión
3. Porcentaje de rebote
Una vez activado esto, tendremos la opción de visualizar
estos nuevos informes de “Comparativas” en: Informes >
Audiencia > Comparativas
Los informes nos proporcionaran información sobre el
rendimiento de nuestra propiedad frente a la media de
cada métrica-dimensión de las propiedades de nuestra
competencia. Tendremos, además, la opción de mostrar/
ocultar:
Estos nuevos informes nos van a permitir filtrar/definir el
tráfico de las comparativas que queremos analizar:
•
•
•
•
•
•
•
•
•
•
Eligiendo entre más de 1.600 categorías de sector
Comparando por País/Región
Elegir entre las 7 categorías de tamaño del tráfico
(podremos comparar nuestra propiedad, con otras
propiedades del sector con diferentes volúmenes de
tráfico)
Podremos visualizar datos de Comparativas para las
siguientes Dimensiones de Informes:
Agrupación de canales predeterminada (no tendremos
la opción de visualizarlo para una agrupación de
canales personalizada)
Ubicación (País)
Dispositivo (ordenador, móvil o tablet)
Comparativa Google Analytics
StaySharp! La newsletter de DIVISADERO
Los valores reales de la métrica.
La opción de sombreado de color (mapa de intensidad)
sobre la tabla.
Hay que recordar siempre que, dentro de nuestra estrategia
de Optimización del Canal Digital, debemos tener en cuenta
el análisis DAFO/SWOT (debilidades, amenazas, fortalezas
y oportunidades), que nos permitirá planificar mejor nuestra
estrategia de optimización; para lo cual siempre nos
interesará tener la mayor cantidad de información sobre
nuestra posición frente a la competencia.
Esperamos que esta nueva funcionalidad os sirva para
dar un salto más en vuestra estrategia de análisis de la
información. Recordad que la configuración será muy
sencilla y rápida, pero la información recibida será de gran
valor.
11
#4
FRANCISCO MORA
Digital Analyst
RTB y DMP: tus
aliados para una
publicidad efectiva y
personalizada
¿Has pensado alguna vez cómo impactar en el
usuario perfecto con un mensaje publicitario eficaz y
en tiempo real?
“Gracias a la revolución del
RTB y a la eficacia de la
Analítica Web podemos elegir
con exactitud qué usuario ve
qué anuncio y cuándo”
En este post te vamos a contar cómo lograrlo, además
de explicarte qué se esconde detrás de las siglas RTB,
qué agentes participan en el proceso de compra/venta de
publicidad y qué procedimientos de compra programática
existen actualmente en el mercado. Asimismo, nos
adentraremos en el valor que tiene gestionar los datos
en un DMP para la personalización de campañas según
tipos de usuarios y su optimización. Por último, veremos la
importancia de integrar toda esta información en nuestras
herramientas de analítica web para su interpretación y
toma de decisiones de cara a futuras campañas.
¿Qué es un RTB? Del inglés Real Time Bidding, se trata
de un modelo de compra de publicidad online basado
en subastas de impresiones únicas y en tiempo real. Como
en todo proceso de compra, se necesita de una oferta
y una demanda, en el lado de la oferta, contamos con
anunciantes, agencias de medios, Trading Desk, DSP y AD
Exchange, y, en el otro, los soportes, las redes publicitarias
y las SSP, que constituyen la demanda.
La moneda de cambio utilizada por el mercado se basa
en el modelo CPM (coste por mil impresiones). De este
modo, el anunciante puede medir el éxito/fracaso de
StaySharp! La newsletter de DIVISADERO
12
#4
sus campañas según los objetivos que haya marcado:
conversión a click, conversión a lead o conversión a
compra.
Actualmente, el RTB está orientado a la compra de
cualquier tipo de inventario publicitario, y no al inventario
sobrante como ocurría antes. Esta transacción puede
realizarse a través de:
•
•
Compra en tiempo real
Compra directa (privada y semiprivada)
Pero, este proceso necesita de un tercer agente
fundamental para que los compradores puedan seleccionar
cada vez mejor los perfiles de usuarios que necesitan
y los vendedores proporcionen inventarios con mayor
rendimiento, estamos hablando de los datos.
Llegados a este punto, hablamos de los proveedores
de datos y en concreto de los DMP (Data Management
Platform). Un DMP es una plataforma tecnológica que
agrupa y gestiona grandes cantidades de datos de
audiencia procedentes de cualquier tipo de fuente. Este tipo
de herramientas son de gran utilidad ya que nos permiten
cualificar a la audiencia (personalización del mensaje, según
dispositivo, zona geográfica, etc.)
Actualmente, en España, se trabaja con datos procedentes
de fuentes de 1ª Party data, que hacen referencia a
aspectos tales como la navegación del usuario, las páginas
que visita, los banners que clica, sus interacciones en
redes sociales, el tipo de dispositivo o navegador que
usa, etc. Y, luego, están las fuentes de 3ª Party data, que
nos facilitan información sobre la edad y sexo del usuario,
clase social, profesión, zona geográfica, etc. que, por
el momento, están en fase de desarrollo. De ahí la gran
revolución del RTB, de pasar a comprar impresiones a
comprar datos de audiencias, que nos permitan conocer
mejor a nuestros clientes potenciales y diseñar diferentes
campañas según tipos de consumidores que comparten
una serie de características. Con esto llegamos a las dos
líneas estratégicas de la compra programática, que son
el Prospecting y el Retargeting.
¿Por qué, en su momento, consumidores potenciales no
se transformaron en una venta o en un registro?, ¿en qué
paso del funnel o proceso de compra el usuario abandonó
nuestro site?, ¿qué hizo después?, ¿por qué volvió a
visitarnos? Son algunas de las muchas cuestiones que,
a día de hoy, podemos encontrar respuesta gracias a la
StaySharp! La newsletter de DIVISADERO
analítica web. Nos ayuda a extraer información diaria
de cada actividad realizada por los usuarios en la red y
a mejorar la segmentación de los mismos a través de la
utilización de esos datos en un DMP.
Mikel Lekaroz, Managing Director Spain en Zodiak
Advertising, ponía de manifiesto en el webinar ‘Data
Driven Advertising, los datos al rescate de la Publicidad
Digital’, la importancia de la analítica web dentro del
mundo programático, ya que desde las primeras horas del
lanzamiento de una campaña, disponemos de información
fundamental para interpretar los resultados y poder actuar
para conseguir una mayor optimización de la misma.
La analítica web nos permite, además de conocer
cada acción del consumidor, obtener datos sobre el
rendimiento de nuestras campañas, productos y periodos
de lanzamiento, horas del día o días de la semana en los
que la campaña funciona mejor, regiones, rendimiento por
canales, conversiones, etc.
Asimismo, podemos saber qué tipos de mensajes
funcionan mejor, formato, emplazamiento y canal. Es
aquí donde la revolución del RTB y la eficacia de la
analítica web se unen para conectar con el usuario en
el momento y contexto adecuado.
Imaginemos que un usuario accede a nuestra web a través
de una búsqueda que ha realizado en Google y durante
unos minutos permanece navegando por la misma hasta
que decide salir y visitar otro site. Con la ayuda de una
herramienta de analítica podemos extraer todos los datos
de esa navegación (canal por el que entra, día y hora a la
que accede, páginas que visita, productos que ve, cuánto
tiempo permanece, etc.) Toda esta información nos ayudará
a conocer mejor a ese usuario y poder recuperarlo en otro
momento impactándole, de nuevo, con el banner de alguno
de nuestros productos mientras esté navegando por otros
sites. Pues imagínate qué interesante sería hacer esto
en tiempo real, con un mensaje personalizado y según el
contexto actual del comprador. Si se trata de un hombre
o una mujer, si en la ciudad en la que vive llueve mucho o
hace sol, si está interesado en la compra de unas gafas
de sol o en un seguro de moto, si es su cumpleaños o se
acercan las vacaciones de Semana Santa…
En definitiva, podemos elegir, con exactitud, qué
usuario ve qué anuncio y cuándo, en un proceso que
dura apenas 200 milisegundos.
A día de hoy, la compra programática presenta su mayor
madurez en el medio Display, pero está avanzando a pasos
13
#4
agigantados hacia otros medios como vídeo, mobile o
redes sociales. Manuel Rodríguez, SEO & Founder de Spot
Bid, comentaba en la mesa redonda “Publicidad digital
inteligente: La revolución del RTB” organizado por The
Valley, que el objetivo futuro del RTB era la unificación de
frecuencias, es decir unir todos los impactos publicitarios
de todos los dispositivos.
StaySharp! La newsletter de DIVISADERO
14
#5
ALEJANDRO DÍAZ
Digital Analyst
Principales
herramientas para la
automatización del
reporting para Excel
A la hora de elaborar dashboards es muy importante
organizar el dato de forma que sea útil y fácil de consumir.
Las herramientas de análisis, como Google y Adobe
Analytics, nos permiten crear dashboards donde podemos
agrupar diferentes informes y programarlos para que se
envíen periódicamente. Pese a esto, muchas veces nos
vemos limitados a la hora de elaborar y presentar el dato de
la forma que queremos, por lo que tenemos que recurrir a
otras herramientas para crear los dashboards.
“Es muy importante organizar
el dato de forma que sea útil
y fácil de consumir” tiene un
millón de APIs. Drive, Gmail,
Blogger, Calendar, YouTube…
¿Y Analytics? ¡Analytics por
supuesto!
En este post vamos a analizar las principales herramientas
que nos van a ayudar a realizar esta tarea. Aunque hay
gran variedad de plug in, he decidido coger los oficiales
de Adobe Analytics (Report Builder) y Google Analytics
(Google Analytics Spreadsheet Add-on).
Imagen de Freepik
Report Builder
Esta herramienta de Adobe Analytics nos permitirá extraer
los datos necesarios y plasmarlos en nuestro documento
Excel. Esto nos permitirá trabajar con el dato y realizar
informes más personalizados gracias a las diferentes
opciones que nos ofrece Excel.
StaySharp! La newsletter de DIVISADERO
15
#5
Report Builder tiene una interfaz muy intuitiva y fácil de usar,
lo que nos permite personalizar el formato en el que nos
importarán los datos. Además, Report Builder posee un
administrador de solicitudes con el que podemos echar un
vistazo a todas las que se han creado en el documento o en
la hoja en concreto y poder editar varias solicitudes a la vez.
Google Analytics Spreadsheet Add-on
Esta herramienta gratuita de Google Analytics sólo está
disponible para la Hoja de Cálculo de Google Drive. Esta
herramienta extrae el dato mediante una solicitud a la
propiedad que queramos, siempre y cuando estemos
utilizando un email que tenga acceso a esa propiedad.
Add-on creará una pestaña donde se irá insertando
cada solicitud en una columna diferente, por lo que
podremos tener tantas solicitudes como columnas.
Una vez ejecutadas las solicitudes, se creará una hoja
para cada una de ellas.
El principal inconveniente que presenta esta herramienta es
que sólo está disponible para la Hoja de Cálculo de Google,
por lo que la personalización de nuestros dashboards estará
más limitada. Además, cada vez que queramos añadir un
informe, la interfaz sólo nos permitirá añadir las métricas y
dimensiones, por lo que el resto de variables tendremos que
añadirlas de forma manual una vez creada la solicitud. Por
otro lado, Google Analytics Spreadsheet Add-on nos
aportará los beneficios de trabajar con Google Drive como
edición simultánea por varios usuarios y el almacenamiento
en la nube.
Inconvenientes
• Bloqueo de Excel cuando se procesa la solicitud
• Extracción del dato es más lenta que el plug-in de
Google Analytics
• Imposibilidad de gestionar varias cuentas a la vez
Google Analytics Spreadsheet Add-on
Ventajas
• Extracción de datos rápida
• Capacidad de trabajo colaborativo, como
consecuencia del uso de Google Drive
• Posibilidad de configurar solicitudes de más de una
cuenta de GA
• Es una herramienta totalmente gratuita
Inconvenientes
• Sólo disponible para el Excel de Google Drive
• Capacidad de configurar el formato de la solicitud
limitada (inserción de filtros, segmentos manual)
• Sólo es posible configurar una única solicitud de datos
por hoja de Excel.
Si utilizas Google Analytics también puedes utilizar otros
plug-in, gratuitos o de pago, que pueden ser utilizados en
Excel. Todos ellos los podrás encontrar en el listado de
partners de Google Analytics.
A modo de resumen, veremos ahora una serie de ventajas e
inconvenientes para cada uno de los plug-in:
Report Builder
Ventajas
• Interfaz intuitiva y fácil de usar
• Capacidad de gestión de solicitudes de datos
• Capacidad de configurar el formato de la solicitud, con
previsualización.
• Puedes copiar o cortar solicitudes o incluso la hoja
entera. Todas las solicitudes se pueden hacer en una
misma hoja
StaySharp! La newsletter de DIVISADERO
16
#6
PABLO SÁNCHEZ
Digital Intelligence Specialist
Introducción a las
APIs de Google
Analytics
Lo que hace años era una tendencia ahora es una realidad.
Muchos, muchísimos, servicios web han ido evolucionando
de forma que cualquier persona con conocimientos de
programación pueda interaccionar con ellos de forma
escalable, controlada y segura para el propio servicio. Para
quien no esté familiarizado con el término, estoy hablando
de las APIs.
¿Quieres saber qué es una API?
“Google tiene un millón de
APIs. Drive, Gmail, Blogger,
Calendar, YouTube… ¿Y
Analytics? ¡Analytics por
supuesto!”
Una API (Application Programming Interface) es un conjunto
de funciones y procedimientos que cumplen una o muchas
funciones con el fin de ser utilizadas por otro software. Esta
técnica y la realidad de un mundo conectado han llevado
a que cada vez surjan más aplicaciones de terceros (p. ej.
TweetDeck) que, basándose en un servicio (Twitter), ofrecen
nuevas funcionalidades sobre el mismo. Twitter, Facebook,
OpenStreetMap, Flickr, Yahoo Weather… Son algunas de
las APIs más populares.
¿Y Google? Google tiene un millón de APIs. Drive, Gmail,
Blogger, Calendar, YouTube… ¿Y Analytics? ¡Analytics por
supuesto! Ahora que ya tenemos una idea de qué es una
API, cómo funciona y para qué sirve; es hora de centrarnos
en qué se puede hacer con la API de Google Analytics.
Image credits: @donmelanson para engadget.com
StaySharp! La newsletter de DIVISADERO
17
#6
Las APIs de Google Analytics
Si alguna vez te has planteado qué más puede hacer
Google Analytics por ti, seguro que has llegado a la
página de desarrolladores de la herramienta. En ella
puede encontrarse una cantidad ingente de información,
de la que seleccionaremos la relativa a su API. La API de
Google Analytics se compone a su vez de tres interfaces:
recopilación, configuración e informes.
Recopilación de datos
Se trata de las funciones y métodos habituales de Google
Analytics para el seguimiento de webs, aplicaciones y otras
fuentes de datos. Se compone principalmente del código
ga habitual de Universal Analytics (si has hecho un ‘send
event’, puedes decir que has utilizado una API ;-)), los
SDKs para iOs y Android, y del Measurement Protocol para
insertar datos directamente en los servidores de Google.
Esta parte es la más conocida, así que mejor centrarse en
las que no son tan populares.
Configuración
La API de configuración se compone a su vez de dos
partes: gestión y aprovisionamiento. Esta interfaz,
salvando las distancias, es el equivalente a la pantalla de
Administrador en la web de Google Analytics.
Por un lado, está la interfaz de gestión. Se ocupa de dar
acceso programático a Google Analytics y de ofrecer una
vía para gestionar la configuración de tus datos. Para poder
acceder a tu cuenta debes estar logado, y la API de gestión
es la encargada de la autenticación en las máquinas de
Google. La API de configuración puede utilizarse desde
para administrar vistas, objetivos o permisos; a una gestión
completa de los filtros y su uso en distintas vistas.
La API de aprovisionamiento requiere invitación para poder
ser utilizada. Su objetivo es facilitar la creación de cuentas
de Google Analytics y su activación, y lo documentación
existente sobre ella es bastante limitada.
Informes
De nuevo, esta sección tiene varias subsecciones. En caso,
hay hasta cinco apartados: el ‘core’ de informes, la parte de
inserción de datos, los embudos multicanal, metadatos e
informes en tiempo real.
El núcleo es lo que conoce como Core Reporting API.
Permite al usuario preparar dashboards personalizados,
pudiendo automatizar su gestión y facilitando la integración
de los mismos con aplicaciones de negocio. Son,
básicamente los propios informes. Ahora hay que verlos.
Para eso está la Embed API.
La interfaz de usuario se construye a partir de la API de
inserción. Hay dos cosas muy destacables de esta API: la
integración con librerías populares de visualización de datos
como d3.js o charts.js, y la opción de insertar botones
‘prediseñados’ para hacer la autenticación más sencilla.
Vistas estas dos secciones, las otras tienen un contenido
similar. La Muti-Channel Funnels Reporting API se basa
en los conversion paths que se han definido para mostrar
informes. Una función que parece útil de esta funcionalidad
es la de mostrar los datos de cómo se consiguen las
conversiones en presentaciones corporativas de una
manera más elegante que haciendo un simple pantallazo.
La API de tiempo real además de servir para lo que su
propio nombre indica, introduce un concepto que resultará
nuevo para muchos: el superProxy de Google Analytics.
Requerir informes en tiempo real puede hacer que el tráfico
de red se multiplique y sea muy difícil de escalar, el proxy
de Google Analytics trata de hacer eficientes las peticiones
de forma que no se resienta ninguna de las partes
implicadas. Por último, la API de Metadatos, que es sobre
la que recae la responsabilidad de listar las dimensiones
disponibles para construir informes.
Ejemplo
A continuación, una pequeña muestra de lo que puede
llegar a hacerse con la de API de Google Analytics. En el
primer gráfico, hay una comparativa anual de sesiones, y en
el segundo se puede ver una comparativa semanal.
StaySharp! La newsletter de DIVISADERO
18
#6
En él, se hace uso de varios de los puntos que se han
tocado antes: el uso de la API de configuración para
autenticarse, la de gestión para leer las cuentas de usuario
y la de informes para mostrar los datos. Además, otras
cosas que se han utilizado, son la capacidad para integrar
herramientas de terceros (Charts.js y moments.js) o que se
muestran datos en tiempo real (usuarios activos).
Nota: ni tu contraseña ni tu cuenta serán
accedidos/almacenados/utilizados para
nada, solo se necesita para autenticarse y
que así puedas visualizar el dashboard de
prueba
StaySharp! La newsletter de DIVISADERO
19
#7
Ignacio Couceiro
Digital Analyst
“La incorporación de
información asociada
a nuestros clientes y
prospectos, nos permitirá
llevar nuestros análisis y
procesos digitales a otro
nivel.”
El CRM y la analítica
web: aprovechando
la información de
nuestros clientes
Como analistas digitales pasamos mucho tiempo
observando y analizando el comportamiento de los usuarios
en nuestros activos digitales. Sabemos cómo, cuándo y por
dónde han accedido, si es la primera vez que entran o ya
lo han hecho con anterioridad, cuáles son los contenidos
que consumen, desde qué página han salido, etc.
Presumimos de conocer muchas cosas de estos usuarios,
pero la realidad es que, en muchos de sus aspectos, son
anónimos para nosotros.
En ocasiones, alguno de estos usuarios puede
cumplimentar en nuestra web un formulario en el que se
solicita información personal. En este caso podríamos estar
tentados a utilizarla para tratar de adquirir un conocimiento
más íntimo de ellos, pero sabemos que, legalmente, no se
nos permite registrar esa información en la herramienta de
analítica web.
Os preguntareis entonces ¿dónde queda registrada esta
información?, y la respuesta es: en el CRM (Customer
Relationship Management), un software que se encarga
de administrar y almacenar la mayor cantidad posible de
información relacionada con los clientes y prospectos
de la empresa, con el objetivo de generar relaciones a
largo plazo y aumentar así su grado de satisfacción .
¿Os imagináis el potencial de poder contar con ese tipo de
información tan precisa en nuestra herramienta de analítica
StaySharp! La newsletter de DIVISADERO
20
#7
y utilizarla para realizar análisis en base a características o
atributos comunes de estos usuarios? ¿o poder contar con
datos de conversiones offline de los usuarios? Pues bien,
estas herramientas de analítica permiten la incorporación,
de manera sencilla, de este tipo de data sets para poder
contar con esos datos en nuestros análisis:
En Google Analytics podemos usar la funcionalidad Data
Import para pasar información de nuestro CRM en formato
de tabla con la información de nuestros clientes sobre
los que nos interese hacer el análisis. El Visitor ID será la
variable necesaria para hacer el match entre los datos del
CRM y los de Google Analytics.
Análisis en base a atributos de usuario
El poder contar, en la herramienta de analítica, con
información sobre los usuarios relacionada con su género,
rango de edad, perfil de cliente, productos contratados,
gasto mensual, estado civil, lifetime value, etc., nos ofrece
una perspectiva en los análisis mucho más enfocada
al negocio de la empresa, ya que permitirá la toma de
decisiones en base a recomendaciones centradas sobre
estos atributos de nuestros clientes.
Por ejemplo, si tenemos en marcha una acción enfocada
a usuarios con un nivel adquisitivo alto, clasificados según
las reglas de nuestro CRM como “Clientes A”, podremos
segmentar nuestro tráfico en base a estos clientes para
conocer el ranking de páginas o contenidos más visitados
por dichos usuarios e, incluso, la procedencia geográfica
de los mismos, con el objetivo de centrar la promoción de
dicha acción.
Incorporación de datos offline
En el caso de Adobe Analytics, mi compañero Jorge, en
un post anterior, hacía mención a una nueva funcionalidad
que aparecía en la última release de la herramienta;
Customer Atributes. Con ella, podremos conectar
directamente el CRM y, automáticamente, poder contar
con la información sobre los atributos específicos que nos
interesen de ellos.
En nuestra herramienta de analítica web dejamos de
tener conocimiento de lo que hacen los clientes, cuando
interactúan con cualquier canal de la empresa que quede
fuera de su entorno digital. Sin embargo, tal como hemos
comentado al inicio del post, en el CRM podemos localizar
esta información e importarla para disponer, por ejemplo,
de la traza completa desde que el usuario accede a la web,
rellena un formulario y posteriormente acaba contratando
este producto offline.
Si no tuviéramos este tipo de información, en la herramienta
de analítica nos aparecerían unos datos como los
siguientes:
En los siguientes puntos, vamos a hablar sobre cómo
podríamos sacarle partido a esta integración de datos con
algunos ejemplo de funcionalidades y tipos de análisis que
podríamos llevar a cabo;
StaySharp! La newsletter de DIVISADERO
A priori, sin ver datos de ventas reales, la conclusión a la
que llegaríamos es que el PC sería el dispositivo que mejor
convierte.
21
#7
Captando el ID de transacción en las finalizaciones de
los formularios podemos hacer el match con los datos
que tengamos en el CRM, e incorporar información sobre
los productos finalmente contratados a raíz de estos
formularios, surgiendo la siguiente información:
Con esta nueva tabla nos damos cuenta que, aunque
desde PC se capta un mejor ratio de formularios
completados desde la web, en realidad el dispositivo con
mejor tasa de conversión en contratación final es el móvil,
por lo que podremos pensar en derivar más presupuesto
de marketing a campañas o acciones orientadas a este tipo
dispositivo.
Testing y personalización basado en información del
CRM
Otra aplicación en la integración del CRM con la analítica
web, está en el uso de estos datos para configurar tests
A/B o personalizaciones basadas en los datos de
cliente.
Si nuestra herramienta de analítica web permite integración
con la herramienta de testing, podemos definir segmentos
que incluyan ciertos atributos de los clientes y usarlos para
lanzar tests y personalizaciones sobre estos.
Si, por el contrario, no existe esta integración con la
herramienta de testing / analítica, también podemos hacerlo
extrayendo los ID de usuario que han cumplido alguna
de las características definidas para lanzar el test o la
personalización, y cargar esta información, a posteriori, en
la herramienta de testing.
Usando este tipo de información, podremos impulsar
acciones tales como, personalizar el diseño de la home
page de la web en función de los productos que los
usuarios tengan contratados y la frecuencia con la que
estos usuarios visitan la web.
StaySharp! La newsletter de DIVISADERO
22
#8
Ana Rubio
Senior Digital Analyst
Y tú, ¿cómo calculas
tu ROI?
¿Quién no ha oído hablar nunca de una de las métricas
financieras por excelencia dentro del ámbito empresarial?,
el ROI (Return On Investment). Seguro que todos lo que
estáis leyendo este post, habréis oído de ella, e incluso la
habréis pronunciado cientos de veces.
“Es muy importante a la
hora de calcular el ROI de
cada acción concreta, no
sólo fijarnos en la atribución
directa, sino la contribución a
la conversión”
StaySharp! La newsletter de DIVISADERO
A priori, parece una métrica de cálculo sencillo, ROI =
beneficios – coste de inversión, y desde mi punto de
vista lo es a nivel global, sin embargo, cuando intentamos
desgranar el ROI de cada una de las acciones llevadas a
cabo, uno de los dos operandos de esta simple ecuación,
se convierte en el ansiado objeto de deseo entre los
diferentes departamentos de una corporación, ¡todo el
mundo quiere atribuírselo! Seguro que ya sabréis a cuál
de ellos me refiero, obviamente el coste de cada una de
las acciones llevadas a cabo por cada departamento para
generar negocio es bien sabido, pero no tanto el beneficio,
ese gran ansiado trofeo…
Aterrizando en el mundo digital, y acotando el cálculo
del ROI a nivel de las acciones de Marketing, uno de los
grandes caballos de batalla de este departamento es
conocer cuál es la aportación a la consecución del
objetivo final de la compañía, sea éste cual sea: ventas,
leads, consumo de contenido…
23
#8
Veamos un ejemplo…
Imaginemos que nuestra compañía sólo comercializa
un único producto, y por lo tanto el único objetivo, es la
búsqueda de mecanismos para la venta del mismo, el cual
sólo puede realizarse a través de sus web. El departamento
de marketing lleva a cabo varias acciones para dar a
conocer el producto, como por ejemplo:
•
•
•
Construye un blog con una estrategia de contenidos
dirigida a la generación de necesidad de su producto.
[30% presupuesto]
Lleva a cabo una campaña de display para dar a
conocer el producto. [40% presupuesto]
Define y pone en marcha una estrategia de SEM. [30%
del presupuesto]
Después de un cierto tiempo de la puesta en marcha de
estas acciones, llega el momento de conocer la rentabilidad
de cada una de ellas, el ansiado ROI. Hoy en día las
herramientas de analítica nos ayudan en este cometido,
dándonos la visión de qué acción ha generado qué venta,
lo que se denomina último toque. Sin embargo, hoy en día,
los usuarios son tremendamente digitales, y la generación
de una venta no va ligada a una única acción.
Pensemos en un usuario que ha comprado nuestro
producto, entrando a la web por una búsqueda paga, pero
que sin embargo, previamente ha sido un consumidor de
los contenidos del Blog. El mérito de esta compra, se lo
hemos asignado a la acción se SEM, sin embargo el Blog
también ha tenido impacto en la venta final.
Por ello es muy importante a la hora de calcular el
ROI de cada acción concreta, no sólo fijarnos
en la atribución directa, sino la contribución a la
conversión. Sobre el escenario planteado en el ejemplo,
y con un modelo de atribución directa o último toque, la
acción más rentable seguramente sería la acción de SEM,
sin embargo, esta visión sesgada, podría conducirnos a
tomar una acción incorrecta, como por ejemplo desactivar
la campaña de Display o dejar de mantener el Blog.
StaySharp! La newsletter de DIVISADERO
Hoy en día las herramientas de analítica, nos dan
también esta visión de la contribución, aunque de
manera unitaria, y sin tener en cuenta el espacio temporal
entre acciones, o peso de las diferentes acciones.
Y ahora viene el Big Data…
Este ejemplo que hemos analizado, es muy sencillo, pero
la realidad es bien distinta, las grandes corporaciones no
sólo llevan acciones online para conseguir un determinado
objetivo, si no también offline, internas, etc. y los canales de
contacto o cierre de estos objetivos son numerosos: web,
app, call-center, centros físicos, etc.
Sobre esta foto, calcular el rendimiento o ROI de cualquier
acción, se vuelve más complejo, pero no imposible. La
clave es poder identificar al usuario en cada uno de
los puntos de contacto, de manera que si tenemos 4
identificadores posibles del usuario, en cada punto de
contacto al menos se debe de tomar uno de ellos.
Una vez identificado el Customer Journey del
usuario, ya estaremos en la posición de poder
ver contribuciones de unas acciones sobre otras, y
mejores combinaciones a través de diferentes algoritmos
matemáticos, con los que algunas herramientas del
mercado cuentan.
Este no es un proceso sencillo, e implica la integración de
diferentes fuentes de datos, y la definición arquitecturas de
datos complejas, pero es, sin duda, el futuro para poder
afianzar el cálculo del ROI y sobre todo su optimización.
24
#9
Sergio Ruíz
Digital Analyst
La predicción
del dato: Redes
Neuronales
Artificiales
Amazon, Facebook, Google… Empresas digitales que a
pesar de ser diferentes en cuanto a negocio (eCommerce,
Red Social, Buscador…), tienen algo importante en común:
la explotación de la minería de datos para mejorar su
negocio y dinamizar acciones encaminadas a optimizar
aquello que abarcan.
“Biología, Matemáticas y
Analítica: Redes Neuronales
Artificiales”
Como es posible que ya sepáis, la minería de datos es un
importante concepto con el que trabajamos a menudo y
que hace referencia al proceso de selección, exploración
y modelización de grandes cantidades de datos,
descubriendo patrones de comportamiento desconocidos
para conseguir ventajas de negocio.
¿Qué podemos obtener gracias a la minería de datos?
El estado actual de la compañía a través de indicadores
que describan cómo va el negocio (altas, bajas, ingresos,
costes, etc.), tipología de clientes que existen en la cartera.
Usando estadística descriptiva (histogramas, tablas de
frecuencia, gráficos de línea/tarta/barras, análisis “cluster”).
La evolución del negocio de la propia compañía, de la
competencia o del mercado… Lo haremos a través de la
estadística predictiva.
StaySharp! La newsletter de DIVISADERO
25
#9
Una vez en posesión de la parte explicativa y la parte
predictiva, podremos realizar simulaciones sobre el impacto
que podría haber tenido diferentes estrategias sobre el
negocio de la compañía o plantear escenarios distintos
(usando el conocido método de Montecarlo o simulaciones
estocásticas, entre otros). Lo que nos lleva a la fase de
optimización, donde se determinan las estrategias a seguir
para optimizar los beneficios de la compañía (investigación
operativa, programación matemática…).
Así mismo, también son capaces de extraer patrones y
detectar tramas que son muy difíciles de apreciar por el
ser humano u otras técnicas computacionales, siendo
la facilidad de implementación de estos métodos lo que
ha facilitado su popularidad. Estas RNA se caracterizan
por tres partes fundamentales: la tipología de la red
(propagación hacia adelante o recurrentes), la regla de
aprendizaje (supervisado, no supervisado, reforzado,
etc…) y el tipo de entrenamiento.
Pero me centraré en la predicción del dato para poder
tener una visión virtual de lo que podría pasar en nuestro
negocio. Este tema ya fue tratado anteriormente (con un
punto de vista muy acertado) por nuestro compañero Javier
Pozueco en su post sobre previsión en analítica web y
la segunda parte del mismo. Entonces, ¿qué aportamos
de nuevo? En este caso, ahondaremos un poco más en
dicha predicción, pero a través de una curiosa forma (como
pensamos algunos) en la que el proceso matemático simula
a una red neuronal biológica.
¿Cómo funciona cada neurona?
RNA (Redes Neuronales Artificiales)
El objetivo que da origen a las Redes Neuronales
Artificiales, es construir un modelo que sea capaz de
reproducir el método de aprendizaje del cerebro humano.
Las células encargadas de este aprendizaje son las
neuronas interconectadas entre sí a través de complejas
redes.
Conociendo un poco de biología básica, sabemos que
en el proceso de sinápsis se establece la posibilidad de
“transmisión de información” entre unas neuronas y otras
(desde las terminaciones en las que se ramifica el axón
de una neurona hacia las dendritas de otra); cuando el
estímulo (o impulso eléctrico) llega a un terminal nervioso,
hace que el nervio libere neurotransmisores. Dependiendo
del tipo de neurotransmisor liberado, las neuronas
receptoras pueden excitarse si llegan a recibir el estímulo
de las neuronas con las que está conectada o inhibirse
si dicha información no llega a recibirse, generando una
respuesta de uno u otro tipo en cada caso.
StaySharp! La newsletter de DIVISADERO
Las Redes Neuronales, se componen de neuronas, que
serían las unidades básicas del modelo. El proceso es
“simple”: cada neurona recibe una serie de entradas, que
llevarán un peso, emitiendo una salida. La salida viene dada
por tres funciones:
•
•
•
La función de propagación, suele ser el sumatorio
de cada entrada multiplicada por el peso asignado.
La función de activación, tiene como misión
modificar a la de propagación. No siempre aparece,
coincidiendo en estos casos con la dicha propagación.
Las más habituales suelen ser la función tipo escalón
(Heaviside) o funciones no lineales como la sigmoidea
(parecida a la escalón pero suavizada), logística,
tangente hiperbólica…
La función de transferencia, se aplica al valor dado
por la función de aplicación y se utiliza para acotar la
salida de cada neurona según la interpretación que le
queramos dar al resultado.
¿Cómo funcionan estas Redes Neuronales
Artificiales?
La idea es sencilla, ya que se trata de imitar a las neuronas
biológicas, conectadas entre sí y trabajando en conjunto,
aprendiendo sobre el proceso. Dados unos parámetros
hay una forma de combinarlos para predecir un cierto
resultado. El problema estará en saber cómo combinarlos.
Las redes neuronales son un modelo para encontrar esa
combinación de parámetros y aplicarla al mismo tiempo.
El objetivo es encontrar la combinación que mejor se
ajusta entrenando a la red neuronal. Este entrenamiento,
aprendizaje, es la parte crucial de la RNA, ya que nos
marcará la precisión del algoritmo. Consiste en encontrar
esa relación de pesos a través de un proceso iterativo
en el que, secuencialmente, se va analizando cada uno
de los patrones de entrada a la red, reajustando en cada
iteración la relación de pesos. Es en este punto cuando
26
#9
se introducirá una función de error que irá midiendo el
rendimiento de la red en un momento dado, donde el
objetivo será, obviamente, minimizar dicha función de error.
El algoritmo se detendrá cuando se alcance la cota de error
establecida por el usuario (o en caso de ciclo corto, cuando
el error no decrezca sensiblemente).
Una red ya entrenada se puede usar luego para hacer
predicciones o clasificaciones, es decir, para “aplicar” la
combinación.
Hemos añadido información que no estaba antes.
Cogemos los datos de entrada, los exploramos y sacamos
las características que mejor nos ayuden a entender qué
está pasando. Lo que se suele hacer es poner varias
capas con varios nodos, cada uno conectado a todas las
entradas anteriores. La ventaja es que, este proceso es de
aprendizaje, cada capa “aprende” a encontrar y detectar las
características que mejor ayudan a clasificar los datos.
El modelo más sencillo es el “conocido” perceptrón. Un
perceptrón es un elemento que tiene varias entradas con
un cierto peso cada una. Si la suma de esas entradas por
cada peso es mayor que un determinado número, la salida
del perceptrón es un uno. Si es menor, la salida es un
cero. Además de como una unidad básica, también puede
entenderse como una red neuronal artificial en sí misma.
Gráficamente, podría representarse de esta forma:
Pero, ¿no decíamos al principio que las redes neuronales
eran un grupo de neuronas conectadas entre sí? ¿Cómo se
logra esa “conexión” en las redes neuronales? Es en este
momento cuando entra en juego el concepto de las capas.
En este caso, lo que suele ocurrir es que existen diferentes
entradas con diferentes pesos donde, a su vez, hay
entradas que necesitan de reglas diferentes a las anteriores
para poder codificar y producir un resultado coherente al
resto.
Este tipo de procesos predictivos, similares a los conocidos
ARIMA, tienen cada vez más aplicaciones en nuestro
entorno habitual. Algunos ejemplos de todo esto involucran
a Google que utilizó una red neuronal convolucional para
reconocer los números de calle en las imágenes que
iban tomando con sus coches, consiguiendo un 96% de
precisión en sus resultados.
Por otro lado, estas técnicas predictivas, suelen emplearse
en control meteorológico, medición de audiencias de
televisión, previsión de impacto en RRSS, predicción en
los mercados financieros…además de ser la base para la
inteligencia artificial.
Anecdóticamente, la predicción del dato fue de gran
importancia en un mundo como el de Matrix, donde el
personaje de “El Arquitecto” estaba construido sobre un
algoritmo predictivo que iba aprendiendo a lo largo de las
diferentes versiones que fue creando sobre el mundo virtual
para mantener dormidos a los humanos. Por otro lado, otro
algoritmo de predicción, “El Oráculo”, trabajaba como una
RNA, el cual poseía una entrada con un importante peso,
Neo, que se encargaría de llegar al resultado esperado:
la destrucción de Matrix o conseguir el equilibrio entre
máquinas y humanos.
Por lo que podemos ver, la predicción del dato no sólo
puede mejorar el negocio digital, sino también el negocio
cinematográfico en las taquillas.
StaySharp! La newsletter de DIVISADERO
27
#10
Alejandro Domínguez
Digital Analyst
DoubleClick Digital
Marketing – Y
Google cerró el
círculo
DoubleClick, esa solución para publishers y advertisers
fundada en 1996, y adquirida por Google en 2007, parece
que ya se ha hecho mayor y ha dado un paso al frente
para convertirse en otro monstruo de la matriz Google, que
como ya sabréis forma parte del mayor holding tecnológico
que existe: Alphabet.
“Un anunciante desde una
misma plataforma puede
diseñar, planificar, servir,
pujar, analizar y optimizar
sus campaña de SEM y/o
Display”
Fuente: Wikipedia
De este entramado de empresas que conforman el gigante,
cabe destacar que la que actúa como la locomotora que
tira del resto es Google, y dentro de esta Search, Youtube
y Ads son las que generan aproximadamente el 97% de los
ingresos. Es decir, las empresas vinculadas a la publicidad
de pago online.
Pero a pesar de generar estos ingentes recursos que
obtiene de la publicidad de pago, a Google le faltaba poder
meter cabeza en un pujante negocio como es la compra
programática (mediante el desarrollo de tecnología
propia). Para ello, y en su línea habitual de tratar de cerrar
el círculo, ha desarrollado su nuevo producto estrella para
la gestión de la publicidad online: el DoubleClick Digital
Marketing.
StaySharp! La newsletter de DIVISADERO
28
#10
¿Qué es el DoubleClick Digital Marketing y qué
ofrece?
A nivel detallado para explicar bien las tripas de la
herramienta, es una visita obligada a este post de mi
compañero Borja Gutiérrez, en el que explica los módulos
que la componen y sus funcionalidades. Pero a nivel de
qué ofrece, sí que podemos decir que Google, con este
producto, ha tratado de hacer una integración vertical, en
la que un anunciante desde una misma plataforma pueda
diseñar, planificar, servir, pujar, analizar y optimizar
sus campañas de SEM y/o Display (compra de
inventarios o RTB).
Este post, por tanto, tratará de dar una visión más centrada
en la industria, y analizar las repercusiones que ha tenido
este movimiento de Google.
La industria del RTB
Hasta el momento, la industria del RTB tenía una empresa
que era la referente y clara dominadora del sector:
AppNexus. Fundada por Brian O’Kelley (ex CTO de Right
Media, el adExchange de Yahoo!), se trata de la mayor
empresa del mundo de RTB o Real Time Bidding.
Curiosamente, dentro del accionariado de esta empresa,
se encuentran representadas dos de las empresas que
han tratado siempre de plantar cara a Google: por un lado,
su fundador es un ex-Yahoo!, y por otro se encuentra
Microsoft (Bing) que entró en la misma en una ronda de
financiación contribuyendo con 50 millones de dólares.
Pero, dentro del accionariado de la misma, también se
encuentra representado otro núcleo fuerte del mundo de
la publicidad online, el de las agencias de medios. WPP,
gigante a nivel mundial en la industria de la publicidad,
y propietario de las mayores agencias de medios como
MEC, MediaCom, Mindshare o Maxus, a través de su
matriz GroupM, también decidió entrar en su accionariado.
A través de Xaxis (el trading desk de GroupM) WPP
consiguió cerrar la venta de Open AdStream a AppNexus
consiguiendo por otro lado formar parte de su accionariado.
La industria de la Analítica Web
Son muchos los players del mercado (Adobe, AT Internet,
IBM, Google o Webtrends), pero parece claro que la
principal batalla por el sector premium del web analytics
está entre Adobe Analytics y Google Analytics.
StaySharp! La newsletter de DIVISADERO
Fuente: Web e-nor
Si bien la actividad en la web es de vital importancia para
la inteligencia de negocio, los proveedores de soluciones
de web analytics son conscientes de que dado el elevado
presupuesto que sus clientes invierten en publicidad, es
necesario proveerles de una solución que pueda integrar
los dos mundos: on-site y off-site.
El producto
La solución de DoubleClick, ha supuesto por un lado
completar una oferta para anunciantes y agencias,
a modo de “Full Stack” (como también se conoce
al DoubleClick Digital Marketing). Pero, por otro lado,
Google ha tratado de ofrecer un producto donde,
en todo momento, la tecnología y los escenarios
estén dentro de su universo, ofreciendo dentro del
paquete su propio DSP (demand side platform),
AdServer, herramienta para creación de creatividades,
y potenciándose la integración con Google Analytics o
Google Analytics Premium. Es decir, unir dentro del mismo
entorno la actividad fuera y dentro de la propia web,
mediante una integración perfecta de herramientas.
Movimientos
La acción de Google no ha hecho esperar la respuesta de
sus principales competidores en la industria del RTB o el
web analytics.
En marzo de este año AppNexus anunció la compra de
Yieldex Analytics para tratar de ofrecer un “Full Stack”
con el que poder hacer frente a la oferta del gigante
de Mountain View. Por su parte, Adobe, tratando de
completar su oferta del Adobe Marketing Cloud, se ha
lanzado también al mercado de la compra programática
potenciando las cualidades de su Adobe Media Optimizer.
29
#10
Si bien su herramienta estaba claramente orientada a la
gestión de las campañas SEM, se le ha dotado de un DSP
con el que poder cubrir las necesidades de sus clientes en
cuanto a real time bidding se refiere. Además, trata de ir
un paso más allá con la oferta también de su DMP (data
management platform), el Audience Manager.
Por tanto, como se puede observar, el movimiento de
Google ha hecho que el resto de competidores que operan
en el mercado muevan ficha para no quedarse fuera de
la foto. Por un lado, los players de la industria del RTB,
empujado por agencias y competidores de Google que
trataban de cubrir un nicho no explotado por el gigante,
han tenido que mejorar y completar su oferta. Por otro lado,
los proveedores de soluciones de web analytics y actividad
on-site también se han visto obligados a ofrecer paquetes
similares o más avanzados.
StaySharp! La newsletter de DIVISADERO
30
Blog Actualidad
Un espacio de nuestra web en el que
compartimos información sobre los
Encuentros Digitales que tenemos
preparados para cada mes, contenidos
vinculados a la industria y la estrategia
de gestión analítica, sin olvidar todos
aquellos eventos a los que asistimos
con cierta periodicidad. Asimismo,
compartimos nuestras publicaciones ya
sea en formato libro, paper o estudios
que realizamos.
#1
Sergio Maldonado
Socio fundador de DIVISADERO y CEO de
Sweetspot
“Las tecnologías de marketing se distribuyen en cinco
capas principales: columna
vertebral, análisis, consumo,
activación y automatización”
Marketing Data
Technology: en el ojo
del huracán
El “Marketing Technology Landscape Supergraphic”
de Scott Brinker se ha convertido en una referencia
global para gestores de marketing, responsables de
transformación digital, “marketing technologists”,
profesionales de IT o inversores.
Habiendo crecido considerablemente en tamaño y
complejidad, nos toca a muchos en este mercado facilitar
cierto contexto adicional que permita su sencilla digestión.
En particular, resulta imperativo establecer las reglas bajo
las cuales sus muchas categorías coexisten o se solapan.
En nuestro caso, la reorganización de sus grupos y
secciones actuales se ha sustentado en la forma en que
los datos fluyen entre ellas o son puestos en uso por
las tecnologías que engloban. Al fin y al cabo, la mayor
parte de sus 43 categorías (a fecha de hoy) consisten en
extraer valor de los datos o ponerlos en uso, directa o
indirectamente, para alimentar contenidos y campañas (en
palabras de Brinker, “experiencias de marketing”).
El diagrama que sigue y sus ideas de apoyo aspiran
a compartir estas mismas directrices con el resto del
mercado. Podríamos bautizarlo de muchas maneras en
castellano, cada cual más retorcida, pero me voy a agarrar
al anglicismo “Marketing Data Technology ecosystem”
como recurso fácil.
StaySharp! La newsletter de DIVISADERO
32
#1
aspectos del marketing. Aunque en su forma más pura
se representa mediante cuadros de mando y tableros de
control, esta capa incorpora, asimismo, la gobernanza del
dato (asignación/interdependencia de métricas), “insight
management” (gestión de conclusiones del análisis) e,
incluso, los módulos embebidos de metodología aplicada
(“built-in marketing know-how”), principalmente en forma de
inteligencia multicanal.
Marketing Data Technology ecosystem (A)
En aras de simplificar su comprensión, comenzaré por
exponer los siete principios básicos que lo inspiran. Seguiré
a continuación con una serie de ideas genéricas, así como
una versión del mismo gráfico incorporando tecnologías
concretas.
Principios inspiradores del Marketing Data Technology
ecosystem:
1. Asumiendo que los datos constituyan, o bien su eje
central, o bien su punto de apoyo, las tecnologías de
marketing se distribuyen en cinco capas principales:
columna vertebral, análisis, consumo, activación y
automatización.
La columna vertebral consiste en tecnologías y medios
que nos permiten recabar, procesar y almacenar datos. No
se trata únicamente de soluciones autocontenidas, sino
también de la arquitectura que sustenta a muchas de las
soluciones que conforman el resto de capas.
El análisis (de datos) consiste en un amplio espectro de
funciones gestionadas por equipos humanos, desde la
modelización de algoritmos a la analítica digital. Muchas
de ellas no pertenecen de forma exclusiva al ámbito del
marketing, representándose, por ello, fuera del núcleo duro
del ecosistema.
El consumo (de la información) se refiere a la tarea cerebral
por antonomasia: la toma de decisiones que acompaña a la
entrega y distribución de resultados. Representa un puente
entre los datos y la gestión del cambio; entre la evaluación
estratégica del rendimiento y la operativa de los diversos
StaySharp! La newsletter de DIVISADERO
La activación se refiere a poner los datos a trabajar en el
ámbito más puramente táctico, estableciendo una conexión
directa con las experiencias de marketing que ayuda a
generar. Como cabe esperar, la capa de activación está
estrechamente vinculada a la quinta y última categoría,
automatización, a medida que múltiples tareas son tarde o
temprano sistematizadas y, más tarde, automatizadas.
Estas capas están representadas en el gráfico con las
rúbricas “Backbone”, “Discover”, “Decide”, “Activate” y
“Automate”, respectivamente.
2. El advenimiento de los datos “de primera parte”
pone a las marcas al volante de la gestión analítica de
contenidos y campañas, pero esto no se traduce en
una integración de todos los datos disponibles bajo
un único techo o sistema.
Habrá un “data lake”. Y habrá un DMP (“data management
platform”). Y habrá Data Marts o un Data Warehouse
gestionado por el anunciante, pero agencias y medios
mantendrán sistemas y repositorios independientes,
directamente conectados a las campañas o iniciativas que
definen y gestionan.
Más aún, aspirar a un escenario de integración absoluta
destruiría el valor de algunas categorías de información
para el análisis, consumo, activación o automatización
específicos del canal.
Profundizando aún más en la columna vertebral, la forma
de “casa y jardín” mostrada en el gráfico ilustra otras
importantes limitaciones relativas a la arquitectura de la
información:
a) Las bases de datos SQL y NoSQL coexisten en
la mayor parte de entornos corporativos, facilitando
soluciones alternativas para el almacenamiento de datos
estructurados, desestructurados o semi-estructurados.
33
#1
b) En el espacio de Data Warehouse, el modelo de Platform
as a Service se adapta particularmente bien al ámbito
del marketing (con múltiples interacciones de cliente
desarrollándose y registrándose directamente en la nube).
c) Los datos de primera parte relativos al uso de webs
y apps móviles han vivido su propia evolución: las
herramientas de analítica digital incorporan servicios
de procesamiento y almacenamiento específicamente
diseñados para el tipo de datos que recaban (de forma
directa o intermediada).
d) Los datos de medios sociales se guardan y procesan por
separado en cada plataforma. Algunos de esos datos están
únicamente disponibles a los titulares de cada activo en
el medio social, mientras que otros estarán públicamente
disponibles.
e) La mayor parte de las herramientas referidas en b), c) y
d) cuentan con APIs (“Application Programming Interfaces”)
a efectos de consumo, análisis conjunto, activación o
automatización.
3. La naturaleza de los datos subyacentes tiene
un impacto directo en nuestra capacidad para
analizarlos o consumirlos, de forma aislada o
integrada.
Los datos generados en el ámbito del marketing
(primordialmente digitales) representan un serio desafío a la
inteligencia de negocio (“BI”) tradicional. Mientras que los
primeros devienen mayoritariamente semi-estructurados o
desestructurados, BI fue concebido sobre la base de
información estructurada (esto es, modelos asociados
a bases de datos relacionales). Al tiempo que gran parte
de los datos de marketing, hoy disponibles, no albergan
formas de vida más allá de la correlación, el BI exige
causalidad.
Varios entornos de análisis y consumo coexistirán
por esta razón en aparente solapamiento, pero de hecho
reflejando las disparidades naturales de los modelos
de datos subyacentes. Las funciones de analítica de
medios sociales, por ejemplo, serán gestionadas de
modo más óptimo por herramientas especializadas en el
recabado, almacenamiento y procesamiento de “social
feeds”. Por otro lado, el análisis de propiedades de cliente
en un Data Warehouse podrá confiarse felizmente a
herramientas de exploración visual, análisis descriptivo o
analítica predictiva.
StaySharp! La newsletter de DIVISADERO
4. Las conexiones entre unas capas y otras sustentan
funcionalidades esenciales en cada una de ellas.
•
Las conclusiones extraídas (“Insights”) son el fruto más
importante de las tareas de análisis de datos. Estas, a
su vez, devienen un input fundamental para las tareas
de consumo de información (de las cuales emanarán
solicitudes específicas de nuevas conclusiones o
una aportación de contexto en torno a determinada
actualización de las métricas).
•
De modo análogo, los resultados generados con las
experiencias de marketing de los potenciales clientes
(resultados de campaña) alimentan ambas capas,
consumo y análisis, al tiempo que los modelos
predictivos u otros frutos de la capa de análisis
alimentan funciones de activación y automatización.
•
La toma de decisiones a nivel ejecutivo resultará en las
reglas de negocio a más largo plazo que determinan
los objetivos de la automatización, mientras que
esta misma (“machine learning”, inteligencia artificial)
terminará generando algunos de los diagnósticos
(y conclusiones) que ahora ven la luz en la capa de
análisis.
5. El comportamiento humano es el límite.
¿No es acaso la mente impredecible del consumidor la
última frontera de las acciones de marketing? ¿No es acaso
el comportamiento impredecible de individuos y equipos la
última frontera de los procesos de gestión?
El primer dilema explica que los modelos de “atribución”
no sean el santo grial que en su día creímos. O que un
verdadero customer journey no pueda hacerse realidad.
A menos que llegáramos a conocer a la perfección el
funcionamiento del cerebro humano – y en ese momento
el proceso de marketing estaría maduro para su completa
automatización (al tiempo que el ser humano habría
alcanzado el punto de reemplazo por robots).
El segundo dilema explica las velocidades dispares del
progreso tecnológico y el cambio organizativo. O el hecho
de que ni siquiera todas las métricas en el mundo podrían
reemplazar una buena pieza de storytelling (el “API al
cerebro humano”).
34
#1
6. El anhelo personal de privacidad es imparable.
Como consecuencia, las limitaciones en el uso de
datos personales (regulatorias y a iniciativa del propio
consumidor) tienen un tremendo impacto sobre todo
el ecosistema.
Es un hecho que una proporción cada vez mayor de
consumidores está deshabilitando cookies (de tercera parte
o todas), o borrándolas con más frecuencia, al tiempo que
muchas de ellas devienen inútiles con el acceso móvil. La
gente se ha vuelto progresivamente consciente de los datos
recabados en sus interacciones digitales… y está actuando
en consecuencia.
Para hacerlo más complicado, el marco regulatorio (no
solo en la UE) está basculando el enfoque desde los
datos personales per se a las metodologías concretas en
uso para el recabado de cualquier tipo de datos (sean o
no personales) en virtud de su riesgo potencial. De ahí el
impacto de:
•
Legislación aplicable a cookies: la directiva ePrivacy
(LSSI en España), solicitando permiso previo expreso
si las cookies van a ser usadas para propósitos de
perfilado individual (sin importar cómo de encriptados
o ininteligibles sean los datos) está obligando a
gestores de marketing y Chief Digital Officers a redefinir
la manera en la que los DMPs, gestores de huella
(TMS) o repositorios de login sociales se gestionan y
aprovechan.
•
La asimilación del “fingerprinting” (considerado por
muchos una alternativa menos gravosa) a las propias
cookies a todos los efectos a la luz del mismo marco
jurídico comunitario.
•
La primera consecuencia de todo esto es nuestra
incapacidad para seguir explorando un planteamiento
puramente determinístico y user-centric, dando
paso a un escenario user-driven y de “audiencias
inteligentes” en el que las experiencias de marketing
se personalizan automáticamente sobre la base de un
enfoque combinado determinístico/probabilístico.
7. La capa de consumo (de información) conecta la
tecnología de marketing con el resto de la función de
marketing. Más importante aún, conecta a marketing
con el resto de la organización.
StaySharp! La newsletter de DIVISADERO
La entrega/distribución de la información para su consumo
final está vinculada a la productividad, el rendimiento e
incluso el “Insight Management”. Pero ni los términos
“dashboard” o “reporting” son ya exclusivos de esta
función, ni bastarían para dar suficiente cobertura a cada
uno de sus componentes clave.
Por profundizar en el primer aspecto, los dashboards
(tableros de control) están ahora en todas partes, a todos
los niveles y en todas las categorías de MarTech. Cada
función táctica tiene un dashboard para su supervisión
humana o control directo. Cada herramienta de análisis
visual (específica de canal o genérica) provee una forma
de remitir resultados a quien finalmente consumirá la
información, muy probablemente mediante un dashboard.
Sin embargo, ninguno de estos pertenece a la tarea
de gestión ejecutiva del rendimiento de marketing (o
la inteligencia de marketing). En consecuencia, el término
ha dejado de representar una etiqueta válida para una sola
categoría o tarea específica.
Entrando en detalle al segundo punto, las siguientes piezas
completan la fotografía del consumo de la información –
más aún incluso cuando ponderamos el rol de esta capa
como puente al resto de la organización:
•
Insight Management (o “Digital Insight Management”
en el ámbito especialmente dinámico del marketing
digital) consiste en canalizar el input de los analistas a
los tomadores de decisiones y otros consumidores de
datos de modo tal que sus conclusiones de valor
añadido puedan sustentar acciones concretas
(estableciendo un nexo con varios flujos de trabajo
para la toma de decisiones).
•
Built-In Know-How: como en su día sucedió con
los CRMs (embebiendo conocimiento específico del
proceso de ventas en una base de datos relacional)
o ERPs (know-how específico de gestión de recursos
específica de industria), las herramientas de consumo
de la información están en la mejor posición posible
para incorporar componentes reciclables de marketing
know-how – y se encuentran, por ello, más próximas
a la gestión de marketing que ninguna otra capa. Esto
podría venir en forma de librerías de KPIs, gestión de
campañas multicanal, sistemas preconfigurados de
ponderación o fórmulas de asignación (“atribución”) de
retorno en la inversión (ROI).
35
#1
•
Gestión del rendimiento: consistiendo en vincular
objetivos de marketing, proyecciones o benchmarks
a metas globales corporativas. Aquí reside el alma de
cuadro de mando (scorecard) de la herramienta de
consumo, mucho más preocupada por el “qué”
(rendimiento a través del tiempo) que el “por
qué” (segmentaciones dimensionales de un KPI
concreto).
•
Gobernanza de los datos: representando
cosas distintas en función de la capa en que nos
encontremos, pero su esencia a nivel de consumo es
una distribución adecuada de métricas y objetivos
entre miembros del equipo.
•
Productividad del equipo: lo cual debería versar más
sobre la construcción de un puente a herramientas de
colaboración ya desplegadas (mensajería integrada,
marketing ágil) que reproducir al completo lo que éstas
ya facilitan a día de hoy.
Marketing Data Technology ecosystem (B)
Conclusiones. Tecnologías específicas
En esencia, aunque puede ser cierto que el espacio de
tecnología de marketing está ganando complejidad,
también parece que sus piezas fundamentales están
madurando simultáneamente con muchas funciones,
encajando rápidamente en su sitio bajo un panorama cada
vez más nítido que no puede escapar a ciertas limitaciones
esenciales: datos (se presentan en formas limitadas);
gente (individuos y equipos); medios/servicios (el lienzo de
nuestras experiencias); matemáticas; y la misma tecnología.
Como los puntos 2 (irreconciabilidad de los tipos de datos)
y 5 (anhelo personal de privacidad) reflejan, no creo que la
obsesión por romper los silos de datos sea la respuesta.
Pienso, más bien, que deberíamos adaptarnos a trabajar
con múltiples silos: conectándolos cuando sea
posible, solapándolos cuando no.
Dicho esto, paso a continuación a compartir una versión
del mismo ecosistema (Marketing Data Technology)
incorporando, a efectos ilustrativos, las tecnologías
específicas con las que estamos más familiarizados.
StaySharp! La newsletter de DIVISADERO
36
#2
Bernardo Crespo
Digital Transformation Leader
Cinco consejos
inspiradores para
ayudarte en la
transformación
digital
5 Ws sobre Transformación Digital
“There are only two mistakes
one can make along the road
to truth; not going all the way,
and not starting. – Buddha”
Las 5 W’s es un clásico de la metodología de trabajo de
cualquier periodista. En el fondo se trata de recoger los
elementos necesarios de una realidad con el objeto de
transmitir lo ocurrido a un tercero con imparcialidad y rigor.
En este caso no tratamos las mismas 5 ws ni pretendemos
contar una historia. Nuestra pretensión desde DIVISADERO
es transmitir desde un lenguaje sencillo cómo hemos
enfocado el modelo de Transformación Digital,
aplicando rigor y flexibilidad al reto que la mayoría de las
grandes corporaciones están abordando en este momento.
Este camino (Where), parte de un contexto y define una
situación a alcanzar (What). A partir de ese momento se
aplican nuevas formas de hacer (hoW) y se dan los pasos
para integrar todos las tareas relacionadas con clientes (to
Whom) con una única visión (Why): Alinear necesidades
de clientes y objetivos de la organización como
palanca de transformación.
Así es cómo entendemos ese imprescindible camino
There are only two mistakes one can make along the road
to truth; not going all the way, and not starting. – Buddha
StaySharp! La newsletter de DIVISADERO
37
#2
Where “the path”
La transformación digital es un proceso de madurez y,
por ello, un camino representa perfectamente la andadura
de cualquier organización desde una primera fase de
aprendizaje digital hasta un estadio de transformación. A
partir de ahí es un “continuo” donde las nuevas formas de
hacer van cambiado en la organización.
Es un camino sencillo y la sencillez estriba en la
capacidad de las organizaciones en adaptar sus formas
de hacer a los nuevos procesos de decisión que ya
están afrontando sus clientes fruto de la irrupción de
activos digitales. ¿Es posible que ese camino no sea tan
sencillo para mi compañía? Las posibles rigideces que
podemos encontrar en el camino, dependerán en gran
medida de las resistencias internas de cada organización
a adaptar sus procesos y su dinámica de tomas de
decisiones, a las formas y a los nuevos modelos de compra
que ya han interiorizado los consumidores de forma natural.
Sí, lo cierto es que los clientes de todas las industrias están
un paso por delante en este camino.
Para adaptar este modelo a los diferentes grados de
madurez digital en el que se encuentran nuestros clientes,
hemos creado una metodología de acompañamiento que
combina análisis estratégico, herramientas digitales de
personalización, testing, manejo de audiencias, y todo, con
un profundo y riguroso uso de la gran cantidad de datos
que se generan en el entorno digital. A este modelo le
hemos llamado Path to Digital Transformation – P2DT.
Change is the law of life. And those who look only to the
past or present are certain to miss the future. – John F.
Kennedy
What
Cualquier corporación conoce a la perfección su estrategia.
Ahora, ¿sabemos cómo adaptar esta estrategia a
un entorno de incertidumbre donde la adopción
tecnológica ha modificado comportamientos de
clientes, competidores e industrias enteras?
La irrupción de nuevas tecnologías y las nuevas formas
de decidir de los clientes han supuesto ya una alteración
en la reglas de juego de cualquier industria. Primero fue
la música, después Travel, seguido por Telcos. Incluso
Bancos y Seguros han visto cómo sus modelos de
distribución ya no tienen el mismo peso que tenían en el
StaySharp! La newsletter de DIVISADERO
pasado en la toma de decisiones de primera compra por
parte de sus clientes.
Está claro que existe un factor determinante en la
necesidad de transformarse digitalmente y éste es la
madurez digital de cada vertical. No obstante, todas las
compañías parten de un escenario inicial y de un
ecosistema de activos digitales de partida: apps,
webs, blogs, perfiles en social media, herramientas de
analítica, CRM, integración con terceras partes para
campañas, repositorios de contenidos, data marts, etc.
¿Está listo ese ecosistema para afrontar el reto de la
Transformación Digital?, ¿cómo está mi compañía en
relación a otros competidores?
“The goal is to transform data into information, and
information into decision-making.” – DIVISADERO
hoW
Una vez definida la estrategia y perfeccionada con las
diferentes implicaciones digitales de cada industria /
competidor / target de clientes, la compañía está en
situación de tener una aproximación clara de las bases
de su modelo de transformación digital. Ahora, ¿sabe
la compañía cómo hacer ese camino?
En DIVISADERO hemos acumulado un expertise basado
en la Inteligencia y Analítica Digital como palanca de
desarrollo y optimización. Manejar y analizar grandes
cantidades de datos digitales en tiempo real ha sido
siempre nuestra principal habilidad. Poner esos datos
a trabajar en la estrategia digital para transformar datos
en información e información en toma de decisiones,
es la palanca de cualquier proceso de transformación.
Hacen falta los datos y hacen falta las personas para
trabajar con una metodología basada en uso del
dato. ¿Dispone la compañía de los perfiles adecuados
para gestionar esa transformación apalancada en el uso
y el aprendizaje del dato? Y por último y más importante,
¿tenemos claro qué indicadores observar para valorar si
nos estamos desviando del camino?
“The key to growth is the introduction of higher dimensions
of consciousness into our awareness.” – Lao Tzu
to Whom
La mayoría de las empresas ya han sido intensivas en el
pasado en la generación de modelos de segmentación
38
#2
tanto para aproximar su modelos de relación o distribución,
como para mejorar la eficacia de sus campañas. En este
nuevo entorno las interacciones de los usuarios con los
diferentes activos genera una gran cantidad de datos que
en mucho casos podrían ayudar definir nuevos modelos
de segmentación. A estas formas de generar nuevas
aproximaciones homogéneas a clientes basada en
datos digitales es lo que llamamos audiencias digitales.
Sin duda la segmentación tradicional es y sigue un
activo valioso para tu negocio, ¿crees que es posible
incorporar nueva información para perfeccionar
esos modelos de segmentación? Y ahora que hemos
enriquecido nuestros segmentos perfilando las audiencias
en activos digitales, ¿es posible hacer el camino de vuelta?,
¿cómo enriquecer la estrategia tanto online/offline a partir
de esta información?
compañía, ¿está preparada tu compañía para transformar
todo ese nuevo caudal de información en una fuente
continua de creación de valor para tus clientes?
Si a estas alturas tienes dudas de que alinear los
objetivos de tus clientes con los objetivos de tu
organización es uno de los retos más importantes de
cualquier organización, aún no estás listo para transformar
digitalmente tu organización. Entonces creo que nos toca
volver de nuevo al paso inicial.
“I do not conceive of any reality at all as without genuine
unity.” – Gottfried Leibniz.
Funnels de ventas, contenidos en blogs, interacciones en
redes sociales, leads de campañas, usuarios de apps y una
gran cantidad de nuevas formas de perfilar a los usuarios,
bien nos pueden servir para ayudar a nuestros equipos
comerciales en tiendas físicas a mejorar sus resultados.
Adicionalmente, visitas a una tienda física, conversaciones
telefónicas incluso emails de las fuerzas de venta a sus
clientes, pueden ser aprovechados para generar nuevas
oportunidades de venta tanto en el punto físico como en la
web. Ambos caminos son posibles.
“The definition of insanity is doing the same thing over and
over again, but expecting different results” – A. Einstein.
Why
Una vez que sabemos cuál es la situación deseada en el
proceso de transformación digital, conocemos mejor que
nunca a nuestros clientes y además hemos aprendido
cómo generar aprendizajes de todos los puntos de
interacción con nuestros clientes, ¿A qué esperamos
para transformar estos aprendizajes en valor para
nuestros clientes?
La gestión de tus activos digitales es solo una parte del
camino, unir toda la información disponible para generar
una experiencia y una oferta de valor relevante para
tus clientes es avanzar en el camino.
A estas alturas ya nadie tiene que explicarte que tus clientes
son entre otros, aquellos para los que diseñas tu promesa
de marca y sobre quien has construido tu misión como
StaySharp! La newsletter de DIVISADERO
39
#3
Jorge López
Digital Intelligence Consultant
“Queríamos mostrar algo
que conectara totalmente
el mundo offline y online, y
de paso nos sirviera para
segmentar al usuario en
función de su evolución.”
Google Analytics
Hackathon y Think
Performance 2015:
Conectando Online y
Offline
Hace unas semanas DIVISADERO recibió la invitación
por parte de Google España para participar en el Google
Analytics Hackathon 2015. Para el que no sepa de qué
va un Hackathon, el término aúna las palabras Hack y
Maratón, y se trata de un encuentro de programadores en
el que se busca el desarrollo de un software o aplicación
y su duración suele comprenderse entre un día y dos
semanas.
El siguiente paso sería la propia presentación del evento,
donde se expusieron claramente las premisas:
•
•
Utilización de la funcionalidad Measurement Protocol
de Google Analytics para el envío del dato a la
herramienta
Posibilidad de creación de Segmentos de usuario en
base a la solución
Además, se facilitó a los grupos una bolsa con diferentes
gadgets para su posible utilización en caso de ser
necesario: una raspberry Pi, un sensor de movimiento y una
cámara para conectar con la Raspberry, un smartwatch
Android y aplicaciones necesarias.
Allí mismo se produjo un brainstorming con los especialistas
de Google para definir el ‘experimento’, de donde salieron
ideas muy interesantes: monitorización de las fases de
sueño de un bebé, tracking de las acciones que realiza un
perro dentro y fuera del domicilio, etc. Pero fue otra la idea
que más nos motivó y sobre la que hemos trabajado. Os
la explicaremos en breve, aunque antes vamos a poner un
poco de contexto y las razones que nos llevaron a elegirla.
Queríamos mostrar algo que conectara totalmente
el mundo offline y online, y de paso nos sirviera para
segmentar al usuario en función de su evolución, y como
en nuestra oficina tenemos una mesa de ping-pong
StaySharp! La newsletter de DIVISADERO
40
#3
(y además somos fanáticos :-D) pensamos que es una
ocasión inmejorable para sacarle partido…Por ello, de aquí
sale el…
Proyecto #GAme (Google Analytics multi experience)
Imaginaros que tenemos una tienda de material de pingpong, “Ping-Pong Store” (por poner un ejemplo). Ésta
comercializa una mesa que sirve al jugador para medir las
diferentes acciones que toma durante el juego y así poder
ir mejorando en función de los datos que se recopilan en
Google Analytics.
¿Qué vamos a medir durante el juego?
•
•
•
•
•
Lado de la mesa donde bota la bola
Tipo de golpeo que ejecuta el jugador
Lado de la mesa hacia la que el jugador ha dirigido la
bola
Velocidad de golpeo
Golpes ganadores y perdedores
Una vez definidos estos parámetros, lo siguiente sería
ponerse manos a la obra. Os vamos a explicar por partes
cómo se ha realizado el control de cada hito. Prometido,
intentaremos no ahondar demasiado en los aspectos
técnicos :-)
El primer paso fue “conectar” la mesa. Para ello, nos hemos
servido de unos piezos eléctricos pegados a la mesa por
la parte inferior, capaces de percibir las vibraciones que
produce el bote de la bola. Por otro lado, contamos con
una webcam en la parte superior que captura una foto justo
cuando los sensores indican que se ha producido el bote.
Es decir, obtenemos algo como:
Esta foto se analiza y se obtienen las coordenadas de la
bola en el momento del bote, conociendo, entonces, el
lado en el que se produce (derecho/izquierdo), tanto en el
campo del jugador que golpea, como en el del adversario.
Una vez hecho esto, la siguiente parte será la medición del
propio golpeo. Para ello haremos uso del Smartwatch que
Google nos proporcionó, para el cual hemos hecho una
App específica que, gracias a los diferentes sensores de los
que dispone: giroscopio, acelerómetro… envía al sistema
el tipo de golpeo realizado para cada usuario. Es decir,
podremos saber si un jugador golpea la bola “de derechas”,
“de revés”, e incluso la velocidad que imprime.
Además, el propio reloj servirá para identificar al usuario
mediante el login a la App y así poder identificarlo dentro de
Google Analytics.
Bien, si interconectamos los momentos de bote de bola
con los golpeos a la misma, podremos obtener un trío de
datos compuesto por:
LADO PROPIO | TIPO DE GOLPEO | LADO OPONENTE
Enviándose así a Google Analytics en forma de página vista.
Además, se transmitirán, en forma de eventos, tanto los
puntos ganados/perdidos como las partidas.
Os mostramos a continuación un par de pantallazos con los
datos recopilados. Aquí el de páginas vistas con los tipos
de golpeo realizado además de los botes en cada campo:
Y aquí los eventos asociados a cada pérdida y consecución
de puntos y partidas:
StaySharp! La newsletter de DIVISADERO
41
#3
Por otro lado, diseñamos un panel de juego en el que
se puede ver cada partida y los datos de la misma. Es
importante destacar que todo esto se obtiene directamente
de Google Analytics Real Time a través de la API que la
herramienta nos ofrece. Aunque en un inicio hicimos una
versión más ‘light’, la versión final del panel es la siguiente:
ya que no podíamos sujetar la cámara en el techo. Por
ello ideamos un sistema para colgarla en el evento con
la consiguiente recalibración del sistema y los posibles
problemas asociados. Además, para presentar, teníamos
que desplegar el montaje en unos segundos.
De todas formas, esto no hizo más que incentivarlo un
poco y finalmente salió todo a pedir de boca! Aquí podéis
ver el equipo al completo que nos hemos encargado de
este proyecto: Héctor Camblor, Rodrigo Álvarez, Nicolás
Lozano y yo mismo. Aprovecho además para agradecerles
el tremendo trabajo realizado.
Como podéis ver, tenemos a nuestros compañeros Rodrigo
y Héctor inmersos en una partida, donde vemos cada
puntuación, los golpeos realizados de cada tipo, velocidad
de la bola y último golpeo realizado en la parte inferior, con
el trío de datos de bote/golpeo/bote. Y en el medio, una
representación 3D de la mesa, indicando en cada momento
el punto en el que se produce el bote de la bola en cada
campo, para ambos jugadores.
Presentación en las oficinas de Google
Con todo esto montado y tras dos duras semanas de
trabajo, nos dirigimos a las oficinas de Google para
presentarlo el día establecido para el Hackathon junto al
resto de participantes.
Presentación en Think Performance 2015
Teníamos otras dos semanas por delante para presentar el
proyecto, nuevamente, esta vez delante de los asistentes
al evento Google Think Performance 2015. Enfocado
a la interconexión entre el mundo online y offline y el
aprovechamiento de la tecnología para maximizar el
impacto de las campañas publicitarias en sus resultados
de negocio, DIVISADERO participó en la sesión de tarde,
con un carácter más práctico que la sesión de mañana (que
sería una fantástica sesión más inspiracional con diferentes
expertos de Google y directivos de empresas más que
conocidas).
En esta ocasión, como no podía ser de otro modo, no
iba a ser todo tan fácil y lejos de tenerlo todo preparado
desde el Hackathon, tuvimos que “reinventarnos” un poco
StaySharp! La newsletter de DIVISADERO
42
#4
José Manuel Corral
Senior Project Manager
“Digital Big Data como
aquellos procesos que
evolucionando del clásico
“data mining”, se unen a
herramientas propias del Big
Data para tratar datos que
emanan del entorno digital
(web, apps, social)”
La transformación
digital será a través
del Digital Big Data o
no será
Podemos asegurar, sin riesgo a equivocarnos, que después
del Gin Tonic, el Big Data es uno de los términos más
populares de nuestros tiempos. Tanto es así que se hace
necesario usar Big Data para procesar toda la información
que surge en torno al propio término, entrando así en un
bucle perversamente recursivo.
El interés por esta “nueva” disciplina crece
exponencialmente y si bien cada vez son más los ámbitos
en los cuales se incorpora como elemento disruptivo,
también es sorprendente su aparente ausencia en
otros.
Gráfico Google Trends Comparativa Big Data (Azul) - Gin Tonic (Rojo) España
Industrias como la banca o los seguros llevan ya tiempo
aplicando Big Data sobre sus datos, en procedimientos
que recuerdan en gran medida al clásico “data mining”,
del cual no es sino su evolución, para determinar desde el
riesgo de conceder un préstamo a una persona que viva
StaySharp! La newsletter de DIVISADERO
43
#4
en una determinada localización geográfica a la creación
de perfiles de buenos conductores en base a datos
financieros.
En otras disciplinas como aquellas asociadas a Open
Data , Smart cities, healthcare, e-Goverment y el internet
de las cosas, el Big Data se presenta como uno de los
catalizadores para lanzar su desarrollo e implantación
efectiva en la mejora de la calidad de vida de la ciudadanía.
Sin embargo, si hablamos de la aplicación del Big Data al
mundo de la Analítica Digital en su más amplia acepción;
esto es Web, Social y Mobile Analytics, nos vienen a la
cabeza las palabras del poeta cuando decía aquello de
“veréis llanuras bélicas y páramos de asceta, no fue por
estos campos el bíblico jardín” dado que poco o nada
parece moverse con respecto al Big Data en el ámbito
del dato digital. ¿Cómo puede ser esto posible si nos
encontramos ante los más frondosos campos de datos,
regados con miles de millones de interacciones humanas
en webs, apps y redes sociales recogidas por herramientas
de Analítica Web de lo mas variado?
Algunas de las causas, que la experiencia acumulada en
este sector nos permite aportar para el debate, serían las
siguientes.
Estructura subyacente del dato
Es bien sabido el gusto por el dato en crudo para llevar
a cabo análisis Big Data; en el mundo de la analítica
web, donde el tag ha sustituido al log, precisamente
buscando simplificar el procesamiento de la
información, el dato se presenta cocinado por el método
usado en el despliegue y la recogida de datos a través
de variables. La persistencia de variables, la relación de
eventos asíncronos con variables síncronas, etc. hacen
que estos datos ya se recojan y almacenen con una
determinada estructura que condiciona el modelo de
información subyacente. Si esto se suma a que un contexto
de recogida es difuso (navegadores, entornos, etc.), el dato
se vuelve líquido. A este respecto, herramientas como Big
Query de Google o DataWarehouse de Adobe Analytics
(entre otras) permiten atacar los datos en su versión más
cruda facilitando de esta forma el procesamiento posterior
con técnicas estadísticas (data mining, machine learning,
etc.)
StaySharp! La newsletter de DIVISADERO
Calidad del dato
A priori, uno de los requisitos del Big Data, como su
propio nombre indica, es contar con la abundancia de
datos; en el caso de la analítica no sólo se genera una
cantidad ingente de datos, sino que en algunos casos hay
tal sobreabundancia de ellos que llega incluso a ofrecer
información inconsistente (o al menos contradictoria). Se
hace necesario, por tanto, abordar la medición digital
respondiendo a unos objetivos de negocio y con
unos estándares de etiquetado que garanticen la
consistencia de los datos recogidos. Pocas cosas han
hecho más daño a la analítica web que la “obsesión” de
medirlo todo en detrimento de la calidad del dato recogido
y su finalidad. Sin un dato de calidad no podemos hablar de
análisis de datos.
Fragmentación del dato
Diferentes fuentes de accesos (mobile, tablet, portátil,
ordenador del trabajo, personal, etc.) al mismo activo
digital, hacen que el mismo usuario se desagregue en
tantos perfiles como dispositivos de acceso utilice. Esto
provoca la fragmentación de los datos asociados
al mismo y por tanto de la visión global del usuario
(piedra filosofal de la alquimia marquetiniana). Los
movimientos de Google Analytics con su User ID o de
Webtrekk con su visión user-centric traking son pasos
adelante para acabar con esta fragmentación y ofrecer una
visión panorámica del comportamiento del usuario digital.
Perfiles profesionales suficientemente preparados
En este punto vuelve a aparecer una de las palabras
más cool de estos últimos tiempos. El Data Scientist,
considerada la profesión más sexy del siglo XXI
y llamado a encabezar la revolución basada en
datos, adolece en el campo del Digital Analytics de
suficiente preparación. Vicent GranVille en un revelador
post titulado What is Wrong with the Definition of Data
Science desarrolla una línea argumental muy interesante,
donde además de las ya consabidas skills que han de
vestir un perfil de Data Scientist (manejos de bases de
datos, altos conocimientos de estadística, modelado y
visualización de datos, programación, etc.) añade un factor
decisivo, que es el conocimiento de negocio o el expertise
en el campo de actuación (domain expertise / business
acumen). La Analítica Digital y sus disciplinas conllevan
una gran complejidad en sí misma (ya en su concepción
inicial) que requiere un gran conocimiento sectorial
44
#4
y dominio de diferentes herramientas, metodología,
procesos; lo que añadido a las razones expuestas
anteriormente sobre las peculiaridades de los modelos de
datos subyacentes a los que se hay que enfrentar, hace
necesaria una especialización o una nueva definición del
Data Scientist.
Fuente de la viñeta: http://www.kdnuggets.com/websites/cartoons.html
Digital Big Data y Digital Data Scientist
Con estas premisas no es aventurado redefinir las reglas
del juego, al menos en el terreno de la semántica, y
comenzar a hablar en términos de Digital Big Data
como aquellos procesos que evolucionando del clásico
“data mining”, se unen a herramientas propias del Big
Data (alta capacidad de computación, bases de datos no
relacionales, computación distribuida, nuevos algoritmos
de procesamiento de datos, etc.) para tratar datos que
emanan del entorno digital (web, apps, social). En este
ecosistema nace la figura del Digital Data Scientist que
complementa las competencias del Data Scientist
con un conocimiento profundo del mundo del Digital
Analytics. Esta nueva nomenclatura permite sentar
las bases para responder a los retos que demanda la
transformación digital de las empresas, y que van
desde el mayor conocimiento del usuario (perfilado de
usuarios), optimización de los canales publicitarios (modelos
de atribución personalizados), integración de fuentes
(dato on, off, de terceros, etc.) mejora de la experiencia
de usuario (optimización de los flujos de navegación en el
site), simulación de escenarios (análisis predictivo), etc. Tal
importancia estratégica toma el Digital Big Data en este
escenario de cambios que no es descabellado atreverse
afirmar que la transformación digital será a través del
Digital Big Data o no será.
StaySharp! La newsletter de DIVISADERO
45
#5
Bernardo Crespo
Digital Transformation Leader
“When Digital (and anytime in
life), Be consistent”.
Cerrando el Círculo
de la Estrategia
Digital
“Digital marketers” -unicornios blancos- tienen hoy en día el
reto de conectar sus habilidades creativas para ayudar a los
usuarios a tomar decisiones de compra, al mismo tiempo
que toman las decisiones tecnológicas correctas para
apoyar sus competencias digitales en herramientas que
transformen estrategia en resultados de negocio.
“Llegar a crear tu propia voz en medios sociales, alinear tu
estrategia de contenidos con la razón de ser de tu negocio,
optimizar tu estrategia orgánica de búsqueda, diseñar una
experiencia de usuario en tus activos digitales digna de ser
compartida, generar recuerdos inolvidables a tus clientes
en su primera experiencia contigo (onboarding programs),
mejorar los resultados e impulsar la conversión invirtiendo
en medios personalizados. Y, finalmente, como guinda,
integrar toda la información, conectando tus ecosistemas
digitales como el mundo exterior. Y vuelta a empezar. Así
es como funciona. Fácil, sencillo y con un montón de
aprendizajes por delante”.
Básicamente, si te toca decidir la estrategia digital de
tu negocio, tienes dos sencillos retos a la vista. El
primero, es ayudar a tus usuarios a fluir de forma
natural en tu ecosistema de activos digitales en el
momento en que están construyendo su propia decisión
previa a una compra.
Prestar asistencia a tus usuarios para desarrollar sólidas
opiniones de compra sobre tu oferta de valor apoyándote
en una estrategia de contenidos, es sólo el detonante, el
StaySharp! La newsletter de DIVISADERO
46
#5
principio. A partir de ese momento el resto de piezas de tu
estrategia digital aparecen, una tras otra: el tweet adecuado
en el momento oportuno; un email inesperado susurrando
la respuesta a preguntas planteadas en un post: una
estrategia anticipada de posicionamiento sobre palabras
clave nicho. Activos digitales sencillos, intuitivos, amigables
y escalables a cualquier pantalla. Quizá apps nativas
diseñadas de forma seductora para evaluar diferentes
productos o especificaciones de servicios. Y una vez hecho
esto, ¡LISTO!. Gran parte del trabajo ya está hecho. A
partir de este momento, dedícate a ayudar a tus usuarios,
consigue impactos de forma personalizada (remarketing) y
procura ofrecer la mejor asistencia al usuario en su proceso
de compra.
Una vez que te hayan comprado, pon todos tus datos a
trabajar para activar posibles recomendaciones, reforzando
su decisión de compra. Nadie quiere sentir que ha
tomado la decisión incorrecta. Piensa en los próximos
pasos por adelantado. Prepara una batería de emails para
aquellos usuarios que ya te han comprado y fuerza esas
recomendaciones. Este es el proceso artesanal de construir
la fidelización. Alcanzar la maestría a la hora de generar
experiencias de usuario inolvidables es el santo grial de
cualquier profesional de marketing digital. Citando a Simon
Sinek y su archiconocido Golden Circle, básicamente, se
trata de inspirar a las personas para que te acompañen en
la consecución de tus objetivos.
•
Herramientas de analítica que te permitan
aprender y optimizar cada uno de tus activos
digitales. Herramientas que, de verdad, te ayuden
a aprender de tus usuarios -tanto actuales como
potenciales- en su camino a la compra del producto.
Mobile is the journey, not the destination ilustra
de forma brillante la importancia del móvil en el
comportamiento del usuario (customer journey) hoy en
día. Mi aprendizaje sería algo así como:”Mobile First, …
o segundo, o tercero, y el móvil está siempre presente.
Y, es posible, que no sea la última interacción antes del
compra”. Y, sin analítica, no es posible saberlo.
•
Plataformas de testing y personalización que
permitan al equipo de marketing una cultura
de optimización continua. No permitirse el lujo de
aprobar las creatividades de la agencia y adoptar una
cultura de opciones de mejora en el día a día. No caer
en el error de modificar para todos los usuarios una
opción del menú principal, sin testar varias opciones.
No pretender adivinar el mejor “call to action” por
intuición. No disponer de la misma Home para
todos los clientes. Afortunadamente, hoy en día las
herramientas de testing y personalización nos permiten
incorporar el aprendizaje, sin necesidad de cometer
esos errores a futuro. Y doy fe que yo los he cometido
en el pasado.
•
Hace tiempo tuve una discusión interesante sobre
la necesidad de concebir los contenidos de mis
activos digitales de forma flexible. El aprendizaje es
bien sencillo:”1 contenido = n Dispositivos”. Ya es difícil
manejar todas las competencias digitales con habilidad
(SEO, UX, Social Media, CRO, Emailing, Paid media,
etc.), como para tener que pensar en estrategias de
contenidos para todos y cada uno de los activos. Que
el contenido sea líquido y mi foco sea pensar en el viaje
de todos y cada uno de los usuarios. La tecnología es
“Everything we do, we believe in challenging the status quo.
We believe in thinking differently. | The way we challenge the
status quo is by making our products beautifully designed,
simple to use and user-friendly. | We just happen to make
great computers. Do you wanna buy one?”
El segundo reto es llevar a cabo la mejor elección en
términos de tecnología para ejecutar tu estrategia digital.
Y lo que quiero decir con tecnología es herramientas y
código que conecten información y datos para facilitar
la estrategia de conversión. En un post pasado bajo el
seductor título de Sex, Tags & Rock n`Roll, repasaba la
lista de las necesidades de cualquier profesional de digital.
El hecho es que siempre hay una herramienta para cada
necesidad: ”In Tools, We Trust”. Herramientas para facilitar
trabajo y, si aún no las hay, alguien estará ahora mismo
detectando esa oportunidad. Y haciendo ese concienzudo
repaso a nivel de necesidades, ¡que me aspen! si estos no
son los requerimientos tecnológicos que necesita cualquier
profesional de digital para hacer su trabajo:
StaySharp! La newsletter de DIVISADERO
47
#5
capaz de hacer eso. El gestor de contenidos de una
web es una tarea que tristemente los equipos de IT
han cerrado en acuerdos globales y los departamentos
de marketing han sufrido en su gestión diaria a nivel
local.
•
•
•
•
Si hay un lugar donde el contenido es el rey es en
medios sociales. Por si alguien quiere hacer memoria
y rescatar un clásico, esta frase es de Bill Gates y la
pronunció en 1996: ”Content is where I expect much
of the real money will be made on the Internet”. Un
espacio de conversación sin contenidos valiosos
es como una conversación sin palabras. Poder
monitorizar, medir el éxito y accionar la conversación
de social media a través de otros canales es una
necesidad. Un único espacio de seguimiento y
generación de la actividad de social media que esté
integrado con mi analítica web y móvil… con mis
audiencias, con mi información, con mi actividad en
medios pagados. I have a dream!
Un único espacio de optimización de campañas
en medios pagados. Un centro de mando para
valorar el éxito de las campañas y para monitorizar
el uso de tu inversión en medios pagados. Atrás
quedaron los días de los excels hechos por otros. Un
ejercicio de valorar ex ante las posibilidades de éxito de
una inversión y posteriormente comprobar el resultado.
Y todo unido con mis aprendizajes previos a nivel de
audiencias en mis activos digitales propios.
¿Y si alguien me ofreciera que toda la información
y todos los aprendizajes de datos estuvieran
conectados? El concepto de plataforma de datos
está de moda (DMP) y en realidad lo único valioso para
un profesional de digital es que todos los aprendizajes
estén unidos y que la curva de enriquecimiento se
traduzca en mejoras de conversión. Que la tecnología
sea propia o no es algo que puede ser discutido. Que
los datos se enriquezcan sobre mis audiencias y no
sobre los criterios de segmentación de terceros es la
discusión. Que en última instancia yo sea capaz de unir
datos digitales, con datos offline y activarlos a través
de toda la superficie de contacto con el cliente es mi
propósito como profesional de digital.
Un profesional de marketing necesita conectarlo
todo. Ese es el sueño de todos los que hemos hecho
SEO, testing y personalización, voice of customer,
remarketing y retargeting, ¿y si alguien me pudiera
StaySharp! La newsletter de DIVISADERO
ayudar a conectar todas estas capacidades y
ejecutar comunicaciones personalizadas a clientes
y prospectos? Todos sabemos que personalizar un
contenido en una web suele mejorar los resultados
de conversión. Y asumir un posterior impacto, más
cualificado aún si cabe, a través de email o de
una llamada telefónica es garantía de mejoras en
conversión en dos cifras a nivel porcentual.
El problema de cualquier profesional de digital a la
hora de hacer la correcta elección tecnológica es que
lo mejor de hoy, seguramente no será lo mejor de
mañana. Y lo importante es que la conectividad o la
integración de las herramientas tiene que ser inmediata
(días, semanas). Si no puedes unir y activar aprendizajes,
no es la elección correcta. Y no olvides que es más
valiosa tu estrategia y tu ejecución que la herramienta
que te ayuda en ese propósito.
Para resumirlo y hacerlo más llevadero, he condensado
todos estos pasos en un “listicle” sencillo y fácil de recordar.
Le he llamado el Manifiesto de Digital Marketing DataTech:
1. Se fiel a tus principios de marketing. Y no olvides tener
principios por adelantado.
2. Inspira a los usuarios con tus contenidos. Contenidos
que estén alineados con el ADN de tu marca.
3. Construye tus activos digitales para hacer que esa
inspiración nunca termine (ayuda, asiste, compra,
ilustra y haz fácil la conversión).
4. Haz y no pienses en la opción correcta. Y una vez
que estés inmerso en eso de la acción, ten a mano
herramientas de testing y personalización.
5. No pienses que tus segmentos tradicionales son más
valiosos que tus audiencias digitales. Yo no lo tengo
tan claro.
6. Trocea tus competencias digitales (Estrategia de
Contenidos, Medios Sociales, SEO, Performance,
Paid Media, …). Y mantén unidos tus activos y el
seguimiento del usuario con herramientas y datos.
7. Toma decisiones tecnológicas y no olvides que
enamorar a tus usuarios, es un Arte.
48
#5
Todos estos “takeaways” los quiero resumir en una sencilla
declaración resumen:
“When Digital (and anytime in life), Be consistent”.
StaySharp! La newsletter de DIVISADERO
49
DIVISADERO es la consultora boutique líder en Europa en estrategia
digital. Ayudamos a las empresas a transformarse en organizaciones
más eficientes y competitivas con la ayuda de los datos.
La base del liderazgo de DIVISADERO lo forman las personas.
Profesionales que han sabido combinar su pasión y sus habilidades
al servicio de la Inteligencia y la Transformación Digital.
Nuestro alto nivel de especialización nos ha permitido asistir a
muchas de las empresas e instituciones de mayor presencia en
el ámbito nacional e internacional. Entre ellas podemos destacar
Vodafone, Movistar, Mapfre, BBVA, Santander, La Caixa, Axa, Mutua
Madrileña, Iberia, Repsol, NH Hoteles, Roche, Unidad Editorial o
Prisa Digital.
¿Quieres estar informado de
todas nuestras publicaciones?
Suscríbete a nuestra newsletter
Descargar