¿Estamos preparados para entender el big data?

17-10-2016 por IKI Media

Vivimos en un mundo absolutamente digitalizado. La forma en la que nos relacionamos con los demás, cómo compramos, el modo en el que nos divertimos y, por descontado, el trabajo que realizamos, tienen integrado, de un modo u otro, una conexión o proceso digital. Y en cualquiera de estos casos, ese proceso deja una huella en la red en forma de datos que es susceptible de ser rastreada y explotada sin que lo sepamos. Esto justifica el foco que el Big Data está adquiriendo actualmente.

Cuesta hacerse una idea de la dimensión real de información de la que estamos hablando. Los datos almacenados en todo el mundo a día de hoy bastarían para llenar la memoria de 10.000 millones de ordenadores personales. Y, según la Ley de Moore que explica la progresión del desarrollo tecnológico,  esta cifra se duplicará en los próximos 18 meses.

En muy pocos años, pasaremos de hablar de megabytes y gigabytes para familiarizarnos con cifras que hoy nos parecen astronómicas, como los zetabytes (1126 billones de megabytes) o los yottabytes (1,4 trillones de megabytes).

Teniendo en cuenta este descomunal volumen de información, la pregunta es: ¿estamos hoy capacitados para utilizar toda esta información en beneficio de nuestro negocio?

El boom de la información que el ecosistema digital nos ofrece, también conocido como big data, abre un mundo de oportunidades que afectan a las diferentes esferas del organigrama empresarial. Oscila desde la rentabilidad y la eficacia organizativa y logística hasta su explotación comercial, sea a través del diseño de servicios y productos optimizados a las necesidades y circunstancias de cada cliente, la detección y retención de nuestros mejores clientes, la identificación de nuevas oportunidades de negocio o la venta cruzada y la fidelización de clientes.

Dicho así, suena de maravillas. Pero la ejecución de estas tareas es, en realidad, extraordinariamente compleja y no está, hoy por hoy, al alcance de cualquier organización. Aún a riesgo de resultar excesivamente simplistas, podríamos resumir que la explotación marketiniana del big data depende de la realización de dos colosales tareas: la integración de  datos y su análisis en tiempo real.

.

Integración de datos: peras, manzanas y otros frutos

Toda organización que haya iniciado el proceso hacia su transformación digital se enfrenta a una multitud de datos recogidos desde diferentes fuentes. Estas fuentes pueden trabajar de forma más o menos coordinada, pero su naturaleza heterogénea impide tener una trazabilidad simple de la información.

Pensemos en un cliente que quiere comprar un producto similar al que vendemos. Probablemente busque en Internet información sobre las ofertas disponibles en el mercado y consulte foros o entre sus contactos en redes sociales. Tal vez visite también nuestra página web o nos solicite información técnica. Finalmente, acudirá a nuestro canal de ventas online o físico, donde los beacon detectarán la presencia de su móvil o su smartwatch. Finalmente, efectuará un pago con una tarjeta o una plataforma de pago, y puede que se registre en una plataforma de garantías o haga una consulta a atención a clientes.

En cada uno de estos pasos, esa persona habrá dejado un rastro digital. El problema es que la mayoría de esos datos serán almacenados en plataformas diferentes, algunas de las cuales están bajo la responsabilidad de departamentos distintos. Sin ir más lejos, en un proceso como el que acabamos de describir, entran en juego las plataformas de analítica web y search online, la monitorización del social media, el software de gestión comercial de puntos de venta, el TPV o plataforma de pago del departamento financiero y el programa de control del departamento de calidad; 6 herramientas en manos de otros tantos equipos.

El primer paso para entender y explotar el Big Data consiste en poner en común todos estos datos y asignarlos a un mismo cliente. Con este proceso conseguiremos que una serie de cookies, ID, números de transacción o códigos de compra se conviertan en una persona real con nombres, apellidos, edad, género, necesidades concretas y cuenta bancaria.

Para conseguirlo, es necesario definir el flujo de datos que gira en torno a nuestro negocio, crear un repositorio común de la información y establecer un procedimiento que asimile y unifique el origen de cada dato para determinar cuáles corresponden a una misma persona. En otras palabras, saber poner las peras con peras, las manzanas con las manzanas y asimilar que unas y otras son, en realidad, frutos y que, por tanto, forman parte de un todo homogéneo.

Este proceso nos permite tener una dimensión holística y global de nuestra cartera de clientes, del número de transacciones y del impacto de cada canal de ventas sobre nuestro negocio.

Al tratarse de un proyecto interdepartamental, necesita un liderazgo decidido que crea y apueste por su implantación transversal en la compañía. En la mayoría de los casos, esto pasará por un cambio en la cultura empresarial para poner en común la misión y los objetivos del proyecto y que todos los departamentos estén perfectamente alineados y coordinados.

Pero este no es más que el primer paso para cumplir con nuestro propósito. El 80% del esfuerzo realizado en Big Data se concentra en la integración de los datos. Sin embargo, de nada sirve disponer de toda esta información si no sabemos cómo utilizarla en nuestro beneficio; es el momento de sacarle provecho analizándola e interpretándola.

big data_Ikimedia

.

Analítica del big data: oír, entender, aplicar, anticipar

La segunda gran tarea a la que se enfrenta el Big Data, tras la transformación de esos datos en información, es la conversión de esa información en conocimiento aplicable a acciones. Sin esta tarea, todos los datos que hemos recopilado no sirven para nada; este es el proceso verdaderamente disruptivo del Big Data.

Y en esta fase, intervienen directamente 4 elementos: la velocidad analítica, nuestra capacidad interpretativa, la inteligencia artificial y el Internet de las cosas.

La velocidad analítica está en relación directa con la realidad tecnológica en la que vivimos. Afortunadamente, la progresión exponencial del desarrollo tecnológico nos permite disponer hoy de soluciones de hardware y software capaces de analizar zetabytes de información en décimas de segundos.  Parece una obviedad pero si el grado de madurez tecnológico no hubiera alcanzado el punto en el que hoy nos encontramos, el Big Data seguiría siendo una labor más propia de las novelas de Isaac Asimov. Al fin y al cabo, la disponibilidad de millones de datos siempre ha estado en manos de las empresas; lo que faltaba – y hoy tenemos – son las máquinas capaces de procesarla en tiempo real.

Pero las máquinas son (aún) estúpidas por sí mismas. Dependen de la capacidad y creatividad de la mente humana para crear algoritmos que aporten conocimiento al análisis. En este sentido, nuestra capacidad interpretativa está experimentando una progresión paralela a la tecnológica.

De este modo, hemos pasado de elaborar sistemas meramente descriptivos a plantear escenarios predictivos, con los que podamos proyectar la información disponible en modelos de comportamiento futuros. Esta transición supone una verdadera revolución en el mundo del marketing, ya que supone el punto en el que hemos pasado de entender lo que acaba de pasar a anticiparnos a lo que queremos que suceda.

Y, sin embargo, aunque este avance nos pueda parecer extraordinario, la realidad es que pronto se quedará obsoleto, ya que en el futuro inmediato el big data se orientará hacia el aprendizaje cognitivo.

En el aprendizaje cognitivo, los modelos predictivos aprenderán a retroalimentarse con la nueva información disponible para auto-optimizarse creando un sistema ágil y líquido que se adaptará en tiempo real a cada mínimo cambio en el comportamiento. Es en este proceso en el que la mente humana quedará definitivamente atrás para adentrarnos en lo que conocemos como inteligencia artificial.

De hecho, las compañías que desarrollan sistema de análisis de big data están empezando a confiar ciegamente en estos sistemas, como es el caso de los recientes cambios de algoritmos en Google o iOS, dejando en sus manos la labor del análisis y focalizándose en la forma en la que los responsables del proyecto visualizan la información analizada. En este contexto, el boom de los DAT Center va a dar mucho que hablar al cabo de muy pocos meses.

Por último, cabe hacer mención a cómo los mismos dispositivos de recogida de información están asimilando este nuevo sistema de trabajo y se adecuan a una criba de datos orientada a su conversión y análisis. La estrategia de datos está cambiando para facilitar desde la base esta labor. En este cambio, el internet de las cosas juega un papel crucial.

Todos los dispositivos susceptibles de ser conectados deberán ser reinterpretados entendiendo que su función última es recabar el mayor volumen posible de información, transmitirla al instante y favorecer su integración con el resto de dispositivos y el repositorio donde serán recogidas.

.

En realidad, esto es solo el comienzo. El Big Data abre ante nosotros un panorama en el que el marketing deberá de sacrificar buena parte de su componente humano o artesanal en beneficio de un mejor entendimiento del consumidor para su aplicación en un modelo de negocio más eficiente y rentable. Negar esta realidad no es una opción, del mismo modo que aplicarla no nos situará en una esfera superior a los demás. No podemos olvidar que esta tecnología dejará de ser a largo plazo una diferencia competitiva, ya que tarde o temprano todos dispondrán de ella. La verdadera ventaja será asimilarla e integrarla antes que los demás para empezar a aprender de ella antes que nuestra competencia.

Los comentarios están cerrados.