Una inversión de no menos de $ 5 millones, a través de licitación pública, es la que realizó la Fundación Sadosky. ¿El objetivo? Lo que denomina el "Proyecto Palenque": una plataforma de big data pensada para impulsar proyectos agrícolas basados en el uso, análisis y procesamiento intensivo de grandes volúmenes de datos. Destinada a productores, que podrán vincular sus datos con fuentes diversas (públicas y privadas) y obtener a cambio "agricultura de precisión": detalles sobre irrigación, siembra y fertilización inteligente. Prevé estar lista para el año que viene, en un trabajo del que también participan Aacrea, el INTA y el Ministerio de Agricultura. "Es parte de un programa que tenemos desde hace un año y medio, para empujar iniciativas vinculadas con big data. La clave es fomentar la capacitación en el país", afirma Esteban Feuerstein, director del Programa Ciencia de Datos de la Fundación Sadosky.
Desde allí, también lleva adelante iniciativas con compañías de distintos sectores. Tal el caso del convenio que firmó recientemente con el Banco Hipotecario, de colaboración y complementación en tareas de investigación en big data, que tendrá dos ejes de acción: bancarizar a más sectores de la población (a través de análisis de los no bancarizados), y establecer modelos de decisión optimizados para clientes de tarjetas de crédito. "Estamos con el radar en alerta. Para el banco es un desafío conocer más a nuestros clientes y salir con ofertas más atractivas", define Pablo Mislej, gerente de Gerenciamiento de Decisiones del Banco Hipotecario.
Actualmente, cuenta con cerca de 1 millón de clientes (individuos), de los cuales, entre consumos y pagos, gestiona más de 10 millones de transacciones por mes. "De una transacción se pueden extraer muchos datos: fecha, monto, rubro que está consumiendo, establecimiento. Es una información que suele estar desaprovechada. Hay que sacarle más jugo", destaca.
Así como en agro o banca, big data ya toca todas las industrias, desde telecomunicaciones a Internet. Tal el caso de Telefónica de Argentina, que implementó soluciones de IBM (PureData System for Analytics) para gestionar cerca de 20 millones de clientes (entre fijos y móviles) y vincularlos con datos provenientes de Internet y redes sociales. O, el caso de la Ciudad de Buenos Aires, donde la implementación de SAP fue una solución para el paso de la gestión en papel a la automatización (primero con un ERP y CRM, y luego con la implementación de la plataforma HANA). "El proyecto de big data nos permitió cruzar toda la información de sensores, junto con información no estructurada de redes sociales y del servicio 147 de call center. Esos reclamos se cruzan con los planes de mantenimiento y limpieza del ministerio (pavimentos, veredas, desagües pluviales, espacios verdes), dispuestos en el ERP, que se traducen en tableros de visualización en tiempo real", cuenta Rodrigo Silvosa, subsecretario de Mantenimiento del Espacio Público.
En marcha desde hace cuatro meses, ayuda a administrar recursos de la Ciudad que se cuentan en más de 700.000 activos, incluyendo calles y luces, parques, paradas de autobús, desagües, edificios y puentes. Silvosa destaca que con HANA pudo procesar reclamos de redes sociales en tiempo real (desde la cuenta de Twitter) y cruzar la información de sensores (dispuestos tanto en las luces LED de las calles -con antenas que transmiten a HANA-, como en desagües que miden precipitaciones y caudales), con los planes de limpieza.
"Más que big data, hablamos de objetivos de negocios, entendiendo el modelo del cliente y su estrategia: qué hacer con los datos", remarca Matías Varela, Data & Insights Manager en iProspect.
La compañía, especializada en marketing digital, lanzó la plataforma iAnalyse, que permite realizar seguimiento a la actividad publicitaria de una marca, viendo conversiones, ventas y variables cualitativas de atención, desde el CRM del cliente. "Permite cruzar múltiples fuentes de datos para una mejor comprensión y tener visibilidad del escenario completo", sostiene Varela, que trabajó con soluciones de big data en campañas digitales de empresas como General Motors.
Con la automotriz, bajo su marca Chevrolet, su foco estuvo en el desarrollo de un plan de datos y en dimensionar de múltiples maneras la información del entorno interactivo. "Trabajamos sobre la plataforma de Google AdWords. Generamos una nomenclatura, para descomponer los datos y poder ver cómo estaba performando la marca en búsquedas, display y videos. Nos permitió ver en detalle la campaña, por canales o por estrategia", admite Varela, que afirma que en los primeros seis meses se optimizó la relevancia de las búsquedas hasta un 87%. En paralelo, le permitió a brand managers y directores de GM comparar indicadores de desempeño (por vehículos, estrategias, dispositivos o canales). "Fue impulsado desde nuestro HUB a los mercados de habla hispana", afirma.
OLX es un ejemplo del uso de estas herramientas. La plataforma de clasificados implementó hace dos años una solución de MicroStrategy (Analytics 9.4.1), con el objetivo basado en la explotación de grandes bases de datos. "Arrancamos con un volumen de 400.000 registros, y en un año y medio bajamos toda la información de clicks, publicaciones, y otras actividades, y llegamos a los 120 millones de registros por mes", cuenta Carolina Blasco, Business Intelligence Manager de OLX.
Actualmente, los empleados de la compañía acceden a esa información, ya sea en dashboards o documentos, en soportes web o mobile, con la posibilidad de crear sus propios reportes, basados en distintas fuentes de datos, tanto internas como externas, sea de Google Analytics, clicks de navegación, campañas o de sistemas core. "Antes era hacer reportes para algo puntual. Hoy toda la compañía se maneja con análisis de datos. Se puede ver cómo es la performance en una ciudad o una categoría puntual o si un producto es compatible con determinado tipo de usuario", afirma Blasco.
Consumo masivo
Similar es el caso de Despegar.com, que trabaja con Data IQ (QlikView), con un equipo específico de 12 personas. Desde 2014, adoptó una solución de big data para la información transaccional, proveniente de fuentes como los propios usuarios del sitio, transacciones pasadas, pedidos de información, encuestas, redes sociales y hasta información que se pueda deducir de comportamientos similares de otros usuarios. "Trabajamos con tableros y aplicaciones que recaban datos sobre los flujos de navegación en tiempo real. Se procesa en tableros para áreas como Comercial, Satisfacción de Usuarios o Marketing", afirma Leandro Malandrini, Head of Product Management de Despegar.com. Cerca de 850 analistas utilizan los tableros a diario, sobre todo los que definen "los modelos de atribución": cuál es el estímulo que más incidió en la concreción de una reserva (sean avisos en radio, Google o banners en YouTube), o los de conversión pura: cuántos usuarios que entraron, terminaron comprando. Para Blasco, de OLX, "uno nunca termina de analizar toda la información". Por eso, trabaja en modelos de predicción de comportamientos: "Tenemos recomendaciones, pero falta. Queremos profundizar en modelos predictivos", sostiene.