• Saltar a la navegación principal
  • Saltar al contenido principal
  • Saltar al pie de página
Bluetab

Bluetab

an IBM Company

  • Soluciones
    • DATA STRATEGY
    • DATA READINESS
    • DATA PRODUCTS AI
  • Assets
    • TRUEDAT
    • FASTCAPTURE
    • Spark Tune
  • Conócenos
  • Oficinas
    • España
    • Mexico
    • Perú
    • Colombia
  • talento
    • España
    • TALENT HUB BARCELONA
    • TALENT HUB BIZKAIA
    • TALENT HUB ALICANTE
    • TALENT HUB MÁLAGA
  • Blog
  • ES
    • EN

tendencias

Data-Drive Agriculture; Big Data, Cloud & AI aplicados

noviembre 4, 2020 by Bluetab

Data-Drive Agriculture; Big Data, Cloud & AI aplicados

José Carranceja

Director Operaciones América

Hace unas semanas un cliente nos pidió que le contáramos como estaban posicionadas las tres big clouds en el mundo de la agricultura. Realmente no es una pregunta fácil, pero intentaré resumir algunos elementos que, desde mi experiencia, resultan relevantes acerca del estado de aplicación de las últimas tecnologías de datos en el sector. Un sector en el que la pandemia del coronavirus y su impacto en la escasez de trabajadores, han dado lugar a un aumento del interés por la inversión en robótica y la automatización.

En toda la cadena de valor del mercado agroalimentario hay realmente infinidad de soluciones de aplicación de tecnologías de analítica avanzada, empezando por soluciones cercanas al cliente final bajo el paraguas de los CRM y el Social Marketing, pasando por soluciones de automatización de procesos productivos bajo los ERP y la robotización de las operaciones, y por descontado soluciones de toda la cadena de logística en el ámbito del SCM, desde la optimización de rutas a la de activos en almacén. Pero son quizás menos conocidas y más específicas de agricultura, aquellas soluciones cercanas a los procesos iniciales en los cultivos y la producción de la materia prima alimentaria.

Probablemente este mercado se ha mantenido reticente a la implantación de grandes proyectos de transformación digital y por ello marginal para los grandes players, debido a la gran dispersión de los productores y su poca coordinación por iniciativas públicas. Pero aún con eso, marcas de la relevancia de Syngenta, DJI, Slantrange o John Deere representan en este momento ejemplos indudables de aplicación de las últimas tecnologías de analítica y datos en el sector.

En las fases productivas la combinación de sensores, drones, reconocimiento de imagen, termografía y espectrografía, vehículos autónomos y biotecnología han conseguido además de multiplicar las capacidades productivas, una drástica reducción de mano de obra, insumos químicos y uso de agua.

Actualmente además de los avances en sistemas de predicción meteorológica, los sistemas GPS o la fotografía satelital, los drones son una de las áreas de mayor desarrollo. Estas plataformas proporcionan información detallada sobre situación hidrológica, maduración de la cosecha o situación fitosanitaria. Las cámaras que montan actualmente plataformas Drone como DJI, permiten desde levantar geometrías tridimensionales del terreno, a identificar con precisión de centímetros donde aplicar agua o productos fitosanitarios y hasta el momento más adecuado para la cosecha de cada metro cuadrado. Todo ello mediante servicios disponibles en plataformas en la nube, utilizando algoritmos disponibles capaces de identificar número y tamaños de cosecha, o plagas específicas y su localización.

Tecnologías donde el procesamiento masivo de imágenes (gráficas, térmicas o espectrográficas) y la identificación de patrones son un elemento fundamental.

No hay que olvidar la gran evolución que los productos de origen químico o biológico están suponiendo. Syngenta a la cabeza de la producción de fertilizantes, semillas y productos fitosanitarios, promueve anualmente su Crop Challenge in Analytics en el que premia proyectos de analítica en todo el mundo para el desarrollo de sistemas eficientes y sostenibles.

Una característica relevante de este sector son los marketplaces, además de las soluciones cloud integradas que procesan las imágenes, proporcionan los resultados y generan las decisiones que conllevan, estos marketplaces provén también los modelos y algoritmos parametrizables para aplicarlos a tus datos. Slantrange a nivel internacional o Hemav en España son referentes de estas plataformas cloud integradas. Y plataformas como Keras o Caffe permiten no quebrarse la cabeza desarrollando algoritmos. Sencillamente hay que buscar los más adecuados, parametrizarlos para tu set de datos y ponerlos a competir para buscar el más eficiente. En Open AI están surgiendo nuevos modelos cada 18 meses.

Otro elemento fundamental son las plataformas de datos abiertos, desde meteorológicos, satelitales o geológicos a históricos en determinadas geografías. El cruce de estos con los datos propios, permiten desde predecir mejor fenómenos meteorológicos y su impacto en la maduración de la cosecha a predecir el futuro volumen de la misma y su valor en el mercado.

Finalmente, un elemento diferencial son los vehículos autónomos de empresas como John Deere que fabrica tractores que utilizan los mismos modelos de inteligencia artificial usados en coches autónomos tan sofisticados como el Waymo de Alphabet. Modelos de reconocimiento de imagen permiten colocar y medir las actuaciones de forma que llegan a reducirse en la aplicación de herbicidas o fertilizantes entre un 70 a un 90%. Hay que tener en cuenta que en condiciones normales aproximadamente un 50% de los fertilizantes se pierden en el ambiente.

En este contexto la revista 360 Market Updates en su informe de 2020, identifica para el mercado al que nomina como “Global Connected Agriculture”, una expectativa de crecimiento CAGR de 17.08% durante el periodo entre 2020 y 2024. Y los grandes players no son ajenos a esta perspectiva.

Intentando discriminar los principales actores en servicios cloud, según Gartner, en este momento son Google GCP, Amazon AWS y Microsoft Azure los lideres diferenciados tanto en infraestructura como en plataforma de analítica o BI. Pero es deficit identificar la más adecuada a un requerimiento genérico, incluso bajando a un nivel de detalle preliminar.

En nuestro análisis de las tres plataformas en el que hemos evaluado capacidades de extracción, integración y gobierno fundamentales, concluimos que las tres cuentan con servicios capaces de dar cobertura equivalente. Evidentemente las politicas de precio de todas se adaptan a los requerimientos de cada situación en los mismos términos de competitividad.

No obstante, bajando al terreno de las soluciones para el sector agroalimentario son AWS y Azure las que han desarrollado modelos de aproximación específicos. Ambos han desarrollado plataformas de integración para soluciones IoT, han integrando servicios para volcado de información de todo tipo de sensores, dispositivos o máquinas, y habilitando servicios para hacerlo tanto en streaming como en batch.

Tanto AWS como Azure cuentan con partners que apoyan los procesos de extracción de dichas plataformas IoT y aseguran las comunicaciones y la captación de los datos. Pero quizás Microsoft ha ido un paso más allá invirtiendo en partners con soluciones específicas end to end en el segment en el que son diferenciales en el sector. Un ejemplo de ello es Slantrange, que cubre el proceso completo que realizan los drones desde la generación de los planes de vuelo al procesamiento de las imagenes tanto termicas como termográficas y su explotación para la toma de decisions por los agricultores. Y en esa misma línea, Microsoft ha llegado a acuerdos con plataformas de drones líderes del mercado como DJI o AirMap y ha desarrollado una plataforma de simulación de vuelo Drone Flight Simulator 3D. Toda esta estrategia focalizada en el eslabón de origen de la cadena del negocio, le proporciona un paso adicional para la preparación de los datos previa al procesamiento en sus plataformas de inteligencia artificial.

El servicio Azure FarmBeats, permite la creación de un espacio especializado para el agricultor donde están integradas las capacidades de procesamiento de imagen de drones o satelital, así como algoritmos de análisis para la toma de decisions sobre cosechas.

Desde Bluetab vemos como la evolución de servicios de las tres plataformas están en un momento de extraordinaria evolución y las tres han entrado en una feroz carrera por asegurar que están a la altura de los servicios de sus mas cercanos competidores. Hoy en día cualquiera de las llamadas “killer application” como Kubernetes o kafka están disponibles en las tres y permiten unos niveles de integración de servicios, hasta ahora inpensables.  Por ello, en el análisis de la decision de la Plataforma, hay que incluir también otras variables de decisión importantes como son el nivel de implantación de la Plataforma en nuestro mercado local y la disponibilidad de recursos formados, la integración con nuestras plataformas actuales on premise o las políticas comerciales de cada una de ellas.

Podemos decir en términos generales, que actualmente la plataforma AWS lleva la delantera a sus competidores en lo que tiene que ver con posición de mercado, si bien ha tenido una pequeña reducción de su posición en el ultimo año. Y esto hace que en mercados como España o México nuestra percepción es que el número de recursos disponibles es tambien mayor.

Sin embargo, es claro que el nivel de preexistencia de soluciones Microsoft en el mercado corporativo y las facilidades de integración de toda su plataforma office con soluciones específicas como Power BI, hacen que la afinidad de uso para los usuarios posicione a Azure como la solución alternativa más demandada. Actualmente Power BI es una de las tres plataformas de explotación lideres conjuntamente con Tableau y Qlik.

Por otro lado, Google con GCP focaliza su estrategia en sus soluciones específicas de inteligencia artificial y machine learning como son sus soluciones de lenguaje natural o reconocimiento de imagen y sus plataformas tensorflow. Todo ello apoyado por la integración con sus plataformas de servicios bien conocidas como Maps o Adds. Y todo ello hace que su posición como tercer player esté afianzándose.

Finalmente hay que tener en cuenta dos puntos adicionales, el primero es que cada vez más el concepto multicloud es una realidad y herramientas como VM Ware permiten soluciones de gestion integradas para la coexistencia de diferentes soluciones con diferentes clouds. Por ello y este es el segundo punto, hay que evaluar los requerimientos específicos de cada servicio para valorar si alguna de ellas tiene un nivel de desarrollo superior. Así por ejemplo, en lo que tiene que ver con plataformas de gaming, Microsoft con Xbox parecería ser el lider, pero en este momento Lumberyard el motor de videjuegos y Twitch, ambos de AWS o Google Stream están entrando con fuerza. Y como en esto, en todos los segmentos, los tres competidores se reposicionan en pocos meses, por lo que las ventanas de diferenciación son a veces marginales.

Un mercado apasionante donde cada vez más las tres plataformas AWS, GCP y Azure, dificultan el acceso a otras como Alibaba, IBM y otros competidores, y profundizan en su posición generando oligopolios reales… pero este complejo asunto lo abordaremos en otra occasion.

¿Quieres saber más de lo que ofrecemos y ver otros casos de éxito?
DESCUBRE BLUETAB
José Carranceja
Director Operaciones América

Actualmente COO de Bluetab para América, y ha desarrollado su carrera profesional en diferentes puestos de gestión internacional en áreas de ventas y consultoría en empresas como IBM, BT o Bankinter. Además, ha liderado iniciativas de emprendimiento como JC Consulting Ass. de consultoría tecnológica o Gisdron un start up de servicios drone. Es Arquitecto especialista en cálculo de estructuras y se ha formado en escuelas de posgrado como IESE, INSEAD o el TEC de Monterrey.

SOLUCIONES, SOMOS EXPERTOS

DATA STRATEGY
DATA FABRIC
AUGMENTED ANALYTICS

Te puede interesar

Big Data e IoT

febrero 10, 2021
LEER MÁS

Cómo depurar una Lambda de AWS en local

octubre 8, 2020
LEER MÁS

Snowflake, el Time Travel sin DeLorean para unos datos Fail-Safe.

febrero 23, 2023
LEER MÁS

Data-Drive Agriculture; Big Data, Cloud & AI aplicados

noviembre 4, 2020
LEER MÁS

Conceptos básicos de AWS Glue

julio 22, 2020
LEER MÁS

Guía avanzada sobre almacenamiento en Snowflake

octubre 3, 2022
LEER MÁS

Publicado en: Blog, tendencias

Los Incentivos y el Desarrollo de Negocio en las Telecomunicaciones

octubre 9, 2020 by Bluetab

Los incentivos y el desarrollo de negocio en las Telecomunicaciones

Bluetab

El sector de las telecomunicaciones está cambiando más rápido que nunca. La creciente proliferación de competidores obliga a los operadores a considerar nuevas formas de ser relevantes para los clientes y las empresas. Muchas compañías han decidido convertirse en proveedores digitales de servicios, con el objetivo de satisfacer las necesidades de un consumidor cada vez más exigente.

Las compañías de telecomunicaciones han soportado una década de desafíos continuos, con la industria sometida a una serie de irrupciones que les empujan a innovar para no quedarse atrás. La revolución de los teléfonos inteligentes ha llevado al consumidor a demandar datos y conectividad ilimitada por encima de otros servicios.

Algunos estudios revelan que los principales retos a los que se enfrentarán las tele operadoras son la competencia disruptiva y creciente, la agilidad y la inversión, de las que se extraen cuatro mensajes clave para entender el futuro del sector:

1. La competencia disruptiva encabeza la lista de desafíos del sector

Plataformas como WhatsApp-Facebook, Google, Amazon han redefinido la experiencia del cliente ofreciendo servicios de mensajería instantánea, que han tenido un impacto directo en la demanda de servicios como los SMS, disminuyéndola radicalmente.

Además, la tendencia del mercado es ofrecer paquetes multiservicio y propiciar que el cliente los personalice según sus propias necesidades, llevando esto a fusiones, adquisiciones y asociaciones entre empresas, para poder ofrecer servicios cada vez más variados.

2. Apuesta por modelos comerciales digitales e innovación en la experiencia del cliente

Las grandes posibilidades que ofrece la digitalización la han convertido en el concepto al que aspiran la gran mayoría de compañías del sector. No es extraño que también en el sector de las telecomunicaciones se intente virar hacia un modelo de negocio digital.

Según el Observatorio Vodafone de la Empresa, un 53% de las empresas entienden la digitalización como el uso de las nuevas tecnologías en los procesos de su negocio y un 45% como el uso de nuevas tecnologías para mejorar el servicio al cliente.

3. El paisaje posterior a 2020 será transformado por el 5G

El 5G acaba de aterrizar en España, la nueva generación de telefonía móvil llamada a revolucionar no solo el mundo de las comunicaciones sino la industria del futuro. Los cuatro operadores nacionales ―Telefónica, Orange, Vodafone y MásMóvil― han lanzado ya los primeros servicios comerciales 5G, aunque solo en las ciudades más importantes, con una cobertura reducida y unas capacidades técnicas muy limitadas. En este arranque temprano ha influido también el cambio que ha supuesto la pandemia de la covid-19, que ha destapado la necesidad de estar comunicados en todo momento con buena calidad por el smartworking, educación digital, compras online y la explosión del streaming. España dispone de la red de fibra más potente de Europa, pero todavía hay regiones sin cobertura. Gracias a la apuesta total por la FTTH (fiber-to-the-home), nuestro país cuenta con una conexión estable que llega desde la central telefónica hasta casa de manera directa. Según datos del Consejo Europeo de Fibra hasta el hogar 2020, España cuenta con más instalaciones conectadas con fibra (10.261) que la suma de Francia, Alemania, Italia y Reino Unido.

Con estas necesidades de digitalización, las operadoras cobran un papel de máximo protagonismo.

Medidas a tener en cuenta

Conseguir esa digitalización tan ansiada no es un proceso fácil, y requiere un cambio de mentalidad organizacional, de estructura y de interacción.

El talento se cree que puede ser un elemento clave para la transformación digital, y defienden también que la falta de habilidades digitales es percibida como una barrera para conseguir dicha transformación, sus actos son otros. Pues, tan solo el 6% de los directivos creen que el crecimiento y la retención del talento son una prioridad estratégica.

Perspectiva de los trabajadores sobre su nivel de motivación laboral:

  • Un 40% se sienten infravalorados y poco apreciados por su empresa. Esta circunstancia aumenta la posibilidad de que los empleados busquen otro empleo que les devuelva la motivación laboral.
  • El 77% de los trabajadores reconoce que se implicaría más en su trabajo si se reconocieran sus logros dentro de la organización.
  • Más del 60% de las personas afirman que un programa de incentivos o beneficios sociales contribuye a no querer buscar otro trabajo. Para las empresas es un dato a tener en cuenta ya que se calcula que retener talento puede generar entre un 25% y un 85% de incremento en los beneficios de la empresa.

Perspectiva de las empresas sobre el nivel de motivación laboral de sus empleados:

  • El 56% de los responsables de gestión de personal manifiestan “estar preocupados” porque sus empleados abandonen la empresa.
  • El 89% de las empresas considera que la principal razón por la que sus trabajadores buscan otro empleo es que desean optar a un salario más elevado. Sin embargo, tan solo un 12% de los empleados que cambia de empresa gana más en su nuevo empleo, lo que demuestra que la retribución económica no es únicamente lo que motiva el cambio.
  • El 86% de las empresas ya tiene sistemas de incentivos o de reconocimiento para sus empleados.

Así, más allá de los cambios y las tendencias que se sucederán en este sector, las empresas de Telecomunicación deben intensificar la retención de talento y convertirlo en una prioridad para afrontar todos los retos a los que se enfrentan en su camino hacia la digitalización.

Una medida muy importante a la hora de retener y atraer talento, son los incentivos laborales. Los incentivos laborales, son recompensas que la empresa otorga al empleado por la consecución de unos objetivos determinados. De esta forma se aumenta la implicación, motivación, productividad y satisfacción profesional de los trabajadores.

Por ello, cada vez son más, las compañías del sector que deciden desarrollar un programa de incentivos laborales, en el que previamente, se han estudiado y planificado cuáles son los incentivos idóneos y que mejor se ajustan, en función de la empresa y el tipo de empleados, con el objetivo de motivar a sus trabajadores para que aumenten su producción y mejoren sus resultados laborales.

En el caso del sector de las comunicaciones, estas medidas supondrán también un aumento de las ventas y beneficios en la compañía. Dentro de este sector las ventas se realizan a través de distribuidores, agencias, comerciales internos y tiendas propias, dirigidas a clientes tanto particulares como a empresas. Por eso la importancia que se le otorga a la fuerza de ventas, lo que da lugar a comerciales más motivados y con mayores ganas de dar lo mejor de sí mismos día a día, llevando así a una mejora de beneficios para la empresa.

Además, estarán sujetos a incentivos todas las áreas asociadas a las ventas, departamentos que permiten, facilitan y se encargan de asegurar la salud de las ventas, así como de atención al cliente.

Para que un sistema de incentivos sea efectivo, es fundamental, que esté bien definido, bien comunicado, que sea entendible y que esté basado en unos objetivos medibles, cuantificables, explícitos y alcanzables.

Los incentivos laborales, pueden ser, económicos o no. Para el empleado tiene que ser algo que le suponga una recompensa o un premio a su esfuerzo. Solo así el plan de incentivos será eficaz.

Por último, una vez fijado el plan de incentivos, la empresa debe evaluarlo periódicamente porque en un entorno cambiante como el actual, los objetivos de compañía, las motivaciones de los empleados y el mercado variarán. Para adaptarse a los cambios en el mercado y a las distintas situaciones tanto internas como externas, deberá ir evolucionando en el tiempo.

¿Qué ventajas otorgan a las compañías telco los sistemas de incentivos?

Implantar un plan de incentivos en la empresa tiene muchos beneficios para los trabajadores, pero también para las compañías:

  • Mejora la productividad de los empleados
  • Atrae profesionales cualificados
  • Aumenta la motivación de los empleados
  • Evaluación de los resultados
  • Fomenta el trabajo en equipo

/bluetab en uno de nuestros cliente TELCO  ha desarrollado una herramienta interna de negocio de cálculo de incentivos para las distintas áreas asociadas a las ventas. En este caso, los incentivos laborales, son económicos y la evaluación de desempeño, asociada al cumplimiento de los objetivos, consiste en un porcentaje económico del salario. La consecución de una serie de objetivos, mide la contribución al crecimiento rentable de la compañía dentro de un período de tiempo.

Para dicho desarrollo del cálculo de los incentivos se tendrán en cuenta los siguientes factores:

  • Política: Definición y aprobación de la política de incentivos para los diferentes segmentos y canales de venta por parte del departamento de RRHH.
  • Objetivos: Reparto de objetivos de la compañía que se dividen en las diferentes áreas asociadas a la venta.
  • Performance: Desempeño de la fuerza de ventas y áreas asociadas a las mismas, en los períodos definidos previamente en la política.
  • Cálculo: Cálculo del desempeño y consecución de objetivos, de todos los perfiles incluidos en la política de incentivos.
  • Pago: Subida de pago a nómina de los incentivos correspondientes en función del rendimiento. Los pagos serán bimestrales, trimestrales, semestrales o anuales.

¿Cómo lo hacemos?

/bluetab desarrolla herramientas de seguimiento del cumplimiento de los objetivos y el cálculo de los incentivos. Esto permite a cada una de las personas relacionadas con la venta, a quienes les aplica este modelo, hacer seguimiento de sus resultados, así como a los diferentes departamentos relacionados con la decisión de los mismos, recursos humanos, directores de ventas, etc.

Para desarrollar este tipo de herramientas lo más importante es analizar todas las necesidades del cliente, recopilar toda la información necesaria para el cálculo de los incentivos y entender bien la política por completo. Analizamos y recopilamos todas las fuentes de datos necesarias para posteriormente integrarlas en un repositorio único.

Las diferentes fuentes de datos pueden ser ficheros en formato Excel, csv, txt, diferentes sistemas de información propios del cliente como Salesforce, herramientas de configuración de oferta, sistemas de bases de datos (Teradata, ORACLE, etc). Lo importante es adaptarse a cualquier entorno en el que trabaje el cliente.

Para la extracción de todas las fuentes de datos, de forma automática, habitualmente empleamos procesos programados en Python. A continuación, integramos todos los ficheros resultantes mediante procesos ETL, realizando todas las transformaciones necesarias y cargando los datos ya transformados, en un sistema de BBDD como único repositorio (por ejemplo Teradata)

Por último, conectamos la BBDD con una herramienta de visualización de datos, como por ejemplo Power BI. En dicha herramienta se implementa todos los cálculos de incentivos. Posteriormente se publican los cuadros de mando para compartirlo con los distintos usuarios proporcionando seguridad tanto a nivel de accesos como de protección de datos.

Como valor añadido, incluimos previsiones a futuro de dos formas diferentes. La primera basada en datos proporcionados por el cliente, reportados a su vez por la fuerza de ventas. La segunda, integrando algoritmos de análisis predictivo mediante el uso de Python, Anaconda, Spider, R,  que a partir de un histórico de los diferentes KPIs, permite estimar datos a futuro, con márgenes de error reducidos. Esto permite predecir a futuro los resultados de los incentivos.

Además, mediante el uso de parámetros, se podrán hacer simulaciones de los diferentes escenarios para el cálculo de los objetivos y consecución de los incentivos.

La herramienta de /bluetab desarrollada permitirá de una manera flexible, dinámica y ágil, a los departamentos afectados por los incentivos, realizar un seguimiento diario, semanal, mensual o anual de sus resultados. Así como a los departamentos implicados en las decisiones, la monitorización de los datos, les permitirá una mejora en la toma de decisiones futuras.

Beneficios aportados por /bluetab

  • Centralización de la información, posibilidad de hacer el cálculo y el seguimiento con una única herramienta.
  • Mayor periodicidad de actualización: Pasamos de una actualización en algunos casos mensual y semestral a diaria – semanal y en ocasiones real-time.
  • Reducción en un 63% de tiempo dedicado a tareas de cálculo manual.
  • Mayor trazabilidad y transparencia.
  • Escalabilidad y despersonalización de informes.
  • Reducción en un 11% de errores procedentes del manejo manual de múltiples fuentes diferentes. Calidad del dato
  • Inteligencia artificial simulando diferentes escenarios
  • Visualización dinámica y monitorización de la información
  • Mejora en la toma de decisiones a nivel de negocio
¿Quieres saber más de lo que ofrecemos y ver otros casos de éxito?
DESCUBRE BLUETAB

Deja un comentario

SOLUCIONES, SOMOS EXPERTOS

DATA STRATEGY
DATA FABRIC
AUGMENTED ANALYTICS

Te puede interesar

Detección de Fraude Bancario con aprendizaje automático II

septiembre 17, 2020
LEER MÁS

Mitos y verdades de los ingenieros de software

junio 13, 2022
LEER MÁS

Introducción a los productos de HashiCorp

agosto 25, 2020
LEER MÁS

LakeHouse Streaming en AWS con Apache Flink y Hudi

abril 11, 2023
LEER MÁS

Cómo preparar la certificación AWS Data Analytics – Specialty

noviembre 17, 2021
LEER MÁS

Algunas de las capacidades de Matillion ETL en Google Cloud

julio 11, 2022
LEER MÁS

Publicado en: Blog, tendencias

¿Cuánto vale tu cliente?

octubre 1, 2020 by Bluetab

¿Cuánto vale tu cliente?

Bluetab

Nuestro cliente es una multinacional referente del sector de la energía con inversiones en extracción, generación y distribución, con importante implantación en Europa y Latinoamérica. Actualmente está desarrollando iniciativas de inteligencia de negocio explotando sus datos con soluciones embebidas sobre plataformas cloud. 

El problema que tenía era gordo ya que, para generar cualquier caso de uso, había que consultar un sinnúmero de fuentes de información generadas manualmente por diversos departamentos esto incluye archivos de texto y hojas de cálculo, pero no solo eso, también había que echar mano de sistemas de información que van desde Oracle DB hasta Salesforce. 

«El problema que tenía era gordo ya que, para generar cualquier caso de uso, había que consultar un sin número de fuentes de información generadas manualmente.»

La solución estaba clara, había que concentrar toda la información necesaria en un solo lugar, de manera segura, disponible en todo momento, organizada y sobre todo, eficiente en costos. La decisión fue implementar un DataLake en la nube de AWS.

En la evolución del proyecto, el cliente está preocupado ante las vulnerabilidades de sus servidores locales donde ha tenido algunos problemas con la disponibilidad de sus servicios e incluso la intrusión de un virus informático, a lo que /bluetab propone migrar los procesos más críticos completamente a la nube, entre ellos un modelo de segmentación de clientes, desarrollado en R. 

Para segmentar la cartera de clientes se requiere de un ETL desarrollado en Python usando como DWH Amazon Redshift, donde además se ejecuta a demanda un clúster Big Data EMR con tareas desarrolladas en Scala para manejar grandes volúmenes de información de transacciones generadas de manera diaria. Los resultados del proceso que anteriormente eran alojados y explotados desde un servidor Microstrategy, ahora fueron desarrollados en reportes y dashboards usando Power BI.

«…el nuevo diseño de la arquitectura y la mejor gestión de los servicios cloud en su uso diario, nos permitió optimizar la facturación en la nube reduciendo en mas de un 50% el OPEX»

No solo logramos integrar un cúmulo importante de información de negocio en un repositorio centralizado y gobernado, sino que el nuevo diseño de la arquitectura y la mejor gestión de los servicios cloud es su uso diario, nos permitió optimizar la facturación en la nube reduciendo en más de un 50% el OPEX. Pero además este nuevo modelo permite acelerar el desarrollo de cualquier iniciativa que requiera hacer uso de estos datos, y con ello reducir el costo del proyecto

Ahora nuestro cliente quiere poner a prueba y aprovechar las herramientas que hemos puesto en sus manos para responder una pregunta más complicada ¿Cuánto valen mis clientes?…

Su modelo tradicional de segmentación en el negocio de distribución se basaba fundamentalmente en un análisis del histórico de pagos y del volumen de facturación. De esta manera predicen la posibilidad de impagos en nuevos servicios, y el valor potencial del cliente en términos de facturación. Todo ello cruzado con información de estados financieros conformaba aún un modelo con un amplio rango de mejora.

«En /bluetab tenemos experiencia en desarrollo de modelos analiticos que aseguren una aplicación edficiente y medible de los algoritmos más adecuados para cada problemática y cada set de datos»

En /bluetab tenemos experiencia en el desarrollo de modelos analíticos que aseguren una aplicación eficiente y medible de los algoritmos más adecuados para cada problemática y cada set de datos, pero en este momento el mercado aporta soluciones de modelos analíticos muy maduros que, con una mínima parametrización, permiten obtener buenos resultados acortando drásticamente el tiempo de desarrollo. De esta manera, echamos mano de un modelo ampliamente probado de CLV (Customer Lifetime Value) para ayudar a nuestro cliente a evaluar el potencial valor en el ciclo de vida de sus clientes.

En el nuevo escenario, a los datos de ingresos y gastos de los clientes, hemos incorporado variables como Costos de atención Postventa (como gestión de recobro, costes de resolución de incidencias en CC, costos de agentes intermediarios de facturación…), y costes de Logistica de Aprovisionamiento, pudiendo incluir datos sobre posicionamiento geográfico para costes de distribución, madurez del mercado en términos de market share, o cruzarlo con información que proporcionan diferentes fuentes del mercado. De esta manera nuestro cliente puede hacer estimaciones más ajustadas del valor de sus clientes actuales y potenciales, y realizar modelizaciones y predicción de rentabilidad de nuevos mercados o nuevos servicios.

El potencial beneficio en la aplicación de los modelos analíticos depende de aspectos menos “sexis” como son una consistente organización y gobierno en el back office de los datos, la calidad de los datos que aprovisionan el modelo, la puesta en marcha del modelo siguiendo las mejores prácticas DevOps y la constante comunicación con el cliente para asegurar el alineamiento con negocio y poder extraer/visualizar las conclusiones de valor de la información obtenida. Y en /bluetab creemos que esto sólo es posible con un conocimiento técnico experto y una profunda vocación de entendimiento del negocio de nuestros clientes.   

«El potencial beneficio en la aplicacion de los modelos analiticos solo es posible con un conocimiento técnico experto y una profunda vocación de entendimiento del negocio de nuestros clientes»

¿Quieres saber más de lo que ofrecemos y ver otros casos de éxito?
DESCUBRE BLUETAB

Deja un comentario

SOLUCIONES, SOMOS EXPERTOS

DATA STRATEGY
DATA FABRIC
AUGMENTED ANALYTICS

Te puede interesar

$ docker run 2021

febrero 2, 2021
LEER MÁS

Mi experiencia en el mundo de Big Data – Parte II

febrero 4, 2022
LEER MÁS

Workshop Ingeniería del caos sobre Kubernetes con Litmus

julio 7, 2021
LEER MÁS

Databricks sobre Azure – Una perspectiva de Arquitectura (parte 2)

marzo 24, 2022
LEER MÁS

DataOps

octubre 24, 2023
LEER MÁS

La gestión del cambio: El puente entre las ideas y el éxito

febrero 5, 2025
LEER MÁS

Publicado en: Blog, tendencias

Detección de Fraude Bancario con aprendizaje automático II

septiembre 17, 2020 by Bluetab

Detencción de fraude bancario con aprendizaje automático II

Bluetab

¡Un modelo para pillarlos a todos !

La creación de modelos descriptivos y predictivos se basa en la estadística y el reconocimiento de patrones de grupos con características similares. Hemos creado una metodología que permite la detección de anomalías usando el comportamiento histórico de transacciones del canal ATM para una de las entidades financieras más importantes en Latam.

Mano a mano con el cliente y un grupo de estadistas y expertos en tecnología, hemos creado una herramienta para los procesos de auditoría que facilita la detección de anomalías en los frentes más importantes y accionables para el negocio. Desde problemas operativos, de disponibilidad, errores tecnológicos, hasta fraude interno o externo.

El canal de ATMs representa una área de negocio que se encuentra sometida a contacto directo con el público usuario, y es vulnerable por razones como la conectividad y fallas de hardware. El número de transacciones diarias de una red de más de 2000 cajeros involucra una cantidad enorme de indicadores y métricas registradas tanto de carácter tecnológico, como también operativo. Actualmente un grupo de auditores se da a la tarea de muestrear y analizar de manera manual este stream de datos para identificar riesgos sobre la operativa del canal ATM.

Las características de la operativa, hacen que la tarea de reconocer patrones sea diferente para cada ATM dado que la tecnología en cada unidad y el volumen de transacciones está influenciada por factores como el fenómeno estacional, la demografía e incluso el estatus económico de la zona. Para hacer frente a este reto /bluetab desarrolló un framework alrededor de Python y SQL para la segmentación de las tipologías más adecuadas conforme a criterios variables, y la detección de anomalías sobre un conjunto de más de 40 indicadores clave para la operativa del canal. Para ello se  involucraron modelos de aprendizaje no supervisado, y  series de tiempo que nos permiten identificar entre grupos de cajeros comparables y lograr una detección de anomalías más certera.

Los resultados de este framework, puramente matemáticos, fueron condensados y traducidos en métricas de vulnerabilidad manejables para el negocio, y que desarrollamos de la mano del usuario final en Qliksense. De esta manera pusimos en manos del cliente un entorno de análisis que cubre todos los aspectos importantes de la operativa pero que además permite incorporar otras casuística a demanda.

Ahora los auditores pueden hacer análisis sobre meses de información que considera las situación temporal del mercado, la posición geográfica o las características tecnológicas y transaccionales, donde antes solo tenían capacidad para analizar muestras.

Trabajamos con nuestro cliente para impulsar iniciativas que permitan incorporar la tecnología y hacer más eficiente la operación y agilizar el tiempo de respuesta ante cualquier incidencia.

¿Quieres saber más de lo que ofrecemos y ver otros casos de éxito?
DESCUBRE BLUETAB

SOLUCIONES, SOMOS EXPERTOS

DATA STRATEGY
DATA FABRIC
AUGMENTED ANALYTICS

Te puede interesar

KubeCon 2023: Una mirada hacia el futuro de Kubernetes

abril 26, 2023
LEER MÁS

¿Cómo pueden las empresas asegurarse de que sus datos estén estructurados, escalables y disponibles cuando se necesiten?

septiembre 13, 2024
LEER MÁS

Azure Data Studio y Copilot

octubre 11, 2023
LEER MÁS

Mi experiencia en el mundo de Big Data – Parte I

octubre 14, 2021
LEER MÁS

MICROSOFT FABRIC: Una nueva solución de análisis de datos, todo en uno

octubre 16, 2023
LEER MÁS

Bluetab en la ElixirConfEU 2023

mayo 3, 2023
LEER MÁS

Publicado en: Blog, tendencias

Detección de Fraude Bancario con aprendizaje automático

septiembre 17, 2020 by Bluetab

Detencción de fraude bancario con aprendizaje automático

Bluetab

El sector financiero se encuentra en la actualidad sumergido en una lucha contra el fraude bancario siendo uno de sus mayores retos. En el 2018, la banca española notificó un aumento del 17,7% de las reclamaciones producidas por cobros o transacciones indebidas con respecto al año anterior y sólo en 2017 hubo más de 123.064 fraudes online a empresas y particulares.

La banca española está encarando la batalla contra el fraude desde un punto de vista tecnoló-gico. Actualmente en pleno proceso de digitaliza-ción, con inversiones que rondan los 4.000 millo-nes de euros anuales, está dedicando sus esfuer-zos en la adopción de nuevas tecnologías como el Big Data y la Inteligencia Artificial. Con estas tecnologías se pretende mejorar y automatizar distintos procesos donde se incluye la gestión y detección del fraude.

En /bluetab estamos llevando a cabo distintas iniciativas dentro del marco tecnológico de Big Data e Inteligencia Artificial en el sector finan-ciero. En el marco de nuestras iniciativas de “Advanced Analytics & Machine Learning” nos encontramos actualmente colaborando en proyectos de Seguridad y Fraude donde, gracias al uso del Big Data y la Inteligencia Artifi-cial, somos capaces de ayudar a nuestros clien-tes a crear modelos predictivos más precisos.

Y, ¿cómo el aprendizaje automático puede ayudar a prevenir el fraude bancario?. Poniendo foco en las colaboraciones realizadas dentro del área de Fraude, /bluetab afronta este tipo de iniciativas partiendo de una serie de transferencias identificadas como fraude y de un set de datos con las sesiones de los usuarios en la banca electrónica. El reto consiste en generar un modelo capaz de predecir cuándo una sesión puede ser fraudulenta poniendo el “target” en los falsos positivos y negativos que el modelo pueda producir.

La comprensión del negocio y de los datos es de gran importancia para realizar una correcta modelación

Para la resolución de este tipo de retos tecnológicos, hemos observado cómo el uso de una meto-dología es de vital importancia para poder encarar estos retos. En /bluetab hacemos uso de una adaptación in-house y “ad-hoc” para Banca de la metodología CRISP-DM en la cual distinguimos las siguientes fases:

  • Comprensión del negocio
  • Comprensión de los datos
  • Calidad de los datos
  • Construcción de predictores inteligentes
  • Modelación


Consideramos que en los proyectos de detección de Fraude Online la comprensión del negocio y de los datos es de gran importancia para realizar una correcta modelación. Un buen análisis de los datos nos permite poder observar cómo éstos están relacionados con la variable objetivo (el fraude), así como otros aspectos estadísticos (distribución de los datos, búsqueda de outliers, etc.) de no menor importancia. En estos análisis se puede observar la existencia de variables con gran capacidad predictiva las cuales denominamos “variables diamante”. Atributos como: el número de visitas a la web, el dispositivo utilizado para la conexión, el sistema operativo o el navegador utilizado para la sesión (entre otras), suelen encontrarse fuertemente relacionadas con el fraude bancario. Además, el estudio de estas variables nos dice que, de manera individual, pueden llegar a reunir más del 90% de las transacciones fraudulentas. Es decir, el análisis y la comprensión del negocio y los datos, permite evaluar la mejor forma de plantear una solución sin vernos perdidos en un mar de datos.

Una vez se tiene el conocimiento del negocio y de los datos y tras haber obtenido aquellas varia-bles con mayor poder predictivo, es imprescindible contar con herramientas y procesos que aseguren la calidad de estas variables. Es indispensable realizar los entrenamiento de los modelos predictivos con variables y datos históricos fiables. Un entrenamiento con variables de baja calidad podría dar lugar a modelos erráticos con gran impacto dentro del negocio.

Tras asegurar la fiabilidad de las variables predictoras seleccionadas, la siguiente etapa pasa por construir variables predictoras inteligentes. Estas variables seleccionadas en los pasos anteriores, aún teniendo una fuerte relación con la variable a predecir (target) puede provocar ciertos problemas de comportamiento a la hora de realizar la modelación, es por eso que es nece-sario un paso de preparación de los datos. Esta preparación de datos pasa por realizar ciertas adaptaciones a las variables para poder ser utilizada dentro del algoritmo, como puede ser el tratamiento de nulos o el tratamiento de variables categóricas. Adicionalmente, se debe realizar un tratamiento correcto de los outliers identificados en los pasos previos, para no incluir información que pueda distorsionar el modelo.

De la misma manera, con el objetivo de “afinar” el resultado, es de vital importancia aplicar distintas transformaciones a las variables para mejorar el valor predictivo del modelo. Transformaciones matemáticas básicas como la exponencial, la logarítmica o la estandarización, junto con transformaciones más complejas como la WoE permiten poder mejorar de manera nota-ble la calidad de los modelos predictivos gracias al uso de variables más trabajadas facilitando la tarea al modelo.

Por último, la etapa de modelación se centra en enfrentar distintos tipos de algoritmos con distintas configuraciones de hiperparámetros para obtener aquél modelo que genere una mejor predicción. Aquí es donde herramientas como Spark nos ayudan en gran medida, al poder realizar entrenamientos de distintos algoritmos y configuraciones de manera rápida, gracias a la programación distribuida.

Para la sostenibilidad de su aplicación y evitar la obsolescencia del modelo, esta metodología se debe ir siguiendo de manera mensual en cada caso de uso y más a la hora de encarar una iniciativa como es el fraude bancario. Esto se debe a que pueden aparecer nuevas formas de fraude que no estén contempladas en los modelos entrenados. Por ello es importante tener entendimiento y seleccionar adecuadamente las variables con las que reentrenar los modelos, para que no se queden obsoletos con el tiempo, lo que podría perjudicar gravemente al negocio.

En definitiva, una buena metodología de trabajo es vital a la hora de enfrentarse a problemas dentro del mundo de la Inteligencia Artificial y Advanced Analytics, siendo esenciales las fases de comprensión del negocio y de los datos. Siendo un “must” en la actualidad el disponer de herramientas internas especializadas que permitan ejecutar este tipo de proyectos en pocas semanas, generando quick wins en nues-tros clientes y sus negocio

¿Quieres saber más de lo que ofrecemos y ver otros casos de éxito?
DESCUBRE BLUETAB

SOLUCIONES, SOMOS EXPERTOS

DATA STRATEGY
DATA FABRIC
AUGMENTED ANALYTICS

Te puede interesar

Gobierno de Datos: ¿tendencia o necesidad?

octubre 13, 2022
LEER MÁS

Del negocio físico a la explosión del On-Line

abril 7, 2021
LEER MÁS

Domina los Costos en la Nube: Optimización de GCS y BigQuery en Google Cloud

marzo 17, 2025
LEER MÁS

Cambios de liderazgo en Bluetab EMEA

abril 3, 2024
LEER MÁS

El futuro del Cloud y GenIA en el Next ’23

septiembre 19, 2023
LEER MÁS

Data Mesh

julio 27, 2022
LEER MÁS

Publicado en: Blog, tendencias

  • « Ir a la página anterior
  • Página 1
  • Página 2

Footer

LegalPrivacidadPolítica de cookies

Patrono

Patrocinador

© 2025 Bluetab Solutions Group, SL. All rights reserved.