Construímos um data lake que comporta de forma estruturada todos os dados relacionados às campanhas de marketing digital de uma companhia aérea.
Esses dados alimentam um dashboard personalizado, criado para ajudar as equipes a tomarem decisões estratégicas e inteligentes de investimento.
Desenvolvemos uma engenharia de dados que unificou de forma estruturada todas as fontes dados relacionados às vendas de sell-in e sell-out.
Como output criamos um dashboard personalizado. Que tem como objetivo ajudar o time de vendas a fazer consultas rápidas aos principais indicadores, encontrar inconsistências nas vendas de sell-out declaradas pelos distribuidores e monitorar as necessidades de cada um de seus clientes.
Para uma rede de lojas de conveniência criamos ofertas e combinações de produtos específicos para diferentes segmentos de consumidores. Para isso, estruturamos e categorizamos todos os dados relacionados ao comportamento dos consumidores e suas jornadas.
Desenvolvemos análises preditivas, criando ofertas e conjuntos de produtos sob medida. Com as ações mais assertivas, tivemos aumento de vendas e fidelizando os clientes através de conteúdo direcionado.
Para um cliente do seguimento de Telecom, estruturamos todos os dados relacionados às visitas técnicas em uma infraestrutura de big data. Com isso fomos capazes de identificar custos excessivos e desnecessários.
Criamos um plano de ação com potencial de redução do custo em visitas técnicas e em chamadas no callcenter para motivos técnicos.
Com a chegada ao mercado das plataformas de streamings houve um aumento no CHURN das assinaturas de TV a cabo. Dessa forma, uma grande Telecom nos deu o desafio de identificar o ponto de inflexão onde um cliente deixa de ver valor na TV a cabo e se torna um PRÉ-CHURN.
Através do cruzamento dos dados de atendimento e comportamentais. Dessa forma, conseguimos identificar que o produto TV começa a perder o valor para os clientes de 5 a 8 meses antes de efetuarem o cancelamento de fato.
Para diminuir tanto o tempo de espera quanto o tamanho da fila de caminhões de um porto, analisamos milhares de dados de navios, guindastes e caminhões que operam diariamente a logística.
Identificamos pontos cegos no monitoramento da operação e logística. Para isso fizemos engenharia de dados e criamos novas variáveis e análises que elucidam os pontos de melhorias, anteriormente ignorados.
Para um cliente de telecomunicações tivemos o desafio de nos aprofundar nas visitas técnicas reagendadas pelo técnico para encontrar quebra de agenda fraudulentas.
Utilizando bases de ordens de serviço, parceiras e técnicos fizemos um trabalho de big data analytics e conseguimos encontramos 2 códigos que estavam sendo utilizados erroneamente pelos técnicos para reagendar propositalmente as visitas técnicas.
Para um cliente do seguimento de Telecom, recebemos o objetivo de mapear e identificar pontos de melhoria nas jornadas de rechamadas do atendimento humano.
Cruzando dados de ligações e ocorrências sistêmicas dos clientes conseguimos identificar poucas jornadas que eram responsáveis por quase 20% das rechamadas no atendimento humano. Nesse projeto também apontamos pontos de melhoria na KPI que mensura resolutividade de um problema para o cliente.
Dentro da estratégia de retenção, grandes empresas optam por um atendimento especializado e oneroso. Diante disso, através dos dados de ligações e características dos clientes, desenvolvemos um modelo que analisa e atrela um score de probabilidade de cancelamento a eles.
Assim, redirecionamos os clientes com baixíssima probabilidade de cancelamento para um atendimento comum, reduzindo os custos.
Tínhamos como objetivo identificar futuros equipamentos ofensores de custo de manutenção com uma janela determinada, para que as ações da empresa não sejam feitas de forma reativa, e sim de maneira preditiva.
Conseguimos desenvolver e colocar em produção diversos modelos de machine learning. Que conseguiram identificar com uma acurácia excelente os equipamentos ofensores de custo. Também utilizamos técnicas de explicabilidade para identificar as variáveis responsáveis por esse comportamento.
Recebemos o desafio de quantificar e qualificar o esforço operacional no atendimento ao cliente de uma grande rede de postos de combustíveis.
Criamos um modelo estatístico, utilizando dados dos processos de atendimento e compras dos clientes. Que serviu como métrica/KPI de verificação do esforço operacional das principais jornadas de atendimento, assim foi possível melhor mensurar as jornadas mais onerosas e custosas.
Para uma grande rede varejista, recebemos como objetivo mapear e classificar as jornadas de loja física, de acordo com sua criticidade para o cliente.
Utilizando ferramentas de big data com processamento paralelizado analisamos 18 bases de dados diferentes, com perfil de compra, reclamações e trocas, criamos um inventário de jornadas e desenvolvemos um modelo de criticidade para identificar as piores jornadas pelo ponto de vista da cliente.
Muitas empresas optam em implantar sistemas de NPS, para tentar entender a qualidade dos seus atendimentos ao cliente. Porém, o principal problema desses sistemas é o pouco volume de avaliações pelos clientes (de 5% a 10% em média).
Dessa forma, através do histórico de atendimentos de um grupo de empresas, conseguimos desenvolver um modelo que atribui um score de NPS, mesmo o cliente não respondendo a pesquisa de avaliação no final.
Converse com nosso time de data scientists.