13.09.17

Opinião do Expert

Lembra da expressão “Garbage in, Garbage out”? Em relação a Qualidade de Dados, ela não serve mais como justificativa...

  • #Big Data Analytics

Por Marcos Palmeiro, responsável pela unidade de Negócios de Governança, Qualidade e Monetização de Dados na Keyrus

 

 

A expressão veio de um colaborador da IBM há algum tempo atrás, como uma abordagem simples para explicar que dado um processo informatizado, ainda que este processo seja muito bem construído, se as informações de entrada tiverem baixa qualidade, as informações de saída ou resultado também terão baixa qualidade.

As áreas de Business Intelligence, Analytics, CRM entre outras que manipulam dados dentro da organização não raramente se apoiam muito nesta expressão “GIGO” para justificar a divergência de indicadores, baixa qualidade dos resultados de modelos estatísticos e ineficiência das ações de marketing direto. Sabemos que este caminho geralmente “limpa a barra” serve como justificativa quanto a responsabilidade pelo resultado abaixo do esperado e coloca o “bode na sala” da área responsável pela entrada dos dados, usualmente uma área de TI, que cuida de um sistema transacional que tem falhas de regras de validação etc.

Na saga para resolver questões como esta, a área de TI responsável pelo sistema de entrada de dados também apresenta sua justificativa, alegando usualmente que o sistema por sua vez não valida a qualidade de dados, não por uma falha do sistema, mas porque não foram especificados os requisitos para tal durante o processo de desenvolvimento. E isso é justamente o que normalmente acontece porque em sistemas transacionais, os requisitos e preocupações das áreas de negócios são mais orientados a operação, workflow etc. Muito bem, chegamos ao que parece ser o fim da linha e o problema continua sem “um dono”.

Este caso ilustrativo serve para elucidar a necessidade de se introduzir dentro dos projetos de sistemas, integrações de dados ou quaisquer outros meios de entrada de dados, não só os pré-requisitos funcionais e não-funcionais como performance, disponibilidade, mas também os pré-requisitos que garantam a confiabilidade e qualidade dos dados “na entrada”, para que posteriormente o uso analítico dos dados não seja inviabilizado ou prejudicado, ou até mesmo não seja necessário investir em projetos de saneamento/higienização de bases.

Neste contexto, uma questão que normalmente surge é: Mas de quem é a responsabilidade de definir as regras ligadas a Qualidade de Dados dentro da estrutura da organização? Da área de negócio que pede? Da área de TI que desenvolve? Da área de Governança de Dados que ainda não existe?

Não há uma única resposta quanto a definição de quem terá o papel da estrutura da organização, mas o que parece ser indiscutível é que a preocupação com a Qualidade de Dados é cada vez mais necessária para eliminar vulnerabilidades operacionais, garantir que a baixa qualidade de dados não prejudique os investimentos e iniciativas de Big data e Analytics e, principalmente, que os ativos de dados da organização sejam confiáveis. E a expressão “Garbage in, Garbage out” não cola mais....

A Keyrus pode ajudar a sua empresa a planejar e implementar estrutura, processos e ferramentas, através projetos de grande ou pequeno porte, sob medida para necessidade de cada negócio e com uma abordagem orientada a resultados, tendo como referência os diversos cases já realizados nesta área e as boas práticas de mercado.

 

Sobre o Autor

Pós-graduado do curso de Business Analytics & Big Data pela FGV, Marcos Palmeiro é responsável na Keyrus pela unidade de negócios de Governança, Qualidade e Monetização de Dados. Com 12 anos de experiência nesta área, atuou ao longo deste período em projetos de Database Marketing, Inteligência comercial, Dados Não Estruturados, Qualidade de dados e Governança de Dados em grandes empresas de Telecomunicações, Bancos, Varejo, Seguros e Serviços Financeiros (Bureau de Crédito).