Aqueles de nós que passaram anos estudando empresas “de dados inteligentes” acreditam que já vivemos duas eras no uso da análise de dados: antes e depois do processamento de grandes volumes de informação. Ou, para usar a nomenclatura convencional correspondente ao tema, podemos dizer que a 1.0 foi seguida pela 2.0. Em comparação com, digamos, uma versão 1.1, um produto 2.0 é uma revisão mais substancial com base em novas prioridades e possibilidades técnicas. Isso certamente ocorreu quando um grande número de empresas começou a tirar proveito de vastas novas fontes de informação não estruturada que flui velozmente — o que foi batizado de “big data”.
Alguns de nós percebemos uma outra mudança que é fundamental e de longo alcance e podemos chamá-la de 3.0. Resumidamente, é uma nova determinação para aplicar métodos de coleta poderosos não apenas nas operações de uma empresa, mas também nos produtos e serviços que oferece, para incorporar a inteligência ao que está oferecendo aos clientes.
Neste artigo, desenvolvo este argumento, alegando que assim como as primeiras aplicações de big data marcaram uma grande ruptura com o 1.0 do passado, as inovações atuais por alguns líderes da indústria são uma prova de que uma nova era está surgindo. Quando uma nova forma de pensar e aplicar uma força começa a tomar forma, os gestores são desafiados a responder de muitas maneiras. A mudança chega rápido em todos os setores do mundo de negócios. Surgem novos participantes, as posições competitivas mudam, novas tecnologias devem ser dominadas e profissionais talentosos gravitam para o trabalho mais novo e emocionante.
Os gestores verão tudo isso ocorrer nos próximos meses e anos. Aqueles que conseguiram ligar os pontos e reconhecer que a competição está sendo repensada em grande escala serão os que responderão da forma mais eficiente. Na verdade, as primeiras empresas que perceberem a direção geral da mudança, aquelas que tiveram acesso prematuro ao 3.0, estarão mais bem posicionadas para conduzir essa mudança.
Evolução da análise de dados
Meu objetivo aqui não é fazer observações abstratas sobre a história. Ainda assim, é útil olhar para trás, e observar a última grande mudança e o contexto em que ela ocorreu. O uso de dados para tomar decisões, é claro, não é uma ideia nova. Ela é tão antiga quanto a tomada de decisão em si mesma. Mas o campo de análises de dados de empresas nasceu em meados dos anos 50, com o advento de ferramentas capazes de produzir e capturar uma quantidade maior de informações e discernir nelas padrões de forma muito mais rápida do que a mente humana desassistida jamais poderia.
1.0 — a era do “da inteligência dos negócios”. O que estamos chamando aqui de 1.0 foi uma época de verdadeiro progresso na obtenção de um objetivo, na profunda compreensão de fenômenos empresariais importantes e em dar aos executivos a compreensão baseada em fatos para ir além da intuição quando diante de decisões importantes.
Pela primeira vez, os dados sobre os processos de produção, vendas, interações com clientes estavam sendo registrados, agregados e analisados.
Novas tecnologias da computação foram fundamentais. Os sistemas de informação eram num primeiro momento construídos de acordo com a necessidade de cada um por empresas cuja escala era grande o suficiente para justificar o investimento. Mais tarde, passaram a ser comercializados por vendedores externos em formas mais genéricas. Esta foi a era dos bancos de dados, usados para capturar informações, e do software de negócios inteligentes, usado para consultá-los e emitir relatórios.
Novas competências também se fizeram necessárias, começando pela capacidade de gerenciar dados. Conjuntos de dados eram suficientemente pequenos em volume e estáticos o suficiente em velocidade para serem segregados em bancos para análise. No entanto, preparar um conjunto de dados para inclusão em um banco de dados era difícil. Analistas passavam a maior parte do tempo preparando os dados para análise e relativamente pouco tempo na própria análise.
Mais do que qualquer outra coisa, era vital descobrir as poucas perguntas certas nas quais se concentrar, porque a análise era penosa e lenta, muitas vezes levando semanas ou meses. E os relatórios sobre processos — a maior parte da atividade da inteligência dos negócios —, dirigiam-se apenas ao que tinha acontecido no passado, sem oferecer explicações ou previsões.
Será que as pessoas viam a análise como uma fonte de vantagem competitiva? Em termos gerais, sim, mas ninguém falava em termos atuais, de “competir em análise”. A diferença veio na forma de uma maior eficiência operacional — tomando melhores decisões sobre certos pontos-chave para melhorar o desempenho.
2.0 — a era do big data. As condições básicas do período de 1.0 predominou por meio século, até meados da década de 2000, quando empresas baseadas na internet e de redes sociais, principalmente no Vale do Silício — Google, eBay, etc.—, começaram a acumular e analisar novos tipos de informação. Embora o termo big data não tenha sido cunhado de imediato, a nova realidade que ele representava mudou muito rapidamente o papel da análise nessas empresas. O big data também se distinguia de outros dados menores, porque não era gerado exclusivamente por sistemas de transações internas de uma empresa. Também era obtido externamente, vindo da internet, de sensores de vários tipos, iniciativas de transparência de dados públicos, como o Projeto Genoma Humano, e capturado em gravações de áudio e vídeo.
À medida que a análise de dados entrava na fase 2.0, a necessidade de novas ferramentas poderosas — e a oportunidade de obter lucros ao proporcioná-las —, rapidamente tornou-se aparente. Empresas se apressaram para construir novas capacidades e adquirir clientes. A ampla noção de que chegar primeiro oferece uma grande vantagem gerou um impressionante nível de interesse e também levou a uma aceleração sem precedentes de novos produtos e serviços. A rede social para profissionais LinkedIn, por exemplo, criou inúmeros produtos de dados, incluindo opções como “Pessoas que você talvez conheça”, “Vagas que podem ser do seu interesse”, “Anúncios que podem ser do seu interesse”, “Atualizações da rede” e “Habilidades e especialidades”. Para isso, construiu uma forte infraestrutura e contratou cientistas de dados inteligentes e produtivos. Sua opção bem-sucedida “Ano em Retrospectiva”, que resume as mudanças de emprego entre pessoas que compõem a rede de um membro, foi desenvolvida em apenas um mês. E a LinkedIn não é a única empresa com foco em velocidade. O presidente de uma e
mp
resa jovem de big data me disse: “Nós tentamos ‘agile’ [metodologia de desenvolvimento ágil de software], mas era lento demais”.
Tecnologias inovadoras de vários tipos foram desenvolvidas, adquiridas e dominadas. O enorme fluxo de dados não podia caber ou ser analisado com rapidez suficiente em um único servidor, por isso passou a ser processado com Hadoop, um software de código aberto para processamento rápido de lotes de dados em servidores paralelos. Para lidar com dados relativamente não estruturados, as empresas se voltaram a uma nova classe de bancos de dados conhecidos como NoSQL. Muitas informações foram armazenadas e analisadas por meio de computação em nuvem tanto em ambientes públicos quanto privados. Entre as tecnologias introduzidas durante esse período estão a análise de dados “na memória” e “no banco de dados” para o processamento rápido de números. Métodos de aprendizagem de máquina (modelo semiautomático de desenvolvimento e teste) foram usados para gerar rapidamente modelos a partir do fluxo veloz de dados. Relatórios em preto e branco foram substituídos por documentos coloridos com efeitos visuais complexos.
As competências necessárias para a análise de dados 2.0 eram, então, muito diferentes daquelas necessárias para a 1.0. Os analistas quantitativos de última geração passaram a ser chamados de cientistas de dados e possuíam habilidades computacionais e analíticas. Logo, esses cientistas de dados, não satisfeitos em permanecer nos bastidores, começaram a se interessar pelo desenvolvimento de novos produtos e ajudar a moldar os negócios.
Análise de dados 3.0 — a era da oferta de dados enriquecidos. Durante a fase 2.0, um observador de olhar aguçado poderia ter visto o início da próxima grande era da análise de dados. As pioneiras do big data do Vale do Silício começaram a investir em análise de dados para dar suporte a produtos, serviços e funções. Elas atraíram visitantes para seus sites por meio de melhores algoritmos de busca, recomendações de amigos, sugestões de produtos para comprar e anúncios altamente segmentados — tudo isso conduzido por análises enraizadas em enormes quantidades de dados.
A análise de dados 3.0 marca o momento em que outras grandes organizações começaram a seguir o exemplo. Hoje, não são apenas as empresas de informática e de internet que podem criar produtos e serviços com base em análise de dados. Todas as empresas em todos os setores também podem. Se a sua empresa faz produtos, move produtos, consome produtos, ou trabalha com clientes, você tem uma quantidade crescente de dados sobre essas atividades. Cada dispositivo eletrônico, envio e consumidor deixa um rastro. Você tem a capacidade de analisar esses conjuntos de dados para beneficiar clientes e mercados. Você também tem a capacidade de incorporar a análise e a otimização em todas as decisões de negócios feitas na linha de frente de suas operações.
Como nas duas primeiras fases da análise de dados, a atual traz novos desafios e oportunidades, tanto para as empresas que querem competir em análise de dados quanto para os fornecedores de dados e ferramentas que possibilitam fazê-lo. Como capitalizar a mudança é o próximo tema que discutiremos. Antes, porém, vamos considerar como a análise de dados 3.0 funciona em algumas empresas conhecidas — todas operavam longe do mundo on-line na maior parte de suas muitas décadas de história.
A próxima grande inovação, em versão Beta
O Bosch Group, empresa com sede na Alemanha, tem 127 anos, mas sua aplicação da análise de dados é recente. A empresa deu início a uma série de iniciativas para que todas as unidades de negócios usem dados e análises para desenvolver as chamadas ofertas inteligentes para os clientes. Isso inclui a gestão inteligente de frota, infraestruturas inteligentes para o abastecimento de veículos, gestão inteligente do consumo de energia, análise inteligente de vídeos de segurança, e muitos mais. Para identificar e desenvolver esses serviços inovadores, a Bosch criou um grupo de Inovações de Software que se concentra fortemente na análise de grandes volumes de dados e na “Internet de Coisas”.
A Schneider Electric, uma empresa de 170 anos com sede na França, originalmente fabricava ferro, aço e armamentos. Hoje se concentra principalmente na gestão de energia, incluindo a otimização energética, gerenciamento de redes elétricas inteligentes e automação predial. Ela adquiriu ou desenvolveu uma variedade de firmas de software e dados no Vale do Silício, Boston, e na França. Seu Sistema Avançado de Gestão de Distribuição (ADMS, na sigla em inglês), por exemplo, controla a distribuição de energia para empresas de eletricidade. O ADMS monitora e controla os dispositivos da rede, gerencia interrupções no serviço e despacha equipes. Ele dá a empresas de energia a capacidade de integrar milhões de pontos de dados sobre o desempenho da rede e permite que os engenheiros usem análises visuais para compreender o estado da rede.
Uma das conversões mais drásticas da análise de dados está ocorrendo na General Electric, uma empresa com mais de 120 anos. As divisões da GE estão tornando-se cada vez mais fornecedoras de serviços de otimização de ativos e operações. Com sensores canalizando dados de turbinas, locomotivas, motores de avião e aparelhos de imagens médicas, a GE pode determinar os intervalos de manutenção mais eficientes e eficazes para essas máquinas. Para reunir e desenvolver os trabalhadores qualificados necessários para esse trabalho, a empresa investiu mais de US$ 2 bilhões em um novo software e centro de análises na região de São Francisco. Agora está vendendo tecnologia a outras empresas industriais para uso na gestão e análise de grandes volumes de dados e criou novos produtos de tecnologia com base em conceitos do big data, incluindo o Predix (uma plataforma para criação de aplicativos da “internet industrial”) e Predictivity (uma série de 24 aplicativos de otimização de ativos ou de operações que rodam na plataforma Predix em diversos os setores).
A UPS, empresa com meros 107 anos, é talvez o melhor exemplo de uma organização que tem levado a análise de dados para a linha de frente de seus processos — nesse caso, para agilizar as entregas. A empresa já era bastante familiarizada com grandes volumes de dados, tendo começado a rastrear os movimentos de pacotes e transações em 1980. Ela captura informações sobre os 16,3 milhões de pacotes, em média, que entrega diariamente, e recebe 39,5 milhões de pedidos de rastreamento por dia. A mais recente fonte de big data na UPS são os sensores telemáticos nos mais de 46 mil caminhões da companhia, que rastreiam métricas, incluindo a velocidade, direção, frenagem e desempenho do motor. O fluxo de dados que entram não só mostra diariamente o desempenho, mas também está ajudando numa grande reformulação das rotas dos motoristas. Essa iniciativa, batizada de Orion (sigla em inglês para Otimização e Navegação Integradas na Estrada), é sem dúvida o maior projeto de pesquisa operacional do mundo. Ele se baseia fortemente em dados de mapas on-line e algoritmos de otimização e é capaz de reconfigurar as coletas e entregas de um motorista em tempo real. Em 2011, a UPS cortou 136,8 milhões de quilômetros das rotas dos motoristas, poupando mais de 31,8 milhões de litros de combustível.
O traço comum nestes exemplos é a determinação dos líderes da empresa de competir em análise de dados, não só no sentido tradicional (melhorando as decisões de negócios), mas também ao criar produtos e serviços mais valiosos. Esta é a essência da análise de dados 3.0.
Alguns leitores vão reconhecer a nova era como a realização de uma previsão feita há muito tempo. No livro de 1991 Visão 2020, Stan Davis e Bill Davidson argumentavam que as empresas deveriam desenvolver produtos e serviços com base em informações. Eles observaram que as empresas possuem “um exaustor de informação” que poderia ser capturada e usada para “turbinar” seus produtos. Na época, suas ideias ganharam força apenas entre as empresas que já estavam no negócio da informação, tais como a Quotron (dados de ações) e a Official Airline Guide (dados de voo). Mas hoje bancos, fabricantes industriais, prestadores de serviços médicos, varejistas — qualquer empresa, de qualquer setor, que esteja disposta a explorar as possibilidades —, podem desenvolver produtos e serviços valiosos a partir da compilação de seus dados.
Davis e Davidson escreveram numa época em que apenas fornecer dados era suficiente. Mas hoje em dia somos inundados com informação e temos pouco tempo para transformá-la em conhecimento. As empresas que antes eram provedoras de informação devem se tornar provedoras de percepção, usando a análise de dados para digerir a informação e dizer-nos o que fazer com ela. Empresas de internet, com grandes quantidades de dados sobre cliques a sua disposição, foram as pioneiras nessa abordagem: Google, LinkedIn, Facebook, Amazon e outras prosperaram, não só dando aos clientes informações, mas oferecendo-lhes atalhos para as decisões e ações. Empresas do setor de informação convencional hoje também seguem por esse caminho.
Dez requisitos para capitalizar a análise de dados 3.0
Essa mudança estratégica no foco significa que há um novo papel para a análise e dados dentro das organizações. As empresas terão de reconhecer uma série de desafios relacionados e responder com novas capacidades, posições e prioridades.
Vários tipos de dados, muitas vezes combinados. As organizações precisarão integrar grandes e pequenos volumes de dados de fontes internas e externas e em formatos estruturados e não estruturados para produzir novos conhecimentos em modelos preditivos e prescritivos — aqueles que dizem aos trabalhadores na linha de frente a melhor forma de executar suas funções. A empresa de transporte de carga Schneider Nacional, por exemplo, está adicionando dados coletados por novos sensores aos seus algoritmos de otimização logística, permitindo o monitoramento de indicadores-chave, como os níveis de combustível, a localização e a capacidade de contêineres e o comportamento dos motoristas. O objetivo é melhorar constantemente a eficiência de suas redes de rotas, reduzir os custos de combustível e diminuir o risco de acidentes.
Um novo conjunto de opções de gerenciamento de dados. Na era 1.0, as empresas usavam bancos de dados como base para a análise. Na era 2.0, elas se concentraram nos clusters Hadoop e bancos de dados NoSQL. Hoje, a resposta da tecnologia é “todas as alternativas anteriores”: armazéns de dados, banco de dados e dispostivos de big data, ambientes que combinam abordagens de consulta de dados tradicionais com o Hadoop (que às vezes é chamado de Hadoop 2.0), bancos de dados verticais e gráficos e mais. O número e a complexidade das opções que os arquitetos de TI devem escolher sobre o gerenciamento de dados têm se expandido consideravelmente, e quase todas as organizações vão acabar com um ambiente de dados híbrido. Os formatos antigos não desapareceram, mas os novos processos são necessários para mover dados e análises pelas fases de preparação, avaliação, exploração e produção de aplicativos.
Tecnologias mais rápidas e métodos de análise. As tecnologias de big data da era 2.0 são consideravelmente mais rápidas do que as gerações anteriores de tecnologia de gestão de dados e análise. Para complementá-las, novos métodos analíticos “ágeis” e técnicas de aprendizado de máquina estão sendo usados para produzir ideias em um ritmo muito mais rápido. Como os sistemas de desenvolvimento ágil, esses métodos envolvem a entrega frequente de saídas parciais a grupos envolvidos no projeto. Como no trabalho dos melhores cientistas de dados, eles têm um senso contínuo de urgência. O desafio na era 3.0 é adaptar o desenvolvimento de produtos e decisão de processos operacionais, para aproveitar o que as novas tecnologias e métodos podem oferecer.
Análise de dados incorporada. Em consonância com o aumento da velocidade de processamento e análise de dados, modelos da análise de dados 3.0 são muitas vezes incorporados em processos operacionais e de decisão, aumentando drasticamente a sua velocidade e impacto. Por exemplo, a Procter & Gamble está integrando a análise de dados na tomada de decisões cotidiana através de mais de 50 salas de decisão “na esfera empresarial” e mais de 50 mil “cabines de decisão” nos computadores dos funcionários.
Algumas empresas estão incorporando a análise em sistemas totalmente automatizados através de algoritmos de pontuação e regras baseadas na análise de dados. Algumas estão inserindo a análise de dados em produtos e recursos voltados ao consumidor. Seja qual for o cenário, integrar a análise de dados em sistemas e processos não só significa maior velocidade, mas também torna mais difícil para os tomadores de decisão evitar o uso de análise de dados — algo que geralmente é positivo.
Descoberta de dados. Para desenvolver produtos e serviços com base em dados, as empresas precisam de uma plataforma de descoberta eficiente para a exploração de dados, juntamente com as habilidades e processos necessários. Embora os armazéns de dados para empresas tenham sido inicialmente destinados a facilitar a exploração e análise, eles se tornaram repositórios de dados sobre a produção para muitas organizações e, como observado anteriormente, fazer os dados chegar até eles é demorado. Os ambientes de descoberta de dados tornam possível determinar as características essenciais de um conjunto de dados sem muita preparação.
Equipes interdisciplinares de dados. Em empresas de internet e firmas jovens de big data, os cientistas de dados são muitas vezes capazes de executar tudo (ou pelo menos ter muita independência). Em empresas maiores e mais convencionais, no entanto, precisam colaborar com uma variedade de outros participantes para garantir que grandes volumes de dados sejam acompanhados por grandes análises. Em muitos casos, os “cientistas de dados” em tais empresas são, na verdade, analistas quantitativos convencionais que são forçados a gastar um pouco mais tempo do que gostariam em atividades de gestão de dados (um fenômeno novo). As empresas passaram a contratar hackers de dados, que são talentosos na extração e estruturação de informação, para trabalhar com analistas, que se destacam em criar modelos com esses dados.
Ambos os grupos têm de trabalhar com o departamento de TI, que abastece os grandes volumes de dados e infraestrutura para a análise, determina que grupos devem explorar os dados e transforma a análise exploratória em capacidades de produção. A equipe combinad
a executa o que for necessário para concluir o trabalho analítico, com frequente sobreposição de papéis.
Diretores de análise. Quando a análise de dados é importante, ela precisa de supervisão da alta administração. As empresas estão começando a criar o cargo “diretor de análise de dados” para supervisionar a construção e utilização das capacidades analíticas. Entre as organizações que contam com um alto executivo no setor de análise de dados estão a AIG, a FICO, a USAA, o Centro Médico da Universidade de Pittsburgh, a campanha de reeleição de Obama, o Wells Fargo e o Bank of America. A lista, sem dúvida, vai crescer.
Análise prescritiva. Sempre houve três tipos de análise: descritiva, que relata sobre o passado; preditiva, que utiliza modelos com base em dados do passado para prever o futuro; e prescritiva, que utiliza modelos para especificar comportamentos e ações ideais. Embora a análise de dados 3.0 inclua todos os três tipos, ela enfatiza o último. Modelos prescritivos envolvem testes em grande escala e otimização e são uma forma de incorporar análises em processos-chave e no comportamento dos funcionários. Eles oferecem um alto nível de benefícios operacionais, mas exigem planejamento e execução em troca de alta qualidade. Por exemplo, se o sistema Orion, da UPS, fornecer informações incorretas de roteamento para os motoristas, não será usado por muito tempo. Os executivos da UPS dizem ter passado muito mais tempo em questões de gerenciamento de mudanças que no algoritmo e desenvolvimento de sistemas.
Análise de dados em escala industrial. Para empresas que usam a análise de dados principalmente para os processos de decisão internos, a análise de dados 3.0 fornece uma oportunidade para ampliar os processos em escala industrial. Criar muito mais modelos através da aprendizagem de máquina pode permitir que uma organização se torne muito mais granular e precisa em suas previsões. A IBM, por exemplo, antes utilizava 150 modelos em seu processo anual “de geração de demanda”, que avalia quais contas de clientes merecem um maior investimento de tempo e energia do vendedor. Trabalhando com uma empresa pequena, a Modern Analytics, e usando a estratégia de “modelo de fábrica” e “linha de montagem de dados”, a IBM agora cria e mantém cinco mil desses modelos por ano — e precisa de apenas quatro pessoas para fazer isso. Seus novos sistemas podem construir 95% de seus modelos, sem qualquer intervenção humana, e outros 3% necessitam apenas de ajustes mínimos de um analista. E os novos modelos lidam com produtos, segmentos de clientes e geografias altamente específicos. Um teste realizado em um grande mercado asiático mostrou que esses modelos dobraram a taxa de resposta dos clientes em comparação com as abordagens de segmentação não estatística.
Novas formas de decisão e de gestão. Para que a análise de dados impulsione as finanças de sua empresa, você vai precisar de novas estratégias de gestão e tomada de decisões. Muitas lhe darão mais segurança antes de agir. Gestores precisam se sentir confortáveis com a experimentação dirigida por dados. Eles devem exigir que qualquer iniciativa importante seja precedida de experimentação com dados em pequena escala, mas sistemática, com controles rigorosos para permitir a determinação da causa e efeito. Imagine, por exemplo, se o mandato de Ron Johnson como diretor-presidente da J.C. Penney tivesse envolvido experimentos limitados em vez de grandes mudanças, a maioria das quais acabou mal.
Paradoxalmente, algumas das mudanças motivadas pela ampla disponibilidade de grandes volumes de dados não vai produzir muita certeza. O big data flui continuamente — considere a análise de receptividade da marca derivada de fontes das redes sociais —, e as métricas inevitavelmente registrarão ascensão e queda ao longo do tempo. Esses “sinais de fumaça digital”, como são chamados, podem servir como um sistema de alerta para problemas em formação. Mas são indicativos, não confirmações. Os gestores terão de estabelecer diretrizes para quando os primeiros alertas devem gerar decisões e ações.
A natureza das relações do big data também cria incertezas adicionais. A menos que sejam derivados de testes formais, os resultados do processamento de grandes volumes de dados em geral envolvem correlação, e não a causa, e às vezes ocorrem por acaso (embora ter uma maior quantidade de dados aumente a probabilidade de que resultados fracos sejam estatisticamente significativos). Alguns gestores podem ficar frustrados com esses fatos. Se a questão em consideração é muito importante, uma investigação mais aprofundada talvez se justifique antes da tomada de decisão.
O uso de análise de dados prescritivos muitas vezes requer mudanças na forma como os trabalhadores da linha de frente são gerenciados. As empresas terão visibilidade sem precedentes sobre as atividades de seus motoristas, pilotos de avião, funcionários de armazenamento e quaisquer outros funcionários vestindo ou carregando sensores (talvez isso signifique todos os empregados, se os sensores de smartphones estiverem incluídos). Os trabalhadores, sem dúvida, são sensíveis a esse monitoramento. Assim como as análises que são intensamente reveladoras sobre o comportamento do cliente têm certo fator de “bizarrice”, relatórios excessivamente detalhados da atividade do empregado podem causar um grande desconforto. No mundo da análise de dados 3.0, há momentos em que precisamos desviar o olhar.
Criação de valor na economia de dados
A análise de dados 3.0 representa a melhor forma de competir em análise de dados? Talvez não. Mas parece seguro afirmar que será vista como o momento da história em que a participação na economia de dados passou a ser algo convencional.
As empresas on-line que desencadearam o uso de grandes dados foram construídas em torno dela desde o início. Não precisam conciliar ou integrar grandes volumes de dados com as fontes tradicionais de informação e as análises realizadas sobre ela, porque, em grande parte, elas não tinham as fontes tradicionais. Não precisam mesclar tecnologias de dados com grandes infraestruturas tradicionais de TI em suas empresas, as infraestruturas não existiam. O big data poderia operar sozinho, a análise desses grandes volumes de dados pode ser a única análise, e a arquitetura da tecnologia do big data poderia ser a única arquitetura de TI. Mas cada uma dessas empresas agora tem a sua própria versão da análise de dados 3.0.
Uma coisa é clara: as novas capacidades exigidas tanto de empresas jovens quanto das mais tradicionais não podem ser desenvolvidas usando modelos antigos. O modelo do big dada representa um enorme passo à frente, mas não vai proporcionar vantagem sobre a concorrência por muito tempo. As empresas que querem prosperar na nova economia de dados devem, uma vez mais, fundamentalmente repensar a forma como a análise pode criar valor para si e para seus clientes. A análise de dados 3.0 é a direção da mudança e do novo modelo para competir nesse setor.
Thomas H. Davenport é professor com distinção de tecnologia da informação e administração do Babson College, acadêmico visitante do Center for Digital Business do MIT, conselheiro sênior da Deloitte Analytics e um dos fundadores do Instituto Internacional para análise de dados (para o qual as ideias deste artigo foram geradas). Ele é um dos autores de Quants (Harvard Business Press Review, 2013) e autor de Big Data at work (que será lançado em breve pela Harvard Business Review Press).
Fonte: https://hbrbr.uol.com.br/analise-de-dados-3-0/