Vídeo: [Power BI] Governança de Dados e Arquitetura Ideal com Dataflows (Fluxo de Dados) e Shared Datasets 2024
Às vezes, ao abordar grandes dados, as empresas enfrentam enormes quantidades de dados e pouca idéia de onde ir em seguida. Digite a transmissão de dados. Quando uma quantidade significativa de dados precisa ser processada rapidamente em tempo quase real para obter informações, os dados em movimento sob a forma de transmissão de dados são a melhor resposta.
O que é não em repouso? Isso seria sistemas que gerenciam transações ativas e, portanto, precisam ter persistência. Nesses casos, os dados serão armazenados em um armazenamento de dados operacional. No entanto, em outras situações, essas transações foram executadas, e é hora de analisar esses dados normalmente em um data warehouse ou data mart.
Isso significa que a informação está sendo processada em lote e não em tempo real. Quando as organizações estão planejando seu futuro, eles precisam ser capazes de analisar muitos dados, que vão desde informações sobre o que os clientes estão comprando e por quê. É importante compreender os principais indicadores de mudança. Em outras palavras, como as mudanças afetarão os produtos e serviços que uma organização oferecerá no futuro?
Muitas organizações de pesquisa estão usando esse tipo de grande análise de dados para descobrir novos medicamentos. Uma companhia de seguros pode querer comparar os padrões de acidentes de trânsito em uma ampla área geográfica com as estatísticas do tempo. Nesses casos, não existe nenhum benefício para administrar esta informação em tempo real. Claramente, a análise deve ser rápida e prática. Além disso, as organizações analisarão os dados para ver se surgiram novos padrões.
Streaming data é uma plataforma de computação analítica focada em velocidade. Isso ocorre porque essas aplicações exigem um fluxo contínuo de dados geralmente não estruturados para serem processados. Portanto, os dados são continuamente analisados e transformados na memória antes de serem armazenados em um disco. O processamento de fluxos de dados funciona através do processamento de "janelas de tempo" de dados na memória em um cluster de servidores.
Isso é semelhante à abordagem ao gerenciar dados em repouso aproveitando o Hadoop. A principal diferença é a questão da velocidade. No cluster Hadoop, os dados são coletados no modo em lote e depois processados. A velocidade importa menos no Hadoop do que na transmissão de dados. Alguns princípios fundamentais definem quando o uso de fluxos é mais apropriado:
-
Quando é necessário determinar uma oportunidade de compra de varejo no ponto de engajamento, seja através de mídias sociais ou via mensagens baseadas em permissão
-
Coletando informações sobre o movimento ao redor de um site seguro
-
Para poder reagir a um evento que precisa de uma resposta imediata, como uma interrupção do serviço ou uma mudança na condição médica do paciente
-
Cálculo em tempo real de custos que dependem de variáveis, como uso e recursos disponíveis
Os dados de transmissão de dados são úteis quando as análises precisam ser feitas em tempo real enquanto os dados estão em movimento.De fato, o valor da análise (e muitas vezes os dados) diminui com o tempo. Por exemplo, se você não pode analisar e agir imediatamente, uma oportunidade de venda pode ser perdida ou uma ameaça pode ser detectada.
Os seguintes são alguns exemplos que podem ajudar a explicar como isso é útil.
Uma usina de energia precisa ser um ambiente altamente seguro para que pessoas não autorizadas não interfiram na entrega de energia aos clientes. As empresas geralmente colocam sensores ao redor do perímetro de um site para detectar o movimento. Mas um problema poderia existir. Existe uma enorme diferença entre um coelho que corre em torno do site e um carro dirigindo de forma rápida e deliberada. Portanto, a grande quantidade de dados provenientes desses sensores precisa ser analisada em tempo real para que um alarme seja soado somente quando existe uma ameaça real.
Uma empresa de telecomunicações em um mercado altamente competitivo quer garantir que as interrupções sejam cuidadosamente monitoradas para que uma queda detectada nos níveis de serviço possa ser escalada para o grupo apropriado. Os sistemas de comunicação geram enormes volumes de dados que precisam ser analisados em tempo real para tomar as medidas adequadas. Um atraso na detecção de um erro pode afetar seriamente a satisfação do cliente.
Escusado será dizer que as empresas estão lidando com muitos dados que precisam ser processados e analisados em tempo real. Portanto, o ambiente físico que suporta esse nível de capacidade de resposta é crítico. Os ambientes de dados de streaming geralmente requerem uma solução de hardware em cluster e, às vezes, uma abordagem de processamento massivamente paralelo será necessária para lidar com a análise.
Um fator importante sobre a análise de dados de transmissão é o fato de que é uma análise de passagem única. Em outras palavras, o analista não pode reanalisar os dados depois que ele é transmitido. Isso é comum em aplicativos onde você está procurando a ausência de dados.
Se forem necessárias várias passagens, os dados terão de ser colocados em algum tipo de armazém onde a análise adicional pode ser realizada. Por exemplo, muitas vezes é necessário estabelecer o contexto. Como esses dados de transmissão de dados se comparam aos dados históricos? Esta correlação pode dizer muito sobre o que mudou e o que essa mudança pode significar para sua empresa.