Vídeo: How does an ILS work? Explained by CAPTAIN JOE 2024
Quando você tenta descobrir o que é um ambiente analítico pode parecer no futuro, você tropeça o padrão da zona de pouso baseada em Hadoop uma e outra vez. Na verdade, não é mais uma discussão orientada para o futuro porque a zona de pouso tornou-se a maneira de que as empresas voltadas para o futuro tentam agora economizar custos de TI e fornecem uma plataforma para análise de dados inovadora.
Então, qual é exatamente a zona de pouso? No nível mais básico, a zona de aterragem é apenas o local central onde os dados vão pousar em sua empresa - extrações semanais de dados de bancos de dados operacionais, por exemplo, ou de sistemas que geram arquivos de log. O Hadoop é um repositório útil para aterrar dados, por estas razões:
-
Ele pode lidar com todos os tipos de dados.
-
É facilmente escalável.
-
É barato.
-
Uma vez que você aterra dados em Hadoop, você tem a flexibilidade de consultar, analisar ou processar os dados de diversas maneiras.
Este diagrama mostra apenas parte da história e não é de forma alguma completa. Afinal, você precisa saber como os dados se movem da zona de pouso para o data warehouse, e assim por diante.
O ponto de partida para a discussão sobre a modernização de um data warehouse deve ser como as organizações usam data warehouses e os desafios que os departamentos de TI enfrentam com eles.
Na década de 1980, uma vez que as organizações se tornaram boas no armazenamento de suas informações operacionais em bancos de dados relacionais (transações de vendas, por exemplo, ou estados da cadeia de suprimentos), os líderes empresariais começaram a querer os relatórios gerados a partir desses dados relacionais. As primeiras lojas relacionais eram bases de dados operacionais e foram projetadas para Processamento de Transações Online (OLTP), de modo que os registros pudessem ser inseridos, atualizados ou excluídos o mais rápido possível.
Esta é uma arquitetura impraticável para relatórios e análises em grande escala, de modo que as bases de dados de processamento analítico online (ROLAP) foram desenvolvidas para atender a essa necessidade. Isso levou à evolução de um novo tipo de RDBMS: um data warehouse, que é uma entidade separada e vive ao lado das lojas de dados operacionais de uma organização.
Isso se resume a usar ferramentas desenvolvidas para maior eficiência: você possui lojas de dados operacionais, que são projetadas para processar transações eficientemente e armazéns de dados, que são projetados para suportar análises e relatórios repetidos.
No entanto, os armazenamentos de dados estão sob o estresse crescente, pelas seguintes razões:
-
Aumento da demanda para manter períodos de dados mais longos em linha.
-
Maior demanda de recursos de processamento para transformar dados para uso em outros armazéns e data marts.
-
Aumento da demanda por análises inovadoras, o que exige que os analistas façam perguntas sobre os dados do armazém, além dos relatórios regulares que já estão sendo feitos. Isso pode implicar processamento adicional significativo.
Na figura, você pode ver o data warehouse apresentado como o recurso principal para os vários tipos de análise listados no lado direito da figura. Aqui, você também vê o conceito de uma zona de pouso representada, onde o Hadoop armazenará dados de uma variedade de fontes de dados recebidas.
Para habilitar uma zona de pouso do Hadoop, você precisará garantir que você possa gravar dados das várias fontes de dados para o HDFS. Para bancos de dados relacionais, uma boa solução seria usar o Sqoop.
Mas o desembarque dos dados é apenas o começo.
Quando você está movendo dados de muitas fontes para sua zona de pouso, um problema que você inevitavelmente irá implementar é a qualidade dos dados. É comum que as empresas tenham muitas bases de dados operacionais onde os detalhes-chave são diferentes, por exemplo, que um cliente pode ser conhecido como "D. deRoos "em um banco de dados, e" Dirk deRoos "em outro.
Outro problema de qualidade reside em sistemas onde há uma forte dependência da entrada manual de dados, seja de clientes ou funcionários - aqui, não é incomum encontrar nomes e sobrenomes comutados ou outras informações erradas nos campos de dados.
Os problemas de qualidade de dados são um grande problema para os ambientes de data warehouse, e é por isso que um grande esforço se envolve em etapas de limpeza e validação à medida que os dados de outros sistemas são processados à medida que são carregados no armazém. Tudo se resume a confiança : se os dados que você está perguntando forem sujos, você não pode confiar nas respostas em seus relatórios.
Então, embora exista um enorme potencial em ter acesso a muitos conjuntos de dados diferentes de diferentes fontes em sua zona de pouso Hadoop, você deve ter em conta a qualidade dos dados e quanto confiar nos dados.