Índice:
- Por que a computação distribuída é necessária para grandes dados
- A economia em mudança da computação e dos grandes dados
- O problema com latência para grandes dados
- A grande demanda de dados atende às soluções
Vídeo: NoSQL, CAP Theorem e BASE - Aula 20 - Bancos de Dados 2015.2 2024
Se sua empresa está considerando um grande projeto de dados, é importante que você entenda alguns conceitos básicos de computação distribuída primeiro. Não há um único modelo de computação distribuída porque os recursos computacionais podem ser distribuídos de várias maneiras.
Por exemplo, você pode distribuir um conjunto de programas no mesmo servidor físico e usar serviços de mensagens para permitir que eles se comuniquem e passem informações. Também é possível ter muitos sistemas ou servidores diferentes, cada um com sua própria memória, que pode trabalhar em conjunto para resolver um problema.
Por que a computação distribuída é necessária para grandes dados
Nem todos os problemas exigem computação distribuída. Se uma grande restrição de tempo não existe, o processamento complexo pode ser feito por meio de um serviço especializado remotamente. Quando as empresas precisavam fazer uma análise complexa de dados, a TI transferiria dados para um serviço externo ou entidade onde muitos recursos disponíveis estavam disponíveis para processamento.
Não era que as empresas desejassem aguardar os resultados que precisavam; simplesmente não era economicamente viável comprar recursos de computação suficientes para lidar com esses requisitos emergentes. Em muitas situações, as organizações capturam apenas seleções de dados em vez de tentar capturar todos os dados por causa dos custos. Os analistas queriam todos os dados, mas tiveram que se contentar com instantâneos, na esperança de capturar os dados certos no momento certo.
As principais descobertas de hardware e software revolucionaram o setor de gerenciamento de dados. Em primeiro lugar, a inovação e a demanda aumentaram o poder e diminuíram o preço do hardware. Surgiu um novo software que compreendeu como aproveitar esse hardware automatizando processos como balanceamento de carga e otimização em um grande conjunto de nós.
O software incluiu regras internas que entenderam que determinadas cargas de trabalho exigiam um certo nível de desempenho. O software tratava todos os nós como se fossem simplesmente um grande grupo de recursos de computação, armazenamento e rede, e movia os processos para outro nó sem interrupção se um nó falhar, usando a tecnologia de virtualização.
A economia em mudança da computação e dos grandes dados
Avanço rápido e muito mudou. Ao longo dos últimos anos, o custo para comprar recursos de computação e armazenamento diminuiu drasticamente. Auxiliado pela virtualização, os servidores de commodities que poderiam ser agrupados e as lâminas que poderiam ser conectadas em rede em um rack alteravam a economia da computação. Essa mudança coincidiu com a inovação em soluções de automação de software que melhoraram drasticamente a capacidade de gerenciamento desses sistemas.
A capacidade de alavancar a computação distribuída e as técnicas de processamento paralelo transformaram dramaticamente a paisagem e reduzem drasticamente a latência. Existem casos especiais, como o High Frequency Trading (HFT), em que a baixa latência só pode ser alcançada localizando fisicamente servidores em um único local.
O problema com latência para grandes dados
Um dos problemas perenes com o gerenciamento de dados - especialmente grandes quantidades de dados - tem sido o impacto da latência. Latência é o atraso dentro de um sistema com base em atrasos na execução de uma tarefa. A latência é um problema em todos os aspectos da computação, incluindo comunicações, gerenciamento de dados, desempenho do sistema e muito mais.
Se você já usou um telefone sem fio, você experimentou a latência de primeira mão. É o atraso nas transmissões entre você e seu interlocutor. Às vezes, a latência tem pouco impacto na satisfação do cliente, como se as empresas precisassem analisar os resultados nos bastidores para planejar uma nova versão do produto. Isso provavelmente não requer resposta ou acesso instantâneo.
No entanto, quanto mais próxima a resposta é para um cliente no momento da decisão, mais a latência é importante.
A computação distribuída e as técnicas de processamento paralelo podem fazer uma diferença significativa na latência experimentada por clientes, fornecedores e parceiros. Muitos grandes aplicativos de dados dependem da baixa latência devido aos grandes requisitos de dados para velocidade e volume e variedade de dados.
Pode não ser possível construir um grande aplicativo de dados em um ambiente de alta latência se for necessário um alto desempenho. A necessidade de verificar os dados em tempo quase real também pode ser impactada pela latência. Quando você está lidando com dados em tempo real, um alto nível de latência significa a diferença entre sucesso e falha.
A grande demanda de dados atende às soluções
O crescimento da Internet como plataforma para tudo, desde o comércio até a medicina, transformou a demanda por uma nova geração de gerenciamento de dados. No final da década de 1990, empresas de motores e internet como o Google, Yahoo! e Amazon. foram capazes de expandir seus modelos de negócios, alavancando hardware de baixo custo para computação e armazenamento.
Em seguida, essas empresas precisavam de uma nova geração de tecnologias de software que lhes permitisse monetizar a enorme quantidade de dados que capturavam dos clientes. Essas empresas não podiam esperar pelos resultados do processamento analítico. Eles precisavam da capacidade de processar e analisar esses dados em tempo quase real.