Vídeo: Implementando Projetos de BIG DATA com NoSQL, MongoDB, HADOOP e Map Reduce 2024
Existem razões convincentes que o SQL provou ser resiliente. A indústria de TI teve 40 anos de experiência com SQL, uma vez que foi desenvolvida pela IBM no início da década de 1970. Com o aumento na adoção de bancos de dados relacionais na década de 1980, o SQL tornou-se uma habilidade padrão para a maioria dos profissionais de TI.
Você pode facilmente ver por que o SQL foi tão bem sucedido: é relativamente fácil de aprender, e as consultas SQL são bastante legíveis. Essa facilidade pode ser rastreada até um ponto de design básico no SQL - o fato de ser um idioma declarativo , ao contrário de um idioma imperativo .
Para que um idioma seja declarativo significa que suas consultas tratam apenas da natureza dos dados solicitados - idealmente, não deve haver nada em sua consulta que determine como o processamento deve ser executado. Em outras palavras, tudo o que você indica em SQL é a informação que você deseja voltar do sistema - e não como obtê-lo.
Em contraste, com um idioma imperativo (C, por exemplo, ou Java, ou Python), seu código consiste em instruções onde você define as ações que você precisa para executar.
Além das habilidades (facilmente alavancadas) de seus profissionais de TI amigáveis ao SQL, as décadas de aplicativos de banco de dados também foram criadas com interfaces SQL. Ao falar sobre como o Hadoop pode complementar o data warehouse, é claro que as organizações irão armazenar dados estruturados no Hadoop. E como resultado, eles executarão algumas de suas lógicas de aplicativos existentes contra o Hadoop.
Ninguém quer pagar para que os aplicativos sejam reescritos, então uma interface SQL é altamente desejável.
Com o desenvolvimento de interfaces SQL para dados Hadoop, uma tendência interessante é que as ferramentas de análise de negócios comerciais e gerenciamento de dados estão quase todos saltando no movimento Hadoop, incluindo relatórios de inteligência de negócios; pacotes estatísticos; Moldura de extrair, transformar e carregar (ETL); e uma variedade de outras ferramentas. Na maioria dos casos, a interface para os dados Hadoop é Hive.