Vídeo: Loja de baixa circulação de luxo 2024
Os cientistas começaram a lutar contra quantidades impressionantes de dados por anos antes de alguém ter cunhado o termo grandes dados. Neste ponto, a Internet não produziu grandes somas para os dados que faz hoje. É útil lembrar que os grandes dados não são simplesmente uma moda criada por fornecedores de software e hardware, mas tem uma base em muitos dos seguintes campos:
- Astronomia: Considere os dados recebidos da nave espacial em uma missão (como Voyager ou Galileo) e todos os dados recebidos de radiotelescópios, que são antenas especializadas usadas para receber ondas de rádio de corpos astronômicos. Um exemplo comum é o projeto Search for Extraterrestrial Intelligence (SETI), que procura sinais extraterrestres observando frequências de rádio que chegam do espaço. A quantidade de dados recebidos e a potência do computador utilizada para analisar uma parte do céu durante uma hora é impressionante. Se os alienígenas estão lá fora, é muito difícil identificá-los. (O filme Contato explora o que poderia acontecer se os humanos realmente interceptem um sinal.)
- Meteorologia: Pense em tentar prever o tempo para o termo próximo dado o grande número de medidas necessárias, como temperatura, pressão atmosférica, umidade, ventos e precipitações em diferentes momentos, locais e altitudes. A previsão do tempo é realmente um dos primeiros problemas nos grandes dados e bastante relevante. De acordo com a Weather Analytics, uma empresa que fornece dados climáticos, mais de 33% do Produto Interno Bruto Mundial (PIB) é determinado pela forma como as condições climáticas afetam a agricultura, pesca, turismo e transporte, apenas para citar alguns. Datada da década de 1950, os primeiros supercomputadores da época foram utilizados para estimular a maior quantidade possível de dados porque, em meteorologia, quanto mais dados, mais precisa a previsão. Essa é a razão pela qual todos estão acumulando mais capacidade de armazenamento e processamento, como você pode ler nesta história sobre a Associação Meteorológica da Coreia para a previsão do tempo e estudar mudanças climáticas.
- Física: Considere a grande quantidade de dados produzidos por experimentos usando aceleradores de partículas na tentativa de determinar a estrutura da matéria, espaço e tempo. Por exemplo, o Large Hadron Collider, o maior acelerador de partículas já criado, produz 15PB (petabytes) de dados todos os anos como resultado de colisões de partículas.
- Genômica: Sequenciando uma única cadeia de DNA, o que significa determinar a ordem precisa de muitas combinações das quatro bases - adenina, guanina, citosina e timina - que constituem a estrutura da molécula, requer bastante De dados.Por exemplo, um único cromossomo, uma estrutura que contém o DNA na célula, pode exigir de 50MB a 300MB. Um ser humano tem 46 cromossomos, e os dados de DNA para apenas uma pessoa consomem um DVD inteiro. Basta imaginar o armazenamento maciço necessário para documentar os dados de DNA de um grande número de pessoas ou para seqüenciar outras formas de vida na Terra.
- Oceanografia: Devido aos muitos sensores colocados nos oceanos para medir temperatura, correntes e, usando hidrófones, até sons para monitoramento acústico para fins científicos (descobrindo peixes, baleias e plâncton) e fins de defesa militar (encontrando submarinos esburecidos de outros países). Você pode dar uma olhada neste velho problema de vigilância, que está se tornando mais complexo e digital.
- Satélites: Gravando imagens de todo o mundo e enviando-as de volta à Terra para monitorar a superfície da Terra e sua atmosfera não é um novo negócio (TIROS 1, o primeiro satélite a enviar imagens e dados de volta, remonta a 1960). Ao longo dos anos, no entanto, o mundo lançou mais de 1 400 satélites ativos que fornecem observação da Terra. A quantidade de dados que chegam na Terra é surpreendente e serve tanto para fins militares (de vigilância) quanto para fins civis, como rastreamento do desenvolvimento econômico, monitoramento da agricultura e monitoramento de mudanças e riscos. O satélite de uma Agência Espacial Européia, Sentinel 1A, gera 5PB de dados durante dois anos de operação.
Acompanhando essas tendências de dados antigas, novas novidades são geradas ou geradas pela Internet, criando novos problemas e exigindo soluções em termos de armazenamento de dados e algoritmos de processamento:
- As relatado pela Agência Nacional de Segurança (NSA), a quantidade de informações que fluem pela Internet todos os dias em todo o mundo ascendeu a 1 826PB de dados em 2013 e 1,6% consistiu em e-mails e telefonemas. Para garantir a segurança nacional, a NSA deve verificar o conteúdo de pelo menos 0. 025 por cento de todos os e-mails e chamadas telefônicas (procurando palavras-chave que possam sinalizar algo como uma trama terrorista). Isso ainda equivale a 25PB por ano, o que equivale a 37, 500 CD-ROMs a cada ano de dados armazenados e analisados (e isso está crescendo). Você pode ler a história completa.
- A Internet das coisas (IoT) está se tornando uma realidade. Você pode ter ouvido o termo muitas vezes nos últimos 15 anos, mas agora o crescimento das coisas conectadas à Internet vai explodir. A idéia é colocar sensores e transmissores em tudo e usar os dados para melhor controlar o que acontece no mundo e tornar os objetos mais inteligentes. Os dispositivos transmissores estão ficando cada vez mais exigentes e mais baratos; Alguns já são tão pequenos que podem ser colocados em todos os lugares. (Apenas olhe para o rádio de tamanho de formigas desenvolvido pelos engenheiros de Stanford.) Os especialistas estimam que até 2020, haverá seis vezes mais coisas conectadas na terra que haverá pessoas, mas muitas empresas de pesquisa e think tanks já estão revisitando esses números.