sexta-feira, 16 de janeiro de 2015

Duas camadas para parar de chorar de armazenamento: É finalmente acontecendo


Comentário As empresas estão armazenar muito mais dados do que eles fizeram no passado (não há notícias aqui), e eles estão indo para ser o armazenamento de muito mais do que agora, em um futuro próximo (sem notícias aqui também). Cerca de um ano atrás eu escrevi um artigo sobre a necessidade de as empresas a considerar uma nova estratégia de dois níveis com base em tecnologias de flash e de armazenamento de objetos .


Você pode ver os primeiros sinais de que isso aconteça - mesmo que estejamos no início de uma longa trilha. Há aspectos que precisamos levar em consideração séria para torná-lo realmente bem sucedido.


Flash, híbrida e outras criaturas de armazenamento


Memória Flash, em todas as suas nuances e implementações, não é um nicho de tecnologia mais e cada negócio de armazenamento de dados primários em 2015 irá conter uma certa quantidade de flash. Alguns serão all-flash, outros serão híbrido, mas já não pode ser evitado.


A economia de cargas de trabalho tradicionais primários (IOPS e sensível à latência) que funcionam em memória flash são inegáveis ​​quando comparado ao giro de mídia. Mas o oposto também é verdadeiro: quando se trata de espaço ($ / GB), o disco rígido ainda ganha mãos para baixo.





Além disso, outro ponto de excelência para o disco rígido é o rendimento ou, pelo menos, $ / MB / sec. O que não significa que HDD é melhor do flash, mas, quando os dados são organizados corretamente, você pode transmitir dados a partir de um disco de forma muito rápida e com um custo menor do que o flash. Por exemplo, com blocos HDFS que são enormes, da ordem de 128 / 256MB.


Nos próximos anos flash irá tornar-se cada vez mais relevante e vamos vê-lo crescer até 10 ou 20 por cento da capacidade total de armazenamento de dados na maioria das empresas. É por isso que a integração entre direito de flash e disco tiers vai trazer uma série de vantagens em termos de simplificação, e vai certamente reduzir o custo total de propriedade, bem.


Flash e disco precisa falar


Vamos supor que estamos a falar de uma grande infra-estrutura. Neste caso, não seria de cerca de um único sistema híbrido grande mas uma infra-estrutura de armazenamento híbrido, composto de sistemas diferentes.


O armazenamento primário poderia ser parte de uma infra-estrutura hiper-convergente ou matrizes externas e ele tem todos os serviços de dados inteligentes agora estamos acostumados a ver (quero dizer, thin provisioning, snapshots, réplicas remoto e assim por diante). Por outro lado, poderíamos ter enormes baseada em objeto scale-out infra-estruturas distribuídas capazes de gerir vários petabytes de dados para todos (não, IOPS / cargas de trabalho sensíveis à latência ou melhor) não primários, na prática tudo o que vão desde serviços de arquivo e grande dados, para fazer o backup de dados e frios (como arquivamento).


Como você provavelmente já sabem, alguns fornecedores já estão propondo sistemas de-estágio snapshots a um sistema de armazenamento secundário. Por exemplo, SolidFire tem a capacidade de copiar arquivos de fotos e volumes de dados diretamente para um armazenamento compatível com S3 e gerenciar sua retenção. Algo semelhante ao que pode ser encontrada em sistemas HP 3PAR (mesmo que só funciona com HP StoreOnce VTLs).


Esses tipos de mecanismos de levar a uma melhor eficiência global em termos de espaço utilizado e simplificação, mas também pode ajudar a ter mais de automação na camada de infra-estrutura, sem a necessidade de software separado / adicional, por exemplo; servidores de backup tradicionais. Mesmo que algum software de backup já podem utilizar os serviços disponíveis na matriz para fazer backups de dados, eu gostaria de ver mais matrizes diretamente objeto apoiando APIs de armazenamento para mover dados entre os sistemas primários e secundários.


Sei que outros fornecedores da matriz estão trabalhando em funcionalidades semelhantes e eu espero que possamos ver mais sistemas de armazenamento primário habilitado a objetos em breve no mercado.


Eles precisam ser mais inteligente


Analytics baseados em nuvem inteligentes está se tornando cada vez mais comum que os fornecedores de armazenamento primário (fornecedores como Nimble estão dando analytics um papel central na sua estratégia, e com razão). Nós não podemos dizer o mesmo para os sistemas secundários (que estão se tornando não tão secundário depois de tudo). Se o objeto de armazenamento de torna-se a plataforma para armazenar todo o resto de nossos dados, em seguida, analytics será dos consideravelmente maior importância no futuro.


Mais tipos de dados e cargas de trabalho serão simultaneamente gerido pela única grande e distribuída, sistemas. Com isso em mente, é bastante óbvio que precisamos ter uma visão clara do que está acontecendo, quando e porquê. E, claro, a análise preditiva será fundamental também.


Felizmente os primeiros sinais de mudança são visíveis deste ano. Cloudian, uma startup objeto-storage, lançou uma nova versão do seu produto e agora recolhe continuamente informações dos sistemas instalados, o que, em seguida, alimenta uma ferramenta de análise para ajudar os clientes. Este é o primeiro lançamento (e eu não tive a chance de vê-lo pessoalmente ainda), mas ele está indo para a direção certa, com certeza.


No futuro eu gostaria de ter mais conhecimentos dos meus analytics de armazenamento do que eu faço agora. O que está acontecendo em sistemas de armazenamento primário também deve acontecer, e isso é ainda mais importante aqui, em sistemas de armazenamento secundário.


Tecnologia já demonstrado por empresas como dados de gravidade seria ainda mais interessante se for aplicada a grandes repositórios de dados (chamá-los de "lagos de dados expandidos", se quiser) ... e eu não posso esperar para ver algumas startups, ainda em modo stealth, mostrando-se com o seu software para analisar o conteúdo de armazenamento.



Nenhum comentário:

Postar um comentário