segunda-feira, 29 de dezembro de 2014

Trazendo órfãos AFA SAN em casa


Todos os flash-matrizes são órfãos de SAN, que operam fora da infra-estrutura SAN existente e tendo um tempo duro de que a partir do ângulo de serviços de dados, como resultado. Não seria muito melhor se eles viviam no interior da casa SAN existente ao invés de ser de fora no frio, por assim dizer?


Empresariais existentes matrizes SAN são produtos robustos, confiáveis ​​e maduras, com instalações de software de serviços de dados construída através de várias versões de software para fornecer funções de proteção de dados e de gestão, tais como;



  • Integração do produto Backup / operação

  • Snapshots

  • Replicação síncrona e assíncrona

  • Clonagem

  • Redução dos dados que vão desde thin provisioning através de desduplicação

  • Provisioning

  • O uso de recursos trending

  • Gerência Geral


Matrizes SAN da Dell, EMC, HDS, HP, IBM e NetApp estão todos nesta categoria geral e fornecer um conjunto arredondado de serviços de gestão de dados que são invocadas por departamentos de TI usando suas matrizes.


Estes são tipicamente matrizes baseados em disco com a desvantagem de latência que esses meios de comunicação tem, o tempo que contos de receber um pedido de IO com o tempo de um disco de leitura / escrita cabeça começa a se mover dados para / de blocos na pista de um prato. Discos sólidos declarados (SSDs) não têm essa procurar latência espera de tempo e pode acelerar uma matriz legado.







No entanto, a matriz SAN médio tem uma pilha de software controlador baseado no IO ele está lidando com o ser de e para o disco. Mais uma vez, será um produto maduro e robusto, amadurecido durante várias gerações para que não falha e é fiável e eficaz; eficiente, que é dado a mídia fiação que ele controla.


A ascensão de matrizes todos os flash-


Quando tudo-flash matrizes foram previstos primeiro eles foram concebidos por mais recentes, empresas start-up que não poderia usar software matriz existente; é proprietária, obviamente, e assim escreveu o seu próprio. Este tinha uma virtude intrínseca em que ela foi escrita para tirar proveito de baixa latência de NAND flash e não retardar o flash para baixo através de ineficiências na camada de software controlador.


O arranque da comercialização isso como solo-up projetado software, sob medida para o flash e, portanto, a criação de matrizes que tiveram software controlador mais rápido pilhas, bem como mídia nativa mais rápidos. Assim, um Software Pure, um SolidFire ou XtremIO diria, com razão, que a sua tecnologia teve de mídia flash, tanto mais rápidas do que em disco e software matriz mais rápido do que de disco baseadas em dirigir SANs, e, consequentemente, eram dois ou há ordens de grandeza mais rápido do que SANS usando HDDs.


O alto custo do Flash em comparação com mídia do disco, foi abordado pela adição de desduplicação e compressão para se chegar a um custo eficaz / GB de armazenamento que foi equivalente ou inferior a um SAN baseado em disco.


Onde os servidores estão detidos à espera de IO com aplicativos que necessários para executar o mais rápido possível; aplicações financeiras pisada por exemplo ou commerce web, então matrizes all-de flash tornou-se atraente, de fato, com algumas unidades de rack de "U" s de matriz flash de substituição de dois ou mais prateleiras cheias de discos curtas-acariciou. Tais arranjos necessários vários eixos com os dados armazenados nas pistas mais rápido acessados ​​para entregar a velocidade necessária para tais aplicações.


Com esta praia cabeça todos os flash-matrizes (AFA) começou a mover-se em centros de dados empresariais e foram comercializados como meio de armazenamento de dados primários, pronto para substituir todos SAN armazenamento de dados de matriz precisando de unidades de disco 15.000 rpm.


AFA custos ocultos


Mas houve um custo, um custo quase escondida, em que os dados nas matrizes todo-o flash não pode ser gerida da mesma forma que com as SANs instalados. Eles tinham sua própria interface de gerenciamento; suas próprias modalidades de apoio e os seus próprios serviços de dados que, mais comum para SANS existentes foram limitados em primeiro lugar e, além de ser inferior em recursos para os arranjos existentes, eram diferentes em seu funcionamento e gerenciamento detalhado.


Isso significava que as empresas estavam a proteger e gerenciar seus dados menos importantes, o material armazenado em suas SANs tradicionais, melhor do que os mais importantes dados primários ou "quentes" sobre estas matrizes, all-de flash mais rápido mais recentes. Assim, por exemplo, dod replicação não existir, ou foi assíncrono e não síncrono. As empresas que possuem, em seguida, teve que tomar outras providências, se eles queriam as mesmas características de segurança de dados que foram utilizados para com suas matrizes SAN.


Como seria benéfico se os seus serviços de dados de matriz SAN existentes poderia ser usada com as novas matrizes all-de flash. Mas a regra geral é que eles não podem. Assim, os fornecedores de matriz Flash independentes, tais como armazenamento Pure, SolidFire e Violin todos têm seus próprios serviços de dados separados, EMC comprou uma startup matriz flash, XtremIO, e oferece-o como linha de produtos separada de seus matrizes VMAX e VNX SAN e filers Isilon.


Serviços de dados VMAX específicas, não estão disponíveis para usuários XtremIO e coisas VMAX e VNX tomar para concedido como atualizações em grande parte ou totalmente sem interrupções de software estão ausentes da XtremIO


NetApp tem três-flash todos os produtos de matriz; seu rápido ingest EF-Series, suas matrizes FAS tudo-flash e seu mais recente, mas único controlador-only in-house desenvolvido o Flash Ray. A nave-mãe NetApp é a sua linha FAS Data ONTAP, mas, mesmo com a sua carteira de serviços de dados ONTAP, NetApp considerou necessário ter dois outros produtos de matriz de todos-flash; a série EF e FlashRay, nenhuma das quais tem ONTAP bondade serviços de dados, mas ambos os quais oferecem melhor desempenho e / ou preço / performance para aplicações que necessitam de um acesso mais rápido do que o dia de mídia flash ONTSP pode entregar.


Software controlador da Matriz


Apenas dois existentes fornecedores de matriz SAN oferecer novo tudo-flash desempenho matriz dentro de sua paliçada serviços de dados; HDS e HP. Por que eles foram capazes de fazer isso quando Dell, EMC, IBM, NetApp e outros não podem?


HDS desenhou o seu próprio hardware, a Hitachi Aceleração do Flash (HAF) bandeja, quais slots em uma existentes matrizes VSP high-end, e matrizes de HUS mid-range.


Hitachi detalhe flash acelerado

Hitachi acelerado módulo Flash para sua variedade VSP



Trata-se de empresa, as bandejas de 2U com capacidade para até 38.4TB eo design do hardware garante, HDS diz que IOPS desempenho é quatro vezes melhor por dispositivo flash do que o de unidades de estado sólido (SSDs) da empresa. Não há nenhum sacrifício de velocidade aqui, mas essas AFA operar dentro de toda a panóplia de serviços de dados VSP e HUS. Por exemplo, todas as funções de matriz de acolhimento como virtualização externa, continuar como antes.


Curiosamente, o produto tem um ASIC para fornecer velocidade extra, o que nos leva a HP e sua linha 3PAR.


HDS HAF ASIC

Hitachi acelerado diagrama do Flash ASIC



HP tem uma versão totalmente lampejo de sua StoreServ produto (3PAR), a 7450 e, basicamente, diz que as características de eficiência hardware de aceleração e refinadas ASIC, como otimização de cache adaptável, se significa o seu software StoreServ que ele pode rodar tudo isso configuração -flash tão eficaz como qualquer startup matriz tudo-flash sem seus clientes ter que sacrificar os serviços de dados StoreServ.


StoreServ_7450

HP StoreServ 7450



Desde que foi anunciado em 2013, ele foi atualizado; uma atualização de SW no final de 2013 aumentou a sua taxa aleatória IOPS 4K de leitura de 550 mil para 900 mil, por exemplo. A desduplicação foi anunciado em junho 2014, juntamente com a clonagem fina. HP diz que seu custo efetivo por GB está no / nível $ 2 GB.


HP e HDS estão esperando que há capacidade de fornecer desempenho e eficiência de armazenamento, igual ou melhor do que todos os flash-matrizes que não gozam de residência debaixo do mainstream SAN serviços de dados guarda-chuva, vai convencer os seus clientes para evitar startups AFA ou produtos órfãos AFA de outros fornecedores e ficar dentro do seu ambiente de software matriz SAN existente,


Um outro pensamento. Com a expansão dos recursos de armazenamento que vem como silos de recursos específicos de aplicativos vêm junto, Hadoop de estilo grandes dados e análises lojas, por exemplo, certamente faz sentido para minimizar o número de silos separados sua equipe de administração têm de lidar com eles.


Trazendo órfãos matrizes all-flash em seu tradicional SAN tenda, onde você pode, vai reduzir a carga de administração e deixar você usar os mesmos mecanismos de gestão, proteção e apoio em todo tanto a sua SAN e todos os-flash ambientes matriz. O que há para não gostar? ®



quarta-feira, 24 de dezembro de 2014

Nós podemos mudar um pouco 0-1 sem corrente, dizem boffins


Pode haver algum ferro na alma não-volátil. Uma equipe de boffins Universidade de Cornell usando ferrite bismuto ter descoberto uma maneira de armazenar bits em ímãs, sem necessidade de comutação atual baseada em elétrica.


O seu dispositivo de memória magnetoelétrico temperatura ambiente tem 2-step switchability magnética "com nada além de um campo elétrico". Ela não precisa de tensão para ligá-lo e detectar sua polaridade; valor pouco em termos digitais.







O boffinry resultou em um papel ", comutação Deterministic de ferromagnetismo à temperatura ambiente usando um campo elétrico", que foi publicado na Nature .


Estamos informados os pesquisadores fizeram o seu dispositivo a partir de ferrite de bismuto (BiFeO 3). Este é um material multiferroic, sendo magnético, com pólos norte e sul, como qualquer ímã bog-padrão, e também ferroelétricas, ou seja, é eletricamente polarizado. A polarização pode ser comutada com um campo eléctrico. É uma propriedade rara e outros materiais multiferróicos exigem frieza aproximando quase absoluto de zero, 4 Kelvin (-452 ° Fahrenheit) para funcionar.


Anteriormente ferrite bismuto foi pensado para ser inutilizável, mas a descoberta do processo de 2 passos envolvidos mudou as coisas. Agora, os dados podem ser codificados sem corrente, por exemplo "por um campo eléctrico aplicado através de um isolador", exigindo baixa energia.


A energia envolvida quando se utiliza o dispositivo é dito para ser de uma ordem de grandeza menor do que a necessária para a memória do binário de transferência de rotação (STT-RAM) .


O papel da natureza menciona "acoplamento magnetoelétrico inequívoca" e diz que "ferromagnetismo fraco surge da canting dos spins antiferromagneticamente alinhados pela interação Dzyaloshinskii-Moriya (DM)".


Err ... nós tornou-se mentalmente anestesiada nesse ponto, retornando à vida com a última frase do resumo: "Nossos resultados sugerem maneiras de engenheiro de comutação magnetoelétrico e adequar tecnologicamente funcionalidade pertinente para escala nanométrica, baixo consumo de energia para o consumo, não magnetoelectronics voláteis ".


Aha, a memória não-volátil é muito densa em perspectiva.


A equipe de boffins inclui Cornell pós associar John Heron e Darrel Schlom, professor de química industrial na Ciência dos Materiais e Engenharia Deparment, Ramamoorthy Ramesh, PhD assessor de Heron, e Dan Ralph, professor de Física na Faculdade de Artes e Ciências.


Multiferroicos tornou-se interessante para boffinry por volta da virada do século, Schlom disse: "Desde que multiferróicos voltou à vida por volta de 2000, a realização de controle elétrico do magnetismo à temperatura ambiente tem sido a meta."


Ramesh encontrado em 2003 que bismuto ferrite poderiam ser cultivadas em filmes extremamente finas que exibem propriedades interessantes e isso ajudou a pavimentar o caminho para o dispositivo BiFeO 3.


Se esta tecnologia interessante é encontrar o seu caminho em produtos reais, em seguida, os engenheiros de desenvolvimento de fábricas de memória terá de desvendá-lo e ver como ele se compara com STT-RAM e outros DRAM follow-on contendores. ®



2014 AD: Um ano no armazenamento. Unhas ainda não é suficiente para a tampa do caixão disco


Beard curso Passar algum da época festiva em San Francisco tem me dado a chance de olhar para trás, o maravilhoso mundo do armazenamento e para refletir sobre o que pode ter sido as maiores histórias gerais de armazenamento ao longo dos últimos 12 meses mais ou menos.


Aqui está o que eu acho que são os mais fortes concorrentes:



  • Fragmentação de SAN / NAS

  • Nuvem de armazenamento em nuvens públicas e híbridas

  • Aumento da capacidade SSD e limitações da produção de fundição

  • Aumento de dados não estruturados e aumento de armazenamento de objetos

  • SAN do servidor e sistemas hyperconverged

  • Reestruturação incumbente

  • Rise of investidores ativistas


O sharding de SAN e NAS tecnologia foi coberta aqui e meu pensamento nos que o número e tipo de tecnologias de propor uma alternativa para legados NAS e SAN matrizes constitui uma mudança secular; ter um NAS centrais / SAN não mais, por assim dizer.


Uma alternativa é a nuvem pública e praticamente todos os fornecedores de armazenamento legado têm ou pontes com ou camadas de abstração para a nuvem pública. Amazon, Azure e Google estão causando estragos em nuvem híbrida como vendedores incumbentes tentam proteger seu centro de dados de clientes da base instalada, e startups como Avere, Nasuni, Panzura eo SteelStore adquirida, StorSimple e TwinStrata fornecer rampas de acesso para a nuvem pública.







São híbridos chicotes nuvens de buggy para uma era de automóvel?


O Flash atingiu matrizes de unidade desempenho e unidades de disco rígido e capacidade iminente sobe, como da SanDisk afirmou 16TB SSDs em 2016 (os 24TB TLC) poderia martelar mais pregos no caixão da tampa da unidade de disco - só que não há pregos suficientes como fundições são limitadas em número. Para flash para realizar o seu potencial, precisamos de outro 10-20 fundições, o que significa um investimento coletivo - por uma indústria levando as cicatrizes de gluts-matança de lucro no passado - de + $ 100 bilhões.


É altamente provável que não aconteça rapidamente.


Em oposição aos SAN / NAS-eviscerating nuvens públicas são SANs do lado do servidor e sistemas hyperconverged, igualmente determinada a acabar com o que vêem como a porcaria SAN / NAS. Com o EMC e VMware a bordo, além de todos os fornecedores de servidores, exceto Cisco montam o EVO: Trilhos esta parece ser uma tendência tecnologia atualmente imparável que tem pernas.


Lança o teu olho na Symantec e HP dividindo em duas, a Dell vai privado e IBM vender seu negócio de servidores X86 e você vai perceber que a estabilidade fornecedor incumbente não é um dado adquirido. Será Cisco ficar mais sério sobre o armazenamento? A IBM sair do negócio de armazenamento? É uma nova rodada de aquisições de inicialização de armazenamento vai chegar em curso?


Nenhuma destas três questões são irrealistas para perguntar, o que é evidência de instabilidade titular em face do mercado de armazenamento e tecnologia mudanças seculares.


Por último, um amadurecimento SAN / NAS e armazenamento de rede de mercado, com oportunidades de baixo ou nenhum crescimento e slow-to-reagir fornecedores, criou para os investidores ativistas como Gestão Starboard e Elliott Management da Paul Singer para tomar posições em empresas tão diversas como a EMC , Emulex, NetApp e Riverbed e da procura mudar até e incluindo a venda da empresa.


A indústria de armazenamento está passando por uma transição multifacetado como partidas, os operadores históricos e clientes lutar com os efeitos desses sete forças que os afectam.


Ainda não acabou, não senhora gorda de ter começado a cantar. O fim do ano em 2015, provavelmente, proporcionar a oportunidade para outra vista que olha para trás e tentando fazer sentido de tudo isso.


Esse é o negócio de armazenamento para você, cheio de coisas que giram e fluxo e tecnologia flash que - não importa o que os engenheiros dizê-lo - tem não é de forma em um estado sólido ou estável ainda. Feliz Natal e um feliz Ano Novo. ®



terça-feira, 23 de dezembro de 2014

Terceirizado Capita agarra acima Soluções de estado sólido para wonga não revelado


Terceirização gigante Capita tem devorado empresa de armazenamento de Basingstoke Solutions estado sólido (S3) para um valor não revelado.


O negócio de volume de negócios 22m £ vai sentar-se dentro de TI da empresa de serviços de tecnologia da biz Capita.







A empresa tem 30 funcionários com mais de 300 clientes do setor público e privado.


O movimento é susceptível de reforçar a crescente oferta de setor público da Capita, tendo a empresa fez uma série de vitórias significativas na administração local e central - como sua £ 400m acordo com o Ministério da Justiça no ano passado.


Ele observou que agora terá acesso a um centro de dados acreditados para um nível que pode oferecer maior segurança para proteger informações sensíveis - um requisito comum para departamentos do governo central e algumas agências.


Referindo-se ao jargão de segurança do governo disse: "S3 atualmente utiliza o espaço do centro de dados em um centro de Nível 3+ de dados localizado em Farnborough, Hampshire, que é BIL3 e Lista X acreditado."


Mãos Peter, diretor-executivo da Capita TI Enterprise Services, disse: "O armazenamento de dados está se tornando cada vez mais importante para os nossos clientes - eles querem uma solução que não só oferece garantias de segurança, mas também flexibilidade, acessibilidade e valor."


O negócio arredonda um número de ofertas feitas pela terceirização gigante aquisição com fome este ano, incluindo Reter International, e de segurança especialista revendedor Solutions Technology Network.


No ano passado Capita gastou £ 271m aquisição de 13 empresas. A empresa registrou um aumento de receita de 15 por cento de £ 3.85bn. ®



Vidas Nimble até nome depois de comer chamativo brekkie DIMM


FlashDIMMs Analysis pode transformar matrizes Nimble armazenamento em sistemas sobrecarregados, encurtando latências IO IO e acelerando geral.


Estes sistemas baseados em mercadorias usar o flash como uma extensão da memória com cartão de latências mais baixas do que o PCIe-flash, devido a eles terem acesso a nível de DIMM para o ônibus CPU-memória dentro de seus servidores / controladores.







Ele usa parcialmente NVault NVDIMM tecnologia (DIMM não volátil) licenciada pela Netlist, uma empresa canadense.


Nós já sabemos que a Huawei, Lenovo e licença Supermicro semelhante tecnologia de memória flash baseados em DIMM de Diablo Technologies.


O fundo que liga Netlist e Diablo é um pouco complicado, mas vamos passar por isso:



  • Netlist teve um relacionamento com Diablo Technologies, uma startup do Vale do Silício, que tem desenvolvido a sua base-DIMM próprio Canal de Memória de armazenamento (MCS).

  • Este foi licenciado para Smart Storage, remam para fora um produto chamado ULLtraDIMM, que IBM famosa licenciado para usar em alguns dos seus servidores x86.

  • SanDisk comprou a SMART e herdou o negócio Diablo ULLtraDIMM.

  • IBM vendeu seu negócio de servidores x86 para Lenovo que herdou o negócio SanDisk / Smart ULLtraDIMM.

  • Netlist licenciou sua tecnologia NVDIMM para Nimble armazenamento.

  • SanDisk licenciou sua tecnologia ULLTraDIMM a Huawei e Supermicro para uso em seus servidores.

  • Netlist está processando Diablo por violação de IP com Diablo contra-processando por restrição de comércio.

  • Tegile parece provável para usar a tecnologia ULLtraDIMM em suas matrizes híbridas em 2015.


Netlist_DDR3_NVDIMM

Netlist DDR3 NVDIMM



Quando escrevemos sobre provável adoção ULLtraDIMM de Tegile nós pensamos que seria dar o seu produto uma vantagem sobre os companheiros de matriz híbrida concorrentes inicialização Nimble e armazenamento Tintri. Mantenha-se, disse Nimble, já temos tecnologia NVDIMM e Tegile não está recebendo qualquer vantagem de desempenho sobre nós.


Como o uso Nimble Netlist NVDIMM tecnologia?


Matrizes ágeis têm CASL software (aumentada-Cache disposição seqüencial) que, entendemos, permite separar de gravação e leitura caminhos IO para garantir baixa latência e alto desempenho IO (independentemente do padrão de IO, aleatória ou sequencial, escreve altos ou lê ) sem grandes quantidades de SSD.


Eles tinham um PCIe NVRAM arquitetura e patenteado design personalizado em sua primeira iteração de produtos para gravação IO ingerir e dados coalescentes; trabalhando com CASL para acelerar IO futher.


Gen 2 produtos Nimble surgiu em 2014 e usado NVDIMMs design personalizado, com uma contribuição de tecnologia Netlist, para obter ainda mais baixa latência de escrita e maior desempenho do que o desenho baseado em PCIe Gen 1. O CS300, 500 e 700 matrizes de usar essa tecnologia.


A combinação de software CASL e controladores usando DRAM, NVDIMMs e SSDs faz matrizes Nimble ir muito mais rápido (Nimble poderia dizer) do que matrizes híbridas regulares (pensar, Dell, EMC, HP, IBM e NetApp) e startups também híbridos matriz, tais como Tegile e Tintri.


Com Tegile aparentemente olhando para usar SanDisk ULLtraDIMMs, este possivelmente pressagia um movimento mais difundido pelos controladores de matriz de armazenamento híbrido para usar os DIMMs flash como uma tática de speed-up IO e mais eficazmente competir com todas as matrizes de flash. ®



segunda-feira, 22 de dezembro de 2014

O Flash se liberta da Sociedade da Terra Plana armazenamento


NAND costumava ser uma prerrogativa exclusiva de uma sociedade da Terra plana bidimensional obcecado com o encolhimento, mas essa abordagem está sendo executado em um beco sem saída tecnológico.


Para obter mais capacidade a única saída viável é para cima, usando a terceira dimensão e empilhando camadas de flash de 2D para construir chips multi-camadas.







O beco sem saída está acontecendo porque a tecnologia flash, impulsionada pela necessidade de persistentemente adicionar mais capacidade no mesmo espaço chip como capacidade de armazenamento a demanda aumenta, é atropelado por um "um passo à frente, dois passos para trás" síndrome.


Esta demanda é real. -Trabalho conjunto tamanhos de aplicativos, os dados que devem estar na memória, estão subindo como na memória de processamento de dados são usados ​​para aplicações de velocidade, tais como SAP, que requerem um elevado nível de acesso ao banco - daí SAP HANA.


Tendo um sistema tudo-em-memória DRAM é caro. Adulterando a memória com flash trades off menor custo contra o acesso de dados um pouco mais lento, e isso está se tornando mais popular como chip flash densidade sobe e seu custo por GB cai.


Além disso, a análise de Big Data exige clusters de nós de computação que trabalham em paralelo a produzir através petabytes de dados. Usando lotes de flash para armazenar os dados acelera os analytics um grande negócio em comparação com o uso de disco.


Estes dois casos de uso e outros são esperados para continuar a conduzir a necessidade de memória flash mais densa, mas há uma armadilha de escalonamento de flash aproximando.


Incredible acesso encolhendo


Como o tamanho da célula diminui passo a passo geometria da célula para baixo e para abaixo de 20 nm a velocidade de acesso diminui, a probabilidade de erros de leitura vai para cima e a capacidade de resistir a instantânea para re-escreve diminui, reduzindo a sua vida de trabalho ou de resistência.


O aumento dos contagens de erros pode ser tratada através de uma melhor software controlador, ea vida mais curta pode ser anulada por ter mais células peças pronto para usar quando outras células se desgastam e morrer. No entanto, isto significa que a verificação de erros e correção (ECC) lógica torna-se cada vez mais complexo e o número de células necessárias para o excesso de provisionamento sobe para um nível inconcebível.


Nesse ponto, é mais rentável e lucrativo, para fazer NAND 3D. Os fabricantes têm perspectivas diferentes sobre quando este ponto é atingido, em função da sua própria visão dos problemas e custos de desenvolvimento de tecnologia 2D NAND.


Normalmente os chips 3D que vemos hoje não use 2x ou de classe 1X geometrias tamanho das células, preferindo usar células do tipo 4X, trocando alguma capacidade de encontro a uma taxa de erro menor e maior resistência.


Além disso, os fabricantes estão empurrando o envelope processo de fabricação com chips 3D, e isso faz sentido usar litografias de células que são experimentadas e testadas em vez de vanguarda.


NAND threesome


A maioria NAND vendido hoje é multi-level cell formato (MLC), significando 2bits por célula. Mas TLC (célula de nível triplo) NAND pode ser usado também, embora em qualquer tamanho de geometria da célula TLC NAND tem uma vida útil mais curta do que MLC NAND. Naturalmente, o caso de uso seria para um trabalho intensivo de leitura do que do que aplicações escrever-intensiva.


Onde MLC NAND 3D poderia fornecer uma duplicação ou triplicação da capacidade, TLC 3D NAND poderia proporcionar um salto de 50 por cento em cima, se isso. Assim, um produto 20TB MLC NAND 3D poderia tornar-se um produto de 30TB TLC 3D NAND. Podemos imaginar a boca dos junkies flash-capacidade de rega para isso.


3D NAND disponível atualmente está em formato de disco de estado sólido (SSD), voltado para caber em compartimentos de unidade de 2,5 polegadas em servidores e storage arrays. No entanto, um chip é um chip é um chip, e, assim como chips MLC NAND, podemos supor que NAND 3D vai se espalhar para todos os formatos de flash, como unidades de M2 ​​formato, placas PCIe, e até mesmo flashDIMMs, chips de interface com soquetes DIMM no servidor motherboards.


Atualmente SanDisk fornece 200GB para 400GB ULLtraDIMMs usando flash de 19nm MLC. Podemos prever 1TB para versões 1.5TB em dois a três anos, o que apontaria para um aumento enorme no recurso eficaz memória utilizável pelos servidores.


O salto de capacidade de flash PCIe poderia ser tão dramático. Memblaze anunciou recentemente a4 .8TB flash card PCIe usando 2D NAND, enquanto a Samsung tem um SSD PCIe 3.2TB NVMe utilizando a sua tecnologia 3D V-NAND.


Estas capacidades podem ser duplicados e triplicados com chips NAND 3D. O mesmo efeito deve jogar fora com matrizes de todos os flash. Um HP StoreServ 7450 com até 460TB de capacidade actualmente pode subir para 920TGB ou mesmo 1.4PB.


Esta é apenas a nossa especulação pelo caminho; que não têm acesso a planos de nenhum dos fornecedores.


Qual é o ponto da situação NAND 3D com os fabricantes?



Dados para animais Big Blue em backup em gigabytes / s


Produto de backup da IBM TSM vai super-rápido para o backup para o sistema de arquivos paralelo Elastic de armazenamento, de acordo com testes da empresa. TSM significa Tivoli Storage Manager, com Elastic Armazenamento sendo os GPFS re-branded.


Os servidores que executam TSM estavam ligados a uma matriz Elastic armazenamento em um teste de prova-de-conceito engenheiros da IBM na Alemanha , que escrevi sobre os resultados.







A velocidade de backup e restauração foram na área de 4-5GB / seg - sim, gigabytes por segundo - usando um link 40GbitE:



  • BACKUP único servidor TSM com várias sessões - 4.017 MB / s (4 GB / seg).

  • Dupla BACKUP servidor TSM com várias sessões - 4.981 MB / s (5 GB / seg).

  • Servidor único TSM RESTAURAR com várias sessões - 3.834 MB / seg (3.8GB / s).

  • Servidor TSM dupla restauração com várias sessões - 5.424 MB / seg (5.4GB / s).

  • Servidor TSM dupla MISTURADO com várias sessões - 4821 MB / seg (4.8GB / s).


O software TSM, cliente e servidor, foi instalado em servidores x86, configurados como clientes GPFS NSD e conectados através de 40 Gbit / s Ethernet para o sistema Elastic Armazenamento GNR, com uma única linha de 40 Gbit dedicado a cada servidor. O sistema GNR foi comparável a um modelo de servidor de armazenamento Elastic GL2, composta de dois servidores da GNR e 116 unidades NL-SAS.


IBM_TSM_Elastic_Storage

IBM PoC usando links 40GbitE entre servidores TSM-Elástico de Armazenamento (GPFS).



Os blogueiros IBM dizem que o único sistema de arquivos GPFS GNR utilizado pelo servidor TSM compreendeu duas piscinas GPFS em que cada conjunto foi configurado no disco virtual (vdisk) proporcionar tolerância a falhas 3-way. Para mais detalhes, leia o blogue .


A PoC anterior usado 56Gbit / s InfiniBand para conectar servidores TSM e GPFS e resultados também produzidos em circulação:



  • O desempenho do backup Peak usando várias sessões para um único servidor TSM é 5.4GB / s.

  • O desempenho do backup Peak usando várias sessões para dois servidores do TSM é de 9 GB / seg no total.

  • Peak restaurar o desempenho usando várias sessões para um único servidor TSM é de 6,5 GB / s.

  • O desempenho do backup Peak usando uma única sessão para um único servidor TSM é de 2,5 GB / s.


Com estes resultados, acronymically TSM poderia ficar para a máquina Speed.


Isto sugere que, em geral, fazer backup em paralelo sistemas de arquivos vai ser mais rápido do que fazer backup em sistemas de arquivos de acesso único. Sempre que há uma quantidade enorme de dados para backup ou arquivamento, existem limitações de tempo, e você tem uma matriz filesystem paralelo usando NFS Paralela, Elastic armazenamento da IBM, DDN e Scaler Web Object (WOS), Seagate / Xyratex e Lustre, Red Hat e Gluster ou Ceph, bem, então - consideram que matriz como um destino de backup / arquivamento, bem como tudo o que o seu objectivo principal é.


Claro, você precisa de ligações rápidas de rede bem e software de backup / archive que podem usar os links e back-end de armazenamento, como TSM lata. Se você tiver estes então o seu backup e arquivamento, e restaurações posteriores, poderia mover os dados como um dragster rugindo uma faixa de velocidade. ®



domingo, 21 de dezembro de 2014

VMware diz que qualquer um - não apenas EMC - podem jogar com seus melhores pedaços


Desde VMware lançou o aparelho de armazenamento virtual de volta em 2011, os observadores se perguntam se os esforços de armazenamento da empresa machucar negócios da EMC seu pai.


Essa ponderação se tornou mais intensa quando VMware lançou VSAN no início deste ano, como o produto de armazenamento definido por software é um concorrente direto para alguns arrays da EMC, em alguns cenários.







O lance em investidores ativistas que pensam que a Federação EMC poderia fazer com um pouco menos concorrência interna e / ou sobreposição, ea atitude de VMware para armazenamento definido por software torna-se uma questão de conjectura justificável.


E no início de dezembro, a EMC empurrou seu servidor ScaleIO SAN no kernel VMware, criando uma outra opção de armazenamento-through-software.


VMware diz a notícia do plano ScaleIO vi que receber "... uma grande quantidade de perguntas de nossos clientes e parceiros sobre as diferenças entre SAN Virtual e EMC ScaleIO ... nos perguntando sobre onde SAN Virtual deve ser utilizado, onde ScaleIO deve ser usada, e se há qualquer diferença real entre os dois. "


A resposta da VMware, postado aqui é que "Não há planos para a porta do produto ScaleIO núcleo no kernel do ESX ou integrá-lo com o resto da pilha vSphere."


"Artigos de imprensa recentes", diz o post, causou "confusão".


Esses artigos, provavelmente, seria um presente de roupa francesa lemag TI e nosso próprio impulso link acima.


Secretária de virtualização 's El Reg adivinha EMC e VMware têm apanhou um pouco de calor sobre isso, porque o post negação é bastante longa. Ele explica que "VSAN é projetado especificamente em torno de uma forte integração com vSphere - com o objetivo de proporcionar níveis de desempenho de gestão de super-simples e muito elevados para vSphere VMs"


VMware VSAN

Este é um VSAN



O trabalho de ScaleIO é "fornecer armazenamento baseado em servidor altamente escalável para plataformas heterogêneas, incluindo múltiplos hypervisors e servidores físicos."


EMC's ScaleIO

Este é um ScaleIO não-SAN



A confusão VMware do infeliz com provavelmente surgiu porque há um fundo de verdade na integração de ScaleIO e ESX.


Aqui está como que a integração funciona, como explicado no post de VMware:


EMC escreveu um driver de kernel ESX que implementa um módulo cliente ScaleIO. Ele "fala" o protocolo ScaleIO e acessa o servidor (s) ScaleIO. Ela expõe armazenamento para máquinas virtuais rodando em vSphere de uma forma semelhante à volumes iSCSI. Este driver ScaleIO foi escrito usando APIs públicas do kernel que estão disponíveis para qualquer parceiro VMware que desenvolve drivers do kernel em ESX. O servidor ScaleIO não está sendo portado ou integrado com o vSphere eo kernel ESX.

O ponto aqui parece ser é que qualquer pessoa pode usar API pública do VMware para fazer o tipo de kernel-obra EMC feito com ScaleIO. Então EMC não está recebendo um acesso privilegiado a ESX ou qualquer outra tecnologia VMware. E porque os dois produtos são tão diferentes em design e finalidade, não há concorrência entre EMC e VMware. Mas os dois não competir no mercado global de armazenamento definido por software, o que é bom.


Não admira que os investidores estão confusos. ®



sexta-feira, 19 de dezembro de 2014

Os clientes da Fujitsu vem grande dançando samba dados


Fujitsu é ajudar seus clientes a se levantar (e para baixo de novo) na grande pista de dança de dados e fazer o samba analytics com um pacote integrado de HW e SW e serviços chamado PRIMEFLEX para Hadoop (PfH - nossas iniciais) para salvar os clientes a partir de qualquer agressão DIY .


Da Fujitsu PRIMEFLEX - a empresa ama em maiúsculas nomes de produtos - é uma marca de sistema baseado em servidor PRIMERGY integrado ou convergiram, acrescentando em redes, armazenamento e sistema / software middleware (incluindo a gestão e suporte) para produzir uma oferta appliance-like.







O software pode vir da Microsoft, SAP e VMware e Fujitsu pretende produzir cerca de 20 modelos focados em diferentes casos de uso. Pense Fblocks, como Vblocks, e você não vai ser muito errado.


Há um PRIMEFLEX para EVO: RAIL e uma versão grade de dados de memória in-; PRIMEFLEX para Terracotta BigMemory.


PfH é a mais recente variante, e chamou um hub de dados da empresa. Ela contém:



  • Aglomerado Primergy usando tanto CX (entrada) ou RX (sistemas de rack) ou CX servidores multi-nó

  • Rede toro Switchless

  • 10GB / s conectar-iner

  • Datameer Software 5 - auto-serviço de análise de dados de grande software

  • Cloudera Empresa 5 - distribuição de software open source Hadoop


Existem diferentes versões do PfH, com um otimizado para tarefas de armazenamento intensivo e outra para trabalho intensivo de processamento. Eles são embalados em sistemas completos com um único número de peça.


Poderíamos pensar que um Datameer é o equivalente holandês de um lago de dados. Sendo self-service significa que consulta set-up é muito mais rápido do que esperar para administradores de TI para configurá-los para você, de acordo com a Fujitsu.


Fujitsu_PfH_marketing_diagram

Alguns componentes PFH de comercialização doc.



Há um conjunto de serviços disponíveis; big data de consultoria em estratégia, de análise e consultoria Hadoop, e serviços de integração para a entrada de nível e de nível de rack configs PFH. Fujitsu disse que criou um centro de especialização que os clientes podem tocar em Big Data base europeia.


Os potenciais clientes para este sistema Hadoopery será em finanças, TI unidades de negócio de gestão e marketing em segmentos de mercado que enfrentam grandes onrushes dados. Eles vão estar olhando para se levantar e correr mais rápido do que com a construção de suas próprias análises de Big Data set-up a partir de componentes separadamente-comprados.


Obter uma PfH ficha técnica (pdf) aqui . Há um conjunto de slides aqui , mas você tem que ser um parceiro registado Fujitsu para acessá-lo.


PRIMEFLEX para Hadoop está disponível para encomenda como um sistema integrado de ready-to-run para utilização na premissa. Fujitsu vai apresentar uma oferta de serviço em execução na Fujitsu Nuvem algum tempo em 2015. ®



quinta-feira, 18 de dezembro de 2014

Rivals sentir o poder da mordida software de armazenamento da EMC


Mais recente software de armazenamento (SW) números do perseguidor da IDC mostram cão superior EMC continua a governar os canis, com uma quota de mercado de ambos os chunkier seus rivais mais próximos combinados.


A Worldwide Armazenamento Software Vista diz que as receitas totais do sector, saltou 6,1 por cento sobre o mesmo período do ano passado para cerca de US $ 3,8 bilhões.







EMC teve 27,2 por cento do que (25,2 por cento um ano atrás), enquanto perdedores IBM levou para casa 14,2 por cento (15,1 por cento em Q3 2013) e Symantec 12,8 por cento (14 por cento de um ano atrás).


No trimestre anterior, este ano, a EMC ostentava uma quota de 25,9 por cento dos despojos, IBM 13,3 por cento, e Symantec 16 por cento.


EMC tem dominado este mercado há vários anos, porque tem um portfólio mais amplo, que vai além de back-up e gerenciamento de armazenamento simples.


Por outro lado, a Symantec foi sem imaginação e cauteloso sobre a expansão de seu portfólio de software de armazenamento, porque é fundamentalmente uma empresa de segurança, algo que foi finalmente reconhecido.


Quanto a Big Blue, ele não tem uma gama de produtos back-up equivalente que a EMC ou Symantec oferece aos apostadores, e tende a concentrar-se em hardware de armazenamento, embora não se publicar os registros de vendas lá.


Analista de pesquisa de software Storage Jingwen Li disse:


"As vendas de software de armazenamento cresceram em todos os mercados funcionais, mas as plataformas de armazenamento definidos por software de vendas levou claramente o pack. Up 39,4 por cento ano a ano, o mercado de plataformas de armazenamento definido por software está se beneficiando de um aumento do desejo de controlar os custos, utilizando commodities hardware quando a construção de sistemas de armazenamento. "

EMC, NetApp e Dell hardware uso de commodities, e também há IBM, portanto, não se empolgar e pensar que as empresas de armazenamento somente SW como Nexenta e DataCore e CommVault, etc, são, necessariamente, fazendo extras bem.


Symantec é dividir em duas empresas; único a fazer produtos de segurança e outro de armazenamento, enquanto ele tenta re-energizar as duas partes da empresa e levá-los a crescer novamente.


IBM não está fazendo nada de impacto equivalente a tentar aumentar as suas receitas de software de armazenamento. ®



Toshiba junta-se ao, de três membros do clube disco 6TB exclusivo


Toshiba juntou Seagate e WD / HGST no clube disco 6TB, ainda tão exclusiva que ele só tem três membros.


A MG04, com capacidades de 2, 4, 5 e 6 TB, gira a 7200 rpm, tornando-se uma unidade de nearline. Toshiba afirma que é bom para 24/7 uso.







Tem SAS ou 6GBit / s SATA interfaces de 12Gbit / s e uma opção de apagar instantâneas seguras para evitar que dados criptografados caiam nas mãos erradas.


Esta é uma segunda geração MG04 dirigir em vigor. A uma prévia cobriu para fora em 5TB e utilizado SAS e SATA interfaces de 6Gbit / s.


Como seria de esperar o intervalo suporta tanto 4K tecnologias do setor formato avançado nativas e 512e padrão do setor. Tosh disse que o produto possui tecnologia de cache de gravação persistente, que protege contra a perda de dados quando o poder falhar de repente.


Em comparação com as unidades de geração de 4TB MG03 os trabalhos MG04 6TB uprated característica:



  • 12Gbit / s SAS e 6Gbit / s SATA interfaces em vez de 6Gbit / s SAS e SATA

  • Um aumento no max 30 por cento sustentada taxa de dados - 205 MiB / s em comparação com o modelo MG03 Series 4TB 157MiB / s

  • 50 por cento melhor eficiência de energia (watts por terabyte)


Toshiba_MG04

Unidade de disco Toshiba MG04



As unidades pesa 720gm em 2TB e 770gm em todas as outras capacidades. As dimensões são H: 26,1 milímetros, W: 101,6 milímetros (± 0,25 mm), L: 147 milímetros (max). A Toshiba não revelar o número de pratos ou a densidade de área desta segunda produto gen MG04.


Seagate tem uma unidade de 8TB e HGST vai até 10TB com a sua unidade Ultrastar cheio de hélio. Toshiba pode manter-se? Vamos mantê-lo informado com up-to-the minutos despachos do disco desenvolvimento densidade detalhes unidade Dramarama.


De Tosh 6TB MG04ACA SATA e modelos MG04SCA 12Gbit / s SAS começará a amostragem para clientes OEM em Q1 2015. ®



Crossbar diz que é 'um passo' de entregar RRAM milagre


Crossbar saltou um obstáculo que limita a capacidade de leitura, se a sua RAM resistiva não-volátil tecnologia de memória e diz comercialização está se aproximando.


Da Barra de Apoio RAM resistiva (RRAM) tecnologia é uma estrutura semi-condutores 3D prometendo densidades mais elevadas e um acesso mais rápido do que NAND; mais perto da memória uniforme fábula que é tão rápido quanto DRAM e como não-volátil como flash.







RAM resistiva s um de uma série de tecnologias, incluindo Phase-Change Memória e conceito Memristor da HP que estão se acotovelando para take-over de NAND - que está atingindo uma parede de escala impedindo-a de ficar mais denso ou mais rápido, diminuindo sua resistência e enfraquecer sua confiabilidade .


Esta tecnologia RRAM foi revelado quando Crossbar saiu de discrição em agosto do ano passado e teve um problema de leitura para lidar com; chamados correntes de caminho furtivos afectada a capacidade de leitura de dados a partir de células na estrutura RRAM.


Em uma apresentação técnica na recente Electron Devices Meeting Internacional IEEE (IEDM) em San Francisco, CA, a empresa revelou sua abordagem para suprimir o atual caminho de covarde, um dispositivo selector limiar superlinear assistida-campo.


Espreitadela conceito Path

Furtivo trave diagrama caminho



Objective Analysis 'Jim Handy participou da reunião e diz-nos:


"Em essência, a única coisa que limita a pequenez de um bit de memória para RRAM, MRAM, CBRAM, Memristors, etc, é o dispositivo de seleção. Um monte de papéis aqui giram em torno de diferentes abordagens para este problema. Infelizmente, os menores dispositivos selecione tendem a ser o pior comportados. Crossbar diz que a sua é melhor do que o resto, e do comunicado de imprensa e os slides certamente fazer nesse caso ".


Quando é que Handy RRAM think poderia aparecer em produtos?


"Eu falei com alguém que estava na sessão [a especialista em processos altamente respeitado], que elogiou os esforços promocionais da Crossbar, mas disse que a tecnologia ainda está muito longe de produção.


"Minha posição tem sido por muito tempo que eu vejo 2023 como o ano em que este, ou alguma tecnologia concorrente, irá deslocar flash ou DRAM. Tecnologias estabelecidas estará conosco por algum tempo. Até então, esta e todas as outras tecnologias competindo para substituir DRAM e flash será relegado a nichos. "



Conceito trave RRAM



Q e A


Pedimos Crossbar um conjunto de perguntas sobre sua tecnologia e é isso que Sylvain Dubois, seu vice-presidente de Marketing & Business Development, disse.


El Reg: Seu RRAM 3D pode ser escalado para um chip de 1 TB. Chips NAND atuais são 128Mbits e NAND 3D promete densidades ainda mais elevados. O chip de demonstração Crossbar é 4Mbits. O que você antecipar será o primeiro chip de capacidade comercial Crossbar RRAM? Se a tecnologia da Barra tem 16x a densidade da tecnologia NAND atual que estamos olhando 16 x 128Mbits = 2.048Mbits (2Gbits)?


Sylvain Dubois: Nossa primeira família produto autônomo chegará 1Tbit por morrer.


El Reg: RRAM endurance da Barra é 10x NAND atual. É que SLC, MLC NAND ou TLC, e qual é o valor NAND endurance atual que você tem em mente?


Sylvain Dubois; MLC NAND é de cerca de 10 mil ciclos de escrita, TLC NAND é de cerca de 1.000 ciclos de escrita. Crossbar RRAM está mirando 100.000 ciclos de escrita.


El Reg: É RRAM byte-endereçável ou da Barra ou é abordado em blocos como NAND?


Sylvain Dubois: É endereçável byte para o (NVM on-chip com núcleos de processamento na mesma pastilha de silício) mercado incorporado. Para a aplicação de armazenamento, os clientes preferem pequenas páginas, sobre páginas 1K bytes.


El Reg: Como a tecnologia RRAM da Barra comparar a NAND 3D?


Sylvain Dubois: [Nossa tecnologia tem] CMOS compatível tecnologia Back-End-de-linha, sem ferramentas de fabrico específicos ou caro, [e] baixo custo de fabricação. [É] escalável para pequenas geometrias enquanto limite flash NAND é em torno de 19 / 16nm.


[Temos a] capacidade de dobrar nos circuitos periféricos sob a matriz de memória ponto cruz [com] há necessidade de uma "memória fab" dedicado.


El Reg: Como a tecnologia RRAM da Barra comparar a mudança de fase de memória?


Sylvain Dubois


:



  • Mudança de fase requer calor para alterar a fase de poli amorfo e vice-versa. Como um resultado corrente elevada é necessária para gerar este calor. Crossbar RRAM é baseado em fenômenos que dependem do campo elétrico e não implica qualquer mudança de fase do material.

  • Devido ao calor não é PCM matriz escalável uma vez que haverá conversa cruzada entre as células. Devido ao campo-dependência, Barra RRAM não sofre de cross-talk e é altamente escalável matriz.

  • De mudança de fase está usando a arquitetura 1T1R. Com o recurso de seleção da Barra RRAM, permitimos que a arquitetura 1TnR * que nos dá as matrizes crosspoint de alta densidade.


El Reg: Como a tecnologia ReRAM da Barra comparar a tecnologia da HP Memristor?


Sylvain Dubois


:



  • HP memristor é baseada em um fenômeno de oxigênio-vacância e normalmente requer eletrodos nobres como o PT, que são difíceis de integrar na fab. As barras de tejadilho RRAM baseia-se em movimento de metal iónico e não necessita de eléctrodos nobres para ser utilizado. Íons metálicos são muito mais confiável do que controlado vacâncias de oxigênio.

  • Conforme relatado o sinal entre o ON e OFF o estado é baixa para HP memristor. Crossbar RRAM tem uma maior ON para OFF sinal e continua a aumentar à medida que as escalas de tecnologia para geometrias menores.

  • Tecnologia memristor normalmente exige um óxido não-estequiométrico complexo para comutação baseada em vacância de oxigênio e é difícil de replicar. As barras de tejadilho RRAM baseia-se na camada simples comutação de silício amorfo, não requerem um controlo apertado estequiométrica e é fácil de reproduzir.


El Reg: Você diz que está a um passo para a comercialização. Quantos passos existem?


Sylvain Dubois: Existem quatro passos para a comercialização. Eles são a compreensão física básica e caracterização de células, repetibilidade comprovada em pequenas arrays usando um protótipo, a transferência de fundição e, finalmente, a fabricação de volume. Nós somos um último passo.


El Reg: Barra tem lidado com o problema atual caminho furtivo que afeta a leitura dos dados. Existem problemas que afetam a escrita de dados?


Sylvain Dubois: O caminho furtivo impactos problema atual, tanto lê e escreve. O Barra está divulgando hoje resolve tanto lê e grava em matrizes crosspoint de alta densidade.


El Reg: Quais são a ler e escrever números de IOPS 4K para ReRAM da Barra?


Sylvain Dubois: Nós ainda não estão anunciando especificações do produto. Ao nível da tecnologia, nós demonstramos que temos muito baixa latência de leitura aleatória e página pequena granularidade. Estamos atualmente em discussão com os parceiros alfa para alavancar essas características superiores e performances ao nível do sistema.


El Reg: Quais são os números sequenciais de largura de banda antecipados para a Barra de Apoio RRAM SSD?


Sylvain Dubois: Não podemos divulgar nossas especificações do produto no momento.


El Reg: Como vai Crossbar RRAM ser implementado? Como um SSD? Um cartão ReRAM PCIe? Módulos de memória DIMM?


Sylvain Dubois: Vamos garantir que Crossbar RRAM performances superiores irá melhorar a experiência do usuário final, escolhendo a forma de fator de interface de barramento e sistema mais adequado. [A] últimas SSDs e módulos de memória DIMM parecem corresponder a esses critérios para a nossa primeira família de produtos stand-alone.


El Reg diz


Esta é uma tecnologia sério à procura de um parceiro de fundição semi-condutores a se comprometer com a fabricação. Se Handy está certo, então poderemos ver produto de nicho emergente nos próximos 18-24 meses. Ele vai ter que competir com Memristor da HP e PCM da Micron com HGST demos um conceito PCM placa PCIe o uso de chips Micron recentemente. ®


* Arquitetura 1T1R tem um Transistor gerir uma célula de memória resistiva. Crossbar diz que é 1TnR (1 Transistor condução n células de memória resistiva) seletividade torna possível para um único transistor de gerenciar um grande número de células de memória interligadas, que permite o armazenamento de estado sólido de alta capacidade.



Disk densidade de área: Não é uma constante, consistente platter


Comente densidade de área de um disco varia de acordo com onde você olha em uma bandeja. Este escritor tinha pensado que era constante atravessar um prato, mas, você não sabe que ela, não é.


A tecnologia de gravação de dados pode fornecer uma camada uniforme densa de potenciais pedaços por toda a superfície de um prato de disco, mas diferentes comprimentos de pista e raios, e cabeça: ângulos de pista, fazer a densidade efetiva de realização de um número variável.







Esta questão veio à tona quando se tenta entender o que eram o nível de densidade areal sobe de valores atuais necessários para alcançar uma 1.6Tbit / 2 em valor com a tecnologia TDMR, como Seagate disse que aconteceria , por ser 15 por cento mais do que a tecnologia atual poderia PMR fornecer.


Com discos PMR atuais estar no 550-750Gbit / 2 em área que eu não podia ver como assim iria funcionar. Thomas Coughlin de Coughlin Associates disse Seagate tinha um disco com 826Gbit / in 2 densidade de área.


Eu perguntei Seagate sobre este assunto, que forneceu detalhes sobre sua tecnologia de acionamento Capacidade 5TB NAS e da Empresa:. "Ambas as unidades usam unidade 'Makara' para as capacidades que você se referir ao 6TB Makara é de 1 TB por prato, seis configuração platter A. 5TB de cerca de março em diante serão todos os seis configurações platter também (o 5TB / 5 prato a ser eliminada / EOL até por volta de março) ... A densidade de área para a 6 TB e 5TB motiva é 633 (GB / in2 avg). "


Note-se que "avg". Por que é que há?


Old_disk_tech_with_head_crash

Os bons velhos tempos: disco removível de idade (à esquerda) e acidente de cabeça pós-efeito (à direita)



Coughlin disse: "Este é AD média, que pode variar de acordo com zona Geralmente o que posso controlar é a AD máximo, que é o que está a ser conseguido na unidade ou o máximo que a tecnologia atual torna possível..


"Por causa de [o] velocidade constante da unidade e as diferenças de comprimento da pista na diversos raios de gravação, bem como complicações da cabeça inclinar ângulos, a AD em várias partes do carro pode (e vai) ser diferente."


"Então, [o] máxima AD é 826 Gbit / 2 e em média é de 633 Gbit / in 2. Isso também significa que você tem que perguntar o que AD é, eo que estamos falando quando discutimos as tendências do setor."


O lado contador para isso é que quando Seagate disse que sua tecnologia TDMR pode chegar 1.6Tbit / in 2 ele vai estar falando densidade máxima areal e não a média.


Não podemos simplesmente extrapolar a capacidade do disco em (média) AD de hoje para amanhã pela aplicação de um factor de multiplicação simples para a densidade de área previsão máxima. ®



Tegile shove flash em DIMMs, afigura-se


Comercialização veep de Tegile figuras que "Flash PCIe e NVDIMMs vai fazer o seu caminho para dispositivos de armazenamento compartilhado, a condução ainda mais latências para baixo." Cue Tegile apoio DIMMs de flash em 2015, então.


(DIMMs ou flash) NVDIMMs são soquetes de memória DIMM cheios de NAND morre para que o flash é uma extensão de leitura do espaço de endereços da memória com menor latência acessos do que o Flash PCIe. A tecnologia usa Diablo Technologies Canal de Memória de armazenamento (MCS), que é OEM'd por unidade SMART Technologies da SanDisk em forma ULLtraDIMM, e fornecido à Lenovo, Supermicro e Huawei para uso em servidores.







Diablo falou sobre a possibilidade de seu uso pelos controladores de matriz de armazenamento no passado - e agora, aqui está startup matriz híbrida Tegile falando sobre a sua aparição em arrays de armazenamento.


ULLtraDIMMs

ULLtraDIMMs implantado em um táxi servidor.



O efeito líquido será o de aumentar o número de solicitações de leitura que uma matriz Tegile pode manipular. Se Tegile leva tecnologia nanocommit de Diablo a bordo, assim, ele pode acelerar write-request manipulação com os DIMMs de flash e estrangular-se que o lado da IO também. Isso deve dar-lhe uma vantagem de desempenho em relação a outros fornecedores de matriz híbridos, como Nimble e Tintri.


Feliz ano novo, pessoal híbridos. ®



terça-feira, 16 de dezembro de 2014

SANs Servidor: Não jogue fora o bebé com a água do banho


Livrar-se de complexidade e custo SAN é uma ideia que agrada a muitos CIOs doentes de componentes de rede de área de armazenamento de malabarismo e custos da matriz.


Deixe servidores de aplicação virtualizar uma SAN a existir através da partilha de seu próprio armazenamento de conexão direta e apenas comprar servidores com servidor de software SAN, como StoreVirtual da HP, da DataCore SAN Symphony ou VSAN da VMware e seu EVO: RAIL convergiram servidor / storage arquitetura oferta,







EVO: arquitetura RAIL está sendo usado por um número se fornecedores, incluindo EMC e HP, para oferecer chamadas ofertas hyperconverged que podem ser replicadas simplesmente em um cenário de scale-out.


A consultoria Wikibon avalia : "[Com SANs servidor] piscinas DAS vai começar a replicar SAN e NAS funcionalidade a um custo muito menor e oferecer vantagens econômicas convincentes para os clientes corporativos Em muitos segmentos de aplicação importantes (por exemplo bancos de dados de alto desempenho), SAN do servidor. vai oferecer um desempenho superior, funcionalidade e disponibilidade sobre SAN e NAS tradicional. "


SANs servidor também fazem parte do hyperconverged (servidor além de armazenamento além de networking) aparelhos de uma série de fornecedores. Eles incluem HP com seus ConvergedSystem 200-HC StoreVirtual aparelhos, e startups como Nutanix, Maxta e outros.


Não pode ser de até 32 x 200-Cs em um cluster com um total teórico de 6.14PB da capacidade do disco cru e de 1 PB de capacidade de flash cru. Isso é mais do que a capacidade máxima de 3.2PB StoreServ 10800 matriz da HP.


Mas pode haver um risco de deitar fora o bebé com a água do banho, se você substituir SANs físicos com os virtuais. As áreas de problema incluem localidade de dados, proteção e alimentação de um servidor SAN com dados.


Onde estão os dados?


A SAN é uma matriz de disco com várias prateleiras de mídia de armazenamento conectados a um ou dois controladores. Um servidor SAN é uma matriz de disco com várias prateleiras de mídia de armazenamento cada conectados a um controlador de servidor em execução app conectado aos outros por um link de rede, como 10GbitE.


A consequência é que os dados app acessa pode ser mais rápido (local para o servidor em questão) ou mais lento - envolvendo um salto de rede para um servidor separado. Indiscutivelmente esse acesso é equivalente a um acesso SAN física.


Com efeito um servidor SAN exposições NUSA (cf NUMA para acesso à memória não uniforme) - acesso de armazenamento não-uniforme, com off-node acessos demorando mais do que no nó acessos.


Não será este o acesso aos dados de atraso, adicionando a latência da rede? Sim ele vai, e, como sempre, o cache pode ajudar a mitigar os efeitos.


Algumas pessoas pensam que os algoritmos de localidade de dados irá inteligentemente migrar dados para o nó app acessar os dados. Eles apontam que SANs físicas não pode fazer isso e você sempre sofrem de latência da rede, mesmo que o SAN física é um dispositivo compatível com flash ou all-flash.


Onde nós SAN do servidor são todos-flash então sua capacidade é limitada, devido aos custos de flash-primas, a menos que eles deduplicar dados. Esta é uma atividade intensiva de CPU e pode impedir que o servidor recursos completos de CPU SAN sendo usado em aplicações de negócios.


Elementos em falta


SANs de servidor, especialmente VSANs da VMware, são frequentemente vistos como não é realmente de classe empresarial e imaturo. Fornecedores de SAN físicas verá claramente desvantagens VSAN na área de proteção de dados. Por exemplo, eles podem dizer VSAN e EVO: RAIL trancá-lo para a VMware, e eles não têm:



  • Proteção contra gravação perdida

  • Controle de firmware da unidade

  • A desduplicação

  • Uma alternativa ao desperdício espelhamento 3-node

  • Uma resposta para a questão da perda de um grupo de disco VSAN de um SSD com falha


Além disso, backup da máquina virtual é lento quando todas as leituras vêm de apenas uma ou duas unidades. A matriz compartilhada pode ter lê a partir de várias unidades de uma só vez e uma melhor proteção contra falha da unidade.


O pensamento aqui é que VSAN é fino e elegante, mas os aplicativos de linha de negócios precisa ler e escrever dados rápida e em um ambiente simples; quando você quer este um VSAN pode parecer um produto SAN-lite. Faz sentido, em seguida, para complementá-lo com um SAN física.


NetApp anunciou a sua Integrated EVO: Solução RAIL, que integra as suas matrizes FAS com EVO: nós do servidor RAIL para resolver este conjunto de problemas. Outros fornecedores de matriz são obrigados a oferecer a mesma funcionalidade.


Alimente os SANs


Um ponto de vista é que SANs servidor vai matar SANs físicas. Um uma oposição é que eles são apenas a mais recente iteração da tendência para mover dados para as lojas mais rápidos mais perto de servidores para que continue a ser necessária, uma instalação de armazenagem de granéis separado fisicamente compartilhada.


Já os dados do conjunto de trabalho primárias do servidor SAN, mas tê-lo alimentado para os nós do servidor de uma loja de disco capacidade volume compartilhado.


Por exemplo, app contábil trimestral corre utilização de dados que não é necessário tão intensamente em outros momentos. Pode ser mantida num local - uma matriz de unidade partilhada - e, em seguida, alimentada a um servidor SAN quando necessário. Uma vez que o prazo termina trimestralmente os dados podem ser gravados de volta para o SAN físico eo servidor espaço SAN pode ser recuperada por outros dados.


Escalonamento de software pode ser utilizado para mover os dados automaticamente a partir de uma SAN físico para um servidor SAN. Ele já pode mover dados de uma SAN de caches de flash dos servidores individuais.


Da HP software Adaptive Optimization é uma dessas tecnologias que poderiam ser desenvolvidos para fornecer essa funcionalidade. RÁPIDO (software hierarquização totalmente automatizado) da EMC é outra.


A recuperação de desastres


A matriz compartilhada poderia fornecer instalações de recuperação de desastres locais para o servidor SAN, bem como dados replicados fora do local, talvez para a nuvem pública, para a recuperação de falhas remota.


Pode bombear dados mais antigos para arquivar lojas e, assim, manter o servidor nós SAN focado nas necessidades das aplicações de negócios imediatos, enquanto o maduro SAN física cuida de mais tarefas em segundo plano com foco em infra-estruturas que, de outra forma demorar até SAN do servidor ciclos de CPU.


Parece claro que simplesmente jogar fora matrizes de armazenamento e substituí-los à toa com SANs servidor pode não ser a melhor maneira de mover sua infraestrutura de TI para a frente quando você tem exigências que são melhor atendidas por SANs físicas.


Isso é mais provável que seja o caso, se você está considerando as necessidades de armazenamento em um centro de dados da empresa, em vez de escritórios pequenos ou remotos ou pequenas empresas. Se você pode ter todas as suas necessidades atendidas por um servidor SAN, então ótimo. Você vai evitar uma quantidade de complexidade e os custos.


Se você não pode, então não jogue o bebê SAN fora com a água do banho quando você copia-e-substituir sua SAN físico com um servidor SAN. Dessa forma, encontra-se de dor e tristeza. ®



segunda-feira, 15 de dezembro de 2014

Baixos de private equity WAN Riverbed furtler em $ 3,6 bilhões gole


+ Recado WAN optimiser e app speeder Riverbed está sendo comprado pela casa de private equity Thoma Bravo por US $ 3,6 bilhões.


Riverbed não conseguiu crescer o suficiente e seu negócio naufragou um pouco, abrindo-o para as atenções do investidor ativista Elliott Management.







Esse é o mesmo investidor que está empurrando EMC para a VMware sell-off.


Em outubro , a Riverbed concordou em correr uma revisão estratégica de suas opções. NetApp comprou sua SteelStore gateway de armazenamento em nuvem por US $ 80 milhões em outubro.


Thoma Bravo está pagando US $ 21 / ação em dinheiro, o que é cerca de 12 por cento acima do fechamento de sexta-feira e em linha com o preço proposto por ativistas Elliot Administração, de acordo com o analista William Blair Jason Ader. TB já está comprando casa software Compuware por US $ 2,5 bilhões, um outro negócio que dá Gestão Elliott um pagamento.


Em dezembro de 2011, Thoma Bravo compra da Blue Coat Systems por US $ 1.3nn, e essa empresa tem a otimização de WAN e ativos de segurança web.


A casa de private equity também possui LANdesk . Ele tinha possuído SonicWall, que Dell comprado por uma quantia não revelada.


Jerry Kennelly continua como CEO ea aquisição deve fechar antes do ponto médio de 2015.


+ Comment


O futuro provável para a Riverbed é uma intensa sessão de cirurgia corporativa e de produto, com Riverbed talvez vestindo um casaco azul WAN-optimsing, seguido de uma aquisição.


E Gestão Elliott?



  • Compuware? - Carrapato,

  • Riverbed? - Carrapato,

  • EMC e VMware?


Dois em cada três parece ser bom. Será EMC fazer três pagamentos em uma fila? Pode Joe Tucci fazer Paul Singer fazer uma caminhada? Sintonize para o episódio emocionante do próximo mês de Jogo Armazenamento of Thrones e descubra. ®



Imation lança o Barrall


Imation recrutou BlueArc e Drobo fundador Dr. Geoff Barrall para seu conselho.


Barrall tem um armazenamento impressionante, tendo fundado BlueArc, uma startup arquivador acelerado por hardware, que foi comprada pela HDS. Posteriormente, ele foi o fundador e CEO da Data Robotics, a startup que produziu o Drobo (Robot de Armazenamento de Dados), a CTO e VP de engenharia da Overland Storage, e membro do conselho da Nexsan até que a empresa e seus negócios SAN foi comprado por Imation em janeiro do ano passado por US $ 120 milhões.







Ele, então, começou a subir de dados conectada que torna o peer-to-peer Transporter, dispositivo de compartilhamento de arquivos em nuvem privada. Dados Conectado adquirido Drobo maio de 2013. Além disso, Barrall é presidente do Gridstore , uma startup de armazenamento de scale-out.


Uma citação estanhado do grandiosamente-nomeado L Branco Matthews III, com prazer recebê-Barrall a bordo, é um clássico do gênero. Treasure esta: "Com mais de 20 anos de experiência relevante trabalhar com empresas de tecnologia de alto crescimento, Geoff irá desempenhar um papel fundamental para ajudar a supervisionar a evolução contínua da Imation em um líder mundial em armazenamento de dados de alta segurança e soluções Sua compreensão da paisagem de armazenamento. , experiência operacional profunda e sucesso anterior com resultados concretos empresas irá provar inestimável para a empresa para a frente em movimento. "


Nós particularmente como esta frase: "O sucesso anterior com resultados concretos empresas", tentando, sem conseguir entender o que o sucesso com um não-resultados impulsionados negócio significaria; falência talvez.


O problema que vemos com Imation e sua subsidiária Nexsan é que as receitas Nexsan não está crescendo rápido o suficiente para puxar Imation fora do buraco negro a sua anterior excesso de confiança em fita magnética e mídia de disco óptico tinha escavado.


Imation_Q3fy2014

Imation receitas trimestrais e tendência lucro líquido



Nexsan é praticamente um fornecedor tradicional SAN e que o negócio está enfrentando vários desafios de SANs do lado do servidor, matrizes all-flash, eficientes startups híbridos matriz como Nimble Storage armazenamento scale-out como Gridstore e Exablox, e, claro, o público nuvem. Nexsan tem seu próprio flash híbrido / disk matriz tecnologia, mas que ainda não definiu o mundo em chamas ainda.


A terceira citação L Branco Matthews acima fala de "armazenamento de dados de alta segurança e soluções"; dois grandes fornecedores, EMC e Symantec, não conseguiram encontrar sinergias significativas por pentear armazenamento e segurança para empresas e parece duvidoso que Imation pode fazer seu trabalho por lá quando os dois falharam.


Empresas de armazenamento da Imation pode fazer com o que está sendo mexido, re-jigged, re-energizado de alguma forma e Geoff Barrall pode ajudar a conduzir isso. Talvez a empresa precisa para entrar em dados conectada? ®



Samsung traz nova-viveram mais podule 1TB Flash para PCs, notebooks


Apenas a tempo para o Natal, a Samsung tomou seu SSD empresa 3D, acrescentou um bit por célula, e sair com um SSD de 1 TB-viveram mais tempo para PCs e notebooks.


A célula tripla camada (TLC), 3D V-NAND, SSD 850 EVO vem no seguimento do plano (2D) TLC 840 EVO , que também cobriu para fora em 1TB. Esta unidade utilizada 19nm NAND enquanto que o 850 EVO é entendido como usar classe 40nm NAND, o que significa geometria da célula entre 49nm e 40 nm de tamanho, muito maior.







Outras coisas que são iguais, quanto maior a geometria da célula a longo viveu a unidade em termos de ciclos de escrita, e mudando de 19nm para 40nm NAND é um grande tamanho da célula de salto. Empilhando camadas de células de flash em um único chip aumenta a capacidade sem aumentar a pegada do chip.


A nova unidade tem o desempenho de gravação melhor aleatória em 120 e 250GB capacidades (88.000) do que o 840 EVO - 35.000 (120GB), 66.000 (250GB) - e sua resistência é muito melhor:



  • 75TB escrito para 128GB / 250GB em comparação com 840 de 40 TB de EVO escrito

  • 150TB escrito para 500GB e 1TB produto em comparação com 80TB escrito para 840 EVO a essas capacidades


Samsung_850_EVO

Samsung 850 EVO



Samsung tem dado a 850 EVO uma garantia de 5 anos, como resultado; a 840 EVO ter um de 3 anos um.


Desempenho sequencial é o mesmo que o 840 EVO, até 540 MB / s na leitura e 520 MB / s quando se escreve.


A variante de 750GB foi descartada. O 840 MEX controlador do EVO foi atualizado para uma versão MGX e a unidade é auto-encriptação (AES 256-bit).


De acordo com a Anandtech , a tecnologia da Samsung permitiria uma unidade de 2TB se às pessoas que comercializam viu demanda suficiente para um. Samsung diz que vai trazer um prolongado line-up do 850 EVO em mSATA e M2 fatores de forma no próximo ano.


Você pode obter uma folha de dados (pdf) aqui . O 850 EVO estarão disponíveis este mês e é de US $ 99 para 120GB com preço-lista, 149,99 dólares para 250GB, $ 269,99 para 500GB e $ 499,99 para o modelo de 1 TB. ®



quinta-feira, 11 de dezembro de 2014

Dedupe, dedupe ... dedupe, dedupe, dedupe: A Oracle lustra ZFS diamante


Controle remoto para desktops virtualizados


ZFS da Oracle é amplamente aclamado como um grande sistema de arquivos mesmo que vários fornecedores que o utilizam para seus próprios produtos têm substituído o seu código de desduplicação com o seu próprio.


Um desses foi GreenBytes, uma startup que desenvolveu uma série all-flash para servidores virtualizados e focado em VDI. Ele mudou para um só modelo software após seu CEO tornou-se convencido de hardware estava se tornando uma commodity.







Outros usuários do ZFS incluem Delphix, Joyent, Nexenta e SpectraLogic.


GreenBytes estava orgulhoso de sua tecnologia de deduplicação , dizendo que tinha latência próxima a zero e, possivelmente, oferecido desduplicação em linha mais rápido do mundo.


Sun processou GreenBytes volta em 2009 por infringir suas patentes de desduplicação, mas o caso foi resolvido. Oracle comprou a Sun em torno desse tempo.


A Oracle comprou GreenBytes em maio deste ano, não revelar quanto pagou. Não muito, ao que parece, como EVP da Oracle para sistemas, John Fowler, disse em uma coletiva de imprensa que teve GreenBytes "tecnologia interessante que o produto não foi tão bem sucedido." Ele estava se referindo a ambos desduplicação e replicação.


John_Fowler

A Oracle EVP de Sistemas John Fowler



No entanto, a tecnologia era interessante o suficiente para Oracle para comprá-lo. Agora, Fowler disse que a intenção estratégica da aquisição foi de melhorar o aparelho ZFS, e Solaris - que inclui ZFS. Poderíamos, El Reg pensa, ver o resultado em uma atualização ZFS no primeiro semestre de 2015.


Isso deve agradar a outros usuários do ZFS, a menos parte de sua mensagem que o produto foca quanto melhor as suas instalações Dedupe e replicação são comparados com os nativos do ZFS. Essa vantagem pode simplesmente desaparecer quando a Oracle lança versão do ZFS dos GreenBytes.


Fowler também disse que a Oracle estava trabalhando duro para sustentar VVOLs da VMware, acrescentando às suas APIs Site Recovery Manager e vStorage para iniciativas Matriz de Integração. ®



Esfomeado, CPUs famintos: Fornecedores de armazenamento apressar para chegar mais perto do flash para computar


Arrays de armazenamento Flash Inteligente


Multi-socket, CPUs multi-core são entidades exigentes: eles têm um apetite gigantesco para dados que eles sugam através de um canal de memória da CPU-DRAM, a memória do servidor.


Este acesso acontece em nanossegundos, bilionésimos de segundo. Obtendo dados de lugares além de memória, tais como cartões de memória flash do servidor PCIe, SSDs conectados diretamente ao servidor ou equipados para matrizes em rede, ou unidades de disco, leva muito mais tempo e o núcleo de computação tem que sentar lá, em marcha lenta, esperando que os dados de que necessita .







Em uma fábrica moderna, décadas de produção em massa, entrega just-in-time e build-to-order experiência significa que qualquer processo de montagem da fábrica foi projetada para que todos os componentes necessários estão disponíveis, na mão apenas quando necessário. O ponto inteiro de processos de fábrica é que uma linha de montagem não parar, que várias linhas podem operar de uma vez, e que os processos de logística de componentes estão em equilíbrio e entregar componentes nas quantidades certas e na velocidade certa para os pontos de montagem em um processo de produção.


Um servidor é uma fábrica de dados e tem, em seu ápice, um simples - em linhas gerais - processo que envolve trazendo dados para calcular. Há uma seqüência de estágios recebendo esses dados para calcular, por exemplo, a partir de disco ou um sensor para a memória do servidor e, em seguida, para os núcleos de CPU. Caches rápidos são utilizados para tamponar fontes de entrega de dados lentos a jusante da memória.


Mas a eficiência computacional servidor tem melhorado aos trancos e barrancos, novas gerações de processadores, virtualização de servidores e de contenção de corrente estão permitindo que os servidores executar mais aplicativos, ou seja, os núcleos querem mais e mais dados - mais imediatamente - com todos os ciclos de computação.


A two-socket servidor de oito núcleos muitas vezes podem ter uma necessidade maior de dados do que a sua memória e infra-estrutura de armazenamento downstream pode entregar a qualquer momento.


A memória flash melhora de dados IO velocidade na fase que é usado neste infra-estrutura a jusante e, muitas vezes este bastante - colocar SSDs na matriz em rede para substituir discos. Coloque caches de flash no controlador de matriz. Coloque SSDs no próprio armazenamento diretamente inscritos de um servidor (DAS) slots. Coloque armazenamento flash em cartões de memória flash PCIe que têm acesso a dados mais rápido que SATA ou SAS SSDs conectados em infra-estrutura DAS do servidor.


CPU_PCIe_Flash

Esquema Server com DRAM e flash PCIe.



No entanto, mesmo isso pode não ser rápido o suficiente como há uma conversão de protocolo de dados entre a placa PCIe e o barramento de memória, a caminho de DRAM. E se pudéssemos colocar Flash embora diretamente para o barramento de memória, no mesmo era como chips DRAM são acessados ​​através de DIMMs, duplas módulos de memória em linha.



  • Latência de acesso à memória - nanossegundos - bilionésimos de um segundo

  • Latência de acesso ao disco - milissegundos - milésimos de segundo

  • PCIe flash de latência de acesso - microssegundos - milionésimos de segundo

  • Acesso DIMM Flash latência - alegou ter 80 por cento menor latência do que o Flash PCIe


Diablo Technologies do Canadá permitiu que esta com o seu Canal de Memória de armazenamento (MCS) e parceiros com um chip flash e fornecedor SSD, SanDisk, que vende os resultantes ULLtraDIMM produtos de tecnologia para OEMs, tais como Huawei, Lenovo e Supermicro.


CPU_DIMM_Flash

Flash com acesso ao barramento de memória DIMM



O canal de memória utiliza o acesso paralelo para aumentar a velocidade de acesso a dados.


Testes de Diablo com um 15 por cento ler rácio / gravação viu Flash PCIe ter um microssegundo 105 significa latência de gravação enquanto seu flash MCS tinha uma 29 microssegundos significa latência de gravação - 3,6X melhor.


No esquema MCS os DIMMs de flash existir no mesmo espaço de memória global como DRAM. Produtos atualmente MCS-baed usar uma interface DDR3, DDR em pé por duas vezes tipo de taxa de dados de 3 ou terceira geração. Ele transfere dados com o dobro da velocidade de uma especificação DDR2 anterior.


MCS_in_memory_map

Imagem Diablo Technologies.



DDR4, o padrão DDR quarta geração, tem uma taxa de dados mais elevada de novo e têm os seus módulos de duas vezes a densidade de módulos DDR3 e que tem uma exigência de tensão mais baixa do que DDR3. O aumento da velocidade potencial - a tecnologia está em desenvolvimento - é cerca do dobro de memória DDR3.


Diablo sugere que a tecnologia MCS é bom para San (workloads VSANM virtuais como ele pode:



  • Eliminar a necessidade de matrizes de armazenamento externos

  • Fornecer extremamente rápido comprometer-se a nós de cluster para alta disponibilidade

  • Tem IOPS previsíveis e latência para cargas de trabalho pesadas


Há outras vantagens para trazer flash, um armazenamento persistente, mais perto de calcular, como menos movimentação de dados em um sistema que conduz a reduzir os custos de energia, mas nós estamos concentrando-se nas vantagens de desempenho aqui.


Por que é que vale a pena ter tais flashDIMMs como vamos chamá-los? Por que não colocar tudo em DRAM? É porque DRAM é mais caro do que o flash e também porque flash, com a sua tecnologia NAND, não é volátil e, ao contrário de DRAM, não perde o seu conteúdo, se o poder deixa de fluir. Memristor tecnologia é semelhante não-volátil.


Note que este não é intrinsecamente uma idéia só-flash, este estreitamento entre a armazenamento e computação não-volátil. Qualquer memória não-volátil poderia, em teoria, ser interligado a DIMMs em forma assim, supondo que o caso de negócio era forte o suficiente. Desenvolvimento da HP memristor tecnologia poderia, no futuro, ser dada uma interface de barramento de memória baseados em DIMM.


Memristors são, junto com ReRAM (Resistência RAM) e Phase-Change Memória (PCM) tecnologias candidatas para a era pós-NAND vinda. Está previsto que as células NAND não é possível reduzir muito mais depois de atingir 15-12nm ou menos em tamanho. A tecnologia de follow-on que serão necessários para entregar a maior capacidade e velocidades de acesso mais rápidos que vamos precisar, porque os recursos da CPU vai continuar a melhorar - mais núcleos por exemplo - e a eficiência do servidor também irá melhorar com contentorização de apps.


HP Nanostore

Idéia HP Nanostore



A tendência para trazer mais perto de flash para calcular é a mais recente iteração de uma tendência de longo prazo, que é trazer armazenamento geralmente mais perto de computar. HP falou sobre um conceito Nanostore há dois anos, em que flash NAND foi integrada no mesmo chip como um processador.


Confira um papel IEEE do HP Labs sobre o conceito aqui (pdf) .


O ponto sobre como melhorar os recursos da CPU feitas anteriormente é amplificado neste trabalho. Ele afirma: "Historicamente, o primeiro computador para alcançar a computação terascale (1012, ou um trilhão de operações por segundo) foi demonstrada no final de 1990. Na década de 2000, o primeiro computador petascale foi demonstrado com o desempenho de um milhar de vezes melhor. Extrapolando essas tendências, podemos esperar que o primeiro computador exascale (com um milhão de trilhões de operações por segundo) a aparecer por volta do final deste próxima década. "


Armazenamento enfrenta uma crescente demanda continuamente para fornecer mais dados, mais rápido, para computar. Há necessidades acessórias, tais como menor poder empates e reduzindo a movimentação de dados através de um sistema de TI, mas o desempenho é a necessidade principal. A maneira de fazer isso é trazer mais perto de armazenamento, espacialmente e em termos de performance, de núcleos de processador do computador e reduzir o tempo de espera IO, que o problema clássico que está sempre sendo resolvido e, em seguida, re-ocorrer novamente. Nanostores e Memristors só será uma das últimas tentativas de resolver o problema de longa data. ®



IDC Tracker em armazenamento Hitachi Data Systems número fumble


Top 5 razões para implantar VMware com Tegile


Mais recente de armazenamento Tracker da IDC usou os números e erradas HDS mis-representado o progresso da empresa.


Nós, do grande El Reg escreveu sobre o rastreador do terceiro trimestre aqui e informou que a Hitachi receitas de armazenamento externo caiu 9,4 por cento no trimestre, em comparação com um ano atrás.







No entanto, agora aprender com IDC que:


No rastreador IDC Q3CY2014 Disk Storage Systems lançado em 5 de dezembro de 2014, havia grandes discrepâncias sobre HDS midrange e números totais de receita. Isso ocorreu devido à ... certas receitas de produtos midrange HDS [sendo] injustamente excluídos no relatório.

Como resultado, o relatório não refletem o crescimento real e saudável das HDS midrange e receitas totais de armazenamento em disco em Q3CY2014. IDC vai fazer revisões para refletir números correctos HDS Q3CY2014 no próximo relatório.



Isto sugere que o progresso da HDS no trimestre foi, na realidade, mais forte do que IDC sugeriu.


Estamos trabalhando para obter os números reais em breve e não em três meses. ®



Arregace, arregaçar para Oracle banco de dados de flash tune-up - Violin


Arrays de armazenamento Flash Inteligente


Comente Violin Memory desenvolveu um software para lhe dizer como sintonizar bancos de dados Oracle para correr mais rápido em suas matrizes, e está tornando-o disponível através de um exercício de geração de oportunidades onde você (praticamente) qualificar-se.


Sua Oracle Performance Analysis Service (O-PAS) é livre para revendedores e usuários finais e gera relatórios que identificam "gargalos de desempenho em ambientes Oracle dos usuários finais, e determina a adequação de armazenamento baseado em flash ... para ... aumento IOPS, reduzir a latência, e menores custos globais ".







Tópicos do relatório incluem:



  • "CPU vs. I tempo / O de espera: se o tempo de espera em I / O é maior do que o tempo de trabalho na CPU, o banco de dados pode ser afetado pelo desempenho do sistema de armazenamento, levando a CPUs subutilizados e custos de CPU excessivos ".

  • "I / O panorama de espera: uma indicação geral de saber se o armazenamento existente está impactando o desempenho do banco de dados e, potencialmente, causando má experiência do usuário final."

  • Tempo perdido à espera de I / O: uma indicação de quanto tempo é desperdiçado à espera de I / O chamadas para completar durante períodos de maior movimento ".


Para se apossar de uma cópia preencher um formulário on-line , gerar os relatórios em formato de texto, conforme solicitado, utilizando Oracle Database 'Workload Repository Automatic' (AWR), e, em seguida, "criar um único arquivo zip contendo todos os relatórios e fazer o upload" para Violino usando no botão Enviar no formulário.


OPAS

O formulário on-line-PAS



As pessoas com habilidades oráculo de Violin analisar os seus relatórios e "determinar a adequação de um sistema de armazenamento baseado em memória", que significa caixas de violino.


Se é promissor, você com certeza irá ser contactado por um canal de pessoa Violin feliz em lhe dar a boa notícia. Esperto, inteligente Violin.®



quarta-feira, 10 de dezembro de 2014

Quem ganhou com tudo em flash vendas faixa, sugou todo o dinheiro? - IDC relatório


Internet Security Threat Report 2014


Um trecho distribuído-EMC de um All-flash embarques de matriz e receitas relatório IDC Hopkinton no topo do ranking de vendas, com a NetApp no ​​número quatro e IBM no topo da parada enviado capacidade.


O relatório é uma IDC especial um, intitulado Matriz Worldwide All-Flash e híbrido do Flash Matriz 2014-2018 Forecast e 1S14 Ações de fornecedor .







O armazenamento de dados, virtualização, analytics e cloud computing outfit EMC lidera os rankings de receitas para todos os flash-matrizes enviados no primeiro semestre deste ano, com US $ 112.3m.


Califórnia-baseado empresa de armazenamento da empresa Pure é o segundo, com US $ 90.9m, e IBM terceiro em US $ 82.9m.


NetApp, SolidFire e Nimbus são um pouco atrás, com violino incluídos na categoria Outros.


IDC_AFA_dollars

NetApp está olhando para baixo em lixeiras com SolidFire e Nimbus.



No entanto, a IBM lidera a capacidade rankings enviado por um país, com EMC segundo, e um pouco atrás.


IDC_AFA_raw_TB_shipped

Por favor, note, não há número NetApp



Curiosamente estes números capacidade da matriz tudo-flash embarcados têm nenhuma entrada para NetApp, apesar de listar NetApp como o quarto no ranking de receita matriz all-de flash. Outra surpresa é que o violino tem uma série de flash 5.59PB enviado enquanto Dados Nimbus tem 7.5PB, o mesmo que SolidFire e pouco menos de 7.6PB de Pure. Estamos em El Reg encontrar este quarteto de números concretos para descriptografar - entramos em contato com o analista para mais informações.