terça-feira, 30 de setembro de 2014

A Oracle trava festa toda-flash: Eis que nossos arranjos FS1 híbrido


Guia do Iniciante para certificados SSL


Bem-vindo de volta à terra de matriz SAN, Oracle. A empresa de Larry Ellison reinventou sua Pillar Axiom 600 SAN matriz como uma matriz de flash / disco híbrido, o FS1-2, com auto-hierarquização e vizinhos barulhentos classificados.


É uma matriz híbrida de uso geral, mas atento para o software Oracle. Chamando sua caixa de armazenamento novo sistema de armazenamento flash (FS1), o Big O tem aperfeiçoar em EM é tudo-flash XtremIO como foco competitivo, mesmo que esse sistema não tem armazenamento em disco. O FS1-2 deveria mais propriamente ser comparado com matrizes híbridas de classe empresarial de todos os fornecedores de armazenamento EMC VMAX mainstream - / VNX, NetApp FAS, HP 3PAR, etc -, bem como matrizes híbridas de Nimble Storage Tegile e Tintri.


Hardware


Tem controladores duplos ativo / ativo, ventiladores, poder e cache espelhado não volátil. Uma FS1-2 controlador pode suportar até 30 2U gabinetes de unidade e permite o processamento de armazenamento de energia de escala, sem necessidade de comprar um outro sistema. Os controladores de suportar múltiplas portas I / O - 16 Gbit / s Fibre Channel, 10 Gbit / s iSCSI e 10 Gbit / s Ethernet.


Ele pode fornecer até dois milhões de leitura aleatória / escrever IOPS em uma mistura de 50:50, e até 80GB / s de taxa de transferência.







Existe um controlador de base e controlador de execução, cada um com 4 x Intel E5-2620 CPUs (24 núcleos, 2.0 GHz). O controlador de base tem cache de 64 GB RAM / 16GB NV-DIMM enquanto o controlador tem mais desempenho, cache de 384GB RAM / 32GB NV-DIMM.


Dois nós pode ser configurado para fornecer um par de alta disponibilidade.


A matriz FS1-2 escalas de 912TB de flash, e até 2.9PB de flash combinado e capacidade de disco. Existem quatro níveis de armazenamento SAS-2-conectados; Flash otimizado capacidade flash e 400GB 1.6TB desempenho otimizado para uso misto leitura intensiva e I / O, além de unidades de disco de 300GB e 900GB 10K de 2,5 polegadas de desempenho, e as unidades de disco de capacidade de 3,5 polegadas 4TB 7.200 rpm.


O hardware não tem nenhum ponto único de falha, e dispõe de:



  • Um segundo recurso de controlador de failover

  • A tecnologia de aquecimento de início para upgrades e contenção de erro

  • Cópia preventiva de dados longe da mídia potencialmente falência

  • Monitoramento de padrões de uso de SSD e usar níveis

  • T10 Proteção de Informações (T10-PI) para aplicação-para-armazenamento de verificação de integridade de dados

  • Serviços de cópia completa

  • Telemetria de diagnóstico remoto em tempo real


A Oracle FS1

A Oracle FS1



Escala de saída é aumentada por serem capazes de aglomerar 8 pares FS1-2 alta disponibilidade juntos.


A Oracle alega os usuários serão capazes de escalar o rendimento, tipos de mídia e capacidade de forma independente (o chamado escalonamento multi-dimensional). A matriz tem uma abordagem modular com controladores de sistema separado, controladores de armazenamento e gabinetes de armazenamento otimizado de flash.


Software


Domínios de armazenamento na FS1-2 são matrizes virtuais - recipientes de dados que isolam os seus dados de outros domínios de armazenamento, que são bons para ambientes multi-tenancy que configurarem (QoS) configurações específicas do recipiente serviço de qualidade de serviço. Isso deve significar que o desempenho do armazenamento por domínio pode ser invocado uma vez definido.


O FS1-2 vem com perfis de aprovisionamento de armazenamento ligado para Oracle Database, aplicações Oracle (Oracle E-Business Suite, PeopleSoft, JD Edwards EnterpriseOne e Siebel) e também aplicativos como o SharePoint e Exchange. Há apenas um clique de provisionamento para estes, com o Oracle revelando "perfis de armazenamento de banco de dados pode desagregar os componentes de banco de dados, tais como arquivos de índice, tabelas de banco de dados, registros de arquivos, refaça logs, arquivos de controle e arquivos temporários, portanto, provisionamento automaticamente otimiza o desempenho do banco de dados Oracle sem a necessidade de conhecimento detalhado dos componentes do banco de dados. "


Novos perfis de aplicativos podem ser adicionados, os já existentes modded e perfis podem ser exportados para outros FS1-2s para padronizar o provisionamento de armazenamento.


O Quality of Service Plus (QoS Plus) recurso coloca auto-tiers dados sub-LUN por 4 níveis de flash e armazenamento em disco para otimizar o desempenho, eficiência e custo (a partir de US $ / IOP e US $ / GB ponto de vista) com base em perfis de utilização e prioridades de negócios. A Oracle alega o FS1 tem a granularidade de dados mais eficiente - 640KB - na indústria de armazenamento.


A Oracle também alega que o FS1-2 suporta o recurso colunar compressão híbrido de banco de dados Oracle, que "comprime os dados em até 50 vezes e acelera consultas até 5x, quando comparado com os sistemas de armazenamento competitivos." A compressão é suportado apenas em sistemas de armazenamento da Oracle, como o sistema de armazenamento flash do Oracle FS1-2.


Um MaxRep mecanismo de replicação opcional suporta tanto a replicação síncrona e assíncrona para locais remotos e locais, incluindo a replicação muitos-para-um, um-para-muitos, e multi-hop. Vários objetivos de ponto de recuperação (RPOs) e objetivos de tempo de recuperação (RTOs) são suportados. Opções de recuperação consistentes com aplicativos restaurar aplicativos para um ponto consistente.


MaxRep Oracle suporta tanto o FS1-2 bem como legado Pillar Axiom 600 sistema de armazenamento da Oracle para permitir a replicação entre os dois sistemas.


A Oracle FS Pilot é a interface de gerenciamento primário para o FS1-2 e é totalmente redundante para alta disponibilidade.


O gerenciamento do sistema é através do recurso Maxman maravilhosamente nomeado. Sysadmins pode gerenciar vários sistemas de armazenamento flash do Oracle FS1-2 e / ou sistemas Pillar Axiom da Oracle a partir de um único console. Existem plugins de gerenciamento para o Oracle Enterprise Manager eo recurso de armazenamento Ligação de Oracle VM para monitoramento e gerenciamento de painel único-de-vidro.


Reivindicações competitivas da Oracle



  • Os blocos de construção FS1-2 entregar até 8x IOPS mais elevados e 9.7x maior rendimento do que XtremIO X-Bricks da EMC em menos de metade do custo por terabyte. No entanto, não sabemos se isso é baseado em armazenamento bruto ou armazenamento eficaz depois de desduplicação.

  • É 400x mais eficiente do que HP 3PAR e EMC VNX2 - mover dados em blocos de 640 KB, o que economiza drasticamente recursos flash valiosos e otimiza o desempenho.

  • A Série FS1 suporta flash e HDD enquanto superando matrizes concorrente todo-Flash


Já é possível visualizar o que o futuro próximo detém - todos os all-flash de fornecedores da matriz que executam números competitivos da Oracle através de suas planilhas, e chegando com justificativas de por que seu kit é necessário e em lojas da Oracle rentável.


A Oracle acredita que não é necessário ter todas as matrizes com flash de alto desempenho separado e arrays de armazenamento primário de capacidade em massa de menor desempenho. O FS1-2 pode fazer os dois trabalhos. Mas ele não tem deduplicação, o que não é pensado para ser absolutamente necessário em ambientes de banco de dados relacional, onde a compressão colunar híbrido da Oracle faz o trabalho de redução de dados.


Prevemos que uma série de sistemas de FS1 tornando disponível ao longo do tempo. Ainda não está claro como o FS1-2 irá comparar com matrizes de classe empresarial semelhantes da Dell, EMC, HDS, HP, IBM e NetApp. Ao executar o SW da Oracle esperamos que seus recursos internos para dar-lhe uma vantagem.


Há uma garantia de um único ano e opcional do Oracle Critical Business Service de Sistemas, que fornece 24/7 monitoramento de falhas e eventos de detecção, SLAs de resposta e de substituição de hardware rápido, tratamento prioritário dos pedidos de serviços de TI, e revisões trimestrais e instalação do patch.


Existe um amplo sistema operacional e hypervisor apoio: Oracle Linux, Oracle Solaris, Oracle VM, IBM AIX, HP-UX, Microsoft Windows e VMware.


O FS1-2 foi anunciado no Oracle OpenWorld em San Francisco. O preço ainda não foi revelado ea besta em caixa deve ser comercializado em outubro. ®



É Cleversafe o armazenamento de objetos de afeto da HP?


Guia do Iniciante para certificados SSL


HP é espalhado boatos para estar em conversações com Cleversafe para vender o seu armazenamento de objetos ao lado a própria oferta da HP StoreAll objeto de armazenamento. HP diz que pode de fato revender produtos de terceiros, mas está sem citar nomes.


StoreAll é baseado na tecnologia IBRIX adquirida, emprega servidores ProLiant, escalas para 1024 nós e 16PB de capacidade. Protocolos de acesso suportados incluem NFS, CIFS e SMB, NDMP, HTTP e HTTPS, WebDAV, FTP e FTPS, a API do Arquivo Modo de Compatibilidade StoreAll REST e modo de objeto.







Cleversafe com dsNet é o fornecedor líder de armazenamento de objetos de acordo com a IDC, e assim mostrado em seu diagrama MarketScape. A HP não aparecer nesse diagrama.


Os outros principais fornecedores de armazenamento de objetos independentes, com quem HP pode fazer um acordo, são Scality, Amplidata e Caringo.


IDC MarketScape armazenamento de objetos

Pontual Cleversafe e procurar em vão por HP



Um porta-voz da HP disse: "Quando a HP oferece uma solução de armazenamento estratégico, um elemento fundamental é o fornecimento de hardware e software de suporte end-to-end, que nós entregamos para o armazenamento baseado em objetos com o armazenamento HP StoreAll hoje Embora produtos alternativos podem, de fato. ser revendidos pela HP para completamente diferentes casos de uso, eles não constituem uma solução de armazenamento estratégico uma vez que estes não têm geralmente end-to-end hardware HP e suporte de software. "


Questionado sobre um acordo com a HP, CEO Cleversafe John Morris disse: "Não podemos comentar sobre isso."


HP é no objeto de armazenamento Alliance, formada para promover a indústria de armazenamento de objetos. Cleversafe acaba de entrar para essa organização.


Entendemos que Cleversafe vem tentando criar um OEM ou revenda de acordo com a HP por um tempo. Ele certificou seu software dsNet com Gen 8 da HP servidores ProLiant em março deste ano.


Na época, Yogi Barman, Diretor de Alianças Estratégicas para servidores HP, disse: "Os servidores HP ProLiant SL4540 e DL360p Gen8 combinados com a tecnologia de armazenamento baseada em objetos dsNet de Cleversafe permite que os clientes para atender às suas crescentes desafios de dados com uma solução altamente confiável, que pode facilmente escalar para atender a demanda de dados Petabyte escala sem afetar o desempenho. "


No entanto HP não é, obviamente, prontos ou dispostos a ir mais longe em qualquer relacionamento com um fornecedor de armazenamento de objetos de terceiros - ainda não, pelo menos. ®



Bolas de destruição esmagar seus sistemas de armazenamento de novas extravagantes ... melhor se acostumar com isso


Guia do Iniciante para certificados SSL


Storagebod Tem EMC começou uma tendência indesejável ? Eu tive uma discussão sobre roteiros com um fornecedor, esta semana, e os seus representantes falaram sobre futuras alterações substanciais à sua arquitetura. Meu questionamento ", mas certamente isso não é apenas uma atualização de ruptura, mas destrutivo?" foi recebido com uma afirmativa. Claro que, como atualizações XtremIO da EMC, a atualização não seria obrigatório, mas provavelmente uma instalação aconselhável.


A coisa interessante com este é que não era uma plataforma de hardware de armazenamento, mas um produto de armazenamento definido por software. E nós tendem a ser muito mais tolerante com essas atualizações perturbadoras e potencialmente destrutivos. Arquitetonicamente, à medida que caminhamos para mais armazenamento-como-software em vez de ser software envolvido em hardware, isso vai ser mais comum, e nós vamos ter infra-estrutura de design e aplicações para lidar com isso.







Isso significa, quase inevitavelmente, que terá de comprar mais hardware do que anteriormente para nos permitir construir zonas de disponibilidade para permitir atualizações para sistemas centrais para ser realizada como sem interrupções possível. E quando começamos a cavar o âmago da questão, podemos achar que isso começa a empurrar os custos ea complexidade up - se estes custos sobem tanto que todo o argumento de armazenamento de mercadorias começa a cair aos pedaços ainda está aberto ao debate.


Eu acho que para algumas empresas, pode muito bem fazer, especialmente aqueles que não entendem o modelo de nuvem e começar a mover as aplicações tradicionais para a nuvem sem uma grande dose de pensamento e compreensão.


Agora, isso não deixe EMC fora do gancho em tudo, mas para ser honesto: EMC tem um histórico muito viscosa em upgrades sem interrupções no passado - mais do que muitos imaginam.


Maiores atualizações Enginuity sempre vêm com uma certa quantidade de interrupções, e minha experiência não tem sido boa; os níveis de planejamento e certificação exigida manteve muitos contratantes de armazenamento de emprego remunerado. Atualizações Clariion também ter sido assustador no passado, e ainda hoje atualizações Isilon estão longe tão perto tão limpo como eles querem fazer crer.


EMC poderia ter, é claro, fugiu com a derrocada recente se tivesse simplesmente lançou uma nova plataforma de hardware, e todo mundo teria aceito que isto ia envolver a migração de dados.


Ainda assim, a atualização mais assustadora que eu já tive foi uma atualização de um tubarão IBM que falhou no meio do caminho e nos deixou com um nó em um nível de software e um em um nível diferente. E a equipe IBM coçando suas cabeças. Mas, recentemente, as atualizações mais suaves foram V7000 - por isso mesmo os elefantes podem aprender a dançar.


Como fornecedores de armazenamento lutam com uma série de questões - incluindo o pôr do sol sobre os regimes tradicionais de proteção de dados, tais como RAID - Eu esperaria que o número de atualizações destrutivos e disruptivos a aumentar. E a rotação de marketing em torno deles de todos para alcançar alturas vertiginosas. Como fornecedores de manipular os dados que estão armazenando de maneira cada vez mais complexas e inteligentes, a eventualidade de perturbações e destrutivas atualizações vai aumentar.


Erros de arquitectura vão ser feitas: becos erradas será seguido. Grandes vendedores vai admitir isso, e apoiar os seus clientes por essas mudanças. Isso será mais fácil para aqueles que estão enviando produtos de software envolvidas com hardware; isso vai ser muito mais difícil para os fornecedores apenas em software. Se um recurso é tão complexo que parece mágica, que você não pode querer usá-lo ... Eu estou procurando simples de gerenciar, operar e explicar.


Isso é um argumento para a nuvem pública? Talvez, como isso vai levar o ônus longe de você para organizar. Advertência Comprador, porém, e isso pode significar apenas que a perturbação é imposta a você, e se você não tiver criado os seus aplicativos para lidar com isso ... hum ho! ®



segunda-feira, 29 de setembro de 2014

Seagate embiggens sua unidade de espionagem, ondas de TI em câmeras de CFTV


Fornecer um Helpdesk segura e eficiente


Operadores de CFTV pode respirar suspiros de alívio. Eles não vão ficar sem espaço tão rápido como Seagate elevou a capacidade de sua unidade de disco Vigilância 4TB 6 TB.


Seagate está usando sua tecnologia de acionamento 6TB , anunciada em abril. Naquela época, a empresa disse que o whopper 6TB poderia ser usado para vigilância centralizado, e agora aqui está a versão de marca de Vigilância. Ele vem em pontos de capacidade 5TB e 6TB.







Estes dobro do cache usado para 128MB.


Basicamente, todos os outros detalhes, como a redução de vibração de rotação, taxa de MTBF, etc aplicam a esta nova unidade. No entanto, ele vem com os chamados serviços de resgate , o que poderia recuperar os dados se a unidade vai para baixo. A empresa gira-lo assim:


Um processo de recuperação fácil e rápida, os serviços de salvamento da Seagate pode restaurar dados tipicamente dentro de duas semanas, dependendo do tipo de recovery- com até uma taxa maior do que 90 por cento de sucesso na recuperação de dados. Ativado no momento da compra, o plano de resgate oferece três anos de recuperação de dados na fração do que custaria para recuperar os dados perdidos devido a qualquer coisa de vírus de computador aos desastres naturais e muito mais.

Então aqui está Seagate, diabinho perturbador que é, competindo com a Kroll Ontrack e outros serviços de recuperação de dados em disco.


Esta unidade CCTV 6TB tem um 642Gbit / 2 em densidade de área. O produto 4TB existente tem uma 625Gbit / in 2 Classificação densidade de área com a 3TB usando uma 536Gbit / 2 em tecnologia. Curiosamente os 1TB e 2TB queridos voltar ao 625Gbit / 2 em número.


Os pesos da unidade revelam diferenças interessantes:



  • 1TB - 400g

  • 2TB - 610g

  • 3TB - 610g

  • 4 TB - 610g

  • 5TB - 700g

  • 6TB - 780g


A partir desta tabela de números deduzimos duas coisas. Em primeiro lugar, que a 4 TB - Vigilância 6TB dirigir prato e ler escrever cabeças de combinação pesa 80 - 90g. Em segundo lugar, a capacidade extra vem de pratos adicionais, estimadas em segurando 1TB cada.


A Vigilância HDD nas novas configurações 5TB e 6TB estará disponível em até o final de 2014 Obter uma specsheet aqui . ®



Chip titan Micron mostra linha de fundo Elpida-engordados


Fornecer um Helpdesk segura e eficiente


US semicondutores Micron picador tem impulsionado suas receitas de memória e de negócios de flash com a sua compra de Rexchip e Elpida , anunciando recorde quarto trimestre fiscal de 2014 e as receitas anuais.


Quarto trimestre as receitas foram de US $ 4.23bn, seis por cento mais do que no trimestre anterior e, o impulso Elpida chutando, 49 por cento superior ao fiscal de 2013 do quarto trimestre. Fez lucros (lucro líquido GAAP) de US $ 1.15bn, que é uma incrível 27,2 por cento das suas receitas







Micron relatou $ 16.36bn na íntegra fiscal de 2014 as receitas e lucros de US $ 3.05bn, um recorde para Micron ano. As receitas foram de 79,8 por cento superior tan um ano atrás, enquanto os lucros foram de 156,3 por cento maior. Fluxo de caixa das operações foi de US $ 5.70bn para o ano.


Mark Durcan, CEO da Micron, falou de condições de mercado favoráveis ​​no ano e de execução constante levando a volumes de vendas aumenta em sua declaração preparada, e subestimar o fato de que este é um negócio em chamas. Esta é uma empresa que faz produtos com eficiência de custos impressionante, DRAM e Flash chips, basicamente, o que as pessoas querem e vão pagar bons preços para.


O número de dispositivos inteligentes do mundo está aumentando a cada ano: a partir de centros de web escala de dados, servidores, desktops, notebooks, consoles de jogos, tablets, smartphones, celulares comuns, switches de rede e roteadores para arrays de armazenamento no data center e pequenos sobre a mesa, máquinas com processadores embutidos, carros inteligentes e Internet de dispositivos as coisas. Tudo isso precisa de memória e muitos precisam de flash. Fundições da Micron derramar as fichas essas coisas precisam e mais deles será provavelmente necessário no próximo ano.


Aqui estão um par de tabelas para fornecer um quadro mais amplo:


Micron Quarters

Clique gráfico para obter uma imagem maior de resultados trimestrais da Micron ao longo dos últimos quatro anos



A receita trimestral e história mostram que o lucro líquido Micron teve uma queda acentuada na receita e lucratividade, de 2011 a 2013, quando a recuperação começou como um movimento de produtos com preços melhores, entre outras coisas, valeu a pena. O efeito-passo sobre as receitas e os lucros após as compras de fundição Elpida e Rexchip são evidentes no primeiro trimestre de 2014 o lucro exagerado no quarto trimestre 2013 referem-se à compra Elpida.


Resultados Micron anuais

As receitas anuais mostram a mesma 2011 - 2013 mergulho ea recuperação da rentabilidade no ano fiscal de 2013 A transição de memória DDR4 está aqui e os servidores estão tendo mais memória como são smartphones. Micron tem sua tecnologia NAND 3D em camadas ou empilhados vinda, bem como 3 bits por célula NAND TLC, o que representa um aumento de 50 por cento da capacidade em relação ao grosso da população 2 bits por flash MLC celular.


Ele está otimista com o futuro, com os proprietários de fundição de flash bem consolidadas, de modo a evitar a melancolia e excesso, e as transições 3D e NAND TLC adicionar capacidade de flash sem ter que adicionar mais imensamente fundições caras. Flash e chip de tomada de memória está olhando para ser uma arena sólida e estável para gerar lucros - para os próximos trimestres, pelo menos. ®



sexta-feira, 26 de setembro de 2014

A vida após o flash do lado do servidor: O que vem depois?


Segurança para data centers virtualizados


Flash sofre de uma vida cada vez mais curtos de trabalho, menor velocidade de acesso e menor vida útil dos menores as células reais a NAND tornou.


É geralmente contado que a parede de escala será atingido tentar diminuir o tamanho das células além de 16nm. Nesse ponto, para continuar a aumentar a capacidade de memória não volátil, sem aumentar o tamanho do chip vai significar o uso de novas tecnologias como 3D NAND, resistiva RAM (ReRAM), Phase-Change memória ou alguma outra tecnologia. Neste artigo, examinamos várias tecnologias de pós-NAND.


O que está acontecendo dentro do que o metal 'Vazio Se Inaugurado' caixa?


Estamos apenas se acostumando com a idéia de gastar dinheiro com nosso dinheiro corporativo suado em Flash (aka Solid State Drive ou SSD) de armazenamento para o nosso centro de dados SANs. O fato de que só agora está começando a pegar demonstra que a tecnologia está em sua infância em relação à mídia de armazenamento tradicional ... mas isso não nos impede querendo saber o que está por vir.


E isto é compreensível, porque, como com qualquer conceito incipiente esta nova palmada tecnologias tem algumas limitações muito hard-core. A mais óbvia é o preço, mas o pior é o fato de que o número de vezes que você pode re-escrever uma célula de flash não é apenas finito, mas realmente muito pequeno.







É compreensível, portanto, que ser perguntando o que está por vir. Isso significa que aqueles de nós que estão mantendo o fogo por enquanto são capazes de ver o que está vindo para o horizonte por isso temos uma idéia de quando a saltar para o Flash.


Tecnologias concorrentes


É claro que a tecnologia NAND de hoje tem uma vida útil limitada, e que é uma espécie de trampolim no caminho para algo com um pouco mais de longevidade. Como se encontra frequentemente, há toda uma carga de concorrência lá fora, no mercado de memória não-volátil, os potencialmente promissoras sendo:



  • Mudança de Fase de memória ("PCM"): funciona alterando o estado de vidro chalcogenide entre sua cristalina e estados amorfos. Não, eu não fiz A-level ou Química, mas, basicamente, significa mudar uma substância específica entre um estado onde os átomos estão desalinhados e aleatório (e de alta resistência) e aquele em que eles estão bem alinhados (e baixa resistência). IBM gosta desta tecnologia, e é rápido e ao longo da vida.

  • Magneto-resistiva RAM ("MRAM"): existe desde a década de 1990, por isso é bem compreendido (na verdade, se você se lembra a memória de núcleo desde os dias de computação pré-histórico, alguns dos princípios são os mesmos). Promissor, em princípio, mas caro para fazer, por isso ainda é para achar graça em um sentido comercial.

  • NAND 3D: Você lerá mais tarde sobre PMR, que em um mundo disco giratório proporciona maior densidade de dados em um meio, alinhando os elementos verticalmente e não horizontalmente. Bem, NAND 3D é algo semelhante, mas em um mundo flash. Toshiba e Samsung são os nomes neste campo.

  • RAM resistiva ("RRAM" ou "ReRAM"): armazenamento terabyte escala em um único chip que já está em fase de protótipo e está sendo elogiado por nomes como Panasonic (que começou a ser comercializado em 2013) e Barra (que tem praticamente aposta a fazenda em RRAM ser a próxima grande coisa).

  • -Transferência de spin Torque RAM ("STT-RAM"): Um parente de MRAM, que está mostrando a promessa e tem sido usada de forma limitada em produtos comerciais já. Uma empresa com o nome de Grandis era a luz principal, e adivinhem: eles foram adquiridos e são agora uma parte da divisão de memória da Samsung.

  • Memória Grafeno: Ainda muito no laboratório, mas de grande interesse se você é um boffin Samsung - tem o potencial de ser transparente e flexível, e eles já estão a experimentar diferentes tamanhos de "grafeno ponto quântico" e descobrindo o seu desempenho relativo. Não espere para ver no PC World em breve embora.


Do acima exposto, a corrida atual é geralmente aceite para ser entre RRAM e NAND 3D. Se alguém tivesse que adivinhar, a evolução óbvia seria a partir de unidades NAND de hoje, via NAND 3D e, em seguida, para a frente a RRAM e, eventualmente, PCM - e dado que tem dedo em praticamente todos torta, a Samsung vai estar lá na frente do campo simplesmente porque a maioria dos concorrentes na corrida ter um logotipo da Samsung em suas camisas! Na minha experiência, porém, IBM sua provável que seja lá muito com a sua oferta de PCM. A empresa tem o hábito de não ser o primeiro no mercado em um setor específico, mas, em seguida, subir nos trilhos e fazer o bem: se o pássaro madrugador pega a minhoca, o segundo rato que pega o queijo.


Juntamente com o desenvolvimento de tecnologias de armazenamento mais rápido, no entanto, é preciso lembrar que o kit de fazer a leitura real e escrita tem de ser capaz de manter-se. A tecnologia de armazenamento estupidamente rápido vai sentar-se no servidor, não no SAN, para que ele possa se beneficiar de CPU direto e conectividade memória local.


Afinal, por que se preocupar com algo rápido na matriz de disco do SAN quando a interconexão não pode manter-se? É claro que os caras de interconexão continuará sua corrida para manter-se - agora podemos fazer 500Mbyte transferências / seg em 6Gbit / s S-ATA, por exemplo, eo único caminho é para cima para todos esses mecanismos de conectividade.


Mas espere um momento ...


Agora temos uma idéia, então, sobre algumas das tecnologias que podem (ou não podem) serem o sucessor de tecnologias de armazenamento flash de hoje baseados em NAND. Há uma pergunta que resta para ser respondida, porém: será que realmente importa?


No início de 2000, não me lembro de muitos dos meus colegas aguarda ansiosamente o advento da tecnologia Perpendicular Magnetic Recording ("PMR"), que tornou-se um produto comercial por volta de 2005 e trouxe uma grande caminhada para a utilidade dos discos giratórios. Da mesma forma o desenvolvimento de calor Assisted gravação magnética ("HAMR"), as unidades de hélio para uma melhor refrigeração (= mais travessas para a mesma saída de calor), e assim por diante. Não: tudo o que importa é que à medida que o tempo passa, as rachaduras nos revestimentos brancos em P & D laboratórios dos vendedores de disco continuar a fazer coisas inteligente que permite armazenar mais em menos espaço, com uma vida útil mais longa e com menor consumo de energia.


Antes que eu comecei a escrever esta série de reportagens sobre armazenamento flash da minha compreensão do tema foi apenas acima da média - não menos importante, porque uma proporção ligeiramente perturbadora da minha família trabalha ou trabalhou na indústria de armazenamento. Agora eu sei muito mais do que eu fiz.


Mas que importa, no meu dia de trabalho como gerente de TI ops, se eu entender a química e nano-física de como funciona o meu armazenamento. Nah: basta manter tornando mais rápido e melhor para que eu possa melhorar meus serviços como expandir, modernizar e substituir. ®



quinta-feira, 25 de setembro de 2014

FlashDIMM flare-up: hit Netlist por Diablo contra-sueball


Escolhendo uma nuvem de hospedagem parceiro com confiança


É um DIMM flash flare-up. Diablo Technologies, que está sendo processado por Netlist para FlashDIMM violações de patentes, processou de volta, alegando práticas comerciais desleais.


A disputa legal é sobre a tecnologia usada para adicionar chips de memória flash para DIMMs de memória e assim criando servidor de armazenamento flash que é mais rápido do que acessar o Flash PCIe tradicional.







Netlist, que tem sua tecnologia HyperCloud DIMM, diz que é dono das patentes relevantes e alega que Diablo Technologies e licenciada da Diablo Smart Modular Storage - que constrói produtos ULLtraDIMM usando a tecnologia de Diablo Canal de memória de armazenamento (MCS) - está a violar os seus direitos de patente.


Modular Smart foi comprada pela SanDisk para que empresa está agora envolvido no processo também.


Agora Diablo está processando Netlist "para as práticas comerciais desleais que violam a propriedade intelectual da Diablo (IP) direitos". Sua afirmação é que MCS não infringe qualquer patente Netlist, e que os seus "produtos à base de MCS ea Netlist HyperCloud DIMM são projetados para servir a propósitos diferentes e não são intercambiáveis."


Riccardo Badalone, Diablo CEO e co-fundador, disse em um comunicado: "Nós vamos demonstrar definitivamente que os produtos baseados na arquitetura de memória Canal de armazenamento não usar qualquer IP Netlist.


Netlist, Inc v inteligentes Modular Technologies, Inc. (4, 13-CV-05962) está sendo julgado no Tribunal Distrital do Norte da Califórnia.


O juiz terá que determinar se as invenções das empresas eram só deles ou parte da colaboração netlist / Diablo volta em 2008, entre muitas outras questões. ®



Seagate bod nuvem no EBA de EVault: Por que, é claro que fazemos dedupe


Escolhendo uma nuvem de hospedagem parceiro com confiança


Comentário EVault tomou exceção a alguns pontos apresentados em um relatório sobre alguma notícia recente produto da Seagate, em especial o Backup and Recovery aparelho (EBA). Unmesh Kulkarni, diretor sênior de gerenciamento de produto da Seagate sistemas em nuvem e soluções de negócios EVault contendo, contactado O Reg para fornecer um comentário.


Nós vamos fazer isso estilo entrevista.







El Reg: Nós escrevemos que os aparelhos usam discos de 3TB ou 4TB giram a 7.200 rpm e configurado para RAID 6 Isso não é de alta densidade, não quando Seagate tem unidades 6TB disponíveis que, à primeira vista, poderiam aumentar a capacidade utilizável para 150TB.


Kulkarni: A procura de 100TB de capacidade utilizável foi efetivamente atendidas com unidades de 4TB ea arquitetura é otimizado para esta configuração atual. Seagate vai lançar aparelhos de alta densidade com 6 TB, 8 TB e superior HDD de no futuro próximo. Produtos com outras inovações Seagate HDD também estão na calha. Seagate está na posição única para impulsionar a inovação em toda a pilha de HDD até o nível de Software.


El Reg: Nós escrevemos que o aparelho faz incremental, mudou apenas backups de bloco e enquanto ele tem de compressão, mas não faz a desduplicação. Você diz dedupe está disponível. Você pode explicar?


Kulkarni: tecnologias de proteção de dados da Seagate, incluindo "DeltaPro", garantir que os dados são deduplicados, compactados e criptografados em níveis de origem e de transmissão, ou seja, no servidor a ser protegido e durante a transmissão ao EBA. Também existe uma opção para otimizar o armazenamento de dados no final de destino por meio do software EVault rodando no aparelho.


El Reg: Sugerimos no artigo que o backup da máquina virtual e ciente de recuperação pode ser adicionado para melhor proteger VMware, Microsoft e máquinas virtuais KVM.


Kulkarni: software EVault rodando no aparelho tem suporte para backup e restauração de ambientes virtualizados, incluindo aqueles que executam o VMware e Microsoft Hyper-V. Esses recursos estão incluídos no software que é executado em ou com a Seagate EVault EBA. Os backups de VMware e Hyper-V podem ser direcionados ao EBA e as recuperações podem ser executados para backups feitos no aparelho.


Comentário


Achamos que uma comparação de recursos-para-função entre Veeam e EVault na área de backup do servidor virtual seria uma idéia legal.


A conclusão aqui é que a Seagate tem grandes planos para o seu serviço EVault, e que os aparelhos de maior densidade, queridos possivelmente muito maior densidade, estão chegando. A noção secundário é que a Seagate está armazenando dados de backup dos clientes na nuvem. ®



Samsung prevê PCIe Flash servidor manopla


Escolhendo uma nuvem de hospedagem parceiro com confiança


Mais rápido, cartões flash mais gordos que aceleram aplicações de servidor estão na demanda, e Samsung anunciou que está produzindo em massa a 3.2TB NVMe PCIe SSD utilizando a sua tecnologia 3D V-NAND. Diz capacidades maiores estão por vir.


O SM1715 duplica o anterior NVMe SSD 1.6TB de capacidade XS1715 máximo, e que o produto utilizado padrão NAND planar 2D.







Ele entregues até 740.000 IOPS 4K e tinha um 3GB / s para leitura de banda. O SM1715 faz até 750.000 / 130.000 leitura aleatória / escrever IOPS (tamanho do bloco desconhecido, pensado para ser 4K) e tem um 3GB / s para leitura de banda e 2.2GB / s de largura de banda de gravação. Samsung vai lançar mais informações em breve.


A resistência é de 10 unidade completa escreve por dia durante cinco anos, e os anfitriões direcionados para esta meia-altura, cartão de metade do comprimento são servidores empresariais high-end.


Samsung SM1715 3D V-NAND SSD PCIe NVMe

Samsung SM1715 3D V-NAND SSD PCIe NVMe - nós amamos iniciais



Como é que este produto 3D V-NAND empilhar (sorry) contra outros cartões flash PCIe?


Ele não é um líder no quesito capacidade. Da HGST FlashMax II corre até 4.8TB mas não funciona tão bem - 269000/51000 leitura aleatória / escrever IOPS e 2,6 / 0,9 GB / s de leitura / gravação. HGST tem suas placas mais recentes FlashMax II que vão mais rápido, 531.000 aleatória de leitura O + IOPS por exemplo, mas tampa fora a 2.2TB.


SanDisk (Fusion-io) tem um 2,4 TB ioDrive 2 Duo fazendo 700.000 IOPS de leitura aleatórios com blocos de 512 bytes e 3GB / s seqüencial ler e escrever. A SX300 Atomic vai até 6,4 TB, mas é mais lento, mas mais equilibrado do que speedster da Samsung em 215.000 / 300.000 IOPS aleatórias de leitura / gravação.


Intel, Micron, Seagate e Toshiba têm menor capacidade e, geralmente, mais lentas SSDs PCIe. Eles vão precisar atualizar suas linhas de produtos para combinar Samsung.


Podemos esperar que todos esses fornecedores para saltar a bordo do trem NVMe.


Samsung Electronics memória comercialização VP Jeeho Baek disse em uma declaração preparada: "A Samsung planeja lançar agressivamente SSDs baseados em V-NAND com um desempenho ainda maior, a densidade e confiabilidade no futuro."


Mantenha-os vir Jeeho - que vai manter a competição em seus dedos. ®



Na integração de matrizes de flash com flash do lado do servidor


Escolhendo uma nuvem de hospedagem parceiro com confiança


Se você estiver comprando armazenamento flash de hoje, você está fazendo isso para a velocidade. Afinal, você não está fazendo isso para economizar dinheiro e você definitivamente não é rico o suficiente para estar fazendo isso porque você quer ser verde e economizar alguns quilowatts-hora em sua conta de energia.


Com disco giratório, os próprios discos eram provavelmente o gargalo em suas matrizes de armazenamento baseadas em SAN. Com flash, porém, as unidades são tão rápidos que a própria infra-estrutura de armazenamento torna-se o elo mais fraco, ou seja, é mais lento do que tanto o armazenamento e os servidores.







Por isso há uma tentação crescente para mover pelo menos parte do armazenamento em servidores físicos para colocá-lo perto das aplicações; é então ou uma cache (em frente ao armazenamento compartilhado para o qual os dados são gravados mais tarde) ou um meio de armazenamento de primeira linha completa (com o armazenamento compartilhado como armazenamento de segundo nível).


As vantagens de ter o armazenamento nos servidores é óbvia: ele faz com que as aplicações super-rápido e se o seu sistema operacional em particular tem otimização específica-flash que você pode tirar vantagem de que, quando o armazenamento é local (considerando que você não poderia em armazenamento compartilhado) .


Mas é claro que a desvantagem é que você acaba tendo uma carga de armazenamento desperdiçado, porque você tem a mais-especificar o volume de comprar. Do outro lado da moeda a vantagem de ter rápida, armazenamento flash compartilhada é que todos os seus servidores podem se beneficiar de um melhor desempenho do que costumava ter, contanto que você gastar algum dinheiro em fazer a interconexão de um bom desempenho; a desvantagem é que, melhorando o caso médio que você está matando os nichos de aplicações que dependem de ordenha tanto o desempenho quanto possível a partir do flash.



Quando você compra os servidores, o que você compra? E o que você colocar sobre eles?



O último parágrafo poderia, é claro, foram escritos sobre muito bem todo o tipo de armazenamento que já existiu: é o velho compromisso de velocidade contra custo (com uma grande ênfase na relação custo - o flash é um par de ordens de grandeza maior do que o disco tradicional no presente). Há uma diferença sutil, porém, com a tecnologia de hoje.


Pense nisso. Quando você compra os servidores, o que você compra? E o que você colocar sobre eles?


Eu faço o meu melhor para evitar a compra de servidores e executando um sistema operacional de servidor sobre eles (e refiro-me Linux, Windows, AIX ou algum outro sistema operacional autônomo). Se eu comprar um servidor que irá geralmente tornam-se parte de uma instalação VMware ESXi (outros hypervisors estão disponíveis - Eu só acontecerá a preferir VMware), o que significa que a qualquer momento vai ser de hospedagem dezenas de máquinas virtuais. Então, se ele tem o armazenamento a bordo, que o armazenamento pode ser compartilhado por todas as VMs em que o anfitrião.


Isso não é muito resistente, é claro, mas isso não é um grande problema, porque eu não preferem comprar servidores individuais: I tendem para sistemas baseados em chassis em que você enche de armazenamento e servidores blades (cada lâmina ser o equivalente a uma tradicional autônomo , servidor single-box). Isto dá-lhe a possibilidade de compartilhar o armazenamento chassis 'on-board entre os vários servidores blade na caixa.


Onde armazenamento flash ir?


É claro que você ainda tem o potencial de falha em seu chassis único, mas isso é bom porque o outro benefício do chassis é que ele fornece acesso compartilhado a periféricos de alta velocidade, tais como adaptadores de armazenamento baseados em SAS e links de 10 Gbit / s iSCSI (que , se você está se sentindo tão inclinado, você pode tronco com EtherChannel para vigor somado - e as ligações de dez shows já estão a conexão de escolha para muitos fornecedores de matriz com base em flash). E, claro, tendo isso em um ambiente compartilhado será menos caro e mais fácil de gerenciar do que se você tivesse uma carga de caixas de servidores separados.


Então, onde irá piscar de armazenamento ir? Será que vai gravitar para o servidor porque você precisa de toda essa velocidade ao lado dos aplicativos e os caras hardware deram-lhe novas formas fab para enganchar o armazenamento em diretamente com os processadores e memória? Ou ele vai ficar no armazenamento compartilhado, porque é o único lugar que você pode dar ao luxo de colocá-lo?


A resposta é que ele vai fazer as duas coisas, e que os algoritmos de cache e subsistemas de armazenamento dos sistemas operacionais e os motores de virtualização continuarão a se tornar mais esperto e mais inteligente (assim como eles fizeram por anos de qualquer maneira).


Vamos olhar para o armazenamento baseado em servidor pela primeira vez. Se você estiver executando anfitriões baseadas em hipervisor (ou seja, você está em um mundo virtualizado servidor) os vendedores já estão apostando na existência de algum tipo de armazenamento de estado sólido sentado ali de uma forma directamente acessíveis.


No vSphere 5.5, por exemplo, a VMware tem um novo conceito badalado chamado Flash Read Cache que reúne vários itens de armazenamento baseados em flash em entidades utilizáveis ​​single chamado vSphere Recursos Flash. E mesmo se você estiver executando uma configuração de servidor único tradicional em uma caixa física que estamos vendo mais e mais técnicas de otimização e drivers específicos do SSD que podem explorar a velocidade do SSD enquanto minimiza o desgaste através de gravações excessivas.


Vivo e chutando


E no armazenamento baseado em array, a hierarquia multi-tier está vivo e chutando e terá todo o prazer continuar a existir enquanto disco giratório e SSD continuar tanto de existir. O que, se você está se perguntando, será o caso por muitos anos vindouros. Armazenamento baseado em matriz dá-lhe a capacidade de expandir bastante o conteúdo do seu coração, porque se você ficar sem espaço em sua matriz você simplesmente parafuso em outra prateleira e material em um monte mais discos.


E as preocupações traficantes por aí que continuo batendo em que as interconexões não são rápidos o suficiente claramente não ter ouvido falar que esses caras de tecnologia de rede continuam batendo para fora versões mais rápidas de seus protocolos mais rápido e: por isso, se você não pode manter-se já, você vai ser capaz de em breve.


Em suma, então: servidores de Flash, que tem disco de alta velocidade conectado internamente e diretamente para o hardware de processamento e RAM continuará a existir. Mas, assim como com o armazenamento tradicional que vai permanecer em qualquer nicho de aplicações ou a memória cache em configurações multi-camadas. O resto de nossas aplicações continuará a explorar as economias, a resiliência ea conveniência de armazenamento compartilhado.


Francamente, é a única coisa sensata a fazer - e por isso os vendedores são bastante conveniente e de forma consistente tornando-se uma coisa cada vez mais rápido para fazer também. ®


Dave Cartwright já trabalhou em vários aspectos da TI em seu 20-year-ou-so carreira, embora as coisas que ele afirma ser muito bom em são estratégia, arquitetura, integração e fazendo coisas quebradas tornar-se intacta. Seu principal passatempo é gritar com as pessoas que tentam instalar a tecnologia sem considerar se ele realmente se encaixa no negócio ou a exigência. Dave é um engenheiro qualificado, Chartered IT Professional e Fellow da BCS, e vive com sua família em uma pequena pedra no Canal Inglês.



Equipamento virtualização de banco de dados DelphiX: Lotsa grana, poucos concorrentes


Escolhendo uma nuvem de hospedagem parceiro com confiança


Entrevista Os dados de produção copiadora e virtualiser DelphiX diz que faz o fornecimento de dados em grande parte, estruturados para aplicações não-produção de um pedaço de um monte mais fácil, alegando que a acelera de dias ou semanas para minutos.


Software da empresa recebe uma cópia dos dados de produção e as armazena em motores de servidores: servidores com armazenamento de conexão direta que executar seu software. No pedido, entrega uma cópia virtual de um conjunto de dados para aplicativos que precisam dele, como o teste e dev, ou de conformidade e análise.







CrunchBase descreve DelphiX como um "software desenvolvimento firme para simplificar construir, testar e modernização de aplicações em bancos de dados relacionais."


CEO e fundador do DelphiX, Jedidiah Yueh, diz que a empresa não tem concorrentes fornecedor direto: em vez disso, segundo ele, que concorre com o "status quo".


Esta competição status quo é, tal como a entendemos, os dados de aplicativos não-produção processo de provisionamento, com os dados normalmente provenientes de bancos de dados de produção e necessitam de uma preparação cuidadosa, o que, se feito manualmente, pode levar armazenamento pressionados / banco de dados de administradores de uma semana ou mais. Borda do DelphiX é que automatiza e acelera o processo dramaticamente.


Quando isso acontece, esses dados sensíveis podem ser mascarados ou ocluído para que, por exemplo, números de segurança social e de cartões de crédito não são expostos a usuários ou aplicativos que não devem ter acesso a eles.


Scale-out e os dados motores do servidor 'é organizado, Yueh diz, em termos de ciclo de vida da aplicação, de forma que, como as aplicações são aposentados seus dados podem ser aposentados também, usando um recurso Live Archive. Mas os dados não são gerenciados a partir de um ponto de vista de um ciclo de vida de dados, com o descarregamento de idade, dados de baixa velocidade de acesso à fita. Tudo permanece no disco, embora ele pode ser movido ou armazenados em menor custo, ter acesso a unidades mais lentas.


Para Yueh DelphiX não é um recurso de backup e nem é centrada na cópia de gestão de dados, embora a quantidade de dados copiados é bastante reduzido quando DelphiX é usado. Ele diz que não há necessidade de um sistema de backup como Data Domain ou Avamar para os dados dentro do universo DelphiX. Ele contém a sua história de alteração de dados e os dados podem ser recuperados a qualquer momento usando isso.


Delphix_Replication

Esquemática replicação DelphiX



Yueh diz que os clientes se recuperaram de desastres usando seus armazenamentos de dados DelphiX.


Pensamos que DelphiX não competir com Actifio no espaço de gerenciamento de dados de cópia, e também com aparelhos de backup construídos de propósito, como o Data Domain e Avamar de, por sua supressão em seu espaço de aplicação, na medida em que a sua funcionalidade pode ser incluído em software de DelphiX. Isso é irônico como Yueh fundada Avamar e vendeu-a EMC.


Yueh discorda respeito Actifio, dizendo que "está vendendo principalmente no espaço de backup. Nossa solução é projetada para alcançar um maior rendimento."


Gestão de dados e entrega para as equipes que usam cópias de dados de produção são os problemas que o software da DelphiX se destina a lidar com eles.


Os dados podem vir 20-50 ambientes de produção separadas e é sincronizado por DelphiX, com até 400 ambientes de aplicativos usando um único motor DelphiX. Em geral, porém, um mecanismo de fontes de dados de um punhado de aplicativos de produção. Equipes de desenvolvimento tendem a ser focalizado-app e encontrar dados é relativamente fácil.


A loja DelphiX torna-se a loja de mestre para teste e dev, etc Ela serve para self-service, com Yueh dizendo: "Podemos criar um ambiente de teste integrado até os limites das transações em questão de minutos." Ele acrescentou: "Nós temos um monte de clientes que nos rodam em flash."


Há um ângulo maior segurança para DelphiX uso, bem como, de acordo com Yueh. "Nós eliminamos a cadeia de risco de ter vários sysadms tocando os dados. Podemos reduzir a superfície de risco dos dados. Podemos tomar o volume de dados em risco e reduzi-la em 80 por cento."


Um sistema DelphiX podem ser utilizados numa estação remota ou ramo e replicar os dados para uma instalação central de DelphiX. Ele também pode ser replicado para um sistema DelphiX na nuvem, tais como AWS. Note-se que Azure ainda não é suportado e DelphiX espero e esperar um parceiro para desenvolver esse apoio.


Fundação, financiamento e vendas


A empresa foi fundada em junho de 2008, e teve três rodadas de financiamento, no valor de $ 44.5m. A última (C-round) foi em Junho de 2012 e para US $ 25 milhões. A B-round por US $ 11 milhões ocorreu em abril de 2010, e mais US $ 8,5 milhões A rodada ocorreu em fevereiro de 2009.


Yueh diz que a empresa é agora o fluxo positivo de caixa e poderia fazer um lucro não-GAAP no próximo ano. Como se trata de uma empresa com base em assinatura, reconhecendo lucros leva tempo e GAAP rentabilidade encontra-se no futuro.


Ele não quis revelar o número de clientes, mas disse que havia cerca de 300 vendas do produto DelphiX, com um valor médio de venda de US $ 500.000. As vendas triplicaram em cada um dos quatro anos anteriores e DelphiX reivindica 100 da lista Fortune 500 são clientes, inclusive do mundo quatro principais varejistas. Yueh disse: "Nós estamos sempre apenas cozido fora quatro vezes em nossa história."


As vendas são feitas através de parceiros estratégicos, como SAP e parceiros de canal nos EUA e na Europa.


O que há de mercado total de DelphiX (TAM)? Yueh não daria uma figura, mas ressaltou que a aplicação projectos respondem por metade dos gastos em TI, de modo que a TAM está na casa das dezenas de milhões de dólares área.


Actifio recentemente ganhou US $ 100 milhões em financiamento para que possamos saber sobre uma quarta rodada de financiamento para DelphiX para que pudesse acelerar a expansão dos negócios.


Nós pensamos de banco de dados de produção fornecedores devem estar a olhar para o mercado de gerenciamento de dados de cópia e trabalhar fora, se eles podem "fazer um DelphiX" com os seus bancos de dados, fornecendo uma única cópia virtualizada de dados de várias instâncias de base de dados e cultivando-a para desenvolvedores de aplicativos, analista aplicativos e serviços de conformidade que precisam dele. Vai ser duro para desenvolver e quanto mais tempo eles atrasar, o DelphiX mais enraizada se tornará e as suas capacidades de software mais profundas e amplas.


DelphiX e Actifio parecem ser as duas maiores empresas de gerenciamento de dados de cópia, embora com diferentes concentra-se, e olham o jogo para continuar crescendo fortemente enquanto banco de dados e outros fornecedores de software empresarial trabalhar a sua provável impacto - eo que fazer sobre isso. ®



quarta-feira, 24 de setembro de 2014

Todos inundado em tinta vermelha, mas Overland Storage ainda está nadando


Arrays de armazenamento Flash Inteligente


Análise Overland Storage, a fita e low-end disk array scale-out fornecedor de armazenamento conturbado, ainda está lutando por diante, com um swell em receitas apesar das perdas crescentes. Como o CEO Eric Kelly fazê-lo?


Quarto trimestre de Overland (Q4) e fiscal 2014 números manchete ano são, assim, impressionante vem à mente:



  • As receitas do Q4 de $ 24.2m, até 100 por cento sobre os US $ 12.1m divulgados há um ano e os US $ 20.3m último trimestre

  • Q4 perda líquida de US $ 7,4 milhões, dois milhões de pior do que os US $ 5,4 milhões que perdeu há um ano, e US $ 800k pior do que no último trimestre

  • Ano 2014 uma receita de $ 65.7m, um salto de US $ 17,7M no ano passado, de $ 48m, refletindo a aquisição da Tandberg

  • Ano completa perda líquida de $ 22.9m, 17 por cento pior do que no ano passado.


Overland assumiu Tandberg Data , o que explica o salto de receita, mas as eficiências de custos não estão vindo até a linha de lucro líquido ainda. Registramos 17 trimestres consecutivos de perdas para Overland e cinco derrotas anos fiscais consecutivos, aprofundando as perdas de fato.


No entanto, as coisas podem estar melhorando. Pegamos montante anual de perda de Overland, caiu o sinal de menos e dividiu-a em que ano a receita total e produziu este gráfico:







O percentual de perda Overland

Números de perda da Overland como percentual da receita



A perda como um percentual da receita está ficando menor.


Kelly afirmou que: "A aquisição da Tandberg Data em janeiro nos permitiu construir uma base sólida de produtos de armazenamento de dados, e deve fornecer um caminho claro para a rentabilidade." Há um refém da sorte.


A ação de longa duração contra BDT acabou e Overland está se fundindo com a esfera 3D coloca-lo no negócio de desktop e aplicativo de virtualização.


Isso significa que os três canais: Tandberg, Overland e 3D Sphere, todos devem ter mais oportunidades de venda de produtos, com Kelly dizendo que o negócio esfera 3D "cria uma base sólida para a empresa a emergir como um novo desafiante, contemporânea na virtualização de rápido crescimento , móvel, nuvem e nos mercados de armazenamento de dados. "


Parece brilhante, mas Overland tem sido no mercado de armazenamento de dados em rápido crescimento por muitos anos.


Os apoiadores e executivos da Overland são como um velho garimpeiro: "Thar ser ouro neles montes de Thar e eu sou a-ia encontrá-lo iff'n eu morrer tentando." Continue cavando Overland. ®



Texas T Rex Dell: Terabytes enviados. Contagem e chorem ...


Arrays de armazenamento Flash Inteligente


Dell vendeu mais capacidade de armazenamento do que qualquer outro fornecedor no primeiro semestre de 2014, diz o analista da IDC.


No mundial da IDC Quarterly Disk Storage Systems Rastreador relata Dell é apontada como tendo vendido 4.311.728 terabytes de armazenamento em disco, 4,3 exabytes, pelo ponto médio de 2014 - bem danado impressionante.







Estamos informados de que os embarques de armazenamento Dell subiram 14,8 por cento em comparação com um ano atrás, enquanto EMC do desceu -7,7 por cento, HP -6,2 por cento e -7,8 por cento IBM.


Os terabytes embarcado números IDC registrou foram:



  • Dell - 4311728

  • EMC - 4076546

  • HP - 3428016

  • NetApp - 2725513

  • IBM - 1641182

  • Outros - 3003154


Homem de armazenamento Dell Alan Atkinson tem um blog sobre isso, dizendo que o total de Dell "equivale a mais de 57.000 anos de execução contínua de vídeo de alta definição". Ugh! Que perspectiva de pesadelo.


Se olharmos para os números do perseguidor da IDC para a receita dos fornecedores de vendas totais de armazenamento em disco, temos uma imagem contrária. Aqui estão os números de compartilhamento de receita percentual da IDC para os dois primeiros trimestres de 2014;



  • EMC - Q1 = 22,14 por cento, Q2 = 22,7 por cento

  • HP - Q1 = 15,1 por cento, Q2 = 17,5 por cento

  • IBM - Q1 = 10,1 por cento, Q2 = 12,9 por cento

  • Dell - Q1 = 11,9 por cento, Q2 = 11,4 por cento

  • NetApp - Q1 = 11,7 por cento, Q2 = 9,8 por cento

  • Outros - Q1 = 28,8 por cento, Q2 = 25,8 por cento


Dell ficou em terceiro lugar no primeiro trimestre e em quarto na segunda, a partir do qual podemos concluir que a Dell vende seus terabytes de capacidade por muito menos do que EMC, HP e IBM - mesmo que NetApp.


Isso levou terabytes enviado é uma grande notícia para a Dell, especialmente porque o momento é positivo.


É evidente, porém, que para obter uma fatia maior da receita total de armazenamento em disco Dell terá que vender muito mais capacidade de armazenamento e / ou aumentar os seus preços. ®



Armazenamento em nuvem Bods Nasuni ram volume de bilhões de objeto em arquivador


Arrays de armazenamento Flash Inteligente


Em uma demonstração de "meu arquivador scale-out é maior que o seu" swaggery armazenamento, Nasuni carregou um objeto de volume bilhões extras em seu sistema de arquivos Nasuni Service.


Nasuni armazena arquivos na nuvem, com no local filers NF-série agir como caches e gateways, bombeando arquivos para a nuvem, Azure e Amazon, por exemplo, e recuperando-as e proporcionando resposta local rápido para apresentar pedidos de acesso.







Bods Nasuni dizer que esta é "uma conquista técnica sem precedentes" e demonstra "escalabilidade essencialmente ilimitado." Eles usaram quatro filers Nasuni, tanto no carregamento de dados e virtual (software rodando em uma máquina virtual) baseadas em hardware por 15 meses ", escrevendo para o volume mais rapidamente possível a partir de diferentes locais físicos, mantendo o acesso a todos os arquivos a partir de qualquer um dos os servidores de dados individuais. " Eles dizem que o volume continua a crescer a cada dia.


Os dados incluíram 27.000 versões instantâneo do sistema de arquivos.


Tornado

Você precisa de um grande bebedor de dados tornado para sugar todos os dados



Eles dizem que não usam um sistema de arquivos em cluster, seus UniFS sistema de arquivos global, sendo até o trabalho, virtualizar os dados do arquivo e fazer "os dados disponíveis para a colaboração em todo o mundo sem replicar cópias físicas e sem contenção já que há somente um mestre fonte dos dados. "


Fundador ESG e analista sênior Steve Duplessie deu credibilidade a esta: "" A maioria das implementações tradicionais NAS vai cair em seu rosto muito antes de atingir um bilhão de objetos e 27.000 fotos. O fato de que Nasuni não só faz isso, mas também pode fazê-lo, proporcionando dados em qualquer lugar do mundo a partir de um único sistema de arquivos, é muito bonito notável. "


Presidente Nasuni Rob Mason bigged o serviço: "Em toda a nossa base de clientes, temos bem mais de 1 bilhão de objetos sob gestão e vários de nossos clientes cada um tem mais de 200 mil versões de todo o seu sistema de arquivos salvos no Serviço Nasuni."


CEO Andres Rodriguez disse Nasuni está "levando a carga para fora do centro de dados e colocá-lo para a nuvem, onde é livre das restrições de capacidade de gestão e que vêm com a engrenagem de armazenamento tradicional."


A mensagem de Nasuni é que você pode ter um armazenamento de arquivos de dados livre de matriz centro: é só usar finos gateways arquivador cache de Nasuni, por assim dizer, e coisas todos os seus arquivos para dentro da nuvem. Mas pedem custos comparativos - o bombeamento de um bilhão de objetos no S3 não é barato.


Fazendo isso ainda pode ser menos caro do que hospeda-los localmente e oferecer acesso global, no entanto. ®



Supercapacitores tem o poder de salvá-lo de perda de dados


Arrays de armazenamento Flash Inteligente


Como drives de estado sólido (SSDs) tornam-se uma parte crítica de armazenamento de hoje, é cada vez mais importante para aprender sobre os supercapacitores que ajudam a prevenir a perda de dados.


A presença - e do tipo - de supercapacitores em SSDs deve ser tão importante uma consideração como escolher entre MLC, eMLC e SLC baseados em unidades.







Supercapacitores em SSDs garantir que todas as gravações enviadas para o cache DRAM na unidade são escritos com sucesso no caso de uma queda de energia.


Para entender sua importância, precisamos de um pouco de lição de história. Os comos e os porquês dessa discussão vai ficar bastante técnico, mas eu farei o meu melhor para mantê-lo compreensível.


Amortecedor contra latência


Todos os discos rígidos modernos, sejam eles da variedade magnética fiação tradicional ou moderno persuasão estado sólido, tem um buffer de DRAM para melhorar o desempenho. (O buffer de DRAM é geralmente chamado de cache de disco, embora este é um uso incorreto em todos, mas algumas configurações.)


A DRAM na maioria das unidades de hoje é um 64MB insignificante, mas o hábito de ler e escrever muito mais dados do que 64 MB de cada vez. O resultado é algo que parece contra-intuitivo se você assumir que as funções de buffer DRAM em um simples primeiro-in, arranjo de última fora. Isso não acontece.


Discos magnéticos tem que mover fisicamente a "cabeça" para posições diferentes para executar leituras e gravações. O tempo que demora para receber um comando do sistema operacional do computador, mova a cabeça, executar a leitura ou escrita, depois a bomba ou os dados ou uma confirmação de volta para o sistema operacional é conhecido como latência.


Latência é ruim. Idealmente, você quer o menor tempo possível para passar entre a execução de suas várias leituras e gravações. Se um disco rígido magnético eram simplesmente para executar os comandos na ordem em que foram recebidos há toda a probabilidade de a cabeça voando por todo o lugar em um padrão muito aquém do ideal.


Resolver este problema é o ponto do buffer DRAM em uma unidade magnética tradicional: os comandos são executados fora do buffer na ordem em que mais reduz a latência.


Para discos magnéticos esta foi uma bênção e uma maldição. Para obter os melhores resultados com este pedaço de DRAM artifícios de buffer você precisa amortecer tanto lê e escreve. Se, entretanto, você usar DRAM do disco para o buffer e escreve o poder sai, essas gravações são perdidos.


Quando a energia é cortada DRAM perde todos os dados armazenados nele. Os arquivos são prestados corruptos e administradores de sistemas são chamados ao gabinete do chefe de cabelos pontudos com a porta fechada.


Os "três Rs": ler, escrever, RAID


Para evitar a perda de dados devido a falha de energia, a primeira opção é uma configuração de energia de backup realmente chutar a bunda.


Verifique se o seu servidor tem uma fonte de alimentação redundante com cada módulo de alimentação conectado a uma fonte de alimentação ininterrupta separado (UPS). Certifique-se de não UPS é carregado além ~ 40 por cento, para garantir que, se alguma coisa desagradável acontece à sua configuração de energia, um dos lados da UPS pode lidar com a carga completa.


Carregue o software UPS em seus servidores e configurá-los para desligar quando o no-break detecta uma queda de energia. Verifique se a UPS é grande o suficiente para se manter para o período completo exigido para encerrar todos os seus servidores. Ore para qualquer divindade que você acredita em repetidamente. Teste com freqüência.


A segunda opção é o backup de bateria em uma placa RAID. Aqui você desativar o cache em seus discos rígidos físicos e usar DRAM da placa RAID tanto como escrever e ler de buffer cache.


O cartão de RAID pode ser equipado com uma unidade de backup de bateria de modo que se houver falta de energia eo computador apaga as gravações são realizadas em DRAM até que o computador está de volta. O cartão de RAID, então, lavar as gravações nos discos.


Como você poderia esperar, desligando os buffers de DRAM em seus discos magnéticos leva a uma queda de desempenho enorme nesses discos. Os buffers de DRAM não pode ser definido como somente leitura: eles são ou eles estão fora. Você faz suas escolhas e você leva suas chances.


Que eu saiba, só LSI cartões 3ware fornecer uma solução para este dilema na forma de um recurso de gravação Jornal proprietário. Esta seção fora uma porção de DRAM da placa RAID para espelhar os buffers de DRAM nos discos individuais. Se o poder sai, então as gravações pendentes ainda estão armazenados na DRAM suporte de bateria da placa RAID.


Olha, sem centrifugação


Agora que você entende como isso tudo funciona, vamos olhar para SSDs. Em um SSD não há cabeça que se move através de um prato giratório para ler e gravar informações. Os impulsos elétricos são enviados para fichas constituídos por camadas múltiplas de circuitos integrados que respondem de várias maneiras, resultando em um ou "ler", "escrever" ou operação de "apagar".


Também ao contrário de discos magnéticos, SSDs ler e escrever em páginas, mas deve apagar em blocos, e cada gravação deve ser precedida de um apagamento. O tamanho de ambos os blocos de páginas e varia de acordo com o fabricante e do produto.


Vamos dizer que o tamanho da página é 4KiB e seu tamanho do bloco é 512KiB. Para ler um único bit do SSD seria necessário para ler uma página inteira 4KiB. Ele simplesmente não seria capaz de operar em incrementos menores. Mas, para escrever um único bit, um quarteirão inteiro 512KiB teria que ser apagada e todas as 128 páginas 4KiB reescrito.


O melhor dos melhores pen drives, os SLC, tem uma resistência típica de 100.000 gravações. Isso significa que você pode apagar um bloco e, em seguida, escrever algo para suas páginas cerca de 100.000 vezes antes que você nunca pode escrever para esse bloco novamente.



A idéia de apagar um bloco inteiro apenas para escrever um bit de dados é uma loucura absoluta



MLC é uma ordem de grandeza menos capaz, com o material consumidor de grau sendo tipicamente capaz de 10.000 gravações. eMLC (curto para a empresa MLC) pode ter 30.000 escreve para o exterior, embora 20.000 é mais comum.


Dados os limites de gravação de SSDs, a idéia de apagar um bloco inteiro apenas para escrever um bit de dados é uma loucura total. Tem que haver uma maneira melhor - e não há.


Em certo sentido, o uso de buffers de DRAM em SSDs não é tão diferente de seu uso em discos magnéticos. O buffer de DRAM em um SSD não é apenas um primeiro-in, first-out camada de armazenamento mais rápido entre o computador e as células NAND no SSD. O buffer de DRAM é como fabricantes de estender a vida útil de SSDs.


Gênio Matemática


SSDs são maravilhas da matemática. Cada um tem algoritmos proprietários que descobrir não só como tirar os dados sentado no buffer DRAM e escrevê-lo de forma mais eficiente para os blocos de flash, mas consolidar blocos de baixa densidade populacional em várias gravações, a fim de preventivamente blocos inteiros up gratuito para o futuro usar.


SSDs são também over-provisionado: um 960GB SSD normalmente contém 1,024GB de flash, com os blocos extras servem para ajudar a vestir nível da unidade. Quanto mais blocos você pode escrever para ao longo do tempo, a menos que você está apagando e reescrevendo todo o bloco individual e quanto mais tempo a vida útil da unidade.


Claro, buffers de DRAM em SSDs sofrem o mesmo problema que aqueles em discos magnéticos: cortar a energia e os dados no buffer está desaparecido. E escreve pendentes não são escritas, por isso é de volta para o escritório do chefe de cabelos pontudos para você.


Há também a possibilidade de que as consequências do fracasso são ainda piores com SSDs do que com disco giratório. Quanto maior o buffer de DRAM no SSD, os mais eficientes os algoritmos de extensão de vida são e, portanto, o buffer DRAM em SSDs tende a ser muito maior.


Você pode esquecer o truque do cartão RAID de desabilitar o buffer DRAM e contando com DRAM da placa RAID com suporte de bateria. Experimente e você vai aniquilar escrita a vida de seu SSD em pouco tempo.


Felizmente, SSD «consumo de energia mais baixo combinado com a latência de escrita significativamente mais baixa significa que não é uma solução simples e barata para o problema.


Se um trabalho vale a pena fazer ...


Supercapacitores são como baterias, mas o mais incrível. Dependendo de vários fatores, que possam desempenhar mais energia em um tempo menor do que as baterias. Eles também podem sobreviver mais ciclos de carga / descarga do que qualquer bateria.


Supercapacitores não pode armazenar quase tanta energia quanto uma bateria, e encadeando supercapacitores suficientes para chegar a níveis de bateria-como é bastante caro.


Isso é perfeitamente aceitável para SSDs, no entanto, como eles não precisam estar no por muito tempo para despejar o conteúdo de seu cache DRAM em flash. Normalmente, eles precisam manter-se por menos de um segundo.


Como você poderia esperar, o conselho oficial do registo é bastante clara: não, em hipótese alguma, usar SSDs que não estão equipados com supercapacitores para cargas de trabalho importantes.


SSDs equipado supercapacitor estão disponíveis a partir de quase todos os fabricantes de SSD lá fora, então não há absolutamente nenhuma desculpa para não usá-los. Se você tem SSDs não supercapacitor em serviço hoje, pense um pouco muito sério para substituí-los.


Wet contra seca


Nem todos os supercapacitores são iguais. Supercapacitores podem repartir-se em duas categorias principais: "úmido" e "seco".


Supercapacitores Wet desgastam com o tempo, um problema agravado por altas tensões de operação e / ou altas temperaturas. Não é inédito para SSDs da empresa moderna - especialmente com todos que a matemática inteligentes - para acabar em uma posição em que o flash vida gravação célula excede o tempo de vida dos supercapacitores destinadas a proteger a unidade.


A faixa de temperatura de trabalho estreito para supercapacitores molhadas significa que a prática comum da indústria de solda reflow linear não vai funcionar. Solda sem chumbo reflow linear tem picos de temperatura de 200 ° C.


Isso é muito longe do "até 70 ° C" a temperatura de operação de supercapacitores molhadas para esses componentes para resistir, mesmo que por um breve período de montagem.


Isso significa que os supercapacitores molhadas são soldados para SSDs com a mão, o que eleva o preço. Supercapacitores secos - ou pelo menos alguns deles - evitar muitos desses problemas. Eles são tipicamente anunciados como contendo ou tântalo ou de óxido de nióbio. Supercapacitores molhadas são geralmente baseados em alumínio.


Supercapacitores Wet baseados em grafeno e nanotubos de carbono promessa de mudar isso tudo de novo, mas também não estão disponíveis no volume.


Estude a química


"Classic" condensadores de tântalo utilizar o dióxido de manganês sólido (MnO2) como contra-eletrodo. Estes supercapacitores demonstraram excelente confiabilidade graças ao seu comportamento inerente de auto-cura.


Infelizmente, o mesmo voodoo químico que permite que os supercapacitores Ta-Mn para curar também leva a um pequeno problema com algumas pequenas explodindo em várias circunstâncias.


Para o disco, a parte de explosão é devido ao MnO2 ser utilizado como cátodo, a não utilização de tântalo.


Vendo como ter o seu $ 7500 PCI-E SSD explodir ao tentar salvar seus dados críticos durante uma queda de energia não seria o melhor resultado possível, o setor tem grande parte desistiu de tentar construir um circuito de limitação de corrente em suas supercapacitores e voltou-se para -polímero de tântalo (Ta-Poly) e óxido de nióbio.


Supercapacitores Ta-Poly também exibem os traços de auto-cura da variedade Ta-Mn, mas não fazê-lo tão facilmente. O resultado é um supercapacitores com mais corrente de fuga (embora esta está a ser trabalhado) e temperaturas de operação um pouco mais baixas (85 ° C contra 105 ° C).


Os custos são praticamente os mesmos para os dois tipos de condensadores de tântalo, como Ta-Mn requer mais extenso circuito de proteção de Ta-Poly, mas normalmente você vai precisar de um pouco mais de supercapacitores Ta-Poly para fazer o trabalho de Ta-Mn.


Óxido de nióbio tende a ser mais confiável do que Ta-Mn, lutando com o conjunto de rápida evolução de supercapacitores Ta-Poly como o sucessor de supercapacitores tântalo baseados em MnO2 clássicos.


No papel, óxido de nióbio é melhor do que Ta-Mn e Ta-Poly em quase todos os sentidos. Em 2013 houve uma explosão de hype sobre supercapacitores óxido de nióbio como o primeiro que pode realmente ser capaz de acabar com as baterias para aparelhos diárias e gadgets. Ainda estamos um pouco longe disso, mas eles estão começando a aparecer em SSDs.


O material de gravação


O ultra-conservadora a maioria dos gerentes de armazenamento não vai tocar discos com supercapacitores de óxido de nióbio, pela simples razão de que eles não têm sido no mercado há tempo suficiente para ter experimentado todos os casos limite.


Para aquelas pessoas há uma abundância de outras opções para você escolher. Para o resto de nós, no entanto, qualquer supercapacitor em nossas SSDs é melhor do que nenhum.


O nióbio é melhor do que o tântalo eo tântalo é melhor do que qualquer outra coisa. Faça o que fizer, não executar cargas de trabalho de produção, sem ter tempo para pensar sobre o que acontece se o poder sai.


Será que suas gravações a salvo? Por quanto tempo? Com o magnetismo e uma placa RAID suas gravações viver tanto tempo quanto backup de bateria do seu cartão de RAID. (Não se esqueça de testar e substituir regularmente.)


Com SSDs lastreados em supercapacitores, suas gravações são escritos imediatamente e seguro até que o flash nos degrada SSD. ®



terça-feira, 23 de setembro de 2014

HP está dando FREE * armazenamento para clientes de servidores de sorte


Escolhendo uma nuvem de hospedagem parceiro com confiança


HP está dando uma licença de software SAN um terabyte para todos os Xeon E5 comprador servidor baseado v3, quer comprar servidores Dell, HP, IBM ou Lenovo.


O software é o StoreVirtual VSA (Virtual Storage Appliance), a antiga tecnologia de software LeftHand SAN iSCSI. Acontece próprio armazenamento de conexão direta do servidor a fim, um recurso de armazenamento de bloquear o acesso de rede. HP diz StoreVirtual VSA suporta todos os servidores baseados em x86, bem como plataformas de armazenamento externo conectado à hypervisor; ele pode escalar para dezenas de nós e 1.6PB de capacidade.







HP estima que vai distribuir mais de 72PB da capacidade desta forma; que é 72 mil licenças, se os nossos matemática oxidados é certo.


Os clientes podem fazer o download do software e licença de 1TB de um site da HP ( hp.com/go/unlockVSA ). HP afirma: "Qualquer cliente que compra um servidor baseado em v3 E5 processador Intel Xeon" será capaz de fazer isso.


Próprios servidores da HP HP ProLiant Gen9 automatiza a implantação VSA como parte da configuração do servidor, tornando-o fácil de usar StoreVirtual. Gen 8 servidores ProLiant tem uma licença StoreVirtual livre mas a HP vai mais longe desta vez em torno do bloco geracional ProLiant.


David Scott, vice-presidente sênior de armazenamento e GM na HP, disse: "O custo de armazenamento compartilhado ainda é um obstáculo a virtualização de servidor comum para pequenas e médias empresas e sites de escritórios remotos da empresa. Ao oferecer sem custo software VSA com servidores de processadores Intel Xeon E5-base v3, HP e Intel estão fazendo SDS disponíveis para o mundo de graça, dando aos clientes acesso a hipervisor agnóstico, serviços de dados ricos independentes de hardware, preservando escolha e redução de custos . "


Se eles precisam de mais capacidade de espaço, os clientes podem comprar software StoreVirtual VSA em licenças tamanho 4TB, 10TB e 50TB. Eles também podem usar SAS interconexão D3000 recinto próprio 12Gbit / s da HP disco como o armazenamento do servidor de conexão direta.


Como os clientes vão ouvir sobre a oferta StoreVirtual?


Craig Nunes, vice-presidente de marketing mundial para armazenamento HP, disse: "Há duas maneiras de clientes vai ouvir falar desta promoção - por meio de marketing digital e social em conjunto com a Intel, e por meio do canal de revenda do servidor."


HP e Intel se uniram para estender seus esforços de marketing que promovem o armazenamento definidas por software e os novos servidores. HP estima que, com a Intel, "estamos dobrando nossa cobertura marketing digital". Nunes acredita que a aderência parceiro de canal "é um poderoso para todos os envolvidos. Para o revendedor servidor, combinando a promoção StoreVirtual VSA com (qualquer) servidores baseados em v3 Xeon E5 é uma grande oportunidade upsell de servidores da geração anterior, assim como puxando através da capacidade do disco / flash adicional. "


"O fato de que a promoção está disponível para qualquer servidor de nova geração que vendem expande a oportunidade ainda mais. Para o cliente, comprar o mais recente servidor baseado v3 Xeon E5 com v 'built-in' de armazenamento de classe empresarial para a virtualização pode realmente custar-lhes menos do que comprar o servidor de última geração eo hardware de armazenamento compartilhado normalmente exigidos para a virtualização. "


A HP também está oferecendo uma versão gratuita de 60 dias do software StoreOnce VSA fornecendo 10 TB de, backup baseado em software independente de hardware e deduplicação que suporta VMware e Microsoft Hyper-V hypervisors. É para download no ato da inscrição no hp.com/go/tryVSA .


Como os clientes não sejam da HP começa a ouvir sobre esta oferta StoreVirtual livre? Dell, IBM, Lenovo e, presumimos, a Cisco não quero dizer-lhes? Fique atento. ®


* Você tem que pagar para escalar, é claro ...



O objetivo do jogo: NetApp StorageGRID 'Amazônia torna real'


Escolhendo uma nuvem de hospedagem parceiro com confiança


NetApp anunciou uma nova versão de seu software de armazenamento de objetos, StorageGRID Webscale, e ampliou seu público híbrido: casa de banho privativa com "Amazônia-nalizar" com a adição de uma interface com o armazenamento de arquivos online S3 serviço web da AWS.


Tecnologia de codificação apagamento Geo-distribuído está chegando.







Visualizações da NetApp objeto de armazenamento, como um bom meio de armazenar grandes quantidades de dados não estruturados, que não precisam de serviços de gerenciamento de dados FAS-nível ONTAP, exigindo gerenciamento de dados seguro a um custo reduzido.


Era mais do que há quatro anos, em abril de 2010, que comprou NetApp empresa canadense Bycast juntamente com sua tecnologia StorageGrid - que forneceu o armazenamento baseado em objeto em arrays heterogêneos e fronteiras geográficas. Havia então, mais de 250 clientes StorageGRID, com a NetApp dizendo que o produto era bom para petabyte escala, distribuídos globalmente repositórios de imagens, vídeos e registros de empresas e prestadores de serviços.


O software é executado dentro de uma máquina virtual rodando em um servidor, obviamente, e lida com o processamento de metadados e orientada por políticas de trabalho, escrito e objetos de leitura para / a partir de recursos de armazenamento conectados.


Pensou-se StorageGRID seriam integrados a nave-mãe de armazenamento NetApp, as matrizes ONTAP, mas isso não aconteceu, como e não parece provável que aconteça. Essa separação foi solicitado, nós sentimos, pela aquisição março 2011 $ 480m Engenio que ganhou NetApp suas matrizes E-Series executando o SANtricity OS, voltado para os mercados de vídeo do tipo de vigilância e computação de alto desempenho. Isso significa acesso rápido e simples de dados com aplicativos muitas vezes a prestação dos serviços de gestão de dados.


A E-Series se tornou visto como uma matriz adequada para uso StorageGRID, mas com StorageGRID ainda disponível para trabalhar com arrays de armazenamento de terceiros.


Versão 9.0 do StorageGRID veio em agosto de 2012 com uma interface nuvem agregado, CDMI, a adesão à NFS, CIFS existente e RESTful API HTTP, juntamente com a capacidade de ser geminada com dezenas de petabytes - 35PB foram mencionados - em um único namespace cobrindo bilhões de arquivos em centenas de sites. Pode enviar dados de objeto para a fita.


Agora, dois anos depois, temos a versão 10.0, com nova marca e uma interface Amazon S3 acrescentou. NetApp diz StorageGRID pode conter 100 bilhões de objetos em um único espaço plano de endereço, ou recipiente, que podem ser distribuídos em centros de dados ao redor do mundo.


Podemos prever o armazenamento de objetos em dois níveis: um arquivo privado no local, e uma loja fora do estabelecimento comercial na nuvem pública para os dados de menor valor que necessitam de armazenamento de custo mais baixo. Este é um único repositório de dados de auto-cura que não precisa de uma instalação de recuperação de desastres em separado.


A meta de casos de uso são para on-premise e armazenamento em nuvem pública de:



  • Arquivos de dados que armazenam objetos maiores com períodos de retenção de cargas longas, baixa latência de transação e acesso tolerante

  • Repositórios de mídia com acesso a dados de streaming para distribuídos globalmente grandes lojas de objetos e grandes taxas de transferência

  • -Armazenamentos de dados Web com milhares de milhões de pequenos objetos e altas taxas de transação


NetApp diz a colocação de dados é decidida "de acordo com custo, compliance, disponibilidade e requisitos de desempenho", e esta é orientada por políticas. Existe um mecanismo de política inteligente que "determina a durabilidade ea localização física dos dados para atender aos requisitos de negócios". As políticas são personalizáveis ​​e "help set proteção de dados e camadas de armazenamento para ajustar facilmente a mudança dos modelos de custos".


As políticas são definidas pela disponibilidade de recursos e latência, requisitos de retenção de dados, requisitos de geo-localização e custo da rede. NetApp diz políticas são automaticamente reavaliados e os objetos serão levados para o cumprimento.


Integridade e disponibilidade de dados características incluem:



  • Hash ou impressão digital criado na ingestão de dados

  • Níveis de proteção de integridade, incluindo hashes, checksums e autenticações

  • Verificação de integridade do objeto de dados é executado em ingerir, recuperação, migração e replicação em repouso

  • Objetos suspeitos regenerado automaticamente

  • Arquitetura tolerante a falhas oferece suporte a operações sem interrupções, upgrades e atualizações de infra-estrutura

  • O balanceamento de carga distribui automaticamente as cargas de trabalho durante as operações normais e falhas

  • Característica AutoSupport pode alertar automaticamente suporte NetApp quando os problemas detectados

  • Codificação de nível Nó apagamento melhora a disponibilidade de um único nó, quando utilizado com Piscinas E-Series disco dinâmico


Versões posteriores StorageGRID são planejadas, com um início do próximo ano olhando distribuído geo-codificação apagamento e hierarquização nuvem para nos estabelecimentos comerciais e fora do estabelecimento comercial repositórios. Haverá um programa de early adopter para isso, com disponibilidade geral seguinte, mais tarde, em 2015.


NetApp está agora a ser mais enérgico em marketing e desenvolvimento de StorageGRID. Ele juntou-se o objeto de armazenamento Alliance e está apresentando StorageGRID como armazenamento definido por software, uma vez que não está vinculado a determinado hardware.


Riverbed tem um orçamento de apoio no lançamento da NetApp: "Nosso [SteelStore] tecnologia, juntamente com o novo software objeto de armazenamento de StorageGRID Webscale da NetApp, oferece aos nossos clientes as ferramentas necessárias para tirar proveito da nuvem."


SteelStore era anteriormente chamado Whitewater ea tecnologia é na arena de gateway de armazenamento em nuvem.


CommVault também está na área da prestação de-um-citação, dizendo: ". StorageGRID Webscale representa a próxima fase da estratégia de gerenciamento de dados habilitado para objeto da NetApp NetApp e CommVault permanecer empenhada em fornecer tecnologia e soluções que são rentáveis ​​e altamente escalável, e oferecer aos nossos clientes uma vantagem competitiva. "


StorageGRID Webscale é agora geralmente disponíveis através dos canais de distribuição e revenda da NetApp. ®



segunda-feira, 22 de setembro de 2014

Da EMC e HP $ 132bn fala BLOCKBUSTER fusão parar - Relatórios


O próximo passo na segurança dos dados


+ Comentário EMC vem mantendo segredo comercial estratégica de relacionamento conversações com HP e Dell, que, desde então, parado, de acordo com relatórios recentes.


As negociações, relatados por o Wall Street Journal e outros, diz-se que durou quase 12 meses.







Duas questões de fundo que pode ter incentivado essas negociações de fusão são a fevereiro 2015 a aposentadoria do CEO global Federação EMC e presidente Joe Tucci , eo assalto na EMC por investidor ativista Elliott Management, que aparentemente quer VMware vendida eo dinheiro devolvido aos acionistas.


As consultas EMC-HP aparentemente considerado uma fusão de iguais com uma transação de ações, com Meg Whitman como CEO da HP / EMC e Joe Tucci como presidente. Mas essas negociações terminaram sem resultado positivo, segundo relatos.


Chris diz


Podemos entender que a organização de armazenamento da HP podem não apreciar uma onda de produtos da EMC e as pessoas que vêm a bordo, como os produtos 3PAR competir diretamente com VNX da EMC e low-end matrizes VMAX. Além disso, os vários HP objeto, backup e produtos SAN virtuais todas as sobreposições rosto com produtos EMC equivalentes.


As discussões com a Dell se diz terem envolvido Dell compra de alguns ativos da EMC, bem como uma possível fusão. A última possibilidade foi pensado para ser menos provável, dada a disparidade de tamanho entre Dell e EMC. Há também o problema de separar o que produtos de armazenamento teria precedência com um conjunto de produtos que se sobrepõem fortemente, começando com Compellent e EqualLogic matrizes da Dell vai cabeça a cabeça com a linha EMC'sVNX.


EMC está sendo aconselhado pelo JP Morgan Chase nas negociações. Outros potenciais parceiros de fusão / aquisição pode ser Cisco e Oracle.


Para a Cisco, assimilando produtos de armazenamento da EMC seria fácil como o produto somente competindo é o seu Invicta conjunto all-flash, o que não tem agitado o mercado muito.


Do ponto de vista da Oracle, uma infusão de produtos de armazenamento EMC poderia olhar grande. Linha Pilar da Oracle de matrizes SAN desapareceria enquanto EMC caberia muito bem com a linha de armazenamento ZFS. Mas será que a Oracle quer assumir mais uma aquisição de hardware e começar a vender lotes de produtos bastante separado do sistema de hardware Oracle / software projetado convergiram / conceito melhor juntos?


Intuição do Urubu é que as coisas estão mexendo na selva e vamos ouvir mais sobre o futuro da EMC com as suas idéias sendo energizado pela participação e influência da Elliott Management. ®



SanDisk Extreme Pro SSD - cortejando Speed ​​Freaks e jogadores


Segurança para data centers virtualizados


Reveja típica. Apenas quando nós já superei o choque de uma unidade SSD sendo oferecido com uma garantia de 10 anos, ou seja, SSD850 PRO da Samsung (revisado recentemente) , quando outro aparece no bloco, desta vez da SanDisk.


SanDisk Extreme Pro SSD

SanDisk Extreme Pro SSD








Gostaria de saber se você perguntou ao homem na rua para nomear seus quatro principais fornecedores de SSD se muitos pensam da SanDisk, mas a empresa é líder global em memória flash - e um dos principais players no mercado de SSD. A empresa tem quatro faixas de unidade no espaço do consumidor só e ainda mais no espaço da empresa, onde tem sido uma grande força por anos.


Mais recente incursão da empresa no mercado de consumo é a nova série Pro Extrema top-of-the-range, visando o fim maior do segmento. Como você deve ter adivinhado a partir do nome, o Extreme Pro é o follow-up para a unidade de Extrema, mas ao contrário do habitual estado de coisas no jogo SSD ultimamente, esta faixa de unidade tem sido um longo tempo a chegar, como o extremo foi lançado todos de dois anos atrás. Três capacidades compõem a nova gama: 240GB, 480GB e 960GB.


SanDisk Extreme Pro SSD

Modelo de 480GB exposto - todas as fichas estão neste lado do tabuleiro



Ele vem como nenhuma surpresa ao descobrir que o NAND é SanDisk própria. No caso do modelo de 480GB em teste, há oito chips de 19nm 64GB de segunda geração cuidada por uma 88SS9187 controlador de 8 canais Marvell com firmware escrito por SanDisk. Todos os chips incluindo 512 de cache de 1600MHz DDR3 estão localizados de um lado da placa de circuito impresso.


SanDisk cita uma leitura seqüencial de até 550MB / s para todas as três unidades, enquanto as velocidades de gravação seqüencial são cotados em até 515MB / s para ambas as unidades de 480GB e 960GB, enquanto a unidade de 240GB é um pouquinho mais rápida de até 520 MB / s .


SanDisk Extreme Pro SSD ATTO benchmark results

Resultados de testes de benchmark ATTO



Testes com o ATTO referência mostram que a velocidade de leitura citado foi um pouco sobre o lado conservador como o resultado da revisão da unidade 480GB amostra saiu em 563MB / s, enquanto a figura de gravação foi bang sobre o dinheiro que a unidade produziu uma pontuação de 522MB / s - por isso é preciso dizer que é uma movimentação rápida.


O controlador Marvell não mostra preferência por tipo de dados que, quando testado com o benchmark CrystalDiskMark. Na sua configuração de dados descompactados padrão, a unidade produziu leitura sequencial / escrever dezenas de 516MB / s e 502MB / s e 4K de leitura / escreve de 31MB / s, e 85MB / s, respectivamente.


SanDisk Extreme Pro SSD CrystalDiskMark benchmark results

Resultados de benchmark CrystalDiskMark



Mudando para os dados compactados testar a leitura sequencial / escrever partituras permaneceu em torno do mesmo nível em 519MB / s e 501MB / s, respectivamente, com o desempenho 4K ficar onde estava bem.


SanDisk implementou a versão mais recente da tecnologia nCache da SanDisk no Extreme Pro. A nova tecnologia nCache Pro leva uma parte do MLC e usa-lo como mais rápido SLC NAND para gravações de cache de 4KB e menor em alta velocidade, melhorando assim o desempenho do pequeno bloco. Em seguida, consolida-os e libera-los para o MLC NAND.


SanDisk Extreme Pro AS SSD benchmark results

AS resultados de benchmark SSD



Um benefício adicional de ter este tampão SLC é que ele é mais rápido e mais durável do que o cache DRAM e pode proteger os dados se o sistema sofre de perda de poder, enquanto que se ele foi armazenado na DRAM que seria perdido em um evento como esse .


Surpreendentemente para uma unidade nessa faixa de preço não há TGC Opal 2.0 ou IEEE-1167 de criptografia ou qualquer suporte de criptografia para esse assunto. Pode ser um ponto discutível sobre se preocupar com essas coisas em uma unidade do consumidor, mas é importante notar que, mesmo de nível de entrada de Crucial MX100 traz suporte para tanto em uma unidade, que, no caso da 512GB MX100 está perto de uma centena de libras mais barato do que o Pro 480GB Extreme.


SanDisk Extreme Pro SSD

Impressionante, mas indo Pro tem um preço premium



O Veredicto Reg


SanDisk Extreme Pro pode ter sido um tempo em que vem, mas foi certamente vale a pena esperar, pois oferece uma grande mistura de performance com um extremamente longa duração e garantia. A desvantagem é a falta de qualquer forma de criptografia para manter seus dados seguros de erguer os olhos -. Algo que dois de seus principais concorrentes, Crucial e Samsung, têm construído em ®