sexta-feira, 27 de fevereiro de 2015

Novatas chamativos que enfrentam pressão IPO. Vamos logo com isso, em seguida,


Comentário A sabedoria convencional diz que VC-financiados tecnologia start-ups se adquiridos ou, com sorte, passar por um IPO para se tornar empresas independentes de sucesso. No entanto, tal não pode ser o destino dos cinco principais sobreviver matriz tudo-flash (AFA) fornecedores em face da reação fornecedor dominante rápido e furioso para o seu sucesso.


Passo para trás um momento e lembrar a última grande rodada de matriz de armazenamento interrupção start-up da 3PAR, Compellent, EqualLogic, Isilon, LeftHand, Nexsan, Storwize e outros.





Basicamente, os bons tem comprado, deixando Nexsan a tropeçar em, deixando de passar por um IPO e, eventualmente, serem adquiridas por Imation. Agora, com uma mudança de gestão, as coisas estão se movendo em:



  • Dell compra Compellent e EqualLogic

  • EMC compra Isilon

  • HP comprou 3PAR e LeftHand

  • IBM comprou Storwize


No entanto, o mesmo padrão não está acontecendo com todos os flash-matrizes, onde quatro fornecedores principais planejaram a sua própria tecnologia flash-array, com três comprando seu caminho e uma nova empresa fornecedora da matriz de armazenamento fazer o mesmo, deixando os restantes cinco startups AFA procura um pouco exposta.



  • Cisco comprou Whiptail e sua matriz Invicta, agora em estado de hibernação temporária

  • Dell all-brilhou seu Centro de Armazenamento (Compellent) matriz

  • EMC comprou XtremIO e DSSD e tem tudo-em flash matrizes VMAX.VNX

  • HDS all-brilhou seus painéis VSP e HUS com um módulo de HAF

  • HP all-brilhou sua variedade 3PAR com o 7450

  • IBM comprou TMS e assim ganhou a sua linha de produtos FlashSystem

  • NetApp all-brilharam suas matrizes E-Series e da FAS e está construindo sua própria tecnologia FlashRay

  • WD comprou Skyera pelo que a sua sub HGST poderia entrar no mercado


Isso deixa Kaminario, Data Nimbus, Armazenamento Pure, SolidFire, Syneto e Violin Memory como um grupo distinto de FA fornecedores todos tentando para a glória através da substituição de matrizes de discos com os seus sistemas de flash.


Syneto tem um centro da Europa e pode fazer bem lá. Isso deixa cinco pequenos fornecedores enfrentam sete fornecedores tradicionais muito maiores, além de HGST.


Agora não há fornecedor matriz de armazenamento convencional faltando uma matriz all-flash, o que significa que não tem necessidade de comprar um. Isso torna improvável aquisição como uma estratégia de saída viável para os fornecedores autônomos. One, Violino, tem IPOed já e os outros quatro têm de IPO com sucesso para que seus apoiadores podem obter seu dinheiro fora.


Quais são as suas chances?


Kaminario - com pensamos $ 123m em financiamento, $ 68 milhões, dos quais foi criado no ano passado - está expandindo seu canal de vendas. Os participantes da última rodada de financiamento deve ter sido convencido o suficiente com a sua situação de crescimento e as perspectivas de ter tossido $ 68m.


Dados Nimbus, sem financiamento VC, tem sido tranquila recentemente; o último comunicado de imprensa foi há oito meses.


Armazenamento Pure tem financiamento maciço, até a quantia de 470 milhões de dólares, e está recrutando vendas EMC tiros quentes de forma agressiva .


SolidFire, com US $ 150 milhões de financiamento, acaba de anunciar uma atualização do produto, desagregados seu software para hyperscalers e anunciou uma garantia desgaste de flash praticamente ilimitado. Ele diz que suas receitas estão crescendo 50 por cento quarteto a trimestre.


Violin Memory, já público, tem gestão atualizados e uma gama de produtos atualizados . Suas receitas estão rodando em US $ 18m- $ 25 mA trimestre. EMC diz XtremIO tem uma taxa de execução US $ 1,2 bilhão, o que significa $ 300mA trimestre. Aqui reside o problema.


Can Kaminario, Nimbus de dados, armazenamento e Pure SolidFire tudo IPO com sucesso?


Praticamente todos os principais fornecedores de storage array estão encontrando demanda em sua base para todas as matrizes de flash. Pelo menos quatro dos autônomos AFA fornecedores dizem que estão vendendo muito bem. Então o que acontece quando a grande transição matriz de disco desempenho atual matriz-to-flash se aproxima da conclusão?


Quanto tempo é que isto tem a correr? Quando isso cauda fora, será que algum dos independentes, então, ser capaz de suportar a força do canal dos principais fornecedores e sua capacidade de integrar seus AFA com as suas outras ofertas?


Adicionar na matriz de disco de substituição / competição atualização paralela a partir de híbridos matriz start-ups Nimble, Tegile e Tintri - que todos estão crescendo fortemente - ea entrada de aparecimento de um outro fornecedor de armazenamento US no mercado AFA ea conclusão parece inevitável.


Há muitos AFA fornecedores. A menos que os independentes conseguem obter e manter uma vantagem tecnológica sobre os fornecedores tradicionais que podem manter a sua base instalada de compra e contagem crescente de clientes, eles certamente vão ver as suas taxas de crescimento de receita seguindo fora como seu negócio entra maturidade muito mais cedo do que poderia ter feito dez anos atrás.


Porque tradicionais de matriz fornecedores reagiram a AFA start-ups tão rápido e tão bem, o futuro para os independentes restantes parece, assim, com menos brilho.


Alguns diriam que tinham melhor esperança de IPO rapidamente, dizer antes de 2017/2018, ou então enfrentar suas estrelas brilhantemente crescimento cuspindo fora e tornando-se lembretes sombrios de que poderia ter sido, com bases de clientes devorados pelos principais sóis fornecedor matriz. (Não diga Coraid ninguém ...) ®



quinta-feira, 26 de fevereiro de 2015

Atualização errante borks Samsung 850 Pro SSDs


Voltando a mídia social contra a Samsung, um grupo no Facebook foi criada para obter a empresa coreana para corrigir uma atualização de firmware que borks a 850 Pro SSD.


Este SSD usa novo NAND 3D e tem uma garantia de 10 anos.





De acordo com o grupo no Facebook (requer log-in) :. "Há poucos dias Samsung publicou uma nova atualização de firmware para o seu carro-chefe de Estado Sólido Hard-drives, por meio de sua página na Internet e seu programa oficial Samsung Magician Depois de um reboot, a unidade é processado irreconhecível e impossível iniciar. "


Existem vários fóruns também relatam dificuldades de firmware com este drive:



Usuários descontentes criaram o grupo Facebook - intitulado "Top 5 maneiras de matar seu SSD" - para popularizar o assunto e exercer pressão da mídia social sobre Samsung para obter o seu firmware-fix ato até a velocidade.


O grupo tem 162 membros, que querem seus discos para se firmware corrigido, para que possam levá-los a trabalhar e recuperar o acesso aos seus dados agora ilegíveis.


Fórum de usuários Anandtech Pokeas relatado em 23 de Fevereiro:



Pensando caro da Samsung eu apertar o botão de atualização e logo exibida uma mensagem de erro dizendo que não poderia terminar a atualização. Quando eu quis reiniciar meu computador a unidade não foi capaz de inicializar, e é processado irreconhecível.


BIOS não pode mesmo mostrar o seu nome com letras de costume, e em vez disso usa várias linhas de estranhos símbolos e números.


Quando eu tentar arrancar com o disco do Windows, parece que a sua carga em uma superfície DOS-like, mas quando ele tenta arrancar para instalação do Windows UI apenas o cursor do mouse é tudo visível é preto e não acontece nada.



Facebook_Samsung re 850 Pro bug firmware

Facebook Samsung grupo bug 850 Pro firmware



Facebook membro do grupo Joh Liu postou isso no dia 24 de Fevereiro:



Acabei de desligar o telefone com um representante da Samsung, a atualização de FW de ontem que eu baixado através do Mago é na verdade algo que está causando problemas para um monte de clientes.


Foi-me dito que ele está enviando os relatórios e informações para sua divisão na Coréia, a fim de corrigir o problema (com nenhum calendário). No entanto, nesse meio tempo eles só podem RMA o SSD. Vezes triste.



RMAing a unidade significa que todos os seus dados são perdidos. Tanto para segurança de dados em unidades não-voláteis.


TweakHound relata Sammy tem puxado a atualização de firmware: "A Samsung tem puxado firmware EXM02B6Q para o 850 Pro SSD."


Usuário afetado Jayne Samuel Walker-nos disse que a Samsung foi informada da falha firmware em 19 de fevereiro, mas não retirou o firmware até 24 de fevereiro, ou seja, unidades de muitas, muitas outras dos usuários foram infectados com o problema.


Samsung já tem 840 questões desaceleração EVO SSD , bem como ter o seu Smart TVs se tornar mudo quando o acesso à Internet falhar.


Sammy nos enviou a seguinte declaração:



Viemos a saber que alguns SSD 850 produtos PRO não pôde ser detectado por seus PCs depois de receber atualizações automáticas com o firmware mais recente. Atualizações automáticas com o firmware já foram desativados para evitar mais problemas.


SSD 850 PROs apresentarem o problema pode ser trocado ou prestou apoio técnico através de nossos centros de atendimento ao cliente.


Lamentamos ter causado o inconveniente e continuará nosso compromisso em fornecer a melhor experiência de usuário para nossos clientes.



De alguma forma nós não acho que isso vai satisfazer os membros do grupo no Facebook. ®



Oh Big Blue, você não pode pensar em nada de novo para a sua linha de produtos?


Storagebod "Em caso de dúvida, recriar" ... tem IBM completamente sem idéias com suas ofertas de armazenamento? O Spectrum rebrand de suas ofertas de armazenamento se sente como o último lance de dados.


Na verdade, não é todos os seus ofertas de armazenamento que têm rebranded, mas parece ser apenas as ofertas de software.





DS8K, por exemplo, está em falta no line-up, mas talvez Spectrum Zombie - A matriz de armazenamento que não morrerá - foi um passo muito longe.


Temos, no entanto, tem Spectrum virtualizar. Este é um hardware que oferece atualmente sob a forma de SVC mas isso vai se transformar em uma oferta de software? Há pouca razão pela qual não deveria.


Há também produtos tais como o XIV hardware, a série Vxxxx e também o aparelho ESS GPFS que estão faltando na família Spectrum. Será que vamos ver IBM descontinuar esses produtos ao longo do tempo? Ela se sente como tique-taque do relógio.


O DS8K é, provavelmente, um produto seguro por causa do apoio de mainframe, embora os usuários de outros produtos da IBM vão estar nervoso.


Por que a IBM conseguiu completamente atrapalhar seu portfólio de armazenamento? Existem ainda lacunas enormes em que depois de todo esse tempo: o armazenamento de objetos, NAS escaláveis ​​e, de fato, um NAS cotidiano normal da sua própria.


Os produtos que ele tem são geralmente boas. Eu tenho sido um fã de SVC por um longo tempo, um defensor GPFS e um fanático TSM. Os produtos que realmente funcionam!


Eu sinto pena das pessoas que as desenvolvem; eles foram pra baixo de novo e de novo por seu marketing de produto. O problema não é os produtos.



Soz, HP. IBM tem out-mega-dealed você - analista de tecnologia


Tendo engolia uma série de megadeals no ano passado, a IBM deixou rival HP comer sua poeira no espaço de infra-estrutura, de acordo com um relatório do analista.


Em dezembro IBM anunciou um acordo de US $ 1 bilhão (R ​​$ 644m) com a companhia aérea alemã Lufthansa, uma vitória com comms globais empresa WPP por US $ 1,25 bilhão (R ​​$ 800 milhões), e disse que tinha marcado promoções reservadas pensado para ser de valor superior a R $ 500 milhões com a mídia org Thomson Reuters e banco holandês ABN AMRO.





O anúncio foi feito antes de cortes radicais de trabalho atualmente em curso na empresa.


Kate Hanaghan, analista da TechMarketView, disse UK Terceirização Estratégica biz da Big Blue tem feito um bom trabalho de ganhar as megadeals que foram chegando ao mercado para a renovação.


"Nós estimamos que está crescendo mais rápido do que o seu rival mais próximo na terceirização de infra-estrutura, a HP", disse ela.


HP ganhou um contrato de terceirização de 10 anos com o Deutsche Bank , anunciou esta semana, o que nos é dito é estimada para ser avaliado em cerca de US $ 3 bilhões. Foi um Trident de codinome contrato internamente, dizem HP.


Para o ano de 2015, estima Hanaghan operação da Big Blue terceirização Reino Unido vai crescer dois por cento. Ela disse que isso era um ritmo saudável para uma empresa do tamanho da IBM.


Mas ela disse que a pressão sobre os mercados centrais da IBM, combinados com o ritmo da mudança tecnológica está inibindo o progresso da empresa.


"Megadeals são naturalmente importantes contribuintes para a linha de cima, mas eles também são um importante veículo para a venda da SMAC (sociais, móveis, analytics e cloud) pilha", disse ela.


"A IBM precisa de mais tempo para a transição para uma carteira SMAC-pesado, e até que ele faz a pressão permanecerá na linha superior", disse ela.


As vendas totais para 2014 as vendas caíram seis por cento para US $ 92.8bn (R $ 60 bilhões), em comparação com o ano anterior. ®



Syneto: Eis que blockheads - uma matriz de todos os flash ... baseado em ZFS


Uma matriz de all-flash baseado no ZFS? Há uma coisa a notar neste mundo matriz tudo-flash focada no bloco. Syneto baseada na Europa desenvolveu o produto e ele atualizou sua, Extrema produto com foco no SMB-usando ZFS 220.


The Extreme 220 é um x 24 caixa de slot de hot-swap com 2U de 2 TB para 144 TB de SATA ou SAS SSDs. Isso significa 6TB SSDs são usados ​​para obter o máximo da capacidade. Há dois compartimentos adicionais para unidades de disco do sistema operacional.





Syneto diz a caixa, impulsionado por 2 x Xeon E5 processadores de 6 núcleos, oferece até 340.000 IOPS.


Dragos Chioran, chefe de marketing da Syneto, disse que o número de IOPS "é baseado em RAIDs de software. O número de IOPS em ataques de software é altamente dependente do número de grupos de disco (dispositivos virtuais) presentes em um conjunto de dados. Considerando que nossa VDI arquitecturas são sempre implementado em configurações de espelhos (análogo ao RAID 10), o número de IOPS fornecidos por um grupo de discos é igual a IOPS de um disco.


A série EXTREME tem 24 compartimentos de disco, permitindo um total de 12 grupos de discos. Usamos SSDs padrão da indústria de provedores diferentes, tanto SATA e SAS, variando de 20k para 36-40k gravação IOPS com blocos de 4K. "


Ele pode suportar 6.000 desktops virtuais com um preço a partir de € 20 / Desktop Virtual, ou seja, € 120.000. Chioran nos disse que o número VDI 6000 envolve uma taxa de compressão em linha a partir de 1,6x para 2,6x e usando clones vinculados. O número de VDIs usando desktops persistentes seria menor, dependendo da natureza do diretório home de cada VDI.


Acesso ao host é via 1ou 10 Gbit / E ou 8 Gbit / s FC. Protocolos de acesso suportados são NFS, CIFS (SMB), AFP, iSCSI e Fibre Channel.


O v3.0 Syneto Armazenamento OS apresenta deduplicação de in-line, usando criptografia fortes somas de verificação de 256 bits como SHA256, e compressão. Compressões algoritmos variam de uns aproveitamento de espaço, como GZIP9 para aqueles crescente desempenho como LZ4.


Syneto_Storage_OS

Syneto Armazenamento OS gráfico



Há thin provisioning, o sistema de arquivos ZFS, DTrace, e um hypervisor KVM integrado, que as reivindicações da empresa se transforma "o próprio kernel em um hypervisor". Máquinas virtuais locais podem rodar nele e ter clones instantâneas e snapshots executados usando tecnologia VxClone, sem qualquer sobrecarga de espaço.


O OS "pode ​​tirar instantâneos de memória consistentes de hospedada VMware VMs". Snapshots podem ser replicadas (apenas as diferenças de nível de bloqueio) para um segundo sistema.


Dois nós pode ser agrupado com um mecanismo ativo-ativo e balanceamento automático de pools de armazenamento entre os nós. Você pode obter um guia para o sistema operacional a partir de aqui (registro obrigatório.)


Como é que o Syneto AFA comparar com os de armazenamento Pure, Solidfire, etc? Chorine disse: "Nós não estamos no mesmo mercado que o Pure, Solidfire ou Violin que concentrar-se em muito grandes empresas e organizações A principal diferença é baseado na flexibilidade e custo É uma realidade muito simples que as PMEs precisam de soluções que são adaptados para.. suas necessidades e ter um preço mais baixo. SMBs atualmente representam 80 por cento do número total de empresas europeias ".


Syneto também fornece matrizes da série arca para backup e arquivamento com até 936TB de capacidade, e matrizes híbridas flash-disco ULTRA que utilizam DRAM cache. Syneto diz que "a tecnologia FlexPool espalha dados sobre RAM, SSDs e discos giratórios, e permite que 75-90 por cento dos dados lê / escreve a ser executada diretamente de DRAM com latências nanossegundos, mais rápido do que as latências milissegundo dadas por SSDs encontrados em outros sistemas híbridos . "


Tome esse NexGen, Nimble, Tegile e Tintri.


O sistema ULTRA também tem tecnologia VMBox ", que usa da matriz CPU, RAM e armazenamento para criar e hospedar até 22 máquinas virtuais locais, transformando qualquer matriz ULTRA em uma solução de armazenamento de hiper convergiram."


O ARK, EXTREME e sistemas de ultra executar o mesmo OS Storage. Syneto, que já vendeu mais de 3.000 matrizes, tem escritórios na Bélgica, Irlanda, Itália, Roménia e Suíça e você pode baixar um perfil da empresa (PDF) para investigar mais.


Como um teaser final, temos ouvido que Armazenamento Pure pode estar desenvolvendo um arquivador all-flash, com uma idéia de desenvolvimento skunkworks estar envolvido. Um porta-voz Pure nos disse: "Eu não tenho nenhum comentário a fazer sobre a sugestão de tal arquivador AFA." ®



quarta-feira, 25 de fevereiro de 2015

PernixData RAMs em ainda mais velocidade para FVP


PernixData , o clusterable cacher VMware IO, acrescentou compressão para seu cache RAM, ou seja, os dados mais eficazes na RAM e mais cache com o seu software FVP.


V2.5 FVP distribuiu memória tolerante a falhas com algoritmos de compressão LZ4 (DFTM-Z). Esses algoritmos são rápidos e dados de cheques sem perdas e DFTM-Z para ver se ele deve ser aplicado; é adaptável.





A parte comprimida da RAM de um servidor host físico é limitado em tamanho de cerca de 25 por cento do total.


A capacidade total de RAM pode ter um aumento de quatro vezes eficaz com DFTM-Z, de acordo com PernixData, acelerando assim a capacidade de um host para o serviço de sua VMs mais rápido, e para abrigar mais deles, talvez.


Ele afirma que "a compressão é adaptativa com base em características de tráfego, dinâmico e transparente para a carga de trabalho. Isso garante compressão sobrecarga impactos nunca negativamente o desempenho VM. "


O software também disponibiliza perfis inteligentes IO. FVP v2.5, de acordo com a lengalenga marketing ", detecta dinamicamente em tempo real que as cargas de trabalho são adequados para a aceleração do lado do servidor e que não são (por exemplo, grande seqüencial lê e escreve). Neste último ambiente, lê e escreve são automaticamente enviadas diretamente para o armazenamento compartilhado, ignorando media servidor local ".


Isso evita de flash servidor host e de recursos RAM piscinas de FVP sendo usado com dados não-digna de cache.


Controles de acesso baseado em função (RBAC) também foram adicionados ao FVP com níveis de acesso para "none", "read-only" e "leitura e gravação". Este recurso se adapte ambientes multi-inquilino que podem ter diferentes níveis de usuários.


Os recursos inteligentes IO perfis e RBAC já estão disponíveis com todas as edições do FVP v2.5 (Standard, Enterprise Subscription, VDI e Essentials plus). DFTM-Z está disponível agora na versão 2.5 da FVP, mas não na edição Essentials Plus. ®



NetApp mostra o amor híbrido, reformula produtos para nuvem da Amazon


NetApp está aproximando-se ainda mais para a Amazônia em busca de suas idéias tecido dados de nuvem híbrida.


O que ele está fazendo é o seguinte:



  • Adicionando três produtos de backup em nuvem nativo SteelStore como Amazon Machine Images (AMI) para cargas de trabalho baseadas em nuvem de backup, tendo em EMC'S recém-adquirida app empresa nuvem Spanning.

  • No local SteelStore aparelhos físicas para backup para a nuvem complementar o AMIs in-cloud.

  • StorageGRID Webscale 10.1, produto de armazenamento objeto da NetApp, recebe Amazon S3 como um nível de armazenamento na nuvem.

  • Atualizando OnCommand Nuvem Manager, software OnCommand introspecção e subscrição de software Nuvem ONTAP.



    • OnCommand introspecção 7.1 oferece gerenciamento de recursos de armazenamento (SRM) para ambientes híbridos, para que os clientes podem monitorar SLAs através de monitoramento de desempenho, gestão de capacidade, identificando oportunidades de recuperação e conscientização sobre os custos de TI.

    • Os clientes podem usar o software Gerenciador de Cloud e subscrição de software Nuvem ONTAP para gerenciar a replicação de dados para a nuvem com uma única aplicação.

    • Implantação de Nuvem ONTAP assinatura de software e OnCommand Nuvem Manager é simplificada e serviço NetApp e de registro de suporte automatizado.




Essas atualizações SteelStore e StorageGRID WebScale fazer S3 e Amazon Glacier destinos dados para os clientes da NetApp. SteelStore foi comprado do Riverbed recentemente.


NetApp diz "assinatura software Nuvem ONTAP, uma instância de armazenamento líder do mercado OS running da NetApp como a assinatura do software na AWS Marketplace, oferece uma opção de baixo custo para rebentamento nuvem e recuperação de desastres."





Terry Wise, AWS mundial VP ecossistema de parceiros, foi bastante satisfeito em sua citação em conserva, e por que não: "Estas soluções de armazenamento de próxima geração são o resultado de uma profunda colaboração entre AWS e NetApp e caminho dar aos clientes uma solução flexível, rentável e fácil para migrar os recursos on-premise para AWS. "


NetApp coloca essas três anúncios no contexto de seu conceito DataFabric , com Data ONTAP fornecendo um único acesso de dados e infra-estrutura de gerenciamento ou camada de abstração através de implantações de TI no local nuvem e nuvem pública, estando convencido de que tal modelo de nuvem híbrida é o inevitável e melhor resultado dos atuais tendências de TI. ®



Há mais de uma maneira de fazer backup de seus dados


No mundo da protecção de dados que você não se demitido por perder dinheiro, você ser demitido por perda de dados.


As empresas tendem a fazer muitas cópias de dados, alguns dos quais penduram ao redor, como zumbis, há anos. Proteção de dados é, sem dúvida, extremamente importante e precisamos entender como ele evoluiu, se quisermos decidir quais métodos de escolher para qual cenário.





Os quatro principais métodos de proteção de dados em uso hoje são:



  • Backups tradicionais

  • Réplica

  • Proteção contínua de dados

  • Snapshots


Cada categoria pode desfocar um pouco para o lado, como as empresas a implementar esses conceitos de diferentes maneiras. Isto faz para encantadoras debates sobre qual a terminologia deve ser usado onde.


Empresas de backup brigar sobre quem implementa o que e quem é melhor em fazê-lo. Alguns escolher um ou dois métodos de proteção de dados como a sua coisa e, em seguida, passar a eternidade slagging fora os outros métodos.


Outros falam de como seu produto é flexível - e as interfaces entretanto crescer cada vez mais complexo, facilidade de uso é deixado à beira do caminho e implementação de protecção de dados torna-se cada vez mais tedioso.


O medo do fracasso


Antes de mergulhar em diferentes categorias, devemos entender que a protecção de dados é um termo genérico que engloba a proteção de diferentes eventos.


O evento mais básico é falha de hardware (a falha no disco, uma falha no servidor, uma falha de switch ou o que você quiser). Aqui nós iremos encontrar soluções, tais como RAID (amarração de vários discos juntos para proteger contra falhas de disco) e chuva (amarração de vários servidores em conjunto para proteger contra a falha de um único servidor).


Eu geralmente não consideram RAID, chuva ou MPIO (múltiplos switches) para fazer parte de protecção de dados. Há um argumento a ser feito para a sua inclusão, mas eu prefiro chamá-lo de "projetar sua infra-estrutura usando mais células cerebrais do que o tamanho".


Para ser franco, se você perder uma quantidade crítica de dados até mesmo como um pequeno ou médio porte (SMB) com apenas um servidor, porque um único disco (ou mesmo o servidor) morreu, você não deve ser projetar a infraestrutura.


Isso deixa os elementos de preocupação que mais comumente caem sob a proteção de dados prazo.


Não há proteção contra desastres (falha de todo um centro de dados). Não há proteção contra Oopsie McFumblefingers ("oh não, eu não quis excluir que") e não há proteção contra a corrupção.


Defina os seus termos


Aqui é o lugar onde devemos sacar o objetivo de ponto de recuperação odiado (RPO) e do objetivo de tempo de recuperação (RTO).


RPO é o termo da indústria para "a quantidade de dados que você pode dar ao luxo de perder"? A resposta para isso é diferente para cada aplicação e depende inteiramente de quem você perguntar.


Um SMB, por exemplo, pode ser muito bem se tudo o que tem a fazer é reverter para o backup da noite anterior do banco de dados financeiros. As cópias impressas de todas as transações dos clientes são impressos e arquivados e você sempre pode fazer algumas sequaz infelizes re-inserir os dados manualmente.


É claro que, se o seu edifício sobe em chamas você não pode re-introduzir os dados daquele dia. Dependendo de sua jurisdição, o Fisco pode ter algumas coisas a dizer sobre isso.


Época do ano pode importar uma grande quantidade também. Produção, vendas, marketing e PR pode não se importar se você perder um dia inteiro de pedidos de clientes no período de calmaria janeiro. Um punhado de clientes são afetados, as pessoas de vendas chamá-los, acalmar alguns ânimos - hey, dá-lhes uma razão para ser empregado para esse mês, não?


Mas em época de pico essas mesmas pessoas seriam convocando-se os vírus geneticamente modificadas de sofrimento extra, se você deixar a pena de um dia de pedidos de clientes ir Walkabout. A mesma empresa que tem um punhado de ordens durante a entressafra poderia estar lidando com dezenas ou centenas de milhares de pessoas por dia em seu pico.


RTO é a rapidez com que você precisa de seus backups restaurado. Novamente, isso depende do que os dados é, quem você perguntar e que época do ano é.


Se o seu RTO é frakking agora (RFN) e você está lidando com a protecção de dados por streaming terabytes através de uma conexão ADSL deixem de ser classificados como de banda larga em os EUA, você deve pensar seriamente em como você vai implementar restaurações.


Chupando vários terabytes através de uma rede local é um dissipador de tempo. Sugando-o para baixo através de uma conexão ADSL de pequenas empresas é hilário num choro incontrolável tipo de caminho. Nuvem em nuvem começa a fazer muito sentido agora.


Os antigos caminhos


Métodos tradicionais de backup são bastante simples. Um robô acorda em um determinado momento e realiza um backup. A primitiva - mas difícil de parafuso - forma o robô faz isso é para aspirar tudo o que é suposto fazer backup e enviar este cópia completa para onde quer que você armazenar seus arquivos.


Isso pode parecer um desperdício, mas tem o seu propósito. Vamos dizer que a sua aplicação e banco de dados financeiros são um colossal dois ou três shows, e que seu aplicativo financeiro pode ser definido como "uma pausa para backups" todas as noites. Você pausar o banco de dados, copiar todos os arquivos off em uma pasta cujo nome é baseado na data e você un-pausar o banco de dados.


Isso pode ser feito com um arquivo de lote e as tarefas do Windows agendadas. Nenhum software de backup necessário.


Se você está enviando os dados para uma fonte de backup que tem a desduplicação, você não precisa nem se preocupar em ter eleventy cópias squillion de tudo, e restauração em caso de uma falha é simples.


A versão um pouco mais avançado dá uma olhada em todos os seus arquivos, descobre se alguma coisa mudou e, em seguida, copia apenas as coisas que têm. Normalmente restaurar o backup requer que você tenha acesso ao software de backup e um índice que está intacto e incorrupto. (Para o registro, o índice é sempre borked.)


Backups tradicionais são point-in-time cópias de dados. Eles são ótimos para a protecção contra Oopsie McFumblefingers, medíocre a proteger contra a corrupção e por conta própria sem valor a proteger contra os desastres.


Backups tradicionais são enormes. Algumas empresas tentam estabelecer um procedimento que tarefas a humanos com fitas e discos rotativos e, em seguida, tomar um fora do local todos os dias. Isso inevitavelmente falhar, como os seres humanos são propensos ao esquecimento, e que, geralmente, não apenas quando você precisar dele não.


Então todo mundo tenta backups de streaming através da internet em algum lugar. Hoje em dia, este é tipicamente enviado para um prestador de backup nuvem. Mesmo com todas as várias tecnologias jogado com eles para esmagar backups para um tamanho transmissível, ficando uma cópia deles offsite dentro da janela de backup diário é um desafio permanente.


Para empresas menores, geralmente, significa obter uma conexão DSL dedicado apenas para backups (e toda a diversão de rede que implica). Para as grandes empresas isso significa bifurcação sobre cada vez mais dinheiro para o monopólio de banda local e tentar explicar para os contadores de feijão por quê.


Visão dupla


Introduza a replicação. Na sua forma mais básica, esta é uma tecnologia utilizada para proteger contra a falha de um servidor. Servidor A replica sua carga de trabalho para o servidor B. Quando o servidor A não suporta o funcionamento normal, o servidor B assume o comando, utilizando a sua cópia dos dados.


Isso é muito bom e correto quando os servidores A e B estão lado a lado e você pode seqüência um fio entre eles para ir tão rápido quanto as placas de rede que você pode pagar.


Se o seu software de replicação é decente este tipo de replicação local pode ser ótimo para detectar a corrupção silenciosa de dados e repará-lo na hora, mas ele não ajudá-lo em tudo em lidar com Oopsie McFumblefingers ou com desastres.


Replicação, no entanto, pode ser ótimo para recuperação de desastres. Se a quantidade de dados que você está escrevendo cada minuto é dimensionado de forma adequada com a largura de banda de internet que você tem disponível, então você normalmente pode colocar o servidor A e B do servidor em diferentes locais.



Isso faz com que "oh não apoiamos essa versão mais nenhum" desculpas de fornecedores de backup muito menos de um problema



Você tem que ter cuidado com a largura de banda, mas há um monte de opções lá fora, que combinam a desduplicação, compressão e outras tecnologias para garantir que você ainda pode espremer carga de trabalho de uma SMB através de uma conexão ADSL e ter um RPO de cerca de 15 minutos.


Isso é um pedaço de um passo a partir do RPOs de oito horas a um dia nós costumamos ver com backups tradicionais.


RTO são melhores com a replicação também. Você geralmente pode simplesmente acender a cópia no servidor B e estar on-line em segundos, ou na pior das hipóteses minutos. Recuperação de dados em backups tradicionais pode levar de alguns minutos a semanas se mal planejada.


Mas a replicação não lida com Oopsie McFumblefingers. Se você está replicando tudo de forma síncrona, em seguida, todas as mudanças são enviados a partir de um sistema para outro, incluindo exclusões acidentais.


Você está completamente dependente do software usado para fazer a replicação de ir, mas isso é cada vez mais construído diretamente no funcionamento de sistemas, hypervisors e aplicações. Isso faz com que "oh não apoiamos essa versão mais nenhum" desculpas de fornecedores de backup em seu momento de necessidade muito menos de um problema.


Total recall


Proteção contínua de dados (CDP) é um pouco como a replicação em esteróides. Na verdade, existem mais abordagens para ele do que há empresas que vendem produtos CDP. Algumas empresas oferecem tecnologia CDP-like sob diferentes apelidos e alguns oferecem vários meios de realizar CDP.


CDP córregos todas as alterações nos dados do servidor A para servidor B, da mesma forma que a replicação. A principal diferença é que o CDP nunca descarta nada. Toda mudança que você já fez (pelo menos de volta ao número N de alterações ou X prazo) é mantido.


Isso significa que o RPO é geralmente uma questão de escolher um ponto no tempo que você deseja restaurar. A RTO pode variar muito, dependendo da implementação e se você tem ou não a capacidade de simplesmente acender a carga de trabalho remotamente ou foram apenas fazer backup dos dados.


Quase todo mundo que leu até aqui tem CDP baseado em arquivo em execução em seus sistemas na forma de Dropbox ou um de seus clones. Toda vez que você faz uma alteração em um arquivo no armazenamento em nuvem, uma cópia é mantida no provedor. Você pode fazer login no site do provedor de armazenamento em nuvem e restaurar arquivos que vão para trás várias versões.


Em outros casos, o CDP está fazendo cópias em nível de bloco de alterações de uma forma que se assemelha mais a replicação tradicional, mas a gravação de todas as mudanças. Muitas soluções de escolher um equilíbrio - que oferece replicação, mas "snapshotting" muda a cada tantos segundos ou minutos para oferecer um fluxo contínuo de mudanças point-in-time, sem a necessidade de registro de write-by-gravação de mudanças.


CDP pode ser a melhor solução. Ele também pode ser um monstro com tentáculos horrível, rede de espera para o seu momento de fraqueza antes predando a sua sanidade mental frágil de roaming de dados do mundo.


Realmente depende da implementação, como CDP não é o tipo de coisa que é construído em muitos sistemas operacionais, hypervisors ou aplicações. Aqui você está à mercê de seu fornecedor de backup. Escolha sabiamente.


Tirar uma foto


Snapshots são a corrente mágica gatinho unicórnio da indústria de armazenamento. Aparentemente tudo, desde sistemas operacionais para hypervisors para arrays de armazenamento apoia-los, e bem feito você pode conhecer os centros de investigação apertados e RTO apertados. O problema reside no "bem feito".


Se você estiver usando um provedor de hiper-convergente que é especializada em eficiência de dados, você recebe um passe livre aqui. Suas máquinas virtuais são armazenados nos mesmos servidores que correm sobre e tudo está deduplicados, comprimido e-provisionado fina.


Snapshots ter praticamente nenhum momento a todos para implementar e eles são exatamente o tamanho dos dados que tem sido escrito desde a última vez que um instantâneo foi tirado. Quer tirar um instantâneo de suas cargas de trabalho a cada dois minutos? Okey dokey, não há problema.


Se você tem uma configuração Hyper-convergente com um cluster estendido - quando um ou mais nós estão localizados em um local físico separado, ligado por metro de rede de área (MAN) -class links de rede - então você pode definir as coisas de modo que a cópia replicada de sua carga de trabalho é mantido em outro site e você tem esses instantâneos doces point-in-time para lidar com Oopsie Mcfumblefingers. Viva!


É claro, a conectividade de classe MAN é um sonho (literalmente) para a maioria das empresas, e que antes de entrar em conversas sobre o custo de um segundo local, ou o custo de racks em um colo.


E depois há os vários desastres que podem tirar metros inteiras (como o furacão Sandy), então você realmente deve enviar pelo menos alguns desses instantâneos para servidores em algum local distante.


Agora, os fornecedores de matriz gostaria que você saiba que eles fazem replicação e snapshotting e CDP e tudo isso também - os fornecedores hiper-convergiram arrogantes Dang não são o princípio eo fim de tudo de armazenagem, jovem whippersnapper - e se você tivesse a bondade de colocar uma de suas matrizes em cada um dos seus sites, eles vão tirar fotos e enviá-las ao redor do mundo também.


É claro que alguns provedores de nuvem oferecem a capacidade de iluminar software de um fornecedor da matriz em sua nuvem, e muitos um fornecedor de hiper convergiram tem algo similar. Então agora podemos enviar instantâneos para a nuvem, compatíveis com a nossa disponibilidade de largura de banda. A vida parece ser bom.


Infelizmente, enquanto instantâneos são grandes para lidar com Oopsie Mcfumblefingers e pode proteger contra o desastre, eles não são tão bons em pegar em corrupção de dados em silêncio, a não ser que o fornecedor tem feito um esforço especial.


Eficiência é tudo


Fora do projetado especificamente setups hiper-convergente com foco na eficiência de dados, a abordagem snapshots-todo-o-time se esforça para fornecer o nível de serviço que CDP pode oferecer.


CDP também pode operar em diferentes níveis: no nível da aplicação, de arquivos individuais ou de toda a máquina virtual. Instantâneos quase sempre operam ao nível da máquina virtual (ou o LUN no caso de matrizes).


Isso nos traz de volta à questão da eficiência sobre backups tradicionais. Como grande parte dos dados que você estiver fazendo backup que você realmente precisa?


Snapshots e replicação tanto fazer backup de um monte de gravações que você simplesmente não se preocupam. CDP software pode ser mais afinado - à custa de serem significativamente mais complexo.


Eficiência de dados torna-se crítica. A desduplicação e compressão são uma obrigação, e gateways de nuvem são conceitos cada vez mais importantes. Algo que pode manter uma cópia do que bloqueia ter existido na qual site pode realmente ajudar a reduzir a quantidade de dados que precisa ser transmitida.


Depois de ter tudo isso funcionou - e supondo que você não correr gritando para as colinas ou desenvolveu um RTO / RPO contração que é mensurável por sua equipe sísmica local - você tem a divertida tarefa de determinar para onde enviar a segunda cópia do seus dados.


Você pode legalmente armazená-lo com os provedores de nuvem americanos? Qual o nível de criptografia que você deve usar?


E se você está escolhendo um método de proteção de dados que requer software de um fornecedor de protecção de dados, você tem que instalar um agente em cada servidor ou máquina virtual para fazer o trabalho?


Todas as questões importantes, mas queridos, caro leitor, que iremos discutir em uma data posterior. ®



Big Data = grande perda para Hortonworks Hadoop-defletor


Se o futuro do big data é Hadoop, as futilidades que ainda temos um longo caminho pela frente a eles.


Recém resultados inaugurais IPO'd Hortonworks 'mostram uma empresa cujas perdas estão crescendo como seu negócio se expande.





Além disso, não é assinaturas de implementação Hortonworks 'do Hadoop de código aberto que estão crescendo mais - é serviços profissionais.


Isso se traduz como Hadoop permanecendo complicado de instalar e usar para aqueles clientes que está finalmente pronto para fazer o salto e começar a trituração de big data.


Isso é uma verdade inconveniente para uma firma de tecnologia tentando se tornar o próximo Red Hat ou Salesforce - vivendo de software open source financiado pela aceleração e assinaturas contínuas.


Hortonworks reportou um prejuízo líquido de US $ 90 milhões (R $ 58 milhões), e receita total que cresceu 55 por cento para US $ 12.7m (8m £) por três meses, até 31 de Dezembro.


Para o trimestre, Hortonworks viu rendimento quase igual de serviços de apoio e profissionais - $ 6.4m (R $ 4,1 milhões) e US $ 6.3m (4 milhões de libras).


Mas era de serviços profissionais que mais cresceram - até 117 por cento em comparação com 21 por cento de apoio.


Com base no desempenho passado, é de serviços profissionais que parece estar crescendo mais no futuro.


Para o ano, o prejuízo líquido Hortonworks 'aterrou em US $ 177.3m (R $ 114 milhões), acima dos US $ 63.2m (41m £), sobre a receita total que quase dobrou para o ano - até 91 por cento para US $ 46 milhões (30 milhões de libras).


Mais uma vez, os serviços profissionais desarmados apoio - até 137 por cento, para $ 20.5m (R $ 13,2M) em comparação com 65 por cento para R $ 25.5m (R $ 16,7 milhões).


Vendas e marketing e pesquisa e desenvolvimento foram separadamente duas maiores custos Hortonworks '.


A empresa previu receita vai aumentar 70 por cento no primeiro trimestre e 63 por cento para o ano inteiro.


Hortonworks - que flutuavam em dezembro aquém do seu valor antecipado - alegou ter 332 assinantes em apoio, adicionando 99 no quarto trimestre.


Rival Cloudera na semana passada afirmou receita total de US $ 100 milhões (R $ 64.5m) e 525 empresas assinaturas clientes para seu ano fiscal de 2015 anos.


Cloudera não é público, de modo que seus números não são verificados e são apresentados de forma seletiva.


O que os resultados parecem demonstrar é que usuários pagantes Hadoop são relativamente pequenos em número e eles estão pagando mais para obter ajuda e mão-holding de uso.


As empresas provavelmente irão argumentar o último virá uma vez o obstáculo do formulário foi superado e os clientes em questão estão ligados.


Se assim for, sugere um grande e - para hopers Hadoop - peso upfront inicial caro. ®



Caixas New Dell reverberar com Blue Thunder


Dell revelou uma série de novos aparelhos de XC-hiper convergiram, rodando em software Nutanix e contendo servidores PowerEdge 13G.


Os aparelhos convergem funções de computação, armazenamento e rede e são a segunda onda de tais máquinas, após o anúncio da Dell de um acordo de OEM com Nutanix em junho de 2014.





Eles fazem parte da estratégia da Dell definido por software de armazenamento - de codinome Blue Thunder - que também incorpora elementos da VMware, Microsoft, Nexenta, Red Hat (Ceph) e Hadoop.


Dell diz um dos XCS tem um tamanho de rack de apenas 1U. Para a faixa como um todo, "em vez de as configurações previamente fixados, a nova flexibilidade permite que os clientes a comprar aparelhos com vários tipos de unidade e tamanhos, processadores e opções de memória que se encaixam os seus próprios casos de uso específicos, como a nuvem privada, VDI e grande cargas de trabalho de dados ".


Dell_XC730_bezel_detail_650

Dell XC730 detalhe luneta



Temos tabulados alguns pormenores relativos às margens existentes e novos;


Dell_XC_Appliance_range

Dell XC detalhes de eletrodomésticos



Existem basicamente três modelos com uma CPU aumentado substancialmente, SSD e HDD lista de opções. A capacidade máxima do aparelho aumentou de 20TB de 32TB, com as duas opções de disco de 2,5 polegadas e 3,5 polegadas disponíveis, otimizando a capacidade ou contagem de fuso.


Nutanix - desde que o SW aparelho está OEM'd - não está anunciando novos modelos em si.


Dell diz que o preço para o XC730xd, o follow-on directo à XC720xd, é praticamente o mesmo. Para isso, o comprador recebe o mesmo suporte de 3 anos, juntamente com uma maior performance, mais opções e configurações flexíveis.


Os usuários podem entrar em aparelhos XC Series / Nutanix com o menor preço de lista de partida até à data, em cerca de 38,000 dólares dos EUA com 3 anos de Dell ProSupport.


Os produtos estarão disponíveis nas Américas e regiões EMEA em 3 de março ®



Armazenamento de XenData Jurassic Park: backup em fita PC está de volta


De volta aos velhos tempos, aqueles escuros e distantes antes do milênio, antes dos anos 90 mesmo, você poderia fazer backup de seu PC para unidades de fita externas. Foi uma mistura pesadelo de software estranho e velocidades de transferência lentas ... e, em seguida, discos externos veio para nos resgatar.


Agora XenData está trazendo de backup em fita PC de volta, com acionamento LTO6 conexão USB e acesso a dados LTFS.





Sua X2500-USB é uma LTO-6 sistema de arquivamento externo formato da unidade para uso pessoal com uma ligação USB 3.0 (até 140MB / s) para PCs e notebooks.


Software XenData6 Workstation é usado com arquivo de ficheiros e restaurar as operações feitas por familiares cópia Windows Explorer e colar ou operações de arrastar e soltar.


Ele calcula e insere um valor de verificação de redundância cíclica (CRC), no final de cada bloco lógico de dados a serem gravados para LTO com leitura após a gravação da cabeça da unidade verificando isso para evitar corrupção de dados.


A unidade é colocado com um cartucho de 2,5 TB LTO-6 ou 1.5TB formato LTO-5 um. Os arquivos são gravados em fita usando LTFS ou o formato TAR, com o cartucho de fita formatado de forma adequada.


A unidade fica a menos de 2,4 polegadas (60 mm) de espessura. XenData diz que seu produto é bom ou o armazenamento de arquivos de vídeo, áudio e imagem.


Sua SW gere um número efetivamente ilimitado de cartuchos LTO, mantendo o controle de todo o conteúdo do cartucho de fita acessado através da unidade; proporcionando um catálogo para que os usuários pesquisem em outras palavras.


Veja o X2500-USB em Londres na BVE 2015 a 27 de Fevereiro no estande P35. O X2500-USB tem um preço de 5.495 dólares, e os embarques de produtos início em Março de 2015.


Isso é um monte de dinheiro em comparação com uma unidade de disco externa e você precisaria de centenas de cartuchos e / ou a necessidade de armazenamento off-sistema para que possa valer a pena. A melhor comparação seria com unidades de disco removíveis, como da esfera 3D RDX . ®



Armazenamento de verificação da realidade modernização


Manter-se atualizado com a evolução das demandas de armazenamento é difícil. Isto veio através fortemente em uma recente pesquisa Reg .


Aqueles que tomam parte nos disse que a pressão sobre a infra-estrutura de armazenamento não era apenas para baixo para aumentar os volumes de dados. Novos requisitos de aplicação, o impacto da virtualização, e crescentes expectativas de negócios para o acesso e disponibilidade estavam entre os outros fatores chamados para fora. Como resultado, muitos falaram sobre problemas com hardware, software e os custos de manutenção, juntamente com o aumento da sobrecarga e desafios, mantendo os níveis de serviço de gestão.





O estudo também nos disse, no entanto, que aqueles que tinham investido significativamente na combinação certa de tecnologias modernas, como sistemas baseados em flash, virtualização de armazenamento, e várias formas de automação e dimensionar soluções (para complementar as soluções existentes) julgou-se ser numa posição muito melhor para a maioria. Eles foram atender às demandas de negócios atuais e requisitos de nível de serviço de forma mais eficaz, e sentiu-se mais confiante em relação ao futuro. Se você pudesse articular esses benefícios bem o suficiente, fazendo com que a causa dos investimentos em modernização de armazenamento deve, pelo menos em teoria, ser relativamente simples.


A realidade, naturalmente, é muitas vezes bastante diferente. Metade dos participantes na pesquisa, disse um de seus problemas era que os executivos seniores não apreciam a necessidade de investir, e um número semelhante aludido orçamentos não manter-se com o crescimento da demanda (Figura 1).



Figura 1 - Orçamento e desafios comerciais



O terceiro fator no gráfico acima é o problema da fragmentação do orçamento. Se a sua organização tem uma herança de amarrando-o passar para departamentos ou centros de custo dentro da empresa, então este será familiar para você. Não é um problema quando os sistemas próprios são, em grande parte arquitetado como silos, mas um bloqueador sério quando você está olhando para gastar dinheiro em infra-estrutura compartilhada para atuar como um recurso corporativo.


Quando se trata de armazenamento, os orçamentos em silos são particularmente significativos porque a maioria nos dizem que pool de recursos é uma parte importante da criação de um ambiente mais eficiente, flexível e ágil. E com mais de análise sobre os gastos com TI hoje em dia, é cada vez mais difícil de conseguir com a velha tática de esconder o investimento em infraestrutura compartilhada dentro de um projeto bastante grande e esperando que o proprietário orçamento não notar.


Mas não é só o lado do dinheiro das coisas que fica no caminho da modernização de armazenamento. Os participantes da pesquisa destacar um monte de preocupações mais práticas e desafios que compõem as equipes de armazenamento-se cautelosos em fazer alguma coisa muito aventureiro (Figura 2).



Figura 2 - inibidores práticos de progresso



Não há como fugir do fato de que os problemas que vemos aqui listados são reais, e nenhum deles precisa explicar para as pessoas com as cicatrizes de batalha de migrações de armazenamento anteriores. A este respeito, os profissionais de armazenamento são muitas vezes mais paranóico do que a média profissional de TI, porque eles têm se acostumou a ser um dado adquirido ao longo dos anos, enquanto a gestão dos recursos críticos de negócios. Se você é neste jogo, as chances são de que ninguém nunca felicita-lo para manter as coisas funcionando sem problemas, apesar das restrições orçamentárias, mas você começa rebocado sobre as brasas quando uma migração ou atualização faz com que uma interrupção do serviço, ou uma falha de armazenamento traz uma aplicação tecla para baixo. E não vamos nem pensar em incidentes que envolvam perda ou corrupção de dados.


A dura realidade é, porém, que ficar parado não é realmente uma opção a longo prazo, e quanto mais você confiar apenas em tecnologias tradicionais e os processos manuais que freqüentemente vão com eles, quanto mais você está apenas acumulando problemas para o futuro . Equipes de armazenamento que são incapazes de apoiar os seus colegas que executam as infra-estruturas fortemente virtualizados ou implementação de aplicações de estilo novo também será cada vez mais marginalizados. Opções alternativas, tais como armazenamento em nuvem e aparelhos de armazenagem de auto-gestão vai insinuar-se na organização de uma forma independente e descoordenada, o que não vai ser bom para você ou o negócio.


A boa notícia é que ele não precisa ser extremamente doloroso, e você geralmente não tem que arriscar uma abordagem big bang. Em linha com o velho clichê, modernização de armazenamento é uma jornada, não um destino, e introduzindo novas ideias e opções sobre um caso a caso, à medida que surgem novas exigências é possível e sensata. Muitas vezes você pode até mesmo deixar seus dados onde ele está e implementar tecnologias de sobreposição, como a virtualização de armazenamento e soluções de armazenamento de software definido que potencialmente pode sentar em cima de infra-estrutura existente. No entanto, ainda é fundamental para validar reivindicações de suporte de hardware heterogêneo de marketing antes de tomar decisões.


A principal mensagem da pesquisa é não levar a falta de interesse de gestão e os desafios orçamentais como uma desculpa para ir com seu conservadorismo natural e não tomar nenhuma ação. Luta, se necessário, para obter modernização de armazenamento na agenda, e fazer as coisas boas acontecem, como alguns já estão fazendo. Talvez esperando para ir de zero a status de herói é um pouco de um estiramento na maioria das organizações, mas pelo menos você pode fazer a sua parte para se certificar de sua infra-estrutura de armazenamento permite mudar ao invés de segurá-lo de volta.


Nesse meio tempo, você pode pegar o seu resumo da pesquisa aqui .



terça-feira, 24 de fevereiro de 2015

FlashRay bang, wallop: figurões da NetApp jogar cadeiras musicais


El Reg tomou conhecimento de que a liderança da NetApp de seu projeto conjunto todo-flash FlashRay está mudando: o chefe de engenharia original já não está envolvido, eo veep para armazenamento flash está ausente.


NetApp veterano engenharia e SVP Brian 'beepy' Pawlowski fundou a FlashRay e Mars OS esforço como uma startup interna dentro NetApp. Ty McConney é, ou era, VP da NetApp para armazenamento flash.





Questionado sobre o que está acontecendo, NetApp porta-voz Alex Kingston disse:


Ty McConney está em uma licença de ausência e assumirá um novo papel, quando ele retorna. Brian também está tomando uma pausa bem merecida depois de construir um talentoso organização 200+ pessoa e inovou nos métodos de desenvolvimento. Ele vai voltar para Operações de Produtos em um novo papel no próximo mês.

Para manter nossa dinâmica do mercado em flash, híbrido, tudo-flash FAS e FlashRay foram reunidas em um recém-criado Desempenho Products Group, liderado por Dave Mason, vice-presidente sênior.



Perfil do LinkedIn de Pawlowski revela sua paixão por FlashRay: "Estou totalmente engajados no projeto o mais quente de toda a minha carreira: FlashRay Nós enviamos o nosso primeiro lançamento em setembro 2014 - ea inovação só continua vindo!.


"Sua arquitetura de vanguarda é fundada sobre as capacidades de escalabilidade e eficiência ricos para desencadear o desempenho de matrizes tudo em flash, baixando o custo da solução para acelerar uma grande variedade de aplicações. Ele combina baixa latência consistente, alta disponibilidade e protecção de dados integrado com a indústria líder eficiência de armazenamento. "


FlashRAy_positioning_5a0

EF500, FAS e posicionamento FlashRay



Há um vídeo de Pawlowski falando mais sobre FlashRay:


Youtube Video


FlashRay até agora foi entregue apenas em forma de controlador único, tornando-o inadequado para a implantação da empresa em geral, e com alguns serviços de dados ou promessas sobre ter um desempenho líder. EF560-powered SANtricity da NetApp com os seus principais SPC-1 $ / IOPS número parece ser o jogo desempenho matriz flash, com todo-flash sistemas FAS ONTAP sendo a nave-mãe.


Em outubro, McConney ligada futuro da FlashRay para Flash TLC .


Dave Mason é SVP para sistemas FAS e descreveu-se no ano passado como "o líder da equipe de engenharia da NetApp FAS." Estas alterações podem também aparecer como FlashRay sendo engolido pela nave mãe ONTAP antes que ele se tornou um, de alto desempenho, dual-controlador de matriz tudo-flash viável, como inicialmente previsto.


Mason não parecem ter a responsabilidade do desenvolvimento de engenharia da série EF500 de matrizes tudo flashes em sua organização.


Entendemos que alguma tecnologia FlashRay está sendo usado no EF560 e em todo-flash ONTAP. El Reg pensa que há uma possibilidade de que a tecnologia FlashRay acabará por ser totalmente incorporada numa ONTAP FAS e deixar de ser uma iniciativa produto independente. ®



O esforço da NetApp para alimentar grande besta de dados através de NFS não faz sentido


Parecer Acabei de terminar de ler alguns poucos artigos sobre NetApp no Register e Val Bercovici no blog da NetApp e eu tenho uma pergunta. NFS para Hadoop? Realmente?


Na opinião deste correspondente, ele simplesmente não faz sentido.





Sim, você poderia encontrar casos de canto - você sempre pode encontrar um caso de canto para algo que você ama - mas, neste caso, isso é tudo que você pode encontrar.


E eu não estou falando sobre a ingestão de dados aqui.


O armazenamento de dados (BIG) no armazenamento primário


Um dos benefícios do HDFS é que é um sistema de arquivos distribuído e tem todos os mecanismos de disponibilidade, de replicação e proteção embutidos que você precisa para armazenar grandes quantidades de dados de forma segura e, acima de tudo, é muito barato.


Na verdade, você pode construir a sua camada de armazenamento baseado em HDFS simplesmente adicionando discos em nós do cluster, e todas as ferramentas de gestão são integrados. No final do dia, é apenas um sistema de arquivos que você consegue de graça com qualquer distribuição Hadoop.


Apesar de todos os seus defeitos, HDFS é otimizado para fazer esse trabalho, é "local" para o cluster, ele é projetado para mover grandes blocos de dados e que não precisa de uma atenção especial geralmente necessária para o armazenamento primário. O custo total de aquisição e custo total de propriedade de HDFS é muito baixa.


O armazenamento primário pode ser facilmente posicionado no lado oposto:



  • Ele definitivamente tem grandes problemas na gestão de análise de dados e cargas de trabalho empresariais tradicionais, ao mesmo tempo (especialmente se eles precisam para alavancar os mesmos recursos. A qualidade do serviço ainda é uma opção para a maioria dos fornecedores de armazenamento).

  • Ele também apresenta enormes custos de gestão quando se trata de backup e replicação remota, custos que se tornam insustentável se o seu ambiente de escalas para além de algumas centenas de terabytes


Val Bercovici, em seu artigo, fala sobre um caso de uso hipotético com HDFS no papel de um cache (ou um sistema de arquivos primário) e NetApp como um repositório secundário.


Desta forma HDFS surge no topo comparação com o que normalmente é vendido como armazenamento primário, e por que você iria usar um armazenamento primário para uma tarefa de armazenamento secundário?


Não me interpretem mal. Eu concordo totalmente com a parte de camada de cache, eu tenho falado sobre isso há meses, mas acho que o armazenamento secundário tem de ser o mais lento, mais automatizado, parte escalável e mais barata deste tipo de design. E é aí que a NetApp não se encaixar, não é?


Analisar (grandes) de dados em lugar


Analisar (grande) de dados é algo que eu realmente gosto, mas fazer isso em NFS e NetApp FAS é muito caro.


Na minha opinião, existem muitos limites e restrições que significam NFS e NetApp FAS não é a solução ideal, sem mencionar o custo mais elevado do NetApp FAS comparação com as alternativas mais adequadas para este caso de uso especial - pelo menos no meu ponto de vista.


Na verdade, se você olhar para o que está acontecendo ao redor, das empresas estão se acumulando dados. Goste ou não, eles estão começando a construir lagos de dados. Sistema ONTAP Arquivo (WAFL) e volume de dados limites, em termos de número de objeto e capacidade, são apenas os primeiros exemplos. Pelo que me lembro o limite de um volume de tamanho ainda é de cerca de 100 TB).


Sim, você pode configurar um sistema NetApp em alta capacidade (e com grandes volumes), mas então você pode não obter o desempenho - e você não terá nenhuma das vantagens normalmente encontrados em sistemas baseados em objetos.


Vários fornecedores de armazenamento de objetos estão trabalhando em capacidades semelhantes, propondo uma interface HDFS no topo de suas plataformas. Trabalhando com a mesma interface de sistema de arquivos (interna e externamente ao cluster) é muito melhor em qualquer nível. E, voltando para o primeiro caso de uso apresentado no blog do Val, ele também permite uma utilização contínua do sistema de armazenamento de objetos para as cópias secundárias de dados.



segunda-feira, 23 de fevereiro de 2015

EMC aprende lição de precisão após ViPR goof morte


Um blogue EMC dizendo serviços ViPR objeto e dados HDFS ter removido a partir ViPR 2.2 foi errado, e foi corrigido em uma versão atualizada do blog fonte.


EMC porta-voz Kevin Kempskie nos disse: "Nós temos que assumir a culpa sobre as imprecisões A. blogue que você lê na EMC.com - que já foi atualizado - fez uma declaração cobertor que é completamente impreciso. "





A verdade da questão é:



  • ViPR Serviços de Dados (Object e HDFS) estão totalmente disponíveis hoje para a EMC e matrizes 3rd party

  • Eles não foram EOL'd

  • ECS suporta tanto um aparelho e uma versão somente software que fornece objeto e HDFS em cima de hardware commodity


Declaração da EMC sobre o blog gafe foi o seguinte:


A próxima versão do VIPR Data Services, Elastic Cloud Storage (ECS) software, e ECS Appliance não exigirá ViPR Controladoria; EMC é separar a funcionalidade do Gerenciador de Elemento da gestão global e de automação que é fornecido pelo ViPR Controlador para esses componentes.

Portanto, a partir da versão 2.2, ViPR controlador só suporta automação de armazenamento no EMC e matrizes de ficheiros e blocos não-EMC.


Não ViPR Controlador 2.2 não suporta componentes VIPR Data Services (Object e Serviços HDFS) em matrizes de arquivos, de commodities, ou ECS Appliance.


Na próxima versão do ViPR Controller, EMC irá adicionar os plug-ins para ViPR Data Services, software ECS, e ECS Appliance para que eles possam ser gerenciados como qualquer outra matriz que ViPR controlador gerencia.



Em uma nota esclarecendo EMC diz: "Data Services VIPR (objeto e HDFS) estão disponíveis hoje para a EMC e arquivos de terceiros matrizes Para usar VIPR Data Services em matrizes de arquivo, você deve estar executando ViPR Controlador versão 2.1.x, com um. Serviços de dados ViPR pacote. Futuras versões do ViPR Data Services, software ECS, e aparelho ECS vai incluir elemento e software de gerenciamento do sistema, eliminando assim a dependência de um separado, Controlador ViPR externo. " ®



Última rodada, gente: Dell 'n' amigos puxar carteiras como Nexenta prepara para IPO


Nexenta é claramente ansioso para ser cão topo do mundo do armazenamento definido pelo software. Depois de supostamente experimentando 100 cento de crescimento ano-a-ano per 2013-2014, Nexenta diz que está se preparando para um IPO nos próximos 18 meses mais ou menos - com canal e expansão geográfica e um financiamento última rodada que vem.


Nexenta diz que atingiu o nível de 6.000 clientes e tem 1.000 parceiros de canal, quadruplicar o número que existia quando Tarkan Maner se tornou CEO há 14 meses.





Ele também diz que ganhou um contrato com um "fabricante de veículo global" sem nome para fornecer o arquivo de software e plataforma de armazenamento em bloco debaixo de seu repositório Hadoop para dados de carros conectados do auto-criador de todo o mundo.


Um conector NexentaStor-to-Hadoop está sendo desenvolvido e isso irá fornecer a base para um produto, que será anunciado ainda este ano. Que permitem, então, software de armazenamento Nexenta de ser aplicável em arquivo (NAS), bloco, objeto e ambientes HDFS.


Nexenta está falando a Micron, que desenvolveu um foco da empresa com uma equipe liderada por Darren Thomas. Micron pretende personalizar seus produtos componentes de flash para o que ele chama de "soluções corporativas" fornecedores e tem uma equipe interna de desenvolvimento de software para tornar seus produtos flash mais utilizável por estes prestadores.


Seagate e IBM, com a mais recente FlashSystem , ambos têm emergido como Micron colaboração parceiros neste esforço.


Pode-se facilmente imaginar uma camada de software Micron interface com software de Nexenta para lhe permitir usar Micron 2D, 3D e MLC / TLC NAND em - digamos - PCIe SSD e formar fatores e também, possivelmente, em forma de memória de armazenamento.


Nexenta também está conversando com SanDisk.


Maner está convencido OpenStack é real. De 6.000 clientes da Nexenta, ele diz 2.000 estão usando CloudStack ou OpenStack. Segundo Maner, os usuários CloudStack estão migrando para OpenStack.


Para um ponto de comparação, DataCore tem 10.000 clientes .


Os principais concorrentes da Nexenta são EMC e NetApp. Maner reconhece tanto DataCore e FalconStor como companheiros de armazenamento fornecedores apenas em software.


Em termos de contagem de clientes, DataCore está à frente de Nexenta. Se o impulso de Maner pode impulsionar Nexenta passado DataCore, que seria um crescimento significativo e certamente colocar Nexenta no último degrau da escada os fornecedores de armazenamento apenas em software '.


Todos os investidores anteriores, incluindo Dell, estão contribuindo para a rodada final do Nexenta. Gostaríamos de saber o que a avaliação vai ser. ®



Fibre Channel de olhar um pouco plana. Más notícias para estas três empresas


Comentário O trio Fibre Channel, Brocade, Emulex e QLogic, estão vendo declínio popularidade em seu armazenamento SAN empresas de redes e precisa encontrar o crescimento em outros lugares.


Como vimos com Emulex e QLogic resultados 's, Brocade encontrou o crescimento através de uma melhor eficiência de negócios, mas o mercado de base Fibre Channel é amplamente visto como um amadurecimento um com perspectivas de crescimento pouco ou nenhum.





Da Brocade primeiro trimestre fiscal 2015 rendeu-la $ 576m em receitas, mas era apenas dois por cento superior ao do trimestre anterior, e também o trimestre do ano anterior. Os lucros foram de US $ 87 milhões, na mesma área quanto $ 83 milhões do último trimestre e os US $ 81m trimestre do ano passado.


Há dois anos, as receitas foram de US $ 589m Brocade (FY2013 Q1). Suas receitas têm sido amplamente variam-bound entre US $ 540 milhões e US $ 590m por quatro anos e têm vindo a diminuir lentamente em uma base anual, a partir de fiscal de 2011, de US $ 2.24bn para FY 2014, de US $ 2,2 bilhões. O crescimento em seus negócios baseados em Ethernet não ter resgatado a situação.


Se olharmos para os resultados deste trio redes de armazenamento Fibre Channel, podemos ver um padrão flatlining sendo jogado para fora:


Fibre_CHannel_Trio_quarterly_results

As duas empresas HBA Emulex e QLogic, são menores do que da Brocade Fibre Channel e alternar e funcionamento à base de diretor, mas todos os três mostram, receitas achatada ou em declínio rangebound desde 2011. É devido, analistas acreditam que, com o acesso FC SAN agora a ser apenas uma maneira de acessar o armazenamento compartilhado, com SANs iSCSI tomar algum do pote, SANs virtuais reunião de recursos de armazenamento de conexão direta de servidores que tomam mais quota de mercado e a nuvem pública levando uma mordida também.


Filers expansão, armazenamento de objetos e HDFS fazer um trabalho melhor do que SANs em armazenar grandes porções de dados semi e não estruturados. Tendo unificado de arquivo, objeto e bloquear arrays de armazenamento SAN não tem originado essa maré.


Ironicamente, FCoE, uma vez que vêem como uma grande ameaça para Fibre Channel, não se concretizou e é o ataque combinado sobre a hegemonia Fibre Channel SAN pelo lado do servidor ou SANS virtuais - a nuvem pública e scale-out filers / object / HDFS - isto é, El Reg pensa, fazendo o dano real.


O debate de armazenamento nos dias de hoje não é sobre como você acessar um único pote de armazenamento compartilhado, mas sobre qual dos vários potes de armazenamento compartilhado que você precisa para melhor atender cada carga de trabalho. A menos que SANs Fibre Channel pode mostrar que eles são melhores do que servidores de dados em expansão, SANs virtuais, nuvem, HDFS e armazenamento de objetos, em seguida, eles representam uma arquitetura de armazenamento dominante que está a enfrentar a estagnação. ®



FalconStor funde nuvens em reescrever software FreeStor


Fornecedor de software de armazenamento FalconStor foi completamente reescrito seu principal produto, esperando seu novo produto FreeStor vai revitalizar seus negócios.


Tecnologia de virtualização de IPStor FalconStor tornou-se amplamente utilizado, mas começou a ficar para trás quando a empresa perdeu a sua luz guia CEO ReiJane Huawai em 2011. A posterior jurisprudência Fed relacionada com suposto suborno cliente - que se estabeleceram em 2012 - foi um revés. Levou alguns anos e dois CEOs para a empresa para voltar à pista. A recuperação foi ajudada por ganhar um contrato de desenvolvimento de software substancial de Violin Memory.





IPStor está sendo substituído por FreeStor, que está sendo construído para a computação em nuvem de estilo. Ele é baseado no conceito de um mecanismo de dados, um núcleo de abstração inteligente e escalável, com serviços de dados em camadas na parte superior, que pode ser ligado ou desligado para atender às necessidades de implantação.


Ele virtualiza os recursos de armazenamento ", independentemente do tipo, a conectividade, a marca ou a velocidade" em um único pool em que os serviços de dados comuns são aplicadas.


FalconStor Intelligent Abstraction Layer

Esquema de camada de abstração de Intelligent



A empresa diz FreeStor permite aos clientes a migrar, recuperar, proteger e deduplicar dados, dentro ou fora da nuvem, sem vincular os seus negócios para hardwares específicos, redes, ou protocolos.


Há um mecanismo único de gestão para o armazenamento fornecido pela empresa de armazenamento. A maior parte da infra-estrutura de armazenamento existente pode ser virtualizado e gerido por FreeStor e pode ser acessado através de uma API REST.


FalconStor_FreeStor_topology

FreeStor Topology



FalconStor diz que os clientes podem desfrutar de mais de um milhão de IOPS por IO Cluster com armazenamento baseado em SSD.


O pool de armazenamento pode ser globalmente deduplicados e pode haver até 128 servidores de armazenamento FreeStor.


A empresa diz que este é um jogo de armazenamento definido pelo software sem lock-in hardware, o que muda drasticamente a economia de armazenamento. Há "um preço único com base na capacidade gerenciadas através de matrizes, servidores, hypervisors, centros de dados, ea nuvem."


CEO e presidente Gary Quinn alega que esta é "a primeira verdadeira plataforma horizontal definido por software de armazenamento que converge e unifica serviços de gerenciamento de dados com preços previsíveis e desempenho."


Seus clientes potenciais incluem:



  • Organizações com tecnologia legado que desejem mudar para novas tecnologias, como o flash, e utilizar nuvens privadas ou híbridas

  • MSPs olhando para mover dados de clientes em sua nuvem com serviços de gerenciamento de dados comum

  • OEMs querendo prestar um conjunto de serviços de gerenciamento de dados, com FalconStor dizendo FreeStor de são robustos e de grande alcance


FreeStor é grande lançamento da empresa de dados. Levou o que aconteceu ao longo dos últimos anos para o coração e criou um software que pode unificar o fornecimento e gestão de vários tipos de armazenamento, num contexto de virtualização de servidores desenfreado e multiplicando silos de armazenagem - SAN, virtual SAN, arquivos, objetos, flash, disco e da nuvem.


Ele espera que esta disposição de uma única camada de abstração de armazenamento abrangente com serviços de dados comuns, uma instalação única e simples de gestão e preços previsíveis vai balançar os mercados em seu favor.


FreeStor estará disponível para compra em maio a parceiros de canal FalconStor e direcionar para Provedores de Serviços e OEMs. Tem um modelo de precificação $ anual baseado em assinatura / TB com 24 x 7 suporte e atualizações de software incluído. ®



domingo, 22 de fevereiro de 2015

Samsung em segundo desaceleração SNAFU SSD


Da Samsung limpando ovo fora seu rosto depois de um patch para uma sob a execução disco de estado sólido não funcionou, sendo necessária a emissão de um segundo patch.


O carro em questão é o 840 EVO, um dispositivo que no ano passado mencionado uma vez que apresenta o uso inteligente de Sammy de memória não-volátil Express, grita junto a velocidades impressionantes e embala um 1TB acessível e estação de trabalho digno.





Mas uma vez que a unidade atingiu o mercado tornou-se evidente o seu desempenho cauda off nastily após o desgaste de algumas semanas, com alguns apostadores relatando aumentos substanciais nos tempos de leitura depois de as unidades desembarcadas nos seus PCs. Samsung reconheceu essas questões, culpou-los em um motorista e emitido um novo .


Mas essa correção agora parece não ter sido muito útil, como queixas de novo à tona de desempenho lento, levando Samsung para dizer Anandtech que uma nova correção está em obras.


"Nós entendemos que alguns usuários estão tendo a desaceleração novamente", disse a empresa. "Enquanto nós continuamos a analisar a questão, a Samsung vai lançar uma versão atualizada do software Samsung SSD Magician em março, que irá incluir uma ferramenta de restauração de desempenho."


A correção emitida em outubro passado também foi rotulado de "ferramenta de restauração de performance", mas parece não ter restaurado performance.


Seja qual for o problema, o 840 da EVO herdeiro - o EVO 850 - não sofreu problemas semelhantes. ®



sexta-feira, 20 de fevereiro de 2015

EMC puxa presas do VIPR, facilita a concorrência interna


EMC agora é parar o suporte do controlador ViPR para objetos e serviços de dados HDFS, e já não suporta o armazenamento de objetos no armazenamento de arquivo ou commodity.


O resultado de tudo isso é que ViPR não pode fornecer estes serviços nas matrizes de armazenamento que não fornecem-los de forma nativa.





Isso significa que cada EMC II equipes de produto construindo sistemas de objetos ou de armazenamento HDFS deixará de enfrentar a concorrência de ViPR, permitindo, assim, outro hardware EMC ou de terceiros e / ou hardware commodity prestar os mesmos serviços de dados.


Internos pontos de discórdia relativos a direção de ViPR tem agora, no nosso entendimento, foi removido.


Com a última versão do ViPR, 2.2, há uma série de novos recursos de hardware:



  • Data Domain (como um arquivador)

  • VNXe e IBM XIV arrays usando API REST do ViPR

  • VMAX3 e XtremIO com VPLEX e com VPLEX e RecoverPoint

  • VIO servidores AIX e AIX

  • Com o armazenamento HDS ViPR 2l.2 suporta auto-hierarquização e de coleta de uso da porta métricas, também imagem imagem e sombra fina características HDS

  • Apoio VCE Vblock, com ViPR sendo usado para "provisionar e gerenciar os componentes de computação e armazenamento de um sistema Vblock"

  • 1,31 ScaleIO é suportado


ViPR 2.2 também suporta;



  • Configs MetroPoint que incluem RecoverPoint para ambas as pernas de um Metro VPLEX

  • Suporta cópias contínuas (espelhos) para ambas as pernas de um Metro VPLEX

  • Volumes bloco existente pode ser trazido sob gestão ViPR por ingeri-los a utilizar serviços fornecidos no Catálogo de Serviços

  • Só pode ingerir volumes em VMAX e VNX matrizes, não de outros arrays de armazenamento de bloco, como VMAX3 ou XtremIO.

  • Pode ingerir VPLEX Local e VPLEX distribuídos volumes virtuais

  • Em um ambiente VPLEX, back-end de armazenamento não é ingerido quando você ingerir o volume virtual VPLEX

  • ESX informações armazenamento de dados de cluster não é ingerida em ViPR quando o volume subjacente o armazenamento de dados é ingerido; somente o volume apresentado para ESX é ingerida

  • Volume ingest é feita sobre qualquer Fibre Channel ou iSCSI, não tanto Fibre Channel e iSCSI

  • Mais VIPR ingerir notas aqui

  • ViPR suporta a função de divisão SRDF


ViPR 2.2 é agora um ajuste muito mais suave ao lado de outros produtos da EMC, especificamente o armazenamento de objetos e os HDFS (pense Isilon, especificamente). Com ViPR e Isilon tanto estar no CJ Desai unidade Emerging Technologies dentro EMC II, podemos ver por que isso aconteceu.


Saiba mais clicando nos links aqui . ®



SAN-baralhar ajuda VM DR Azure do Site Recovery vai viver


O Wrangler SAN snapshot Azure-Site-Recovery potência Microsoft visualizado no ano passado no TechEd Europa alcançou um status de disponibilidade geral.


Azure Site Recovery (ASR) pode agora trabalhar com System Center Virtual Machine Manager para coordenar o failover do seu armazenamento entre sites. ASR e centro Sistema usar SMI-S para chegar e sair matrizes de toque e dobre-os à vontade de Microsoft. Isso não é coisa ruim: A Palavra de Redmond é realmente a sua palavra, como você usa o serviço de nublado a estabelecer planos de DR que chutar em ação quando o impensável acontece.





Um cenário está usando o serviço para mover cargas de trabalho entre no local SANs em caso de problemas. Outra é replicar VMs em Azure ou outra nuvem, para que possam ser executados lá se seu próprio celeiro bit sofre um infortúnio.


A notícia de que o serviço é agora oficial dá Hyper-V uma bela história DR para corresponder Site Recovery Manager da VMware.


Ele também dá Microsoft um trabalhador pouco agradável: ele cobra SAN-baralhar ajuda DR do Azure vai viver Redmond assume o controle nebuloso de replicação e DR O Azure-Site-Recovery potência wrangler SAN snapshot Microsoft visualizado no ano passado no TechEd Europa alcançou um status de Disponibilidade Geral .


Azure Site Recovery (ASR) pode agora trabalhar com System Center Virtual Machine Manager para coordenar o failover do seu armazenamento entre sites. ASR e centro Sistema usar SMI-S para chegar e sair matrizes de toque e dobre-os à vontade de Microsoft. Isso não é coisa ruim: A Palavra de Redmond é realmente a sua palavra, como você usa o serviço de nublado a estabelecer planos de DR que chutar em ação quando o impensável acontece.


Um cenário está usando o serviço para mover cargas de trabalho entre no local SANs em caso de problemas. Outra é replicar VMs em Azure ou outra nuvem, para que possam ser executados lá se seu próprio celeiro bit sofre um infortúnio.


A notícia de que o serviço agora é oficial dá Hyper-V uma bela história DR para corresponder Site Recovery Manager da VMware.


Ele também dá a Microsoft trabalhador pouco agradável: ela está cobrando US $ 16 por mês por exemplo armazenados em suas instalações e 54 dólares por mês para casos armazenados no Azure.


Isso é mais barato do que as licenças para o software de backup e recuperação? Microsoft disse do seu correspondente um revendedor hipotético que trabalha com os gostos de CommVault ou Veeam, e um fornecedor da matriz, não tem necessidade de se sentir ameaçado pela ASR. Mas é claro que a Microsoft iria dizer isso, não é? ®



quinta-feira, 19 de fevereiro de 2015

NetApp traz funcionalidade Hadoop para seus clientes ONTAP


Fazendo o que ele é tão bom, NetApp adicionou um produto conector, permitindo aos seus clientes Data ONTAP para executar analytics Hadoop em seu armazenamento de dados NFS sem ter de copiar dados de WAFL em HDFS.


Sua NFS Connector for Hadoop permite analytics Hadoop para ser executado na entrada Big Data a partir de suas várias fontes, e, em seguida, combinar isso com olhar para dados estruturados também. Esta é a combinação essencialmente os dois tipos de dados para obter uma visão mais arredondado do que está acontecendo em uma organização empresarial ou do sector público.





Isso evita ter que migrar massas de dados a partir de matrizes FAS para a HDFS (sistema de arquivos do Hadoop) cluster.


O cluster Hadoop pode trabalhar principalmente no HDFS, e tratar ONTAP como um sistema de arquivo secundário, e, além disso, pode concebivelmente ser executado apenas nas matrizes FAS sem um silo HDFS separado.


Isso poderia ser uma maneira para os usuários do ONTAP para mergulhar um dedo do pé em águas Hadoop e testar a temperatura.


NetApp_NFS_Connector_for_Hadoop

O conector, que é open source e hospedado no GitHub:



  • Trabalha especificamente com MapReduce para a parte computacional do quadro Apache Hadoop

  • Pode suportar Apache HBase (banco de dados colunar)

  • Pode suportar Apache Faísca (mecanismo de processamento compatível com Hadoop)

  • Funciona com Tachyon sistema de arquivos na memória que podem ser executados com o Apache Hadoop and Spark


Em um blog de ​​Val Bercovici de CTO Gabinete do NetApp diz: "NetApp pretende contribuir com o código para o principal Hadoop tronco".


NetApp também tem o seu NOSH (NetApp Solution Open for Hadoop) esquema com Cloudera, que você pode conferir aqui .


Obtenha mais informações a partir da NetApp NFS Connector Relatório Técnico . Baixe o conector NFS para Hadoop de aqui . ®



Hitachi esmaga SPC-1 de referência, possui: Nós HAF formas de esmagamento de 2 milhões de IOPS


Hitachi tem empurrado passado a barreira de dois milhões de IOPS no SPC-1 de referência, com uma GSP flash-acelerou alegou ser a matriz de armazenamento desempenho mais rápido de sempre.


O tudo-flash GSP V1000 matriz utilizada HAF (Hitachi flash Acelerado) módulos para marcar 2,004,941.89 SPC-1 IOPS, 62 por cento mais rápido do que o mais rápido sistema anterior, uma matriz de flash Kaminario K2 que atingiu 1.239.898 IOPS.





O desempenho da matriz GSP foi orçado em US $ 1 / IOP, não muito mais do que a de Kaminario $ 0,80 / IOP. A melhor SPC-1 preço / performer era do sistema Kaminario K2 DRAM $ 0,40 / IOP.


Esse sistema foi o terceiro mais rápido SPC-1 da matriz em 1,219,973.91 IOPS, o que sublinha a extensão aparente da façanha da Hitachi; sua variedade de flash superou uma série all-DRAM.


Note-se que estes cálculos de custos são baseados em preços de lista e não preços de rua, para que eles não fornecem um guia mundo real para preço / desempenho, apesar de grandes diferenças podem ser vistas como sendo indicativo de diferenças do mundo real.


Médio de resposta do GSP de 1,15 milissegundos na carga de 100 por cento foi um terço da matriz Kaminario K2 DRAM (2.95ms).


Fornecendo uma maneira de comparar o desempenho aleatório IO de arrays de armazenamento em um ambiente de transação, o SPC-1 de referência é publicamente auditada e verificáveis.


Resultado da Hitachi significa que VMAX da EMC e matrizes DS8000 da IBM, os únicos sistemas high-end comparáveis, têm agora uma montanha para escalar o desempenho quando envolvido em licitações com o GSP concorrente.


GSP_1000_HAF_SPC_1_benchmark

Os melhores SPC-1 IOPS resultados de benchmark



DS88870 da IBM marcou 451,082.27 SPC-1 IOPS em outubro de 2012 (em $ 10,81 / IOP), menos de um quarto do último resultado da Hitachi, mas que foi um de quatro anos de idade matriz baseada em disco e não pode ser visto como representante da mais recente e flash baseados em matrizes DS8000.


EMC não apresentou publicamente matrizes VMAX ao SPC-1 ponto de referência é executado de modo que não temos idéia do que seu desempenho SPC-1 seria.


A VSP anterior tudo-flash matriz monolítica marcou 602,019.47 IOPS, mas que não estava usando os módulos flash Hitachi Accelerated especialmente concebidos, sendo baseado em SSDs em vez disso. Hitachi disse que seu HAF GSP V1000 sustentada 333 por cento mais transações de negócios do que isso tudo VSP-flash anterior. Utilizar o flash nos modos de acionamento quasi-disco apenas não cortá-lo mais.


NetApp registrou um bom SPC-1 ponto de referência para o seu mais recente EF560 matriz all-flash, 245,011.76 IOPS em $ 0,54 / IOP, muito menos IOPS do que o VSP G1000 e melhor preço / desempenho, mas então é uma matriz de controlador duplo enquanto que a VSP É um sistema monolítico high-end.


A HAF-usando HUS mid-range matriz Hitachi marcou 304,127.12 SPC-1 IOPS em $ 0,54 / PIO , batendo o EF560 da NetApp em IOPS.


No entanto, o EF560 teve um melhor tempo de resposta médio a 100 percentagem de carga: 0.93ms vs 0.96ms os de Hus. ®



HP flicks caixa branca interruptor: NOT a wannabe Facebook? Encher o nosso kit aberto em sua nuvem


Menos de uma semana depois da Cisco John Chambers descartou a categoria switch "caixa branca" , a HP entrou nesse mercado com as suas próprias opções de arquitetura aberta.


A empresa quer começar com operadores nuvem "escala web" que não querem imitar Facebook ou Google e executar os seus próprios sistemas a partir do zero.





No entanto, de acordo com o CTO e VP Mark Carroll, HP espera ver adoção entre nuvens de nível inferior e clientes corporativos, bem como (mais ou menos seguindo Dell no mesmo espaço).


Os switches são uma parceria entre a HP, Cumulus Networks e Accton Technology, um conjunto de nomes que planta o kit com firmeza no "caixa brite" mercado odiosamente nomeado (obrigado, Gartner, tomar o seu casaco ao sair).


A linha de produtos arranca com duas variantes: 10 Gbps / 40 Gbps coluna e dados de 10 Gbps folha center switches, transporte com o sistema operacional Linux Cumulus configurado para instalação Zero Touch OS.


Em linha com o que o mercado espera interruptor aberto, as soluções da HP vai incluir um bootloader que os clientes possam escolher um sistema operacional diferente, caso queiram.


Carroll disse que os interruptores terão certificação Abrir Compute Project "muito em breve".


Carroll disse duas coisas vai definir a solução para além de pure-play interruptores de caixa branca: a sua capacidade de "de risco" da cadeia de abastecimento e uma operação de apoio global.


Dado que a HP também está hospedado no negócio de comutação com suas ofertas mais tradicionais, El Reg perguntou se os dispositivos de rede aberta não iam ser comprados apenas no preço.


"A economia do hardware é atraente", disse Carroll, "mas há uma tendência mais importante:. A desagregação de hardware de software, e de ter acesso a esse ponto de controle no interruptor"


Ele disse que as chaves abertas ajustou-se bem com o modelo DevOps: "Os desenvolvedores não têm uma conexão de todo o caminho até a pilha, e eles querem isso. Eles querem reconhecimento de aplicativos todo o caminho até a pilha. "


Canto do hinário Facebook, Carroll também disse que os clientes são chave aberta após as capacidades de diagnóstico que começa a partir de um acesso mais profundo ao silício interruptor: ". Os clientes gostam de ser capaz de usar a instrumentação terceiro partido em Linux para obter visibilidade através da rede"


Quanto à demissão do mercado white-box da Cisco, Carroll rebateu citando estimativa do Gartner que o segmento está crescendo em torno de 10 por cento ao ano.


Como os fornecedores iniciantes com fundos OCP inscrever mais parcerias com os grandes nomes, diz ele, é provável que para desbloquear os clientes de nível inferior: "O que está bloqueando eles é que eles não têm pessoal para ativar a solução", comentou ele.


Os interruptores chegará ao mercado em março. ®



quarta-feira, 18 de fevereiro de 2015

É nuvem a resposta para todos os seus problemas de armazenamento?


A "explosão da informação" tornou-se um clichê da indústria de TI. Praticamente todos os brochura armazenamento apresentação fornecedor, comunicado de imprensa e vendas irá dizer-lhe que os volumes de dados estão a aumentar exponencialmente, antes lançando qualquer produto ou serviço está sendo punted.


Como discutido em um artigo anterior , no entanto, o foco puramente no crescimento de dados é um pouco simplista. Se recente pesquisa Reg é qualquer coisa ir perto, as chances são de que sua infra-estrutura de armazenamento, e abordagem da gestão dele, estão sendo desafiados por uma série de fatores (Figura 1).






Figura 1 - Armazenamento está sob pressão de uma série de frentes



A marcha constante de virtualização significa armazenamento precisa ser organizado e acessados ​​de maneiras novas e diferentes. A paisagem aplicação evolução está mudando o mix de tipos de dados, e as informações de maneira flui internamente e entre a organização e o mundo exterior. Para alguns, grandes dados e analytics pode estar criando necessidades adicionais também. E sobrepostos em tudo isso, a expectativa de negócios para a qualquer momento, em qualquer lugar de acesso a quaisquer dados, juntamente com uma maior ênfase na gestão de risco, está levando a todos os tipos de diversão e jogos quando se trata de distribuição, sincronização, proteger e assegurar os chamados 'ativos de informação ».


Neste contexto, a mensagem de muitos leitores Reg é que as tecnologias e abordagens tradicionais já estão lutando para lidar. Questões destacadas na pesquisa incluem problemas com hardware, software e os custos de manutenção, em conjunto com alta sobrecarga de gerenciamento e os riscos de déficit de nível de serviço.


Uma resposta possível é para mover dados para a nuvem e deslocar o problema para outra pessoa - uma rota que muitos especialistas frequentemente nos dizem é a forma como tudo está indo de qualquer maneira. No entanto, apenas cerca de um terço dos participantes no nosso estudo viu um papel significativo para armazenamento em nuvem, com apenas uma pequena minoria (12%, as empresas em sua maioria menores) que prevê que todos os seus dados acabaria na nuvem. Isso coloca a ênfase firmemente sobre a modernização da infra-estrutura interna de armazenamento e ferramentas associadas e processos para lidar com as necessidades em evolução.


Quando perguntado sobre o que tem que mudar, muitos no estudo indicou um afastamento da abordagem baseada em silo que define a história do armazenamento ao longo dos anos, no sentido de uma arquitetura mais moderna, compartilhada. Na verdade cerca de 7 em cada 10 já havia se mudado de forma significativa neste sentido, com cerca de três quartos vendo mais utilização de memória partilhada ao longo do tempo (Figura 2).



Figura 2 - Shared Storage é visto como fundamental pela maioria



Agrupar as necessidades de armazenamento através de muitos sistemas e aplicações diferentes, no entanto, pode claramente ficar muito peludo, a menos que você esteja devidamente preparado para lidar com o desempenho do concorrente, mobilização de recursos, disponibilidade, proteção e outras necessidades essenciais. Comece esta errado, e você pode acabar com exigente, mas a atividade de baixa prioridade minando o funcionamento dos sistemas críticos de negócio. É claro que você sempre pode voltar a cair silos de armazenamento por exceção, se necessário, mas puxando as coisas em conjunto, tanto quanto possível em um único ambiente pode aumentar a utilização de recursos, despesas gerais de gestão mais baixos, e, geralmente, criar uma abordagem mais eficiente, flexível e sensível ao armazenamento de reunião precisa.


Então, quais são os ingredientes desta paisagem de armazenamento moderna? Bem, há claramente muita coisa acontecendo em termos de evolução em toda a indústria de armazenamento, mas a um nível elevado já podemos ver impulso reunindo em torno de determinadas tecnologias-chave (Figura 3).



Figura 3 - Mais tecnologias avançadas de armazenamento estão ganhando impulso



Mas precisamos ter cuidado quando se olha para principais números como este por um par de razões. Em primeiro lugar, as percentagens indicadas em relação à utilização actual esconder o facto de que o nível de utilização é extremamente variada no momento. Alguns estão investido fortemente em tecnologias específicas, outros estão apenas colocando um dedo do pé inicial na água. Nós também precisamos ter em mente que a natureza on-line de estudos de investigação Reg significa que os inquiridos auto-selecionar no inquérito. Como aqueles com um maior interesse no assunto em questão são mais propensos a participar, isso pode inflar os números e criar a ilusão de mais atividade ocorrendo do que é realmente o caso na população em geral. O mesmo acontece quando se olha para uma área que recebe um monte de marketing atenção no momento, ou seja, «software de armazenamento definido '(SDS) (Figura 4).



Figura 4 - Ainda é cedo para armazenamento de software definido



Mesmo em nossa amostra de auto-seleção, o que seria de esperar para ser razoavelmente informados, mais da metade Atualmente cético ou incerto sobre SDS. Isso reflete, sem dúvida, a confusão que está sendo criada como vendedores de saltar para o movimento e reclassificar praticamente qualquer solução de armazenamento com um componente de software como 'software definidas ».


Ao analisar os dados que estavam interessados ​​em descobrir o que realmente faz a diferença. O que descobrimos foi que nenhum tipo de solução se destacou como sendo uma bala mágica para lidar com a evolução das necessidades de armazenamento; a resposta parece ser a de misturar tecnologias em mais de um cocktail mágico. Aqueles que já fizeram isso por meio da adoção de uma série de tecnologias e técnicas que estamos discutindo modernos eram 2,5 vezes mais propensos a concordar fortemente que seu ambiente de armazenamento é fácil de operar e de baixo custo, atende a necessidades de negócios de forma eficaz, e define as coisas bem para o futuro. Enquanto não podemos afirmar isso como prova definitiva de eficácia, ele não representa muito fortes evidências circunstanciais de que os rendimentos de modernização resultados.


Se você estiver interessado em aprender mais, faça o download do resumo dos resultados da pesquisa de gestão. Temos feito isso deliberadamente alto nível e mais visual para que você possa usá-lo em uma conversa com aqueles que detêm os cordões à bolsa ao fazer um business case para mais investimento.


Você pode obter uma cópia do relatório aqui .