sexta-feira, 29 de novembro de 2013

Black Box? LUN-fest? O que o armazenamento centric negócio realmente significa?


Entrega Email: Ódio de phishing e-mails? Você vai adorar DMARC


Chat ao vivo 13 de dezembro 14:00 GMT O que - ou quem - define o seu armazenamento? É o seu espírito de armazenamento por um caso sacerdotal de monglers LUN que guardam o software sagrado administração ferozmente? É "definido software" o seu armazenamento? É uma caixa preta, uma coisa orientada por API controlado por devs ou geridos pelos tipos de operações através de fantoche ?


Em meio a esta lista dessas modalidades de controle de armazenamento comum e definição você verá um item chave que falta: os requisitos de negócios.







O armazenamento é muitas vezes discutida em termos dos quais lote de nerds chegar ao senhor sobre isso, ou se o controle pode ser compartilhado entre as várias tribos geeky. Raramente é o armazenamento discutida no contexto do que realmente proporciona ao negócio.


Para este fim, da Fujitsu Frank Reichart é juntar especialistas Registrar Trevor Pott e Phoummala Schmitt em 13 de dezembro, em um bate-papo ao vivo 14:00 GMT para discutir o que pode ser feito para alinhar a operação de armazenamento e provisionamento com as prioridades de negócios. Nosso Grupo Editor de Joe Fay vai fazer todo o hosting.


Fujitsu foi recentemente atualizando seus sistemas de armazenamento e adição de recursos . Por mais que eles gostam de uma boa festa sobre o lado técnico das coisas, eles também estão interessados ​​em olhar para o armazenamento muito mais holística do que parece ser a norma da indústria.


Como os administradores podem garantir que os aplicativos críticos de negócios têm prioridade IOPS quando comparado a aplicativos com menos importância negócio? Como os desenvolvedores podem gerenciar os níveis de serviço para garantir a utilização esteja alinhada com o contexto de negócios do aplicativo solicitando recursos?


Vamos discutir tudo de custos ao crescimento explosivo de dados, o impacto da análise, os dados grandes e que novas tecnologias de armazenamento pode fazer para ajudar a manter as coisas na tarefa. De novo cache flash, qualidade de tecnologias de serviços e até mesmo backups, The Register está pronto para as perguntas difíceis.


Registre-se abaixo, para obter um Pergunte aos especialistas lembrete de e-mail enviado antes da data de chat ao vivo.


Armazenamento centric Negócios



quinta-feira, 28 de novembro de 2013

Symantec desiste do Backup Exec.cloud


5 maneiras de reduzir a latência da rede de publicidade


Revendedores da Symantec foram supostamente notificados para parar de fornecer assinaturas anuais para o Backup Exec.cloud até 6 de Janeiro.


Backup Exec.cloud permite que pequenas e médias empresas backups de loja em um cofre remoto Symantec (a nuvem) ou no local e na nuvem.







Os clientes foram informados de que podem usar o serviço, até um ano após essa data - 6 de janeiro de 2015 -, mas, em seguida, fecha.


Isto lembra-nos o fechamento nuvem Nirvanix embora isso seja muito mais medido.


Symantec tem um relativamente novo CEO, Steve Bennett , e ele está executando um navio muito mais apertado, enquanto ele tenta obter o software gigante $ 7bn/year volta em alto crescimento e aumentando a rentabilidade.


Steve Bennett

Steve "Cloud-killer" Bennett



Steve "Cloud-killer" Bennett cortou empregos e reestruturou a empresa. O último trimestre foi desafiador, com a força de vendas a transição de generalistas para gestão da informação ou especialistas em segurança .


A Symantec Backup Exec.cloud FAQ que El Reg viu disse:



Os clientes querem recursos como sincronização e partilha e acesso móvel. Backup Exec.cloud não foi projetado com estas características em mente. Como resultado, a Symantec decidiu descontinuar backup Exec.cloud, a fim de se concentrar em aplicações mais produtivas e com riqueza de recursos baseados em nuvem que incluem esse tipo de funcionalidade. ... Symantec continuará a investir em suas ofertas de backup e recuperação do núcleo, incluindo o Symantec Backup Exec no local e software NetBackup, bem como armazenamento baseado em nuvem inovador, compartilhamento e sincronização de plataformas.



Um comunicado enviado para nós a partir de um Symantec disse:


À medida que se alinham com a nossa nova estratégia de oferta e esforços para simplificar a nossa gama de produtos para oferecer soluções menos, mais integradas para nossos clientes, a Symantec tomou a decisão de se aposentar backup Exec.cloud. Os clientes existentes terão uso do serviço até o final de seu período de serviço anual. Estamos firmemente empenhados em fazer tudo o que pudermos para ajudar os nossos parceiros e clientes a navegar com sucesso esse processo.

Symantec continuará a investir em suas ofertas de backup e recuperação do núcleo, incluindo o Symantec Backup Exec no local e software e aparelhos NetBackup, bem como armazenamento baseado em nuvem inovador, compartilhamento e sincronização de plataformas.



A empresa ofereceu um Mozy-como serviço de backup em nuvem consumidor em 2009. Isso está muito longe agora.


Symantec tem dois outros produtos SMB nuvem: Symantec Endpoint Protection Small Business Edition 2013 - proteção contra vírus e malware - e sua empresa Vault.cloud prestação de serviços baseados em nuvem informações arquivamento. Deve haver dúvida agora sobre o futuro deste último.


O porta-voz disse: "Como toda a Symantec continua empenhada em ajudar nossos clientes a aproveitar os benefícios da computação em nuvem Continuaremos a investir e oferecer soluções em nuvem que fazem sentido dadas as nossas necessidades dos clientes e as prioridades de negócios, incluindo a Empresa Vault.cloud, Symantec. Endpoint Protection.cloud e Norton Zone. "


Nosso pensamento aqui no El Reg off-the cuff-comment-consultoria é que a Symantec vai ter que comprar em tecnologia como vai demorar muito tempo para ele para projetar e código de sua própria tecnologia.


Pedimos Symantec para comentar o assunto e irá atualizar a história, se houver uma resposta substantiva. ®



Krakoom! OCZ voa para o chão. Tempo para salvar os motores e olhar ao redor


5 maneiras de reduzir a latência da rede de publicidade


Blocos e Arquivos Ryan Petersen fez OCZ um high-flyer: e, em seguida, quase pilotou-o no chão. CEO substituição Ralph Schmitt fez crash-terra o negócio danificado, mas foi incapaz de repará-lo e fazê-lo voar novamente. Falência acena .


OCZ tiro no próprio pé (causando seus pés a escorregar dos pedais do leme, levando a uma queda-Ed) com programas idiotas incentivo para o cliente, que teve mais de um ano para limpar, e depois percebeu tardiamente seu esteio mercado SSD consumidor não era mais o domínio de get-rico-rápido bundlers componentes. Os operadores de fundição de flash e grandes OEMs foram tomando o mercado em cima da velocidade assustadora.







Por isso, mudou o foco para SSDs corporativos mas já era tarde demais; consolidação fornecedor estava tirando o excesso de fornecedores lá - testemunha WD e STEC - e que o mercado estava fechado para um jogador SSD enfraquecido sob restrições financeiras severas e carregando uma imagem de marca ruim.


A coisa é, o mercado de produtos de flash está amadurecendo mais rápido do que a OCZ imaginado. Fornecimento de chips NAND consistente e segura é crucial - você está ouvindo esta LSI? - E por isso é dono de seu controlador flash e IP de gestão. Vendendo controladores flash para OEMs de pequena escala, como a OCZ, não é maneira de construir um negócio seguro e crescente.


Fracasso da OCZ levanta questões sobre todos os outros fornecedores de produtos de flash sem confiável, segura de abastecimento chip flash: como - nós entendemos - Corsair, Plextor, Kingston, da WD Hitachi GST, LSI, OWC, Patriot, SuperTalent e Viking Modular.


Se os ativos OCZ ser comprado pela Toshiba, em seguida, esperamos, clientes OCZ existentes serão capazes de obter algum tipo de apoio. Se não, então eles não vão, e eles têm que comprar novos SSDs em outro lugar. Em seguida, eles provavelmente vão para fornecedores, que vai ficar por aqui - o flash meninos fab e seus parceiros com o produto para o usuário final, por exemplo (isso não é uma lista exaustiva) da Intel, Micron, Samsung, SanDisk, Seagate, Toshiba e violino Memória.


Ambos HGST e LSI precisa ficar trancado em acordos de fornecimento de chips NAND arranjados o mais rápido possível, de fato AFAP - o mais rápido possível. Pergunte-se por que a EMC, Cisco e outros devem continuar a fonte cartões de memória flash e SSDs de fornecedores sem arranjos confiáveis ​​de abastecimento de chips NAND.


E isso significa que fornecedores como a LSI e HGST. Ambos precisam ter acordos de fornecimento em lugar diretamente com flash proprietários fab ou seus parceiros próximos para preservar ofertas navio produto com EMC e afins.


E isso significa que LSI e HGST tem que negociar com Micron-Intel, Samsung ou Toshiba SanDisk ou SK-Hynix. Eles provavelmente já estão fazendo isso. Se não, então eles realmente têm de se perguntar por que não. ®


Bootnote


HGST tem um SSD desenvolvido com Intel assim a possibilidade de um arranjo mais estreita existe, obviamente, existir.



Gigante de armazenamento EMC, arrivista rival comerciais Armazenamento Pure novas acusações


5 maneiras de reduzir a latência da rede de publicidade


Jogar duro? Vamos mostrar-lhe jogar duro. Primeiro EMC processou armazenamento flash arrivista Armazenamento Pure por suposta contratação indevida de pessoal e uso de dados proprietários da EMC ( PDF ), encargos que Pure negados . Mesmo que o arranque, reagiu com algumas acusações graves do seu próprio país, EMC arremessou outro sueball em Pure no mesmo dia, alegando o peixinho infringido cinco patentes da EMC.


Gigante de armazenamento EMC domina o mercado e anunciou recentemente a disponibilidade geral de seu XtremIO conjunto all-flash. Pure, entretanto, é uma partida de quatro anos de idade, que se concentra em tecnologia de armazenamento flash.







Pure apresentou sua resposta às alegações pessoal-caça com o Tribunal do Distrito de Massachusetts na terça-feira, como o Wall Street Journal relata .


Os documentos apresentados alegam: "Pouco mais de um ano atrás, a EMC sorrateiramente obtido uma matriz de armazenamento Pure, fugiu com o dispositivo para os escritórios da EMC, e testado de forma ilegal a máquina para aprender os segredos comerciais subjacentes sucesso Pura de armazenamento" - acrescentando que tinha "encontrado o aparelho danificado, de tal forma que ela não pode ser reutilizado ou revendidos. "


Ele continuou: "o roubo da EMC não foi um incidente isolado, mas parte de uma prática institucional que rotineiramente utiliza, meios anti-competitivos ilegais para dominar o mercado de armazenamento de dados."


Enquanto isso, a EMC disse de seu terno de patente contra a pura: "Este último processo por violação de patente é mais uma prova de que o Armazenamento Pure tenha se envolvido em uso não autorizado da tecnologia proprietária e patenteada da EMC. Estamos simplesmente tomar as medidas legais necessárias para proteger os direitos da EMC ".


As patentes se referem a desduplicação, a correção de erros e ler e escrever IO programação e Pure disse que estava revendo as reivindicações.


Guerra do blog Dietzen


CEO Pure Scott Dietzen foi furiosamente blogs sobre o assunto, dizendo: "Esta ação da EMC não é particularmente surpreendente. Definir Pure para fazer algo extraordinário, oferecendo tudo de armazenamento flash abaixo do preço de disco, e nosso sucesso tem sido profundamente perturbador para os operadores de armazenamento. "


Independentemente do resultado, as ações judiciais são certamente um dom de marketing banhado a ouro para Armazenamento Pure, aumentando consideravelmente o perfil do arranque.


Aqui está Dietzen novamente: "Estamos agora no processo de revisão dos pedidos de patentes da EMC, mas como o primeiro motor em matrizes totalmente em flash, estamos muito confiantes na força de nossa carteira própria IP. Além disso, armazenamento Pure é suficientemente bem capitalizado (e nós temos todo o nosso $ 150.000.000 recente rodada no banco) para nos defender com sucesso, bem como a indenizar nossos clientes e parceiros de qualquer precipitação, não importa o quão improvável. "


Pure está claramente fora de alavancar seu perfil ascendente para ganhar credibilidade, elevar sua consciência de mercado, e aumente a superioridade reclamado de sua oferta de produtos - seja ele ganha essas ações ou não. ®



EMC: Backup está quebrado, está me ouvindo? Agora comprar essa outra coisa


5 maneiras de reduzir a latência da rede de publicidade


Comentário EMC diz backup é quebrado, e que a infra-estrutura deve ser capaz de proteger-se usando a inteligência que possui. Ele está esperando que os usuários irão avançar para a gestão de dados de cópia e longe de deixar dados inativos em silos esperando algo acontecer.


A percepção de que o pensamento de backup da EMC tinha mudado começou com uma tomada mais profunda sobre a recente re-org da EMC de seu Virtual Geek, Chad Sakac, SVP de pré-vendas globais. Em seguida, ouvimos de um dos seus CTOs, Stephen Manley, e, finalmente, percorreu um blog por Actifio bocal de marketing da Michael Troiano.







Então ... EMC combinado recentemente as suas linhas de produtos e VMAX VNX em um novo empreendimento e Midrange Systems Division (EMSD). Demorou VPLEX e RecoverPoint de EMSD e colocados juntamente com o grupo BRS de produtos em uma nova disponibilidade Divisão de Proteção de Dados e (DPAD).


Nós, secretária de armazenamento de El Reg, achava que isso era só para reequilibrar os tamanhos relativos dos EMSD e DPAD. Errado: ele reflete o pensamento mudou na EMC sobre ter várias cópias dos dados em diferentes silos.


DPAD


Aqui está o que Chad Sakac tem a dizer sobre a formação do DPAD:


A mudança eo nome mudança organizacional reflecte o facto de backup, recuperação, disponibilidade contínua, fechos, réplicas - e sua integração de aplicativos - são o reflexo de um continuum comum de gestão de cópia das coisas guardadas no armazenamento primário. ...

O motor fundamental atrás do motorista fundamental por trás de backup, recuperação, disponibilidade, instantâneos, proteção (tudo embrulhado em os próprios aplicativos) - todos estes são, fundamentalmente, sobre "gestão exemplar" - ponto de gestão no cópias de tempo e representações de informações que os sistemas primários são servindo-se de uma forma transacional. (Tudo embrulhado em os próprios aplicativos) - todos estes são, fundamentalmente, sobre "gestão exemplar" - gerir cópias e representações de informações que os sistemas primários estão servindo-se de uma forma transacional point-in-time.



Há duas classes de dados aqui: dados de produção gerados pelos sistemas transacionais primárias e todas as cópias do mesmo utilizados para a análise, backup, recuperação de desastres, disponibilidade, snapshots, clones, réplicas, arquivos, teste e desenvolvimento - nove categorias distintas.


Cópia de segurança quebrado


Tenha isso em mente e assistir a um vídeo da entrevista com Stephen Manley, o oficial-chefe de tecnologia BRS então, e agora, supomos, CTO da DPAD.


Vídeo EMC Stephen Manley

EMC BRS CTO Stephen Manley fala backup. Clique para executar o vid.



Manley diz backup está quebrado, porque ele não pode mais lidar com as grandes quantidades de dados que tem de proteger. Ele identifica três ondas de pensamento backup:



  • Servidor de backup-centric - o paradigma tradicional,

  • Infra-estrutura centrada proteção de dados - o que estão migrando para,

  • Nuvem centrada em serviços de gerenciamento de dados - a onda que vem.


Stephen Manley slides

Ondas de três de protecção de dados de Stephen Manley



Manley aponta dois problemas com backup. Em primeiro lugar, é lento e não escala bem, e, por outro, os dados estão em um formato proprietário, em grande parte inativo e incapaz de ser usado para qualquer outra coisa.


Com snaps, clones e réplicas a infra-estrutura de TI pode começar a proteger a si mesmo, usando a inteligência em servidores virtualizados, aplicações e storage arrays: "Que a infra-estrutura de proteger-se e de que maneira eu posso fazer backup, recuperação e arquivamento porque eu tenho os dados em o formato em que é utilizável ", diz ele.


Isso é melhor, mas não o suficiente, com Manley dizendo:


Estes são todos apenas versões ... cópias de meus dados ... Eles não devem ser apenas parado, esperando pelo desastre, esperando que o problema aconteça. Eu poderia usá-los para teste e desenvolvimento. Eu poderia usá-los para análise e mineração de dados. Eu poderia usá-los para distribuição de dados, porque eu tenho sites de todo o mundo. Estas cópias são viáveis ​​para algo mais do que apenas à espera de algo dar errado.

Ele tem um blog sobre o problema geral aqui .


Coloque os Manley e Sakac visualizações juntos e temos EMC abraçando a idéia de cópia de gerenciamento de dados.


Gerenciamento de dados de cópia


A existência de diferentes cópias de dados em diferentes silos é uma ótima maneira de vender silos de hardware e EMC tem um monte de produtos de silos de armazenamento de dados para vender. Mas ele pode ler as runas, farejar o que os concorrentes estão fazendo de inicialização e veja se faz sentido para os clientes no caminho. Cópia de gerenciamento de dados que vai acontecer, se você vai com o que esses vários executivos da EMC disse.


Se ele está certo, então todos os fornecedores de backup, archive, análise, disponibilidade, recuperação de desastres, teste e desenvolvimento de cópias de dados serão afetados com, potencialmente, seus dados copiar função gerando tomado por alguns, mais tecnologia de produtos eficientes em termos de espaço e otimizado centralizado que pulveriza cópias para os usuários onde quer que estejam.


Há uma startup que oferece tal gerenciamento de dados cópia já, Actifio , e torna-se uma única cópia dos dados de produção e, em seguida, distribui cópias virtuais conforme necessário para análise, arquivamento, disponibilidade, backup, recuperação de desastres, distribuição, teste e desenvolvimento. Uma vez que estes são cópias virtuais que ocupam muito menos espaço do que as cópias físicas, de modo matriz de armazenamento de um cliente e copiar software de geração - como aplicativos de backup - os custos diminuem.


Actifio está atualmente em v6.0 de sua tecnologia principal produto e diz que está crescendo muito rápido. EMC agrupou seus dados copiados relacionados com recursos na nova organização DPAD e, pensamos, iniciar o desenvolvimento de uma estratégia de produto projetado para trazer funcionalidade de gerenciamento de dados de cópia a ser concretizadas, possivelmente como um serviço de dados ligado a ViPR.


El Reg mesa armazenamento acha que vai demorar pelo menos seis meses para qualquer produto para aparecer, se não mais, eo exercício de desenvolvimento de escopo, pode-se concluir que a aquisição de tecnologia é preferível a desenvolvê-lo em casa. ®



quarta-feira, 27 de novembro de 2013

Microsoft polpas de câmbio bug do servidor


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


Redmond lançou um patch para o Microsoft Exchange Server 2013, para curar um bug que borked seus backups.


O bug (para administradores de sistemas, de qualquer forma)-destruindo sono derrubado backups em um balde, seja usando o Backup do Windows Server ou produtos de terceiros, de acordo com este artigo da Base de Conhecimento.







Os acidentes de backup que relatam problemas com "A replicação do Microsoft Exchange serviço VSS escritor", algo que a Microsoft disse que aconteceu porque "uma estrutura interna não é inicializado corretamente no Exchange 2013.


Como a atualização explicação afirma: "atualização cumulativa 3 inclui uma correção para um problema que pode impedir aleatoriamente um conjunto de dados de backup tirada de Exchange Server 2013 de restaurar corretamente. Os clientes que dependem de backup e recuperação em suas operações do dia-a-dia são incentivados a implantar a atualização cumulativa 3 e iniciar backups de seus dados para garantir que os dados contidos em backups podem ser restaurados corretamente. "


Além da correção de backup - o bit mais importante - Redmond diz que está ajustado o console de câmbio de administrador e log de auditoria, e retirou a exigência de que o Windows 8.1/IE11 para o uso do OWA Light.


A atualização pode ser baixada aqui . ®



OCZ vai titsup, flogs próprio cadáver para Toshiba


5 maneiras de preparar sua infra-estrutura de publicidade para o desastre


Sólido fabricante de disco de estado OCZ Technology Group passou titsup e entrou com pedido de falência.


A empresa tem sido em uma confusão durante anos, tendo recentemente 'fessed a todo tipo de balanço borkedness e corrigiu seus últimos quatro anos de pena de emissões financeiras. Outros esforços para endireitar o navio incluiu uma grande reestruturação que agora parece ter falhado, como a empresa emitiu um comunicado anunciando que é a declaração de falência.







OCZ não saltar: foi empurrado por Hercules Tecnologia Crescimento Capital, Inc, um equipamento que tem um "contrato de empréstimo e segurança" com o disco-maker. OCZ não foi capaz de manter a sua parte no trato e não é "de acordo com alguns dos índices operacionais e obrigações no contrato de empréstimo." Hércules, portanto, flexionou seus músculos e deu um empurrão OCZ irresistível na direção do um escritório de Receptores.


Há um raio de sol neste caso: um comprador para melhores pedaços da OCZ foi encontrado. Aqui está o que a declaração tem a dizer:



"A Companhia recebeu uma oferta da Toshiba Corporation para adquirir substancialmente todos os ativos da Companhia em um processo de falência. As partes tenham concluído substancialmente as negociações sobre um acordo de compra de ativos e OCZ acredita que todos os termos materiais foram acordados ".



O yadda yadda legal habitual sobre nada sendo gravada na pedra até que o chiseller encontra alguns bons placas de mármore e fica tudo esculpido em triplicado se aplica, mas a declaração está otimista de que há uma transação ordenada a ser feito. Sobre as coisas off-chance ainda ir em forma de pêra, OCZ "espera apresentar em breve um pedido de falência e liquidar".


Os mercados têm tido este plano muito, muito, mal mesmo. As ações da companhia caiu de 74,6 por cento no dia do anúncio. ®



O que você é, a Apple? Patentes arrivista armazenamento filesystem invólucro tecnologia


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


Armazenamento em nuvem arrivista Nasuni foi concedida uma patente para seu sistema de arquivos UniFS, que camadas um sistema de arquivos em sistemas de armazenamento de objeto de um provedor de armazenamento em nuvem pública.


Nasuni (NAS-unificada) oferece armazenamento primário na nuvem pública por meio de seus servidores de dados, NF-série sistemas de gateway de armazenamento em nuvem. Um aspecto disso é que o sistema de arquivos é de versão e não pode haver uma série virtualmente ilimitado de fotos dela, cada versão fazendo um instantâneo.







Veja como Nasuni descreve um problema: "Quando implantado em escala, os sistemas de armazenamento de objetos são rentáveis, estável e altamente disponível e, portanto, eles são adequados para as necessidades das grandes empresas da Web que os operam. Infelizmente, eles também são relativamente lentos e não oferecem nenhum modelo de consistência para alterações nos dados. "


E aqui está a sua maneira de lidar com ele: "A grande maioria dos dados corporativos são armazenados em sistemas onde o desempenho ea consistência são fundamentais. A incapacidade de armazenamento de objetos para lidar com as mudanças de forma rápida ou de uma forma consistente torna a tecnologia inadequada para infra-estrutura do centro de dados em sua forma bruta. Tecnologia de núcleo do Nasuni, UniFS, preenche a lacuna, aproveitando snapshots locais para criar um mapeamento direto entre um sistema de alta performance e arquivo de uma série de versões imutáveis ​​(WORM) do sistema de arquivos que são, então, comprometeu-se a armazenar o objeto. Esta tecnologia garante sistema de arquivos do Nasuni pode crescer para sempre, sem os limites de capacidade de conjunto física por sistemas de arquivos tradicionais baseados em hardware. "


Nasuni diz que não há limites para o número de arquivos ou fotos, que podem ser apoiadas em um único volume lógico. O desempenho dos sistemas é independente do número de instantâneos e, porque é um cofre com base na nuvem usando versões snapshotted, existem efetivamente há limites de capacidade e restauração é simples e não precisa de um backup separado ou aparelho arquivamento.


No entanto, não envolvem um link de rede ea velocidade do que pode significar restaurações de dados pode ser mais lento do que o de um aparelho de backup on-premise.


Arremesso de Nasuni é baseado na simplicidade; remover matrizes e caixas backup / arquivamento de seus centros de dados e só tem uma porta de entrada na rampa de armazenamento na nuvem. A rampa on-pode até ser na própria nuvem se mover calcular lá, com a Amazon e Azure da Microsft apoiado desta forma.


CEO Andres Rodriguez tem a dizer sobre UniFS: "Queríamos o melhor dos dois mundos. O desempenho ea consistência de um sistema de arquivos combinados com a escala ilimitada e estabilidade de armazenamento em nuvem. A era das caixas de hardware glorificados está chegando ao fim. É muito caro para manter-se com a enorme crescimento de dados ea complexidade de manter os dados protegidos e disponíveis em todos os lugares. "


Rodrigues afirma: "As organizações de TI estão Enlightened diluindo seus centros de dados e levando a carga para uma nova era, onde os aparelhos simples oferecem acesso direto aos vastos recursos que estão disponíveis na nuvem."


Concorrentes como a Riverbed, com o seu produto Whitewater , e Avere com sua Nuvem NAS , também oferecem escalabilidade de nuvem pública e metodologia de precificação para os clientes encontrar filers on-premise limitados, complexo, caro ou lento (ou alguma combinação deles).


Avere, Nasuni e Riverbed todos têm maneiras de lidar com os problemas de rede envolvidos no armazenamento em nuvem e estes geralmente nunca vai ir embora até que ambos computação e dados viver na nuvem.


A patente UNiFS é a Patente dos EUA n 8.566.362 . ®



Bods armazenamento HP: Nós não estamos lá em cima com a EMC, mas estamos ESMAGA IBM


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


Vendas anuais de armazenamento da HP estão crescendo muito mais rápido do que o da IBM, mas são eclipsados ​​pelo crescimento da receita de armazenamento front-runners EMC e NetApp.


Stifel Nicolaus MD Aaron Rakers computou a variação percentual anual da receita de armazenamento para as empresas e que traçou seus números:


Os principais fornecedores de armazenamento receita anual muda novembro 2013

IBM é um desastre em relação com um declínio de 11 por cento nas receitas de armazenamento a partir do terceiro trimestre de 2012 com a de 2013. NetApp fez melhor com um aumento de 2 por cento. EMC estava ao lado com um aumento de 1,3 por cento, enquanto a HP definhou com um aumento de 0,6 por cento.


A Dell não é neste quadro, pois foi apenas privado. Com base nos números do Raker para os trimestres anteriores, suspeitamos Dell iria mostrar uma queda nas receitas de armazenamento no mesmo período que os outros.







Como mostra o quadro abaixo, as receitas de armazenamento da HP de US $ 958m pegou no trimestre, o seu quarto trimestre fiscal de 2013.


Receitas de armazenamento HP para Q4fy2013

Receitas de armazenamento HP para Q4 fy2013



Um ano atrás, eles foram de US $ 946m, o que significa um aumento de 1,3 por cento no período, e 15 por cento superior ao terceiro trimestre fiscal de 2013.


Sistemas de armazenamento convergentes (3PAR, LeftHand, etc) cresceu um lindo 47 por cento para US $ 407m while (classe EVA) de armazenamento tradicional caiu 19 por cento para US $ 545m - ainda a maior parte das vendas de armazenamento da HP. Talvez haverá um cross-over próximo trimestre.


HP disse que as receitas 3PAR cresceu 46 por cento em relação ao período e Rakers notou que havia um forte crescimento no mid-range e high-end. A administração da HP espera ver um crescimento de armazenamento mais forte em seu ano fiscal de 2014 anos.


HP mostra um pequeno aumento tradicionalmente quarto trimestre em vendas de armazenamento - confira o gráfico. É muito cedo para dizer se esse aumento será sustentado no primeiro trimestre de HP do fiscal 20124 ou não.


No geral, o armazenamento foi de 13 por cento das receitas do Grupo de HP Enterprise, com ISS (servidores padrão da indústria), sendo 45 por cento, de serviços de tecnologia de 29 por cento, de rede de 9 por cento e os sistemas críticos de negócios (coisas de classe Itanium) apenas 4 por cento .


Olhando para o futuro balcão de armazenamento de El Reg está olhando para ver como o armazenamento HP responde ao crescimento em matrizes totalmente em flash, flash de servidor; matriz triunvirato de armazenamento híbrido de rápido crescimento de Nimble Storage Tegile e Tintri e armazenamento em nuvem e kit porta de entrada como as ofertas de arrivista Nasuni.


HP deve se lembrar que no armazenamento, a inovação ganha, e uma nave de armazenamento Empresa vencedora deve "audaciosamente ir * onde nenhum homem jamais esteve." Você tem tudo para jogar. ®


* Fóruns de El Reg são o lar de vários tópicos (fechados) discutindo sobre a divisão infinitivo no lema Star Trek, mas me sinto livre para badalar polegadas



Micron: nossa beleza SILICONE EMPILHARAM resolve o problema DRAM


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


Dratted CPUs multi-core. DRAM está sendo executado em um problema de largura de banda. Mais poderoso CPUs fez com que mais núcleos estão tentando acessar a memória do servidor ea largura de banda está se esgotando.


Uma solução é empilhar DRAM em camadas acima de uma camada de base lógica e aumentar a velocidade de acesso aos resultantes cubos de memória híbrida (HMC) e Micron fez exatamente isso.







Micron escolheu o show de Denver Supercomputing de dizer que estava desenvolvendo chips de HMC para supercomputadores petascale. Outras aplicações alvo incluem o processamento de pacotes de dados, o buffer ou o armazenamento de pacotes de dados, e aceleração do processador - quaisquer restrições de largura de banda de memória de aplicativo sofrimento.


No show, a Fujitsu mostrou uma placa de um futuro protótipo supercomputador com chips HMC sobre ele. Micron também faz parte e tem impulsionado a criação de um ecossistema que visa o uso de chips HMC e interface para eles.


HMC Primer


Um chip DRAM combina as funções de memória e lógica necessários para acessá-lo. Se você empilhar camadas de chips DRAM em cima uns dos outros, em seguida, os circuitos lógicos são duplicadas. O esquema de HMC é subtrair-los a partir de cada chip e têm uma camada de lógica de base na parte inferior da ficha que fornece a funcionalidade de cada camada DRAM no HMC.


HMC da Micron

HMC esquemática mostrando TSVs como tubos através das camadas



Micron tem 4 - e iniciativas camada HMC 8-memória. Um blogue Micron diz: "Cada camada de memória tem milhões de células de memória em grupos definidos (cofres) com a lógica de apoio complexo (controlador de abóbada) que controla todos os aspectos das células de memória e fornece uma interface para o crossbar switch interno .... HMC tem 16 cofres que operam de forma independente uns dos outros e são projetados para suportar 10 GB / s (80 Gb / s) de largura de banda de memória verdadeira de cada um cofre. A camada de lógica também suporta as interfaces externas, interruptor de cross-bar, programadores de memória, construído -in auto-teste (BIST), os canais de banda lateral, e numerosos confiabilidade, disponibilidade e facilidade de manutenção (RAS) características. "


Os links camada de lógica ou fala com cada camada DRAM, utilizando-se túneis através da estrutura, a chamada através de silício Vias (TSVs). Isto proporciona muito divertimento para a fabricação de designers de processos como o comprimento de uma VF de ligação de base e da camada 3 não é muito diferente de uma ligação entre a base para a camada 4. Controlar a precisão de fabricação será de vital importância, especialmente porque o custo de ter um defunto multi-camada de morrer por um erro dimensão VIA será maior do que com bolachas DRAM de camada única.


Estes TSVs têm de ser perfeitamente isolados das camadas DRAM por onde passam - uma outra habilidade de fabricação complicado.


Um terceiro ponto: onde TSVs passar por uma camada de DRAM não pode haver células de memória. Quanto mais camadas, há, mais TSVs esperamos que seria necessário, tornando a vida do designer camada de chip curiosamente complicado.


O termo "cubo" é um exagero, pense camadas de flocos finos em vez disso:


Chips Micron HMC durante a fabricação

Cidade Flake: camadas de chips Micron HMC



O HMC tem uma ligação de alta velocidade da CPU e os TSVs tornar o acesso "massivamente paralelo." Notas sobre um Micron baralho de 16 slides (pdf) dizer:


DRAM exclusivo no dispositivo HMC são projetados para suportar dezesseis individual e abóbadas autoportantes. Cada cofre oferece 10 GB / s de largura de banda de memória sustentado para uma largura de banda agregada de cubo 160 GB / seg. Dentro de cada caixa-forte há dois bancos por camada DRAM para um total de 128 bancos em um dispositivo de 2 GB ou 256 bancos em um dispositivo de 4 GB. Impacto no desempenho do sistema é significativo, com menores atrasos de filas e maior disponibilidade de respostas de dados em comparação com memórias convencionais que funcionam bancos em lock-passo.

Micron diz que seu HMC, com até 160GB/sec, tem até 15x a largura de banda de um módulo de memória DDR2 e usa até 70 por cento menos energia por bit do que as tecnologias existentes. Ele também ocupa quase 90 por cento menos espaço do que RDIMMs.


HMC ecossistema


Há um consórcio HMC com oito principais desenvolvedores: Altera, ARM, IBM, SK Hynix, Micron, Open-silício, Samsung e Xilinix. Um HMC 1.0 especificação foi elaborado e lançado, e há mais de 100 HMC adopters listados pelo consórcio.


Os adotantes pode usar HMC como "quase memória" montado perto dos processadores de usá-lo, ou como "memória distante", com módulos HMC scale-out e melhor poder-eficiência.


Micron tem trabalhado com Altera a integrar FPGA silício deste último a um chip de HMC e uma imagem conselho foi fornecido para mostrar o que já foi feito:


Placa Micron Altera FPGA HMC

Altera bordo com FPGAs ligados à central de HMC



Há um conjunto de blogs no site da Micron sobre HMC. Comece aqui - ele vai ligar para os outros. A Micron HMC baralho de 16 slides (PDF) é uma boa leitura também.


Micron está provando seu chip de 2 GB HMC agora, um chip de 4GB vai provar início em 2014, e volume de produção de dispositivos de 2GB e 4GB HMC deve ocorrer ainda em 2014. ®



Snapshot explícita da IDC: Todo mundo que é alguém no armazenamento de objetos: Em 3D


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


IDC Analyst classificou de armazenamento de objetos fornecedores em um gráfico MarketScape 3D bonito e Cleversafe lidera o grupo.


Um gráfico MarketScape, aparentemente, é um diagrama de quatro caixa com bordas onduladas e caixas sobrepostas, participantes rotulados, contendores, jogadores principais e Líderes. Ele posiciona os fornecedores em dois eixos, o reto é uma capacidade (provavelmente baixo para alto) eo inferior é estratégias (presumivelmente porcaria de grande).







As capacidades de eixo "examina até que ponto um fornecedor alinhou a sua solução para a demanda do mercado ... Posicionamento no eixo x (eixo ou estratégias) reflete o alinhamento das futuras estratégias do fornecedor e correspondente solução OBS do fornecedor para prever a demanda do mercado (três a cinco anos). "


O objeto (sorry) do exercício é para chegar ao canto superior direito, área dos líderes.


IDC MarketScape armazenamento de objetos

IDC diz que usa pontuação rigorosa e muita discussão com os fornecedores para posicioná-los em sua definitivamente-não-um magic-quadrante espaço quadrado de quatro-box. No entanto, há um quebra-cabeça enorme aqui, por que as áreas seccionada-off tem bordas curvas paralelas? Nós suspeitamos que é para apontar a diferença com quadrantes mágicos de bordas retas do Gartner - apenas marketing em outras palavras.


De qualquer forma, no gráfico do "IDC MarketScape: Armazenamento baseado em objetos Worldwide 2013 Vendor Assessment", o tamanho do círculo de um fornecedor indica a sua quota de mercado relativa. IDC diz que acrescenta um plus ou um sinal de menos para cada fornecedor para mostrar se ele está progredindo em direção a posição ápice dos líderes ou longe dele. O exemplo acima vem de Scality, número dois no gráfico, e não inclui estes sinais de progresso ou a falta dela.


O grupo de líderes consiste em Cleversafe, Scality, EMC, DataDirect e Amplidata. EMC tem o maior círculo e se sobrepõe, como faz em Amplidata da seção os principais jogadores. Aqui temos estes dois mais Caringo, a Hitachi Data Systems, NetApp e Cloudera para a esquerda e para a direita das principais da esquerda para a direita na diagonal, e Basho Technologies.


Os contendores incluem Basho, Tarmin, Huawei e NEC. Não há vendedores na seção dos participantes.


Com efeito, pensamos, o MarketScape é como um diagrama de Venn. Obviamente todos os fornecedores em que são participantes. Todos os candidatos e participantes e concorrentes. Todos os grandes jogadores são candidatos e participantes e os líderes devem ser grandes jogadores também ... ou é a nossa lógica quebrar?


IDC diz que "armazenamento baseado em objetos (OBS) ainda é um mercado em sua infância e vários fornecedores de soluções OBS comerciais têm se esforçado para gerar um fluxo de receita significativa de suas ofertas."


Ashish Nadkarni, diretor de pesquisa da IDC Storage Systems, disse: "O que faz com que este segmento de mercado e esta MarketScape interessante é o impulso dinâmico / pull entre arquiteturas OBS comerciais e da dinâmica de código aberto que estamos vendo com OpenStack. Isto tem implicações estratégicas para a indústria como um todo ".


Conclusão da IDC é que: "As forças de mercado tal demanda e competição feroz comprador vai acelerar a metamorfose desse mercado em um mercado maduro, com apenas alguns fornecedores dominantes. Pilhas baseadas em código aberto irá criar uma dimensão adicional de complexidade e desafios. Em toda a probabilidade, os únicos sobreviventes neste mercado pode ser fornecedores com ecossistemas robustos parceiros e / ou fornecedores com variantes comerciais de plataformas de código aberto. "


IDC menciona Exablox, InkTank (Ceph), SwiftStack e Quantum no seu relatório.


Da Scality Philippe Nicolau, diretor de estratégia de produto, no blog (em francês) sobre o resultado, dizendo:



  • Já podemos eliminar Amplidata [uma vez que é at] à beira do abismo confirmado se necessário ... aqui no Denver Super Computing [show]

  • EMC e é muito famoso Atmos, invisível no mercado, mas impulsionado pela líder mundial em armazenamento, então sabemos por que a EMC está na lista.

  • Isso deixa os três jogadores mais ativos no mercado; Cleversafe, DDN e Scality

  • Cleversafe é muito limitada (único objeto, macro arquivo modo), mas goza de status de pioneiro

  • DDN tem sua SAN e NAS e WOS

  • Scality é o único com uma oferta de classe exascale


DDN discordaria essa última afirmação e Amplidata discordaria com o primeiro.


Comprar relatório de 35 páginas da IDC para US $ 15.000. Baixe um trecho do site da Amplidata . É apenas uma de 13 páginas PDF e inclui uma discussão sobre o produto OEM'd Lattus da Quantum, com base em Amplidata tecnologia.


No extrato, a IDC aponta: "Para isolar-se a precipitação de potencial M & A [fusões e aquisições] atividade, Quantum seria melhor servido em encontrar uma solução de longo prazo em que ela tem direitos de propriedade sobre este IP, independentemente do que acontece com Amplidata. " ®



terça-feira, 26 de novembro de 2013

Dropbox é nuvem de armazenamento mais agradável para o velho in-out


Regcast livre: Gerenciando dispositivos de vários fornecedores com System Center 2012


Boffins da Universidade de Twente e do Politecnico di Torino ter executado a regra ao longo de cinco serviços de armazenamento em nuvem consumidor da classe para ver qual tem o melhor desempenho em termos de carga que impõem às máquinas que executam eles.


Enquanto os pesquisadores consideram os cinco serviços que testaram - Dropbox, SkyDrive, Google Drive, Amazon Cloud Drive e Wuala da Lacie - como serviços de consumo, os três primeiros oferta o mesmo cliente para uso pessoal ou comercial, daí o nosso interesse em sua pesquisa.







O estudo ( (PDF) admite algumas falhas, especialmente que seus testes também colocar de um local na Europa. Mas os autores também oferecem os scripts Python usados ​​para criar o estudo, um toque agradável.


O estudo constata que o cliente do Dropbox oferece mais truques-minimização de largura de banda do que wares de desktop os outros quatro fornecedores ". O pior desempenho é da Amazon Cloud Drive, que os boffins concluir oferece "... desperdício de largura de banda ... uma ordem de magnitude maior do que outras ofertas, e sua falta de recursos de cliente resulta em gargalos de desempenho. "O serviço também" ... mostra ainda mais em cima - ou seja, mais de 5 MB de dados são trocados a cometer 1 MB de conteúdo. "


Pior de tudo, rotinas de autenticação de Cloud Drive Veja "polling é feito a cada 15 s, cada vez que abrir uma nova conexão HTTPS. Esta estratégia notificação consome 6 kb / s -. Isto é, cerca de 65 MB por dia "É isso mesmo - 65 megabytes por dia de bate-papo entre o cliente eo servidor.


Isso não é motivo para não considerar outras ofertas de armazenamento nublados AWS ", que dependem de diferentes meios para acessar a sua nuvem, mas faz Cloud Drive algo administradores inteligentes erradicar.


Por outro lado, os outros serviços testados enquete seus servidores com muito menos freqüência e enviar muito menos dados quando eles fazem isso.


Benchmarking Personal Cloud Storage study results

E o cliente de armazenamento em nuvem best-specced é ...



O estudo também constata que a localização do centro de dados é uma consideração importante. Wuala baseada na Europa teve um bom desempenho por causa da distância mais curta entre os testadores e os seus centros de dados. West-coast-únicos locais do Dropbox - ou apresentada como tal, uma vez que vive no Amazon S3 - feita para menor desempenho. Grande número de locais do Google ponta reduziu sua latência e feito para o melhor desempenho.


Por conclusões do estudo, Dropbox surge no topo, mesmo que ele encaminha todos os seus dados através dos EUA. Coroa do serviço é derivado firmemente entre os muitos recursos de trituração de dados em seu cliente.


Será que esse resultado fazer Dropbox um substituto NAS viável, especialmente agora que a sua cliente pode gerenciar uma conta pessoal e empresarial? Isso é para vocês, queridos leitores, para decidir e discutir. ®



CEO Infinio: É VNAs não VSAN. Chuh!


Auto-avaliação do nível de proteção de recuperação de desastres


CEO entrevista blog de ​​armazenamento centralizada muitas vezes representa o gargalo da pilha de centro de dados de desempenho. A matriz de armazenamento situa-se longe da aplicação e tem de lidar com a mudança de E / S de várias aplicações. Como resultado, a latência a uma matriz de armazenamento ocupado é elevada e desempenho pode ser imprevisível.


Armazenamento Aproximando-se a aplicação é uma ótima maneira de resolver o problema. Clarão do lado do servidor está perto do aplicativo e pode agir como um amortecedor para firmar lê e escreve para a matriz de armazenamento centralizado.







Uma barreira para superar com a maioria das soluções é que os clientes são obrigados a encomendar hardware e investir em um trabalho considerável para executar a instalação. Reconhecendo essas barreiras, Infinio está tentando diferenciar-se através da oferta de um dispositivo virtual que usa a memória do servidor existente para cache de leitura. O produto pode ser baixado e totalmente testada por 30 dias.


Eu entrevistei Arun Agarwal, diretor executivo da Infinio para saber mais sobre a empresa eo produto.


WTH: Depois que você terminar de Harvard e do MIT, que medidas o levou a começar Infinio em 2012?


Arun Agarwal: Na verdade, eu construí a minha carreira na área de Boston. A primeira inicialização eu fazia parte era Endeca Technologies, [que] foi comprada pela Oracle por US $ 1 bilhão. Eu meio que tem sido um cara arranque desde então.


Entrei VC para um pouquinho, eu trabalhei em Lightspeed Venture Partners e Bessemer Venture Partners. Eu realmente queria voltar a construir um negócio e é assim que eu acabei trabalhando com o meu co-fundador Vishal Misra. Através de nossas conexões em Columbia e minhas conexões em Venture Capital que, na verdade, viu uma oportunidade de construir uma empresa.


Dois dos VCs eu trabalhei para realmente estão apoiando Infinio e eu ter sido previamente envolvidos com a Highland Capital, bem como, que é o nosso terceiro investidor.


Essas conexões I construiu no passado tudo levar a partida Infinio. A melhor maneira que pode caracterizar que é que você tem que criar serendipity, manter o ouvido no chão e ser oportunista.


É um pouco de arte, um pouco de ciência e um pouco de sorte


WTH: Se eu tivesse que descrever o que Infinio faz em duas palavras, seria ler cache. Certo?


Arun Agarwal: Essa é a história técnico. O que eu diria é que Infinio se concentra em duas coisas: [ser] no tempo, [sendo] no orçamento.


A pergunta que deve ser feita é: Como posso lidar com os problemas que eu tenho? O que estamos tentando vender é a solução mais simples mais fácil e mais rentável para um problema muito doloroso no centro de dados.


Estamos tentando vender para a pessoa e não apenas resolver um problema de data center. Eu acho que está sendo muito negligenciado em nossa indústria. Eu acho que algumas pessoas estão realmente se envolver nas velocidades e avanços, é tudo sobre os microssegundos, os milissegundos.


Eu não estou tentando banalizar a importância disso, mas no final do dia, há pessoas que estão executando os centros de dados e devem ser focadas em como ajudá-los. O objetivo deve ser o de manter os usuários finais felizes e manter os custos sob controle.


WTH: Infinio é appliance virtual. Adicionado sobrecarga ea latência são associados a essa escolha. Por que não construir um módulo do kernel?


Arun Agarwal: Essa é uma boa pergunta, deixe-me sentar e falar com você através do que o objetivo do produto da Infinio é.


Infinio é menos sobre como fazer corrida de armazenamento muito, muito mais rápido. Estamos mais sobre como podemos manter caixas de armazenamento fora do problema.


Dizemos que a grande maioria das aplicações lá fora são muito bem com latência milissegundo. Onde estas aplicações ficar em apuros, é quando essas matrizes de armazenamento ficam sobrecarregados e os aplicativos são interrompidas por causa de picos de latência.


Infinio está tentando descarregar essencialmente de armazenamento para prolongar a sua vida de forma dramática e evitar ter que jogar hardware para o problema. Infinio é mais um jogo de utilização desempenho do que uma peça de aumento de desempenho.


Estamos focados em: Como é que vamos fazer uma solução que é extremamente fácil de baixar, e tentar instalar. Um dispositivo virtual é a melhor escolha para isso. Se tivéssemos sido depois a velocidade, ou a menor latência, então poderíamos ter feito uma escolha diferente.


Agora, é claro que estamos lidando com o desempenho de armazenamento, mas a posição diferenciada que estamos tendo no mercado não é sobre ir mais rápido. Trata-se de comprar menos hardware. Nosso slogan é comprar o desempenho não rígido. Pessoalmente, penso que é um negócio melhor.


WTH: Imagine uma configuração com três hosts VMware em execução, switches e uma SAN EMC. O que acontece se o appliance virtual Infinio não está disponível / acidentes?


Arun Agarwal: Assim, para cada sistema executando múltiplos hosts, há um appliance virtual Infinio execução em cada host além de uma máquina virtual de gestão. Quando a gestão VA detecta uma falha Infinio VA, a primeira coisa que fazemos é desligá-lo e iniciar o VA de volta. Nós simplesmente sair do caminho, para que, no pior dos casos, a configuração funciona como seria sem Infinio.


WTH: Quais são os principais casos de uso que seus clientes usam para Infinio?


Arun Agarwal: Na verdade, estamos vendo uma grande variedade de casos de uso. Qualquer lugar que você pode reduzir hardware gastar vale a pena testar o nosso produto. Nós estamos vendo bons resultados em uma ampla variedade de cargas de trabalho.


WTH: Se você fosse a considerar concorrentes, o que nomes de subir?


Arun Agarwal: Nomes que surgem quando as pessoas nos comparar são PernixData e dados Proximal . Nós realmente ligada com PernixData como finalista para a melhor nova tecnologia no VMworld 2013.


Eu acredito que, no caso de PernixData, se os clientes estão olhando seriamente em ambas as soluções, então um de nós está no lugar errado. As soluções são muito diferentes.


WTH: Quão grande é o seu time atual e como vão as coisas?


Arun Agarwal: Estamos atualmente em torno de 30 pessoas e que levantou cerca de US $ 12 milhões a partir de top-notch VCs. Todo mundo está realmente empolgado, as coisas estão indo muito bem.


WTH: Quais são os próximos grandes passos para Infinio sobre desenvolvimento go-to-market e do produto?


Arun Agarwal: Existem alguns passos importantes que vêm para cima. Atualmente estamos NFS-e só estamos em breve adicionar suporte bloco para nossa tecnologia. Queremos servir o maior número de clientes possível.


O segundo é que nós queremos trabalhar em direção a 100 por cento de auto-atendimento. Nosso produto já é muito fácil de instalar, mas ainda estamos trabalhando com os clientes muito perto. Queremos que ele seja completamente auto-atendimento, onde os clientes instalem a partir de um portal e estamos 100 por cento hands-off.


Com esse último objetivo alcançado, é realmente tudo vem junto. Temos um produto que é tão fácil de instalar, que permite-nos oferecer isso de uma forma de auto-atendimento. Isso faz com que nosso processo de vendas interno muito mais barato, o que nos permite definir o preço mais baixo e oferecer mais valor aos nossos clientes.


WTH: Quais são suas metas para os próximos anos?


Arun Agarwal: A ideia é construir uma empresa de armazenamento grande. Temos tudo o que precisamos fazer isso. Nós temos a equipe certa, a borda, o posicionamento ea tecnologia. Então, nós vamos construir um negócio interessante aqui. Vamos expandir nosso suporte à plataforma, adicionar recursos e apenas expandir nossa quota de mercado.


A visão de mais alto nível que eu tenho para a empresa, está levantando a barra para fácil de usar, mais fácil tentar e mais fácil de comprar. Essas são todas as coisas que eu acredito Infinio pode aplicar a mais do que apenas este problema. ®



Voamos nosso homem Jack Clark em deserto DADOS TOMB do Facebook. Isto é o que ele viu


Guia rápido para a recuperação de desastres na nuvem


Fotos no alto deserto do Oregon, o Facebook irá armazenar em um necrotério digital de baixo consumo de energia frio as fotos de você, eu, e todos os outros em sua fazenda de conteúdo.


Este túmulo não é um típico, mas sim uma "câmara fria" Além de generoso complexo do centro de dados da empresa na cidade do estado de Prineville. Nós relatamos pela primeira vez na nova unidade em fevereiro . Este Outono Facebook entrou em contato para ver se queríamos fazer uma viagem para uma parte rural de Oregon para uma visita "especial" para a sua instalação.


Depois de verificar a parte de trás do sofá do Urubu Ocidente para os fundos necessários, que disse que sim.


FBtrip

Agora que é o acesso remoto ... Monte Hood, Oregon, vislumbrada a partir de nossa micro-avião Portland-Redmond

(Clique para ampliar)



Para chegar ao centro de dados que você precisa para obter um avião para Redmond, Oregon, em seguida, siga para o deserto por cerca de 30 minutos. Está frio, seco e vazio. O clima traz uma polegada de chuva por ano, em média, e as temperaturas ficam entre os 20s baixos e meados dos anos 80, em graus Fahrenheit. Este é o tempo ideal para centros de dados livres-de refrigeração, como o Facebook de.


Embora o Facebook é famosa por decorar seus escritórios com graffiti e os pré-escolar doce-cores que o Google também gosta de, não há como contornar o fato de que os centros de dados são edifícios feios cuja forma se confunde com a sua função.


FBbuildingonefront

Brutalista complexo reeducação Soviética ou Facebook data center?



O complexo do centro de dados tem estado em contínua construção desde 2010, ea partir de janeiro 2013 quase 3.000 trabalhadores tiveram uma mão na construção dos celeiros bits.


Os edifícios trazer para fundições de alumínio mente, ou barras de chocolate prateadas feitas para, um deus utilitarista gigantesca. Se você ficou qualquer uma das estruturas vertical, seria 81 andares de altura. A parte superior de cada centro é dedicado a um sistema de refrigeração de ar livre gigante que leva na, ar fresco e seco Oregon, filtra-lo e usa-lo para resfriar os servidores zumbido dentro.


FBbuildingoneexternal

Byte celeiro ... Se você ficou Building One por seu lado, que seria 81 andares de altura



Além de operar um sistema avançado de refrigeração livre em conjunto com os desenhos de vacas magras defendidos pelo seu Projeto Open Compute , o Facebook também tem procurado cortar seu uso de energia em outro lugar.


Uma das principais abordagens pioneira pela empresa é a redução do número de transformações que se aplica ao poder.


FBPDU

Facebook tem re-jigged do jeito que distribui energia elétrica para economizar em custos de energia

(Clique para ampliar)



Ao invés de levar a energia a partir de um transformador em 480/277VAC e alimentá-lo através de alguns sistemas de UPS, em seguida, uma unidade de distribuição de energia e, em seguida, uma fonte de alimentação do servidor, Facebook traz diretamente para baixo a facilidade para essas caixas de fornecimento de energia azul que se conectam a placas traseiras de poder "rack aberto".


Esta, Facebook diz, leva a uma perda de 7,5 por cento durante a transmissão, contra uma perda de 21 a 27 por cento na abordagem tradicional.



DDN: sistemas de arquivos paralelos bater na parede? Deixe-os comer super-carregada-duper de cache


Auto-avaliação do nível de proteção de recuperação de desastres


DataDirect Networks reconhece sistemas de arquivos paralelos existentes serão executados full tilt em uma parede escalabilidade à medida que se oprimido por arquivos simultâneos acessos e bloqueios de complexos de computação HPC com dezenas de milhares de núcleos. É necessário um cache maior, melhor e mais rápido.


DDN criou o conceito de memória infinita Engine (IME) e irá desenvolvê-lo em um até três anos de computação de alto desempenho (HPC) IO esforço de otimização de pilha. A idéia básica é muito simples: manter um cache de estado sólido entre vários núcleos de CPU rápidas multi-threaded que produzem OI aleatórios por um lado e uma matriz de armazenamento do sistema de arquivos paralelo no outro.


DDN IME diagrama de blocos

Compute explosão núcleo


Pensamento de DDN é que o número de núcleos de computação em um complexo de computação HPC vai crescer radicalmente. Seu pensamento é informado por seu trabalho fazendo em os EUA Los Alamos National Laboratory nos chamados buffers de ruptura. Olhando para um Top 500 de supercomputadores de 2010, ele diz que um cluster de computação teve média de 13.000 núcleos. É estimado que o número de um supercomputador top 500 em 2018 seria 57772000 núcleos - 57772000. Isto é o que ele chama de território exascale.


Vamos dizer que os processadores de 2010 foram duplo-threaded, então pedidos IO de 26.000 tópicos conseguiu acertar o sistema de arquivos. Em 2018, digamos, com CPUs 12-threaded, poderíamos ter pedidos de IO de 693.300.000 tópicos acertar o sistema de arquivos. Este seria um aumento de 26.665 por cento.







As chances de qualquer parte com chave de um arquivo que está sendo bloqueado iria crescer muito, até o ponto onde pode haver filas de bloqueios espera também ser instanciado e os aplicativos HPC desacelerar, com cálculo de espera para o armazenamento.


DDN aponta que a adição de fusos por largura de banda suficiente para lidar com este problema é muito caro e os discos falhar, o que significa um monte de programação defensiva tem de ser feito para lidar com isso. Em algum ponto, é mais barato para ter um buffer de estado sólido do que para continuar adicionando eixos, ea vantagem de estado sólido ao longo do disco continua ficando maior à medida que a contagem da linha / core no complexo computacional aumenta.


Precisamos de um buffer para lidar com duffers disco lentos


Por isso, precisamos, diz DDN, um buffer muito grande e muito rápido interposta entre os de computação e armazenamento partes de um sistema HPC, de modo a manter a computação computação com aleijando o armazenamento de back-end.


DDN IME diagrama de sequência

DDN diz que seu IME é um:



  • cache de armazenamento NVRAM distribuído usando algoritmos patenteados para eliminar a pressão de bloqueio de arquivo,

  • tem proteção de dados cross-rede,

  • o, sistema consciente-load-evitando falhas otimiza para a velocidade,

  • ele é totalmente integrado com os sistemas de arquivos paralelos HPC populares como Lustre e GPFS e

  • o uso de um cache NVRAM irá simplificar aplicativo enveloper trabalho IO.


DDN diz que, ao usar IME, um Big Data ou HPC aplicativo emite um pedido de gravação para o IME. O IME é escalável e escaláveis ​​"escreve" não necessitam de bloqueios do sistema de arquivos paralelos <- alerta molho secreto.


Gravações são mapeados dinamicamente para o armazenamento de estado sólido, com base na sua carga e de saúde, e, em seguida, protegida. Os dados são drenados seletivamente para um sistema de arquivos paralelo de maneira totalmente seqüencial, DDN diz, e isso garante quase perfeita utilização do disco.


Persisted lê são encenadas no buffer IME, ou para o cliente diretamente. DDN diz o lê são rápidos, bem desde que eles são feitos de 100 por cento sequencialmente os dados gravados.


Alega IME pode lidar com milhões de solicitações simultâneas por segundo, escala linearmente para aplicações em rajadas, e escalas 2000 vezes melhor do que a tecnologia do sistema de arquivos HPC de hoje. Enquanto IME não foi anunciado como um produto DDN é incluí-lo em licitações para sistemas petascale.


Blogging tampão Explosão


DDN marketeer Jeff Denworth escreveu um blogue IME . Nela, ele diz: "O segredo cabeludo sobre sistemas de arquivos paralelos é que as operações mais verdadeiramente paralelo trazê-los de joelhos escreve compartilhados são o pior, como metadados disputa torna-se insuportável quando você começa além de alguns 100K solicitações simultâneas.".


Hoje, o IME usa flash NAND. No futuro, pode usar uma tecnologia pós-flash não-volátil, como resistiva RAM, transferência de spin-Torque RAM ou memória de mudança de fase.


Do DDN Jean-Luc Chatelaine, EVP de estratégia e tecnologia, escreve no seu blogue : "Acontece que eu sou um grande fã da abordagem in-memory, mas também um crente que a Memória Next Gen NV (ou seja, PCM, ReRAM, Stram) é o "caminho para a salvação da aplicação."


"A economia dessas tecnologias futuras são tais que eles vão permitir que grandes quantidades de memória rápida, estático, baixo consumo de energia para estar ao lado de DRAM (para a divulgação completa, estou muito inclinado para ReRAM), e com a camada de middleware direito pode . fazer I / O "desaparecer", como visto a partir da camada de aplicação Isso irá reduzir os níveis de persistência para um, enquanto eliminando a complexidade - com o efeito colateral importante é que a camada de armazenamento verdade vai permitir o uso de lento, muito gordo e muito verde , a mídia girando.


A EMC também tem atividades em Los Alamos e também está envolvida no trabalho de buffer estourar com seu aparelho ABBA . ®



Big Data está ficando muito grande maldito - e ninguém está a ajudar a corrigir esse


Auto-avaliação do nível de proteção de recuperação de desastres


Storagebod como vendedores corrida para ser melhor, mais rápido e se diferenciar em um mercado já ocupado, as reais necessidades das equipes de armazenamento pode ser deixado não atendida - e também os do consumidor armazenamento. Às vezes é como se os vários fornecedores estão construindo dragsters, chamando-os saloons família e esperando que ninguém note. Os problemas que eu escrevi sobre quando eu comecei o blog parece ainda na sua maioria sem solução.


Gestão


Gerenciamento de armazenamento em escala ainda é problemática, ainda é extremamente difícil encontrar um conjunto de ferramentas que permitirá que uma equipe ocupado para ser capaz de avaliar a saúde, desempenho, capacidade de suporte e capacidade de relance. Ainda assim, muitas equipes estão usando planilhas e registros mantidos manualmente para gerenciar seu armazenamento.


Ferramentas que permitem a gestão end-to-end de uma infra-estrutura de ferrugem ao silício e todas as partes in-between ainda não existem ou se o fizerem, eles vêm com grandes preço-etiquetas que, invariavelmente, não têm um ROI real ou um realista estratégia de implementação.







Como vamos construir mais silos no armazenamento de infra-estrutura, obtendo uma vista de toda a propriedade é mais difícil agora do que nunca. Ferramentas de gerenciamento de vários fornecedores são, em geral, com falta de capacidade de muitos vendedores utilizam mudanças sutis para infligir danos sobre as ferramentas de gestão de concorrentes.


Mobilidade


Mobilidade de dados em camadas, onde esses níveis estão espalhados por vários fornecedores é difícil, as aplicações geralmente não são atualmente projetada para encapsular essa funcionalidade em suas especificações não-funcionais. E muitos vendedores não querem que você seja capaz de mover dados entre os dispositivos e os dos concorrentes - por razões óbvias.


Mas, certamente, o flash mais cega start-up tem que perceber que este tem de ser resolvida, mas vai ser uma empresa incomum que irá colocar todos os seus dados em flash.


Claro que isso não é apenas um problema para as start-ups, mas poderia ser uma grande barreira para a adoção e é um dos obstáculos mais difíceis de superar.


Escalada


Embora tenhamos scale-out e soluções de escalabilidade vertical, a escala é um problema. Sim, pode ser dimensionado para o que parece ser o tamanho quase ilimitado estes dias, mas o processo de escalonamento traz problemas. Adicionando capacidade adicional é relativamente simples, reequilibrando o desempenho efetivamente usar essa capacidade não é tão fácil. Se você não reequilibrar, corre o risco de hotspots e até mesmo subutilização.


Isso requer um planejamento cuidadoso e de tempo, mesmo com as ferramentas, o que significa compreender as características de desempenho subjacentes e as exigências de suas aplicações. E com algumas das arquiteturas mais recentes, que estão armazenando metadados e de-duping, este parece ser um desafio para os fornecedores. Faça perguntas de vendedores a respeito de porque eles são limitados a um número de nós, não será envergonhado arrastar de pés e métodos alternativos de federar um número de matrizes em uma entidade lógica virá rapidamente em jogo.


E, em seguida, a mobilidade entre matrizes torna-se uma questão a ser abordada.


Desempenho determinístico


Como matrizes ficam maiores, mais cargas de trabalho se consolidou em uma única matriz - e sem a capacidade de isolar cargas de trabalho ou garantir a execução, o risco de maus vizinhos barulhentos e aumenta. Poucos vendedores ainda agarrou o touro pelos cornos de QoS e ainda menos os desenvolvedores realmente entender o que as suas características e requisitos de desempenho são.


Crescimento de Dados


Apesar de todos os esforços para reduzir isso, armazenar quantidades cada vez maiores de dados. Precisamos de uma iniciativa da indústria para ver como podemos melhor cura e gerenciar dados. E, no entanto, se resolver os problemas acima, a questão do crescimento vai simplesmente piorar ... como reduzir o atrito ea sobrecarga de gerenciamento, vamos simplesmente consumir mais e mais.


Talvez os vendedores devem se concentrar em tornar-se mais difícil e mais caro para armazenar dados. Pode ser a única maneira de diminuir a demanda inexorável para sempre mais espaço de armazenamento. Ainda assim, isso não é realmente do seu interesse.


Às vezes se faz perguntar por que todos esses problemas persistirem ... ®



segunda-feira, 25 de novembro de 2013

Cara, relaxar - é apenas um monte de discos: Nosso homem orienta como JBODs trabalho


Guia rápido para a recuperação de desastres na nuvem


Blog Sysadmin Eu sou uma daquelas pessoas terríveis que "aprendem melhor fazendo" e sempre tive um momento difícil envolver minha cabeça em torno exatamente como alta disponibilidade usando "JBOD" sistemas de chassis rígido externo deveria funcionar. Mas a minha ignorância inicial pode trabalhar tanto para nós, como nós aprendemos juntos.


Como ele teria sorte, AIC estava interessado em ter-me fazer uma revisão de sua nova XJ3000-4243S chassi rígido externo. O dispositivo AIC acabou por ser uma grande unidade eo tempo de mexer estendida me permitiu aprender um pouco.


Ligá-lo, ligá-lo


Para Grokar como os sistemas JBOD trabalhar, vamos cobrir algumas noções básicas de armazenamento. Aqueles de vocês que já desmontado um computador nos últimos dez anos, provavelmente vai estar familiarizado com conectores SATA. Você tem um cabo de alimentação e um cabo de dados, você ligar um de cada até um disco rígido eo cabo de dados fica ligado ao sistema em uma das três maneiras.


O primeiro método é ligar o disco rígido diretamente na placa-mãe. Aqui, o controlador SATA é geralmente construído na direita para o southbridge, BIOS da placa-mãe pega o disco eo sistema operacional (espero) pode usá-lo sem qualquer outra intervenção.







Em seguida você tem o Host Bus Adapter (HBA) - um cartão add-in que fornece-lhe algumas portas para anexar seus discos, mas normalmente não faz hardware RAID. O último método para a fixação do disco de sistema é o cartão de RAID: basicamente um HBA com capacidade de processamento de hardware RAID, a sua própria BIOS para configurar e gerenciar o RAID, cache de RAM e até mesmo uma unidade de bateria de backup.


Fixação do disco rígido para sistemas podem assim variar de recurso integrado fundamental de praticamente qualquer placa-mãe do sistema para RAID cartões que são computadores inteiros em seu próprio direito de manuseio dos discos por conta própria e apenas apresentando um disco "virtual" para o sistema, na forma da pós-invadiram volumes de armazenamento utilizável.


AIC JBOD rear image

Ao contrário das portas SATA na placa-mãe, as portas SAS nesses HBAs e placas RAID geralmente não são apresentadas como portas individuais. Eles são apresentados como conectores mini-SAS que são quatro portas em um único conector físico. Se você já usou placas RAID com unidades SATA que você provavelmente já viu isso diretamente na forma de um cabo de break-out que transforma uma porta interna mini-SAS em quatro cabos SATA.


Dada a natureza de série do SAS, no entanto, quatro portas, não significa que um conector mini-SAS pode utilizar um máximo de quatro unidades. Estes conector mini-SAS pode ser anexado ao expansores SAS para hospedar dezenas de unidades de fora de um único conector. Se você já se perguntou qual era a relevância da 12Gb/sec por porta SAS quando maioria dos discos rígidos pode fornecer talvez 1/10th de que, é por isso.


Duas portas são melhores do que um


No mundo da SATA e SAS, quase qualquer placa HBA ou RAID que é projetado para unidades SAS pode lidar com discos SATA. É perfeitamente possível a utilização de cada um destes métodos de fixação sem nunca usar discos SAS ou mesmo entender as vantagens SAS traz para a mesa.


Eu não vou nem tentar cobrir toda a gama de diferenças aqui - para que eu recomendo Scott Lowe peça 's sobre o tema -, mas o item que diz respeito ao uso de JBODs é que ao contrário dos discos SATA, unidades SAS têm dois conectores de dados em cada unidade.


Fabricantes de sistemas de armazenamento e eu tenho uma história de fortes divergências sobre o conceito de "redundância". Muitos deles chamar um sistema "totalmente redundante", quando tudo o que ele realmente tem é fontes de alimentação redundantes, RAID para sobreviver o disco estranho morto e dois HBAs cada conexão com uma porta diferente nesses discos SAS de modo que você pode sobreviver à perda de mesmo o HBA.


Expansão SAS é como um servidor como a Supermicro 6047R-E1R36L pode executar 36 unidades fora de um par de quatro portas conectores mini-SAS. Na verdade, ele é projetado com expansores SAS que suportam HBAs duplos por isso, se você queria para rolar o seu próprio servidor de armazenamento que era exatamente como os grandes caras, isso é exatamente o que você usaria.


Isso soa muito bom e correto, mas eu experimentei falhas da placa-mãe, falhas de memória RAM e até mesmo processadores mortas, muitas vezes o suficiente para que eu não posso colocar apenas um desses sistemas no negócio do cliente e cruzar os dedos. Mesmo com "reparação empresa de quatro horas" Estou desconfortável: sem o sistema de armazenamento nada funciona. Se esses quatro horas acontecer na hora errada do dia, que pode acabar com alguns dos meus clientes.



Ações mergulho como postos de violino $ 34 MEELLION perda


Guia rápido para a recuperação de desastres na nuvem


Perdas de Violino de memória estão aprofundando mais rápido do que suas vendas estão crescendo e que é certamente insustentável secretária de finanças de armazenamento de El Reg pensa um défice de ordens do governo federal exacerbou a estagnação da empresa o crescimento das vendas -. Ea iminente concorrência e software inadequações não ajudou muito também.


Como resultado, suas ações estavam sendo negociadas a baixos de $ 2,99 no fim da cauda da semana passada e fechou em 3,11 dólares - quando você compara isso a um preço de IPO de US $ 9 por ação, ele não se parece nada bom.







As receitas para o terceiro trimestre fiscal de 2013, encerrado em 3 de outubro de foram de US $ 28.3m, 37 por cento maior do que um ano atrás. Analistas de Wall Street esperavam maiores receitas de quase US $ 32 milhões.


O prejuízo líquido do trimestre foi de US $ 34.1m, um recorde. No trimestre anterior, que foi de US $ 30.6m, o que significa um aumento de 11,3 por cento, e há um ano era de US $ 25,4 M, ou seja, as perdas subiram 35,3 por cento em relação ao ano.


A perspectiva de violino para o quarto trimestre é de R $ 30 milhões a US $ 32 milhões, mais uma vez inferior as expectativas dos analistas - de $ 44m - embora 35,5 por cento maior do que um ano atrás (no ponto médio US $ 31 milhões).


Como um resultado de ações caiu, negociando agora em 3,11 dólares, uma queda de quase 50 por cento a partir do nível $ 6,00 visto nos dias que antecedem os resultados foram anunciados e um longo caminho para baixo do preço de IPO de US $ 9,00.


A receita total 2.013 anos seria de R $ 110.6m no ponto médio das perspectivas quarto trimestre, 50 por cento acima do ano-a-ano.


Don Basile, CEO da Violin Memory, falou de geléia amanhã: "O nosso Software Memória Empresarial e Sistemas estão permitindo aos clientes obter enormes ganhos de desempenho de aplicações empresariais, e significativa redução de custos, resultando em novos níveis de produtividade. Durante o trimestre, nós adicionamos 32 novos clientes e entregues receita recorde e margens brutas, mesmo em um ambiente de gastos Federal desafiador ".


Para fornecer uma imagem da receita trimestral da história Violino e lucro líquido / prejuízo fomos aos arquivos da SEC para o documento IPO .


Ao combinar esses números com os resultados do terceiro trimestre fy2013 construímos este gráfico:


Violin Memory resulta a Q3 fy2013

Violin Memory resulta a Q3 fy2013 - clique no gráfico para uma versão ampliada



A grande queda de receita no primeiro trimestre 2012 provavelmente reflete o fim efetivo da relação HP. Para ter um lamaçal em tinta vermelha, também graficamente a história lucro / prejuízo líquido trimestral e isso é um gráfico horrível:


Violin Memory história perda líquida para Q3 fy2013

Violin Memory história perda líquida para Q3 fy2013



O que podemos aprender com isso?



  • As perdas estão crescendo mais rápido do que as vendas

  • Com nove meses do ano fiscal 2013 passaram e perdas de cerca de US $ 92m podemos assumir fy 2013, mostram uma perda mais profunda do que no ano anterior - $ 109.1m

  • A não ser que a receita de vendas mais do que dobra, Violino não será rentável


Violino precisa aumentar radicalmente seu volume de vendas e / ou despesas operacionais cortadas.


Na chamada de ganhos, o que ouvimos, Dom Basile disse que não estava satisfeito com os resultados e disse que o principal contribuinte foi o seqüestro Federal. Brent Bracelin, analista da Pacific Crest Securities na chamada, perguntou se havia empresa faturamento fraqueza também.


Corey Sindelar, CFO da Violino, não admitiu isso. Ele disse que o violino estava rastreando US $ 10 milhões de vendas do Fed no início do trimestre, mas apenas reservado $ 2,6 milhões. Basile e Sindelar disse que a receita déficit do trimestre foi "em grande parte atribuída" para os federais, eo nível de ordem Fed foi o "principal contribuinte" para a receita déficit do trimestre.


Eles não dizem que as vendas de produtos da empresa cresceu no trimestre. Portanto, El Reg pensa, Violin Memory viu as vendas corporativas planas ou fracos no trimestre em relação ao trimestre anterior.


A Bracelin-autoria nota de pesquisa , disse: "Isso aumenta as nossas preocupações sobre a capacidade da Violin Memory para sustentar hipercrescimento próximo ano, particularmente em face da crescente alternativas competitivas no espaço conjunto all-flash."


Este resultado trimestral é sem o efeito da EMC XtremIO competição matriz da disponibilidade geral desse produto só foi anunciado há poucos dias.


Vendas de produtos PCIe Velocity eram baixas - $ 1.9m. Espera-se que um acordo de OEM com a Toshiba vai seguir o trabalho de desenvolvimento em curso, mas o tempo de um tal acordo, se isso acontecer, é provável que seja no primeiro semestre de 2014 com uma receita que vem no segundo semestre.


As Américas representaram 63 por cento da receita do Violino, com EMEA contribuindo de 17 por cento - ENEA chefe Steve Rose aparentemente foi demitido ou resignados dias antes do anúncio resultados - e Ásia representa 20 por cento. Toshiba revende produtos Violinos na Ásia.


Violin ganhou 32 novos clientes no trimestre, ligeiramente acima dos 30 e 31, nos dois trimestres anteriores, sem aceleração real lá.


Cerca de 38 novos funcionários foram adicionados no trimestre, 33 em vendas e marketing, tendo as vendas colhe números até 96, com 100 o alvo. Número total de colaboradores é atualmente 483.


Sterne Agee & Leach analista Alex Kurtz trabalhou-se que os novos clientes estão sendo encontrados por apenas um em cada três representantes de vendas do Violino, de acordo com a Bloomberg .


Sindelar disse despesas discricionárias, fora do quadro de funcionários, seria olhado, com pesquisa e desenvolvimento cortar um pouco no quarto trimestre.


Basile admitiu vendas foram decepcionantes, mas disse que os fundamentos continuam fortes. Mas não é? Competição vai aumentar, vamos apenas listá-lo:



  • EMC XtremIO e todo-flash VNX

  • NetApp EF540/550 e vindo Flashray

  • Armazenamento Pure

  • SolidFire

  • Dell tudo-flash Compellent

  • HDS flash Accelerator

  • HP 3PAR tudo-flash 7450

  • IBM e seu FlashSystem

  • Cisco e Whiptail

  • Kaminario

  • Dados Nimbus


Nossa visão é que a falta de software de gerenciamento de dados, como deduplicação nativa, em matrizes de violino é um obstáculo para o crescimento das vendas, e poderia ser um obstáculo fundamental para esse crescimento, e que o espectro do reforço da concorrência estagnou vendas matriz da empresa do violino.


Basile disse XtremIO entrada da EMC legitimou o mercado e é um global positivo. Mas ele diria isso.


Vendas de produtos de cartão de PCIe são baixas, e há grandes perspectivas para esta linha de produtos, além do negócio Toshiba OEM, foram estabelecidos para os analistas sobre a chamada.


Estamos informados de esperar novos anúncios de software no primeiro semestre de 2014. Sem qualquer idéia de que eles são, em seguida, o que vemos aqui é esta: ele compete no mercado no início variedade de flash palco está lutando uma ação de retaguarda para manter sua posição no meio de competição muito mais forte do EMC, NetApp e os outros fornecedores tradicionais.


A imagem que temos neste momento é que o violino é de recursos e pessoal para uma taxa muito maior de crescimento do que os produtos são realmente entregam.


O dinheiro queima na taxa de US $ 28mA trimestre, atualmente, e tem US $ 134m em caixa e investimentos; suficiente para mais alguns trimestres. Sua estratégia é ir para o crescimento, com seus produtos atuais, os clientes esperança comprar mais deles, e espero que o negócio OEM cartão Toshiba PCIe acontece e entrega a mercadoria, antes do seu dinheiro se esgote.


Como Fusion-io, Violin Memory tem correu em direção a um IPO e depois vem um cultivador todo-poderoso. Os produtos em exposição na loja não está atraindo clientes suficientes.


Se o atual CEO não pode obter receitas, e de forma dramática, em seguida, o seu mandato será posta em causa. Os investidores não acho que ele pode fazê-lo, daí a queda da cotação. ®