quinta-feira, 19 de fevereiro de 2015

NetApp traz funcionalidade Hadoop para seus clientes ONTAP


Fazendo o que ele é tão bom, NetApp adicionou um produto conector, permitindo aos seus clientes Data ONTAP para executar analytics Hadoop em seu armazenamento de dados NFS sem ter de copiar dados de WAFL em HDFS.


Sua NFS Connector for Hadoop permite analytics Hadoop para ser executado na entrada Big Data a partir de suas várias fontes, e, em seguida, combinar isso com olhar para dados estruturados também. Esta é a combinação essencialmente os dois tipos de dados para obter uma visão mais arredondado do que está acontecendo em uma organização empresarial ou do sector público.





Isso evita ter que migrar massas de dados a partir de matrizes FAS para a HDFS (sistema de arquivos do Hadoop) cluster.


O cluster Hadoop pode trabalhar principalmente no HDFS, e tratar ONTAP como um sistema de arquivo secundário, e, além disso, pode concebivelmente ser executado apenas nas matrizes FAS sem um silo HDFS separado.


Isso poderia ser uma maneira para os usuários do ONTAP para mergulhar um dedo do pé em águas Hadoop e testar a temperatura.


NetApp_NFS_Connector_for_Hadoop

O conector, que é open source e hospedado no GitHub:



  • Trabalha especificamente com MapReduce para a parte computacional do quadro Apache Hadoop

  • Pode suportar Apache HBase (banco de dados colunar)

  • Pode suportar Apache Faísca (mecanismo de processamento compatível com Hadoop)

  • Funciona com Tachyon sistema de arquivos na memória que podem ser executados com o Apache Hadoop and Spark


Em um blog de ​​Val Bercovici de CTO Gabinete do NetApp diz: "NetApp pretende contribuir com o código para o principal Hadoop tronco".


NetApp também tem o seu NOSH (NetApp Solution Open for Hadoop) esquema com Cloudera, que você pode conferir aqui .


Obtenha mais informações a partir da NetApp NFS Connector Relatório Técnico . Baixe o conector NFS para Hadoop de aqui . ®



Nenhum comentário:

Postar um comentário