2017-02-09 5 views
0

こんにちは私はこのコマンドをhadoopクラスタのエンドノードの1つで実行しています。 hdfsからリモートマシンにデータをコピーしたい。ローカルマシンのディスククォータが限られているため、ローカルに格納できません。実行したいhdfs dfs -get /data/abc remotemac/abchdfsからリモートマシンへのコピー

+0

は、あなたが話しているリモートマシンです約、別のハープクラスター?もしそうなら、それに 'distcp'を使うことができます。 – daemon12

+0

ハープループクラスタではありません。そのリモートスタンドアロンLinuxマシン –

答えて

0

あなたはそれを直接行うことはできませんが、HoopWebHDFS REST APIを調べることができます。フープを使用すると、HTTP/HTTPSを介したHDFSの読み書きが可能です。

HortonworksにはWebHDFS HTTP rest access to HDFSに関するブログがあります。

sshjを使用する別の解決策があります。これは、などあなたがSSHDサーバーに接続し、ポート転送を使用することを可能にするのSSHv2の純粋なJavaの実装、ファイル転送、である次の参照で詳細を参照してください:

リファレンス:https://blog.layer4.fr/2013/04/09/transfert-files-from-hadoop-to-a-remote-server-via-ssh/

関連する問題