2017-01-26 12 views
0

Hadoop FSでローカルファイルをコピーしたい。hadoopローカルファイルをHadoop SFエラーにコピーする

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode 

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode 

と私は実行しても:私は、このコマンドを実行するhdfs dfs -ls

私はこのエラーを取得:

> WARN util.NativeCodeLoader: Unable to load native-hadoop library for 
> your platform... using builtin-java classes where applicable 
> copyFromLocal: `.': No such file or directory 

なぜ私にはわかりませんこのエラーが発生しますか?どんな考えですか?

+0

1) 'hadoop version'コマンドを実行してみてください。出力をポストしてください。 2)あなたの質問で提供した出力が '-ls'コマンドと関係がないので、' hdfs dfs -ls'コマンドの出力を修正してください。 – Serhiy

+0

@Serhiyと 'hdfs dfs -ls'の場合: ' sara @ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -ls 17/01/26 15:59:09 WARN util.NativeCodeLoader:ご使用のプラットフォーム用のnative-hadoopライブラリを読み込めません。 。可能であれば組み込みJavaクラスを使用する ls: '。 ':そのようなファイルやディレクトリはありません。' – Sasa88

+0

'hadoop fs -ls /'を実行し、エラーがないかどうかを確認します。 – Serhiy

答えて

1

あなたの入力によると、Hadoopのインストールは正常に動作しているようです。何が問題なのですか?hadoop fs -copyFromLocalは、Hadoopがそのブロックを格納するローカルディレクトリではなく、ディレクトリHDFSディレクトリをターゲットディレクトリとして想定しています。

だから、あなたがた場合のコマンドは、(例えば)のようになります。

[email protected]:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/ 

sampleDirはあなたがhadoop fs -mkdirコマンドで作成したディレクトリである場合。

+0

それはまさに作品です。私はまた、 'hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt/in'を実行して、この方法でファイルをすべてのユーザがアクセスできるようにします。助けてくれてありがとう。 – Sasa88