2012-02-25 4 views
0

私は、centos linuxで(localhostの代わりに)いくつかのIPアドレスで動作するようにhadoopシングルインスタンスクラスタを設定しました。私はmapreduceの仕事の例を正しく実行することができました。それは、ハープトップの設定がうまくいくように思えます。PDI hadoopファイルブラウザなしリスト

私も、私はPDI /ケトルからこのHDFSシステムに接続しようとしています「/データ」フォルダの下のHadoop databseにデータファイルのカップルをadddedし、「DFS」COMAND

bin/hadoop dfs -ls /data 

を通じて表示されています。 HDFSファイルブラウザで、HDFS接続パラメータを間違って入力した場合(例: HDFSサーバーに接続できないと報告されています。代わりに、すべてのパラメータ(サーバー、ポート、ユーザー、パスワード)を正しく入力して「接続」をクリックすると、エラーが発生せず、接続できることを意味します。しかし、ファイルリストには "/"が表示されます。

データフォルダが表示されません。何がうまくいかないでしょうか?

私はすでにこれを試してみた:

  1. を使用してデータ・ファイルにはchmod 777を試してみました "binに/のHadoop DFSを-R 777 /データを-chmod"

  2. はルートを使用してみましたし、またLinuxのHDFS

  3. は、いくつかの他の場所にデータファイルを追加しようとしたPDIファイルブラウザでユーザー

  4. 再フォーマットHDFS SEV ERAL時間と追加データファイルは再び

  5. PDIのEXTLIB

にインストール可能にHadoopからHadoopのコアjarファイルをコピーするが、それはPDIブラウザ内のファイルを一覧表示しません。 PDIログには何も表示されません...迅速なヘルプが必要です...ありがとう!!!

-abhay

答えて

0

この問題が発生しました。 Windowsでは、PDIはログファイルに何も記録していませんでした。私は同じことをLinux上で試してみました。ログに、Apacheからのライブラリがないというコモンズ設定が表示されました。私は同じものの最新バージョンをダウンロードし、extlib/pentahoフォルダとブームの下に置きました!出来た !!

関連する問題