2011-10-31 10 views
0

awoでhadoopアクセスs3に関する質問があります。hadoopがs3にアクセスできない

<property> 
<name>fs.default.name</name> 
<value>s3n://testhadoophiveserver</value> 
</property> 

<property> 

<name>fs.s3n.awsAccessKeyId</name> 
<value>I have fill it</value> 
</property> 
<property> 
<name>fs.s3n.awsSecretAccessKey</name> 
<value>I have fill it</value> 
</property> 

so。start -all.shを実行するとエラーコードが表示されます。このような :

hadoopmaster: Exception in thread "main" java.net.UnknownHostException: unknown host: testhadoophiveserver 
hadoopmaster: at org.apache.hadoop.ipc.Client$Connection.<init>(Client.java:195) 

hadoopmaster: at org.apache.hadoop.ipc.Client.getConnection(Client.java:850) 

adoopmaster: at org.apache.hadoop.ipc.Client.call(Client.java:720) 

hadoopmaster: at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) 

hadoopmaster: at $Proxy4.getProtocolVersion(Unknown Source) 

hadoopmaster: at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) 
hadoopmaster: at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346) 
hadoopmaster: at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383) 
hadoopmaster: at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314) 

が、私はHDFSを使用している場合、それは大丈夫です。 今、S3ファイルシステムは使用できません。 誰が私を助けることができますか?

答えて

1

"start-all.sh"を実行しないでください。 スクリプト "start-all.sh"には、HDFSとMapReduceの開始コードが含まれています。 S3を基本ストレージ層として使用するように設定している場合は、HDFSを起動する必要はありません。 start-dfs.shはstart-all.shによって呼び出されるため、構成しなかったHDFSを起動するコードが実行されます。

関連する問題