2017-12-29 54 views
0

ローカルマシンでbelineを使用してDDLより下で実行していて、例外がスローされます。S3でHive外部テーブルを作成すると、 "org.apache.hadoop.fs.s3a.S3AFileSystem not found"例外が発生します。例外

DDLが

CREATE TABLE `report_landing_pages`( 
    `google_account_id` string COMMENT 'from deserializer', 
    `ga_view_id` string COMMENT 'from deserializer', 
    `path` string COMMENT 'from deserializer', 
    `users` string COMMENT 'from deserializer', 
    `page_views` string COMMENT 'from deserializer', 
    `event_value` string COMMENT 'from deserializer', 
    `report_date` string COMMENT 'from deserializer') 
PARTITIONED BY (`dt` date) 
ROW FORMAT SERDE 
    'org.apache.hadoop.hive.serde2.OpenCSVSerde' 
STORED AS TEXTFILE 
LOCATION 's3a://bucket_name/table' 

例外が

org.apache.hive.service.cli.HiveSQLException: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.s3a.S3AFileSystem not found) at org.apache.hive.service.cli.operation.Operation.toSQLException(Operation.java:380) at org.apache.hive.service.cli.operation.SQLOperation.runQuery(SQLOperation.java:257) at org.apache.hive.service.cli.operation.SQLOperation.access$800(SQLOperation.java:91) at org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork$1.run(SQLOperation.java:348) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698) at org.apache.hive.service.cli.operation.SQLOperation$BackgroundWork.run(SQLOperation.java:362) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:745) Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: MetaException(message:java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.s3a.S3AFileSystem not found) at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:862) at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:867) at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:4356) at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:354) at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:199) at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:100) at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:2183) at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1839) at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1526) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1237) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1232) at org.apache.hive.service.cli.operation.SQLOperation.runQuery(SQLOperation.java:255) ... 11 more Caused by: MetaException(message:java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.s3a.S3AFileSystem not found) at org.apache.hadoop.hive.metastore.api.ThriftHiveMetastore$create_table_with_environment_context_result$create_table_with_environment_context_resultStandardScheme.read(ThriftHiveMetastore.java:42070) at org.apache.hadoop.hive.metastore.api.ThriftHiveMetastore$create_table_with_environment_context_result$create_table_with_environment_context_resultStandardScheme.read(ThriftHiveMetastore.java:42038) at org.apache.hadoop.hive.metastore.api.ThriftHiveMetastore$create_table_with_environment_context_result.read(ThriftHiveMetastore.java:41964) at org.apache.thrift.TServiceClient.receiveBase(TServiceClient.java:86) at org.apache.hadoop.hive.metastore.api.ThriftHiveMetastore$Client.recv_create_table_with_environment_context(ThriftHiveMetastore.java:1199) at org.apache.hadoop.hive.metastore.api.ThriftHiveMetastore$Client.create_table_with_environment_context(ThriftHiveMetastore.java:1185) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.create_table_with_environment_context(HiveMetaStoreClient.java:2399) at org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient.create_table_with_environment_context(SessionHiveMetaStoreClient.java:93) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:752) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:740) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.invoke(RetryingMetaStoreClient.java:173) at com.sun.proxy.$Proxy34.createTable(Unknown Source) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient$SynchronizedHandler.invoke(HiveMetaStoreClient.java:2330) at com.sun.proxy.$Proxy34.createTable(Unknown Source) at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:852) ... 22 more

ですそして、私のローカルHDFSは "HDFS DFS -mkdir S3A://バケツ/テーブル" で正常に動作している

そして、私が最初にS3でテーブルを作成せずに、後でmetastoreでテーブルの位置をs3に手動で更新すると、selectステートメントが好きになりますe select COUNT(*) from report_landing_pages group by google_account_id は問題ありません。

DDLの例外を修正するにはどうすればよいですか?

私は、MacOS X EIキャプションの下でHive 2.3.2、Hadoop 2.7.5を実行しています。

答えて

0

問題が解決しました。

S3ジャーを配置した後、hasterver2の他に、メタストアサービスも再起動する必要があります。

0

自分の環境で同じテーブルを作成しようとしましたが、うまくいきました。設定ファイルにfs.s3a.access.key

"fs.s3a.secret.key","fs.s3a.impl=org.apache.hadoop.fs.s3a.S3AFileSystem" 

プロパティ:

はあなたのを確認してください。

+0

設定がすべて正しいです:

OR あなたはハイブ-サーバー2を使用している場合は、次のコマンドを使用します。 –

0

クラスパスに必要なすべてのj3 s3などを配置しましたか? (org.apache.hadoop.fs.s3a.S3AFileSystem) - これはHadoop-aws jarにあるHadoopクラスです。これらのクラスの1つを報告している例外が見つからない場合は、このJARがクラスパスにないことを意味します。

+0

はい。他の選択ステートメントは正常に実行されません。 –

+0

hadoop/share/common/libsにhaddop-aws-2.7.5.jarとaws-sdk-1.7.4.jarを入れました。瓶を入れなければならない場所は何ですか?また、 "add jar"、 "HIVE_AUX_JARS_PATH"も機能しません。 –

+0

このようにハイブシェルインターフェイスを使用してクラスパスを永続的にハイブに追加しようとしましたか?を1つ追加してくださいJars path one by –

0

はい、正しいです。ジャーを配置した後、ハイブメタストアサービスはハイブメタストアを再起動する

を再起動する必要があり、手順の下続いする必要がある:プロセスIDを識別するためのコマンド上記

1. ps -ef | grep 'hive' 

使用(PID)はハイブ使っています。デフォルトでは、ハイブは9083ポート番号を使用していました。したがって、実行中のハイブメタストアサービスでは、lsof -i:9083コマンドを使用してPIDをチェックすることもできます。

2. kill <process number> 

これは、既存のハイブメタストアサービスを強制終了します。

3. hive --service metastore 

このコマンドは、再度メタストアサービスを開始します。

$ sudo /etc/init.d/hive-metastore start 
$ sudo /etc/init.d/hive-metastore stop 
関連する問題