次の設定を考慮してください。スパークリザーブサーバーからのhadoopの使用方法は?
Hadoopのバージョン2.6.4
スパークバージョン2.1.0
OS CentOSのLinuxでは、すべてのソフトウェアを単一ノードクラスタとして単一のマシンにインストールされている1511年2月7日(コア)
をリリースsparkはスタンドアロンモードでインストールされます。 私はスパークスリフトサーバーを使用しようとしています。 倹約サーバーを実行した後、私は実行スパーク倹約サーバシェルスクリプト start-thriftserver.sh
を開始するには、私は真っすぐコマンドラインツールを実行し、以下のコマンドを発行できます。 コマンドが正常に実行します。
!connect jdbc:hive2://localhost:10000 user_name '' org.apache.hive.jdbc.HiveDriver
create database testdb;
use testdb;
create table names_tab(a int, name string) row format delimited fields terminated by ' ';
を私の最初の質問は、haddopがこのテーブル/データベース用の基礎となるファイル/フォルダである場所です。 問題は、たとえhadoopがstop-all.shを使って停止しても、create table/databaseコマンドが成功したとしても、 は、テーブルがhadoop上に全く作成されていないと思うようにします。
私の2番目の質問は、世界のどこにhadoopがインストールされているかをsparkに伝える方法です。 とbearkから実行されるすべてのクエリの基礎となるデータストアとしてhadoopを使用するようにsparkに依頼してください。
私は別のモードでsparkをインストールするはずですか?
ありがとうございます。