hbase

    1

    1答えて

    私はスタンドアロンモードで飼育係サービスを開始しました。動物園のバイナリはKafkaと一緒に運ばれます。ここには、zookeeper.propertiesの内容があります。 dataDir=/tmp/zookeeper clientPort=2181 maxClientCnxns=0 私は次のコマンドを使用して飼育係を始めました。 kafka/bin/zooke

    1

    1答えて

    私はapachephoenix 4.9.1とhbase-1.1.2を使用しています。(0,1,2,3,4,5,6,7,8,9,10) 1) is it possible to split (0&1,2&3,4&5,5&6,6&7,8&9) like this? 2) i tried merging the regions manually using hbase shell. if i me

    0

    2答えて

    csvファイルからデータを取得して(毎日別のビジネスデータベースからデータを取り出す)、HDFSに移行してからHbaseに移動し、このデータをデータマート(sqlServer) 。 私は(Javaやhadoopsツールを使用して)、このプロセスを自動化するための最良の方法を知って必要なコーディングなしにリトル

    0

    1答えて

    hbaseのすべてのテーブルに対して大きな圧縮をトリガーしたい。 hbaseクライアントAPIを使用すると、admin.majorCompact(tableName)を使用して常に主要な圧縮がトリガーされます。 1)hbaseクライアントAPIのmajorCompactは非同期プロセスなので、コンパクションの完了ステータスを調べる方法。 2)は、それが必須、圧縮プロセスが完了するまで待機するように

    1

    1答えて

    HBaseベースのデータウェアハウスを実装する予定です。 親子関係のような複数のエンティティがあります。つまり、ネストしています。 public class Parent { private String name; private List<Dependent> dependents; ... } HBaseによると、これらのネストされたエンティティは、値[as json/avr

    0

    1答えて

    我々は2CF(CF1、CF2)を有すると仮定しよう。 CF2のTTLが1日で、CF2に2つのColumnQualifiersがあるとします。これは主要な圧縮中の日よりも古いCF2内の任意のセルが自動的に(MIN-バージョン== 0限り)ドロップされること を意味するのでしょうか? ドキュメントで、彼らが行ない、彼らが何を意味するかを確認してくださいを参照保つので、私は...ドキュメントからの私の理

    0

    2答えて

    mapr-db jsonの一般的な問題かどうかわかりません。 Mapr-DB jsonテーブルであるStreamsetsデスティネーションを使用して、10列のレコードをプッシュします。私は正確に行のキーになる最初の列。私は唯一のJSONの行のキーとなし、他の列 {"_id":"mykey1"} {"_id":"mykey2"} {"_id":"mykey3"} {"_id":"mykey4"

    0

    1答えて

    では動作しない私のHBaseのスキーマは、次のように次のようになります。 { "<trace-id>": { "span-timestamp": { "ts:span:<timestamp>": "" }, "span-name": { "ts:span:<name>": "" }, "span-du

    -1

    1答えて

    これは初心者のHBaseの質問です。それが作成された hbase(main):042:0> create 'ship', 'cf1' 0 row(s) in 1.2200 seconds => Hbase::Table - ship :私は、HBaseの中のテーブル(1.2.6)を持つ hbase(main):046:0> desc 'ship' Table ship is ENABLE

    2

    1答えて

    Hbaseに一括読み込みを行うhfilesを作成しようとしています。 私は次のコードを使用しています: val df = sqlContext.read.format("com.databricks.spark.csv") .option("header", "true") .option("inferSchema", "true") .load("data.csv"