druid

    0

    1答えて

    Spru Streamingジョブの結果をドルイドのデータソースに書き込もうとしています。 SparkはDruidに就職して成功しました。ドルイドはインデックス作成を開始しますが、何も書きません。次のように 私のコードとログは、次のとおりです。 import org.apache.spark._ import org.apache.spark._ import org.apache.spark

    0

    1答えて

    ドルイドのコンソールを開いたときに、http://localhost:8090/console.htmlを使用して私はすべての私のスーパーバイザのリストをカフカの話題に関連付けることができます。その後、私はJSONレスポンス以下、スーパーバイザのいずれかの状態をクリックすると { "ID": "テストkafka7"、 "generationTime": "2017-09-25T12:53:44.0

    0

    1答えて

    私はdruidのDBドライバとしてavaticaを使用しています。 'time'カラムが "2017-09-28T18:00:00.000.Z"の行を1つ挿入しましたが、druidに保存されているデータは "2017-09-28T10:00:00.000.Z"(UTC時間)です。私の質問は、どのように私はUTC + 8タイムゾーンでこのレコードを照会することができますか?

    2

    1答えて

    私はImplyの設定を通してドルイドを実行しています。ドルイドの人数を増やしたいのですが、私はドルイドの人数を増やすためにImplyの設定をどこで変更すればよいか分かりません。誰でもこのために私を助けてくれますか?

    -1

    1答えて

    私はドルイドがscala/phpクライアントを持っているのを知っていますが、私はjavaを使用していますし、HTTPを介してドルイドDBに直接問い合わせをしたくないのですが、java druid-clientは利用可能ですか?

    0

    1答えて

    私はすべての文字列なので、ディメンションとしてのデータがあります。 しかし、私は特定の次元のカウントのための毎年、毎月、毎日のデータのためのグループバイクエリーを実行したいと思います。 私のシステムは、1時間あたり5crのデータを生成します。 ドルイドを使うのは良いですか?このタイプのno-SQLデータに使用できる他の適切なデータベースがありますか? または スキーマの構造とアプローチはどのように

    1

    1答えて

    なんらかの理由で、開発中にmysqlとsocksプロキシを接続しなければならず、プログラムはデータソースとしてドルイドを使います。 アイディアの実行/デバッグ設定でvmオプション-Dhttp.proxyHost=host -Dhttp.proxyPort=portを追加しようとしましたが、catalina.shにJAVA_OPTS="$JAVA_OPTS -Dhttp.proxyHost=host

    0

    2答えて

    WindowsのCMDで実行すると、次のカールリクエストが完全に機能します。 Pythonのバージョンは、誰かが私に何を伝えることができ response = urllib.request.urlopen(req) File "C:\Python\Python35\lib\urllib\request.py", line 163, in urlopen return opener.open(u

    0

    1答えて

    ドルイドクラスター内のすべてのデータソースのメタを取得したい。 しかし、私はドルイドの公式サイトで関連するクエリフォーマットを見つけることができません。 dataSourceの最新の取り込みイベントのタイムスタンプしか取得できない1つのデータソースのメタと 'データソースメタデータ'のみを照会できる「セグメントメタデータ」クエリが見つかりました。 ドルイドクラスター内のすべてのデータソースのメタを

    0

    1答えて

    間隔の目的は何ですかフィールドは粒度であり、重要な点はデータの読み込みまたは処理にどのような影響がありますか? ファイルに2014-01-01 to 2017-09-30のデータがあり、間隔の値を"intervals" : ["2016-01-01/2017-12-31"]と指定しています。このシナリオでデータロード中に何が起こるでしょうか? 本当にこの理解の助けに感謝します。ありがとう。 doc