fiware-cosmos

    1

    1答えて

    私はSpagoBIとCosmosをHive JDBCドライバで接続しようとしています。 接続が機能しますが、クエリを実行するときにmap reduceを実行できるようにjar(json-serde-1.3.1-SNAPSHOT-jar-with-dependencies.jar)を追加する必要があります。 問題が (jarファイルのパスの一部として解釈され、セミコロン)スパゴのBIデータセットの定

    0

    2答えて

    私たちはSpagoBI Serverにレポートを展開し、FIWAREグローバルCosmosのHDFSからのデータをHive経由で表示しようとしています。 レポートはSpargBI Studioでローカルに生成され、HIRドライバのJARが追加されると、BIRTレポートビューアにHDFSデータが表示されます。これは、グローバルFIWARE Lab Cosmosインスタンスへの接続が正しく設定されてい

    0

    3答えて

    SpagoBIStudio 5.2.0からSpagoBI Server v5.1.0にレポートを展開しようとしています。 レポートはSpagoBIStudio(私のコンピュータではローカル)で完全に機能し、SpagoBI ServerのWebインターフェイスを使用してデータソースとデータセットを正常に作成しました。 私の ".rptdesign"ファイルの "Deploy"オプションをクリックする

    2

    1答えて

    Hadoop/FIWARE-Cosmosのthisガイドに従っています。ハイブ部分について質問があります。 私は旧クラスターの(cosmos.lab.fiware.org)ヘッドノードにSSHでアクセスできますが、新しいクラスターではできません。 storage.cosmos.lab.fiware.orgとcomputing.cosmos.lab.fiware.orgの両方を試してみて接続できませ

    1

    1答えて

    私はfiware-cosmosについてのいくつかの一般的な質問がありますが、それらは基本的なものですが、Cosmosのアーキテクチャと用途を理解しようとしています。 私はあなたがCosmosにApache Sparkを統合する予定であることが分かりましたか?それが起こるためのロードマップや日付がありますか? Sparkを今使用したい場合はどうなりますか? どのようなHadoopサービスソースを使用

    1

    1答えて

    独自のMapreduce jarファイルを作成し、HDFSシェルコマンドを使用してCosmosのold Hadoop clusterで正常にテストしました。次のステップは新しいクラスタで同じjarファイルをテストすることでしたので、 new cluster's HDFSのホームフォルダ(user/my.username)にアップロードしました。 私は以下のカールポストを使用してのMapReduce

    6

    1答えて

    FIWARE LabのCosmosインスタンスから大きなファイル(最低14MB)をバックエンドに転送する必要があります。 HadoopのWebHDFS REST APIのクライアント・インタフェースがhereを説明したが、私はIO例外に遭遇すると、私は春RestTemplateを使用: Exception in thread "main" org.springframework.web.clien

    1

    1答えて

    私たちが知る限り、FIWAREラボ(cosmos.lab.fiware.org)の各コスモスユーザは、HDFSで最大5GBまで利用できます。 しかし、ジョブによって生成されたデータが5GBのクォータを超えていないにもかかわらず、map-reduce Hadoopジョブを実行すると、DSQuotaExceededExceptionが返されます。 我々は、マップ減らすジョブの実行中にHDFSの使用状況