hadoop

    0

    1答えて

    私が記載されているポイントのIBM article related to Hadoopと1の読み取りを持っていたに近いデータが のHadoop分散ファイルシステムは、多くの目標がありました。データに近い 処理ロジックではなく、それは言葉の遊びのように私に聞こえる処理ロジック に近いデータ:ここで最も注目すべきいくつかのです。データに近い処理ロジックと処理ロジックに近いデータには違いがありますか?

    0

    1答えて

    インデックスは、テーブルの特定の列のポインタに過ぎません。インデックスを作成するとは、テーブルの特定の列にポインタを作成することです。ある列が表内で索引付けされていて、その特定の列のデータがどのように指し示されているかは、その特定の列が照会されたときですか?

    -1

    1答えて

    私はambariのサーバー+エージェントをインストールしようとしています。 私はアンバリについて疑問があります。 アンバリをインストールしようとしました。 いつもホートンワークとのリンクを取得します 私はウブヌ16.0で私自身のhadoopクラスタを持っていることに疑いがあります。 AmbariはHDPのみで動作するのですか、それともカスタム構築されたクラスタでも動作させることは可能ですか? か、

    0

    1答えて

    k-meansアルゴリズムを実行するmap reduceプログラムを作成しようとしています。私はmap reduceを使うのが反復アルゴリズムを実行する最善の方法ではないことを知っています。 私はマッパークラスとレデューサークラスを作成しました。 マッパーコードで入力ファイルを読みました。 map reduceが完了したら、結果を同じ入力ファイルに保存します。どのように出力ファイルをマッパーから入

    0

    1答えて

    map reduceを使用してalluxioにデータを書き込もうとしています。私は、alluxio.Itに書いているhdfsに関するデータを約11ギガバイト持っています。これは、MUST_CACHE書込みタイプ(alluxio.user.file.writetype.defaultのデフォルト値)でうまく動作しています。 しかし、私はそれが次の例外で失敗している、CACHE_THROUGHを使用し

    0

    1答えて

    多くのツールがありますが、Cloudera Managerを使用してインストールすることはできますが、Zeppelinはリストに載っていません。 Cloudera CDHスタックにZeppelinを添加する最良の方法は何ですか?私はインターネットでいくつかのドキュメントを見つけましたが、少しマニュアルです。私は管理されたソリューションを探しています。

    -1

    1答えて

    hdfs:// localhost:8020/sample.zipにzipファイルがあります。 &を読んでhdfs:// localhost:8020/sampleというディレクトリに解凍する必要があります。以下のコードは ジップロックに働くかもしれないは

    0

    1答えて

    私はエラーが発生します:hadoop fs -ls 私は構成が同じであるように、私のローカルマシンの/etc/hadoop/confディレクトリをマウントするボリューム午前を実行しようとするとドッカーコンテナにNo FileSystem for scheme: hdfs。ローカルマシン上でhadooop fs -lsコマンドを実行しても問題はありません。 同様の回答は、ホスト/ドッカーの問題に対処

    0

    1答えて

    DataSet APIを使用して、flink-connectors(flink-hbase_2.11)のhbase TableInputFormatでFlink 1.3.2を使用しています。 Iは次のようにrowkeysがstucturedさHBaseのテーブルを有する: | RowKey | data | | 0-someuniqid | data | | 0-someuniqid | d

    2

    2答えて

    私は上記のコードはfalseとなり与えHDFSフォルダ/ユーザー/データ/ output_files内のいくつかのアブロファイル/ file_2017-10-18 scala> val hdfsLoc ="/user/data/output_files/file_2017-10-18/*.avro" hdfsLoc: String = /user/data/output_files/file_2