ignite

    1

    1答えて

    他のコードで作成されたキャッシュの基になるキーと値の型定義を得る方法はありますか?この時点で私はキャッシュ名しか知りません。キャッシュの作成方法に関するその他の情報はありません。 IgniteCache<K, V> dataCache = ignite.cache("dataCache"); 上記の行にKとVのタイプを取得する必要があります。 私はキャッシュにCacheEntryListene

    1

    1答えて

    ローカルファイルシステム上でigniteキャッシュを永続化することはできますか? 私のルックアップデータに挿入、更新、削除などのキャッシュ操作を実行する必要があります。 しかし、これは、各ノードのローカルファイルシステム上で永続化されて、igniteクラスタの再起動後もデータに残る必要があります。 また、MySQLデータベースにデータを保存することができました。 しかし、データベースとHDFSとは

    1

    1答えて

    時々ノードを分割しています。 〜40ノードのクラスタで発生します。一度に1つのノードでのみ発生します。何度か重いGC作業が行われている間に何度か起こった。一方、私は、同様の重いGC作業が進行しており、ノードがセグメント化されていないことを確認しました。私が経験していた最大GCよりも大きいエラー検出タイムアウトを調整しましたが、それは助けになりませんでした - failureDetectionタイム

    0

    2答えて

    私のテーブル構造。 CREATE TABLE mydb.person ( firstname text, lastname text, age int, birthdate timestamp, married boolean, phone text, PRIMARY KEY (firstname, lastname) );

    0

    1答えて

    Igniteで新しいmysqlテーブルのキャッシュを動的に作成したい。私は実行時にテーブルのクラス定義を持っていません。私は定期的にavro形式でそれらのテーブルのHDFSで新しいデータを取得します。実行時にキャッシュを作成してそのインクリメンタルデータをIgnite Cacheに取り込み、そのテーブルに存在しないデータをキャッシュに入れたいとします。また、私はそのデータを照会したいと思います。さ

    2

    3答えて

    キャッシュが空であるため、sqlクエリはnullを返します。 リードスルーとは、キャッシュが失われた場合、Igniteが自動的に基になるデータベース(または永続ストア)にアクセスして対応するデータをロードすることを意味します。 基礎となるdbテーブルに新しいデータが挿入されている場合、キャッシュテーブルをダウンロードして新しく挿入したデータをdbテーブルから自動的にロードするか、自動的に同期させる

    0

    1答えて

    初めてリモートキャッシュサーバを起動すると、出力が得られますが、2回目のクエリでは動作しませんが、クライアントノードでキャッシュサイズを取得しています。私はcache.iterator()経由でデータを取得することはできますが、SQLを経由せずにキャッシュクエリ経由で取得することも、テキストクエリ経由でスキャンすることもできません。 コード: - List<Cache.Entry<PersonKe

    2

    2答えて

    Igniteキャッシュで実行中のSQLクエリのコードに従っていますが、CacheConfiguration.setIndexedTypes APIの使用を完全に実現することができます。 私は着火サイトで見つけられる唯一の助けに従っています。 ドキュメントhereは CacheConfiguration.setIndexedTypes(MyKey.class、MyValue.class)を使用するこ

    0

    1答えて

    ニア・キャッシュを使用すると、キャッシュ操作の進行中に2番目のクライアント(バイザー)がクラスタへの接続または切断を試みるまで、すべて正常に動作します。 2番目のクライアントが接続/切断された後、元のクライアントは元のクライアントが再起動されるまで、ニア・キャッシュを常に失います。ほとんどの場合、クラスタはクライアントに問題を通知し、クラスタを真実のソースとして維持するかのように動作します。 私た

    1

    1答えて

    私はsbtプロジェクトでignite-spark依存関係を使用しようとしています。ここ はbuild.sbtファイルです: name := "App" version := "1.0" scalaVersion := "2.10.6" libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "2.2.0" % "p