2017-08-09 5 views
0

Solrに3億のレコードを追加しようとしていますが、何かが間違っています。データのsolrからの文書の削除を避ける

2億回後Solrはドキュメントからの削除を開始します。

私がOracleからSolrに200万レコードを追加すると、すべての作業がうまくいきます。 200979747

削除されたドキュメント

最大ドク = 215077886の

のNumドキュメント以下PICで

私は多くを試してみてくださいなぜSolrには14098139の削除時は同じ結果が来る

削除し、私は、このリンクで

すべてのコンフィギュレーションファイルにそれを知ることができない回避するための設定があるように、私の問題: Conf files

マイServerのラム32 G

HD: 2テラ

編集

私はフルインポートプロセスは、それ自体で文書を削除しないので、(あなたがそれを求めることができ、私は重複uniqueKeys

enter image description here

enter image description here

+1

重複したuniqueKeysなどのためにドキュメントが削除されていて上書きされていませんか? Solrのログには何も言いません(おそらく、インポートプロセスでメモリが不足しており、それ以上インデックスを作成していない可能性があります)。小さなバッチでインポートをやってみましたか? – MatsLindh

+0

ありがとう、私はduplicate uniqueKeysの問題を発見しました そしてすべてのことは今okです –

答えて

1

は、通常、これらの問題は、重複uniqueKeysによって引き起こされた問題を解決インデックスを削除するには、明示的な要求です。または、別の削除クエリを使用して、デルタクエリの一部として削除されたエントリを削除します。

実際に使用されるドキュメントが、uniqueKeyカラムとして設定されたカラムに対して一意であることを確認してください。後でインポートされたドキュメントが以前のドキュメントと同じuniqueKeyを持つ場合、新しいドキュメントは古いドキュメント(つまり、追加と削除)を上書きし、結果としてdeleted列にカウントされます。

関連する問題