私は次のようなアーキテクチャを構築することを検討しており、他の人が考えることを見たいと思っていました。リアルタイムデータ処理アーキテクチャ
システムでは、各ユーザーで収集されたデータに対して、単純ではないアルゴリズムが実行されていると仮定しています(単純に何かを合計したものではありません)。一部のユーザーは10行のデータを持ち、一部のユーザーは数万のデータを持ちます。データは、時間の経過と共にユーザージオポジションになります。 10〜100万人以上のユーザーがおり、多くのユーザーのデータが毎日入ってくることがあります。
定期的な間隔(1/5/15分、基本的にはできるだけ早く)で、各ユーザーのデータにその非自明なアルゴリズムを実行すると、報告される数の数が吐き出されますでる。
モデルを作成する1つの方法は、NoSQL dbに格納し、各ユーザーのデータをAkkaクラスターで処理することです。 DBの推奨事項はありますか?
基本的に追加されたデータは変更されませんが、データは変更されませんが、常に成長し続け、一部のユーザーのデータは他のデータよりも不均衡です。ユーザーあたりのデータを処理するには、そのすべてをどこかのメモリにロードする必要があります。そのため、すべてのデータが1分間隔でメモリに格納され、再処理されるシナリオが最善のシナリオです。 RAMを使用してメモリ内のサーバがダウンすると、すべてのデータを再ロードする必要があり、それには時間がかかります。
ありがとう、間違いなくクロニクルを見てみましょう! – kozyr