ハードウェアベースのビットマップアニメーションを処理する方法を検討中です。入力として、私は単純なビットマップの画像シーケンスを持っています(ビデオではなく、ビットマップ塗りつぶしを含んでいてもシンプルなシェイプのようなものです)。私はこのアニメーションのテクスチャアトラスを作っています(GPUですばやくレンダリングできるようにしています)。このシーケンスではほとんどの部分が静止していることがありますが、その一部はアニメーション化されています。 2つの画像間の「共通部分」なので、メモリを節約できます。2つのイメージ間のイメージサブセットの検索
イメージのサイズが同じでない場合(オブジェクトが大きくなったり小さくなったりする場合など)、2つの間の最大の共通領域を検出する方法が必要です。私はthis answerを見て、それは私の問題を部分的に解決します。私は知っているが、私の場合のためのより良いアルゴリズムは、特にサイズが異なることができますので、1つの画像は必ずしも他の内に含まれていないので、私は知ってほしいが、私は二。
リアルタイムである必要はありません。そのフィットネス機能はどのように機能しますか? – Waneck
それは素晴らしい作品です!どうもありがとうございました! – Waneck