私は二重の配列、約200,000行×100列を持っています、そして、私は与えられたパターンに最も似たシーケンスを含む行を見つける高速アルゴリズムを探していますパターンは10〜100要素のどこにでもあり得る)。私はPythonを使用しているので、ブルートフォース方式(以下のコード:各行をループし、列インデックスを開始し、各点でユークリッド距離を計算する)には約3分かかります。テキストファイル内のパターンを検索するための高速アルゴリズム
numpy.correlate関数は、この問題をはるかに迅速に解決することを約束します(20秒以内に同じデータセットで実行する)。しかし、単純に完全な行に渡ってパターンのスライディングドット積を計算します。つまり、類似性を比較するために、結果を最初に正規化する必要があります。相互相関を正規化するには、データの各スライスの標準偏差を計算する必要があります。これは、最初にnumpy.correlateを使用する速度向上を即座に無効にします。
Pythonで正規化相互相関をすばやく計算することはできますか?または、Cでブルートフォース方式をコーディングする必要がありますか?
def norm_corr(x,y,mode='valid'):
ya=np.array(y)
slices=[x[pos:pos+len(y)] for pos in range(len(x)-len(y)+1)]
return [np.linalg.norm(np.array(z)-ya) for z in slices]
similarities=[norm_corr(arr,pointarray) for arr in arraytable]
私はよくnumpyを知らないので、ちょうどアイデアを投げています:おそらく、より速いスライド方法がstddevを計算するのですか? – liori
私はちょうど好奇心を追加するつもりです:私はあなたのコードを私のマシンで試してみました。それは7秒で実行されました。その量のスライスされた配列オブジェクトを作成しないようにすることをお勧めしますが、その方法をまだわかりません。 –