私は現在、機械学習プロジェクトに取り組んでいます - データ行列Z
とベクトルrho
を与えられました。 logistic loss functionはrho
です。計算には基本的な行列 - ベクトル乗算とlog/exp演算が含まれ、数字のオーバーフローを回避するためのトリックがあります(previous postで説明)。C/C++を呼び出すことにより、Pythonで行列ベクトルの乗算とべき乗を高速化することができます
私は現在、以下に示すようにNumPyを使用してPythonでこれを行っています(参考として、このコードは0.2秒で実行されます)。これはうまくいきますが、私はコード内で関数を複数回呼び出すので高速化したいと思います(そして、それは私のプロジェクトに関わる計算の90%以上を占めています)。
私はこのコードの実行時間を並列化せずに改善する方法を探しています(つまり1CPUのみ)。 Pythonで一般に公開されているパッケージを使用したり、CやC++を呼び出すことができて満足しています(これは実行時間が大幅に改善されたと聞いています)。データ行列Z
の前処理もOKです。ベクトルrho
が(エントリー= 0の周りの50%)通常まばらであると列よりもはるかより多くの行が通常あることをよりよく計算するためのもので悪用される可能性がありますいくつかのもの(n_cols <= 100
ほとんどの場合)
import time
import numpy as np
np.__config__.show() #make sure BLAS/LAPACK is being used
np.random.seed(seed = 0)
#initialize data matrix X and label vector Y
n_rows, n_cols = 1e6, 100
X = np.random.random(size=(n_rows, n_cols))
Y = np.random.randint(low=0, high=2, size=(n_rows, 1))
Y[Y==0] = -1
Z = X*Y # all operations are carried out on Z
def compute_logistic_loss_value_and_slope(rho, Z):
#compute the value and slope of the logistic loss function in a way that is numerically stable
#loss_value: (1 x 1) scalar = 1/n_rows * sum(log(1 .+ exp(-Z*rho))
#loss_slope: (n_cols x 1) vector = 1/n_rows * sum(-Z*rho ./ (1+exp(-Z*rho))
#see also: https://stackoverflow.com/questions/20085768/
scores = Z.dot(rho)
pos_idx = scores > 0
exp_scores_pos = np.exp(-scores[pos_idx])
exp_scores_neg = np.exp(scores[~pos_idx])
#compute loss value
loss_value = np.empty_like(scores)
loss_value[pos_idx] = np.log(1.0 + exp_scores_pos)
loss_value[~pos_idx] = -scores[~pos_idx] + np.log(1.0 + exp_scores_neg)
loss_value = loss_value.mean()
#compute loss slope
phi_slope = np.empty_like(scores)
phi_slope[pos_idx] = 1.0/(1.0 + exp_scores_pos)
phi_slope[~pos_idx] = exp_scores_neg/(1.0 + exp_scores_neg)
loss_slope = Z.T.dot(phi_slope - 1.0)/Z.shape[0]
return loss_value, loss_slope
#initialize a vector of integers where more than half of the entries = 0
rho_test = np.random.randint(low=-10, high=10, size=(n_cols, 1))
set_to_zero = np.random.choice(range(0,n_cols), size =(np.floor(n_cols/2), 1), replace=False)
rho_test[set_to_zero] = 0.0
start_time = time.time()
loss_value, loss_slope = compute_logistic_loss_value_and_slope(rho_test, Z)
print "total runtime = %1.5f seconds" % (time.time() - start_time)
1つ以上のCPUを除外しているのはなぜですか? Python VMは本質的にシングルスレッドですが、データをよりスレッドにやさしいデータ構造にコピーした後で、Cの拡張機能内からPOSIXスレッドを呼び出すことができます。複数のCPUを使用しない理由が他にもあるかもしれませんが、Cにエスケープすればその制限に限定されません。 – rts1
@rts良い質問。この場合、 'compute_logistic_loss_function'を呼び出すコードは実際には並列化されているので、1CPUに制限する必要があります。関数が呼び出されると、1CPUしか使用できません。 –
大きな 'n'の場合、ランタイムは' loss_slope = Z *(phi_slope - 1.0) 'によって支配されているように見えますが、' Z'と同じサイズにブロードキャストします。あなたは行を平均しているので、 'ZTdot(phi_slope).T/Z.shape [0]'を使ってドットプロダクトとして書き直すことができます。これは、私のスピードアップの4倍機械。 –