dot-product

    0

    1答えて

    私はすべてのユーザーのためのword2vecモデルを持っているので、2つの単語が異なるモデルのように見えます。これより訓練されたモデルを比較する最適な方法はありますか? userAvec = Word2Vec.load(userAvec.w2v) userBvec = Word2Vec.load(userBvec.w2v) #for word in vocab, perform dot pr

    -3

    1答えて

    はサイズ800E3x45とWのサイズが45x35です。どのようにしてサイズ800E3x35の行列を作成できますか?各エントリはXの行とWの列の内積ですか?

    1

    1答えて

    XMVector4Dot lists the return value as a vectorのマニュアルです。また、ドットプロダクトが各コンポーネントに複製されることも記載されています。ドットプロダクトが単一の値になることを考えれば、これは浮動小数点を返すだけでどのように利点がありますか?不要と思われる XMVECTOR w = { -XMVectorGetX(XMVector4Dot(x,

    0

    1答えて

    強化学習を使用して2048を再生するようにNNをトレーニングしています。少なくとも、私はこれが初めてだからだと思う。 これはNeuralNetwork.pyは、次のようになります。 import random import numpy as np def nonlin(x, deriv=False): if(deriv==True): return x * (1-x)

    1

    1答えて

    I 2つのアレイxそれぞれ形状(2, 3, 3)とy、(3, 3)を有します。 x = np.array([[[a111, a121, a131], [a211, a221, a231], [a311, a321, a331]], [[a112, a122, a132], [a212, a222, a232], [a312, a322, a332]]]) y = np.array

    0

    1答えて

    私は各列にSciPyスパースベクトルを含む2つの列を持つパンダデータフレームを持っています。これらのベクトルはcsr行列からの行です(実際には1x8500の行列です)。 同じ行の最初の2つの列からのベクトルの間にドット積を入れるべき別の列を作成する必要があります。 私はapply/mapの各行でこれを行う方法を知っていますが、私は何百万行ものデータセットで作業しています。データフレーム全体でこれを

    0

    1答えて

    現在、PyCUDAを使用して固定メモリを持つドットプロダクトを開発中です。そして、大きな配列には問題があります。私が働いている : NVIDIAのGTXは1060 CUDA 9.1 PyCUDA 2017年1月1日 コードは次のとおりです。 #!/usr/bin/env python import numpy as np import argparse import math impor

    0

    1答えて

    ドットプロダクトの仕上がりを把握しています。 b = matrix(1:70, ncol=7) g= matrix(1:48, ncol=6) resulta = matrix(0,6,7) for (c in 1:ncol(b)){ for (i in 1:ncol(g)){ resulta[i,c] <- sum((g[,i]) * (b[,c])) }

    2

    2答えて

    は、私はそれらの最初の次元を横切ってドット積を計算したい最初dの次元のサイズが import numpy d = 3 a = numpy.random.rand(2, 2, 2, 12, 3) b = numpy.random.rand(2, 2, 2, 5) 等しい二つnumpyのアレイを考えます。この a2 = a.reshape(-1, *a.shape[d:]) b2 = b

    0

    2答えて

    はC言語ではまったく新しいものです。pthreadを使用して大きな2次元行列の内積を解くことを目的とした小さなプログラムがあります。今度は、pthreadに割り当てられた関数が呼び出され、変数として渡された構造体がアクセスされると、プログラムは中断して動作を停止します。私は何が間違っているのか本当にわからない。コードは次のとおりです。 これが主な機能です。 int main() { i