私は文章の600000行についてdoc2vecしようとしていますので、私のコードは以下の通りです:Doc2vec:model.docvecsは長さ10
model = gensim.models.doc2vec.Doc2Vec(size= 100, min_count = 5,window=4, iter = 50, workers=cores)
model.build_vocab(res)
model.train(res, total_examples=model.corpus_count, epochs=model.iter)
#len(res) = 663406
#length of unique words 15581
print(len(model.wv.vocab))
#length of doc vectors is 10
len(model.docvecs)
# each of length 100
len(model.docvecs[1])
がどのように私はこの結果を解釈するのですか?なぜベクトルの長さはそれぞれ100のサイズ10だけですか? 'res'の長さが663406のときは意味がありません。私は何かがここで間違っていることを知っ
Understanding the output of Doc2Vec from Gensim packageには、docvecの長さが明確ではない「サイズ」によって決まることが記載されています。