私の現在のdoc2vecコードは以下の通りです。Doc2vecとword2vecのマイナスサンプリング
# Train doc2vec model
model = doc2vec.Doc2Vec(docs, size = 100, window = 300, min_count = 1, workers = 4, iter = 20)
以下のようなword2vecコードもあります。
# Train word2vec model
model = word2vec.Word2Vec(sentences, size=300, sample = 1e-3, sg=1, iter = 20)
私はdoc2vecとword2vecでスキップ-gramとCBOWの両方にDMやDBOWの両方を使用することに興味があります。 、私はこのように
「階層ソフトマックスまたは負のサンプリングのいずれかを使用して、 『 』 word2vecの経由深い学習とプロデュース語ベクトル」スキップグラムとCBOWモデル:Gensimで
は私が下記の文章を見つけました階層的ソフトマックスまたはネガティブサンプリングのいずれかを混乱させる。これらの2つの方法での違いがであることをお知らせください。はまた、私は、DM、DBOWに関してスキップ-gramとCBOWを階層ソフトマックス AND/OR 負のサンプリングを使用するようにを変更する必要があるパラメータが何を知ることに興味を持っていますか?
p.s.私のアプリケーションは推奨システムです
ありがとうございました。非常によく説明されています。これはまさに私が探していたものです。もう一度感謝します:) –
これについての回答がわかっている場合はお知らせください:https://stackoverflow.com/questions/46970376/issues-in-gensim-wordrank-embeddings –