gensim

    1

    1答えて

    私はWord2Vecモデルを訓練するためにgensimを使用しました。近くの用語をクエリしたいと思います。しかし、だけではなく、すべての方向に最も近い言葉取得する: nearest = nearest_by_vector(word, direction_vector) : model = models.Word2Vec.load('MyModel') # load up my trained

    1

    1答えて

    私は大きなコーパスにフレーズモデルを作成しようとしていますが、私はメモリエラーを抱えています。 まず、私のコーパス全体を大きなジェネレータに収めようとしました。 import codecs import gensim import os import random import string import sys def gencorp(file_path): with c

    0

    1答えて

    に見えない文書のトピック分布を計算する。新しい考えます、見えない文書、10個の潜在トピックの確率分布を予測する "。 こちらのチュートリアルのとおり:http://radimrehurek.com/gensim/tut2.htmlこれはコーパス内のドキュメントでは可能ですが、目に見えないドキュメントでは可能かどうかは疑問です。 ありがとうございました!

    0

    1答えて

    私のgensim Word2Vecモデルの単語をマッピングに置き換えたいと思います。 例私の現在のモデルは、ベクトルにマップする単語'foo'あり :どのように私は、この新しいでモデルを再構築することができd = {'foo': 'bar', ...} : >>> model['foo'] [1.0 0.0] 私はマッピングを持っているがそのようなマッピング >>> model['bar']

    0

    1答えて

    私はテキストデータに対してマルチラベル分類を実行していました。TFIDFがLDAを大幅に上回っていることがわかりました。 TFIDF精度は約50%であり、LDAは約29%であった。 これは予期されているのですか、LDAがこれより優れていますか?

    0

    1答えて

    私は300ディメンションのgeinsimで訓練されたword2vecモデルを持っており、ディメンションを100にカットしたい(最後の200ディメンションを削除する)。 Pythonを使用する最も簡単で効率的な方法は何ですか?

    7

    1答えて

    私はpythonでgensim word2vecパッケージを使用しています。 スキップグラム学習中に学習されたWとW'の重み行列を取得したいと思います。 model.syn0は私に最初のものを与えますが、私はどのように他のものを手に入れることができるのか分かりません。何か案が? 私の公式の1が正確ではないようですので、実際のモデルにアクセス可能な属性上の任意の徹底的なドキュメントを見つけるのが大好

    5

    1答えて

    TaggedDocumentとLabeledSentenceのgensimの違いを理解するのを手伝ってください。私の最終的な目標は、Doc2Vecモデルと任意のクラシファイアを使用するテキスト分類です。私はこれに従いますblog! class MyLabeledSentences(object): def __init__(self, dirname, dataDct={}, sentL

    0

    1答えて

    を持っていない私はgensimライブラリからDoc2Vecモデルを学んでいますし、次のようにそれを使用して: class MyTaggedDocument(object): def __init__(self, dirname): self.dirname = dirname def __iter__(self): for fname in os.li

    0

    2答えて

    私はbIgデータプラットフォームを持っています。その上で私はAnacondaをインストールします。私がプラットフォーム上で自分のアカウントにsshし、端末でPythonインタプリタを開くと、gensimライブラリをインポートするとうまく動作します。私は以前にこのライブラリをインストールしていました。 Conda install gensim $ python Python 2.7.12 |A