nlp

    0

    1答えて

    エンコーダの各ステップでカスタム計算を行う必要があるエンコーダ/デコーダlstmを実装しています。したがって、私はraw_rnnを使用しています。しかし、私は時間ステップtimeでBatch x Time steps x Embedding dimensionalityという形になっている埋め込みから要素にアクセスする際に問題に直面しています。ここで は私の設定です: import tensorf

    0

    1答えて

    raw_rnnを使用してエンコーダlstmを実装するための私の現在のコードです。この質問は私が以前に尋ねた別の質問(Tensorflow raw_rnn retrieve tensor of shape BATCH x DIM from embedding matrix)にも関連しています。 私は、次のコードを実行すると、私は次のエラーを取得する: ValueError: The two stru

    -2

    1答えて

    以下のようなテキストファイルにいくつかの文章があります。 1) Must have bread and jam in the basket 2) May contain any fruits like (orange, apple, grapes,etc.,) 、今私はそれが文章を理解し、示さ として出力を与えることができたはずですニューラルネットワークの助けを借りて 1) brean AN

    1

    1答えて

    私はtensorflowでword2vecモデルを訓練しました。しかし、セッションを保存するときには、model.ckpt.data/.index/.meta個のファイルしか出力されませんでした。 私は、最も近い単語を検索する際にKNNメソッドを実装することを考えていました。私はgensimを使った答えを見ましたが、まずテンソルフローword2vecモデルを.txtに保存することはできますか?

    0

    2答えて

    NLPでスキル、認定、職歴などのさまざまなセクションを持つ履歴書からコンテンツを抽出し、そのカテゴリごとにタグ付けしたいと考えています。私はさまざまな句読点でテキストを抽出するための基本的なルールを書くことができますが、場合によっては機能しない場合もあります。この場合、Automatic segmentationのヘルプが表示されます。この問題を解決する適切なアプローチは何ですか? SKILL S

    0

    1答えて

    私はspacyのドキュメントに非常に感銘を受けていますが、Windows 7の32ビットOSにインストールするのには苦労しています... また、ホイールのファイルをインストール中 はまた、私は、サポートされていないメッセージ... cymem-1.31.2-CP27-cp27m-win32のだ.... https://www.lfd.uci.edu/~gohlke/pythonlibs/からのホイ

    1

    1答えて

    指定された語句がNNで構成されているかどうか確認したいと思います。すべてがNNの場合、countの値を増やします。 例えば、私のワードフレーズが[('micro', 'NN'), ('blog', 'NN'), ('texts', 'NN')]なら、私はそのカウントを1つ増やすべきです。 私の現在のコードは以下の通りです。 w='micro blog texts' postag = nltk.p

    0

    1答えて

    与えます。 私は、同じ文章データでモデルをフィードし、パラメータを設定します:Doc2Vecのシードを固定数に設定すると、モデルの作成後にモデルが異なるベクトルになります。 は、テストの目的のために、私は変わらず、入力データを与えたたびに判定結果を必要としています。私は多くを検索し、gensimの結果を変更しない方法を見つけません。 は、私はそれを使用する方法で、何か問題はありますか?事前に返信い

    -1

    1答えて

    私はWebサイトからダウンロードし、BeautifulSoupを使って解析したテキストから¥x92、¥xa0などの記号を削除しようとしています。そして、私はどこにでもこれらのシンボル(エンコーディング)があることを知ります。私はtxtからこれらの記号を削除するためにre.sub(r'[^\x00-x7F]',' ',txt) を使用していますが、私はyの各出現を失っていることに気付きました。たとえ

    0

    2答えて

    キーワードでドキュメントをクラスタリングしようとしています。 scikit-学ぶTdidfVectorizerをによって検出された209の特徴語のいくつかの混合物をそれぞれ有する567個の文書が、ある意味 from sklearn.feature_extraction.text import TfidfVectorizer tfidf_vectorizer = TfidfVectorizer(m