nlp

    2

    1答えて

    我々は通常、次のような結果を得る: - classifier.show_most_informative_features(10) 結果: Most Informative Features outstanding = 1 pos : neg = 13.9 : 1.0 insulting = 1 neg : pos = 13.7 : 1.0

    1

    1答えて

    私はtwitterの感情分析ツールを構築しようとしており、NYCの10マイル以内につぶやきを探すジオロケーションを追加したいと考えています。これはどうすればいいですか?私はURLの最後に位置を追加しようとしましたが、うまく機能しませんでした。ここで は、私がこれまで持っているコードです:ここでは import oauth2 as oauth import urllib2 as urllib

    0

    1答えて

    "SIF Embeddings"を適用してGoogleニュースベクターを使用して、 "男の子はサッカーをしています"と "子供はサッカーをしています"のような2つの文章の類似性を得ることができます。 私のような技術的なもの2つの文の類似取得したいと思い、「抽象クラスは何を?」 "クラスとは何ですか?" 類似性を得るためにGoogleニュースのベクターを使用しましたが、うまく機能しませんでした。 ト

    1

    3答えて

    私はKerasでモデルを作成していて、独自のメトリック(perplexity)を計算したいと思っています。これには、非正規化確率/ロジットを使用する必要があります。しかし、kerasモデルは、ソフトマックスprobabiltiesを返す: model = Sequential() model.add(embedding_layer) model.add(LSTM(n_hi

    1

    1答えて

    クラスAとクラスBの2つのクラスにレビューのデータセットを分類しようとしています。私はLightGBMを使って分類しています。 クラシファイアのパラメータを何度も変更しましたが、結果に大きな違いはありません。 問題は前処理ステップにあると思います。前処理のために以下のような関数を定義しました。私はStemmingを使用し、stopwordsを削除しました。私は何が欠けているのか分からない。私はLa

    1

    1答えて

    Spacyの日本語トークナイザを使用しようとしています。 import spacy Question= 'すぺいんへ いきました。' nlp(Question.decode('utf8')) 私は以下のエラーを取得しています、 TypeError: Expected unicode, got spacy.tokens.token.Token この問題を解決する方法上の任意のアイデア? あり

    1

    1答えて

    以下は、私がテキストデータからバイグラムを作成する私のコードです。私が得ている出力は、モデルの変数としてこれらを使用できるように、フィールド名にアンダースコアが必要であることを除いては問題ありません。ここで text<- c("Since I love to travel, this is what I rely on every time.", "I got the rewards

    2

    1答えて

    単語の多くの恋人(少なくとも数百)の間の構造的/階層的な意味的距離のためのラベル付けされたデータ(人間の判断)が必要です。 たとえば、d(コンピュータ、テレビ)< d(ラジオ、テレビ)< d(食器洗い機、テレビ)。 各ノードがカテゴリ(「電気装置」、「画面あり」など)である樹状図またはツリー内のすべての単語を編成し、単語が葉にある場合、数字は数字1つの単語から別の単語に移動する必要があるステップ(

    1

    1答えて

    CoreNLPのNNベースの依存パーサーをトルコ語で訓練しようとしています。私は以下のコマンドをパーサーのドキュメントで見つけました。 Train a parser with CoNLL treebank data: java edu.stanford.nlp.parser.nndep.DependencyParser -trainFile trainPath -devFile devPath

    1

    1答えて

    H2O DeepWater R版のテキスト分類にword2vecとcnnを使用するためにrサンプルコードを提供できるかどうかは疑問ですか?私はすでに私のword2vecword embedding語彙ルックアップテーブルと文書のワードベクトル行列を訓練するh2orバージョンのパッケージを使用していたいずれかmexnetRまたはh2o deep water r に非常に非常に少数のドキュメントがあり