text-analysis

    0

    1答えて

    私は分散型word2vecアルゴリズムを使って単語ベクトルを作成しました。今私は言葉とそれに対応するベクトルを持っています。どのようにこれらの単語とベクトルを使ってgensim word2vecモデルを構築するのですか?

    0

    1答えて

    私はcsvファイルの2つの列のtf-idfを計算する必要があります。 行をテキストファイルに変換する必要がありますか?またはcsvからtf-idfを計算する方法があります。 どのように私はcsvファイルの列のtfidfを計算することができます。

    0

    1答えて

    私はAIにとって新しい蜂で、以下の練習をしたい。あなたのpythonを使用して、それを達成するための方法を提案してくださいすることができます シナリオ - 私のような次のようにいくつかの企業の企業のリストを持っている: 1. AI 2. Artificial Intelligence 3. VR 4. Virtual reality 5. Mobile application 6. De

    1

    1答えて

    私はRとPythonの両方を使用しており、テキストベースの分析とNLPの両方をある程度学んでいます。 質問は:どのように私は 文以下のような文章が混在している文を分割しない=私は私が守られて、プロセスを好きではないシステムが好きなアプリケーションが好き。 私は私は私がプロセスを好きではない を踏襲しているシステム が好きなアプリケーション が好き にこの文を分割したい注: I文の終わりを示すために

    0

    1答えて

    .SQLのファイルを束ねたフォルダがあり、これはALL_TAB_COLUMNS(TABLE_NAMEとCOLUMN_NAMEの列はcolumn_list.csvにしかありません)の抽出と一致したいファイルです。私が二から三番目のネストされたループに移動したときに変数が外の」得たものと思わ sql_file_name.sql | table_name | column_name :よう 私の目的は、

    1

    2答えて

    私は顧客サービスから得た顧客の問い合わせと回答をcsvファイルに保管しています。私は各質問の主題を特定し、後にこれに関する分類モデルを作成する必要があります。私は2つの文書用語行列(文書を整理した後)を作成しました.1つは質問用、もう1つは回答用です。私は、文書全体で約400回以上出現する言葉(約40kの質問と回答)を取るだけでサイズを縮小しました。 これらの2つの行列を行でマージし、問題の共通の

    1

    1答えて

    にインポートするので、すでにTDMを持っていますが、それはExcel上にあります。だから私はそれをCSVとして保存しました。今私はいくつかの分析をしたいと思いますが、tmパッケージを使用してTDMとしてロードすることはできません。私のCSVは、このようなものになります。 item01 item02 item03 item04 red 0 1 1 0 circle 1

    -2

    1答えて

    私はPythonで文字列のリストを持っています。例えば 、 [ 'FD 5000'、 'RD'、 '10000のための定期預金'、 '1000 RD'、 '1000預金を定期'] 入力がなくて同じである。リスト内の文字列の順序は任意で、リストの長さは任意です。 単語とその省略形の文字列を別々のリストにまとめたいと思います。 予想される出力: {[ '5000用FD'、 '10000のための定期預金

    2

    1答えて

    私は、私が持っているデータを使って、私のマシン学習モデルにどのような機能があるのか​​を研究しています。私のデータには多くのテキストデータが含まれているので、貴重な機能を抽出する方法が不思議でした。私のこれまでの考え方とは異なり、これはしばしばBag-of-wordsやword2vecのような表現で構成されています:(http://scikit-learn.org/stable/modules/f

    1

    1答えて

    ドキュメント内のすべてのバイグラムのテーブルを作成するために既存のコードが使用されていますが、アポストロフィが削除されています。 「I've」のような単語を単一の単語として扱うためにこのコードを調整するにはどうすればよいですか?例えば text1 = scan(file.choose(), what="character",sep="\n") text1 <- tolower(text1) t