中のマトリックス 私のコードは次のようになります: from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
train_set = "i have a ball", "he is good", "she pl
私はリンクから抽出した文字列について以前に投稿しました。 a="Any Random text at all , nothing freaking works"
sentences = nltk.sent_tokenize(a)
が、私は一貫してもらう:私のコマンドラインは非常に簡単です :だから簡単な例を試してみました、私はstr.(a)、a.split、a=a[0]を試してみました Ty
を持って、私は数日間、私のコードでnltkを使用しますが、私はimport nltkしようとすると、今、私はエラーを取得する: File "C:\Users\Nada\Anaconda\lib\site-packages\nltk\corpus\reader\plaintext.py", line 42, in PlaintextCorpusReader
sent_tokenizer=nltk.
私はAとBの2つの文字列リストを持っています。Aの各文字列に対して、Bのすべての文字列と比較して最も類似したものを選択したいと思います。私が使用している比較関数は、I found on this questionというカスタムコサイン類似度測定値です。ここではそれがどのように動作するかです: import nltk, string
from sklearn.feature_extraction.