私はjava-vert.xアプリケーションでスタンフォードcorenlp jarsを使用しています。 依存性:パーサーの速度が遅く、スタンフォードsrparser models.jar pomのエントリが必要
<dependency>
<groupId>edu.stanford.nlp</groupId>
<artifactId>stanford-corenlp</artifactId>
<version>3.8.0</version>
</dependency>
<dependency>
<groupId>edu.stanford.nlp</groupId>
<artifactId>stanford-corenlp</artifactId>
<version>3.8.0</version>
<classifier>models</classifier>
</dependency>
私は、解析モデルの下にロードしようとしているので、パフォーマンスの問題に直面し
props.put("annotators", "tokenize, ssplit, pos, parse, sentiment, lemma, ner");
シフトのマニュアルどおりので、注釈の下に使用していますパーサを減らすには、より高速である
props.setProperty("parse.model","edu/stanford/nlp/models/srparser/ englishSR.ser.gz");
私は上記の依存関係を別々に追加する必要があります。以下のjarはほとんどの場所について言及していますが、互換性のある最新バージョンとmave nは依存関係:
http://nlp.stanford.edu/software/stanford-srparser-2014-10-23-models.jar
早くても支援してください:クラスパス上で直接モデルenglishSR.ser.gzを追加することは良い考えであれば、私は当分の間、同じようにやってわかりません。
SRモデルを使用した後でも、パフォーマンスの向上は見られません。お勧めできますか?私はチャットボットから受け取ったテキストのためのパイプラインを処理しようとしていますあなたのモデルの質問について コードスニペット
Properties props = new Properties();
props.put("annotators", "tokenize, ssplit, pos, parse, sentiment, lemma, ner");
props.setProperty("parse.model","edu/stanford/nlp/models/srparser/englishSR.ser.gz");
pipeline = new StanfordCoreNLP(props);
pipeline.process("this is my chat bot text");
: あなたは私を助けてくださいすることができ、より一度にどちらかの処理により、高価なセットアップを避け、またはここで説明されているサーバベースのアプローチを検討検討しますサーバーベースのアプローチがStandfordのレスポンスの観点からどのように役立つかを理解していますか?それは私がここでやろうとしていることと同じことをサーバー上で行うためです。 また、私の現在のアプリは、主にスタンフォードNERの抽出と感情分析を行います。 – Nitin