2017-11-21 1 views
0

私はjava-vert.xアプリケーションでスタンフォードcorenlp jarsを使用しています。 依存性:パーサーの速度が遅く、スタンフォードsrparser models.jar pomのエントリが必要

<dependency> 
     <groupId>edu.stanford.nlp</groupId> 
     <artifactId>stanford-corenlp</artifactId> 
     <version>3.8.0</version> 
    </dependency> 
    <dependency> 
     <groupId>edu.stanford.nlp</groupId> 
     <artifactId>stanford-corenlp</artifactId> 
     <version>3.8.0</version> 
     <classifier>models</classifier> 
    </dependency> 

私は、解析モデルの下にロードしようとしているので、パフォーマンスの問題に直面し

props.put("annotators", "tokenize, ssplit, pos, parse, sentiment, lemma, ner"); 

シフトのマニュアルどおりので、注釈の下に使用していますパーサを減らすには、より高速である

props.setProperty("parse.model","edu/stanford/nlp/models/srparser/ englishSR.ser.gz"); 

私は上記の依存関係を別々に追加する必要があります。以下のjarはほとんどの場所について言及していますが、互換性のある最新バージョンとmave nは依存関係:

http://nlp.stanford.edu/software/stanford-srparser-2014-10-23-models.jar

早くても支援してください:クラスパス上で直接モデルenglishSR.ser.gzを追加することは良い考えであれば、私は当分の間、同じようにやってわかりません。

SRモデルを使用した後でも、パフォーマンスの向上は見られません。お勧めできますか?私はチャットボットから受け取ったテキストのためのパイプラインを処理しようとしていますあなたのモデルの質問について コードスニペット

Properties props = new Properties(); 
props.put("annotators", "tokenize, ssplit, pos, parse, sentiment, lemma, ner"); 
props.setProperty("parse.model","edu/stanford/nlp/models/srparser/englishSR.ser.gz"); 
pipeline = new StanfordCoreNLP(props); 
pipeline.process("this is my chat bot text"); 

答えて

0

[私はファイルを処理しようとしているわけではない]:この回避策を試みることができます。 GitHubバージョンは3.7.0モデルを要求するようですが、使用できるバージョンは3.8.0です.... https://github.com/stanfordnlp/CoreNLPに移動し、「Build with Maven」までスクロールして必要なモデルをダウンロードし、クラスパス...パフォーマンスに関して

は:パフォーマンスに関するhttps://stanfordnlp.github.io/CoreNLP/corenlp-server.html

+0

: あなたは私を助けてくださいすることができ、より一度にどちらかの処理により、高価なセットアップを避け、またはここで説明されているサーバベースのアプローチを検討検討しますサーバーベースのアプローチがStandfordのレスポンスの観点からどのように役立つかを理解していますか?それは私がここでやろうとしていることと同じことをサーバー上で行うためです。 また、私の現在のアプリは、主にスタンフォードNERの抽出と感情分析を行います。 – Nitin

関連する問題