<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    JAVA—咖啡館

    ——歡迎訪問rogerfan的博客,常來《JAVA——咖啡館》坐坐,喝杯濃香的咖啡,彼此探討一下JAVA技術(shù),交流工作經(jīng)驗,分享JAVA帶來的快樂!本網(wǎng)站部分轉(zhuǎn)載文章,如果有版權(quán)問題請與我聯(lián)系。

    BlogJava 首頁 新隨筆 聯(lián)系 聚合 管理
      447 Posts :: 145 Stories :: 368 Comments :: 0 Trackbacks

    支持英文、數(shù)字、中文(簡體)混合分詞
    常用的數(shù)量和人名的匹配
    超過22萬詞的詞庫整理
    實現(xiàn)正向最大匹配算法

    //采用正向最大匹配的中文分詞算法,相當(dāng)于分詞粒度等于0
    MMAnalyzer analyzer = new MMAnalyzer();

    //參數(shù)為分詞粒度:當(dāng)字數(shù)等于或超過該參數(shù),且能成詞,該詞就被切分出來
    MMAnalyzer analyzer = new MMAnalyzer(2);


    //增加一個新詞典,采用每行一個詞的讀取方式
    MMAnalyzer.addDictionary(reader);

    //增加一個新詞
    MMAnalyzer.addWord(newWord);


     

    //刪除詞庫中的全部詞語(注意:非常危險的操作,在沒有加載新的詞庫前所有的分詞都將失效)
    MMAnalyzer.clear();

    //詞庫中是否包含該詞
    MMAnalyzer.contains(String word);

    //從詞庫中移除該詞
    MMAnalyzer.removeWord(String word);

    //當(dāng)前詞庫中包含的詞語總數(shù)
    MMAnalyzer.size();


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import java.io.IOException;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。";   
     
    MMAnalyzer analyzer = new MMAnalyzer();   
    try   
    {   
    System.out.println(analyzer.segment(text, " | "));   
    }   
    catch (IOException e)   
    {   
    e.printStackTrace();   
    }   
    }   
    }  
    package demo.analysis;

    import java.io.IOException;

    import jeasy.analysis.MMAnalyzer;

    public class Segment
    {

    public static void main(String[] args)
    {
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。";

    MMAnalyzer analyzer = new MMAnalyzer();
    try
    {
    System.out.println(analyzer.segment(text, " | "));
    }
    catch (IOException e)
    {
    e.printStackTrace();
    }
    }

    生成效果:

    據(jù) | 路透社 | 報道 | 印度尼西亞 | 社會 | 事務(wù) | 部 | 官員 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 當(dāng)?shù)貢r間 | 27日

    | 晨 | 5時 | 53分 | 發(fā)生 | 里氏 | 6.2級 | 地震 | 已經(jīng) | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受傷 | 近 | 20萬人 | 無家可歸 |


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    import org.apache.lucene.analysis.Analyzer;   
    import org.apache.lucene.document.Document;   
    import org.apache.lucene.document.Field;   
    import org.apache.lucene.index.IndexWriter;   
    import org.apache.lucene.queryParser.QueryParser;   
    import org.apache.lucene.search.Hits;   
    import org.apache.lucene.search.IndexSearcher;   
    import org.apache.lucene.search.Query;   
    import org.apache.lucene.store.Directory;   
    import org.apache.lucene.store.RAMDirectory;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String fieldName = "text";   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容   
     
    //采用正向最大匹配的中文分詞算法   
    Analyzer analyzer = new MMAnalyzer();   
     
    Directory directory = new RAMDirectory();   
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);   
     
    try   
    {   
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);   
    iwriter.setMaxFieldLength(25000);   
    Document doc = new Document();   
    doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));   
    iwriter.addDocument(doc);   
    iwriter.close();   
     
    IndexSearcher isearcher = new IndexSearcher(directory);   
    QueryParser parser = new QueryParser(fieldName, analyzer);   
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞   
    Hits hits = isearcher.search(query);   
    System.out.println("命中:" + hits.length());   
     
    for (int i = 0; i < hits.length(); i++)   
    {   
    Document hitDoc = hits.doc(i);   
    System.out.println("內(nèi)容:" + hitDoc.get(fieldName));   
    }   
     
    isearcher.close();   
    directory.close();   
    }   
    catch (Exception e)   
    {   
    e.printStackTrace();   
    }   
    }   
     
    }  
    package demo.analysis;

    import jeasy.analysis.MMAnalyzer;

    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.document.Document;
    import org.apache.lucene.document.Field;
    import org.apache.lucene.index.IndexWriter;
    import org.apache.lucene.queryParser.QueryParser;
    import org.apache.lucene.search.Hits;
    import org.apache.lucene.search.IndexSearcher;
    import org.apache.lucene.search.Query;
    import org.apache.lucene.store.Directory;
    import org.apache.lucene.store.RAMDirectory;

    public class Segment
    {

    public static void main(String[] args)
    {
    String fieldName = "text";
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容

    //采用正向最大匹配的中文分詞算法
    Analyzer analyzer = new MMAnalyzer();

    Directory directory = new RAMDirectory();
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

    try
    {
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
    iwriter.setMaxFieldLength(25000);
    Document doc = new Document();
    doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
    iwriter.addDocument(doc);
    iwriter.close();

    IndexSearcher isearcher = new IndexSearcher(directory);
    QueryParser parser = new QueryParser(fieldName, analyzer);
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞
    Hits hits = isearcher.search(query);
    System.out.println("命中:" + hits.length());

    for (int i = 0; i < hits.length(); i++)
    {
    Document hitDoc = hits.doc(i);
    System.out.println("內(nèi)容:" + hitDoc.get(fieldName));
    }

    isearcher.close();
    directory.close();
    }
    catch (Exception e)
    {
    e.printStackTrace();
    }
    }

    生成效果:

    命中:1
    內(nèi)容:據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生

    的里氏6.2級地震已經(jīng)造成至少5427人死亡,20000余人受傷,近20萬人無家可歸。


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    import org.apache.lucene.analysis.Analyzer;   
    import org.apache.lucene.analysis.TokenStream;   
    import org.apache.lucene.document.Document;   
    import org.apache.lucene.document.Field;   
    import org.apache.lucene.index.IndexReader;   
    import org.apache.lucene.index.IndexWriter;   
    import org.apache.lucene.index.TermPositionVector;   
    import org.apache.lucene.queryParser.QueryParser;   
    import org.apache.lucene.search.Hits;   
    import org.apache.lucene.search.IndexSearcher;   
    import org.apache.lucene.search.Query;   
    import org.apache.lucene.search.highlight.Highlighter;   
    import org.apache.lucene.search.highlight.QueryScorer;   
    import org.apache.lucene.search.highlight.TokenSources;   
    import org.apache.lucene.store.Directory;   
    import org.apache.lucene.store.RAMDirectory;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String fieldName = "text";   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容   
     
    //采用正向最大匹配的中文分詞算法   
    Analyzer analyzer = new MMAnalyzer();   
     
    Directory directory = new RAMDirectory();   
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);   
     
    try   
    {   
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);   
    iwriter.setMaxFieldLength(25000);   
    Document doc = new Document();   
    doc.add(new Field(fieldName, text, Field.Store.YES,   
    Field.Index.TOKENIZED,   
    Field.TermVector.WITH_POSITIONS_OFFSETS));   
    iwriter.addDocument(doc);   
    iwriter.close();   
     
    IndexSearcher isearcher = new IndexSearcher(directory);   
    QueryParser parser = new QueryParser(fieldName, analyzer);   
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞   
    Hits hits = isearcher.search(query);   
    System.out.println("命中:" + hits.length());   
     
    Highlighter highlighter = new Highlighter(new QueryScorer(query));   
    for (int i = 0; i < hits.length(); i++)   
    {   
    text = hits.doc(i).get(fieldName);   
    TermPositionVector tpv = (TermPositionVector) IndexReader.open(   
    directory).getTermFreqVector(hits.id(i), fieldName);   
    TokenStream tokenStream = TokenSources.getTokenStream(tpv);   
    String result = highlighter.getBestFragments(tokenStream, text, 3, "...");   
    System.out.println("內(nèi)容:" + result);   
    }   
     
    isearcher.close();   
    directory.close();   
    }   
    catch (Exception e)   
    {   
    e.printStackTrace();   
    }   
    }   
     
    }  
    package demo.analysis;

    import jeasy.analysis.MMAnalyzer;

    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.analysis.TokenStream;
    import org.apache.lucene.document.Document;
    import org.apache.lucene.document.Field;
    import org.apache.lucene.index.IndexReader;
    import org.apache.lucene.index.IndexWriter;
    import org.apache.lucene.index.TermPositionVector;
    import org.apache.lucene.queryParser.QueryParser;
    import org.apache.lucene.search.Hits;
    import org.apache.lucene.search.IndexSearcher;
    import org.apache.lucene.search.Query;
    import org.apache.lucene.search.highlight.Highlighter;
    import org.apache.lucene.search.highlight.QueryScorer;
    import org.apache.lucene.search.highlight.TokenSources;
    import org.apache.lucene.store.Directory;
    import org.apache.lucene.store.RAMDirectory;

    public class Segment
    {

    public static void main(String[] args)
    {
    String fieldName = "text";
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容

    //采用正向最大匹配的中文分詞算法
    Analyzer analyzer = new MMAnalyzer();

    Directory directory = new RAMDirectory();
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

    try
    {
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
    iwriter.setMaxFieldLength(25000);
    Document doc = new Document();
    doc.add(new Field(fieldName, text, Field.Store.YES,
    Field.Index.TOKENIZED,
    Field.TermVector.WITH_POSITIONS_OFFSETS));
    iwriter.addDocument(doc);
    iwriter.close();

    IndexSearcher isearcher = new IndexSearcher(directory);
    QueryParser parser = new QueryParser(fieldName, analyzer);
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞
    Hits hits = isearcher.search(query);
    System.out.println("命中:" + hits.length());

    Highlighter highlighter = new Highlighter(new QueryScorer(query));
    for (int i = 0; i < hits.length(); i++)
    {
    text = hits.doc(i).get(fieldName);
    TermPositionVector tpv = (TermPositionVector) IndexReader.open(
    directory).getTermFreqVector(hits.id(i), fieldName);
    TokenStream tokenStream = TokenSources.getTokenStream(tpv);
    String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
    System.out.println("內(nèi)容:" + result);
    }

    isearcher.close();
    directory.close();
    }
    catch (Exception e)
    {
    e.printStackTrace();
    }
    }

    }
     
    生成效果:

    命中:1
    內(nèi)容:據(jù)路透社報道,<B>印度尼西亞</B>社會事務(wù)部一官員星期二(29日)表示,日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的

    里氏<B>6.2級</B><B>地震</B>已經(jīng)造成至少5427人死亡,20000余人受傷,近20萬人無家可歸


    本文來自CSDN博客,轉(zhuǎn)載請標明出處:http://blog.csdn.net/Java2King/archive/2010/01/08/5155878.aspx

     

    本文來自CSDN博客,轉(zhuǎn)載請標明出處:http://blog.csdn.net/xiaoping8411/archive/2010/03/30/5435134.aspx

    posted on 2010-06-21 10:10 rogerfan 閱讀(3004) 評論(0)  編輯  收藏 所屬分類: 【開源技術(shù)】
    主站蜘蛛池模板: 国产无人区码卡二卡三卡免费 | 亚洲日本在线电影| 最近2018中文字幕免费视频| 亚洲精品成人片在线观看精品字幕| 亚洲精品理论电影在线观看| 国产精品成人免费视频网站京东| 久久丫精品国产亚洲av| 亚洲国产精品免费视频| 亚洲自偷自拍另类12p| 99精品视频在线观看免费专区| 亚洲AV无码专区在线播放中文| 免费毛片在线看不用播放器| 好看的电影网站亚洲一区| a级片免费在线播放| 久久精品亚洲综合专区| 99免费在线观看视频| 亚洲国产成AV人天堂无码| 成全视频免费高清 | 亚洲人成网站日本片| 最近2019中文字幕mv免费看| 亚洲成AV人影片在线观看| 免费一看一级毛片| 一级特黄录像免费播放中文版 | 亚洲黄色三级视频| 最近的免费中文字幕视频 | 国产女高清在线看免费观看| 人人公开免费超级碰碰碰视频| 国产成人综合亚洲AV第一页| 国产白丝无码免费视频| 亚洲一区二区三区无码国产| 免费看少妇作爱视频| 一级午夜a毛片免费视频| 亚洲国产精品久久久久| 国色精品卡一卡2卡3卡4卡免费| 色欲aⅴ亚洲情无码AV| 亚洲中文字幕无码久久精品1| 91精品啪在线观看国产线免费| 亚洲国产午夜精品理论片在线播放| 亚洲无码高清在线观看| 久久精品成人免费观看| 亚洲第一第二第三第四第五第六|