<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    JAVA—咖啡館

    ——歡迎訪問rogerfan的博客,常來《JAVA——咖啡館》坐坐,喝杯濃香的咖啡,彼此探討一下JAVA技術(shù),交流工作經(jīng)驗,分享JAVA帶來的快樂!本網(wǎng)站部分轉(zhuǎn)載文章,如果有版權(quán)問題請與我聯(lián)系。

    BlogJava 首頁 新隨筆 聯(lián)系 聚合 管理
      447 Posts :: 145 Stories :: 368 Comments :: 0 Trackbacks

        // Store the index on disk
        Directory directory = FSDirectory.getDirectory("/tmp/testindex");
        
    // Use standard analyzer
        Analyzer analyzer = new StandardAnalyzer(); 
        
    // Create IndexWriter object
        IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
        iwriter.setMaxFieldLength(
    25000);
        
    // make a new, empty document
        Document doc = new Document();
        File f 
    = new File("/tmp/test.txt");
        
    // Add the path of the file as a field named "path".  Use a field that is 
        
    // indexed (i.e. searchable), but don't tokenize the field into words.
        doc.add(new Field("path", f.getPath(), Field.Store.YES, Field.Index.UN_TOKENIZED));
        String text 
    = "This is the text to be indexed.";
        doc.add(
    new Field("fieldname", text, Field.Store.YES,      Field.Index.TOKENIZED));
        
    // Add the last modified date of the file a field named "modified".  Use 
        
    // a field that is indexed (i.e. searchable), but don't tokenize the field
        
    // into words.
        doc.add(new Field("modified",
            DateTools.timeToString(f.lastModified(), DateTools.Resolution.MINUTE),
            Field.Store.YES, Field.Index.UN_TOKENIZED));
        
    // Add the contents of the file to a field named "contents".  Specify a Reader,
        
    // so that the text of the file is tokenized and indexed, but not stored.
        
    // Note that FileReader expects the file to be in the system's default encoding.
        
    // If that's not the case searching for special characters will fail.
        doc.add(new Field("contents"new FileReader(f)));
        iwriter.addDocument(doc);
        iwriter.optimize();
        iwriter.close();

    下面詳細(xì)介紹每一個類的處理機制。

    4.1       索引創(chuàng)建類IndexWriter

    一個IndexWriter對象創(chuàng)建并且維護(maintains) 一條索引.

    它的構(gòu)造函數(shù)(constructor)create參數(shù)(argument)確定(determines)是否一條新的索引將被創(chuàng)建,或者是否一條已經(jīng)存在的索引將被打開。需要注意的是你可以使用create=true參數(shù)打開一條索引,即使有其他readers也在在使用這條索引。舊的readers將繼續(xù)檢索它們已經(jīng)打開的”point in time”快照(snapshot),并不能看見那些新已創(chuàng)建的索引,直到它們再次打開(re-open)。另外還有一個沒有create參數(shù)的構(gòu)造函數(shù),如果提供的目錄(provided path)中沒有已經(jīng)存在的索引,它將創(chuàng)建它,否則將打開此存在的索引。

    另一方面(in either case),添加文檔使用addDocument()方法,刪除文檔使用removeDocument()方法,而且一篇文檔可以使用updateDocument()方法來更新(僅僅是先執(zhí)行delete在執(zhí)行add操作而已)。當(dāng)完成了添加、刪除、更新文檔,應(yīng)該需要調(diào)用close方法。

    這些修改會緩存在內(nèi)存中(buffered in memory),并且定期地(periodically)刷新到(flushDirectory中(在上述方法的調(diào)用期間)。一次flush操作會在如下時候觸發(fā)(triggered):當(dāng)從上一次flush操作后有足夠多緩存的delete操作(參見setMaxBufferedDeleteTerms(int)),或者足夠多已添加的文檔(參見setMaxBufferedDocs(int)),無論哪個更快些(whichever is sooner)。當(dāng)一次flush發(fā)生時,等待的(pendingdeleteadd文檔都會被flush到索引中。一次flush可能觸發(fā)一個或更多的片斷合并(segment merges)。

    構(gòu)造函數(shù)中的可選參數(shù)(optional argumentautoCommit控制(controls)修改對IndexReader實體(instance)讀取相同索引的能見度(visibility)。當(dāng)設(shè)置為false時,修改操作將不可見(visible)直到close()方法被調(diào)用后。需要注意的是修改將依然被flushDirectory,就像新文件一樣(as new files),但是卻不會被提交(commit)(沒有新的引用那些新文件的segments_N文件會被寫入(written referencing the new files))直道close()方法被調(diào)用。如果在調(diào)用close()之前發(fā)生了某種嚴(yán)重錯誤(something goes terribly wrong)(例如JVM崩潰了),于是索引將反映(reflect)沒有任何修改發(fā)生過(none of changes made)(它將保留它開始的狀態(tài)(remain in its starting state))。你還可以調(diào)用close(),這樣可以關(guān)閉那些沒有提交任何修改操作的writers,并且清除所有那些已經(jīng)flush但是現(xiàn)在不被引用的(unreferenced)索引文件。這個模式(mode)對防止(preventreaders在一個錯誤的時間重新刷新(refresh)非常有用(例如在你完成所有delete操作后,但是在你完成添加操作前的時候)。它還能被用來實現(xiàn)簡單的single-writer的事務(wù)語義(transactional semantics)("all or none")。

    當(dāng)autoCommit設(shè)為true的時候,每次flush也會是一次提交(IndexReader實體將會把每次flush當(dāng)作一次提交)。這是缺省的設(shè)置,目的是為了匹配(match2.2版本之前的行為(behavior)。當(dāng)以這種模式運行時,當(dāng)優(yōu)化(optimize)或者片斷合并(segment merges)正在進行(take place)的時候需要小心地重新刷新(refresh)你的readers,因為這兩個操作會綁定(tie up)可觀的(substantial)磁盤空間。

    當(dāng)一條索引暫時(for a while)將不會有更多的文檔被添加,并且期望(desired)得到最理想(optimal)的檢索性能(performance),于是optimize()方法應(yīng)該在索引被關(guān)閉之前被調(diào)用。

    打開IndexWriter會為使用的Directory創(chuàng)建一個lock文件。嘗試對相同的Directory打開另一個IndexWriter將會導(dǎo)致(lead to)一個LockObtainFailedException異常。如果一個建立在相同的DirectoryIndexReader對象被用來從這條索引中刪除文檔的時候,這個異常也會被拋出。

    專家(Expert):IndexWriter允許指定(specify)一個可選的(optionalIndexDeletionPolicy實現(xiàn)。你可以通過這個控制什么時候優(yōu)先的提交(prior commit)從索引中被刪除。缺省的策略(policy)是KeepOnlyLastCommitDeletionPolicy類,在一個新的提交完成的時候它會馬上所有的優(yōu)先提交(prior commit)(這匹配2.2版本之前的行為)。創(chuàng)建你自己的策略能夠允許你明確地(explicitly)保留以前的”point in time”提交(commit)在索引中存在(alive)一段時間。為了讓readers刷新到新的提交,在它們之下沒有被刪除的舊的提交(without having the old commit deleted out from under them)。這對那些不支持“在最后關(guān)閉時才刪除”語義(”delete on last close semantics)的文件系統(tǒng)(filesystem)如NFS,而這是Lucene的“point in time”檢索通常所依賴的(normally rely on)。

    posted on 2010-06-21 09:58 rogerfan 閱讀(255) 評論(0)  編輯  收藏 所屬分類: 【開源技術(shù)】
    主站蜘蛛池模板: 亚洲国产成人久久综合野外| 四虎成人精品一区二区免费网站| 114级毛片免费观看| 日韩亚洲国产高清免费视频| 免费高清小黄站在线观看| 无码不卡亚洲成?人片| 国产羞羞的视频在线观看免费| 一级毛片**不卡免费播| 国产麻豆视频免费观看| 国产乱子伦精品免费女| 妞干网免费视频观看| 亚洲av日韩av欧v在线天堂| 亚洲国产a∨无码中文777| 亚洲国产成AV人天堂无码| 最新亚洲人成网站在线观看| 日本一区午夜艳熟免费| 青青青国产在线观看免费网站 | 亚洲无线观看国产精品| 亚洲欧洲视频在线观看| 久久精品国产亚洲AV无码娇色| 久久亚洲最大成人网4438| 伊人久久国产免费观看视频| 69视频在线观看高清免费| 日韩成人在线免费视频| 亚洲精品亚洲人成在线观看| 亚洲一区电影在线观看| 一区二区三区在线免费观看视频| 18女人毛片水真多免费| 亚洲AV日韩精品一区二区三区| 亚洲精品美女视频| 精品成人一区二区三区免费视频 | 搡女人真爽免费视频大全| 亚洲人成色7777在线观看不卡 | 国产精品极品美女自在线观看免费| 毛片无码免费无码播放| 四虎影视永久免费视频观看| 亚洲日本在线观看| 免费精品视频在线| 成年黄网站色大免费全看| 丝袜熟女国偷自产中文字幕亚洲| 精品久久亚洲中文无码|