<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    csusky

    常用鏈接

    統計

    最新評論

    2008年2月26日 #

    異步IO的關閉事件

    JAVA SOCKET只定義了四種事件

    public static final int OP_READ = 1 << 0;
    public static final int OP_WRITE = 1 << 2;
    public static final int OP_CONNECT = 1 << 3;
    public static final int OP_ACCEPT = 1 << 4;

    是沒有關閉事件的,我們怎么判斷一個連接是否關閉呢?
    如果你的selector注冊了一個OP_READ事件,那么在連接關閉的時候將會產生一個OP_READ事件
    也就是說本來阻塞的selector此時將會被喚醒,但是如果試圖在此事件的通道中讀取數據將會返回-1
    如下:

    Set<SelectionKey> readyKeys = selector.selectedKeys();

    = readyKeys.iterator()

    SelectionKey key 
    = (SelectionKey)i.next();

    if (operation == SelectionKey.OP_READ &&
                             key.isReadable())
                    
    {
                        ReadableByteChannel incomingChannel 
    = (ReadableByteChannel)key.channel(); 
    //此時將會得到-1,表明該鏈接已關閉
    int n = incomingChannel.read(readBuffer);
    }
    此時我們需要取消該KEY 如下:
    if (n == -1)
                
    {
                    key.cancel();
                      //關閉輸入輸出 
                      sc.socket().shutdownOutput();
                      sc.socket().shutdownInput();
                       //關閉SOCKET
                       sc.socket().close();
                      //關閉通道
                       incomingChannel.close();
                }

    posted @ 2009-11-10 22:28 曉宇 閱讀(424) | 評論 (1)編輯 收藏

    ExecutorFilter

    1 . 用Executors構造一個新的線程池
    ExecutorService executor = Executors.newCachedThreadPool();

    方法 newCachedThreadPool();
    創建一個可根據需要創建新線程的線程池,但是在以前構造的線程可用時將重用它們,并在需要時使用提供的 ThreadFactory 創建新線程。
    2. 用構造的線程池創建ExecutorFilter
    ExecutorFilter es= new ExecutorFilter(executor));

    在ExecutorFilter內部:
    只需要將相應的事件分發到到線程池的相應線程即可,但是SessionCreated事件只能在主線程中,不能分發
    觸發方法
    1 .
    首先構造一個IoFilterEvent,這個IoFilterEvent包含1、事件的類型,2、下一個過濾器
    然后觸發該時間的處理方法。
     if (eventTypes.contains(IoEventType.SESSION_OPENED)) {
                fireEvent(
    new IoFilterEvent(nextFilter, IoEventType.SESSION_OPENED,
                        session, 
    null));
            }

    2 .
    從線程池中取出一個線程執行事件處理
    protected void fireEvent(IoFilterEvent event) {
            getExecutor().execute(event);
        }


    在構造ExecutorFilter 時如果沒有傳入IoEventType則默認只對如下幾種幾件感興趣
    EXCEPTION_CAUGHT
    MESSAGE_RECEIVED
    MESSAGE_SENT
    SESSION_CLOSED
    SESSION_IDLE
    SESSION_OPENED
    當然還需要覆蓋相應的事件處理方法 如上所示

    posted @ 2008-12-12 11:33 曉宇 閱讀(1557) | 評論 (0)編輯 收藏

    ORACLE的塊大小

    參數db_block_size;
    這個參數只能設置成底層操作系統物理塊大小的整數倍,最好是2的n次方倍。
    如WINDOWS下4KB,8KB,16KB
    且該參數需要在建庫的時候指定,一旦指定不能更改。
    雖然在ORACLE9I以上可以指定表空間的數據庫大小,允許同時使用包括非默認大小在內的數據庫塊大小。不過需要設置指定大小數據塊的buffer_cache.

    小的塊:
    小的塊降低塊競爭,因為每個塊中的行較少.
    小的塊對于小的行有益.
    小的塊對于隨意的訪問較好.如果一個塊不太可能在讀入內存后被修改,那么塊的大小越小使用buffer cache越有效率。當內存資源很珍貴時尤為重要,因為數據庫的buffer cache是被限制大小的。
    劣勢:
    小塊的管理消費相對大.
    因為行的大小你可能只在塊中存儲很小數目的行,這可能導致額外的I/O。
    小塊可能導致更多的索引塊被讀取

    大的塊
    好處:
    更少的管理消費和更多存儲數據的空間.
    大塊對于有順序的讀取較好.  譬如說全表掃描
    大塊對很大的行較好
    大塊改進了索引讀取的性能.大的塊可以在一個塊中容納更多的索引條目,降低了大的索引級的數量.越少的index level意味著在遍歷索引分支的時候越少的I/O。
    劣勢:
    大塊不適合在OLTP中用作索引塊,因為它們增加了在索引葉塊上的塊競爭。
    如果你是隨意的訪問小的行并有大的塊,buffer cache就被浪費了。例如,8 KB的block size 和50 byte row size,你浪費了7,950



     

    posted @ 2008-11-25 15:45 曉宇 閱讀(1767) | 評論 (0)編輯 收藏

    TIPS

    將進酒  杯莫停  -------> 亭名:  悲默亭

    全球通史

    《詩經·采薇》

    昔我往矣,楊柳依依 今我來思,雨雪霏霏

    posted @ 2008-11-10 16:31 曉宇 閱讀(185) | 評論 (0)編輯 收藏

    SPRING整合IBMMQ實現全局事物

         摘要: <?xml version="1.0" encoding="UTF-8"?> <beans xmlns="http://www.springframework.org/schema/beans"     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance...  閱讀全文

    posted @ 2008-10-27 17:01 曉宇 閱讀(2412) | 評論 (0)編輯 收藏

    Lucene的切詞 analysis包

    在搜索引擎中,切詞語是一個重要的部分,其中包括專有名詞的提取、詞的分割、詞的格式化等等。
    TokenStream 類幾乎是所有這些類的基類
    有兩個需要被子類實現的方法Token next() 和 close()
    首先來看analysis包,這個包主要是提供一些簡單的詞匯化處理
    Tokenizer結尾的類是將要處理的字符串進行分割成Token流,而根據分割的依據的又產生了以下幾個Tokenizer類
    首先Tokenizer類是所有以Tokenizer結尾的類的基
    然后是CharTokenizer,所有的以Tokenizer結尾的類都是從這個類繼承的
    這個類中有一個抽象方法
      protected abstract boolean isTokenChar(char c);
    另外一個需要被子類覆寫的方法
      protected char normalize(char c) {};
    是對單個字符進行處理的方法譬如說將英文字母全部轉化為小寫

    還有一個變量
    protected Reader input;
    這個讀取器是這些類所處理的數據的   數據源
    輸入一個Reader ,產生一個Token流


    這個方法是是否進行切分的依據,依次讀取char流,然后用這個方法對每個char進行檢測,如果返回false則將預先存儲在
    詞匯緩沖區中的char數組作為一個Token返回
    LetterTokenizer :
          protected boolean isTokenChar(char c) {
                  return Character.isLetter(c);
          }
    WhitespaceTokenizer:
          protected boolean isTokenChar(char c) {
                  return !Character.isWhitespace(c);
          } 
    LowerCaseTokenizer extends LetterTokenizer:
    protected char normalize(char c) {
          return Character.toLowerCase(c);
       }

       在構造函數中調用super(in);進行和 LetterTokenizer同樣的操作,但是在詞匯化之前所有的詞都轉化為小寫了
     
    然后是以Filter結尾的類,這個類簇主要是對已經詞匯化的Token流進行進一步的處理
     輸入是Token流 , 輸出仍然是Token流。
    TokenFilter extends TokenStream  是所有這些類的父類
    protected TokenStream input;
    在TokenFilter 中有一個TokenStream 變量,是Filter類簇處理的數據源,而Filter類簇又是繼承了TokenStream 類的
    有一個public final Token next()方法,這個方法以TokenStream.next()產生的Token流 為處理源,產生的仍然是Token流
    只不過中間有一些處理的過程
    LowerCaseFilter:將所有的Token流的轉化為小寫
         t.termText = t.termText.toLowerCase();
    StopFilter:過濾掉一些停止詞,這些停止詞由構造函數指定
         for (Token token = input.next(); token != null; token = input.next())
          if (!stopWords.contains(token.termText))
            return token;


    比較一下Tokenizer類簇和Filter類簇,可以知道
    Tokenizer類簇主要是對輸入的Reader流,實際上是字符流按照一定的規則進行分割,產生出Token流
    其輸入是字符串的Reader流形式,輸出是Token流

    Filter類簇主要是對輸入的Token流進行更進一步的處理,如去除停止詞,轉化為小寫
    主要為一些格式化操作。
    由于Filter類簇的輸入輸出相同,所以可以嵌套幾個不同的Filter類,以達到預期的處理目的。
    前一個Filter類的輸出作為后一個Filter類的輸入
    而Tokenizer類簇由于輸入輸出不同,所以不能嵌套







    posted @ 2008-05-30 14:47 曉宇 閱讀(1029) | 評論 (1)編輯 收藏

    JDK1.5的自動裝箱功能

    在JAVA JDK1.5以后具有的自動裝箱與拆箱的功能,所謂的自動裝箱
    與拆箱也就是把基本的數據類型自動的轉為封裝類型。

    如:自動裝箱,它可以直接把基本類型賦值給封裝類型

    Integer num = 10 ;

    Double d = 2d ;

    自動拆箱,它可以把封裝類型賦值給基本類型

    int num = new Integer(10);

    double d = new Double(2d);

    自動裝箱與拆箱的功能事實上是編譯器來幫您的忙,編譯器在編譯時期依您所編寫的語法,決定是否進行裝箱或拆箱動作。在自動裝箱時對于值從-128到127之間的值,它們被裝箱為Integer對象后,會存在內存中被重用,所以范例4.6中使用==進行比較時,i1 與 i2實際上參考至同一個對象。如果超過了從-128到127之間的值,被裝箱后的Integer對象并不會被重用,即相當于每次裝箱時都新建一個Integer對象,所以范例4.7使用==進行比較時,i1與i2參考的是不同的對象。所以不要過分依賴自動裝箱與拆箱,您還是必須知道基本數據類型與對象的差異。

        public void testBoxingUnboxing() {

            int i = 10;

            Integer inta = i;

            inta++;

            inta += 1;

            int j = inta;

            assertTrue(j == inta);結果是:true//junit里面的方法

            assertTrue(j == new Integer(j)); 結果是:true

            assertTrue(10000 == new Integer(10000)); 結果是:true

        }

    Integer i = 100.相當于編譯器自動為您作以下的語法編譯:

    Integer i = new Integer(100).所以自動裝箱與拆箱的功能是所謂的“編譯器蜜糖”(Compiler Sugar),雖然使用這個功能很方便,但在程序運行階段您得了解Java的語義。例如下面的程序是可以通過編譯的:

    Integer i = null.int j = i.這樣的語法在編譯時期是合法的,但是在運行時期會有錯誤,因為這種寫法相當于:

    Integer i = null.int j = i.intValue().null表示i沒有參考至任何的對象實體,它可以合法地指定給對象參考名稱。由于實際上i并沒有參考至任何的對象,所以也就不可能操作intValue()方法,這樣上面的寫法在運行時會出現NullPointerException錯誤。

    自動裝箱、拆箱的功能提供了方便性,但隱藏了一些細節,所以必須小心。再來看范例4.6,您認為結果是什么呢?

    Ü. 范例4.6 AutoBoxDemo2.java

    public class AutoBoxDemo2 {

    public static void main(String[] args) {
    Integer i1 = 100;

    Integer i2 = 100;

    if (i1 == i2)

    System.out.println("i1 == i2");

    else

    System.out.println("i1 != i2").

    }

    }

    從自動裝箱與拆箱的機制來看,可能會覺得結果是顯示i1 == i2,您是對的。那么范例4.7的這個程序,您覺得結果是什么?

    Ü. 范例4.7 AutoBoxDemo3.java

    public class AutoBoxDemo3 {

    public static void main(String[] args) {

    Integer i1 = 200;

    Integer i2 = 200;

    if (i1 == i2)

    System.out.println("i1 == i2");

    else

    System.out.println("i1 != i2");

    }

    }

    結果是顯示i1 != i2這有些令人驚訝,兩個范例語法完全一樣,只不過改個數值而已,結果卻相反。

    其實這與==運算符的比較有關,在第3章中介紹過==是用來比較兩個基本數據類型的變量值是否相等,事實上==也用于判斷兩個對象引用名稱是否參考至同一個對象。

    在自動裝箱時對于值從–128127之間的值,它們被裝箱為Integer對象后,會存在內存中被重用,所以范例4.6中使用==進行比較時,i1 i2實際上參考至同一個對象。如果超過了從–128127之間的值,被裝箱后的Integer對象并不會被重用,即相當于每次裝箱時都新建一個Integer對象,所以范例4.7使用==進行比較時,i1i2參考的是不同的對象。

    所以不要過分依賴自動裝箱與拆箱,您還是必須知道基本數據類型與對象的差異。范例4.7最好還是依正規的方式來寫,而不是依賴編譯器蜜糖(Compiler Sugar)。例如范例4.7必須改寫為范例4.8才是正確的。

    Ü. 范例4.8 AutoBoxDemo4.java

    public class AutoBoxDemo4 {
    public static void main(String[] args) {

    Integer i1 = 200;

    Integer i2 = 200;

    if (i1.equals(i2))

    System.out.println("i1 == i2");

    else

    System.out.println("i1 != i2");

    }

    }

    結果這次是顯示i1 == i2使用這樣的寫法,相信也會比較放心一些,對于這些方便但隱藏細節的功能到底要不要用呢?基本上只有一個原則:如果您不確定就不要用。

    posted @ 2008-05-16 11:33 曉宇 閱讀(446) | 評論 (0)編輯 收藏

    關于IndexWriter中的3個性能參數

    IndexWriter中有3個重要的性能參數
    mergeFactor           默認為10
    minMergeDocs      默認為10
    maxMergeDocs     默認為Integer.maxValue

    maxMergeDocs     一個段中所能包含的最大的doc數,達到這個數目即不再將段進行合并 一般不改變這個值
    minMergeDocs      是指在RAMDirectory中保存的Doc的個數,達到minMergeDocs 個即要合并到硬盤上去(在硬盤上新建一個段)
    mergeFactor           合并因子,是控制硬盤上的段的合并的,每次在硬盤上新建一個段之后即執行
                                     targetMergeDocs*=mergeFactor(一開始targetMergeDocs=minMergeDocs) 如果硬盤上的doc數目大于等于                            targetMergeDocs則將硬盤上最后建立的mergeFactor個段進行合并成一個段

    拿默認的參數舉例:
    如果硬盤上面已經有9個段  每個段分別存儲了10個Document,共(90個DOC),這時候如果程序再向硬盤合并一個新的段(含10個DOC),合并完之后targetMergeDocs=10*10  程序檢查已經合并的最后(按照創建的時間先后順序)mergeFactor個段的document的總和100是否大于等于targetMergeDocs(這里是100,剛好滿足要求)于是程序又將硬盤上面的后10個段合并為一個新的段。

    另外一個例子:
    doc數目            段數目
      1000---------------9個
      100-----------------9個
      10   ----------------9個
    這時如果再象硬盤中新建一個新的包含了10個doc的段
        doc數目            段數目
      (1) 1000----------------9個

      (2)  100-----------------9個

      (3)   10  ----------------9個
                                         
      (4)    10 ----------------1個
    這時候(3)(4)首先合并成一個新的段(3-4)包含100個doc
     然后(2)(3-4)和并成一個新段(2-3-4)包含1000個doc
    然后(1)(2-3-4)合并成一個新的段  包含10000個doc
    最后合并成一個段


    private final void maybeMergeSegments() throws IOException {
        
    long targetMergeDocs = minMergeDocs;
        
    while (targetMergeDocs <= maxMergeDocs) {
          
    // find segments smaller than current target size
          int minSegment = segmentInfos.size();
          
    int mergeDocs = 0;
          
    while (--minSegment >= 0{
            SegmentInfo si 
    = segmentInfos.info(minSegment);
            
    if (si.docCount >= targetMergeDocs)
              
    break;
            mergeDocs 
    += si.docCount;
          }


          
    if (mergeDocs >= targetMergeDocs)          // found a merge to do
            mergeSegments(minSegment+1);
          
    else
            
    break;

          targetMergeDocs 
    *= mergeFactor;        // increase target size
          System.out.println("- -- - -targetMergeDocs:"+targetMergeDocs);
          
    try {Thread.sleep(5000);} catch(Exception e) {};
        }

      }

    posted @ 2008-05-15 19:27 曉宇 閱讀(1430) | 評論 (0)編輯 收藏

    HIBERNATE的一對多和多對一關聯

    HIBERNATE一多對關聯中  要求在持久化類中定義集合類屬性時,必須把屬性聲明為接口,因為HIBERNATE在調用持久化類的SET/GET方法時傳遞的是HIBERNATE自己定義的集合類。
    在定義集合時,一般先初始化為集合實現類的一個實例 : private Set orders=new HashSet(),這樣可以避免訪問空集合出現NullPointerException.

    posted @ 2008-05-14 11:01 曉宇 閱讀(237) | 評論 (0)編輯 收藏

    Lucene索引文件的格式

    segments文件的格式: (段的信息)
    int:  =-1    查看文件是否是Lucene合法的文件格式
    long:        版本號,每更新一次該文件將會將版本號加1
    int:         用來命名新段
    int:         段的數目
    String + int 段的信息 String是段的名稱  int是段中所含的doc數目
    String + int 同上


    .fnm的文件格式:   (Field的信息)
    int:               Field的個數,最少為1,最少有一個Field("",false),在初始化的時候寫入(暫時不知道原因); 名稱為空字符串,未索引,        未               向           量化。readVInt()讀取
    String: byte      String是 Field的名稱  byte指示該Field 是否被索引,是否向量化 (值有:11,10,01)第一個1代表被索引,第二個代表被向量化
    String: byte Field 同上
         

     

    .fdx的文件格式:主要是提供對.fdt中存儲的document的隨即讀取
    long :       第一個document在.fdt文件中的位置
    long:        第二個document在.fdt文件中的位置


    .fdt的文件格式:  .fdt文件存儲了一系列document的信息
    VInt:        該document中的isStored屬性為true的域的個數
    (VInt:)      如果該field的isStored屬性為true則得到該field的fieldNumber,暫時不知道這個fieldNumber是怎么產生的,有什么用,初步估計是按照field創建的順序產生的,每次再上一個field的fieldNumber基礎上加1。
    byte:        如果該field的isTokenized屬性為true寫入1否則寫入false。
    String:      該field的stringValue()值。
    一個document結束,下面的數據將會開始一個新的document,每個新的document的開始點的文件位置都會在.fdx中有記載,便于隨即訪問

     

    posted @ 2008-04-21 17:52 曉宇 閱讀(483) | 評論 (0)編輯 收藏

    org.apache.lucene.index.SegmentInfos

    final class SegmentInfos extends Vector
    可以看出該類實際上是一個Vector   以及封裝了對該Vevtor的一些操作
    實際上封裝的是對segments文件的一些讀寫操作
    先來看下segments文件的格式

    segments文件的格式:
    int:  =-1         文件是否是Lucene合法的文件格式正常情況下為 -1
    long:             版本號,每更新一次該文件將會將版本號加1
    int:                用來命名新段
    int:                段的數目
    String + int  段的信息 String是段的名稱  int是段中所含的doc數目
    String + int  同上

    所以用Lucene的API,我們可以簡單的打印出其segments的所有信息

    try {
       //DataInputStream fis = new DataInputStream(new FileInputStream("C:\\sf\\snow\\segments"));
       FSDirectory dir=FSDirectory.getDirectory("C:/sf/snow", false);
        InputStream input = dir.openFile("segments");
       System.out.println("Format:"+input.readInt());             //得到文件標志,是否為正常的segments文件
       System.out.println("version:"+input.readLong());        //得到版本號
       System.out.println("name:"+input.readInt());                //得到用來重命名新段的int,暫時不知道有什么用
       int n=input.readInt();                                                          //段的數目
       System.out.println("SegmentNum:"+n);                          
       for(int i=0;i<n;i++) {                                                           //用循環打印出所有段的信息 名稱和長度
        System.out.println("segment "+i+" - name:"+input.readString()+" num:"+input.readInt());
       }
      } catch (Exception e) {

      }
    當然,該類提供了更為復雜的訪問和更新segments文件的方法
     final void read(Directory directory)    將所有的段信息保存在本vector中
    final void write(Directory directory)    跟新該segment文件的內容,主要是為了添加段,
    主要是更新 版本號 段的數目,跟新完這些后即可往segment文件后添加新段的信息。

    posted @ 2008-04-18 17:02 曉宇 閱讀(365) | 評論 (0)編輯 收藏

    org.apache.lucene.index.SegmentInfo

    segment(段)的信息
    該類比較簡單,貼出其全部代碼

    import org.apache.lucene.store.Directory;

    final class SegmentInfo {
      public String name;        //在索引目錄中唯一的名稱 
      public int docCount;      // 該段中doc的數目
      public Directory dir;      // 該段所存在的Dirrectory

      public SegmentInfo(String name, int docCount, Directory dir) {
        this.name = name;
        this.docCount = docCount;
        this.dir = dir;
      }
    }

    posted @ 2008-04-18 16:45 曉宇 閱讀(264) | 評論 (0)編輯 收藏

    org.apache.lucene.store.RAMInputStream

    該類是從RAMFile中讀數據用的
    最重要的一個方法:
    該方法存在著從RAMFile的多個byte[1024]中讀取數據的情況,所以應該在循環中進行處理

     public void readInternal(byte[] dest, int destOffset, int len) {
        int remainder = len;
        int start = pointer;
        while (remainder != 0) {
          int bufferNumber = start/BUFFER_SIZE; //  buffer的序號
          int bufferOffset = start%BUFFER_SIZE; //    buffer偏移量
          int bytesInBuffer = BUFFER_SIZE - bufferOffset;// 在當前buffer中剩下的字節數
          //如果緩沖區中剩余的字節大于len,則讀出len長度的字節,如果不夠則讀出剩余的字節數
          // bytesToCopy表示實際讀出的字節數
          int bytesToCopy = bytesInBuffer >= remainder ? remainder : bytesInBuffer;
          byte[] buffer = (byte[])file.buffers.elementAt(bufferNumber);
          System.arraycopy(buffer, bufferOffset, dest, destOffset, bytesToCopy);
          destOffset += bytesToCopy;       //增加已經復制的byte數據長度 到  dest中的偏移量
          start += bytesToCopy;                 //RAMFile文件指針,用來確定bufferNumber 和bytesInBuffer   相當于內存中的分頁
          remainder -= bytesToCopy;       //剩余的還未復制的字節數
        }
        pointer += len;//文件指針位置
      }

    posted @ 2008-04-18 11:45 曉宇 閱讀(224) | 評論 (0)編輯 收藏

    org.apache.lucene.store.RAMOutputStream

    這是OutputStream的一個子類,其輸出設備是內存,準確來說是RAMFile,即將數據寫入到RAMFile的Vector中去。
    該類有一個最重要的方法,現在把它整個貼出來

    public void flushBuffer(byte[] src, int len) {
        int bufferNumber = pointer/BUFFER_SIZE;   //buffer序列,即當前所寫Buffer在RAMFile中的Vector中的序列號
        int bufferOffset = pointer%BUFFER_SIZE;   //偏移量,即當前所寫字節在當前Buffer中的偏移量。
        int bytesInBuffer = BUFFER_SIZE - bufferOffset; //當前Buffer的剩余可寫字節數
       //bytesToCopy是實際寫入的字節數,如果當前Bufer的剩余字節數大于需要寫的字節的總數則寫入所有字節
       //否則,將當前Buffer寫滿即可,剩余的字節將寫入下一個Buffer
        int bytesToCopy = bytesInBuffer >= len ? len : bytesInBuffer;

        if (bufferNumber == file.buffers.size())
          file.buffers.addElement(new byte[BUFFER_SIZE]); //在RAMFile中添加新的byte[1024]元素

        byte[] buffer = (byte[])file.buffers.elementAt(bufferNumber);
        System.arraycopy(src, 0, buffer, bufferOffset, bytesToCopy);

        if (bytesToCopy < len) {     // not all in one buffer,
          int srcOffset = bytesToCopy;
          bytesToCopy = len - bytesToCopy;    // remaining bytes 剩余的未寫入的字節數
          bufferNumber++;                         //將buffer數增加1
          if (bufferNumber == file.buffers.size()) 
            file.buffers.addElement(new byte[BUFFER_SIZE]);
          buffer = (byte[])file.buffers.elementAt(bufferNumber); //剩余字節寫入下一個Buffer
          System.arraycopy(src, srcOffset, buffer, 0, bytesToCopy);
        }
        pointer += len;
        if (pointer > file.length)
          file.length = pointer;        //移位文件指針          在原有的基礎上加上實際寫入的字節總數

        file.lastModified = System.currentTimeMillis(); //修改文件的最后修改時間為當前時間
      }

    從指定的字節數組復制指定長度的字節到RAMFile中去。由于RAMFile中Vector的元素是byte[1024]所以可能存在做一次該操作
    要操作兩個Vector元素的情況。即先將當前byte[1024]數組填滿,再新建一個元素裝載剩余的字節。

    另外還有一個writeTo(OutputStream out)方法,將RAMFile中的數據輸出到另一個輸出流



    posted @ 2008-04-18 11:38 曉宇 閱讀(229) | 評論 (0)編輯 收藏

    org.apache.lucene.store.RAMFile

    這個類比較簡單
    import java.util.Vector;
    class RAMFile {
      Vector buffers = new Vector();
      long length;
      long lastModified = System.currentTimeMillis();
    }

    可以理解為一個存儲在內存中的文件,buffers是存儲數據的容器,length是容器中數據的總的字節數
    lastModified 是最后修改時間。

    在實際使用過程中容器buffers存放的對象是一個byte[1024]數組。

    posted @ 2008-04-18 11:23 曉宇 閱讀(287) | 評論 (0)編輯 收藏

    org.apache.lucene.store.OutputStream

    OutputStream
    這是一個Abstract類,是Lucene自己的一個文件輸出流的基類
    BUFFER_SIZE = 1024  緩沖區 大小為 1024bit
    bufferStart = 0 文件位置指針
    bufferPosition = 0 內存緩沖區指針

     public final void writeByte(byte b) throws IOException {
        if (bufferPosition >= BUFFER_SIZE)
          flush();
        buffer[bufferPosition++] = b;
      }
    幾乎所有的寫入函數都要調用這個函數,如果緩沖區的當前容量已經等于他的最大容量,則將緩沖區中的數據寫入文件。

    public final void writeBytes(byte[] b, int length) throws IOException
    批量寫byte進入內存緩沖

    public final void writeInt(int i) throws IOException
    寫入整形數據

    public final void writeLong(long i) throws IOException
    寫入長整型數據,即結合移位運算調用兩次writeInt(int i)

    另外,最值得注意的是在該類中有兩個最特殊的函數
    writeVInt(int i) /   writeVLong(long i),
    先說
    writeVInt(int  i )   {
     while ((i & ~0x7F) != 0) {                               
          writeByte((byte)((i & 0x7f) | 0x80));
          i >>>= 7;
        }
        writeByte((byte)i);
    }
    ~0x7F==~(0111 1111)==(1000 0000)==0x80
    ((i & ~0x7F) != 0) 這一句判斷i是否大于0x80,如果不是則說明該int只有一個字節的有效數據,其他字節都是0,直接轉化為Byte寫入。
    如果大于0x80則
    (i & 0x7f) | 0x80
    i&0x7f 只對后7位進行處理,|0x80將第8位置1,與前面的7個bit構成一個字節,置1的原因是說明該字節并不是一個完整的整形數,需要與其他的字節合起來才能構成一個整形數字。
    這個算法相當于將一個32bit的整形數字按照每7位編碼成一個字節進行存儲,將按照整形數的大小存儲1-5個字節。

    writeVLong(long i)方法大致與其相同。

    final void writeChars(String s, int start, int length)
    將字符串轉化成UTF-8編碼的格式進行存儲。
    附:

    UNICODE值 UTF-8編碼
    U-00000000 - U-0000007F: 0xxxxxxx
    U-00000080 - U-000007FF: 110xxxxx 10xxxxxx
    U-00000800 - U-0000FFFF: 1110xxxx 10xxxxxx 10xxxxxx

    可見對于在 0x00-0x7F范圍內的UNICODE值(最大有效數位:7位),將會編碼成單字節的,會大大節約存儲空間。
    對于在           0x80-0x7FF范圍內的UNICODE(最大有效數位:11位),會編碼成雙字節的。先存儲原字節低5位的數位,且將最高位和次高位都置1,再次高位置0(writeByte((byte)(0xC0 | (code >> 6)));)。然后存儲后6位的字節,將前兩位置10(writeByte((byte)(0x80 | (code & 0x3F)));)
    對于其他的UNICODE值則
    writeByte((byte)(0xE0 | (code >>> 12)));               4位
     writeByte((byte)(0x80 | ((code >> 6) & 0x3F)));   5位
     writeByte((byte)(0x80 | (code & 0x3F)));            3- 5位

    final void writeString(String s) throws IOException
    該函數首先用s.length()判斷該String總共有多少個字符
    然后首先調用writeVInt寫入這個字符長度
    再調用writeChars(s,s.length())寫入字符


    在inputStream中的readString()方法則與其相反,首先用readVInt()方法讀取字符長度len 然后讀取len長度的字符

    protected final void flush() throws IOException
    該方法調用另外一個方法flushBuffer將緩沖區中的數據輸出,然后清空緩沖區;

    abstract void flushBuffer(byte[] b, int len) throws IOException
    可見flushBuffer方法是abstract的,即需要其子類對該方法進行覆寫,以定位該輸出流的輸出方式。

    final long getFilePointer() throws IOException
    得到文件指針的位置,即得到輸出流已經輸出的字節數。

    public void seek(long pos) throws IOException
    輸出緩沖區的內容,然后將文件指針定位到long所指示的文件位置。

    abstract long length() throws IOException
    返回文件中已有的字節數。需要子類實現。

















    posted @ 2008-04-16 21:24 曉宇 閱讀(218) | 評論 (0)編輯 收藏

    org.apache.lucene.store.FSDirectory

    FSDirectory繼承了abstract類Directory
    在該類中既有該類的一些初始化操作,又有對FSDirectory對象本身的一些操作,這是為什么把其構造函數設置為私有的一部分原因

    static final Hashtable DIRECTORIES = new Hashtable();
    每新建一個FSDirectory都會將其加入到該Hashtable中來。名稱是FSDirectory對應的File   值是該FSDirectory。
    注意:final對象并非是不可更改的

    static final String LOCK_DIR =
        System.getProperty("org.apache.lucene.lockdir",
          System.getProperty("java.io.tmpdir"));
    首先看用戶是否注冊了"org.apache.lucene.lockdir"屬性,如果沒有則用JAVA虛擬機固有的"java.io.tmpdir"屬性
    這個屬性是一個路徑,代表lucene的鎖文件鎖放的位置。

    static final boolean DISABLE_LOCKS =
          Boolean.getBoolean("disableLuceneLocks") || Constants.JAVA_1_1;
    如果用戶注冊了"disableLuceneLocks"屬性且為false,或者JAVA的版本是1.1則無法使用鎖。

    static FSDirectory getDirectory(String path, boolean create)
    static FSDirectory getDirectory(File file, boolean create)
    從得到一個指定路徑或者文件的FSDirectory如果在則取出,如果不存在則用其私有的構造函數構造一個
    該類還有3個非static的類變量
      private File directory = null;      索引目錄
      private int refCount;                   鎖目錄
      private File lockDir;                    索引目錄數目
    實際上,初始化一個FSDirectory只需要初始化這3個變量即可
    如果create的值為true 則:如果索引目錄是已經存在的目錄,則會遍歷該目錄然后刪除每一個文件,如果鎖目錄是已存在的也會用list返回所有的文件然后調用file.delete() 刪除。 如果目錄不存在則創建一個新的。

    注意:list()方法   會先用文件名進行排序然后返回(a.txt會比b.txt先返回)    且delete方法刪除文件夾時,只能刪除空文件夾。如果失敗則跳出程序,不會刪除在該文件夾之后返回的文件。(如果有aa.txt , ab/b.txt , b.txt , 則刪除時候由于a文件夾非空刪除失敗,則b.txt由于前面刪除失敗跳出程序,也不會被刪除,但是aa.txt被正常刪除)

    private FSDirectory(File path, boolean create) throws IOException
    私有的構造函數

    private synchronized void create() throws IOException
    創建新的directory /lockDir目錄,當目錄已存在時即清空該目錄,不存在即創建新的目錄。

    final String[] list() throws IOException
    以字符串文件名的形式返回索引目錄的所有文件

    final boolean fileExists(String name) throws IOException
    在索引目錄是否存在指定文件名的文件

    final long fileModified(String name) throws IOException
    static final long fileModified(File directory, String name)
    返回該文件的最后修改時間,directory參數為相對路徑,第一個函數的相對路徑為索引目錄

    void touchFile(String name) throws IOException
    將該文件的最后修改時間設置為當前時間

    final long fileLength(String name) throws IOException
    返回該文件的長度

    final void deleteFile(String name) throws IOException
    刪除該文件

    final synchronized void renameFile(String from, String to) throws IOException
    重命名該文件
    該方法會首先檢測新的文件名命名的文件是否已經存在如果存在即刪除該文件,然后再將文件重新命名為新的文件名。
    doug cutting在該方法的注釋上寫到:
    1.刪除操作和重命名的操作不是原子的。
    2.重命名操作在有些虛擬機上面不能正確的工作,如果重命名失敗則會采用手動copy的方法。使用輸入輸出流將舊的文件的內容寫入到新的文件中去,然后刪除舊的文件。
    注意:該方法必須是同步的。

    final OutputStream createFile(String name) throws IOException
    用指定的文件名創建一個新的可寫的空文件  實際上返回的是FSOutputStream,注意這里的OutputStream并不是java的基礎類。而是doug cutting自己寫的一個文件隨即訪問類。同理FSInputStream和InputStream也是Lucene自己的類。

    final InputStream openFile(String name) throws IOException
    從一個存在的文件打開一個輸入流

    getLockPrefix()
    在FSDirectory中還有
     private static MessageDigest DIGESTER;這個靜態變量是提供加密功能的
    DIGESTER=MessageDigest.getInstance("MD5"),-----MD5加密算法
    或者可以DIGESTER=MessageDigest.getInstance("SHA"),-----SHA加密算法
    用于對鎖目錄的   文件名的加密
    用法如下:
    digest = DIGESTER.digest(dirName.getBytes());  dirName是需要被加密的字符串,這里是索引文件的目錄名,
    在FSContext中,其應用在 getLockPrefix() 該方法是為某個索引目錄創建其對應的鎖目錄文件名。
    首先返回經過加密后的byte[] 數組digest,然后將digest按照每4個bit轉化為一個16進制的字符,存進一個StringBuffer中
    其轉化類似與Base64編碼方式,不過要簡單得多。

    方法
    Lockl  makeLock(String name)
    是從Directory中擴展而來的,該方法返回一個Lock對象,該對象將會在介紹完Lucene的輸入輸出流之后介紹。
    該方法比較簡單,首先是調用了getLockPrefix() 方法,返回文件鎖的部分對象名,然后在該名稱后面加上鎖的特征名
    譬如說讀寫鎖 事務鎖
    其名稱類似于下:
    lucene-12c90c2c381bc7acbc4846b4ce97593b-write.lock
    lucene-12c90c2c381bc7acbc4846b4ce97593b-commit.lock
    這兩種鎖機制將會在后面介紹
    最后通過一個匿名的內部類返回一個經過重載的Lock對象,該內部類中的方法有鎖的創建,得到,釋放,以及檢測,另外還有一個toString()方法返回鎖的名稱。



    在FSDirectory類中有OutputStream和InputStream的實現類,這兩個虛類只是定義了一些操作,并沒有定義輸入或者輸出的設備。
    Lucene在輸入輸出的設計上,將會由子類定義輸入輸出的設備。
    FSOutputStream
    在FSOutputStream中有一個 RandomAccess File=new RandomAccessFile(path, "rw");
    在對該輸出流的操作將用調用該file的相應方法實現
    最重要的
      public final void flushBuffer(byte[] b, int size) throws IOException {
        file.write(b, 0, size);
      }
    flushBuffer的調用將會將byte中的0--size范圍的數據寫入到文件path中去。


    FSInputStream
    最重要的
    protected final void readInternal(byte[] b, int offset, int len)
           throws IOException {
        synchronized (file) {
          long position = getFilePointer();     //得到該當前文件指針
          if (position != file.position) {
            file.seek(position);
            file.position = position;
          }
          int total = 0;
          do {

       //從文件中讀取指定長度的字節到字節數組
       // 在其基類InputStream中的refill()方法  將會調用  readInternal(buffer, 0, bufferLength);首先從文件中讀取字節到緩沖數組。
      //  在InputStream中每次讀取操作都會調用readInternal方法,或者通過refill()方法間接調用該方法。
            int i = file.read(b, offset+total, len-total);       //將文件中的數據讀到緩沖區
            if (i == -1)
              throw new IOException("read past EOF");
            file.position += i;
            total += i;
          } while (total < len);
        }
      }





















    posted @ 2008-04-10 21:35 曉宇 閱讀(1097) | 評論 (0)編輯 收藏

    org.apache.lucene.document.DateField

    該類提供了日期和字符串之間的相互轉化,實際上是 long型和String型的相互轉化,轉化時用到了一個不常用的
    Long.toString(long,int);方法。是按指定的方式對long型進行轉化
    第一個參數是要轉化的long,第二個參數是轉化時候的基數,如果基數是10就相當于方法Long.toString(long);
    這里使用的參數是最大值,即36== 10個數字+26個英文字母。這樣轉化出來的字符串長度比較短,占用比較少的空間,
    另外,在轉化時,統一了轉化后的字符串長度,如果不足9位(日期的long轉化后最高為9位,1970之后的日期可正確轉換),
    統一長度后的字符串可以通過比較字符串來比較日期的大小。


    日期轉化成的字符串類似于
    0fev8eza3
    本來應該是fev8eza3 采取了不足9位補0的方法。

      private static int DATE_LEN = Long.toString(1000L*365*24*60*60*1000,
                Character.MAX_RADIX).length();
    計算出從1970年開始后1000年的時間轉化為字符串后的長度,所有轉化后的時間都不應超過這個長度,如果不足則在前面補0

    可以通過字符串轉化為日期的函數計算出能表示的最大日期為
    stringToTime("zzzzzzzzz");
    打印出來是 Fri Apr 22 19:04:28 CST 5188  
    所以該函數能轉化的日期范圍為 1970-1-1~~5188-4-22


    日期轉化為字符串
    public static String timeToString(long time)

    字符串轉化為日期
    public static long stringToTime(String s)


    實際上 函數 LongToString(long i,int radix) 相當于  先將i轉化為radix進制的整數,然后再用函數
    LongToString(i)轉化為字符串。所以radix的值應該在2--36之間如果不是 則按照10進制計算。

    posted @ 2008-04-10 19:26 曉宇 閱讀(341) | 評論 (0)編輯 收藏

    org.apache.lucene.document.Document

    Document是一些Field的集合,每個Field有一個名字和文本值,當中的某些Field可能會隨著Documnet被存儲。這樣,每個Document應該至少包含一個可以唯一標示它的被存儲的Field

    //Field集合
    List fields = new Vector();
    //增強因子,作用于該Document的所有Field
    private float boost = 1.0f;
    //向Document中添加Field
    public final void add(Field field) {
        fields.add(field);
      }
    //刪除指定名稱的第一個Field
    public final void removeField(String name)
    //刪除所有擁有指定名稱的Field
    public final void removeFields(String name)
    //得到指定名稱的第一個Field
    public final Field getField(String name)
    //以數組的形式返回指定名稱的所有Field
    public final Field[] getFields(String name)
    //得到所有Field的一個枚舉
    public final Enumeration fields()

    該類也重載了toString()方法
    打印出所有Field的信息




    posted @ 2008-04-08 20:27 曉宇 閱讀(734) | 評論 (0)編輯 收藏

    org.apache.lucene.document.Field類

    package org.apache.lucene.document;   
    Field
    是Document的一部分,每個Field有兩個部分組成 名字-值 對 名字是String 值 可以是String 和 Reader,如果是KeyWord類型的Field,那么值將不會被進一步處理,像URL,Date等等。Field被存儲在Index中,以便于能以Hits的形式返回原有的Document
    Field有3 個Boolean形的標識
      private boolean isStored = false;     被存儲  
      private boolean isIndexed = true;    被索引
      private boolean isTokenized = true  被分割
    通過調整這3個boolean的值,可以確定該Field的類型
      Keyword      true, true, false           一般存儲 URL DATE 等關鍵字
      UnIndexed    true, false, false          一般是隨HITS查詢結果一起返回的信息
      Text              true, true, true           
      UnStored      false, true, true

    另外,還有一個重載的toString方法 可以打印出該Field的類型

    float boost = 1.0f;    增強因子,用于排序的評分,作用于擁有該域(field)的所有文檔(document)

      
     

    posted @ 2008-04-08 20:07 曉宇 閱讀(936) | 評論 (0)編輯 收藏

    數據庫的事務 JDBC

    TRANSACTION_NONE:
      正式地講,TRANSACTION_NONE不是一個有效的事務級別。
      根據java.sql Connection API文件,這個級別表示事務是
      不被支持的,因此理論上說你不能使用TRANSACTION_NONE作
      為一個自變量賦給Connection.setTransactionIsolation()
      方法。事實上,雖然一些數據庫實施了這個事務級別,但是
      Oracle9i卻沒有實施。


     臟讀取(TRANSACTION_READ_UNCOMMITTE):
    (允許的操作       讀-讀  讀-寫 寫-讀     (臟數據,不可重復讀,虛讀) )
       表示,這個事務級別
      允許讀取臟數據,什么是臟數據?就是指還沒有提交的數據.
      因為這個級別,是允許一個事務(A)讀取另一個事務(B)
      還沒有提交的數據.一旦事務B發生異常退出.而修改了的數據
      卻還沒提交,或者新插入的數據和刪除了的數據都還沒有
      提交,導致事務A拿到了一些臟數據,或者錯誤數據;
      因此在這個事務級別里是會發生臟讀,重復讀,錯誤讀取;

     禁止臟讀(TRANSACTION_READ_COMMITTED):
    (允許的操作       讀-讀  讀-寫 (不可重復讀,虛讀))
      在這個級別中,事務A
      只能讀取一些提交的數據,如事務B添加了一條記錄,但是
      如果事務B沒有提交,那么事務A是讀不到的,所以該事務級別,
      把臟讀給屏蔽掉了.---卻允許重復讀取,和錯誤讀取.

      什么是重復讀取呢?譬如,事務A讀取了一個數據,這個數據
      的值為"helloworld",事務A準備利用這個數據來更新一下
      其他數據,但這個時候事務B開始對這個數據進行修改,并且
      提交---"hello 無名氏",由于是已經提交了,所以事務A是可以
      看到這個數據的,當事務A在沒提交事務之前,它想看下數據
      是否正確,這個時候它發現,新讀出的數據已經和原來的數據
      不一樣了(這就是重復讀取);




     允許重復讀取(TRANSACTION_REPEATABLE_READ):
    (允許的操作       讀-讀  讀-寫(僅允許插入,不允許刪除和修改)(虛讀))
      在這個級別中,
      是禁止了臟讀,和取消了不可重復讀取,但是沒有禁止錯誤讀取;
      這個級別的事務比較嚴格,當一個事務A在讀取一個值的時候
      是不允許另一個事務對該值進行修改的;
      為了允許重復讀取,可以選用該級別,因為TRANSACTION_READ_
      COMMITED這個事務級別,是允許重復讀取提交的數據的,如果
      事務A在讀取一個數值的時候,值為"Hello World!",但這個時
      候事務B對"Hello World"值進行修改了,改為"Hello EveryOne"
      然后提交,當事務A再次去讀取這個值的時候,去發現原來讀到
      的值改變了,變成了"Hello EveryOne",為了防止出現這種情況
      可以禁止重復提交,目的是為了重復讀取不會出錯!那么這個
      時候就可以選擇
    TRANSACTION_REPEATABLE_READ這個級別,
      這個級別就是用來禁止重復提交的.
    (實際上是加了行鎖,鎖定了選中的數據,不允許修改,但是允許插入新的數據)
      雖然這個時候是禁止了重復提交,但卻可以添加刪除,
      比如事務A,作了個查詢語句"select * from 無名氏 "; 這個時候是允許事務B做這樣的操作的:
      "insert into 無名氏 values(2,'aaa')"; 這個時候,
      事務A再次做讀取操作的時候,卻發現數據莫名其妙的
      多了一條,這就是所謂的---幻影讀取;




     禁止幻讀(TRANSACTION_SERIALIZABLE):
     事務的最高級別(串行化  操作)事務級別最高,所耗費的性能也越多.
      禁止幻讀禁止了臟讀,禁止了重復提交和幻讀.
      也就是當事務A在按條件查詢的時候,事務A一旦沒有提
      交,任何事務都不能對事務A的資源進行操作--- 保證
      事務A的操作真正的原子性!


     注意:在Oracle中只支持兩種級別:

      TRANSACTION_READ_COMMITTED(默認的級別)(只有提交后
         才可以讀取)而每一個終端進行自己的DML操作 都自動開啟了一個事務

      TRANSACTION_SERIALIZABLE(竄行化操作)

    posted @ 2008-03-05 09:34 曉宇 閱讀(323) | 評論 (0)編輯 收藏

    字符串池

    Java運行環境有一個字符串池,由String類維護。執行語句String str="abc"時,首先查看字符串池中是否存在字符串"abc",如果存在則直接將"abc"賦給str,如果不存在則先在字符串池中新建一個字符串"abc",然后再將其賦給str。執行語句String str=new String("abc")時,不管字符串池中是否存在字符串"abc",直接新建一個字符串"abc"(注意:新建的字符串"abc"不是在字符串池中),然后將其付給str。前一語句的效率高,后一語句的效率低,因為新建字符串占用內存空間。String str = new String()創建了一個空字符串,與String str=new String("")相同。

    public String intern()
    返回字符串對象的規范化表示形式。

    一個初始為空的字符串池,它由類 String 私有地維護。

    當調用 intern 方法時,如果池已經包含一個等于此 String 對象的字符串(用 equals(Object) 方法確定),則返回池中的字符串。否則,將此 String 對象添加到池中,并返回此 String 對象的引用。

    它遵循以下規則:對于任意兩個字符串 st,當且僅當 s.equals(t)true 時,s.intern() == t.intern() 才為 true

      String.intern();
    再補充介紹一點:存在于.class文件中的常量池,在運行期間被jvm裝載,并且可以擴充。String的intern()方法就是擴充常量池的一個方法;當一個String實例str調用intern()方法時,java查找常量池中是否有相同unicode的字符串常量,如果有,則返回其引用,如果沒有,則在常量池中增加一個unicode等于str的字符串并返回它的引用。
    例3:
    String   s0=”kvill”;
    String   s1=new   String(“kvill”);
    String   s2=new   String(“kvill”);
    System.out.println(s0==s1);
    S1.intern();
    S2=s2.intern();
    System.out.println(s0==s1);
    System.out.prntln(s0==s1.intern());
    System.out.println(s0==s2);
    結果為:
    False
    False   //雖然執行了s1.intern(),但它的返回值沒有賦給s1
    True
    True
    最后再破除一個錯誤的理解:
    有人說,“使用String.intern()方法可以將一個String類保存到一個全局的String表中,如果具有相同值的unicode字符串已經在這個表中,那么該方法返回表中已有字符串的地址,如果在表中沒有相同值的字符串,則將自己的地址注冊到表中”如果把這個全局的String表理解為常量吃的話,最后一句話“如果在表中沒有相同值的字符串,則將自己的地址注冊到表中”是錯的。
    例4:
    String   s1=new   String(“kvill”);
    String   s2=s1.intern();
    System.out.println(s1==s1.intern());
    System.out.println(s1+”   ”+s2);
    System.out.println(s2==s1.intern());
    結果是:
    False
    Kvill   kvill
    True
    我們沒有聲明一個”kvill”常量,所以常量池中一開始沒有”kvill”的,當我們調用s1.intern()后就在常量池中新添加了一個”kvill”常量,原來的不在常量池中的”kvill”仍然存在,也就不是“把自己的地址注冊到常量池中”了。
    例5:
    String   str1=”java”;
    String   str2=”blog”;
    String   s=str1+str2;
    System.out.println(s==”javablog”);
    結果是false。Jvm確實對型如String   str1=”java”;的String對象放在常量池里,但是它是在編譯時那么做的,而String   s=str1+str2;是在運行時刻才能知道,也就是說str1+str2是在堆里創建的,所以結果為false了。


    比較兩個已經存在于字符串池中字符串對象可以用"=="進行,擁有比equals操作符更快的速度

    posted @ 2008-03-04 09:40 曉宇 閱讀(843) | 評論 (0)編輯 收藏

    JAVA中的異常處理

    在JAVA中,如果某個方法不能夠按照正常的途徑完成它的任務,就可以通過另外一個途徑退出方法。在這種情況下,方法并不立刻返回,而是拋出一個封裝了錯誤信息的對象。需要注意的是,這個方法將會立刻退出,且并不返回正常情況下的值。此外,調用這個方法的代碼也將無法執行,取而代之的是,異常處理機制開始搜索能夠處理這種錯誤條件的異常處理器。

    如果在子類中覆蓋了超類的一個方法,那么子類方法聲明的已檢查異常不能超過超類方法中聲明的異常圍。(也就是說子類中拋出的異常范圍更小或者根本不拋出異常)。需要說明的是,如果超類方法沒有拋出任何異常,子類也不能拋出任何已檢查異常。例如,如果覆蓋JComponent.paintComponent()方法,那么    由于超類中沒有拋出任何異常,所以自定義的paintComponent()方法也不能拋出任何異常。

    如何拋出異常:
    譬如在讀一個輸入流時,如果期待的字節數為1024,而當讀到700字節的時候遇到一個EOF信號,這是我們未預期的,正是我們要拋出的異常,下面就是拋出改異常的語句

    1String readData() throws EOFException {
    2   while ({
    3      if(!in.hasNext()) {
    4          if(n<len)
    5            throw new EOFException();
    6     }
      
    7  }

    8}

    這是拋出已存在標準的異常,步驟為:
    1.找到一個合適的異常類
    2.創建該類的對象
    3.將異常拋出
    一旦拋出異常,該方法就不可能返回到調用者,這就意味著不必為返回的默認值或錯誤代碼擔憂了。

    在程序中可能會遇到任何標準異常都無法正確描述清楚的問題,這時候就需要定義自己的異常類,定義自己的異常類需要繼承自Exception 或者其子類,如繼承自IOException  一般要為自定義的Exception定義兩個構造函數,一個是默認的無參的構造函數,另一個是帶一個描述詳細錯誤信息String的構造函數(超類的toString()方法會打印出這些詳細信息。

    1public class MyException extends IOException {
    2
    3    MyException () {}
    4    
    5    MyException (String info) {
    6       super(info);
    7   }

    8}

    現在就可以像使用標準Exception類一樣使用自定義的Exception類了

    1String readData() throws MyException {
    2   while () {
    3      if(!in.hasNext()) {
    4          if(n<len)
    5            throw new MyException();
    6    }
      
    7 }

    8}

    可以用超類Throwable類的getMessage方法得到詳細的錯誤描述信息。或者toString()方法打印該信息。

    捕獲異常:
    如果語句exp1有可能拋出一個異常,或者說是調用了能夠拋出一個異常的方法,那么我們可以在程序中捕獲該異常

    1try {
    2 exp1;
    3 exp2;
    4 .
    5
    6}
     catch(Exception e) {
    7   e.
    8}

    9

    或者是并不捕獲,再次拋出該異常

    再次拋出異常,異常鏈:
    可以在catch塊中再次拋出新的異常,這樣可以隱藏原始的錯誤細節

    1catch(SQLException sqle) {
    2    throw new ServletException("caused by SQLException "+e.getMessage());
    3}

    另一種更好的方法
    既拋出高級的異常,又不會丟失原始的異常信息。

    1}catch(SQLException sqle) 
    2    Throwable ta=new ServletException("caused by SQLException");
    3    ta.setCause(e);
    4    throw ta;
    5}

    6當捕獲拋出的異常ta時,可以用ta.getCause(),得到原始的異常


    finally子句,發生三種情況時,會執行finally子句
    1.try代碼正常執行
    2.try代碼拋出一個在catch子句中捕獲的異常
    3.try代碼拋出一個未在catch子句中捕獲的異常
    就是說無論異常如何,finally子句中的代碼都會執行
    一般把一些資源回收的工作交給finally子句

    最好把try-catch塊和try-finally塊分開,這樣可以提高代碼的清晰度

     1try {
     2   try {
     3      //可能拋出IOException的語句
     4    }
     finally {
     5    is.close();
     6 }

     7}
     catch(IOExceotion e) {
     8   
     9}

    10

    這樣的另外一個好處是,可以catch到finally子句中拋出的異常。這也就引發了另外一個問題,如果在try和finally中都拋出了異常,而且是不同類型的,那么最后返回的是那一個呢?答案是finally中拋出的異常會覆蓋try中拋出的異常。從而丟失了try當中拋出的異常信息,讓拋出該方法的使用者不能跟蹤異常信息。所以,在finally中執行的語句最好是不要拋出異常,但是不幸的是我們有時候不得不在finally中執行一些清楚操作如:關閉輸入流InputStream,但是InputStream類的設計者并沒有這么設計(將會拋出異常)。

    由于finally子句總是會執行,所以在finally中包含return值時,是很危險的。假設我們利用return語句從try中返回,在方法返回之前finally子句的內容將會被執行。如果finally子句當中也包含一個return 語句,那么這個return語句所返回的值,將會覆蓋原先return的值。

    1public int f(int n) {
    2  try {
    3      return n*n;
    4    }
     finally {
    5     if(n==2)
    6       return 2;
    7  }

    8}

    在這里如果調用i=f(2);那么i的值將會是2而不是期望的2*2=4


    最后最重要的一點,關于一個方法是捕獲一個異常還是拋出給調用他的方法
    有一點規則   
                                    早拋出,晚捕獲,盡量把異常拋出給調用它的函數

    posted @ 2008-02-26 14:05 曉宇 閱讀(528) | 評論 (0)編輯 收藏

    主站蜘蛛池模板: 亚洲色图国产精品| 亚洲 欧洲 日韩 综合在线| 97在线视频免费| 亚洲GV天堂无码男同在线观看| 国产国产人免费视频成69大陆| 免费人成在线观看播放a| 亚洲伦另类中文字幕| 成年人网站在线免费观看| 黄色视频在线免费观看| 精品亚洲成在人线AV无码| 国产乱辈通伦影片在线播放亚洲| 最近免费中文字幕中文高清| 亚洲国产亚洲综合在线尤物| 亚洲av日韩av欧v在线天堂| 一级毛片成人免费看免费不卡| 亚洲AV无码一区二区三区牲色| 亚洲国产精品无码AAA片| 69成人免费视频无码专区| 和老外3p爽粗大免费视频| 一区二区亚洲精品精华液| 亚洲va国产va天堂va久久| 国产在线观看免费不卡| 四虎国产精品永久免费网址| 亚洲色偷偷色噜噜狠狠99网| 亚洲精品国产字幕久久不卡| 国产亚洲福利一区二区免费看| 9420免费高清在线视频| 国产成人亚洲精品91专区高清 | 亚洲av无码专区在线电影 | 国产成人综合亚洲一区| 亚洲AV无码乱码在线观看富二代| 国产在线观看免费不卡| 免费可以在线看A∨网站| 久久免费精品视频| 九九九国产精品成人免费视频| 亚洲人成电影网站| 亚洲国产女人aaa毛片在线| 亚洲精品亚洲人成在线观看下载| 妞干网免费视频观看| 野花香高清视频在线观看免费 | 亚洲精品无码专区在线播放|