<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    paulwong

    EhCache 緩存系統簡介

    EhCache 是一個純Java的進程內緩存框架,具有快速、精干等特點,是Hibernate中默認的CacheProvider。
    下圖是 EhCache 在應用程序中的位置:
    EhCache 的主要特性有:
    1. 快速.
    2. 簡單
    .
    3. 多種緩存策略

    4. 緩存數據有兩級:內存和磁盤,因此無需擔心容量問題
    5. 緩存數據會在虛擬機重啟的過程中寫入磁盤
    6. 可以通過RMI、可插入API等方式進行分布式緩存
    7. 具有緩存和緩存管理器的偵聽接口
    8. 支持多緩存管理器實例,以及一個實例的多個緩存區域
    9. 提供 Hibernate 的緩存實現
    10. 等等
    由于 EhCache 是進程中的緩存系統,一旦將應用部署在集群環境中,每一個節點維護各自的緩存數據,當某個節點對緩存數據進行更新,這些更新的數據無法在其他節點中共享,這不僅會降低節點運行的效率,而且會導致數據不同步的情況發生。例如某個網站采用A、B兩個節點作為集群部署,當A節點的緩存更新后,而 B 節點緩存尚未更新就可能出現用戶在瀏覽頁面的時候,一會是更新后的數據,一會是尚未更新的數據,盡管我們也可以通過 Session Sticky 技術來將用戶鎖定在某個節點上,但對于一些交互性比較強或者是非Web方式的系統來說,Session Sticky 顯然不太適合。所以就需要用到 EhCache 的集群解決方案。
    EhCache 從 1.7 版本開始,支持五種集群方案,分別是:
    1. Terracotta
    2. RMI
    3. JMS
    4. JGroups
    5. EhCache Server
    本文主要介紹其中的三種最為常用集群方式,分別是 RMI、JGroups 以及 EhCache Server 。
    RMI 集群模式
    RMI 是 Java 的一種遠程方法調用技術,是一種點對點的基于 Java 對象的通訊方式。EhCache 從 1.2 版本開始就支持 RMI 方式的緩存集群。在集群環境中 EhCache 所有緩存對象的鍵和值都必須是可序列化的,也就是必須實現 java.io.Serializable 接口,這點在其他集群方式下也是需要遵守的。
    下圖是 RMI 集群模式的結構圖:
    采用 RMI 集群模式時,集群中的每個節點都是對等關系,并不存在主節點或者從節點的概念,因此節點間必須有一個機制能夠互相認識對方,必須知道其他節點的信息,包括主機地址、端口號等。EhCache 提供兩種節點的發現方式:手工配置和自動發現。手工配置方式要求在每個節點中配置其他所有節點的連接信息,一旦集群中的節點發生變化時,需要對緩存進行重新配置。
    由于 RMI 是 Java 中內置支持的技術,因此使用 RMI 集群模式時,無需引入其他的 jar 包,EhCache 本身就帶有 支持 RMI 集群的功能。使用 RMI 集群模式需要在 ehcache.xml 配置文件中定義 cacheManagerPeerProviderFactory 節點。假設集群中有兩個節點,分別對應的 RMI 綁定信息是:

    節點1
    192.168.0.11
    4567
    /oschina_cache
    節點2
    192.168.0.12
    4567
    /oschina_cache
    節點3
    192.168.0.13
    4567
    /oschina_cache

    那么對應的手工配置信息如下:
    節點1配置:

    <cacheManagerPeerProviderFactory
    class="net.sf.ehcache.distribution.RMICacheManagerPeerProviderFactory"
    properties
    ="hostName=localhost,
    port=4567,
    socketTimeoutMillis=2000,
    peerDiscovery=manual,
    rmiUrls=//192.168.0.12:4567/oschina_cache|//192.168.0.13:4567/oschina_cache"

    />

    其他節點配置類似,只需把 rmiUrls 中的兩個IP地址換成另外兩個節點對應的 IP 地址即可。
    接下來在需要進行緩存數據復制的區域(Region)上配置如下即可:
     
    <cache name="sampleCache2"
    maxElementsInMemory
    ="10"
    eternal
    ="false"
    timeToIdleSeconds
    ="100"
    timeToLiveSeconds
    ="100"
    overflowToDisk
    ="false">
    <cacheEventListenerFactory
    class="net.sf.ehcache.distribution.RMICacheReplicatorFactory"
    properties
    ="replicateAsynchronously=true, replicatePuts=true, replicateUpdates=true,
    replicateUpdatesViaCopy=false, replicateRemovals=true "
    />
    </cache>

    具體每個參數代表的意義請參考 EhCache 的手冊,此處不再詳細說明。
    EhCache 的 RMI 集群模式還有另外一種節點發現方式,就是通過多播( multi_cast )來維護集群中的所有有效節點。這也是最為簡單而且靈活的方式,與手工模式不同的是,每個節點上的配置信息都相同,大大方便了節點的部署,避免人為的錯漏出現。
    在上述三個節點的例子中,配置如下:

     
    <cacheManagerPeerProviderFactory
    class="net.sf.ehcache.distribution.RMICacheManagerPeerProviderFactory"
    properties
    ="peerDiscovery=automatic, multi_castGroupAddress=230.0.0.1,
    multi_castGroupPort=4446, timeToLive=32"

    />


    其中需要指定節點發現模式 peerDiscovery 值為 automatic 自動;同時組播地址可以指定 D 類 IP 地址空間,范圍從 224.0.1.0 到 238.255.255.255 中的任何一個地址。
    JGroups 集群模式
    EhCache 從 1.5. 版本開始增加了 JGroups 的分布式集群模式。與 RMI 方式相比較, JGroups 提供了一個非常靈活的協議棧、可靠的單播和多播消息傳輸,主要的缺點是配置復雜以及一些協議棧對第三方包的依賴。
    JGroups 也提供了基于 TCP 的單播 ( Uni_cast ) 和基于 UDP 的多播 ( Multi_cast ) ,對應 RMI 的手工配置和自動發現。使用單播方式需要指定其他節點的主機地址和端口,下面是一個兩個節點,使用了單播方式的配置,TCP方式必須用文件的方式才行:

    <cacheManagerPeerProviderFactory
            
    class="net.sf.ehcache.distribution.jgroups.JGroupsCacheManagerPeerProviderFactory"
            properties
    ="file=jgroups_tcp.xml, syncMode=GET_ALL, syncTimeout=10000" />

    jgroups_tcp.xml
    <!--
        TCP based stack, with flow control and message bundling. This is usually used when IP
        multicasting cannot be used in a network, e.g. because it is disabled (routers discard multicast).
        Note that TCP.bind_addr and TCPPING.initial_hosts should be set, possibly via system properties, e.g.
        -Djgroups.bind_addr=192.168.5.2 and -Djgroups.tcpping.initial_hosts=192.168.5.2[7800]
        author: Bela Ban
        version: $Id: tcp.xml,v 1.40 2009/12/18 09:28:30 belaban Exp $
    -->
    <config xmlns="urn:org:jgroups"
            xmlns:xsi
    ="http://www.w3.org/2001/XMLSchema-instance"
            xsi:schemaLocation
    ="urn:org:jgroups http://www.jgroups.org/schema/JGroups-2.8.xsd">
        
    <TCP bind_port="7800"
             loopback
    ="true"
             recv_buf_size
    ="${tcp.recv_buf_size:20M}"
             send_buf_size
    ="${tcp.send_buf_size:640K}"
             discard_incompatible_packets
    ="true"
             max_bundle_size
    ="64K"
             max_bundle_timeout
    ="30"
             enable_bundling
    ="true"
             use_send_queues
    ="true"
             sock_conn_timeout
    ="300"
             timer.num_threads
    ="4"
             
             thread_pool.enabled
    ="true"
             thread_pool.min_threads
    ="1"
             thread_pool.max_threads
    ="10"
             thread_pool.keep_alive_time
    ="5000"
             thread_pool.queue_enabled
    ="false"
             thread_pool.queue_max_size
    ="100"
             thread_pool.rejection_policy
    ="discard"

             oob_thread_pool.enabled
    ="true"
             oob_thread_pool.min_threads
    ="1"
             oob_thread_pool.max_threads
    ="8"
             oob_thread_pool.keep_alive_time
    ="5000"
             oob_thread_pool.queue_enabled
    ="false"
             oob_thread_pool.queue_max_size
    ="100"
             oob_thread_pool.rejection_policy
    ="discard"/>
                             
        
    <TCPPING timeout="3000"
                 initial_hosts
    ="${jgroups.tcpping.initial_hosts:192.168.1.200[7800],192.168.1.200[7801]}"
                 port_range
    ="1"
                 num_initial_members
    ="3"/>
        
    <MERGE2  min_interval="10000"
                 max_interval
    ="30000"/>
        
    <FD_SOCK/>
        
    <FD timeout="3000" max_tries="3" />
        
    <VERIFY_SUSPECT timeout="1500"  />
        
    <BARRIER />
        
    <pbcast.NAKACK
                       use_mcast_xmit
    ="false" gc_lag="0"
                       retransmit_timeout
    ="300,600,1200,2400,4800"
                       discard_delivered_msgs
    ="true"/>
        
    <UNICAST timeout="300,600,1200" />
        
    <pbcast.STABLE stability_delay="1000" desired_avg_gossip="50000"
                       max_bytes
    ="400K"/>
        
    <pbcast.GMS print_local_addr="true" join_timeout="3000"

                    view_bundling
    ="true"/>
        
    <FC max_credits="2M"
            min_threshold
    ="0.10"/>
        
    <FRAG2 frag_size="60K"  />
        
    <pbcast.STREAMING_STATE_TRANSFER/>
        
    <!-- <pbcast.STATE_TRANSFER/> -->  
    </config>

    使用多播方式配置如下:

    <!--
      Default stack using IP multicasting. It is similar to the "udp"
      stack in stacks.xml, but doesn't use streaming state transfer and flushing
      author: Bela Ban
      version: $Id: udp.xml,v 1.40 2010/02/08 07:11:15 belaban Exp $
    -->

    <config xmlns="urn:org:jgroups"
            xmlns:xsi
    ="http://www.w3.org/2001/XMLSchema-instance"
            xsi:schemaLocation
    ="urn:org:jgroups http://www.jgroups.org/schema/JGroups-2.8.xsd">
        
    <UDP
             
    mcast_port="${jgroups.udp.mcast_port:45588}"
             tos
    ="8"
             ucast_recv_buf_size
    ="20M"
             ucast_send_buf_size
    ="640K"
             mcast_recv_buf_size
    ="25M"
             mcast_send_buf_size
    ="640K"
             loopback
    ="true"
             discard_incompatible_packets
    ="true"
             max_bundle_size
    ="64K"
             max_bundle_timeout
    ="30"
             ip_ttl
    ="${jgroups.udp.ip_ttl:2}"
             enable_bundling
    ="true"
             enable_diagnostics
    ="true"
             thread_naming_pattern
    ="cl"
             timer.num_threads
    ="4"

             thread_pool.enabled
    ="true"
             thread_pool.min_threads
    ="2"
             thread_pool.max_threads
    ="8"
             thread_pool.keep_alive_time
    ="5000"
             thread_pool.queue_enabled
    ="true"
             thread_pool.queue_max_size
    ="10000"
             thread_pool.rejection_policy
    ="discard"

             oob_thread_pool.enabled
    ="true"
             oob_thread_pool.min_threads
    ="1"
             oob_thread_pool.max_threads
    ="8"
             oob_thread_pool.keep_alive_time
    ="5000"
             oob_thread_pool.queue_enabled
    ="false"
             oob_thread_pool.queue_max_size
    ="100"
             oob_thread_pool.rejection_policy
    ="Run"/>

        
    <PING timeout="2000"
                num_initial_members
    ="3"/>
        
    <MERGE2 max_interval="30000"
                min_interval
    ="10000"/>
        
    <FD_SOCK/>
        
    <FD_ALL/>
        
    <VERIFY_SUSPECT timeout="1500"  />
        
    <BARRIER />
        
    <pbcast.NAKACK use_stats_for_retransmission="false"
                       exponential_backoff
    ="0"
                       use_mcast_xmit
    ="true" gc_lag="0"
                       retransmit_timeout
    ="300,600,1200"
                       discard_delivered_msgs
    ="true"/>
        
    <UNICAST timeout="300,600,1200"/>
        
    <pbcast.STABLE stability_delay="1000" desired_avg_gossip="50000"
                       max_bytes
    ="1M"/>
        
    <pbcast.GMS print_local_addr="true" join_timeout="3000"

                    view_bundling
    ="true"/>
        
    <FC max_credits="500K"
                        min_threshold
    ="0.20"/>
        
    <FRAG2 frag_size="60K"  />
        
    <!--pbcast.STREAMING_STATE_TRANSFER /-->
        
    <pbcast.STATE_TRANSFER  />
        
    <!-- pbcast.FLUSH  /-->
    </config>

    從上面的配置來看,JGroups 的配置要比 RMI 復雜得多,但也提供更多的微調參數,有助于提升緩存數據復制的性能。詳細的 JGroups 配置參數的具體意義可參考 JGroups 的配置手冊。
    JGroups 方式對應緩存節點的配置信息如下:

     
    <cache name="mycache"
    maxElementsInMemory
    ="10000"
    eternal
    ="false"
    timeToIdleSeconds
    ="600"
    overflowToDisk
    ="false">
    <cacheEventListenerFactory
    class="net.sf.ehcache.distribution.jgroups.JGroupsCacheReplicatorFactory"
    properties
    ="replicateAsynchronously=true, replicatePuts=true,
    replicateUpdates=true, replicateUpdatesViaCopy=false, replicateRemovals=true"
    />
    <bootstrapCacheLoaderFactory class="net.sf.ehcache.distribution.jgroups.JGroupsBootstrapCacheLoaderFactory" />
    </cache>


    使用組播方式的注意事項
    使用 JGroups 需要引入 JGroups 的 jar 包以及 EhCache 對 JGroups 的封裝包 ehcache-jgroupsreplication-xxx.jar 。
    在一些啟用了 IPv6 的電腦中,經常啟動的時候報如下錯誤信息:
    java.lang.RuntimeException: the type of the stack (IPv6) and the user supplied addresses (IPv4) don't match: /231.12.21.132.
    解決的辦法是增加 JVM 參數:-Djava.net.preferIPv4Stack=true 。如果是 Tomcat 服務器,可在 catalina.bat 或者 catalina.sh 中增加如下環境變量即可:
    SET CATALINA_OPTS=-Djava.net.preferIPv4Stack=true
    經過實際測試發現,集群方式下的緩存數據都可以在1秒鐘之內完成到其他節點的復制。
    EhCache Server
    與前面介紹的兩種集群方案不同的是, EhCache Server 是一個獨立的緩存服務器,其內部使用 EhCache 做為緩存系統,可利用前面提到的兩種方式進行內部集群。對外提供編程語言無關的基于 HTTP 的 RESTful 或者是 SOAP 的數據緩存操作接口。
    項目是 EhCache Server 提供的對緩存數據進行操作的方法:
    OPTIONS /{cache}}
    獲取某個緩存的可用操作的信息
    HEAD /{cache}/{element}
    獲取緩存中某個元素的 HTTP 頭信息,例如:
     
    curl --head http://localhost:8080/ehcache/rest/sampleCache2/2
    EhCache Server 返回的信息如下:
    HTTP/1.1 200 OK
    X-Powered-By: Servlet/2.5
    Server: GlassFish/v3
    Last-Modified: Sun, 27 Jul 2008 08:08:49 GMT
    ETag: "1217146129490"
    Content-Type: text/plain;_charset=iso-8859-1
    Content-Length: 157
    Date: Sun, 27 Jul 2008 08:17:09 GMT

    GET /{cache}/{element}
    讀取緩存中某個數據的值
    PUT /{cache}/{element}
    寫緩存
    由于這些操作都是基于 HTTP 協議的,因此你可以在任何一種編程語言中使用它,例如 Perl、PHP 和 Ruby 等等。
    下圖是 EhCache Server 在應用中的架構:
    EhCache Server 同時也提供強大的安全機制、監控功能。在數據存儲方面,最大的Ehcache單實例在內存中可以緩存20GB。最大的磁盤可以緩存100GB。通過將節點整合在一起,這樣緩存數據就可以跨越節點,以此獲得更大的容量。將緩存20GB的50個節點整合在一起就是1TB了。
    總結
    以上我們介紹了三種 EhCache 的集群方案,除了第三種跨編程語言的方案外,EhCache 的集群對應用程序的代碼編寫都是透明的,程序人員無需考慮緩存數據是如何復制到其他節點上。既保持了代碼的輕量級,同時又支持龐大的數據集群。EhCache 可謂是深入人心。

    2009 年年中,Terracotta 宣布收購 EhCache 產品。Terracotta 公司的產品 Terracotta 是一個JVM級的開源群集框架,提供 HTTP Session 復制,分布式緩存,POJO 群集,跨越群集的JVM來實現分布式應用程序協調。最近 EhCache 主要改進都集中在跟 Terracotta 框架的集成上,這是一個真正意義上的企業級緩存解決方案。

    posted on 2012-01-24 20:32 paulwong 閱讀(1440) 評論(0)  編輯  收藏 所屬分類: 緩存

    主站蜘蛛池模板: 亚洲视屏在线观看| 美国免费高清一级毛片| 亚洲福利在线播放| 无码人妻精品中文字幕免费东京热| 国产亚洲精品美女久久久久| 亚洲综合区图片小说区| 亚洲情XO亚洲色XO无码| 免费在线观看黄网| 午夜色a大片在线观看免费| 久久免费的精品国产V∧| a级毛片免费观看在线| 国产综合激情在线亚洲第一页| 亚洲人和日本人jizz| 久久精品国产亚洲av水果派| 亚洲中文字幕在线观看| 亚洲成?Ⅴ人在线观看无码| 成人黄页网站免费观看大全| 亚洲国产精品免费观看| 色播精品免费小视频| 久久精品视频免费播放| 18禁在线无遮挡免费观看网站| 国产精品免费αv视频| 成人午夜免费视频| 国产亚洲福利精品一区二区| 亚洲第一综合天堂另类专 | 一级毛片在线免费播放| 色视频在线观看免费| 看成年女人免费午夜视频| 久久亚洲中文无码咪咪爱| 亚洲av无码专区国产不乱码 | 91精品成人免费国产片| 99精品视频在线视频免费观看 | 亚洲高清日韩精品第一区| 久久亚洲精品国产精品| 亚洲欧洲精品一区二区三区| 亚洲成aⅴ人片在线观| 亚洲六月丁香六月婷婷色伊人| 亚洲人xxx日本人18| 亚洲欧洲国产综合AV无码久久| 亚洲AV无码一区二区三区网址| 亚洲av色香蕉一区二区三区 |