<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    放翁(文初)的一畝三分地

      BlogJava :: 首頁 :: 新隨筆 :: 聯(lián)系 :: 聚合  :: 管理 ::
      210 隨筆 :: 1 文章 :: 320 評論 :: 0 Trackbacks

    2009年4月28日 #

         摘要: Beatles小記(三)-分布式數(shù)據(jù)流分析中Master的橫向擴(kuò)展  閱讀全文
    posted @ 2012-01-17 13:21 岑文初 閱讀(5248) | 評論 (2)編輯 收藏

         摘要: Beatles小記-分布式數(shù)據(jù)流分析框架(二),局部代碼設(shè)計和實現(xiàn)分享  閱讀全文
    posted @ 2011-12-09 16:44 岑文初 閱讀(4804) | 評論 (4)編輯 收藏

         摘要: 分布式流式數(shù)據(jù)分析設(shè)計和代碼分析  閱讀全文
    posted @ 2011-12-07 16:46 岑文初 閱讀(9659) | 評論 (7)編輯 收藏

         摘要: java優(yōu)化設(shè)計實現(xiàn)細(xì)節(jié)分享  閱讀全文
    posted @ 2011-09-23 14:03 岑文初 閱讀(5104) | 評論 (1)編輯 收藏

         摘要: 兩個開放平臺內(nèi)部組件開放   閱讀全文
    posted @ 2011-07-12 11:54 岑文初 閱讀(3768) | 評論 (2)編輯 收藏

         摘要: 討論一下并發(fā)消息下行的設(shè)計方案和實現(xiàn)  閱讀全文
    posted @ 2011-06-23 12:16 岑文初 閱讀(4547) | 評論 (0)編輯 收藏

         摘要: Jetty內(nèi)部透明簡單實現(xiàn)  閱讀全文
    posted @ 2011-06-22 17:03 岑文初 閱讀(4006) | 評論 (0)編輯 收藏

         摘要: 慢連接&LazyParser  閱讀全文
    posted @ 2011-06-20 23:47 岑文初 閱讀(5343) | 評論 (0)編輯 收藏

         摘要: PipeComet測試  閱讀全文
    posted @ 2011-06-08 23:58 岑文初 閱讀(6936) | 評論 (0)編輯 收藏

         摘要: 一段代碼,幾句話  閱讀全文
    posted @ 2011-04-13 23:11 岑文初 閱讀(4588) | 評論 (1)編輯 收藏

         摘要: 開放平臺的技術(shù)問題  閱讀全文
    posted @ 2011-03-31 00:43 岑文初 閱讀(4821) | 評論 (4)編輯 收藏

         摘要: Web容器測試模型選擇  閱讀全文
    posted @ 2011-03-31 00:40 岑文初 閱讀(3378) | 評論 (0)編輯 收藏

         摘要: 十年  閱讀全文
    posted @ 2011-03-08 23:46 岑文初 閱讀(2917) | 評論 (6)編輯 收藏

         摘要: 模擬登錄看前端門外漢學(xué)習(xí)  閱讀全文
    posted @ 2011-03-03 23:26 岑文初 閱讀(5537) | 評論 (10)編輯 收藏

         摘要: 邏輯劃分線程池  閱讀全文
    posted @ 2011-03-01 00:32 岑文初 閱讀(5162) | 評論 (4)編輯 收藏

         摘要: OAuth2的一些改變  閱讀全文
    posted @ 2011-02-28 23:01 岑文初 閱讀(3409) | 評論 (0)編輯 收藏

         摘要: “淘寶的”開放平臺  閱讀全文
    posted @ 2011-02-23 23:39 岑文初 閱讀(5080) | 評論 (4)編輯 收藏

         摘要: 交流分享  閱讀全文
    posted @ 2011-02-20 23:58 岑文初 閱讀(4966) | 評論 (7)編輯 收藏

         摘要: ask & answer  閱讀全文
    posted @ 2011-01-12 23:22 岑文初 閱讀(3866) | 評論 (0)編輯 收藏

         摘要: 耗內(nèi)存應(yīng)用優(yōu)化實際案例  閱讀全文
    posted @ 2010-12-22 23:40 岑文初 閱讀(4303) | 評論 (0)編輯 收藏

         摘要: Local Cache的小TIP   閱讀全文
    posted @ 2010-12-14 22:34 岑文初 閱讀(3414) | 評論 (4)編輯 收藏

         摘要: SD開放平臺技術(shù)分享  閱讀全文
    posted @ 2010-12-13 20:35 岑文初 閱讀(3199) | 評論 (2)編輯 收藏

         摘要: Facebook優(yōu)化分享后記  閱讀全文
    posted @ 2010-12-12 19:43 岑文初 閱讀(3444) | 評論 (4)編輯 收藏

         摘要: 這篇文章將會從問題,技術(shù)背景,設(shè)計實現(xiàn),代碼范例這些角度去談基于管道化和事件驅(qū)動模型的Web請求處理。建議從頭看,能夠從概念上更多的去理解和碰撞,其中的一些描述和例子也許不是很恰當(dāng),也希望得到更多的反饋。  閱讀全文
    posted @ 2010-11-25 14:44 岑文初 閱讀(4113) | 評論 (7)編輯 收藏

         摘要: 這篇文章將會從問題,技術(shù)背景,設(shè)計實現(xiàn),代碼范例這些角度去談基于管道化和事件驅(qū)動模型的Web請求處理。建議從頭看,能夠從概念上更多的去理解和碰撞,其中的一些描述和例子也許不是很恰當(dāng),也希望得到更多的反饋。  閱讀全文
    posted @ 2010-11-24 01:26 岑文初 閱讀(3368) | 評論 (4)編輯 收藏

         摘要: 圖片是大綱,先拋出來,后續(xù)會有更詳細(xì)的文章分享  閱讀全文
    posted @ 2010-11-17 01:00 岑文初 閱讀(2646) | 評論 (2)編輯 收藏

         摘要: 如果關(guān)注開放平臺或者關(guān)注平臺的一些內(nèi)容,這篇文章應(yīng)該有點內(nèi)容可看  閱讀全文
    posted @ 2010-10-11 23:42 岑文初 閱讀(2920) | 評論 (1)編輯 收藏

         摘要: 美國JavaOne之行內(nèi)容,需要看直播請關(guān)注微博  閱讀全文
    posted @ 2010-09-22 15:55 岑文初 閱讀(1672) | 評論 (1)編輯 收藏

         摘要: 代碼背后的點滴,通過一些設(shè)計理念來分享技術(shù)的積累  閱讀全文
    posted @ 2010-09-09 02:05 岑文初 閱讀(4293) | 評論 (8)編輯 收藏

         摘要: 面試有感  閱讀全文
    posted @ 2010-09-02 11:31 岑文初 閱讀(2402) | 評論 (4)編輯 收藏

         摘要: 對同學(xué)性能優(yōu)化總結(jié)的一點回復(fù)  閱讀全文
    posted @ 2010-08-23 16:58 岑文初 閱讀(2288) | 評論 (0)編輯 收藏

         摘要: ppt分享  閱讀全文
    posted @ 2010-08-10 07:48 岑文初 閱讀(3634) | 評論 (2)編輯 收藏

         摘要: 在概念篇介紹完以后,開始實際的對TOP開始做技術(shù)改造。(這篇東西更像是對短期工作的總結(jié)和匯報,寫的不是很詳實,后續(xù)會有一個ppt來深化異步化的一些思想)下面將第一階段的工作做個總結(jié),第一階段主要做了以下幾個方面的事情  閱讀全文
    posted @ 2010-08-06 00:38 岑文初 閱讀(4216) | 評論 (0)編輯 收藏

         摘要: 淘寶一年陳  閱讀全文
    posted @ 2010-07-24 00:34 岑文初 閱讀(2848) | 評論 (7)編輯 收藏

         摘要: Web服務(wù)的重放攻擊的一點想法  閱讀全文
    posted @ 2010-07-07 00:40 岑文初 閱讀(3186) | 評論 (0)編輯 收藏

         摘要: Web服務(wù)請求異步化介紹  閱讀全文
    posted @ 2010-06-30 08:41 岑文初 閱讀(5232) | 評論 (4)編輯 收藏

         摘要: Web服務(wù)請求異步化測試  閱讀全文
    posted @ 2010-06-13 14:35 岑文初 閱讀(4428) | 評論 (9)編輯 收藏

         摘要: 訪問TOP鏈接超時和重置問題  閱讀全文
    posted @ 2010-06-09 13:34 岑文初 閱讀(1718) | 評論 (1)編輯 收藏

         摘要: 對TOP高并發(fā)的一點回答  閱讀全文
    posted @ 2010-06-07 21:22 岑文初 閱讀(1761) | 評論 (0)編輯 收藏

         摘要: TOP的價值所在  閱讀全文
    posted @ 2010-06-01 08:49 岑文初 閱讀(3535) | 評論 (5)編輯 收藏

         摘要: 開放平臺兩三點感悟(下)  閱讀全文
    posted @ 2010-06-01 02:53 岑文初 閱讀(3287) | 評論 (4)編輯 收藏

         摘要: 開放平臺兩三點感悟  閱讀全文
    posted @ 2010-05-28 02:29 岑文初 閱讀(4385) | 評論 (6)編輯 收藏

    http://t.sina.com.cn/fangweng

    posted @ 2010-05-24 21:54 岑文初 閱讀(1286) | 評論 (0)編輯 收藏

         摘要: ModJK與tomcat消息傳遞出現(xiàn)的串消息問題  閱讀全文
    posted @ 2010-05-11 20:00 岑文初 閱讀(2773) | 評論 (0)編輯 收藏

         摘要: 異步模式下的Web請求(技術(shù)介紹篇)  閱讀全文
    posted @ 2010-04-20 08:50 岑文初 閱讀(4240) | 評論 (1)編輯 收藏

         摘要: Q1技術(shù)點滴  閱讀全文
    posted @ 2010-04-02 02:26 岑文初 閱讀(3118) | 評論 (5)編輯 收藏

         摘要: 普通程序員的2009  閱讀全文
    posted @ 2010-01-29 01:34 岑文初 閱讀(2150) | 評論 (4)編輯 收藏

     

    優(yōu)化雜談

    Author :放翁

    Bloghttp://blog.csdn.net/cenwenchu79/

             當(dāng)應(yīng)用遇到規(guī)模化問題的時候,就是考慮性能優(yōu)化的時候了。今天同事和我聊起了NIO在客戶端的使用與BIO有什么優(yōu)勢,也勾起了我前一陣子和其他同學(xué)交流優(yōu)化的一些想法,純粹個人的一點想法。

    CPU利用率和Load

             在過去做壓力測試的時候,我們經(jīng)常會關(guān)注兩個指標(biāo),CPULoad。有同學(xué)覺得CPU利用率上去了Load肯定也上去了,Load上去了CPU利用率同樣會上去。但是在一些需要優(yōu)化的場景下,常常會看到Load很高,CPU利用率卻可能比較低(多核更是可能出現(xiàn)分配不均的情況)。Load其實就是等待處理的任務(wù)隊列,當(dāng)你的應(yīng)用在等待同步消息返回處理的同時,CPU還是會將時間切片分配給這些線程,而真正需要CPU的線程,卻不得不在到了時間片以后暫時放棄工作被掛起。因此在程序設(shè)計的時候就要考慮如何利用好CPU的這個資源,如何均勻的將壓力分?jǐn)偟礁鱾€CPU上(有時候就一個線程在不斷循環(huán),導(dǎo)致單個CPU負(fù)荷很高)。

    NIO在客戶端的使用

             Http消息設(shè)置keepalive和采用NIO的方式復(fù)用信道、BIO結(jié)合連接池的方式,最基本的目的就是降低建立TCP產(chǎn)生握手的成本,最大限度的復(fù)用已有的資源,但是否NIO就只有復(fù)用信道這點呢?

             NIOBIO在數(shù)據(jù)傳輸和處理的模式上有不同,NIO采用的是BufferPacket+Channel的模式,這其實和操作系統(tǒng)本身的傳輸模式很類似,而BIOStream的模式是Java自己獨特的模式。在采用NIO的這種數(shù)據(jù)傳輸模式以后,可以充分利用操作系統(tǒng)本身對傳輸?shù)膬?yōu)化,因此這是一方面好處。另一方面異步和事件機(jī)制的使用,可以降低對于昂貴的資源申請,在高并發(fā)下提高處理能力。

    NIO客戶端的編程模型最大特點:依賴反置,松耦合帶來性能提升。在請求流程協(xié)議中支持“票根”,也就是我們說的回執(zhí)。例如,你今天面試完了,不需要你在阿里巴巴前臺等著結(jié)果,直接留個電話,有消息就會直接通知,電話就是通知結(jié)果和服務(wù)請求者的關(guān)聯(lián)手段。(此時阿里巴巴前臺和會議室就會有足夠的空間給其他人來面試,這就是資源)

             服務(wù)端使用NIO就不多說了,這里主要說一下在客戶端的使用場景。兩者是否真的有很大的差別,是否NIO有絕對的優(yōu)勢,其實還是和場景有關(guān)。簡單說來就一個判斷標(biāo)準(zhǔn):應(yīng)用對于通道的利用率是否夠高。下面列了4種場景:

    1. 一次請求數(shù)據(jù)量很少,服務(wù)處理速度很快。

    2. 一次請求數(shù)據(jù)量很多,服務(wù)處理速度很快。

    3. 一次請求數(shù)據(jù)量很少,服務(wù)處理速度很慢。

    4. 一次請求數(shù)據(jù)量很多,服務(wù)處理速度很慢。

    場景1,傳輸效率很高,服務(wù)處理速度很快,一次請求很快就被完成,采用NIOBIO,在性能優(yōu)勢上除了操作系統(tǒng)對NIO的優(yōu)化以外,BIO連接池不輸于NIO。在易用性上,BIO更加容易處理。(NIO的異步機(jī)制,就要求消息傳輸協(xié)議需要有會話碼來提供異步處理入口選擇如何處理)

    場景2,傳輸過程比較長,消耗時間比較多,服務(wù)處理速度很快,因此交互的時間大部分都還是在數(shù)據(jù)通道傳輸上,由于NIO在傳輸過程中依然是串行化的,因此BIO的連接池優(yōu)于NIO,同時NIO一個客戶端只有一個通道,因此BIO開的連接池越大,并行處理能力越強,因此BIO效率比較好一些。

    場景3,傳輸量比較少,服務(wù)處理比較慢,很明顯這是通道利用率低的表現(xiàn),NIO有絕對的優(yōu)勢,特別是在高并發(fā)下。信道和服務(wù)端客戶端資源被充分利用。

    場景4,傳輸量比較多,服務(wù)處理也比較慢,這時候可以發(fā)現(xiàn)信道利用率取決于服務(wù)事件和傳輸消耗時間的比例,這類場景某些情況下BIO也會優(yōu)于NIO

    單線程和多線程

             在使用多線程來優(yōu)化程序的時候,是否考慮過多線程的使用場景,多線程不是萬能藥,在某些情況下還可能是毒藥。使用多線程的過程中,需要考慮這么幾個因素:

    1. 資源競爭,復(fù)雜度增加。

    為什么前面提到的NIO客戶端在處理數(shù)據(jù)流發(fā)送和讀取的時候都是采用單線程,數(shù)據(jù)流的發(fā)送和讀取都是在一個數(shù)據(jù)通道上的,而讀取和發(fā)送本身時間消耗是固定的(不論是多線程還是單線程),同時增加了復(fù)雜度(需要處理數(shù)據(jù)包整合問題)。這其實就是在資源上的串行化操作直接導(dǎo)致了任務(wù)的串行化,因此任務(wù)多線程反而起到了反作用。

    2. 是否是關(guān)鍵路徑的工作,占關(guān)鍵路徑的比例。

    首先,在優(yōu)化以前需要考慮優(yōu)化的內(nèi)容是否是關(guān)鍵路徑的工作,如果不是,那么增加復(fù)雜度實現(xiàn)的多線程模式,就沒有價值。其次就是看是否是在關(guān)鍵路徑中占有比較大的比例,同樣的,還是投入產(chǎn)出比例(多線程帶來的復(fù)雜度以及在高并發(fā)下的一些資源保護(hù)措施都需要很多的維護(hù)成本)。

    3. 任務(wù)的合理切分。

    NIO的客戶端,接受數(shù)據(jù)的事件將會寫得很輕量級,但是接受到數(shù)據(jù)然后分析數(shù)據(jù)還原成業(yè)務(wù)對象,則會通過線程池的方式來分別處理。就好比監(jiān)聽連接到來,和實際的去建立連接分成了兩個階段的任務(wù),讓事件型的任務(wù)單純,快速執(zhí)行,讓與業(yè)務(wù)相關(guān)的部分通過多線程并行的方式提高處理效率。總的來說就是把任務(wù)劃分成為系統(tǒng)性的任務(wù)和業(yè)務(wù)性的任務(wù),前者消耗時間少,設(shè)計盡量簡單高效,采用單線程處理即可,后者通常情況下在處理流程和資源上不沖突的情況可以通過多線程并行提高效率。

             優(yōu)化應(yīng)用關(guān)注點:

    A.關(guān)鍵路徑是否可以優(yōu)化,關(guān)鍵路徑的任務(wù)拆分。

    B.關(guān)鍵路徑上的單個任務(wù)是否可以拆分并行執(zhí)行。(是否有資源競爭,是否會有流程上的前后依賴,是否增加復(fù)雜度引入新的不穩(wěn)定因素)

    C.系統(tǒng)資源和依賴外部系統(tǒng)是否會成為瓶頸。(單機(jī)的CPU,IO都會在一定的壓力下成下降趨勢,并行執(zhí)行反而降低了處理能力)

    因此,可以看到不論是MapReduce設(shè)計下的Hadoop,還是Erlang語言級別的特性,都盡量的希望任務(wù)之間可以并行執(zhí)行,相互之間低耦合,通過異步事件消息通知方式來交互,同時數(shù)據(jù)沒有共享,防止資源競爭導(dǎo)致無法并行高效處理。系統(tǒng)設(shè)計還是要根據(jù)場景來判斷使用什么方式優(yōu)化,越簡單越好。

    posted @ 2010-01-27 01:45 岑文初 閱讀(3665) | 評論 (1)編輯 收藏

         摘要: 基于MapReduce的配置型日志分析組件  閱讀全文
    posted @ 2010-01-12 21:58 岑文初 閱讀(3859) | 評論 (5)編輯 收藏

         摘要: TOP團(tuán)隊招賢納士  閱讀全文
    posted @ 2009-12-11 15:52 岑文初 閱讀(1904) | 評論 (0)編輯 收藏

        中午左右收到一個看我blog的朋友的郵件,最近他在研究mapreduce,然后想用hadoop來做一些工作,不過遇到了一些問題,我這邊也貼一下他的幾個問題,同時覺得自己把自己的一些看法分享一下,當(dāng)然只是自己的一些想法,也許對新學(xué)習(xí)的同學(xué)有幫助。

       問題:

    1. 從Map(K,V)的方式來看,難道m(xù)apreduce只能做統(tǒng)計?
    2. 目前我想除了日志分析之類的功能外,還想做一個全文檢索的功能,類似windows查詢一下,通過關(guān)鍵字查詢文件的位置即可(可能還要根據(jù)匹配度做排序),這個我很迷茫不知道怎么下手,痛苦ing
    3. 你的實踐是一個單機(jī)模式,如果用戶把一個1G的log已經(jīng)上傳到hdfs了,此時分割工作已經(jīng)完成,只需要從client那里得到文件基本信息和塊的location就可以了,那mapreduce怎么進(jìn)行下去呢?

       我給回復(fù)的郵件內(nèi)容:

       首先,MapReduce的思想和Hadoop的MapReduce的架構(gòu)不是一個概念,說的具體一點也就是Hadoop的架構(gòu)設(shè)計只是MapReduce的一個子集思想的實現(xiàn)。每個人都可以根據(jù)自己對MapReduce的理解去實現(xiàn)業(yè)務(wù)處理,簡單來說多線程處理就是MapReduce的一種最簡單的實現(xiàn),復(fù)雜來說多機(jī)協(xié)調(diào)工作就是一種復(fù)雜的實現(xiàn)。

       MapReduce的思想里面最值得借鑒的:

       a.問題分而治之。(找到流程的關(guān)鍵路徑,優(yōu)化可以并行處理的工作)

       b.計算靠近數(shù)據(jù)。(這也是hdfs存在的最重要的特點,計算的轉(zhuǎn)移往往要比數(shù)據(jù)轉(zhuǎn)移廉價,特別是對海量數(shù)據(jù)的處理)

       c.數(shù)據(jù)規(guī)模化隨著并行處理成數(shù)量級遞減。

       剩下的內(nèi)容就是各個框架對于非業(yè)務(wù)性需求的處理,例如容災(zāi),如何盡量少穿數(shù)據(jù)協(xié)調(diào)處理等等。

       針對他提出的三個問題:

        1. Hadoop的mapreduce從架構(gòu)上來說最適合的就是統(tǒng)計分析計算。做其他方面的工作需要考慮是否適合,而不是為了技術(shù)而技術(shù),先有需求再有技術(shù)選型。
        2.  對于你這個需求直接用搜索技術(shù)實現(xiàn)就可以了,不一定要硬套在mapreduce上。
        3. 對于海量數(shù)據(jù)是否一定要到hdsf上,或者就簡單得數(shù)據(jù)物理或者邏輯切割來直接處理,根據(jù)自己業(yè)務(wù)場景選擇。hdfs的特點就是對文件切割,容災(zāi),數(shù)據(jù)邏輯存儲和物理存儲無關(guān)性(便于擴(kuò)容管理,同時也是計算靠近數(shù)據(jù)的技術(shù)保證)。

        是否使用MapReduce框架,HDFS存儲關(guān)鍵還是看你是否真的需要,當(dāng)現(xiàn)有框架對自己來說并不合適的時候可以對小規(guī)模問題定制MapReduce的處理,最簡化就是你去多線程或者多進(jìn)程處理問題,需求決定技術(shù)選型。

      

    posted @ 2009-12-09 13:09 岑文初 閱讀(2590) | 評論 (1)編輯 收藏

    Author:放翁(文初)
    Email:fangweng@taobao.com
    Blog:http://blog.csdn.net/cenwenchu79 

     

    當(dāng)前問題:

    1.       不小比重的Rest請求都是無效請求,全部接納數(shù)據(jù)消耗比較多的時間。

    2.       Multipart類型的大文件流請求無法做到合理快速過濾。(參數(shù)錯誤請求,數(shù)據(jù)文件過多請求,文件大小過大請求)

    歸結(jié)來說,TOP平臺處理的服務(wù)在解析參數(shù)時比較消耗時間和帶寬(客戶端網(wǎng)絡(luò)速度慢導(dǎo)致傳輸字節(jié)流比較慢,文件比較大導(dǎo)致帶寬占用嚴(yán)重)

    處理方式:

    通過自行解析字節(jié)流方式來lazy化處理請求,減少無效請求對于解析參數(shù)時間消耗(導(dǎo)致web容器連接消耗)及帶寬消耗。

    優(yōu)化目標(biāo):

             Get由于內(nèi)容長度有限不列入在優(yōu)化范圍。

             優(yōu)化Post方式的請求(普通的和Multipart),要求優(yōu)化后:在正常請求處理上兩者處理速度不低于傳統(tǒng)方式,非正常請求在策略命中情況下(后面會談到什么情況下優(yōu)化失效),性能有明顯提高。

    具體實現(xiàn):

            由于現(xiàn)在用的是傳統(tǒng)IO模式,因此可以用流的方式來lazy解析和處理請求(NIOchannel + buffer package就無法lazy了)。




             一共有三個組件角色:

    1. 請求處理配置策略:配置在解析參數(shù)時,優(yōu)先的規(guī)則(參數(shù)可以從header,uri,post body中獲取,相互之間的優(yōu)先性),異常拋出規(guī)則(字節(jié)流長度,文件大小,文件個數(shù)限制等),字節(jié)流解析模塊的參數(shù)配置(字節(jié)流解析的窗口大小,超時時間等)。

    2. 線程上下文:用來保存處理過的請求參數(shù)。一來復(fù)用,二來也是由于請求字節(jié)流處理不可逆(不保存字節(jié)流副本),必須保留。

    3. Http請求字節(jié)流解析模塊。根據(jù)具體的配置以及解析策略來解析字節(jié)流,同時將解析結(jié)果保存在線程上下文中。主要的實現(xiàn)代碼在于對Post消息體逐步解析部分(普通的Postmultipart

    壓力測試結(jié)果:

        正常請求場景( 100并發(fā)用戶,multipart 文件大小300k,當(dāng)前業(yè)務(wù)場景這個值已經(jīng)滿足了):

    普通post的處理能力1000TPS。(servlet方式處理差不多,不過有波動)  

      multipart處理能力610TPS。(apache開源項目fileupload,處理能力400TPS左右)

    錯誤請求場景

             異常情況的處理有了很大提高,對于遠(yuǎn)程客戶端傳輸較慢或者是大流量圖片的錯誤請求都有很大的優(yōu)化。

    優(yōu)化存在問題:

    1. 參數(shù)缺失導(dǎo)致優(yōu)化失效。

    2. sign類似的交驗,導(dǎo)致獲取所有的參數(shù)。

    3. 當(dāng)前圖片限制在300k,由于考慮處理速度快,就都沒有設(shè)置超過閥值存儲到本地,因此在高并發(fā)大流量的情況下也會有內(nèi)存問題,當(dāng)然已經(jīng)做了部分保護(hù)。

    針對上面的兩個問題,作了部分的協(xié)議限制,對于API2.0希望將所有的系統(tǒng)參數(shù)和業(yè)務(wù)參數(shù)區(qū)分開,放入到Http header中或者url中,這樣可以避免系統(tǒng)參數(shù)缺失導(dǎo)致優(yōu)化失敗,同時大量過濾系統(tǒng)參數(shù)出現(xiàn)問題的無效請求。

    Sign類似的交驗放在流程最后,避免過早獲取所有參數(shù)。

    作安全保護(hù),設(shè)定簡單丟棄或者io交互來緩解這個問題。

             這部分內(nèi)容還有很多可以做得工作,其實最初的目的就是為了防止系統(tǒng)對于無效請求的處理消耗,我想在很多系統(tǒng)都會有這樣的問題,利用緩存設(shè)置黑名單防止攻擊也是這樣的初衷。因此這點可以考慮在很多系統(tǒng)設(shè)計的時候都作一樣的優(yōu)化,對正常的不能優(yōu)化,起碼對錯誤的可以做一些優(yōu)化,防止在異常請求高漲的時候,系統(tǒng)被擊垮.

    posted @ 2009-12-08 01:51 岑文初 閱讀(2243) | 評論 (2)編輯 收藏

    Author:放翁(文初)
    Email:fangweng@taobao.com
    Blog:http://blog.csdn.net/cenwenchu79


    其實想說這句話很久了
    ,和很多同事接觸,有時候或多或少的都會發(fā)現(xiàn)大家會陷入在自己的一畝三分地里面.

             主要表現(xiàn)得癥狀

    1.       PD的需求就是目標(biāo),踏實的實現(xiàn),不懂的就猜。

    2.       經(jīng)驗蓋過一切,設(shè)計系統(tǒng)就是要夠完備夠復(fù)雜。

    從開發(fā)人員角度來看,第一種人多半比較有自己的想法,同時也有不少的工作經(jīng)驗,同時可能對技術(shù)比較著迷。另一種人多半是剛剛工作或者經(jīng)驗不足,要么就是習(xí)慣性把工作當(dāng)任務(wù),而不是愛好,寫程序也就是一份賺錢的活。但看起來其實各自都在自己的一畝三分地上搗鼓,忘記了作為一個開發(fā)人員最基本的原則:“滿足客戶需求”。

    先說1類型吧,在我們的Team有一個剛畢業(yè)一年多的同學(xué),很勤奮,不論從學(xué)習(xí)以及工作,實實在在,踏踏實實。我們這邊來需求,通常大需求我們都會全體過一下,一些小點的需求他就自己考慮一下就作了。那天正要上線,突然說了一下設(shè)計修改的內(nèi)容,發(fā)現(xiàn)不僅滿足不了PD原有的需求,而且給系統(tǒng)帶來了緩存暴增的隱患。然后找來PD一談,其實他要的功能已經(jīng)在現(xiàn)有系統(tǒng)中已經(jīng)實現(xiàn),只是需要做部分的修改,而不需要新的去建立一套機(jī)制。這樣的情況其實在前前后后出現(xiàn)了不少次數(shù)了,但其實一直沒有和他細(xì)談。后來我下班時候和他一起回家的時候說:“很多時候, PD為了讓你理解,從開發(fā)的角度想要去描述一個需求,但其實最終失去了他自己想要的東西。因此對你來說第一步不是急忙的去考慮如何實現(xiàn)PD的想法或者和他爭論他的設(shè)計是否合理,而是需要先問他:你想要什么,想要實現(xiàn)的東西最終目的是什么,能滿足客戶的什么需求?當(dāng)他能夠說清楚他想要什么,也知道要的東西能給客戶帶來什么價值的時候,我們再回過頭來看,究竟應(yīng)該怎么做?”這其實和我每次和同學(xué)分享一些設(shè)計的時候步驟是一樣的,首先為什么要這么做,然后才是考慮如何從我的目標(biāo)去尋找行動的方法方式,不然你會發(fā)現(xiàn)你和別人討論了許久的東西,實現(xiàn)出來的時候已經(jīng)背離了你的目標(biāo)很遠(yuǎn)。因此在做任何需求或者設(shè)計的時候第一個問題就要問自己為什么要做,作的過程中時刻要記得我的目標(biāo)是什么。這讓我想起了我在離開阿軟的那些日子和王堅博士談話以及聽他的一些對于設(shè)計的理念,很多時候還沒有到規(guī)模化的情況下,先解決客戶的需求,在解決客戶需求以后,逐步的去考慮規(guī)模化問題的設(shè)計。(當(dāng)然不是說第一版設(shè)計就可以隨便作,良好的基礎(chǔ)能夠提升后續(xù)改進(jìn)的速度)。

    二類型的就比較多了,其實是很多開發(fā)人員的通病,包括有時候我自己也會陷入這樣的誤區(qū)。通常情況下有兩種場景會陷入這樣的誤區(qū),同時當(dāng)事人卻又不愿意改變。第一種情況就是覺得自己有不少的經(jīng)驗,同時對技術(shù)很執(zhí)著,希望設(shè)計出來的都是很完美的,一次發(fā)布就可以滿足個12年,但其實從這些年的設(shè)計角度來看,首先系統(tǒng)都是不斷迭代進(jìn)化的,因此一步到位的說法基本上不靠譜(除非就是一模一樣的場景代碼重復(fù)使用),其次系統(tǒng)的架構(gòu)要做的足夠靈活,通常情況就需要先做核心功能,預(yù)留出足夠的空間和切入點,這樣對未來擴(kuò)展和需求變化有足夠的適應(yīng)度。從這兩點來看,其實設(shè)計初期就是要求找到客戶最想要的,擴(kuò)展可以實現(xiàn)客戶可能要的,防范客戶沒有估量到的。但這其實就需要和我們的產(chǎn)品設(shè)計師有充分的交流,好的產(chǎn)品設(shè)計師不會告訴你你怎么去實現(xiàn),但是他會告訴你我想要的是什么,這些能給客戶帶來什么,這時候你可以告訴他我能夠通過什么方式來滿足你的需求。這樣的開發(fā)和產(chǎn)品設(shè)計交流的結(jié)果才是技術(shù)化的產(chǎn)品,大家各司其職,同時也通曉對方領(lǐng)域的一些情況,對對方領(lǐng)域的只能給出建議,不是指導(dǎo),這點在TOP我很慶幸有很好的黑羽同學(xué),我們的交流就是這樣產(chǎn)生良性互動。這有點撤遠(yuǎn)了,剛才說了第一種場景,然后說說第二種場景,就是初期其實大家都沒有明確細(xì)節(jié),但是在實施過程中開發(fā)人員會根據(jù)自己的接觸面來選擇一些技術(shù)和架構(gòu)設(shè)計,最后看起來很復(fù)雜,很完美,但其實越是復(fù)雜的設(shè)計背后有越多的隱患。但是此時因為已經(jīng)設(shè)計好了,就不愿意再去簡化,也不愿意聽任何人的意見,其實這是很危險的。我過去也犯過類似的錯誤,但是其實當(dāng)你冷靜下來,想想那句話,我們的目標(biāo)是什么:“滿足客戶需求”,這時候你就會考慮,這么復(fù)雜的系統(tǒng)會不會給客戶帶來更多的不穩(wěn)定以及復(fù)雜度,其實客戶不關(guān)心你背后如何實現(xiàn)的,但是你需要滿足客戶的最基本的需求,用起來方便,高效,實實在在提供了解決問題的手段。

    今天下午面試了一個外部的同學(xué),工作年限比我長,看了簡歷也經(jīng)歷了很多項目,同時在描述的時候?qū)懥藢Ω卟l(fā),分布式等等都很熟悉和熱衷,我開始看了簡歷就擔(dān)心,可能我這邊不一定要他,因為我怕他開口就是說一大堆如何做高并發(fā)和分布式的內(nèi)容。在我看來如果你沒有搞清楚你什么時候要用牛刀,什么時候要用剪刀的人,和你談?wù)撆5兜臉?gòu)造其實沒啥意思,因為在我看來,技術(shù)只要你肯花時間去學(xué),沒什么學(xué)不到的,但是做事方式和項目設(shè)計經(jīng)驗卻是長時間積累的。幸好今天和他一談,他對于技術(shù)的態(tài)度以及架構(gòu)設(shè)計的思想都和我想的比較接近,不是為了技術(shù)而技術(shù),不是為了過程而過程,了解如何從簡如繁,再從繁入簡,最終能夠找到自己的目標(biāo)。當(dāng)然后來還是談了很多技術(shù)細(xì)節(jié)的問題,畢竟干活還是要一個好手,作了那么多年如果沒有經(jīng)驗和技術(shù)積累也是很可怕的事情。最后我問了他兩個問題:1.你學(xué)習(xí)一個新技術(shù)的過程是怎么樣的?2.你和你同事如果在設(shè)計方案上有沖突你怎么解決?他告訴我他學(xué)習(xí)新技術(shù)首先會去考慮這個技術(shù)的特點是什么,和其他技術(shù)的差別,他的擅長領(lǐng)域是什么,這樣才能夠用到實處。第二個問題他和我說就是開會討論,最后大家群體決定。我對他第一個問題感到很滿意,因為我就需要這樣的同事,第二個問題我給了他一個建議,其實在很多時候,將別人的架構(gòu)設(shè)計的優(yōu)點融入到自己的設(shè)計中,不再以方案作為邊界,那么大家最終就很容易達(dá)成一致,因為你在接受別人的思想時其實能夠看到自己的不足,同時對待別人不是用否定的態(tài)度,會讓你更容易得到認(rèn)可和接受。(這點作起來需要不斷的改變程序員自身的好勝個性,我起碼還是出于變化中

    我記得我小時候上政治課的時候,老師給我們劃分了三種人:有能力但是沒有道德的人是危險的人,沒有能力但是有道德的人是對社會無害的人(覺得像葛優(yōu)說的那個對社會無害的海龜一個概念),有能力同時也有道德的人是對社會有益的人。我覺得其實程序員也就可以從兩個緯度看:

    1.       有能力,有經(jīng)驗,對技術(shù)有追求。

    2.       對產(chǎn)品化和客戶沒有任何感覺。

    擁有了素質(zhì)1但是沒有素質(zhì)2,那么最多也就只能說是試驗室的花朵,在大學(xué)搞搞研究還不錯,實際要做出產(chǎn)品來可能就是紙上談兵,好鋼始終用不到刀刃上,有力沒地使。

    素質(zhì)1有所欠缺,素質(zhì)2很明晰,對自己目標(biāo)不斷追求,其實這樣的人,有時候笨鳥也會飛的比聰明的鳥更高。

    擁有12的人,當(dāng)然就是最好的人,只需要學(xué)會做人那么就可以發(fā)揮自己的能量。(程序員有時候就是很難改變自己的個性,去學(xué)會如何溝通和理解)
             最后一類就是自以為有12的人,這類人最怕就是面試的時候被考官通過,那么后續(xù)的問題就大了。

    說了怎么多,其實也無非想說出一個程序員這些年的經(jīng)歷,從做開發(fā)到做基礎(chǔ)平臺,到做業(yè)務(wù)平臺,該怎么踏實做事,該在什么時候找到自己的瓶頸,該在什么時候改變自己的狀態(tài),都需要自己好好的讓自己冷靜下來想想。做基礎(chǔ)平臺需要耐得住寂寞,同時也要知道自己是有客戶的,服務(wù)不好客戶,那么基礎(chǔ)組件平臺就是玩具。做業(yè)務(wù)平臺需要學(xué)會去分析和溝通,需要去了解每一個層次的設(shè)計如何協(xié)作,同時在兼顧業(yè)務(wù)需求的同時滿足隱性需求(穩(wěn)定性,可用性,響應(yīng)速度,規(guī)模化等等)。但歸根到底,能給開發(fā)人員不斷能量的不是技術(shù)本身,而是你用技術(shù)給你的客戶帶來的價值,對你的認(rèn)可是長期做事的一個最基本的動力,因為當(dāng)你現(xiàn)在覺得純做技術(shù)能夠支持你不斷向前走的時候,其實在不遠(yuǎn)的將來你會體會到原來過程和目標(biāo)是同樣重要的。走出自己的一畝三分地,給自己多一點的空間,會讓自己看得更遠(yuǎn),走的更高。

    posted @ 2009-12-08 00:54 岑文初 閱讀(4238) | 評論 (6)編輯 收藏

       今年blog更新的速度比去年慢很多,當(dāng)然最大的原因就是工作的轉(zhuǎn)變。當(dāng)選擇留在云公司還是去淘寶,自己做了很快的抉擇,去淘寶。其實在阿軟的后面這一年,對自己來說是一個技術(shù)提升的階段,工作任務(wù)不緊,技術(shù)預(yù)研范圍較大,但對于自己這么一個已經(jīng)到了30的人來說,應(yīng)該是把技術(shù)轉(zhuǎn)變?yōu)楫a(chǎn)品的時候了,因此義無反顧地選擇了TOP作為我新的開端。

        其實每個人都會有自己不同的階段,任何階段都有自己的目標(biāo),同時當(dāng)你發(fā)現(xiàn)在一個階段停留很久,都沒有什么突破,或者漸漸失去目標(biāo)的時候,那么就需要考慮如何找到新的起點。對我來說,技術(shù)追求和提升是沒有止盡的,但是需要真正的將所學(xué)的作出一點實在的產(chǎn)品,同時在參與產(chǎn)品團(tuán)隊的過程中,學(xué)會溝通,交流,分析問題,全面地看問題,這些也是不可缺少的成長經(jīng)驗,如果僅僅局限在狹隘的某一個技術(shù)立領(lǐng)域,那么就和普通的學(xué)生無異。

        到了TOP,自己的工作分成了三大塊:1.救火及防火。2.整體架構(gòu)支持。3.核心代碼的編寫。前期花了不少時間在1上,同時和各個Team交流,參與各個團(tuán)隊的關(guān)鍵性設(shè)計評審,以及對平臺的統(tǒng)一規(guī)劃,讓我實實在在的作了一點2的事情。(說道實實在在,記得在阿軟很多團(tuán)隊都抱怨我所在的架構(gòu)組整天派一個人掛個名字,然后就算是架構(gòu)支持了,當(dāng)然這有很多原因造成,并不一定是負(fù)責(zé)架構(gòu)的同學(xué)的問題)。對于3這點當(dāng)然是自己最樂意做的,也是自己一直告誡自己要不斷提升的,不論自己有多少理由說自己忙碌,寫代碼是我們這種人的生命所在,不然就會漂浮在空中,漸漸的走向“另一個世界”。 但自己覺得其實還少了一塊,就是對業(yè)界的發(fā)展深入了解,這會讓我看的不夠遠(yuǎn)(幸好我們的產(chǎn)品經(jīng)理黑羽同學(xué)總還會給我一些新的思路),到了年底將會多花一點時間作這部分內(nèi)容。

        去年年底我寫了關(guān)于對于Open API的思考和探索的一篇文章作為年底總結(jié),今年一樣,對于當(dāng)前自己的工作將會有一份總結(jié)和規(guī)劃,即是對今年平臺發(fā)展的一個回顧,也是對平臺未來的一點思考,大致已經(jīng)列了一個綱要,對外可能部分內(nèi)容不能全寫出來,不過就算不寫細(xì)節(jié)也會將一些思路寫一下,大家可以相互探討一下。這部分內(nèi)容也將會成為我12月份參加淘寶內(nèi)部淘寶大學(xué)講課的內(nèi)容,希望能夠?qū)⒔衲晷逻M(jìn)淘寶的同學(xué)吸引到TOP來,為TOP增加人氣。

       下面是一個mind 圖,大致描述了一些內(nèi)容:

    posted @ 2009-11-27 00:58 岑文初 閱讀(2933) | 評論 (2)編輯 收藏

         摘要: 常用模式的細(xì)節(jié)問題看設(shè)計穩(wěn)定性  閱讀全文
    posted @ 2009-11-10 01:52 岑文初 閱讀(2872) | 評論 (4)編輯 收藏

    在自己的blog上做個招聘廣告,TOP平臺架構(gòu)Team歡迎各位資深或者剛畢業(yè)的對TOP有興趣的同學(xué)加入,可以直接給我留言或者發(fā)mail到fangweng@taobao.com,非誠勿擾^_^,同事可能比老婆相處的時間都要長。對了,請附加上你的簡歷,方便繼續(xù)溝通。
    posted @ 2009-10-30 15:51 岑文初 閱讀(1334) | 評論 (2)編輯 收藏

         摘要: Author:放翁(文初) Email:fangweng@taobao.com Blog:http://blog.csdn.net/cenwenchu79   閑話:(如果圖片看不清楚可以看另一個blog,因為圖片在家,這里上傳就只能轉(zhuǎn)貼了)          為什么又叫做什么…的點滴,...  閱讀全文
    posted @ 2009-10-30 12:27 岑文初 閱讀(3666) | 評論 (6)編輯 收藏

         摘要: 上海校招回來  閱讀全文
    posted @ 2009-10-13 21:27 岑文初 閱讀(1463) | 評論 (4)編輯 收藏

         摘要: 客戶端NIO實踐分析  閱讀全文
    posted @ 2009-09-24 08:57 岑文初 閱讀(3374) | 評論 (7)編輯 收藏

         摘要: 應(yīng)用架構(gòu)設(shè)計“防火”經(jīng)驗分享  閱讀全文
    posted @ 2009-08-27 00:59 岑文初 閱讀(3183) | 評論 (5)編輯 收藏

       今天是轉(zhuǎn)崗到淘寶的第七天,也算是一周吧,期待來這個團(tuán)隊已經(jīng)有快大半年了,這次阿軟的重組給了一個機(jī)會,過去的就過去吧,不再回首有任何的抱怨和遺憾,需要面對的是新的將來。

        很奇怪,來到淘寶,都是熟人,Boss是早就相識的菲青,TOP團(tuán)隊的自雪,鳳先,秀芳及我不認(rèn)識但是認(rèn)識我的其他同學(xué)都很熱情,運營,PD,OST都是以前阿軟的老同學(xué),還有其他幾個團(tuán)隊的朋友,感覺回到了家,而不是離開了家。

        原先來淘寶是比較堅決的,同時也得到王博士的支持,心里還是比較有底的,不過就是擔(dān)心過來以后和淘寶已有的團(tuán)隊合作可能會有磨合期,因為擔(dān)心有“小圈子”。結(jié)果卻是很出乎我的意料,TOP的人就和做的事情一樣,是一批開放的人,自雪,鳳先,張三各個都很放的開的和我聊,對于架構(gòu),對于技術(shù),對于未來的發(fā)展,這些人坐在一起什么都可以說,自己覺得自己早先是用老思維來看待這個團(tuán)隊了。這個團(tuán)隊很年輕,很有活力和創(chuàng)造力,缺少的只是一些經(jīng)驗,而我經(jīng)驗是有一些,但是那些斗志已經(jīng)在去年一年被磨礪的差不多了,正好是我回爐好好再熱一熱的時候了。來之前就和黑羽有過接觸,也看過他對于TOP的一些構(gòu)想,在我的計劃中就有和他交流的部分,上周找了一個時間碰了一下,果然有很多和我一致的想法,同時還有一些比我更加深入的idea,特別是對于大淘寶未來的一個構(gòu)想。其實來到TOP我所要做的就是在技術(shù)的架構(gòu)上找到商業(yè)的感覺,讓商業(yè)驅(qū)動技術(shù),技術(shù)沉淀積累來支持商業(yè)的暢想。

        這七天過的很快,全身心投入的工作,時間總是過的很快,而且過去那種沉悶的心情和處事的態(tài)度在這里得到了改變。明天基本上就看完了TOP的大部分代碼,整理了一些review的建議,同時昨天還花了一些時間去看了看google appengine,寫了幾個小應(yīng)用,看了看源碼(部分反編譯),因為要給boss對于小應(yīng)用hosting方面的一些想法。

       總的來說還是和我原先的計劃一樣,商業(yè)上和PD運營交流,了解未來TOP商業(yè)發(fā)展方向,以及對技術(shù)架構(gòu)的一些需求。架構(gòu)上從代碼和文檔看起,文檔不是很多,所以就只好每個工程看過來,也不錯,看到自雪同學(xué)寫的代碼還是不錯的,同時也看到了淘寶的基礎(chǔ)組件的推廣力度之大,這比在阿里軟件強的多,其實也是我一直希望看到的,人人都是技術(shù)牛人,都在做重復(fù)的事情,但是卻沒有技術(shù)沉淀,其實大家完全可以吧自己的構(gòu)想增強在別人的基礎(chǔ)之上,而不是什么都自己搞一套,淘寶的技術(shù)應(yīng)該來說在政策上得到了支持,技術(shù)積累效果還是不錯的,這里還不得不提到我的淘寶同學(xué)畢玄同學(xué)的服務(wù)基礎(chǔ)框架HSF,雖然現(xiàn)在還沒有接觸,但是應(yīng)該已經(jīng)發(fā)展的挺好的。

       有兩個能夠用人,擔(dān)得起起技術(shù)團(tuán)隊發(fā)展的Boss,有這么一些年輕有沖勁的小同學(xué),有這么一些樂于傾聽分享協(xié)作的老同學(xué),有這么一些很有商業(yè)feeling的非技術(shù)團(tuán)隊同學(xué),要做好TOP,我想只有三個字:“沒問題”。這是我在入職七天寫的隨記,一年后再來回看我今天說的這些話,在來看看這個團(tuán)隊創(chuàng)造的價值。

       附:在淘寶申請好了花名:放翁。陸游的字,武俠小說的人就連掃地的都沒有了,歷史名人也沒有了,不過詩人倒是沒有人用,指不定還開創(chuàng)了淘寶同學(xué)入職的花名新取法。

       好好工作,天天向上,為了TOP,為了家里的BB,為了自己的一點理想,踏踏實實的走自己的路,讓別人開車去吧,^_^

     

    本文來自CSDN博客,轉(zhuǎn)載請標(biāo)明出處:http://blog.csdn.net/cenwenchu79/archive/2009/08/12/4440248.aspx

    posted @ 2009-08-12 23:16 岑文初 閱讀(1165) | 評論 (1)編輯 收藏

       昨天是去淘寶工作的第一天,最近最頭痛的就是花名,在我兒子出生的時候我就知道起名字是最麻煩的事情,而起花名更是痛苦,因為你的選擇余地更小,同時還不能和前人重復(fù),好不容易找到兩個還不錯的,結(jié)果一個給其他部門的老大保留了,一個因為拼音和一個同學(xué)相似而無法使用。想用文初,結(jié)果還給一個淘寶的活躍用戶使用了,問了HR不取花名是否可以,回答說,不可以,太折騰了。

       昨天開了一整天的會,主要還是協(xié)調(diào)兩個平臺之間將來的合作模式,同時也梳理了雙方的現(xiàn)有功能,將未來雙方的邊界做了初步定奪,同時也對將來的一些需求做了初步的規(guī)劃,系統(tǒng)的模塊化也提上了最近的日程。

      今天會化一些時間看看已有的代碼熟悉一下Top的情況,同時也看看一些流程性的文檔,希望能夠盡快的對Top全方位的了解,這樣便于從細(xì)節(jié)實現(xiàn)到整體架構(gòu)設(shè)計都能給出自己的意見。

      初來乍到不容易,很多需要從新開始的,不過對我來說合作的人,做的事情還是有一定的基礎(chǔ),因此只是需要一周左右的過渡期,后續(xù)應(yīng)該會走的更加順暢。

     

     
    posted @ 2009-08-06 05:12 岑文初 閱讀(1028) | 評論 (0)編輯 收藏

         摘要: Author : 岑文初 Email: wenchu.cenwc@alibaba-inc.com Blog: http://blog.csdn.net/cenwenchu79 Date: 2009-5-26 目錄 需求轉(zhuǎn)而學(xué)習(xí) “軟”負(fù)載均衡 LVS (Linux Virtual Server) Virtual Server三種模式介紹 Virtual...  閱讀全文
    posted @ 2009-08-04 22:32 岑文初 閱讀(2277) | 評論 (1)編輯 收藏

         摘要: “軟”負(fù)載均衡學(xué)習(xí)點滴  閱讀全文
    posted @ 2009-08-04 22:30 岑文初 閱讀(2088) | 評論 (0)編輯 收藏

    Author : 岑文初

    Email: wenchu.cenwc@alibaba-inc.com

    Blog: http://blog.csdn.net/cenwenchu79

    Date: 2009-5-26

    目錄

    需求轉(zhuǎn)而學(xué)習(xí)

    “軟”負(fù)載均衡

    LVS Linux Virtual Server

    Virtual Server三種模式介紹

    Virtual Server三種模式的比較

    Virtual Server三種模式實踐

    三種模式下的簡單壓力測試

    HA-Proxy

    HA-Proxy安裝和使用

    HA-Proxy的壓力測試結(jié)果

    負(fù)載學(xué)習(xí)心得

    需求轉(zhuǎn)而學(xué)習(xí)

             很多時候不少做開發(fā)的同學(xué)都認(rèn)為技術(shù)更新的快,新技術(shù)、新概念層出不窮,大家樂此不疲的去跟隨著所謂的“技術(shù)趨勢”走在風(fēng)頭浪尖上,但其實往往忘記了一個最重要的問題“滿足客戶需求”。其實技術(shù)就是為滿足需求服務(wù)的,用最小的代價來滿足用戶的需求,以最簡單高效的方式來達(dá)到目標(biāo),就是每個開發(fā)者應(yīng)該追求的。(不要因為自己的架構(gòu)很簡單就臉紅拿不出手,只要你在滿足用戶當(dāng)前需求的基礎(chǔ)上對未來有所考慮,那么化繁為簡就是一種能力的表現(xiàn))

             SIP(服務(wù)集成平臺)5.7版本中對于未來多個服務(wù)提供商,多種類型的服務(wù),在每日幾億的調(diào)用壓力下,需要找到一個解決方案:可以分流不同服務(wù)提供商的服務(wù),分流不同類型的服務(wù),服務(wù)隔離化來減少服務(wù)相互之間影響以及服務(wù)提供商之間的影響。

             當(dāng)前SIP的前端是通過硬件F5作負(fù)載均衡,因此是無狀態(tài)無差別的服務(wù)負(fù)載,這也使得無法區(qū)分不同的服務(wù)提供商的服務(wù)請求和不同類型的服務(wù)請求,導(dǎo)致服務(wù)提供商之間的服務(wù)會產(chǎn)生相互影響(旺旺即時通信類API在峰值占用了大部分的服務(wù)處理資源,淘寶寶貝上傳類API占用了大量的帶寬)。近期還有更大的兩類API將會接入,因此尋找一個服務(wù)可分流的方案勢在必行。(當(dāng)然過去也考慮通過三級域名配置在負(fù)載均衡上來解決這些問題,但是這樣首先對于開發(fā)者來說不透明,其次也是一種比較僵化的設(shè)計方案,擴(kuò)展和維護(hù)也有一定的難度)

             在過去也嘗試過ApacheWeb容器自己的一些load balance特性,當(dāng)然效果不是很好,和硬件基本無法比擬,而一些專有的“軟”負(fù)載均衡方案和開源項目也沒有深入的去了解,因此借著這次機(jī)會,好好深入的挖一挖“軟”負(fù)載均衡。

    “軟”負(fù)載均衡

             作為互聯(lián)網(wǎng)應(yīng)用,隨時都需要做好用戶量突然增大,訪問量突然上升的準(zhǔn)備。今年熱門的詞匯“云”我就不多說了,這里就簡單說說服務(wù)器的橫向擴(kuò)展。其實和DB,文件系統(tǒng)等一樣,當(dāng)資源成為瓶頸的時候,就需要考慮如何通過擴(kuò)展或者提升資源能力來滿足用戶的需求,這就是我們常說的橫向擴(kuò)展和縱向擴(kuò)展。(對于橫向擴(kuò)展和縱向擴(kuò)展的優(yōu)劣大家應(yīng)該都很清楚了,這里也不做贅述)橫向擴(kuò)展中就會要求使用負(fù)載均衡的能力,如何根據(jù)資源能力不同以及資源在運行期負(fù)荷動態(tài)變化將負(fù)載合理分配是判斷負(fù)載均衡優(yōu)劣的標(biāo)準(zhǔn)。

             軟件負(fù)載均衡一般通過兩種方式來實現(xiàn):基于操作系統(tǒng)的軟負(fù)載實現(xiàn)和基于第三方應(yīng)用的軟負(fù)載實現(xiàn)。LVS就是基于Linux操作系統(tǒng)實現(xiàn)的一種軟負(fù)載,HA Proxy就是基于第三應(yīng)用實現(xiàn)的軟負(fù)載。(后面會詳細(xì)介紹這兩種方式的使用)

             最早期也是最原始的軟負(fù)載均衡:“Round Robin DNS”,通過輪詢方式在DNS綁定多個IP的情況下,將用戶對于同一個域名的請求分配到后端不同的服務(wù)節(jié)點。這種方案的優(yōu)點:配置簡單,負(fù)載分配效率高。缺點:無法知曉后端服務(wù)節(jié)點服務(wù)情況(是否已經(jīng)停止服務(wù)),無法保證在一個Session中多次請求由一個服務(wù)節(jié)點服務(wù),每一個節(jié)點都要求有一個外網(wǎng)IP

             另一種較為常見的就是基于分發(fā)器的Load balance。服務(wù)使用者通過向分發(fā)器發(fā)起請求獲得服務(wù),分發(fā)器將請求分發(fā)給后端實際服務(wù)處理的節(jié)點,給客戶提供服務(wù),最常說的反向代理模式就是典型的分發(fā)器Load Balance。這類負(fù)載均衡處理可以基于應(yīng)用級轉(zhuǎn)發(fā),也可以基于IP級別轉(zhuǎn)發(fā),當(dāng)然基于應(yīng)用轉(zhuǎn)發(fā)效率和損耗比較大,同時分發(fā)器本身也會成為瓶頸。

    LVS Linux Virtual Server

             LVS是在Linux操作系統(tǒng)基礎(chǔ)上建立虛擬服務(wù)器,實現(xiàn)服務(wù)節(jié)點之間的負(fù)載均衡。LVS主要是處理OSI模型中的4層消息包,根據(jù)一定的規(guī)則將請求直接轉(zhuǎn)發(fā)到后端的服務(wù)處理節(jié)點,有較高轉(zhuǎn)發(fā)效率。

             Virtual ServerLoad Balancer和一組服務(wù)器的邏輯組合統(tǒng)稱,使用服務(wù)者只需要與Virtual Server進(jìn)行交互就可以獲得高效的服務(wù)。真實服務(wù)器和Load Balancer通過高速LAN進(jìn)行交互。Load Balancer能夠?qū)⒄埱蠓职l(fā)到不同的服務(wù)端,在一個虛擬IP下并行處理多個請求。

    Virtual Server三種模式介紹

    Virtual Server有三種基于IP級別的負(fù)載均衡實現(xiàn)方式:IP address translationNAT)、Direct routingIP Tunneling

             NAT(Network address translation)由于IPV4的某些缺陷和安全原因,某些網(wǎng)段例如(10.0.0.0/255.0.0.0, 172.16.0.0/255.240.0.0 and 192.168.0.0/255.255.0.0)不能被用于互聯(lián)網(wǎng),因此常常被用作內(nèi)部局域網(wǎng),通過網(wǎng)絡(luò)地址翻譯的方式可以讓這些網(wǎng)段的服務(wù)器訪問互聯(lián)網(wǎng)或者被互聯(lián)網(wǎng)訪問。網(wǎng)絡(luò)地址翻譯主要作用就是將一組ip地址映射到其他的一組ip地址,當(dāng)映射比例為1:1的時候通常稱作靜態(tài)映射,而當(dāng)映射地址為M:N(M>N)的時候(M為被映射地址數(shù)量,通常是內(nèi)部ip),則成為動態(tài)映射。而對于Virtual ServerNAT模式來說,就是利用了NAT的特性,將內(nèi)部的一組服務(wù)器通過映射到一個虛擬的IP,然后以一個外網(wǎng)虛擬服務(wù)節(jié)點的身份對外提供服務(wù)。

             上圖是一個實際的NAT范例,對外的服務(wù)IP202.103.106.5,內(nèi)部建立了虛擬IP172.16.0.1,然后將內(nèi)部其他兩臺實際服務(wù)的服務(wù)器172.16.0.2172.16.0.3映射到172.16.0.1這個虛擬IP。客戶端向202.103.106.5發(fā)起請求服務(wù),Load Balancer查看請求數(shù)據(jù)包,如果是請求目標(biāo)地址是注冊的虛擬IP及監(jiān)聽端口的時候,那么通過NAT按照一定算法選擇某一臺實體服務(wù)器,再重寫報文目標(biāo)地址,轉(zhuǎn)發(fā)請求到實際的目標(biāo)服務(wù)器,當(dāng)目標(biāo)服務(wù)器處理完畢以后,將處理結(jié)果返回給Load Balancer,由Load Balancer修改源地址,返回給客戶端。

             IP TunnelingIP管道技術(shù)是在IP報文上再次封裝IP報文協(xié)議的一種技術(shù)。允許將一個目標(biāo)為AIP數(shù)據(jù)報文封裝成為目標(biāo)為BIP數(shù)據(jù)報文,在特定的IP 管道中傳輸。

             上圖就是IP Tunneling模式的運作原理。首先客戶端還是通過訪問對外的一個服務(wù)IP請求服務(wù),當(dāng)Load Balancer接受到請求以后,檢查VIP注冊信息,然后根據(jù)算法選擇實際的一臺后臺服務(wù)器,通過IP管道封裝技術(shù)對IP報文再次封裝,然后將消息通過IP管道轉(zhuǎn)發(fā)到實際的服務(wù)器,實際的服務(wù)器通過解包處理請求,然后根據(jù)包體內(nèi)實際的服務(wù)請求地址,將處理結(jié)果直接返回給客戶端。

             Direct routing利用Load Balancer和實際服務(wù)器共享同一VIP,簡單的通過修改消息報體目標(biāo)MAC地址,轉(zhuǎn)發(fā)請求,然后再通過實際服務(wù)器配置VIP為本地回環(huán),直接處理消息報文,而不再轉(zhuǎn)發(fā),當(dāng)處理完以后,直接將處理結(jié)果返回給客戶端。

     

             上圖就是Direct Routing的運作流程,當(dāng)外部請求到Load Balancer時,通過查找VIP注冊信息,直接選擇一臺后端服務(wù)器作為新的目標(biāo)地址,修改消息報文中的目標(biāo)地址Mac地址,轉(zhuǎn)發(fā)到目標(biāo)服務(wù)器,目標(biāo)服務(wù)器由于配置VIP在本地網(wǎng)卡回路中,因此直接處理消息,將處理完的結(jié)果直接返回給客戶端。

    Virtual Server三種模式的比較

             下表是官方整理出的關(guān)于Virtual Server三種不同模式的區(qū)別:

    NAT

    TUNNEL

    DR

    服務(wù)器要求

    無要求

    需要支持IP管道

    arp組件(當(dāng)前也有補丁)

    網(wǎng)絡(luò)要求

    Private

    LAN/WAN

    LAN

    可支持后端服務(wù)器節(jié)點數(shù)

    較少(10-20

    較多

    較多

    服務(wù)網(wǎng)關(guān)

    Load Balancer

    本身

    本身

    NAT:根據(jù)其實現(xiàn)原理,可以知道這種模式對于操作系統(tǒng),網(wǎng)絡(luò)都沒有太多的要求和約束,但是由于消息需要打解包,同時消息的響應(yīng)都必須經(jīng)過Load Balancer,因此Load Balancer自身成為了瓶頸,這樣一個Load Balancer能夠支持的后端服務(wù)節(jié)點數(shù)量就有限了。當(dāng)然可以采用混合模式來解決這個問題,也就是通過TUNNEL或者DR模式作為前端模式串聯(lián)起多個NAT模式Balancer

    TUNNEL:這種模式要求操作系統(tǒng)支持IP Tunnel,通過對IP報文再次封裝轉(zhuǎn)發(fā),達(dá)到負(fù)載均衡的目的。設(shè)計這種模式的初衷是考慮,對于互聯(lián)網(wǎng)很多服務(wù)來說,服務(wù)請求數(shù)據(jù)量和返回數(shù)據(jù)量是不對稱的,返回的數(shù)據(jù)往往要遠(yuǎn)遠(yuǎn)大于請求的數(shù)據(jù)量,因此如果請求和返回都走Load Balancer會大量占用帶寬,影響處理能力。IP Tunnel設(shè)計中請求是通過Load Balancer,但是返回是直接返回到客戶端的,因此節(jié)省了返回的帶寬,提高了請求處理的能力。

    DR:這種模式要求Load Balancer和后端服務(wù)器處于同一個局域網(wǎng)段。DR模式處理消耗最小,消息轉(zhuǎn)發(fā)和回復(fù)基本沒有損耗,因此效率應(yīng)該是最高的,但是約束是相對來說最多的。

    posted @ 2009-08-04 22:24 岑文初 閱讀(3387) | 評論 (2)編輯 收藏

        小A,30,所在公司在去年的經(jīng)濟(jì)危機(jī)中沒有倒下,但是在今年卻倒下了。小A覺得能夠把一個公司混倒閉了,也算是人生的一點經(jīng)歷。

        公司是沒了,但是工作還要繼續(xù),生活還要繼續(xù),現(xiàn)在將要面對一個新的環(huán)境,環(huán)境很陌生,但也比較熟悉,工作職責(zé)很清晰,但也充滿了挑戰(zhàn)。人過30,有了孩子,真的成熟了很多,知道了什么叫做責(zé)任感,知道了未來真的需要好好規(guī)劃,需要一個機(jī)會,需要一個平臺來找到自己,實現(xiàn)自己的價值,不讓這黃金時代就這么過去。

       小A將要面對的挑戰(zhàn)在心里面已經(jīng)做好了準(zhǔn)備,也有了自己的一套短期的規(guī)劃及工作安排,要成長有時候就要有壓力。在小A即將離開原來團(tuán)隊的時候,和手下的一個同學(xué)發(fā)了火,因為在這陣子調(diào)整過程中,同學(xué)的心態(tài)一直變的很差,但是小A已經(jīng)竭盡全力去分析他的未來,雖然聽進(jìn)去,但是過幾天依然又開始放棄自己,這種態(tài)度讓小A原本很看好他發(fā)展的心情變得很沉重,最后就在那個探討會上說了他一些比較重的話,雖然說完以后自己也有些后悔,可能我對他和對我自己一樣,要求太高了吧,就像博士說的,如果對一個人沒有想法了,就恭維幾句即可,大家你好我好大家好,只有當(dāng)對這個人還存在一定的期望的時候才會表現(xiàn)出這種比較急切的感覺。

       新的開始,新的挑戰(zhàn),新的環(huán)境,新的機(jī)遇,新的難題,新的稱呼

       好的心態(tài),好的溝通,好的未來

       一切都需要小A用自己的能力去證明,走自己的路,讓自己走的更好。

    posted @ 2009-08-03 09:58 岑文初 閱讀(878) | 評論 (0)編輯 收藏

        轉(zhuǎn)眼到了7月份了,今年的blog更新的很慢很慢。寫點東西記錄自己的生活和工作狀態(tài)。
       生活:
       兒子提早10天在六月八號來到我們這個小家庭,每個好友在祝福我的同時告訴我,辛苦的日子剛剛開始。不過和大家的感覺一樣,辛苦但快樂著,在別人忙著在互聯(lián)網(wǎng)上種花種草,養(yǎng)豬養(yǎng)雞的時候,我開始扛起培養(yǎng)祖國新一代的責(zé)任。睡覺基本上很難保證連續(xù)性,早晨的運動也移到了晚上給兒子洗好澡以后。以前覺得就算到30歲還是覺得自己比較年輕,但是在那個23:25分兒子出來的一瞬間,自己覺得自己真的老了,需要成熟一點了,對兒子,對老婆。

        工作:
        其實今年年初的時候就有些彷徨,自己一手培養(yǎng)出來的SIP和原來的目標(biāo)漸行漸遠(yuǎn),7月份我在產(chǎn)品會議上提出了SIP6(第一階段最終版),功能,性能,可擴(kuò)展性都能夠滿足到明年中旬。雖然日訪問量就快突破1億,年底可能會到幾個億,但是這些數(shù)字對我來說只能證明這個架構(gòu)還可以,但是SIP原有的目標(biāo)已經(jīng)被拋棄,成為了一個內(nèi)部的服務(wù)集成平臺。
       下個階段會在做一些中心來滿足團(tuán)隊的需要,但在我看來其實這些東西對我對團(tuán)隊的價值有限,創(chuàng)新有限,但這就是工作。
        公司內(nèi)部有些變化,當(dāng)然是好是壞不得而知,不過作為我們這些level已經(jīng)處于地面的人來說也沒啥影響。

       文章:
       最近的文章素材其實不少,但是受到內(nèi)部技術(shù)專利申請,外部投稿的影響,能夠?qū)懗鰜碇苯淤N的越來越少,有時候也是這樣,分享固然好,但是有些時候有些東西只能夠小范圍分享。

       睡覺,睡覺,中午的休息是很寶貴的,一覺醒來還繼續(xù)自己的路。(走自己的路,讓自己無路可走。沒寫錯,呵呵,覺得這樣挺搞笑的)
    posted @ 2009-07-09 12:38 岑文初 閱讀(749) | 評論 (0)編輯 收藏

     

             這篇blog的問題不能算是解決,僅僅只是一種分析和猜測,后續(xù)的一些行動可能會證明一些猜想,也可能什么都解決不了。如果有和我相同情況的同學(xué),也知道是什么問題造成的,請不吝賜教。

    問題:

    上周周末,沒有和同事們出去Outing,在家管孩子,去生產(chǎn)環(huán)境觀察了一下集群機(jī)器的當(dāng)前運行狀態(tài),發(fā)現(xiàn)應(yīng)用在這些多核機(jī)器上壓力極端不均勻。

             Top一下大致狀態(tài)如下:



             峰值的時候,單CPU的使用率都到了80%,這種情況對于多核服務(wù)器來說是很不正常的使用。對于Java的開發(fā)者來說,多線程編程是無法控制線程如何在CPU上分配的,因為Java本身不實現(xiàn)線程機(jī)制,說是跨平臺的語言,但是性能及特性會根據(jù)操作系統(tǒng)的實現(xiàn)有很大的差異,因此Java調(diào)優(yōu)有時候需要對系統(tǒng)配置甚至內(nèi)核作調(diào)優(yōu)。

    分析:

             首先在測試環(huán)境下作了多次同樣的壓力測試,嘗試了與線上一樣的操作系統(tǒng)版本,相似的配置,但測試結(jié)果卻是負(fù)載分配很均勻。

       
         

             此時重新啟動了一臺問題機(jī)器,發(fā)現(xiàn)負(fù)載降下來了,同時也很均衡,也就是說在當(dāng)前的壓力下不應(yīng)該有這樣高的cpu消耗,同時也排除了硬件或者操作系統(tǒng)的一些配置問題。

             CPU滿負(fù)荷的情況下,很多時候會認(rèn)為應(yīng)該是循環(huán)造成的,對于單個CPU的消耗更是。通過Top H查看具體到底哪一個線程會長時間消耗CPU

             可以看到PID13659的線程是“罪魁禍?zhǔn)?#8221;,但13659究竟在干什么,是應(yīng)用的線程還是系統(tǒng)的線程,是否是陷入了死循環(huán),不得而知。接著就按照Java的土辦法,Kill -3 pid,然后看看輸出日志。

             根據(jù)線程號來查找dump出來的日志中nid,發(fā)現(xiàn)這個線程是VM Thread,也就是虛擬機(jī)線程。(這里作一下轉(zhuǎn)換,將13659轉(zhuǎn)換成為16進(jìn)制就是0x355b



             pstack看了一下這個線程的工作,結(jié)果如下:

    Thread 2074 (Thread 1846541216 (LWP 13659)):

    #0 0x0659fa65 in ObjectSynchronizer::deflate_idle_monitors ()

    #1 0x065606e5 in SafepointSynchronize::begin ()

    #2 0x06613e83 in VMThread::loop ()

    #3 0x06613a6f in VMThread::run ()

    #4 0x06506709 in java_start ()

    #5 0x00aae3cc in start_thread () from /lib/tls/libpthread.so.0

    #6 0x00a1896e in clone () from /lib/tls/libc.so.6

             搜索了一下ObjectSynchronizer::deflate_idle_monitors,發(fā)現(xiàn)了sunbug庫中有bug關(guān)于jdk1.6中由于這個方法導(dǎo)致運行期問題的說法:http://bugs.sun.com/bugdatabase/view_bug.do;jsessionid=803cb2d95886bffffffff9a626d3b9b28573?bug_id=6781744

             然后就直接去openjdk官方網(wǎng)站去查找這個類的代碼,大致了解一下他的作用,具體的代碼鏈接如下:http://xref.jsecurity.net/openjdk-6/langtools/db/d8b/synchronizer_8cpp-source.html
    主要工作應(yīng)該是對資源對象的回收,在加上pstack的結(jié)果,應(yīng)該大致知道是對線程資源的管理。但具體代碼就沒有進(jìn)一步分析了。

    接著就分析一下自己的應(yīng)用:

             壓力測試(高強度、長時間)都做過,沒有發(fā)現(xiàn)什么異常。

             本身應(yīng)用是否會存在的缺陷導(dǎo)致問題呢。有人說VM Thread兼顧著GC的工作,因此內(nèi)存泄露,對象長期積壓過多也可能影響,但其實在dump的結(jié)果可以看到,GC有單獨的工作線程,同時我也觀察到GC這些線程的工作時間長度,因此由于GC繁忙導(dǎo)致CPU上去,基本上來說可以排除。

             其次在SIP項目中使用了JDK的線程池(ExecutorService)LinkedBlockingQueue。后者以前的文章里面提到在1.5版本里使用poll方法會有內(nèi)存泄露,到1.6雖然沒有內(nèi)存泄露,但是臨時鎖對象增長的很快,會導(dǎo)致GC的頻度增加。

    行動:

             上面零零散散的一些分析,最終讓我決定有如下的行動:

    1.       升級某一臺服務(wù)器的JDK,當(dāng)前是1.6.0_10-b33,打算升級到1.614版本。比較觀察多臺機(jī)器的表現(xiàn),看是否升級了JDK可以解決問題。

    2.       去除LinkedBlockingQueue作為消息隊列,直接由生產(chǎn)者將生產(chǎn)結(jié)果按照算法分配給消費者線程,避免競爭,鎖的消耗,同時也防止LinkedBlockingQueue帶來的資源消耗。

    3.       測試環(huán)境繼續(xù)作長時間的壓力測試,同時可以結(jié)合Jprofile之類的工具來分析長時間后可能出現(xiàn)的問題。

    后話:

             這年頭真的啥都要學(xué)一點,求人不如求己。

    SA,DBA,測試都需要能夠去學(xué)習(xí)一些,起碼在初期排查問題上自己能夠做點啥,要不然別人也忙,自己又無從下手。就好比這次壓力測試好不容易排上隊,但是還是滿足不了及時上線的需求,因此自己去LoadRunner壓,好歹給出一個零時的報告先大家看著。應(yīng)用的異常有時候是應(yīng)用本身設(shè)計問題,也可能是開發(fā)語言的問題,也可能是操作系統(tǒng)的問題,因此要去定位這種比較復(fù)雜的問題,真的需要有耐心去好好的學(xué)習(xí)各種知識,現(xiàn)在看來知識還是匱乏啊,要不然就可以分析出openjdk中可能存在的問題。

    posted @ 2009-07-09 11:59 岑文初 閱讀(4421) | 評論 (3)編輯 收藏

     

             昨天在看Cache Client代碼的時候,發(fā)現(xiàn)在從資源池中獲取SocketIO部分代碼在高并發(fā)情況下效率不高,因此考慮通過一些變通的方式來提高效率,下面說的內(nèi)容僅僅是當(dāng)前自己琢磨出來可以部分提高效率的方法,希望看了這篇文章的同學(xué)能夠有更好的方式或者算法來提高效率。

    情景:

           Cache Client SocketIO資源池是一個兩級的Map,具體定義為:ConcurrentMap<String, ConcurrentMap<SockIO, Integer>>。第一級MapHost作為Key,第二級MapSockIO本身作為Key,三種SockIO狀態(tài)(可用,占用,廢棄)作為value。之所以采用一個Pool來存儲三種狀態(tài)主要是考慮到在高并發(fā)下,多個池之間保持原子性的復(fù)雜。

    每一次獲取可用的SocketIO的操作需要經(jīng)歷:1.遍歷Host所在的Map2.逐個比較狀態(tài)。3.原子方法獲取可用SocketIO。(并發(fā)問題所要求的,具體代碼可以下載:http://memcache-client-forjava.googlecode.com/files/alisoft-xplatform-asf-cache-2.5.1-src.jar )。

    在修改過去的版本里面,首先遍歷的過程是一個固定順序的過程(keyset),這樣會導(dǎo)致在高并發(fā)的情況下,越來越多的資源申請命中率會下降,因為壓力總是落在keyset靠前的那些SockIO上(重復(fù)比較)。需要考慮通過什么手段可以提高在高并發(fā)下的申請命中率。

    思考:

    1. 資源申請的越早,被釋放的可能性越高,因此是否可以考慮采用更新SockIO最后申請時間來作為后續(xù)申請的初步依據(jù)。(本身復(fù)雜度帶來的耗時可能會超過命中率降低帶來的損耗)

    2. 采用隨機(jī)數(shù)的方式來確定keyset的起始游標(biāo),也就不是每次都從keyset第一位開始(可以把keyset看作一個首尾相接的數(shù)組)。

    3. 在每次資源回收的時候紀(jì)錄下該資源為可用(當(dāng)前為每一個Host就記錄一個可能可用的資源,簡單化操作),作為申請的首選嘗試。(嘗試不成功在去遍歷)。

    當(dāng)前實現(xiàn)了2,3組合,發(fā)現(xiàn)效果明顯,在500個并發(fā)下,每個線程200次操作(一系列動作),壓力測試結(jié)果如下:

    Cache test consume(cache測試總共耗時)average boundle consume(每個線程總耗時),average per request(每個線程每次操作總耗時)

    沒有作任何改動以前的測試結(jié)果:

    cache test consume: 11507741, average boundle consume: 57538, average per request :115

    采用了2策略以后的測試結(jié)果:

    cache test consume: 10270512, average boundle consume: 51352, average per request :102

    采用了23策略以后的測試結(jié)果:

    cache test consume: 9140660, average boundle consume: 45703, average per request :91

    posted @ 2009-05-07 17:15 岑文初 閱讀(1959) | 評論 (0)編輯 收藏

     

           服務(wù)集成平臺5.6的性能測試進(jìn)入尾聲,這期的優(yōu)化也算告一段落。這次主要的優(yōu)化工作還是在三個方面:應(yīng)用服務(wù)器(Apache,JBoss)配置,業(yè)務(wù)流程,Cache Client包(http://code.google.com/p/memcache-client-forjava/ )。這里把過去和這次優(yōu)化對于Cache的使用作一個經(jīng)驗分享,希望大家能夠用好Cache,提速你的應(yīng)用。

           這里還是通過一些點滴的啟示來介紹優(yōu)化的一些心得,很多時候還是要根據(jù)具體情況來判斷如何去具體實施,因此這里所說的僅僅是在一些場景下適用,并非放之四海皆準(zhǔn)的教條。同時也希望看此文的各位同學(xué),如果有更好的思路可以給我反饋,技術(shù)在交流中才會有發(fā)展。

    積少成多,集腋成裘

           性能提不上去,多半是在一些容易成為瓶頸的“暗點”(IO,帶寬,連接數(shù),資源競爭等等)。Memcached Cache現(xiàn)在已經(jīng)被大家廣泛使用,但是千萬不要認(rèn)為對Cache的操作是低損耗的,要知道這類集中式CacheSocket連接數(shù)(會牽涉到linux操作系統(tǒng)文件句柄可用數(shù)),帶寬,網(wǎng)絡(luò)IO都是有要求的,有要求就意味著會有損失,因此積少成多,集腋成裘。服務(wù)集成平臺是一個高速的服務(wù)路由器,其大部分的業(yè)務(wù)數(shù)據(jù),訪問控制策略,安全策略以及對應(yīng)的一些控制閥值被緩存在Cache服務(wù)端,因此對于Cache的依賴性很強。每一次對于客戶端的性能提升,總會給服務(wù)集成平臺性能帶來不小的影響,但是每一次優(yōu)化速度后,客戶端可以優(yōu)化的空間越來越小,這時候需要一些策略來配合,提升應(yīng)用整體性能。當(dāng)前主要采用了以下幾點策略:

    1.  從數(shù)據(jù)獲取角度來做優(yōu)化,采用本地數(shù)據(jù)緩存。(因為大家的應(yīng)用需要能夠線形擴(kuò)展,支持集群,所以才不使用應(yīng)用服務(wù)器本地緩存,但是在某些緩存數(shù)據(jù)時間性不敏感或者修改幾率較小的情況下,可以采用本地緩存結(jié)合集中式緩存,減少對遠(yuǎn)端服務(wù)器訪問次數(shù),提升應(yīng)用性能)。

    Cache ClientIMemcachedCache 接口中的public Object get(String key,int localTTL)方法就是本地數(shù)據(jù)緩存結(jié)合遠(yuǎn)程Cache獲取數(shù)據(jù)的接口。具體流程參看下圖:

     

     

    2.  從數(shù)據(jù)更新角度,采用異步數(shù)據(jù)更新。(即不等待數(shù)據(jù)更新結(jié)果,直接進(jìn)行其他業(yè)務(wù)流程)。這類操作使用場景比較局限,首先數(shù)據(jù)不會用作判斷(特別是高并發(fā)系統(tǒng)中的閥值),其次不需要返回結(jié)果作為后續(xù)流程處理輸入(例如計數(shù)器),時時性要求比較低。(這類操作其實是采用了集群數(shù)據(jù)傳播的一種策略,原先對于集群中所有節(jié)點都想即時傳播到,但是這樣對于性能損失很大,因此采用key對應(yīng)的主Node采用即時設(shè)置數(shù)據(jù),其他的通過后臺任務(wù)數(shù)據(jù)傳播來實現(xiàn),由于key對應(yīng)的主Node是數(shù)據(jù)第一操作和讀取節(jié)點,因此這類數(shù)據(jù)傳播操作時時性要求較低,適合這樣處理)。具體接口參見Cache Client 使用文檔。

    3.  一次獲取,多次使用。這點和系統(tǒng)設(shè)計有關(guān),當(dāng)前服務(wù)集成平臺的安全流程是鏈狀的,一次請求會經(jīng)歷很多安全攔截器,而在每一個安全攔截器中會根據(jù)情況獲取具體的業(yè)務(wù)數(shù)據(jù)或者流程控制策略等緩存數(shù)據(jù),每一個安全攔截器都是彼此獨立的,在很早以前是每一個安全攔截器各自在需要數(shù)據(jù)的時候去遠(yuǎn)程獲取,但是壓力測試下來發(fā)現(xiàn)請求次數(shù)相當(dāng)多,而且好些重復(fù)獲取,因此將這些業(yè)務(wù)數(shù)據(jù)作為上下文在鏈?zhǔn)綑z查中傳遞,按需獲取和設(shè)置,最大程度上復(fù)用了數(shù)據(jù)。(其實也是一種減少數(shù)據(jù)獲取的方式)。

    4.  規(guī)劃好你的Cache區(qū)。有些同學(xué)在使用Cache的時候問我是否有什么需要注意的,我覺得在使用Cache之前,針對需要緩存的數(shù)據(jù)需要做好規(guī)劃。那些數(shù)據(jù)需要放在一個Cache虛擬節(jié)點上,那些數(shù)據(jù)必須分開放。一方面是根據(jù)自己業(yè)務(wù)系統(tǒng)的數(shù)據(jù)耦合程度(未來系統(tǒng)是否需要合并或者拆分),另一方面根據(jù)數(shù)據(jù)量及讀寫頻繁度來合理分配(畢竟網(wǎng)絡(luò)IO還是稀缺資源)。當(dāng)然有時候業(yè)務(wù)系統(tǒng)設(shè)計者自己也不知道未來的發(fā)展,那么最簡單的方式給Key加上前綴,當(dāng)前可以合并,未來也可以拆分。同時數(shù)據(jù)粒度也需要考慮,粒度設(shè)計太小,那么交互頻繁度就會很高,如果粒度太大,那么網(wǎng)絡(luò)流量就會很大,同時將來業(yè)務(wù)模塊拆分就會有問題。

     

     

    巧用Memcached Cache特有接口

           Memcached Cache提供了計數(shù)器一整套接口和addreplace兩個接口。這些特有接口可以很好的滿足一些應(yīng)用的高并發(fā)性處理需求。例如對于資源訪問次數(shù)控制,采用Cache的計數(shù)器接口就可以實現(xiàn)在集群中的數(shù)量控制,原本通過Cachegetput是無法解決并發(fā)問題的(就算是本地緩存一樣),這就是一組原子操作的接口。而AddReplace可以滿足無需通過get方法獲取內(nèi)容,就可以對于key是否存在的不同情況作出相應(yīng)處理,也是一種原子性操作。這些原子操作接口對于高并發(fā)系統(tǒng)在集群中的設(shè)計會很有幫助。

     

    Cache Client Cluster

           Memcached Cache是集中式Cache,它僅僅是支持將數(shù)據(jù)能夠分片分區(qū)的存儲到一臺或者多臺的Cache Server實例中,但是這些數(shù)據(jù)并沒有作冗余,因此任何一個服務(wù)實例不可用,都會導(dǎo)致部分緩存數(shù)據(jù)丟失。當(dāng)然很多人采取持久化等方式來保證數(shù)據(jù)的完整性,但是這種方式對于效率以及恢復(fù)的復(fù)雜性都會有影響。

           簡單的來想,為什么不把數(shù)據(jù)在多保存一份或者多份呢,當(dāng)其中一份不可用的情況下,就用另外一份補上。這就是最原始的Cache Client Cluster的構(gòu)想。在這里具體的設(shè)計細(xì)節(jié)就不多說了,主要說一下幾個要點,也讓使用Cache Client Cluster的同學(xué)有大致的一個了解。

           先來看看Cache Cluster的結(jié)構(gòu)圖:




           這張圖上需要注意四個角色:Application(使用Cache的應(yīng)用),Cache ClusterCache配置的虛擬集群),Cache NodeCache的虛擬節(jié)點,在同一個Cluster中的Cache Node數(shù)據(jù)保持完全一致),Cache InstanceCache虛擬節(jié)點中實際包含的Memcached Cache服務(wù)端實例)。

           應(yīng)用僅僅操作Cache Node,不了解具體數(shù)據(jù)存儲或數(shù)據(jù)獲取是操作哪一個Cache 服務(wù)端實例。(這點也就是Memcached Cache可擴(kuò)展性的基礎(chǔ)設(shè)計)。Cache Cluster又將多個Cache Node組成了虛擬的集群,通過數(shù)據(jù)冗余,保證了服務(wù)可用性和數(shù)據(jù)完整性。

     

           當(dāng)前 Cache Client Cluster主要有兩種配置模式:active standby。(這里是借鑒了硬件的名詞,其實并不完全一樣,因為還是考慮到了效率問題)

           Cache Client Cluster主要的功能點:

    1.  容錯。當(dāng)被分配到讀取或者操作數(shù)據(jù)的Cache虛擬節(jié)點不可用的情況下,集群其他節(jié)點支持代替錯誤節(jié)點服務(wù)于客戶端應(yīng)用。

    2.  數(shù)據(jù)冗余。當(dāng)操作集群中某一個Cache虛擬節(jié)點時,數(shù)據(jù)會異步傳播到其他集群節(jié)點。

    3.  軟負(fù)載。客戶端通過對操作的key作算法(當(dāng)前采用簡單的key hash再取余的方式)選擇集群中的節(jié)點,達(dá)到集群中節(jié)點簡單的負(fù)載分擔(dān)。同時也由于這種模式,可以使得key都有默認(rèn)的第一操作節(jié)點,此節(jié)點的操作保持時時更新,而其他節(jié)點可以通過客戶端異步更新來實現(xiàn)效率提升。

    4.  數(shù)據(jù)恢復(fù)。當(dāng)集群中某一節(jié)點失效后恢復(fù)時,其數(shù)據(jù)可能已經(jīng)完全丟失,此時通過配置成為Active模式可以將其他節(jié)點上冗余的數(shù)據(jù)Lazy復(fù)制到該節(jié)點(獲取一個復(fù)制一個,同時只支持一個冗余節(jié)點的數(shù)據(jù)獲取(不采取遍歷,防止低效))。

     

    Active模式擁有1,2,3,4的特性。Standby模式擁用1,2,3特性。(其實本來只考慮讓Standby擁有1特性)。未來不排除還會有更多需要的特性加入。Activekey不存在的情況下會有些低效,因為會判斷一個冗余節(jié)點是否存在內(nèi)容,然后決定是否修復(fù)當(dāng)前節(jié)點。(考慮采用短期失敗標(biāo)示之類的,不過效率不一定高,同時增加了復(fù)雜度)

     

     

    運行期動態(tài)擴(kuò)容部署

           Memcached cache客戶端算法中比較出名的是Consistent Hashing算法,其目的也就是為了在節(jié)點增加或者減少以后,通過算法盡量減小數(shù)據(jù)重新分布的代價。采用虛擬節(jié)點,環(huán)狀和二叉樹等方式可以部分降低節(jié)點增加和減少對于數(shù)據(jù)分布的影響,但是始終還是有部分?jǐn)?shù)據(jù)會失效,這點還是由于Memcached Cache是集中式Cache所決定的。

           但如果有了Cache Cluster的話,數(shù)據(jù)有了冗余,就可以通過逐步修改集群中虛擬節(jié)點配置,達(dá)到對于單個虛擬節(jié)點的配置動態(tài)擴(kuò)容。

           支持動態(tài)部署前提:

    配置文件動態(tài)加載。(配置文件可以在Classpath中,也可以是Http資源的方式)通過Cache Client Cache Manager可以停止Cache 服務(wù),重新加載配置文件,即時生效。

    當(dāng)前動態(tài)部署的兩種方式:

    1.              修改集群配置中某一套虛擬節(jié)點的服務(wù)實例配置(socketPool配置),增加或者減少后端數(shù)據(jù)存儲實例。然后動態(tài)加載新的配置文件(可以通過指定遠(yuǎn)端的http配置作為新的配置文件),通過集群的lazy的修復(fù)方式,逐漸的將數(shù)據(jù)從冗余節(jié)點復(fù)制到新的節(jié)點上來,最終實現(xiàn)數(shù)據(jù)遷移。

    2.              修改集群配置中某一套虛擬節(jié)點的服務(wù)實例配置(socketPool配置),增加或者減少后端數(shù)據(jù)存儲實例。然后動態(tài)加載新的配置文件(可以通過指定遠(yuǎn)端的http配置作為新的配置文件),在調(diào)用Cache Manager主動將數(shù)據(jù)由某一虛擬節(jié)點復(fù)制到指定的集群中,實現(xiàn)數(shù)據(jù)批量遷移,然后根據(jù)需要看是否需要修改其他幾套虛擬節(jié)點配置。

     

    存在的問題:

    1.       當(dāng)前沒有做到不停止服務(wù)來動態(tài)部署。(后續(xù)考慮實現(xiàn),當(dāng)前將編譯配置和重新啟動服務(wù)器的工作節(jié)省了)

    2.       不論是lazy復(fù)制還是批量數(shù)據(jù)遷移,都是會將原本有失效時間的數(shù)據(jù)變成了無失效時間的數(shù)據(jù)。(這個問題暫時還沒有一種可行的高效的方式解決)

     

     

    后話

           性能優(yōu)化這點事還是那句老話,需要了再去做也不遲。同時如果你開發(fā)的是一個每天服務(wù)訪問量都是上億,甚至更高的系統(tǒng),那么有時候斤斤計較會收獲不少。(當(dāng)然是不影響系統(tǒng)本身業(yè)務(wù)流程的基礎(chǔ))。

           Cache客戶端自從作為開源放在Google上也收到了不少朋友的支持和反饋,同時自己業(yè)務(wù)系統(tǒng)以及其他部門同學(xué)的使用促使我不斷的去優(yōu)化和滿足必要的一些功能擴(kuò)展(但是對于Cache來說,還是那句話,簡單就是美,高效是使用Cache的最原始的需求)。

           當(dāng)前Cache Client版本已經(jīng)到了2.5版本,在Google上有詳細(xì)的Demo(單元測試,壓力測試,集群測試)和說明使用文檔。是否速度會慢于其他Memcached客戶端,這不好說的很絕對,反正大家自己拉下去比較一下看看就知道了,當(dāng)然為了集群和其他的一些必要的附加功能還是做了一些性能犧牲。

     

    項目地址在:http://code.google.com/p/memcache-client-forjava/

    在首頁的右側(cè)有demo,doc,binary,src的鏈接,直接可以下載使用和察看。希望對需要的同學(xué)有幫助。

    posted @ 2009-04-28 23:19 岑文初 閱讀(3374) | 評論 (6)編輯 收藏

    主站蜘蛛池模板: 免费一级毛片清高播放| 在线看片免费人成视久网| 天天摸天天碰成人免费视频| 亚洲黄色免费观看| 日韩在线不卡免费视频一区| 亚洲国产精品SSS在线观看AV| 日本道免费精品一区二区| 亚洲伦理一区二区| 97视频免费观看2区| 精品亚洲成AV人在线观看| 91嫩草免费国产永久入口| 亚洲啪啪免费视频| 四虎成人免费影院网址| 国产综合成人亚洲区| 免费一级毛片在播放视频| j8又粗又长又硬又爽免费视频| 亚洲国产综合无码一区二区二三区| 视频免费1区二区三区| 久久久久久亚洲精品不卡| 大地资源中文在线观看免费版| 亚洲国语精品自产拍在线观看| 免费观看激色视频网站bd| 456亚洲人成在线播放网站| 国产成人无码a区在线观看视频免费| 免费国产va在线观看| 中文亚洲AV片不卡在线观看| 亚洲免费在线播放| 亚洲国产成人久久综合| 亚洲精品国产高清嫩草影院 | 色噜噜噜噜亚洲第一| 亚洲国产精品尤物yw在线| 美女被cao网站免费看在线看| 亚洲国产成+人+综合| 国产免费久久精品| 国产一级淫片a免费播放口| 亚洲国产av一区二区三区丶| 亚洲Av无码国产情品久久| 久9这里精品免费视频| 亚洲av无码专区在线电影天堂| 国产亚洲色婷婷久久99精品91| 猫咪免费人成网站在线观看|