<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    paulwong

    Hadoop管理員的十個最佳實踐(轉)

    前言
    接觸Hadoop有兩年的時間了,期間遇到很多的問題,既有經典的NameNode和JobTracker內存溢出故障,也有HDFS存儲小文件問題,既有任務調度問題,也有MapReduce性能問題.遇到的這些問題有些是Hadoop自身的缺陷(短板),有些則是使用的不當。


    在解決問題的過程中,有時需要翻源碼,有時會向同事、網友請教,遇到復雜問題則會通過mail list向全球各地Hadoop使用者,包括Hadoop Committer(Hadoop開發者)求助。在獲得很多人幫助后,自己將遇到問題和心得整理成文,希望本文可以對那些焦頭爛額的Hadoop新手們有所幫助,少走筆者的彎路。
    PS. 本文基于 Cloudera CDH 3u4(同Apache Hadoop 1.0)編寫。相關推薦配置為官方推薦值或者筆者經驗數值,它不是絕對的,可能會因為不同的應用場景和硬件環境有所出入。

    1. 選擇Cloudera CDH部署你的Cluster

    動機
    大多數管理員都是從Apache Hadoop開始學習。筆者最開始也使用Apache版本Hadoop進行開發和部署工作,但接觸到Cloudera CDH后,我發現它可以使管理員的工作更簡單,不僅可以獲得最新的特性和Bug修復,有時也會帶來令人驚喜的性能改善。
    CDH為什么更好?筆者羅列了以下幾點:
    CDH基于穩定版Apache Hadoop,并應用了最新Bug修復或者Feature的Patch。Cloudera常年堅持季度發行Update版本,年度發行Release版本,更新速度比Apache官方快,而且在實際使用過程中CDH表現無比穩定,并沒有引入新的問題。
    Cloudera官方網站上安裝、升級文檔詳細,省去Google時間。
    CDH支持Yum/Apt包,Tar包,RPM包,Cloudera Manager四種方式安裝,總有一款適合您。官方網站推薦Yum/Apt方式安裝,筆者體會其好處如下:   聯網安裝、升級,非常方便。當然你也可以下載rpm包到本地,使用Local Yum方式安裝。
    自動下載依賴軟件包,比如要安裝Hive,則會級聯下載、安裝Hadoop。
    Hadoop生態系統包自動匹配,不需要你尋找與當前Hadoop匹配的Hbase,Flume,Hive等軟件,Yum/Apt會根據當前安裝Hadoop版本自動尋找匹配版本的軟件包,并保證兼容性。
    自動創建相關目錄并軟鏈到合適的地方(如conf和logs等目錄);自動創建hdfs, mapred用戶,hdfs用戶是HDFS的最高權限用戶,mapred用戶則負責mapreduce執行過程中相關目錄的權限。

    推薦指數:★★★
    推薦理由:獲取最新特性和最新Bug修復;安裝維護方便,節省運維時間。

    2. Hadoop集群配置與管理
    安裝和維護Hadoop集群涉及大量的管理工作,包括軟件安裝,設備管理(crontab、iptables等)、配置分發等。
    對于小型集群軟件分發和節點管理可以使用PDSH這款軟件,它可以通過免密鑰的SSH將文件分發到目標服務器,以及為一組目標設備發送命令并獲得反饋。如果是大型集群或者硬件配置差別很大的集群,推薦使用puppet這樣的工具幫助你維護配置文件,或者通過Cloudera Manager以GUI的方式的管理集群(注意:Clodera Manager不是開源軟件,免費版最多支持50個節點)。
    推薦指數:★★★
    推薦理由:提高運維效率

    3. 開啟SecondaryNameNode
    SecondaryNameNode(下稱SNN)的主要功能是工作是幫助NameNode(下稱NN)合并編輯日志,然后將合并后的鏡像文件copy回NN,以減少NN重啟時合并編輯日志所需的時間。SNN不是NN的熱備,但是通過以下步驟可以實現將SNN切換為NN的目的。首先,SNN節點上導入從NN Copy過來的鏡像文件,然后修改SNN機器名和IP與NN一致,最后重啟集群。
    特別注意的是SNN的內存配置要與NN一致,因為合并編輯日志的工作需要將metadata加載到內存完成。另外,不僅僅是SNN,任何保存NN鏡像的節點都可以通過上面步驟變為NN,只是SNN更適合罷了。
    推薦指數:★★★
    推薦理由:減少NN重啟導致集群服務中斷時間;NN節點故障后,SNN充當NN角色

    4. 使用Ganglia和Nagios監控你的集群
    當運行一個大型mapreduce 作業時,我們通常非常關心該作業對TaskTracker(下稱TT)CPU、內存、磁盤,以及整個網絡的帶寬情況,這時候就需要Ganglia這個工具為我們生成相關圖表來診斷、分析問題。
    Ganglia可以監控集群狀態,但當你的服務器down機或者某個TT掛掉,它卻無法通知到你,這時我們可以使用Nagios這款告警軟件,它可以配置郵件告警和短息告警。通過編寫plugins,可以實現自己的監控功能。我們的集群目前做了如下監控:
    NameNode、JobTracker內存
    DataNode和TaskTracker運行狀態
    NFS服務狀態
    磁盤使用情況
    服務器負載狀態
    推薦指數:★★★
    推薦理由:Ganglia可以幫你記錄集群狀態,方便診斷問題;Nagios可以再遇到問題時第一時間通知你。

    5. 設置好內存至關重要
    Hadoop集群安裝完畢后,第一件事就是修改bin/hadoop-evn.sh文件設置內存。主流節點內存配置為32GB,典型場景內存設置如下
    NN: 15-25 GB JT:2-4GB DN:1-4 GB TT:1-2 GB,Child VM 1-2 GB 集群的使用場景不同相關設置也有不同,如果集群有大量小文件,則要求NN內存至少要20GB,DN內存至少2GB。
    推薦指數:★★★★★
    推薦理由:幾個組件中NN對內存最為敏感,它有單點問題,直接影響到集群的可用性;JT同樣是單點,如果JT內存溢出則所有MapReduce Job都無法正常執行。

    6. 管理員玩轉MapReduce
    Hadoop原生MapReduce需要Java語言編寫,但是不會Java也沒問題,通過Hadoop streaming框架管理員可以使用Python,Shell,Perl等語言進行MapReduce開發,但更簡單的辦法是安裝和使用Hive或者Pig。
    推薦指數:★★★
    推薦理由:減少運維時間,快速響應各種ad-hot需求和故障診斷。

    7. NameNode HA
    前面已經說過,NN是整個集群可能出現的單點故障。
    Hadoop通過在hdfs.site.xml文件的dfs.name.dir屬性指定保持的metadata路徑,如果希望保持到多個路徑,可以使用逗號分割配置多個路徑。
    dfs.name.dir /data/cache1/dfs/nn,/data/cache2/dfs/nn Hadoop官方推薦配置為metadata配置多個path,其中包含一個NFS的路徑。但根據筆者一次集群嚴重故障經驗,即使這樣,還是導致了所有鏡像文件損壞,包括SNN上的鏡像文件,所以定期備份一個可用的副本還是很有必要的。
    推薦指數:★★★★★
    推薦理由:Cloudera3uX和Apache1.0的NN單點問題是大家最頭痛問題之一,多些準備,少許痛苦。

    8. 使用firewall阻止壞人進入
    Hadoop的安全控制非常簡單,只包含簡單的權限,即只根據客戶端用戶名,決定使用權限。它的設計原則是:“避免好人做錯事,但不阻止壞人做壞事”。
    如果你知道某臺NN的IP和端口,則可以很輕松獲取HDFS目錄結構,并通過修改本機機器用戶名偽裝成HDFS文件所屬owner,對該文件進行刪除操作。
    通過配置kerberos,可以實現身份驗證。但很多管理員使用更簡單有效的辦法——通過防火墻對訪問IP進行控制。
    推薦指數:★★★★★
    推薦理由:安全無小事,防范于未然。

    9. 開啟垃圾箱(trash)功能

    動機
    我曾經犯下一個錯誤,在我加班非常累,大腦稍有混亂的時候,不小心刪除執行了一個命令“hadoop fs -rmr /xxx/xxx”,沒有刪除提示,幾TB的數據,一下子就沒有了。簡直讓我崩潰,后悔莫及。這時你多希望有個時間機器可以讓HDFS恢復到刪除前的狀態。
    trash功能就是這個時間機器, 它默認是關閉的,開啟后,被你刪除的數據將會mv到操作用戶目錄的".Trash"文件夾,可以配置超過多長時間,系統自動刪除過期數據。這樣一來,當操作失誤的時候,可以把數據mv回來。開啟垃圾箱步驟如下:
    vi core-site.xml ,添加下面配置,value單位為分鐘。
    fs.trash.interval 1440 筆者 在CDH3u4下不用重啟Namenode就可以生效。開啟垃圾箱后,如果希望文件直接被刪除,可以在使用刪除命令時添加“–skipTrash” 參數,如下:
    hadoop fs –rm –skipTrash /xxxx推薦指數:★★★★★
    推薦理由:想要時間機器嗎?

    10. 去社區尋找幫助
    Hadoop是一個非常優秀的開源項目,但它仍存有很多尚未解決的問題,諸如,NN,JT單點問題,JT掛死問題,Block在小文件下匯報效率低下等問題。此時可以通過如下渠道找到可以幫助你的人,筆者幾次集群嚴重故障都是通過Cloudera公司的google user group直接獲得幾位 committer的幫助。通常前一天提問,第二天就會有反饋。下面是兩個能夠幫助的你的社區,當然你也可以幫助其他人:
    Apache hadoop的mail list :
    http://hadoop.apache.org/mailing_lists.html
    Cloudera CDH google group:
    https://groups.google.com/a/cloudera.org/forum/#!forum/cdh-user
    推薦指數:★★★★★
    推薦理由:沒有人比軟件作者更熟悉Hadoop本身,去社區求助,幫你解決很多自己無法跨越的問題。

    Cloudera簡介:
    公司是一家Hadoop軟件服務公司,提供免費軟件CDH和Cloudera Manager Free Edition,同時提供Hadoop相關資訊、培訓、技術支持等服務。Hadoop創始人Dong Cutting在該公司任架構師,同時該公司擁有多名Apache Committer。

    posted on 2012-09-18 22:10 paulwong 閱讀(346) 評論(0)  編輯  收藏 所屬分類: HADOOP云計算

    主站蜘蛛池模板: 国产亚洲成在线播放va| 免费v片在线观看视频网站| 久久99久久成人免费播放| 99久久国产精品免费一区二区 | 久久受www免费人成_看片中文| 成人激情免费视频| 亚洲无码在线播放| 国产亚洲福利在线视频| 在线视频网址免费播放| 99re免费视频| 亚洲成a人片在线观看国产| 亚洲一区二区在线免费观看| 亚洲成熟丰满熟妇高潮XXXXX| 两个人看的www免费视频| 免费精品人在线二线三线区别| 国产精品亚洲综合一区| 久久精品国产亚洲av天美18| 95老司机免费福利| 亚洲精品国精品久久99热一| 日韩色视频一区二区三区亚洲| 国产人成免费视频网站| 亚洲av无码国产精品色午夜字幕 | 亚洲av片在线观看| 希望影院高清免费观看视频| 亚洲日本中文字幕区| 国产在线观看免费av站| 久久久久亚洲精品天堂久久久久久| 亚洲AV无码资源在线观看| 99在线精品视频观看免费| 久久亚洲春色中文字幕久久久| 91精品全国免费观看青青| 亚洲乱码中文字幕综合| 国产久爱免费精品视频| 亚洲日韩欧洲无码av夜夜摸| a一级爱做片免费| 综合久久久久久中文字幕亚洲国产国产综合一区首 | 亚洲xxxx视频| 亚洲av麻豆aⅴ无码电影| 免费夜色污私人影院网站电影| 亚洲精品成人片在线观看| 国产啪精品视频网站免费尤物|