<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    沉睡森林@漂在北京

    本處文章除注明“轉載”外均為原創,轉載請注明出處。

      BlogJava :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理 ::
      152 隨筆 :: 4 文章 :: 114 評論 :: 0 Trackbacks
    #準備工作
    準備3臺機器,建立相同的用戶名和密碼,如:root/jiexi_test
    分別如下:
    10.2.112.31 #namenode
    10.2.112.30 #datanode
    10.2.112.34 #datanode

    重點:
    1、使用ssh-keygen生成id_rsa.pub文件,使3臺機器可以相互ssh而不需要輸入密碼。
    2、關閉掉防火墻。

    參照文章:
    http://qinlong.blog.51cto.com/1130504/323086  設置ssh-keygen


    ========================================================
    cd /opt
    wget http://ftp.meisei-u.ac.jp/mirror/apache/dist/hadoop/common/hadoop-1.0.2/hadoop-1.0.2.tar.gz

    tar -zxvf hadoop-1.0.2.tar.gz

    cd /opt/hadoop-1.0.2/conf

    vim  hadoop-env.sh

    #加入
    export JAVA_HOME=/opt/j2sdk


    vim hadoop-site.xml

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <!-- Put site-specific property overrides in this file. -->

    <configuration>
            <property>
                    <name>fs.default.name</name>
                    <value>hdfs://10.2.112.31:9110</value>
                    <description>The name of the default file system. Either the literal string "local" or a host:port for DFS.</description>
            </property>

            <property>
                    <name>mapred.job.tracker</name>
                    <value>hdfs://10.2.112.31:9111</value>
                    <description>The host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map and reduce task.</description>
            </property>

            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/opt/hadoop/tmp</value>
                    <description>A base for other temporary directories.</description>
            </property>

            <property>
                    <name>dfs.name.dir</name>
                    <value>/opt/hadoop/filesystem/name</value>
                    <description>Determines where on the local filesystem the DFS name node should store the name table. If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description>
            </property>

            <property>
                    <name>dfs.data.dir</name>
                    <value>/opt/hadoop/filesystem/data</value>
                    <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored.</description>
            </property>

            <property>
                    <name>dfs.replication</name>
                    <value>1</value>
                    <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.</description>
            </property>


    </configuration>

    vim masters
    #加入namenode
    10.2.112.31

    vim slaves
    #加入datanode
    10.2.112.30
    10.2.112.34

    scp -r /opt/hadoop-1.0.2 root@10.2.112.30:/opt/
    scp -r /opt/hadoop-1.0.2 root@10.2.112.34:/opt/ 


    ln -s /opt/hadoop-1.0.2 /opt/hadoop

    =======================================================
    #在namenode上啟動
    cd /opt/hadoop

    ./bin/hadoop namenode -format
    ./bin/start-all.sh


    #查看是否ok?

    http://10.2.112.31:50030  #查看jobs 
    http://10.2.112.3*:50075  #查看hdfs文件

    #在namenode上檢查運行狀況
    ./bin/hadoop dfsadmin -report 

    Configured Capacity: 301634404352 (280.92 GB)
    Present Capacity: 228165107712 (212.5 GB)
    DFS Remaining: 227872616448 (212.22 GB)
    DFS Used: 292491264 (278.94 MB)
    DFS Used%: 0.13%
    Under replicated blocks: 1
    Blocks with corrupt replicas: 0
    Missing blocks: 0

    -------------------------------------------------
    Datanodes available: 2 (2 total, 0 dead)

    Name: 10.2.112.30:50010
    Decommission Status : Normal
    Configured Capacity: 150817202176 (140.46 GB)
    DFS Used: 142901248 (136.28 MB)
    Non DFS Used: 36415545344 (33.91 GB)
    DFS Remaining: 114258755584(106.41 GB)
    DFS Used%: 0.09%
    DFS Remaining%: 75.76%
    Last contact: Wed Apr 11 19:26:10 CST 2012


    Name: 10.2.112.34:50010
    Decommission Status : Normal
    Configured Capacity: 150817202176 (140.46 GB)
    DFS Used: 149590016 (142.66 MB)
    Non DFS Used: 37053751296 (34.51 GB)
    DFS Remaining: 113613860864(105.81 GB)
    DFS Used%: 0.1%
    DFS Remaining%: 75.33%
    Last contact: Wed Apr 11 19:26:11 CST 2012


    提示2個datanode,包括使用情況。




     
    posted on 2012-04-11 19:14 王總兵 閱讀(478) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 亚洲人成在线影院| 亚洲一区二区女搞男| 亚洲欧洲国产成人精品| 久9这里精品免费视频| 亚洲AV无码日韩AV无码导航| a级毛片毛片免费观看久潮喷| 在线亚洲精品自拍| 两个人的视频www免费| 亚洲人成影院在线无码按摩店| 男女一进一出抽搐免费视频 | 羞羞网站在线免费观看| 又爽又高潮的BB视频免费看| 日韩精品亚洲专区在线影视| jjzz亚洲亚洲女人| 99精品免费视频| 亚洲最大的视频网站| 日韩毛片免费无码无毒视频观看| 97se亚洲国产综合自在线| 成人免费毛片观看| 免费人成视频在线播放| 亚洲精品无码mv在线观看网站| 日韩精品免费视频| 亚洲中文字幕乱码一区| 亚洲国产人成中文幕一级二级| 国产拍拍拍无码视频免费| 亚洲最大成人网色| 嫩草影院在线免费观看| 国产特黄一级一片免费| 亚洲国产精品乱码在线观看97| 日本免费高清一本视频| 中文字幕在线视频免费观看| 亚洲精品日韩中文字幕久久久| 国产精品色午夜免费视频| 成年免费a级毛片免费看无码| 亚洲视频一区在线| 女人18毛片水真多免费播放| 一级做a爰片久久毛片免费看 | 亚洲熟妇AV一区二区三区浪潮| 亚洲乱码无人区卡1卡2卡3| 亚洲一区二区三区免费在线观看 | 免费在线看黄的网站|