<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    沉睡森林@漂在北京

    本處文章除注明“轉載”外均為原創,轉載請注明出處。

      BlogJava :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理 ::
      152 隨筆 :: 4 文章 :: 114 評論 :: 0 Trackbacks
    #準備工作
    準備3臺機器,建立相同的用戶名和密碼,如:root/jiexi_test
    分別如下:
    10.2.112.31 #namenode
    10.2.112.30 #datanode
    10.2.112.34 #datanode

    重點:
    1、使用ssh-keygen生成id_rsa.pub文件,使3臺機器可以相互ssh而不需要輸入密碼。
    2、關閉掉防火墻。

    參照文章:
    http://qinlong.blog.51cto.com/1130504/323086  設置ssh-keygen


    ========================================================
    cd /opt
    wget http://ftp.meisei-u.ac.jp/mirror/apache/dist/hadoop/common/hadoop-1.0.2/hadoop-1.0.2.tar.gz

    tar -zxvf hadoop-1.0.2.tar.gz

    cd /opt/hadoop-1.0.2/conf

    vim  hadoop-env.sh

    #加入
    export JAVA_HOME=/opt/j2sdk


    vim hadoop-site.xml

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <!-- Put site-specific property overrides in this file. -->

    <configuration>
            <property>
                    <name>fs.default.name</name>
                    <value>hdfs://10.2.112.31:9110</value>
                    <description>The name of the default file system. Either the literal string "local" or a host:port for DFS.</description>
            </property>

            <property>
                    <name>mapred.job.tracker</name>
                    <value>hdfs://10.2.112.31:9111</value>
                    <description>The host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map and reduce task.</description>
            </property>

            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/opt/hadoop/tmp</value>
                    <description>A base for other temporary directories.</description>
            </property>

            <property>
                    <name>dfs.name.dir</name>
                    <value>/opt/hadoop/filesystem/name</value>
                    <description>Determines where on the local filesystem the DFS name node should store the name table. If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description>
            </property>

            <property>
                    <name>dfs.data.dir</name>
                    <value>/opt/hadoop/filesystem/data</value>
                    <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored.</description>
            </property>

            <property>
                    <name>dfs.replication</name>
                    <value>1</value>
                    <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.</description>
            </property>


    </configuration>

    vim masters
    #加入namenode
    10.2.112.31

    vim slaves
    #加入datanode
    10.2.112.30
    10.2.112.34

    scp -r /opt/hadoop-1.0.2 root@10.2.112.30:/opt/
    scp -r /opt/hadoop-1.0.2 root@10.2.112.34:/opt/ 


    ln -s /opt/hadoop-1.0.2 /opt/hadoop

    =======================================================
    #在namenode上啟動
    cd /opt/hadoop

    ./bin/hadoop namenode -format
    ./bin/start-all.sh


    #查看是否ok?

    http://10.2.112.31:50030  #查看jobs 
    http://10.2.112.3*:50075  #查看hdfs文件

    #在namenode上檢查運行狀況
    ./bin/hadoop dfsadmin -report 

    Configured Capacity: 301634404352 (280.92 GB)
    Present Capacity: 228165107712 (212.5 GB)
    DFS Remaining: 227872616448 (212.22 GB)
    DFS Used: 292491264 (278.94 MB)
    DFS Used%: 0.13%
    Under replicated blocks: 1
    Blocks with corrupt replicas: 0
    Missing blocks: 0

    -------------------------------------------------
    Datanodes available: 2 (2 total, 0 dead)

    Name: 10.2.112.30:50010
    Decommission Status : Normal
    Configured Capacity: 150817202176 (140.46 GB)
    DFS Used: 142901248 (136.28 MB)
    Non DFS Used: 36415545344 (33.91 GB)
    DFS Remaining: 114258755584(106.41 GB)
    DFS Used%: 0.09%
    DFS Remaining%: 75.76%
    Last contact: Wed Apr 11 19:26:10 CST 2012


    Name: 10.2.112.34:50010
    Decommission Status : Normal
    Configured Capacity: 150817202176 (140.46 GB)
    DFS Used: 149590016 (142.66 MB)
    Non DFS Used: 37053751296 (34.51 GB)
    DFS Remaining: 113613860864(105.81 GB)
    DFS Used%: 0.1%
    DFS Remaining%: 75.33%
    Last contact: Wed Apr 11 19:26:11 CST 2012


    提示2個datanode,包括使用情況。




     
    posted on 2012-04-11 19:14 王總兵 閱讀(478) 評論(0)  編輯  收藏

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 中文字幕亚洲免费无线观看日本| 国产成人亚洲综合无码精品| 精品日韩99亚洲的在线发布 | 久久永久免费人妻精品下载 | 精品人妻系列无码人妻免费视频| 国产传媒在线观看视频免费观看| 亚洲av无码成人影院一区| 成熟女人牲交片免费观看视频| 国产精品亚洲自在线播放页码| 无码 免费 国产在线观看91| 亚洲精品97久久中文字幕无码| 豆国产96在线|亚洲| 亚洲国产成人久久笫一页| 四虎成人精品国产永久免费无码| 亚洲综合色视频在线观看| 国产一级婬片A视频免费观看| 亚洲成在人天堂一区二区| 97视频免费在线| 亚洲国产精品无码久久98| 亚洲国产高清在线一区二区三区| 一个人看的www免费在线视频| 亚洲精品无码鲁网中文电影| 日韩成人精品日本亚洲| 久久亚洲av无码精品浪潮| a毛片全部免费播放| 亚洲精品无码激情AV| a级男女仿爱免费视频| 亚洲国产综合自在线另类| 免费特级黄毛片在线成人观看 | 久久精品国产亚洲av天美18| 亚洲伊人久久综合影院| 一级毛片免费观看不卡视频| 色偷偷女男人的天堂亚洲网 | 久久久久久精品免费看SSS | 国产aⅴ无码专区亚洲av麻豆| 久久免费视频精品| 亚洲精品自产拍在线观看| 91av免费观看| 美女无遮挡免费视频网站| 亚洲最大的成网4438| 日本免费福利视频|