<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    The important thing in life is to have a great aim , and the determination

    常用鏈接

    統計

    IT技術鏈接

    保險相關

    友情鏈接

    基金知識

    生活相關

    最新評論

    Hive分布式安裝配置Hive+Mysql

    目錄 
    1,環境準備 
    2,安裝Hive和配置環境變量 
    3,安裝MySQL 
    4,在mysql上創建hive數據庫,并對hive進行授權 
    5,安裝jar包到hive 
    6,配置hive-site.xml 
    7,元數據存儲初始化 
    8,啟動驗證hive 
    9,報錯及解決方法

    1,環境準備:

    準備好Hadoop集群,參照文章:【hadoop分布式集群的安裝教程】 
    啟動Hadoop

    # cd /opt/hadoop-2.6.4/sbin
    # start-all.sh
    • 1
    • 2
    • 1
    • 2

    2,安裝hive和配置環境變量

    # cd /opt
    # tar zxvf apache-hive-2.1.0-bin.tar.gz
    # ln -s apache-hive-2.1.0-bin hive      //創建超鏈接,方便以后版本更新
    # vim /etc/bashrc                       //配置環境變量
    export HIVE_HOME=/opt/hive
    export PATH=$PATH:$HIVE_HOME/bin
    # source /etc/bashrc                    //使之生效
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    3,安裝Mysql:

    # rpm -q mysql-server                   //檢查是否安裝mysql
    # yum install -y mysql-server           //yum安裝
    # service mysqld start                  
    # chkconfig mysqld on                   //開機啟動mysql
    • 1
    • 2
    • 3
    • 4
    • 1
    • 2
    • 3
    • 4

    4,在mysql上創建hive元數據庫,并對hive進行授權

    # mysql -uroot
    create database if not exists hive_metadata;
    grant all privileges on hive_metadata.* to 'root'@'%' identified by '123456';
    grant all privileges on hive_metadata.* to 'root'@'localhost' identified by '123456';
    grant all privileges on hive_metadata.* to 'root'@'hadoop1' identified by '123456';
    flush privileges;                       //刷盤生效
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    5,安裝jar包到hive

    # yum install -y mysql-connector-java   //安裝mysql-connector-java
    # cp /usr/share/java/mysql-connector-java-5.1.17.jar /opt/hive/lib/     
    //將mysql connector拷貝到hive的lib包中
    • 1
    • 2
    • 3
    • 1
    • 2
    • 3

    6,配置hive-site.xml

    # cd /opt/hive/conf/ 
    # cp hive-default.xml.template hive-site.xml                            
    # vim hive-site.xml
    -------------------------------------------------------------------------------------------------------------------------
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop1:3306/hive_metadata?createDatabaseIfNotExist=true </value>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>    //我這里是用root用戶操作的,要與5.1步驟授權一致。                                                  
    </property>
    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>123456</value>
    </property>
    <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
    </property>
    <property>                                                      
        <name>datanucleus.schema.autoCreateAll</name>  
        <value>true</value>  //我安裝時報錯,加上這個完美解決
        <description>creates necessary schema on a startup if one doesn't exist. set this to false, after creating it once</description>  
     </property>
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29

    7,元數據存儲初始化

    初始化hive的元數據庫(使用mysql數據庫)

    # cd /opt/hive/bin
    # schematool -initSchema -dbType mysql
    • 1
    • 2
    • 1
    • 2

    8,啟動驗證hive

    # hi
    • 1

    1

    大功告成!!!不容易啊!碰到一堆報錯,一個一個某度解決的,順便吐槽一下某度,全特么是沒用信息。 
    下面是遇到的坑及解決方法。

    補充1: 
    remote分開模式,客戶端配置文件:

    <?xml version="1.0"?>  
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
    
    <configuration>  
    
    <property>  
      <name>hive.metastore.warehouse.dir</name>  
      <value>/user/hive/warehouse</value>  
    </property>  
    
    <property>  
      <name>hive.metastore.local</name>  
      <value>false</value>  
    </property>  
    
    <property>  
      <name>hive.metastore.uris</name>  
      <value>thrift://hadoop1:9083</value>  
    </property>  
    
    </configuration>  
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    master運行hive –service metastore &起服務 
    slave運行hive驗證

    補充2: 
    Hive Thrift客戶端:

    master運行

    nohup -service hiveserver2 &
    • 1
    • 1

    slave運行

    beeline
    !connect jdbc:hive2://hadoop10000 root 123456
    • 1
    • 2
    • 1
    • 2

    這里寫圖片描述


    9,報錯及解決方法

    俗話說的好,有問題,看日志。Hive的日志默認在/tmp/root/hive.log

    報錯1: 
    剛安裝完,啟動hive時報錯: 
    2 
    經查,是Hadoop的slf4j 與Hbase的slf4j jar包發生綁定沖突,移除其中一個即可。 
    解決方法:

    # rm -rf  /opt/hive/lib/log4j-slf4j-impl-2.4.1.jar
    • 1
    • 1

    報錯2: 
    奶奶的,就說沒這么順利,剛解決1,緊接又來個錯。 
    3 
    連不上mysql庫,經查是hive-site.xml和mysql庫里授權的帳號密碼填錯了。 
    解決方法: 
    改成一樣的就好啦~

    報錯3: 
    淡定,接連3個錯,哥已經習慣了報錯,就像習慣單身一樣~。 
    4 
    網上找到的解決方法,解決之后大功告成! 
    解決方法: 
    跟蹤hive源碼得知:修改的配置的內容如下

    <property>  
        <name>datanucleus.readOnlyDatastore</name>  
        <value>false</value>  
    </property>  
    <property>   
        <name>datanucleus.fixedDatastore</name>  
        <value>false</value>   
    </property>  
    <property>   
        <name>datanucleus.autoCreateSchema</name>   
        <value>true</value>   
    </property>  
    <property>  
        <name>datanucleus.autoCreateTables</name>  
        <value>true</value>  
    </property>  
    <property>  
        <name>datanucleus.autoCreateColumns</name>  
        <value>true</value>  
    </property>  
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    或者將:

    <property>  
        <name>datanucleus.schema.autoCreateAll</name>  
        <value>false</value>  
        <description>creates necessary schema on a startup if one doesn't exist. set this to false, after creating it once</description>  
     </property>  
    • 1
    • 2
    • 3
    • 4
    • 5
    • 1
    • 2
    • 3
    • 4
    • 5

    修改為

    <property>  
        <name>datanucleus.schema.autoCreateAll</name>  
        <value>true</value>  
        <description>creates necessary schema on a startup if one doesn't exist. set this to false, after creating it once</description>  
     </property>  

    posted on 2017-07-20 15:20 鴻雁 閱讀(463) 評論(0)  編輯  收藏 所屬分類: IT技術相關

    主站蜘蛛池模板: av无码东京热亚洲男人的天堂| 国产精品亚洲一区二区三区在线 | 亚洲伊人成无码综合网| 国产高潮久久免费观看| 亚洲精品国产专区91在线| 免费无码黄网站在线观看| 手机看片国产免费永久| 国产精品高清视亚洲精品| 亚洲毛片不卡av在线播放一区| 日本高清高色视频免费| 99亚洲男女激情在线观看| 亚洲午夜福利717| 四虎成人免费网站在线| 中文字幕无码一区二区免费| 亚洲中文字幕无码爆乳| 国产亚洲精品成人AA片新蒲金| 无码免费午夜福利片在线| 国产高潮流白浆喷水免费A片 | 亚洲乱码一二三四区乱码| 亚洲人成图片小说网站| 青青青国产免费一夜七次郎| 91福利免费体验区观看区| 日韩少妇内射免费播放| 亚洲a视频在线观看| 国产AV无码专区亚洲AV男同| 国产色爽免费视频| 国产日本一线在线观看免费| 一个人免费视频观看在线www | 四虎在线视频免费观看视频| 人妻巨大乳hd免费看| 中文字幕在线观看亚洲视频| 亚洲AV日韩精品久久久久| 亚洲美女高清一区二区三区| 在线免费一区二区| 巨波霸乳在线永久免费视频| 99re6在线视频精品免费| 国产99久久亚洲综合精品| 亚洲欧美国产欧美色欲| 亚洲宅男天堂a在线| 亚洲国产精品婷婷久久| 国产亚洲精品a在线无码|