<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    posts - 110, comments - 101, trackbacks - 0, articles - 7
      BlogJava :: 首頁 :: 新隨筆 :: 聯系 :: 聚合  :: 管理
    最近使用sqoop把數據從oracle導入到hbase 遇到各種問題 耗了很多時間
    遇到的異常在網上也沒找到過先例 可能有朋友也遇到了這樣的問題
    整理一下 留在這里 歡迎拍磚 看到的朋友 如果有更好的方法 可以回復 一起學習
    使用sqoop 導mysql的數據時 一切順利很方便 
    導oracle的時候 問題就來了
    --query命令: 使用這個命令的時候 需要注意的是 where后面的參數,$CONDITIONS 這個參數必須加上
    而且存在單引號與雙引號的區別,如果--query后面使用的是雙引號 那么需要在$CONDITIONS\ \$CONDITIONS

    ./sqoop import --connect jdbc:oracle:thin:@192.168.8.130:1521:dcshdev --username User_data2 --password yhdtest123qa --query "select * from so_ext t where \$CONDITIONS " -m 4 --hbase-create-table --hbase-table hso --column-family so --hbase-row-key id --split-by id

    如果使用--columns指令來指定字段 也出現了問題
    因為在一行中寫太多命令是不可能的,--columns 如果字段太多在命令中寫也不方便
    所以使用shell腳本要方便的多
    那么在腳本中換行使用 \  來換行

    有個問題就是 使用--columns 指定的字段大小寫要注意 得使用小寫。
    如果使用大寫 導數據不會有異常 會成功的,hbase中表也會創建好,但是scan的時候 你會發現沒有數據 這個蛋疼吧
    --columns id,order_id,order_code
    而且每個字段之間用逗號分隔,但是不能有空格,在sqoop中沒有處理空格,如果在這個命令后的參數有空格的話
    就不能和oracle表中的字段對應上了 結果雖然沒有錯誤能夠顯示成功導入多了條數據,但是scan的時候 會是0條數據

    關于導mysql和oracle的時候 還有個區別:
    導mysql表的數據時 不需要指定太多的命令就可以成功導入,但是oracle就需要很多命令 ,如--split-by 這個切分參數
    在導mysql的時候 就不需要 ,但是如果在導oracle的時候 不加上就會出錯了 不信你試試






    評論

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2012-11-15 16:58 by 風雨無語
    我使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2013-05-15 18:29 by 趙坤
    我也是使用sqoop從oracle導入數據到hbase中,表創建了,但是沒有數據,沒報錯,是什么原因

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-04-22 13:38 by jacos
    Will not attempt to authenticate using SASL (unknown error)

    "main" java.lang.IncompatibleClassChangeError: Found interface org.apache.hadoop.mapreduce.JobContext, but class was expected
    at org.apache.sqoop.mapreduce.DelegatingOutputFormat.checkOutputSpecs(DelegatingOutputFormat.java:63)
    at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:456)

    這2個異常
    我的報這個錯誤。查詢mysql上的數據可以查詢出來,導入的時候就不行。

    # re: sqoop mysql\oracle數據導入到hbase 各種異常解決 --columns指定字段 細節注意  回復  更多評論   

    2014-07-02 15:53 by Hartwell
    @jacos
    你這個問題解決了嗎?
    我導入mysql的時候,也是報這個異常

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 国产AV无码专区亚洲AV毛网站 | 国产一区二区三区免费看| 亚洲精品国产免费| 久久精品成人免费看| 亚洲国产精品免费视频| 一级毛片免费不卡在线| 亚洲日本在线看片| 成人午夜免费福利视频| 亚洲午夜电影在线观看| 老司机在线免费视频| 亚洲色成人四虎在线观看| 成人毛片18女人毛片免费| 激情小说亚洲图片| 亚洲午夜精品第一区二区8050| 一级毛片正片免费视频手机看| 亚洲精品国产福利一二区| 成人片黄网站色大片免费观看cn | 全免费a级毛片免费看无码| 亚洲av无一区二区三区| 亚洲国产婷婷综合在线精品| 成人av片无码免费天天看| 亚洲AV人无码综合在线观看| 91网站免费观看| 亚洲av无码专区在线电影| 久久亚洲AV永久无码精品| 人妻无码久久一区二区三区免费| 亚洲成a人片毛片在线| 免费看大黄高清网站视频在线| 杨幂最新免费特级毛片| 亚洲视频2020| 成在线人永久免费视频播放 | 久久嫩草影院免费看夜色| 亚洲美女视频一区二区三区| 全免费a级毛片免费看不卡| a毛片成人免费全部播放| 亚洲福利视频网址| 吃奶摸下高潮60分钟免费视频| 久久精品乱子伦免费| 亚洲色无码专区一区| 亚洲乱码国产一区三区| 免费a级毛片无码a∨蜜芽试看|