Hadoop是個很流行的分布式計算解決方案,Hive是基于hadoop的數(shù)據(jù)分析工具。一般來說我們對Hive的操作都是通過cli來進行,也就是Linux的控制臺,但是,這樣做本質(zhì)上是每個連接都存放一個元數(shù)據(jù),各個之間都不相同,這樣的模式用來做一些測試比較合適,并不適合做產(chǎn)品的開發(fā)和應用。
因此,就產(chǎn)生Hive的JDBC連接的方式。
1. 步驟
1.1 拷貝jar包到FR工程
將hadoop里的hadoop-core.jar、commons-logging.jar拷貝至報表工程appname/WEB-INF/lib下;
將hive里的antlr-runtime.jar、hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、jdo2-api.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷貝至報表工程appname/WEB-INF/lib下。
1.2 配置數(shù)據(jù)連接
啟動設計器,打開服務器>定義數(shù)據(jù)連接,新建JDBC連接:
數(shù)據(jù)庫驅(qū)動:org.apache.hadoop.hive.jdbc.HiveDriver;
URL:jdbc:hive://localhost:10000/default
注:hive服務默認端口為10000,根據(jù)實際情況修改端口;另外目前只支持默認數(shù)據(jù)庫名default。
測試連接,提示連接成功即可。
