CDH6.3.2升级Hive到4.0.0

升级目的:为上层开发,提供统一元数据服务并能经过hive操做kudu表,kylin能够经过hive对在kudu中的数据作分析

面临问题:hive4.0以前hive没有KuduStorageHandler机制,须要hive和kudu整合功能而升级,可是github上官方开源的代码看该模块代码没完成。因此须要本身提供实现或等官方发布,为了知足当下需求,羚羊选择了本身实现

一、备份原元数据
mysqldump -uroot  -pxxxxxx metastore > ./metastore.sql
二、解压备好的hive安装包
cd /opt/cloudera
tar -xvf apache-hive-4.0.0-SNAPSHOT-bin.tar.gz

 

三、原hive安装目录下建立lib400目录
cd /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive
mkdir lib400

 四、拷贝hive新版本lib到lib400目录下(只替换hive开头的jar包,其余jar包不要替换,其中hive-exec-2.1.1-cdh6.3.2.jar不要换)
cp -r /opt/cloudera/apache-hive-4.0.0-SNAPSHOT-bin/lib/* /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive/lib400
五、CM中停掉hive,及hive相关的服务

六、 修改hive启动文件,调用lib400的jar包
vim /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive/bin/hive
/HIVE_LIB

同步lib和hive脚本文件到全部节点 

scp -P41121 -r lib400/ hadoop@10.111.15.164:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive/
scp -P41121 -r hive hadoop@10.111.15.164:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hive/bin
七、各节点建立软连接
ln -s /opt/cloudera/parcels/CDH/lib/hive/lib400/jline-2.14.6.jar /opt/cloudera/parcels/CDH/lib/hadoop-yarn/lib/jline-2.12.jar

  升级元数据库 metastore到hive4.0.0mysql

source /data/metastore-backup/mysql/upgrade-2.1.0-to-2.2.0.mysql.sql
source /data/metastore-backup/mysql/upgrade-2.2.0-to-2.3.0.mysql.sql
source /data/metastore-backup/mysql/upgrade-2.3.0-to-3.0.0.mysql.sql
source /data/metastore-backup/mysql/upgrade-3.0.0-to-3.1.0.mysql.sql
source /data/metastore-backup/mysql/upgrade-3.1.0-to-3.2.0.mysql.sql
source /data/metastore-backup/mysql/upgrade-3.2.0-to-4.0.0.mysql.sql
七、CM中再启动hive
八、查看hive版本
hive -version

须要源码的朋友能够私信git