hive-0.11.0出来后,得知有将row_number进行封装,对于我这等不懂java的人士来说,是莫大的幸福啊!毫不犹豫的将0.8.0抛弃了!下面是具体升级步骤:1,关闭当前hive正在执行的进程,service hive-server以及相应的客户端。2,不管做哪方面的升级,首先肯定是将当前的进行备份备份 hive-0.8.0mv hive-0.8.0 hive-0.8.0_bak备份元数据库(mysql的)mysqldump -h ip -P port -uusername -ppassword DB >hive-0.8.0.sql3,将下载好的hive-0.11.0.tar解压到相应的目录(/opt这个是我的目录)4,修改环境变量$HIVE_HOME5,进入/opt/hive-0.11.0/scripts/metastore/upgrade/ 可以看到这个版本多了Oracle与postgres的支持,我们果断选择自已用到的mysql6,进入mysql后,可以看到以下几个文件upgrade-0.5.0-to-0.6.0.mysql.sql
upgrade-0.6.0-to-0.7.0.mysql.sql
upgrade-0.7.0-to-0.8.0.mysql.sql
upgrade-0.8.0-to-0.9.0.mysql.sql
upgrade-0.9.0-to-0.10.0.mysql.sql因为我们已经是0.8.0的版本了,所以只需执行最后两个文件就okmysql -h ip -P port -uusername -ppassword DB < upgrade-0.8.0-to-0.9.0.mysql.sql如果有报错就自己再手动执行一次,如果没有也建议执行后备份一下。执行完后再执行upgrade-0.9.0-to-0.10.0.mysql.sql备注:因为我执行的时候是没有报错,有朋友说如果这里没有操作好,很有可能会导致无法操作之前数据,所以慎重。具体报错信息:
Failed with exception null FAILED: Execution Error, return code 1 from org.apache.Hadoop.hive.ql.exec.DDLTask7,将mysql的驱动拷贝到lib目录下。8,将之前旧版本配置好的hive-site.xml,hive-env.xml与hive-log4j.properties放回现在版本的conf下。9,升级完成。可以进行hive操作了。记得将原来停掉的server再重新开启
Hive 的详细介绍:请点这里
Hive 的下载地址:请点这里
相关阅读:基于Hadoop集群的Hive安装 http://www.linuxidc.com/Linux/2013-07/87952.htmHive内表和外表的区别 http://www.linuxidc.com/Linux/2013-07/87313.htmHadoop + Hive + Map +reduce 集群安装部署 http://www.linuxidc.com/Linux/2013-07/86959.htmHive本地独立模式安装 http://www.linuxidc.com/Linux/2013-06/86104.htmHive学习之WordCount单词统计 http://www.linuxidc.com/Linux/2013-04/82874.htmOracle DB 隐式和显式数据类型转换处理Hive中;分号字符相关资讯 Hive
- Hive 简明教程 PDF (今 09:40)
- Apache Hive v2.1.0-rc1 发布下载 (06月04日)
- 在 Apache Hive 中轻松生存的12个 (04月07日)
| - Apache Hive v2.1.0 发布下载 (06月22日)
- SparkSQL读取Hive中的数据 (05月20日)
- Apache Hive 2.0.0 发布下载,数据 (02月17日)
|
本文评论 查看全部评论 (0)