我的编程空间,编程开发者的网络收藏夹
学习永远不晚

hive-1.1.0-cdh5.7.0如何编译

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

hive-1.1.0-cdh5.7.0如何编译

这篇文章给大家分享的是有关hive-1.1.0-cdh5.7.0如何编译的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

环境说明:
        1、VM10虚拟机
        2、系统:centos6.5
        3、Hadoop:hadoop-2.6.0-cdh6.7.0
        4、JDK:jdk1.8.0_45
        5、Maven:apache-maven-3.3.9
        6、MySQL:mysql-5.6.39


1.  hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz软件包下载地址:
        wget  http://archive.cloudera.com/cdh6/cdh/5/hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz
       将hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz下载到:/home/hadoop/software/
        [hadoop@hadoop002 software]$ pwd
        /home/hadoop/software
        [hadoop@hadoop002 software]$ ll
        -rw-rw-r--.  1 hadoop hadoop 311585484 Feb 20 07:16 hadoop-2.6.0-cdh6.7.0.tar.gz
        -rw-rw-r--.  1 hadoop hadoop  14652104 Feb 21 05:28 hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz


2.  解压文件:
        [hadoop@hadoop002 software]$ tar -zxvf hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz
        -rw-rw-r--.  1 hadoop hadoop 311585484 Feb 20 07:16 hadoop-2.6.0-cdh6.7.0.tar.gz
        drwxrwxr-x. 32 hadoop hadoop      4096 Jun  1 16:06 hive-1.1.0-cdh6.7.0
        -rw-rw-r--.  1 hadoop hadoop  14652104 Feb 21 05:28 hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz
3.   进入hive-1.1.0-cdh6.7.0目录,执行编译命令:mvn clean package -DskipTests -Phadoop-2 -Pdist
        [hadoop@hadoop002 software]$ cd hive-1.1.0-cdh6.7.0
        [hadoop@hadoop002 hive-1.1.0-cdh6.7.0]$ ll
        total 592
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:26 accumulo-handler
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:06 ant
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:27 beeline
        drwxrwxr-x.  3 hadoop hadoop   4096 Mar 24  2016 bin
        drwxrwxr-x.  2 hadoop hadoop   4096 Mar 24  2016 checkstyle
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:28 cli
        drwxrwxr-x.  3 hadoop hadoop   4096 Mar 24  2016 cloudera
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:00 common
        drwxrwxr-x.  2 hadoop hadoop   4096 Jun  1 16:01 conf
        drwxrwxr-x.  5 hadoop hadoop   4096 Jun  1 16:28 contrib
        drwxrwxr-x.  6 hadoop hadoop   4096 Mar 24  2016 data
        -rw-rw-r--.  1 hadoop hadoop  10753 Jun  1 16:06 datanucleus.log
        drwxrwxr-x.  2 hadoop hadoop   4096 Mar 24  2016 dev-support
        drwxrwxr-x.  6 hadoop hadoop   4096 Mar 24  2016 docs
        drwxrwxr-x.  2 hadoop hadoop   4096 Mar 24  2016 findbugs
        drwxrwxr-x.  5 hadoop hadoop   4096 Jun  1 16:29 hbase-handler
        drwxrwxr-x. 14 hadoop hadoop   4096 Jun  1 16:29 hcatalog
        drwxrwxr-x.  4 hadoop hadoop   4096 Mar 24  2016 hwi
        drwxrwxr-x. 13 hadoop hadoop   4096 Mar 24  2016 itests
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:26 jdbc
        drwxrwxr-x.  2 hadoop hadoop   4096 Mar 24  2016 lib
        -rw-rw-r--.  1 hadoop hadoop  23169 Mar 24  2016 LICENSE
        drwxrwxr-x.  7 hadoop hadoop   4096 Jun  1 16:04 metastore
        -rw-rw-r--.  1 hadoop hadoop    397 Mar 24  2016 NOTICE
        drwxrwxr-x.  4 hadoop hadoop   4096 Mar 24  2016 odbc
        drwxrwxr-x.  3 hadoop hadoop   4096 Mar 24  2016 packaging
        -rw-rw-r--.  1 hadoop hadoop  51736 Mar 24  2016 pom.xml
        drwxrwxr-x.  5 hadoop hadoop   4096 Jun  1 16:24 ql
        -rw-rw-r--.  1 hadoop hadoop   4048 Mar 24  2016 README.txt
        -rw-rw-r--.  1 hadoop hadoop 376416 Mar 24  2016 RELEASE_NOTES.txt
        drwxrwxr-x.  5 hadoop hadoop   4096 Jun  1 16:02 serde
        drwxrwxr-x.  6 hadoop hadoop   4096 Jun  1 16:25 service
        drwxrwxr-x.  7 hadoop hadoop   4096 Mar 24  2016 shims
        drwxrwxr-x.  4 hadoop hadoop   4096 Jun  1 16:13 spark-client
        drwxrwxr-x.  6 hadoop hadoop   4096 Jun  1 15:53 target
        drwxrwxr-x.  5 hadoop hadoop   4096 Mar 24  2016 testutils
        [hadoop@hadoop002 hive-1.1.0-cdh6.7.0]$
        # 执行编译命令
        [hadoop@hadoop002 hive-1.1.0-cdh6.7.0]$ mvn clean package -DskipTests -Phadoop-2 -Pdist
        [INFO] --- build-helper-maven-plugin:1.8:attach-artifact (attach-jdbc-driver) @ hive-packaging ---
        [INFO] ------------------------------------------------------------------------
        [INFO] Reactor Summary:
        [INFO] 
        [INFO] Hive ............................................... SUCCESS [03:07 min]
        [INFO] Hive Shims Common .................................. SUCCESS [02:12 min]
        [INFO] Hive Shims 0.23 .................................... SUCCESS [02:57 min]
        [INFO] Hive Shims Scheduler ............................... SUCCESS [  5.277 s]
        [INFO] Hive Shims ......................................... SUCCESS [  3.539 s]
        [INFO] Hive Common ........................................ SUCCESS [02:14 min]
        [INFO] Hive Serde ......................................... SUCCESS [01:57 min]
        [INFO] Hive Metastore ..................................... SUCCESS [03:01 min]
        [INFO] Hive Ant Utilities ................................. SUCCESS [ 17.141 s]
        [INFO] Spark Remote Client ................................ SUCCESS [12:54 min]
        [INFO] Hive Query Language ................................ SUCCESS [04:58 min]
        [INFO] Hive Service ....................................... SUCCESS [01:20 min]
        [INFO] Hive Accumulo Handler .............................. SUCCESS [ 37.886 s]
        [INFO] Hive JDBC .......................................... SUCCESS [01:32 min]
        [INFO] Hive Beeline ....................................... SUCCESS [  8.866 s]
        [INFO] Hive CLI ........................................... SUCCESS [  7.600 s]
        [INFO] Hive Contrib ....................................... SUCCESS [  7.161 s]
        [INFO] Hive HBase Handler ................................. SUCCESS [01:14 min]
        [INFO] Hive HCatalog ...................................... SUCCESS [ 20.745 s]
        [INFO] Hive HCatalog Core ................................. SUCCESS [ 14.203 s]
        [INFO] Hive HCatalog Pig Adapter .......................... SUCCESS [ 11.418 s]
        [INFO] Hive HCatalog Server Extensions .................... SUCCESS [ 38.225 s]
        [INFO] Hive HCatalog Webhcat Java Client .................. SUCCESS [  9.254 s]
        [INFO] Hive HCatalog Webhcat .............................. SUCCESS [ 43.961 s]
        [INFO] Hive HCatalog Streaming ............................ SUCCESS [  9.030 s]
        [INFO] Hive HWI ........................................... SUCCESS [  5.013 s]
        [INFO] Hive ODBC .......................................... SUCCESS [  4.396 s]
        [INFO] Hive Shims Aggregator .............................. SUCCESS [  0.889 s]
        [INFO] Hive TestUtils ..................................... SUCCESS [  1.786 s]
        [INFO] Hive Packaging ..................................... SUCCESS [01:45 min]
        [INFO] ------------------------------------------------------------------------
        [INFO] BUILD SUCCESS
        [INFO] ------------------------------------------------------------------------
        [INFO] Total time: 43:35 min
        [INFO] Finished at: 2018-06-01T16:33:55+08:00
        [INFO] Final Memory: 139M/494M
        [INFO] ------------------------------------------------------------------------
        [hadoop@hadoop002 hive-1.1.0-cdh6.7.0]$ 


        #查看编译好的tar包apache-hive-1.1.0-cdh6.7.0-bin.tar.gz:
        [hadoop@hadoop002 hive-1.1.0-cdh6.7.0]$ cd ./packaging/target/
        [hadoop@hadoop002 target]$ ll
        total 129248
        drwxrwxr-x. 2 hadoop hadoop      4096 Jun  1 16:32 antrun
        drwxrwxr-x. 3 hadoop hadoop      4096 Jun  1 16:32 apache-hive-1.1.0-cdh6.7.0-bin
        -rw-rw-r--. 1 hadoop hadoop 105763881 Jun  1 16:33 apache-hive-1.1.0-cdh6.7.0-bin.tar.gz
        -rw-rw-r--. 1 hadoop hadoop  12610959 Jun  1 16:33 apache-hive-1.1.0-cdh6.7.0-jdbc.jar
        -rw-rw-r--. 1 hadoop hadoop  13797857 Jun  1 16:33 apache-hive-1.1.0-cdh6.7.0-class="lazy" data-src.tar.gz
        drwxrwxr-x. 2 hadoop hadoop      4096 Jun  1 16:32 archive-tmp
        drwxrwxr-x. 3 hadoop hadoop      4096 Jun  1 16:32 maven-shared-archive-resources
        drwxrwxr-x. 3 hadoop hadoop      4096 Jun  1 16:32 tmp
        drwxrwxr-x. 2 hadoop hadoop      4096 Jun  1 16:32 warehouse
        [hadoop@hadoop002 target]$ 

感谢各位的阅读!关于“hive-1.1.0-cdh5.7.0如何编译”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

hive-1.1.0-cdh5.7.0如何编译

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

hive-1.1.0-cdh5.7.0如何编译

这篇文章给大家分享的是有关hive-1.1.0-cdh5.7.0如何编译的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。环境说明: 1、VM10虚拟机 2、系统:centos6.5
2023-06-03

hive-1.1.0-cdh5.7.0如何安装

这篇文章将为大家详细讲解有关hive-1.1.0-cdh5.7.0如何安装,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。环境说明: 1、VM10虚拟机
2023-06-03

Hive如何自定义函数实现将自定义函数注册到hive源码中并重新编译hive

这篇文章主要介绍Hive如何自定义函数实现将自定义函数注册到hive源码中并重新编译hive,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!hive版本: hive-1.1.0-cdh6.7.01 编写UDF函数
2023-06-03

Hadoop如何编译

这篇文章主要为大家展示了“Hadoop如何编译”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Hadoop如何编译”这篇文章吧。1.在sourcecode目录下上传我们的hadoop tar包 h
2023-06-03

如何理解C++编译器编译功能

如何理解C++编译器编译功能,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。下面深度讲解C++中的大规模C++编译器,C++编译器具有很强的复杂性,并且源程序的行数也是非常多
2023-06-17

如何使用java编译器进行编译

使用Java编译器进行编译可以通过以下步骤:1. 确保已经安装了Java Development Kit (JDK)。可以通过在命令行中运行`javac -version`命令来检查是否已经安装。2. 在命令行中切换到Java源代码所在的目
2023-09-06

eclipse如何编译class

Eclipse 是一个集成的开发环境(IDE),它提供了许多功能来编写、调试和编译 Java 代码。要编译类(class)文件,可以按照以下步骤操作:1. 打开 Eclipse,并打开项目(或新建一个项目)。2. 在项目文件夹中找到要编译的
2023-08-26

java如何反编译

什么是反编译?反编译的过程与编译刚好相反,就是将已编译好的编程语言还原到未编译的状态,也就是找出程序语言的源代码。就是将机器看得懂的语言转换成程序员可以看得懂的语言。Java语言中的反编译一般指将class文件转换成java文件。 (推荐学习:java
java如何反编译
2021-03-04

hadoop-2.8.1如何编译

这篇文章主要为大家展示了“hadoop-2.8.1如何编译”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“hadoop-2.8.1如何编译”这篇文章吧。1. hadoop-2.8.1源代码下载
2023-06-03

linux下如何编译boost.python

这篇文章主要为大家展示了“linux下如何编译boost.python”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“linux下如何编译boost.python”这篇文章吧。最近项目使用c++操
2023-06-09

如何编译安装zabbix

这篇文章主要为大家展示了“如何编译安装zabbix”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何编译安装zabbix”这篇文章吧。1.下载资源下载安装包(自行去网上搜索)获取包zabbix-
2023-06-04

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录