我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Hive中matadata怎么用

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Hive中matadata怎么用

这篇文章将为大家详细讲解有关Hive中matadata怎么用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

Hive元数据存储在MySQL库里,数据存储HDFS上;查看元数据库存放地址,查看Hive配置文件路径查看:

$HIVE_HOME/conf/hive-site.xml   

        <property>                <name>javax.jdo.option.ConnectionURL</name>                <value>jdbc:mysql://localhost:3306/hive_data?createDatabaseIfNotExist=true&amp;characterEncoding=latin1</value>        </property>

查看MySQL元数据:

mysql> use hive_data

Database changed

mysql> show tables;

+---------------------------+| Tables_in_hive_data       |+---------------------------+| bucketing_cols            || cds                       || columns_v2                || database_params           || db_privs                  || dbs                       || func_ru                   || funcs                     || global_privs              || idxs                      || index_params              || part_col_privs            || part_col_stats            || part_privs                || partition_key_vals        || partition_keys            || partition_params          || partitions                || roles                     || sd_params                 || sds                       || sequence_table            || serde_params              || serdes                    || skewed_col_names          || skewed_col_value_loc_map  || skewed_string_list        || skewed_string_list_values || skewed_values             || sort_cols                 || tab_col_stats             || table_params              || tbl_col_privs             || tbl_privs                 || tbls                      || version                   |+---------------------------+

----------------------------------------------------------------

1. Hive版本version表有且只有一条数据,多一条数据Hive会无法启动

mysql> select * from version;+--------+----------------+---------------------------------------+| VER_ID | SCHEMA_VERSION | VERSION_COMMENT                       |+--------+----------------+---------------------------------------+|      1 | 1.1.0          | Set by MetaStore hadoop@192.168.0.129 |+--------+----------------+---------------------------------------+

2.Hive数据库元数据表【dbs】【database_params】

mysql> select DB_ID,DB_LOCATION_URI,NAME  from dbs

+-------+----------------------------------------------------------------+---------------+| db_id | DB_LOCATION_URI                                                | NAME          |+-------+----------------------------------------------------------------+---------------+|     1 | hdfs://192.168.0.129:9000/user/hive/warehouse                  | default       ||     3 | hdfs://192.168.0.129:9000/user/hive/warehouse/hive_data2.db    | hive_data2    ||     6 | hdfs://192.168.0.129:9000/user/hive/warehouse/ruozedata_job.db | ruozedata_job |+-------+----------------------------------------------------------------+---------------+
  • DB_ID            -- 数据库ID 【tbls】

  • DB_LOCATION_URI    -- HDFD存放路径

  • NAME               -- 数据库名

3.Hive表内容、结构、属性

mysql> select TBL_ID,CREATE_TIME,DB_ID,SD_ID,TBL_NAME,TBL_TYPE from tbls; 

+--------+-------------+-------+-------+---------------+----------------+| TBL_ID | CREATE_TIME | DB_ID | SD_ID | TBL_NAME      | TBL_TYPE       |+--------+-------------+-------+-------+---------------+----------------+|      7 |  1528299941 |     3 |     7 | emp           | EXTERNAL_TABLE ||     10 |  1528311773 |     3 |    10 | emp_bak       | MANAGED_TABLE  ||     11 |  1528312267 |     3 |    11 | emp1          | EXTERNAL_TABLE ||     16 |  1528403085 |     3 |    16 | dual          | MANAGED_TABLE  ||     17 |  1528484818 |     3 |    17 | json          | MANAGED_TABLE  ||     22 |  1529454293 |     3 |    22 | emp_partition | MANAGED_TABLE  ||     26 |  1529459118 |     3 |    31 | emp_sqoop111  | MANAGED_TABLE  ||     34 |  1529530688 |     6 |    39 | user_click    | EXTERNAL_TABLE ||     38 |  1529537107 |     6 |    44 | product_info  | EXTERNAL_TABLE ||     39 |  1529593387 |     6 |    45 | city_info     | MANAGED_TABLE  ||     41 |  1529606647 |     6 |    46 | product_hot   | MANAGED_TABLE  |+--------+-------------+-------+-------+---------------+----------------+
  • TBL_ID     -- 表ID      【table_params】【partitions】【partition_keys】

  • DB_ID      -- 库ID   

  • SD_ID      -- 序列化ID  【sds】【partitions】

4.Hive文件存储相关元数据:【sds【serdes】【serde_params】

mysql> select * from sds;

  • CD_ID         --表列ID     【columns_v2】【cds】

  • SERDE_ID      --序列化列ID 【serdes】【serde_params】

mysql> select * from columns_v2;

+-------+---------+--------------+-----------+-------------+

| CD_ID | COMMENT | COLUMN_NAME  | TYPE_NAME | INTEGER_IDX |

+-------+---------+--------------+-----------+-------------+

|     7 | NULL    | comm         | double    |           6 |

|     7 | NULL    | deptno       | int       |           7 |

|     7 | NULL    | empno        | int       |           0 |

|     7 | NULL    | ename        | string    |           1 |

|     7 | NULL    | hiredate     | string    |           4 |

|     7 | NULL    | job          | string    |           2 |

|     7 | NULL    | mgr          | int       |           3 |

|     7 | NULL    | salary       | double    |           5 |

|    10 | NULL    | comm         | double    |           6 |

|    10 | NULL    | deptno       | int       |           7 |

|    10 | NULL    | empno        | int       |           0 |

|    10 | NULL    | ename        | string    |           1 |

|    10 | NULL    | hiredate     | string    |           4 |

|    10 | NULL    | job          | string    |           2 |

|    10 | NULL    | mgr          | int       |           3 |

|    10 | NULL    | salary       | double    |           5 |

5.Hive表分区相关的元数据表 

mysql> select * from partitions;

+---------+-------------+------------------+-----------------+-------+--------+| PART_ID | CREATE_TIME | LAST_ACCESS_TIME | PART_NAME       | SD_ID | TBL_ID |+---------+-------------+------------------+-----------------+-------+--------+|       1 |  1529456274 |                0 | pt=2018-06-19   |    26 |     22 ||       6 |  1529530704 |                0 | data=2018-06-20 |    40 |     34 |
  • PART_ID    -- 分区ID 【partition_key_vasls】【partition_params】

mysql> select * from partition_key_vals;

+---------+--------------+-------------+

| PART_ID | PART_KEY_VAL | INTEGER_IDX |

+---------+--------------+-------------+

|       1 | 2018-06-19   |           0 |

|       6 | 2018-06-20   |           0 |

+---------+--------------+-------------+

  • PART_ID          -- 分区ID

  • PART_KEY_VAL     -- 分区字段值

mysql> select * from partition_params;

+---------+-----------------------+-------------+

| PART_ID | PARAM_KEY             | PARAM_VALUE |

+---------+-----------------------+-------------+

|       1 | COLUMN_STATS_ACCURATE | true        |

|       1 | numFiles              | 2           |

|       1 | numRows               | 0           |

|       1 | rawDataSize           | 0           |

|       1 | totalSize             | 734         |

|       1 | transient_lastDdlTime | 1529456274  |

|       6 | COLUMN_STATS_ACCURATE | true        |

|       6 | numFiles              | 1           |

|       6 | numRows               | 0           |

|       6 | rawDataSize           | 0           |

|       6 | totalSize             | 725264      |

|       6 | transient_lastDdlTime | 1529530704  |

PARAM_KEY       -- 分区属性

PARAM_VALUE     -- 分区属性值

总结:

Hive中matadata怎么用

关于“Hive中matadata怎么用”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Hive中matadata怎么用

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Hive中matadata怎么用

这篇文章将为大家详细讲解有关Hive中matadata怎么用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Hive元数据存储在MySQL库里,数据存储HDFS上;查看元数据库存放地址,查看Hive配置文件
2023-06-02

HIVE中left semi join怎么用

这篇文章主要介绍了HIVE中left semi join怎么用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。 实验:hive> select * from b1;OK1
2023-06-03

Hive中怎么使用UDF和UDAF扩展Hive功能

在Hive中,用户可以使用UDF(User Defined Function)和UDAF(User Defined Aggregation Function)来扩展Hive的功能。UDF用于对单个数据行进行操作,而UDAF用于对多个数据行进
Hive中怎么使用UDF和UDAF扩展Hive功能
2024-03-14

hive中decode函数怎么使用

在Hive中,`decode`函数用于根据给定的条件和对应的值,将一个列的值转换为另一个值。`decode`函数的语法如下:```DECODE(col, condition1, value1, condition2, value2, ...
2023-08-11

hive中正则表达式怎么用

小编给大家分享一下hive中正则表达式怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧! hive中的正则表达式还是很强大的。数据工作者平时也离不开正则表达式。
2023-06-03

SQL Hive中的Select Fromsql怎么使用

这篇“SQL Hive中的Select Fromsql怎么使用”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“SQL Hive
2023-06-28

hive存储过程怎么用

这篇文章主要介绍了hive存储过程怎么用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1、hive存储过程简介1.x版本的hive中没有提供类似存储过程的功能,使用Hive做
2023-06-02

Hive中怎么定义和使用表分区

在Hive中,表分区是按照表的某个列的值进行分割和存储数据的方式,可以提高查询效率和管理数据。以下是在Hive中定义和使用表分区的步骤:定义表分区:在创建表的时候,使用PARTITIONED BY语句指定分区列。例如:CREATE TABL
Hive中怎么定义和使用表分区
2024-04-03

mysql数据怎么导入hive中

在将MySQL数据导入到Hive中之前,需要确保你已经安装了MySQL和Hive,并且配置了正确的连接信息。以下是将MySQL数据导入到Hive中的步骤:将MySQL数据导出为文本文件(CSV格式):使用MySQL的导出工具(如mysql
mysql数据怎么导入hive中
2024-05-06

Hive怎么学习

这篇文章主要为大家展示了“Hive怎么学习”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Hive怎么学习”这篇文章吧。Hive起源于Facebook,它使得针对Hadoop进行SQL查询成为可能
2023-06-03

hive的sum函数怎么使用

在Hive中,可以使用SUM函数对某一列中的值进行求和操作。具体使用方式如下:SELECT SUM(column_name) FROM table_name;其中,column_name是要进行求和操作的列名,table_name是包含该
hive的sum函数怎么使用
2024-03-05

hive的collect_set函数怎么使用

Hive中的collect_set函数用于返回指定列的唯一值集合。其语法如下:SELECT collect_set(column_name)FROM table_nameWHERE conditions;其中,column_name是
hive的collect_set函数怎么使用
2024-04-08

Hive中的二次排序怎么实现

在Hive中实现二次排序可以通过使用自定义排序函数来实现。下面是一个示例代码来演示如何在Hive中实现二次排序:首先,创建一个自定义排序函数:CREATE FUNCTION customSecondarySort AS 'co
Hive中的二次排序怎么实现
2024-03-14

Hive中的SerDe是什么

Hive中的SerDe是Serializer/Deserializer的缩写,它是用于在Hive中读取和写入数据的接口。SerDe负责将数据序列化为字节流以存储在Hive表中,并在需要时将字节流反序列化为原始数据。SerDe允许Hive与不
Hive中的SerDe是什么
2024-03-12

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录