简介
Hive就是数据仓库,也是解释器、编译器、优化器等。
Hive在运行时,元数据存储在关系型数据库里。
Hive架构图
Hive的体系结构可以分为以下几部分:
- 用户接口主要有三个:CLI,Client 和 WUI
其中最常用的是CLI,Cli启动的时候,会同时启动一个Hive副本。Client是Hive的客户端,用户连接至Hive Server。在启动 Client模式的时候,需要指出Hive Server所在节点,并且在该节点启动Hive Server。 WUI是通过浏览器访问Hive(已淘汰)。 - Hive将元数据存储在数据库:mysql、derby
Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。 - 解释器、编译器、优化器
完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。 - Hive的数据存储在HDFS中
大部分的查询、计算由MapReduce完成(包含的查询,比如select from tbl不会生成MapRedcue任务)。元数据存储
Hive将元数据存储在RDBMS中,有三种模式可以连接到数据库。
对于数据存储,Hive没有专门的数据存储格式,也没有为数据建立索引,用户可以非常自由的组织Hive中的表,只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据。
Hive中所有的数据都存储在HDFS中,存储结构主要包括数据库、文件、表和视图。
Hive中包含以下数据模型:Table内部表,External Table外部表,Partition分区,Bucket桶。
Hive默认可以直接加载文本文件,还支持sequence file 、RCFile。元数据库内嵌模式:Derby(Test)
此模式连接到一个In-memory 的数据库Derby,一般用于Unit Test。元数据库mysql模式
通过网络连接到一个数据库中,是最经常使用到的模式。MetaStoreServe访问元数据库模式
用于非Java客户端访问元数据库,在服务器端启动MetaStoreServer,客户端利用Thrift协议通过MetaStoreServer访问元数据库。
Hive工作原理
Hive构建在Hadoop之上。
- HQL中对查询语句的解释、优化、生成查询计划是由Hive完成的
- 所有的数据都是存储在Hadoop中
- 查询计划被转化为MapReduce任务,在Hadoop中执行(有些查询没有MR任务,如:select * from table)
- Hadoop和Hive都是用UTF-8编码的