1.Hive简介

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据映射为一张数据库表,并提供类SQL查询功能。

直接使用hadoop所面临的问题:

  • 人员学习成本太高

  • 项目周期要求太短

  • MapReduce 实现复杂查询逻辑开发难度大

为什么要使用Hive:

  • 操作接口采用类SQL语法,提供快速开发的能力。

  • 避免了去写MapReduce,减少开发人员的学习成本。

  • 扩展功能方便。

1.1Hive特点

  1. 可扩展 Hive可以自由扩展集群的规模,一般情况下不需要重启服务。

  2. 延展性 Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

  3. 容错 良好的容错性,节点出现问题SQL仍可完成执行。

1.2Hive架构

Hive初识 - 图1
ThreadServer:协议,封装了RPC
Jobtracker是hadoop1.x中的组件,它的功能相当于:Resourcemanager + AppMaster
TaskTracker相当于:Nodemanager + yarnchild

1.2.1基本组成

用户接口:包括CLI、JDBC/ODBC、WebGUI
元数据存储:通常是存储在关系数据库和mysql,Derby中
解释器、编译器、优化器、执行器

1.2.2各组件基本功能

用户接口主要有三个:CLI、JDBC/ODBC和WebGUI。其中,CLI为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive。
元数据存储:Hive将元数据存储在数据库中。Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。
解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化、以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。

1.3Hive与Hadoop的关系

Hive利用HDFS存储数据,利用MapRdeuce查询数据
Hive初识 - 图2

1.3.1Hive与传统数据库的对比

Hive初识 - 图3
总结:Hive具有SQL数据库的外表,但应用场景完全不用,hive只适合用来做批量数据统计分析。

1.4Hive的数据存储

  • Hive中所有的数据都存储在HDFS中,没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile RCFILE等)

  • 只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据。

  • Hive中包含以下数据模型:DB、Table、External、Partition、Bucket。

  1. db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下的一个文件夹

  2. table:在hdfs中表现所属db目录下的

  3. external table:外部表,与table类似,不过其数据存放位置可以指定任意指定路径。 普通表:删除表后,hdfs上的文件都删了。External 外部表删除后,hdfs上文件没有删除,只是把文件删除了

  4. partition:在hdfs中表现出为table目录的子目录、

  5. bucket:在hdfs中表现为同一个目录下根据hash散列之后的多个文件,会根据不同的文件把数据放到不同的文件中。

HDFS与HIVE的关系
Hive初识 - 图4