参考:
Hadoop.The.Definitive.Guide.4th- Hadoop官方文档
- 博客资料
- pdf资料
- 尚硅谷大数据培训
(没做)
http://archive.apache.org/dist/hadoop/core/hadoop-3.2.1/
准备
主机联网,编译角色root
文件:
- hadoop-3.2.1-src.tar.gz
- jdk-8u212-linux-x64.tar.gz
- apache-ant-1.9.9-bin.tar.gz(build 工具,打包用的)
- apache-maven-3.0.5-bin.tar.gz
- protobuf-2.5.0.tar.gz(序列化的框架)
操作
- jdk环境
- maven环境
- ant环境
- protobuf环境
- 依赖库
- 编译
- CentOS 联网 配置 CentOS 能连接外网。Linux 虚拟机 ping www.baidu.com 是畅通的
注意:采用 root 角色编译,减少文件夹权限出现问题
2. jar 包准备(hadoop 源码、JDK8、maven、ant 、protobuf)
(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz(build 工具,打包用的)
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz(序列化的框架)
安装
1. jar 包安装
注意:所有操作必须在 root 用户下完成
解压、配置环境变量 JAVA_HOME 和 PATH,验证
# vi /etc/profile
export JAVA_HOME=/opt/module/jdk1.8.0_144
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
验证命令:
# java-version
Maven
解压、配置 MAVEN_HOME 和 PATH
# tar -zxvf apache-maven-3.0.5bin.tar.gz -C /opt/module/
# vi conf/settings.xml
nexus-aliyun
central
Nexus aliyun
http://maven.aliyun.com/nexus/content/groups/public
# vi /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin
# source /etc/profile
验证命令:
# mvn -versionant
解压、配置 ANT _HOME 和 PATH
# tar -zxvf apache-ant-1.9.9bin.tar.gz -C /opt/module/
# vi /etc/profile
# ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin
# source /etc/profile
验证命令:
# ant -version
4. 安装 glibc-headers 和 g++
命令如下
# yum install glibc-headers
# yum install gcc-c++安装 make 和 cmake
# yum install make
# yum install cmakeprotobuf
解压 protobuf ,进入到解压后 protobuf 主目录,/opt/module/protobuf-2.5.0, 然后相继执行命令
# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
# cd /opt/module/protobuf-2.5.0/
# ./configure
# make
# make check
# make install
# ldconfig
vi /etc/profile
# LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH
# source /etc/profile
验证命令:
# protoc —version
安装 openssl 库
# yum install openssl-devel安装 ncurses-devel 库
# yum install ncurses-devel
到此,编译工具安装基本完成。
编译源码
1. 解压源码到/opt/目录
# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
2. 进入到 hadoop 源码主目录
# pwd /opt/hadoop-2.7.2-src
3. 通过 maven 执行编译命令
# mvn package -Pdist,native DskipTests -Dtar
等待时间 30 分钟左右,最终成功是全部 SUCCESS,如图 2-42 所示。
4. 成功的 64 位 hadoop 包在/opt/hadoop-2.7.2-src/hadoop-dist/target 下
# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target
- 编译源码过程中常见的问题及解决方案
(1)MAVEN install 时候 JVM 内存溢出处理方式:在环境配置文件和 maven 的执行文件均可调整 MAVEN_OPT 的 heap 大小。
(详情查阅 MAVEN 编译 JVM 调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
(2)编译期间 maven 报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命
令(一次通过比较难):
# mvn package -Pdist,nativeN -DskipTests -Dtar
(3)报 ant、protobuf 等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐 2.7.0 版本的问题汇总帖子 http://www.tuicool.com/articles/IBn63qf