一、安装

  1. Flink下载地址:https://www.cloudera.com/downloads/cdf/csa-trial.html

image.png

  1. 准备Flink1.9.1的csd文件,并放置到Cloudera Manager Server服务器的/opt/cloudera/csd目录下,然后重启Cloudera Manager Server服务

    1. cp a b
    2. systemctl restart cloudera-scm-server

    image.png

  2. 下载Flink1.9.1的Parcel并部署到httpd服务的/var/www/html/C7_Flink目录下

image.png

  1. CM重启完成以后,添加服务页面可以看到有Flink服务

image.png

  1. 登录CM,在左侧菜单栏点击“Parcel”按钮,进入Parcles管理界面进行配置,点击“Parcel Repositories & Network Settings”菜单配置Flink的本地parcel库

image.png

  1. 完成配置后,点击“Save & Verify Configuration”,关闭配置配置界面可以看到Flink的信息

image.png

  1. 分别进行 “下载、分配、激活”操作,完成后显示如下:

image.png

  1. 进入CM主页点击“添加服务”。

image.png

image.png

  1. 选择Flink History Server以及Gateway节点,点击继续

image.png

  1. 点击继续

image.png

  1. 等待Flink History Server启动成功,完成后点击继续
  2. 安装完成,点击完成回到CM主页,发现Flink的状态为灰色,CMS有重启提示,按照提示重启CMS服务,重启过程略。重启完成后显示Flink服务正常。

    二、测试

    1.执行Flink自带的example的wordcount例子。
    2.查看输出结果。

3.在YARN和Flink的界面上分别都能看到这个任务。

四、问题

参考:https://ci.apache.org/projects/flink/flink-docs-release-1.8/release-notes/flink-1.8.html
参考:https://issues.apache.org/jira/browse/FLINK-11266

  1. Flink启动

image.png

  1. 原因:如果要操作hdfs的话,必须要在flink安装目录的 lib 下加上额外的jar包,所以这里原因就是在flink集群的CLASS_PATH下缺少了 HDFS相关的ja

image.png

  1. jar包下载地址:

    1. https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.7.5-7.0/flink-shaded-hadoop-2-uber-2.7.5-7.0.jar

    image.png


  2. 三、总结

  3. 在CDP DC上基于Parcel的方式安装Flink1.9.1与CDH5和CDH6集群下安装Kafka、Spark等服务方式一致。

  4. 对于CDP DC中不自带的服务需要将csd添加的CM节点的/opt/cloudera/csd目录下,并重启cloudera-scm-server服务。
  5. Flink是依赖Yarn、HDFS、Zookeeper服务运行,所以在CDP DC集群中至少要确保这个几个服务都已安装。