2021-05-13

问题:输入密码验证失败(LDAP部署与Hive、Impala、Hue集成)

  • 问题场景
  1. ldapadd -D "cn=Manager,dc=macro,dc=com" -W -x -f root.ldif

image-20201123141209523.png

  • 原因1:配置文件错误

image-20201123141639157.png

  • 原因2:修改了配置却未重启sldap服务,导致当前运行服务的配置仍为之前配置的内容

image-20201123142046784.png

  • 解决:检查配置文件,并重启slapd服务
  1. systemctl restart slapd

问题2、导入 OpenLDAP 失败

  • 问题场景
  1. ldapadd -D "cn=Manager,dc=macro,dc=com" -W -x -f root.ldif

image-20201123141045316.png

  • 原因:需要导入的ldif文件配置错误

image-20201123142412828.png

  • 解决:添加换行

image-20201123142501840.png

  • .ldif文件正确书写格式

image-20201123142731022.png

问题3、SSSD启动,但无法通过ID user查看OpenDAP的用户

  • 问题场景
  1. systemctl status sssd

image-20201123145642188.png

  1. id ldapuser1

image-20201123145126874.png

  • 原因1:启动sssd服务参数错误

image-20201123145524135.png

  • 解决方式:修改为正确的主机名

image-20201123145801955.png

  • 原因2:配置文件错误,如slapd.ldif配置文件密码前无空行等配置问题

image-20201127163733516.png

  • 解决:修改配置文件,重启服务
  1. systemctl restart slapd

问题4、LDAP用户密码遗忘无法登录问题

  • 问题场景
  1. ssh ldapuser1@cdh01

image-20201123163918246.png

  • 原因:遗忘密码,认证失败
  • 解决方式:在主节点重置LDAP密码,查看rootDN(服务器节点),使用rootDN重置指定节点用户密码
  1. sudo ldapsearch -H ldapi:// -LLL -Q -Y EXTERNAL -b "cn=config" "(olcRootDN=*)" dn olcRootDN olcRootPW | tee ~/newpasswd.ldif

image-20201123164142992.png

  1. ldappasswd -H ldap://cdh01 -x -D "cn=Manager,dc=macro,dc=com" -W -S "uid=ldapuser1,ou=People,dc=macro,dc=com"

image-20201123164337996.png

  • 重启服务即可
  1. systemctl restart sssd
  2. systemctl restart nslcd

问题5、OpenLDAP集成Hive和hue后,impala启动失败

  • 问题场景

image-20201124104015019.png

  • 原因:—authorized_proxy_user_config=hive=* 配置地方错误
  • 解决:重新设置,并重启impala服务

image-20201124104037852.png
image-20201124104234608.png
image-20201124104400025.png
问题6、修改slapd.ldif后,启动OpenLDAP服务失败

  • 原因:/var/lib/ldap 组权限问题,导致启动该服务读取文件失败

image-20201127163841424.png

  • 解决:检查发现ldap无组权限,修改组权限,重新执行启动命令
  1. chown -R ldap. /var/lib/ldap

image-20201124163341713.png
image-20201124163309700.png

问题:请求的用户hdfs未被列入白名单,其id为996,低于允许的最小值1000(Kerberos集成认证)

  1. hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar pi 10 10

image-20201125125827638.png

  • 原因:ID值小于1000
  • 解决:切换ID大于1000的用户,查看ID,重新运行

image-20201125140318464.png

  1. hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar pi 10 10

image-20201125140422405.png

问题2、Kerberos的HDFS操作HDFS无权限

  1. hdfs dfs -mkdir /user/userkrb

image-20201125130200984.png

  • 原因:当前用户不在super组当中,故无法操作。
  • 解决方式:core-site.xml中,HDFS的超级用户组hdfs,重启HDFS

image-20201125130745328.png

  1. hdfs dfs -mkdir /user/userkrb

image-20201125131025731.png

问题3、使用Kerberos账户可以查询hive但不能查询impala
image-20201126140432733.png
image-20201126140501688.png

  • 解决办法:刷新impala元数据(使用hive管理账户),查看表结构
  1. INVALIDATE METADATA testhive;
  2. desc testhive;

image-20201126141041896.png

2021-05-02

问题:Kerberos 环境下 读取不到指定文件

报错内容:

  1. java.io.IOException: /root/project/startKerberos/conf/jaas.conf (No such file or directory)

image-20201230150016556.png

原因:权限问题,赋予组权限即可

  1. chown hive:hadoop ./hive.keytab ./jaas.conf ./jaas-keytab.conf