文章目录
- 一、原理介绍
- 二、配置用户
- 三、配置hdfs
- 四、配置hive
- 五、配置hbase
- 六、配置yarn
- 七、相关注意点
- 八、整合kerberos后的配置差别
一、原理介绍
- hdfs
指令测试:hdfs dfs -mkdir /ranger
原理:根据路径进行文件夹操作赋权。一旦指定文件夹权限,则该用户可以操作该文件夹及该文件夹底下的子文件夹。 - yarn
指令测试:hadoop jar /home/hadoop/module/hadoop-3.2.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar pi -Dmapred.job.queue.name=default 2 2
原理:根据队列进行赋权,被赋权的用户可以提交任务给队列执行。 - hive
原理:根据数据库、表、字段进行过滤用户的权限。 - hbase
原理:根据数据库、字段族、字段进行过滤用户的权限。
二、配置用户
ps:注意,配置了kerberos后,验证用户不再是验证linux用户,而是验证kerberos用户。
- 添加用户:有两种方式,但是无论哪种方式添加的用户,效果都一样,因为都只是用来给用户赋权,不用于其他功能。
1)使用同步方式,如ranger-usersync插件
2)手动创建。 - ps1:User Name、First Name、Last Name用户名称,取一样的即可
ps2:Select Role,用户权限,一般选择User
三、配置hdfs
- 原理
- 新增
- 设置
ps1:Service Name,名称为/home/hadoop/RangerHive/ranger-2.2.0-hive-plugin/inistall.propreties的REPOSITORY_NAME属性
ps2:Username&Password,ranger-hdfs的最高权限用户
ps3:Namenode URL,/home/hadoop/module/hadoop-3.2.2/etc/hadoop/hdfs-site.xml的dfs.namenode.rpc-address.mycluster.nn1和nn2属性,用“,”隔开 - 测试连接
- 测试上传功能
- 使用hadoop用户创建文件夹:hdfs dfs -mkdir /ranger
- 使用hadoop用户上传:hdfs dfs -put test.txt /ranger
结果:上传成功 - 新建用户zhanzhk并且上传:hdfs dfs -put test.txt /ranger
结果:报错put: Permission denied: user=root, access=WRITE, inode=“/ranger”:hadoop:supergroup:drwxr-xr-x - 重启ranger-usersync同步用户: ranger-usersync restart
只能同步ranger服务器的用户 - 配置zhanzhk这个用户的权限,然后add即可
- 重新执行上传指令,成功!
- 策略是可以重复使用的,只要在权限里面配置不同用户即可,一般都会生产一些默认权限,如下
四、配置hive
- 原理
- 查看mysql相关权限
mysql -uroot -p
use mysql;
SELECT host,user,Grant_priv,Super_priv FROM mysql.user;
- 修改mysql相关权限
UPDATE mysql.user SET Grant_priv='Y', Super_priv='Y';
flush privileges;
- 连接hive查看数据
cd /home/hadoop/module/hive
bin/beeline -u jdbc:hive2://node10:10000/default -n root -p ffcsict123
select * from student;
错误:Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: user [root] does not have [SELECT] privilege on [default/student/*] (state=42000,code=40000)
- 添加用户
- 配置hive
配置基础信息
选中add,稍等一会,再点击编辑
点击测试 - 连接hive查看数据
cd /home/hadoop/module/hive
bin/beeline -u jdbc:hive2://node10:10000/default -n root -p ffcsict123
select * from student;
显示查询成功
- 配置成功!
- 测试hadoop用户
cd /home/hadoop/module/hive
bin/beeline -u jdbc:hive2://node10:10000/default -n hadoop -p ffcsict123
select * from student;
结果:Error: Error while compiling statement: FAILED: HiveAccessControlException Permission denied: user [hadoop] does not have [SELECT] privilege on [default/student/*] (state=42000,code=40000)
- 配置hadoop用户的权限
可以看到已经存在一些相关的权限配置策略,我们直接用即可
设置hadoop,添加读权限 - 测试hadoop用户
cd /home/hadoop/module/hive
bin/beeline -u jdbc:hive2://node10:10000/default -n hadoop -p ffcsict123
select * from student;
- 成功!!!
五、配置hbase
- 原理
- 相关指令
cd /home/hadoop/hbase/hbase-2.1.0/bin
1. 启动客户端:./hbase shell
2. 建表:create 'B_STU','cf'
3. 插入数据:put 'B_STU','001','cf:age','20'
4. 覆盖数据:put 'B_STU','001','cf:age','18'
5. 查看表数据: scan 'B_STU'
6. 根据键查询数据:get 'B_STU','001'
- 连接测试
cd /home/hadoop/hbase-2.3.5/bin
1. 启动客户端:./hbase shell
2. 建表:create 'B_STU','cf'
报错:ERROR: org.apache.hadoop.hbase.security.AccessDeniedException: Insufficient permissions for user ‘hadoop’ (action=create)
- 在ranger界面新建hbase任务
新建一个
名称跟配置文件对应
配置zk和用户
测试 - 在ranger界面分配ranger权限
可以新建策略,也可以使用默认创建的最高权限策略,这里选择直接使用默认建好的
添加hadoop用户,保存即可 - 连接测试
cd /home/hadoop/hbase/hbase-2.3.5/bin
1. 启动客户端:./hbase shell
2. 建表:create 'B_STU','cf'
成功!!!!!
六、配置yarn
- 原理
- 配置文件:vi /home/hadoop/module/hadoop-3.2.2/etc/hadoop/capacity-scheduler.xml,添加yarntest队列
<!-- 新增队列yarntest -->
<property>
<name>yarn.scheduler.capacity.root.queues</name>
<value>default,yarntest</value>
<description>
The queues at the this level (root is the root queue).
</description>
</property>
<!-- default队列资源占50 -->
<property>
<name>yarn.scheduler.capacity.root.default.capacity</name>
<value>50</value>
<description>Default queue target capacity.</description>
</property>
<!-- default队列资源不足时,最大抢占资源60% -->
<property>
<name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
<value>60</value>
<description>
The maximum capacity of the default queue.
</description>
</property>
<!-- yarntest队列资源占50 -->
<property>
<name>yarn.scheduler.capacity.root.yarntest.capacity</name>
<value>50</value>
</property>
<!-- yarntest,最大抢占资源60% -->
<property>
<name>yarn.scheduler.capacity.root.yarntest.maximum-capacity</name>
<value>60</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.user-limit-factor</name>
<value>1</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.state</name>
<value>RUNNING</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.acl_submit_applications</name>
<value>*</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.acl_administer_queue</name>
<value>*</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.acl_application_max_priority</name>
<value>*</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.maximum-application-lifetime
</name>
<value>-1</value>
</property>
<property>
<name>yarn.scheduler.capacity.root.yarntest.default-application-lifetime
</name>
<value>-1</value>
</property>
- 切换新建用户测试
hadoop jar /home/hadoop/module/hadoop-3.2.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar pi -Dmapred.job.queue.name=default 2 2
报错:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=zhanzhk, access=WRITE, inode=“/user”:root:supergroup:drwxr-xr-x
- 给zhanzhk用户添加“/user”文件夹的hdfs写权限,重新执行
hadoop jar /home/hadoop/module/hadoop-3.2.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar pi -Dmapred.job.queue.name=yarntest 2 2
报错:Caused by: org.apache.hadoop.security.AccessControlException: User zhanzhk does not have permission to submit application_1668046054877_0003 to queue yarntest
- 新建任务
配置相关信息
测试 - 配置用户权限
可新建策略,也可以使用默认生成的策略,这里直接使用默认的
配置新增用户并且保存 - 重新执行
hadoop jar /home/hadoop/module/hadoop-3.2.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar pi -Dmapred.job.queue.name=yarntest 2 2
成功!!!
七、相关注意点
- hdfs的权限是可以逐级赋权,即赋与二级目录权限,则一级目录无权限
- hdfs根目录默认对所有的用户都开放操作权限,需要限制只对hadoop超级管理员开放:hdf dfs -chmod 700 /
- 用户如果想要放开权限,需要做以下操作及开启相关文件夹权限
---------------------------------------------hdfs操作----------------------------------------------------
1)开启需要访问的文件夹权限即可
---------------------------------------------yarn操作----------------------------------------------------
1)yarn队列赋权
2)hdfs-yarn临时文件创建与赋权:/tmp/hadoop-yarn/staging/用户名
3)日志临时文件创建与赋权:/tmp/logs/用户名
4)用户文件创建与赋权:/user/用户名
5)日志:/home/hadoop/module/hadoop-3.2.2/logs/用户名
6)历史:/tmp/hadoop-yarn/staging/history/done_intermediate/用户名
--------------------------------------------hive操作----------------------------------------------------
1)hive数据库权限配置
2)yarn队列权限配置
3)hdfs-hive数据库文件夹权限:/user/hive/warehouse/数据库名.db
4)hdfs-hive临时工作文件权限:/tmp/hive/用户名
--------------------------------------------hbase----------------------------------------------------
1)hbase数据库表权限配置 - 队列的名称,一定要加上“root.”
八、整合kerberos后的配置差别
- 配置hdfs
ps1:Service Name,服务名称,取配置文件
ps2:Username&Password,ranger-hdfs的最高权限用户
ps3:Namenode URL,namenode节点访问地址,取配置文件
ps4:Authorization Enabled,开启权限控制
ps5:Authentication Type,权限控制类型,选择kerberos
ps6:hadoop.security.auth_to_local,默认DEFAULT
ps7:dfs.datanode.kerberos.principal,datanode的kerberos认证用户
ps8:dfs.namenode.kerberos.principal,namenode的kerberos认证用户
ps9:policy.download.auth.users,刷新策略的kerberos用户
ps10:dfs.journalnode.kerberos.principal,journalnode的kerberos认证用户 - 配置hive
ps1:Service Name,服务名称,取配置文件
ps2:Username&Password,ranger-hive的最高权限用户
ps3:jdbc.url,访问hive路径
ps4:policy.download.auth.users,刷新策略的kerberos用户 - 配置hbase
ps1:Service Name,服务名称,取配置文件
ps2:Username&Password,ranger-hbase的最高权限用户
ps3:hadoop.security.authentication,权限控制类型,选择kerberos
ps4:hbase.master.kerberos.principal,hbase的kerberos认证用户
ps5:hbase.security.authentication,权限控制类型,选择kerberos
ps6:hbase.zookeeper.quorum ,zookeeper集群地址
ps7:policy.download.auth.users,刷新策略的kerberos用户 - 配置yarn
ps1:Service Name,服务名称,取配置文件
ps2:Username&Password,ranger-yarn的最高权限用户
ps3:YARN REST URL,yarn的访问地址
ps4:Authentication Type,权限控制类型,选择kerberos
ps5:policy.download.auth.users,刷新策略的kerberos用户
ps:可能版本原因导致连接测试失败,但是经过测试,kerberos+ranger监控yarn权限无异常,可以使用,仅测试连接失败,暂不解决这种情况。