Ceph集群简介:
ceph生态系统架构可以划分为四部分:
1.clients:客户端 (数据用户)
2.cmds: 元数据服务器(缓存和同步分布式元数据)
3.cosd:对象存储集群(将数据和元数据作为对象存储)
4.cmon:集群监视器
CephFS 文件系统客户端挂载有两种模式:Ceph-fuse挂载和内核驱动模块挂载,Ceph-fuse挂载要求操作系统必须是Redhat/Centos6/ubuntu12.04以上版本,不支持Redhat/centos5。内核驱动模块挂载需要Linux kernel 3.14以上版本
#内核驱动挂载
mount -t ceph -o noatime 10.1.250.30:/91U /mnt/cephfs/
#fuse挂载
ceph-fuse -m 10.1.250.30:6789 /data/cephfs -r /ea
Monitor:
Monitor线程处理集中的集群管理,配置和状态监控。他们是相对来说较轻的线程,用到的数据保存在本地文件系统。需要注意的是,监控线程必须有奇数个。
Ceph mds:
Ceph中的元数据服务器(mds)本质上就是一个满足一致性的分布式元数据缓存,所有的元数据都保存在存储节点上。元数据服务器(线程)能根据需要任意地加入到集群中,负载会自动的在这些服务器间进行平衡。例如可以先启动1到2个,然后根据需要再增加。配置文件中max mds参数控制最多有多少活动线程,额外的线程处于standby状态,如果有活动线程出故障了则standby状态的线程取代之
Ceph osd:
Osd是存储数据和元数据的实际存储节点,最好运行两个osd,其中一个作为另一个的备份。每个osd其实就是一个线程,提供访问本地磁盘的服务。Osd端本地的文件系统最好用BTRFS,但是其他文件系统如ext3也可以.
主配置文件:ceph.conf fetch.conf
Ceph分布式文件系统
原创
©著作权归作者所有:来自51CTO博客作者weady的原创作品,谢绝转载,否则将追究法律责任
![](https://ucenter.51cto.com/images/noavatar_middle.gif)
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
Ceph集群分布式集群
Ceph集群分布式集群
ios docker centos ceph -
Ceph分布式存储之CephFS文件系统
Ceph分布式存储之CephFS文件系统
元数据 文件系统 服务器 -
分布式:搭建FastDFS分布式文件系统
分布式篇 - 搭建FastDFS分布式文件系统 & 结合Nginx实现访问服务环境准备两台CentOS7.x虚拟机:192.168.1.102
nginx 分布式 kubernetes php 配置文件 -
hadoop分布式文件系统
Hadoop 完全支持 MapReduce 模型, MapReduce 模型是谷歌公司为了在廉价的计算机集群上处理以 P 数量级计算的大数据集而提出的一个解决方案。这个解决方案把解决问题分成两个不同的步骤:  Map: 初始化数据的读入和转换,在此期间,框架对互不依赖的输入记录进行并行处理。  Reduce: 处理数据的组合和抽样,有关联的数据必须通过一个模块进行集中处理。 Hadoop 中 MapReduce 的核心概念是把输入的数据分成不同的逻辑块, Map 任务首先并行的对每一块进行单独的处理。这些逻辑块的处理结果会被重新组合成不同的排序的集合,这些集合最后由 Reduce 任务进行处理。
分布式文件系统 hadoop分布式文件系统 伪分布式系统 seync文件同步