ceph rbd与docker卷
我刚刚在两个不同的服务器中初始化一个ceph实例
cluster 241b5d19-15f5-48be-b98c-285239d70038 health HEALTH_WARN 64 pgs degraded 64 pgs stuck degraded 64 pgs stuck unclean 64 pgs stuck undersized 64 pgs undersized monmap e3: 2 mons at {serv1=10.231.69.9:6789/0,serv2=10.231.69.34:6789/0} election epoch 6, quorum 0,1 serv1,serv2 mgr no daemons active osdmap e10: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds,require_kraken_osds pgmap v22: 64 pgs, 1 pools, 0 bytes data, 0 objects 68292 kB used, 1861 GB / 1861 GB avail 64 active+undersized+degraded
只有mon
和osd
(我不设置mds
, rgw
或者CephFS
)。
我会使用rbd
为容器卷创build一个持久的共享存储,但是我真的很困惑如何在rbd
中插入osd
。
我看到一些rbd docker插件存在:
- https://github.com/yp-engineering/rbd-docker-plugin
- https://github.com/AcalephStorage/docker-volume-ceph-rbd
- https://github.com/contiv/volplugin
但似乎没有与最新的docker版本兼容或至less>= 1.13
。
因此,我在问自己,我怎么能达到我想要的,有些解决scheme出现在我的脑海里,但是我真的不确定哪个是最好的(或者甚至是可能的)。
- 使用
CephFS
+标准CephFS
文件系统挂载量 - 使用
rexray
(rexray
不再维护) - 安装Ceph对象网关S3并使用现有的docker
S3
插件 - 其他?
但是1.解决scheme似乎不够优雅,在较大的环境(超过2台服务器)中难以pipe理。
而解决scheme似乎是一个很好的起点,但任何人都有反馈?