ceph rbd与docker卷

我刚刚在两个不同的服务器中初始化一个ceph实例

cluster 241b5d19-15f5-48be-b98c-285239d70038 health HEALTH_WARN 64 pgs degraded 64 pgs stuck degraded 64 pgs stuck unclean 64 pgs stuck undersized 64 pgs undersized monmap e3: 2 mons at {serv1=10.231.69.9:6789/0,serv2=10.231.69.34:6789/0} election epoch 6, quorum 0,1 serv1,serv2 mgr no daemons active osdmap e10: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds,require_kraken_osds pgmap v22: 64 pgs, 1 pools, 0 bytes data, 0 objects 68292 kB used, 1861 GB / 1861 GB avail 64 active+undersized+degraded 

只有monosd (我不设置mdsrgw或者CephFS )。

我会使用rbd为容器卷创build一个持久的共享存储,但是我真的很困惑如何在rbd中插入osd

我看到一些rbd docker插件存在:

  1. https://github.com/yp-engineering/rbd-docker-plugin
  2. https://github.com/AcalephStorage/docker-volume-ceph-rbd
  3. https://github.com/contiv/volplugin

但似乎没有与最新的docker版本兼容或至less>= 1.13

因此,我在问自己,我怎么能达到我想要的,有些解决scheme出现在我的脑海里,但是我真的不确定哪个是最好的(或者甚至是可能的)。

  1. 使用CephFS +标准CephFS文件系统挂载量
  2. 使用rexrayrexray不再维护)
  3. 安装Ceph对象网关S3并使用现有的docker S3插件
  4. 其他?

但是1.解决scheme似乎不够优雅,在较大的环境(超过2台服务器)中难以pipe理。

而解决scheme似乎是一个很好的起点,但任何人都有反馈?