处理Rethinkdb Docker Swarm的多个持久卷

我目前使用RethinkDB跨云服务器手动join每个服务器在安装。 我有兴趣转移到Swarm方法来使缩放和故障转移更容易。 目前的方法比较麻烦。

在当前的手动方法中,我只是在每个服务器上为RDB创build一个本地文件夹,并将其挂载为一个卷来存储其数据。 然而,使用Swarm意味着我需要更dynamic地处理卷。 每个容器将需要一个独特的卷,以防止错误的情况下分开的数据。

有关如何处理这种情况的任何build议? 到目前为止,我见过的很多教程都提到了Flocker来pipe理持久存储,但是我看不到被dynamic处理。

目前我正在为这样的情况而苦苦挣扎。 我已经用GlusterFS创build了一个临时修复程序。

你所要做的就是在所有Docker节点上安装GlusterFS并安装文件夹。 这样数据就存在于所有节点上。 但是,如果你有很多的写作,这是不太理想的。 由于Gluster处理您的数据复制以防止数据丢失,这可能会很慢。 这是稳定的,但我有一些问题的速度。

在你的情况下,我会build议看着Flocker。 Flocker是一个容器插件,用于在容器移动到另一个主机时迁移数据。 我没有任何经验,但在我的情况下,Flocker的概念呈现无用,我需要我的数据在多个主机上的多个容器(只读)这是Gluster进场的地方