不断推动docker数据的elasticsearch到S3

我有一个AWS EC2实例,它有一个运行elasticsearch的docker容器。 每一天,一些过程将新文档推入弹性search。 在文档进入弹性search的第二天,我想将这些文档推送到S3存储桶中。

我在网上find这个解决scheme

https://github.com/AckeeDevOps/elasticsearch-backup-to-s3

我是elasticsearch,docker和aws的新手,所以在git仓库中提供的步骤不够详细,我不知道该怎么做,所以我想知道是否有人可以validation我需要采取的步骤的理解如下:

0)克隆上面的git仓库,并设置以下参数:

ELASTICSEARCH_URL url with port where your elasticsearch runs, for example localhost:9200 S3_URL contains address in S3 where to store backups bucket-name/directory S3_ACCESS_KEY S3_SECRET_KEY CRON_SCHEDULE cron schedule string, default '0 2 * * *' 

1)在我的EC2实例上,执行

 docker build https://github.com/AckeeDevOps/elasticsearch-backup-to-s3 

2)然后,我需要更改正在运行的现有docker集装箱有其他选项

 /var/backup/elasticsearch -p 9200:9200 -d elasticsearch -Des.path.repo=/var/backup/elasticsearch 

3)我不明白这行是什么:

 docker run --link elasticsearch:elasticsearch -e ELASTICSEARCH_URL="elasticsearch:9200" -e SNAPSHOT_VOLUME="/var/backup/elasticsearch" -e S3_URL="your S3 url" -e S3_ACCESS_KEY="your S3 access key" -e S3_SECRET_KEY="your S3 secret key" 

将弹性search数据连续推送到外部存储桶是否有一个更为接受/logging的方法? 将不胜感激任何build议和/或照明的步骤,将需要采取上述储存库。