不断推动docker数据的elasticsearch到S3
我有一个AWS EC2实例,它有一个运行elasticsearch的docker容器。 每一天,一些过程将新文档推入弹性search。 在文档进入弹性search的第二天,我想将这些文档推送到S3存储桶中。
我在网上find这个解决scheme
https://github.com/AckeeDevOps/elasticsearch-backup-to-s3
我是elasticsearch,docker和aws的新手,所以在git仓库中提供的步骤不够详细,我不知道该怎么做,所以我想知道是否有人可以validation我需要采取的步骤的理解如下:
0)克隆上面的git仓库,并设置以下参数:
ELASTICSEARCH_URL url with port where your elasticsearch runs, for example localhost:9200 S3_URL contains address in S3 where to store backups bucket-name/directory S3_ACCESS_KEY S3_SECRET_KEY CRON_SCHEDULE cron schedule string, default '0 2 * * *'
1)在我的EC2实例上,执行
docker build https://github.com/AckeeDevOps/elasticsearch-backup-to-s3
2)然后,我需要更改正在运行的现有docker集装箱有其他选项
/var/backup/elasticsearch -p 9200:9200 -d elasticsearch -Des.path.repo=/var/backup/elasticsearch
3)我不明白这行是什么:
docker run --link elasticsearch:elasticsearch -e ELASTICSEARCH_URL="elasticsearch:9200" -e SNAPSHOT_VOLUME="/var/backup/elasticsearch" -e S3_URL="your S3 url" -e S3_ACCESS_KEY="your S3 access key" -e S3_SECRET_KEY="your S3 secret key"
将弹性search数据连续推送到外部存储桶是否有一个更为接受/logging的方法? 将不胜感激任何build议和/或照明的步骤,将需要采取上述储存库。
- 将Docker容器放入AWS EC2实例的动机
- 通过Terraform发送Docker日志到AWS CloudWatch
- AWS ECS Windows容器networking模式问题
- 在Docker应用程序中启用摄像头并通过AWS ECS访问
- 在Elastic Beanstalk上托pipe的Docker化PHP应用程序中出现“python:not found”错误
- AWS ecs – 如果其中一个退出或死亡,则所有容器都将被终止(STOPPED)
- 如何使用awslog驱动程序从泊坞窗容器中获取日志?
- 弹性beanstalk中的RDS ENVvariables
- Docker swarm和ec2,如何通告外部ip地址