如何在cloud9.io上的工作区(容器)之间分配应用程序工作负载?
我如何在c9上实现这个策略?
my_python_script.py位于https://ide.c9.io/user/my_workspace
my_python_script.py将一些文本发送到https://ide.c9.io/user/my_other_workspace
my_python_script.py在https://ide.c9.io/user/my_other_workspace上启动process_text.sh
my_python_script.py从https://ide.c9.io/user/my_other_workspace中检索已处理的文本
我需要两个工作区,因为资源限制使我无法在一个工作区上执行此操作
这两个工作区包含(不同的)内存占用neo4j数据库
一个数据库处理文本的NLP。 其他数据库存储的东西。
结果cloud9.io不提供直接的方法来做到这一点。 每个工作空间与其他工作空间完全分开,因为它们存在于不同的Docker容器中。 我可以考虑在另一个工作空间的端口8080-8082上创build一个监听器,这个监听器可以在命中时触发bash脚本。 或者,我可以使用SSH工作区,因为这将为我提供所需的全部资源。
- 与Iperf的haproxy udpstream量
- 基本图像导致通过Jenkinepipe道在我的泊坞窗文件caching半身像
- 如何使用gliderlabs / alpine设置Dockerfile中的时区:3.3
- 即使已经安装,Ansible也不能导入docker-py
- 错误:无法findRequirement.parse('supervisor')的合适分配
- 将parameter passing给在docker上运行的python应用程序
- Travis Docker Image缺lessPython 3.5
- Docker卷绑定中断python脚本CLI entry_point
- Docker的构build似乎在安装非pip Python包时会挂起