如何在cloud9.io上的工作区(容器)之间分配应用程序工作负载?

我如何在c9上实现这个策略?

my_python_script.py位于https://ide.c9.io/user/my_workspace

my_python_script.py将一些文本发送到https://ide.c9.io/user/my_other_workspace

my_python_script.py在https://ide.c9.io/user/my_other_workspace上启动process_text.sh

my_python_script.py从https://ide.c9.io/user/my_other_workspace中检索已处理的文本

我需要两个工作区,因为资源限制使我无法在一个工作区上执行此操作

这两个工作区包含(不同的)内存占用neo4j数据库

一个数据库处理文本的NLP。 其他数据库存储的东西。

结果cloud9.io不提供直接的方法来做到这一点。 每个工作空间与其他工作空间完全分开,因为它们存在于不同的Docker容器中。 我可以考虑在另一个工作空间的端口8080-8082上创build一个监听器,这个监听器可以在命中时触发bash脚本。 或者,我可以使用SSH工作区,因为这将为我提供所需的全部资源。