mule子性能调整资源有限

我们在容器化的环境中运行我们的Mule3.8.0EE应用程序,每个容器一个应用程序。 从容器层面来说,由于物理主机的资源池有限,我们限制了cpu /内存资源,而我所指的这个API最多只能使用1个cpu核心和512MB内存(由kubernetespipe理)

mulestream程相当简单 – 一个带有APIKit的http端点,然后一个后端Redis通过redis连接器调用key操作进行获取,dataweave将数据转换成json并返回

我们检测到的问题是一旦有加载请求(100+并发),以及与性能相关的所有默认configuration(策略,线程等),应用程序总是触发JVM退出,然后在容器内部重新启动

问题是给这些有限的资源,我们应该如何调整它至less不会死而是缓慢地处理这些负载。 期待的build议,例如:我们应该增加线程池还是减less? 我们应该使用同步处理策略吗? 等等

更新:我们使用docker json日志logging驱动程序,所以mule应用程序将其所有日志输出到容器的控制台,然后由docker接收,如果每次请求打印一行日志,并且一旦有负载,我注意到这也是这个glibc / tanuki包装问题(在mule3.8后被认为是固定的)。

提前致谢