Docker Scrapinghub /飞溅与139退出

我正在使用Scrapy使用Scrapinghub / splash docker容器对Splash进行爬取,但是容器退出一段时间后退出代码139,我正在AWS EC2实例上运行指定1GB交换的刮板。

我也试图在后台运行,查看日志后没有任何指示和错误,只是退出。

从我理解的139是在UNIX中的Segmentation Fault错误,有无论如何检查或logging正在访问的内存的哪部分或正在执行的代码来debugging?

或者我可以增加容器内存或交换大小,以避免这种情况?