如何将Spark集群与其他Hadoop2.x集群集成到Docker上

我的服务器上已经安装了Hadoop2.5集群,在Docker上运行 ,并且我们有一个在同一台服务器上运行的Spark独立集群(也部署在Docker中),我如何将Spark集群从独立模式切换到Spark on Yarn ,因为hadoop和火花运行在分离的docker。