Tag: 斯卡拉

我如何安装与Docker的演员平台

我正在尝试使用Docker安装Actor Platform。 我怎么能做到这一点? 我无法在文档中find它。

Docker数据量为SBT依赖关系

我正在使用Docker进行Scala项目的持续集成。 在容器内部,我正在构build项目并创build一个“sbt dist”分布。 这需要很长的时间来拉下所有的依赖关系,我想使用这里提到的docker数据量: http : //docs.docker.io/en/latest/use/working_with_volumes/ 但是,我不明白我怎样才能让SBT把jar文件放到卷中,或者SBT怎么知道如何从这个卷中读取它们。

Docker Akka-Http应用程序端点无法访问

我有一个非常基本的Akka-http应用程序,它基本上不比Hello-world设置更多 – 我定义了一个端点并简单地将它绑定到“localhost”和端口“8080”: object Main extends App with Routes { private implicit val system = ActorSystem() protected implicit val executor: ExecutionContext = system.dispatcher protected implicit val materializer: ActorMaterializer = ActorMaterializer() protected val log: LoggingAdapter = Logging( system, getClass ) log.info( "starting server" ) Http().bindAndHandle( logRequestResult("log",Logging.InfoLevel)( allRoutes ), "localhost", 8080 ) log.info( "server started, awaiting requests.." […]

如何从sbt-native-packager发布到Google Container Engine?

我正在尝试dockerizing我的Scala / Akka应用程序:我正在使用sbt-native-packager并希望部署到GKE。 看来我可以通过在我的build.sbt文件中设置正确的值,然后通过sbt docker:publish启动它。 我不知道build.sbt文件中的值应该是什么。 例如, dockerRepository设置应该具有表单 [repository.host[:repository.port]] 在GKE上放上一个集群的正确信息是什么? 非常感谢你的任何指针。

Apache Kafka IO错误

我有一个非常基本的卡夫卡安装,只是为了testing。 现在我试图从控制台发送一些数据到一个主题: ./kafka-console-producer.sh –topic test –sync –broker-list 192.168.59.103:9092,192.168.59.103:9093,192.168.59.103:9094 test test2 test3 [2015-02-16 06:19:37,156] WARN Failed to send producer request with correlation id 12 to broker 1 with data for partitions [test,0] (kafka.producer.async.DefaultEventHandler) java.io.IOException: Broken pipe at sun.nio.ch.FileDispatcherImpl.writev0(Native Method) at sun.nio.ch.SocketDispatcher.writev(SocketDispatcher.java:51) at sun.nio.ch.IOUtil.write(IOUtil.java:148) at sun.nio.ch.SocketChannelImpl.write(SocketChannelImpl.java:524) at java.nio.channels.SocketChannel.write(SocketChannel.java:493) at kafka.network.BoundedByteBufferSend.writeTo(BoundedByteBufferSend.scala:56) at kafka.network.Send$class.writeCompletely(Transmission.scala:75) at kafka.network.BoundedByteBufferSend.writeCompletely(BoundedByteBufferSend.scala:26) at kafka.network.BlockingChannel.send(BlockingChannel.scala:103) at […]

在Elasticbeanstalk for Scala应用程序中部署和托pipeDocker多容器环境的最佳实践是什么?

我有几个我想在Amazon的Elastic Beanstalk的Docker多容器环境中部署的Scala应用程序。 整个过程似乎有点复杂,我期待。 所以我非常期待听到最佳实践和其他方法的反馈,以改善我的整个过程,并能够“自动化”一些步骤(如果可能的话)。 这是我目前的过程: 为了生成我的项目的工件,我使用了sbt-docker插件。 这个插件在[app-route] / target / docker下生成项目工件(jar和Dockerfile)。 我将这些工件(jar子和Dockerfile)上传到一个git仓库(目前这样做“手动”)。 由于Amazon的Elastic Beanstalk需要Docker多容器 ,因此我需要一个联机存储库来“托pipe”这些映像:可能是Docker-Hub或Quay.io。 要么我需要一个git仓库,在这个仓库中可以find工件来生成项目的图像。 在Elastic Beanstalk中创build了多容器环境之后,我继续上传Dockerrun.aws.json文件,详细信息请参阅Amazon的文档以及.ebextensions / elb-listeners.config文件中的端口设置(因为我是运行多个应用) 魔法! 亚马逊产生我的环境。 相同的url,为我所有的应用程序不同的端口(在第4步中的configuration文件中指定)。 我很想find一种方法来自动化步骤2 。 因为这要求我每个应用程序都有额外的回购。 我有我的应用程序托pipe在一个git回购,我有一个“额外”回购每个我主办的步骤1中产生的工件能够做第3步 。

SBT泊坞窗:发布validation问题

我使用SBT本地包装程序来构buildDocker Image,而我的build.sbt是: packageName in Docker := name.value version in Docker := version.value dockerBaseImage := "java" dockerRepository :=Some("index.docker.io/xyz") dockerExposedPorts := Seq(8283) 我正在试图发布形象私人docker枢纽,但它的给予 [error] unauthorized: authentication required. 在build.sbt如何指定集线器用户名和密码 。 有没有其他的configuration,我在这里失踪。

为什么Play项目中的sbt-docker的enablePlugins(DockerPlugin)给出了“错误:对DockerPlugin的引用是不明确的”?

我试图dockerize玩一个networking应用程序,我正在使用sbt-docker。 当我执行sbt docker的时候,我得到了错误的结果: error: reference to DockerPlugin is ambiguous; it is imported twice in the same scope by import _root_.sbtdocker.DockerPlugin and import _root_.com.typesafe.sbt.packager.docker.DockerPlugin enablePlugins(DockerPlugin) ^ [error] Type error in expression Project loading failed: (r)etry, (q)uit, (l)ast, or (i)gnore? q 我得到了上面的错误,我的build.sbt看起来像这样: enablePlugins(DockerPlugin) lazy val root = (project in file(".")).enablePlugins(PlayScala) scalaVersion := "2.11.6" libraryDependencies ++= Seq( jdbc, […]

Elasticsearch-Hadoop库无法连接到Docker容器

我已经从Cassandra读取数据,处理/转换/过滤数据,并将结果写入Elasticsearch。 我使用docker进行集成testing,并且遇到了从spark写入Elasticsearch的麻烦。 依赖关系: "joda-time" % "joda-time" % "2.9.4", "javax.servlet" % "javax.servlet-api" % "3.1.0", "org.elasticsearch" % "elasticsearch" % "2.3.2", "org.scalatest" %% "scalatest" % "2.2.1", "com.github.nscala-time" %% "nscala-time" % "2.10.0", "cascading" % "cascading-hadoop" % "2.6.3", "cascading" % "cascading-local" % "2.6.3", "com.datastax.spark" %% "spark-cassandra-connector" % "1.4.2", "com.datastax.cassandra" % "cassandra-driver-core" % "2.1.5", "org.elasticsearch" % "elasticsearch-hadoop" % "2.3.2" excludeAll(ExclusionRule("org.apache.storm")), "org.apache.spark" […]

docker.io – Docker连接应用程序和数据库容器

我试图用我的Scala-Akka应用程序和两个独立的Docker容器上的MySQL数据库。 我发现Docker允许开发人员用名为–link的标志将他们的应用程序连接到他们的数据库。 在我用来创build图像的Dockerfiles中,我添加了EXPOSE 3306 8080。 这就是我如何运行容器: docker run -d -p 3306:3306 –name mysql centos6mysql docker run -d -p 8080:8080 –name scalaapp –link mysql:db centos6scala 在运行容器后,我使用docker ps,我可以看到活动的容器。 但是,应用程序容器似乎没有使用MySQL容器中的数据库。 任何人都知道什么是错的?