连接齐柏林docker与蜂巢
嗨,我是相当新的docker和齐柏林飞艇。 我最近从这个链接创build了一个齐柏林docker。 我正尝试通过HiveContext与齐柏林笔记本上的configuration单元连接。 从解释器页面spark中将zeppelin.spark.useHiveContext设置为true。
当我尝试下面的代码:
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
正在给出以下错误:
<console>:30: error: object hive is not a member of package org.apache.spark.sql val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
我是否仍然需要安assembly置单元解释器,甚至难以使用的UseContext是真实的? 现在我只想检查一下将来是否可以连接Hive数据库。
- 如何使用Apache Spark(pyspark)和Docker分发类
- 在Docker中运行Spark时抛出java.lang.OutOfMemoryError
- 无法在Spark上运行Docker上的Cassandra
- 使用来自私有registry的自定义Docker镜像的Spark作业
- 在Java中通过spark连接到Cassandra时出现问题
- docker上的文件名太长
- Spark Job Server是否必须与Spark Master部署在同一台主机上?
- 如何将Spark集群与其他Hadoop2.x集群集成到Docker上
- docker-compose v3 + apache spark,端口7077拒绝连接