首先参考这个编译源码并导入idea
然后在run configuration里取消run之前的make
然后跑一个SparkPi.scala,会报一些ClassNotFound的错,这时在Examples文件夹右键–> open module settings –> 把相应的Dependencies里改成Runtime
如果是SparkPi.scala,在run configuration里VM options里填-Dspark.master=local
首先参考这个编译源码并导入idea
然后在run configuration里取消run之前的make
然后跑一个SparkPi.scala,会报一些ClassNotFound的错,这时在Examples文件夹右键–> open module settings –> 把相应的Dependencies里改成Runtime
如果是SparkPi.scala,在run configuration里VM options里填-Dspark.master=local
如何部署hive2 on spark1
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M