改下repo仓库的设置就好了:
找到sbt文件夹,一般在Administrator下,然后在sbt里新建一个repositories文件,添加内容:
[repositories]
local
osc: >
sbt10347是压片糖果执行标准。糖果压片糖果SBT10347-2008与SB10347至2001压片糖果相比,主要修改如下,由SB10347至2001部分强制性行业标准改为推荐性行业标准。
分型名称由清型改为坚实型增加了包衣,包衣抛光型和其他型,干燥失重100g增加包衣,包衣抛光型,干燥失重检测方法改为按附录A执行,糖果压片糖果SBT10347至2008附录A为规范性附录。
简介:
压片糖又称粉糖或片糖,也常被称作汽水糖,它是以精制糖粉为主体,添加奶粉,香料等填充料和淀粉糖浆,糊精,明胶等粘合剂,经制粒压片成型的混合物,它无需加热熬煮。
被称为冷加工工艺,生产执行标准sbt10347是压片糖果的产品分类,技术要求,检验方法,检验规则和标志,标签,包装,运输,贮存要求的国家规定标准,压片糖果是以食糖或糖浆粉剂或甜味剂等为主要原料,经混合,造粒,压制成型等相关工艺制成的固体糖果。
scala是一门基于jvm的编程语言
sbt是scala的一个构建工具,类似于maven,可以完成引入依赖库,编译,测试,打包,发布等工作
ideaLU是一个编程软件,可以方便scala的开发,比如有好的代码提示等等。编程软件可以包含sbt的插件,当然sbt也是可以单独使用的
1Size Balanced Tree是一自平衡二叉查找树,是在计算机科学中用到的一种数据结构
2Sbt 巴西国家电视台。 3SBT Segregated ballast tank 分隔压舱水柜 4 SBT 解释为:死变态 5SBT :双胞胎或三胞胎
是这个么?好多种意思,不知你问的是那种。
一、编写第一个用scala写的spark应用:
仿照spark的 quick-start的Self-Contained Applications写出第一个scala完整程序
链接如下:
即:
/ SimpleAppscala /import orgapachesparkSparkContextimport orgapachesparkSparkContext_import orgapachesparkSparkConfobject SimpleApp {
def main(args: Array[String]) {
val logFile = "YOUR_SPARK_HOME/READMEmd" // Should be some file on your system
val conf = new SparkConf()setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sctextFile(logFile, 2)cache()
val numAs = logDatafilter(line => linecontains("a"))count()
val numBs = logDatafilter(line => linecontains("b"))count()
println("Lines with a: %s, Lines with b: %s"format(numAs, numBs))
}}
整个程序作用是:找到这个文件
YOUR_SPARK_HOME/READMEmd
中有几个a和几个b。
二、用sbt进行打包成jar:
命令:sbt package
具体步骤见
中的Self-Contained Applications
打包时候几点注意:
1、
目录结构一定要对
目录结构可以通过find 来看
有点类似cmake的感觉
2、
总时间,近30分钟,开始打开会terminal没现象10分钟,然后开始要各种resolve,之后要下载很多库,我这边网速超慢
sbt是个联网编译器,
Spark的应用用到了很多RDD的变换,来编译这些库都得去网上下相应的包
最后显示,编译时间11s
这时成功完成SimpleApp
三、在本机上测试:
命令为:
YOUR_SPARK_HOME/bin/spark-submit \
--class "SimpleApp" \
--master local[4] \
target/scala-210/simple-project_210-10jar
我对jar的理解就是一个可执行文件了,这个可执行文件在JVM上就可以跑了,local中4是指设置成4个线程,但具体原因我也不知道
注意submit的参数:
--class中 SimpleApp是包名
上传的的jar的地址别写错
一、编写第一个用scala写的spark应用:
仿照spark的 quick-start的Self-Contained Applications写出第一个scala完整程序
链接如下:
即:
/ SimpleAppscala /import orgapachesparkSparkContextimport orgapachesparkSparkContext_import orgapachesparkSparkConfobject SimpleApp {
def main(args: Array[String]) {
val logFile = "YOUR_SPARK_HOME/READMEmd" // Should be some file on your system
val conf = new SparkConf()setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sctextFile(logFile, 2)cache()
val numAs = logDatafilter(line => linecontains("a"))count()
val numBs = logDatafilter(line => linecontains("b"))count()
println("Lines with a: %s, Lines with b: %s"format(numAs, numBs))
}}
整个程序作用是:找到这个文件
YOUR_SPARK_HOME/READMEmd
中有几个a和几个b。
二、用sbt进行打包成jar:
命令:sbt package
具体步骤见
中的Self-Contained Applications
打包时候几点注意:
1、
目录结构一定要对
目录结构可以通过find 来看
有点类似cmake的感觉
2、
总时间,近30分钟,开始打开会terminal没现象10分钟,然后开始要各种resolve,之后要下载很多库,我这边网速超慢
sbt是个联网编译器,
Spark的应用用到了很多RDD的变换,来编译这些库都得去网上下相应的包
最后显示,编译时间11s
这时成功完成SimpleApp
三、在本机上测试:
命令为:
YOUR_SPARK_HOME/bin/spark-submit \
--class "SimpleApp" \
--master local[4] \
target/scala-210/simple-project_210-10jar
我对jar的理解就是一个可执行文件了,这个可执行文件在JVM上就可以跑了,local中4是指设置成4个线程,但具体原因我也不知道
注意submit的参数:
--class中 SimpleApp是包名
上传的的jar的地址别写错
阅读全文
以上就是关于sbt 依赖仓库连不上怎么解决全部的内容,包括:sbt 依赖仓库连不上怎么解决、linux无网情况下 如何安装 sbt、sbt10347是保健品吗等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!