1:在运行./spark-submit --class "xxx/xxx/xxx.jar"时,记得不要有空格,否则会出现unable load class “xxx”类的报错。能细心一点是一点儿。2:如果代码没有标明要在集群上跑程序的时候,比如标明在本地运行,那么从一开始的打包代码(sbt package)到后来的spark-submit,到成功跑起来 都用不到hadoop和spark集群。我这个憨憨操作,每次一跑程序就把所有集群打开了好的,记录结束。(天再热也要坚持学习呀)