2016-04-22 15 views
5

私はSparkにとって全く新しいです。学習はSparkで進行中です。実際には、以下のようないくつかの問題に直面している。複数のステップと静かな時間。 私はUNIX環境でspark-shellを使用しています。以下のようにエラーを取得します。<console>:22:エラー:見つからなかった:値sc

ステップ1

 

    $ spark-shell 
    Welcome to 
      ____    __ 
     /__/__ ___ _____/ /__ 
     _\ \/ _ \/ _ `/ __/ '_/ 
     /___/ .__/\_,_/_/ /_/\_\ version 1.3.1 
      /_/ 

    Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_25) 
    Type in expressions to have them evaluated. 
    Type :help for more information. 
    2016-04-22 07:44:31,5095 ERROR JniCommon fs/client/fileclient/cc/jni_MapRClient.cc:1473 Thread: 20535 mkdirs failed for /user/cni/.sparkStaging/application_1459074732364_1192326, error 13 
    org.apache.hadoop.security.AccessControlException: User cni(user id 5689) has been denied access to create application_1459074732364_1192326 
      at com.mapr.fs.MapRFileSystem.makeDir(MapRFileSystem.java:1100) 
      at com.mapr.fs.MapRFileSystem.mkdirs(MapRFileSystem.java:1120) 
      at org.apache.hadoop.fs.FileSystem.mkdirs(FileSystem.java:1851) 
      at org.apache.hadoop.fs.FileSystem.mkdirs(FileSystem.java:631) 
      at org.apache.spark.deploy.yarn.Client.prepareLocalResources(Client.scala:224) 
      at org.apache.spark.deploy.yarn.Client.createContainerLaunchContext(Client.scala:384) 
      at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:102) 
      at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.start(YarnClientSchedulerBackend.scala:58) 
      at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:141) 
      at org.apache.spark.SparkContext.(SparkContext.scala:381) 
      at org.apache.spark.repl.SparkILoop.createSparkContext(SparkILoop.scala:1016) 
      at $iwC$$iwC.(:9) 
      at $iwC.(:18) 
      at (:20) 
      at .(:24) 
      at .() 
      at .(:7) 
      at .() 
      at $print() 
      at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
      at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
      at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
      at java.lang.reflect.Method.invoke(Method.java:606) 
      at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
      at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1338) 
      at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
      at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
      at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
      at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:856) 
      at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:901) 
      at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:813) 
      at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:123) 
      at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:122) 
      at org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324) 
      at org.apache.spark.repl.SparkILoopInit$class.initializeSpark(SparkILoopInit.scala:122) 
      at org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1$$anonfun$apply$mcZ$sp$5.apply$mcV$sp(SparkILoop.scala:973) 
      at org.apache.spark.repl.SparkILoopInit$class.runThunks(SparkILoopInit.scala:157) 
      at org.apache.spark.repl.SparkILoop.runThunks(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoopInit$class.postInitialization(SparkILoopInit.scala:106) 
      at org.apache.spark.repl.SparkILoop.postInitialization(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:990) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
      at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135) 
      at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:944) 
      at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1058) 
      at org.apache.spark.repl.Main$.main(Main.scala:31) 
      at org.apache.spark.repl.Main.main(Main.scala) 
      at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
      at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
      at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
      at java.lang.reflect.Method.invoke(Method.java:606) 
      at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569) 
      at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166) 
      at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:189) 
      at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:110) 
      at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 

    java.lang.NullPointerException 
      at org.apache.spark.sql.SQLContext.(SQLContext.scala:145) 
      at org.apache.spark.sql.hive.HiveContext.(HiveContext.scala:49) 
      at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) 
      at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) 
      at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) 
      at java.lang.reflect.Constructor.newInstance(Constructor.java:526) 
      at org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:1027) 
      at $iwC$$iwC.(:9) 
      at $iwC.(:18) 
      at (:20) 
      at .(:24) 
      at .() 
      at .(:7) 
      at .() 
      at $print() 
      at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
      at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
      at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
      at java.lang.reflect.Method.invoke(Method.java:606) 
      at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
      at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1338) 
      at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
      at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
      at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
      at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:856) 
      at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:901) 
      at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:813) 
      at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:130) 
      at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:122) 
      at org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324) 
      at org.apache.spark.repl.SparkILoopInit$class.initializeSpark(SparkILoopInit.scala:122) 
      at org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1$$anonfun$apply$mcZ$sp$5.apply$mcV$sp(SparkILoop.scala:973) 
      at org.apache.spark.repl.SparkILoopInit$class.runThunks(SparkILoopInit.scala:157) 
      at org.apache.spark.repl.SparkILoop.runThunks(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoopInit$class.postInitialization(SparkILoopInit.scala:106) 
      at org.apache.spark.repl.SparkILoop.postInitialization(SparkILoop.scala:64) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:990) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
      at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:944) 
      at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135) 
      at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:944) 
      at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1058) 
      at org.apache.spark.repl.Main$.main(Main.scala:31) 
      at org.apache.spark.repl.Main.main(Main.scala) 
      at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
      at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
      at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
      at java.lang.reflect.Method.invoke(Method.java:606) 
      at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:569) 
      at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166) 
      at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:189) 
      at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:110) 
      at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) 

    :10: error: not found: value sqlContext 
      import sqlContext.implicits._ 
       ^
    :10: error: not found: value sqlContext 
      import sqlContext.sql 
       ^

ステップ2:

私は上記の警告/エラーを無視して、私のコードを上に移動。私はそれを読んで、私はスパークシェルを使用する場合、scは自動的に作成されるので、以下のようにコード化されています。

<pre> 
scala> val textFile = sc.textFile("README.md") 
<console>:13: error: not found: value sc 
     val textFile = sc.textFile("README.md") 
</pre> 

ステップ3: SCが見つからないと言っているとして、それを作成してみました。

スパークは私に言ったように(もちろん、エラーとも言われています)、無視されてRDDを作成しました。もう一度、ここで私は確信していない、これはエラー/警告ですか?

ステップ4

次のようにRDDを作成しました。

<pre> 

scala> var fil = ssc.textFile("/mapr/datalake/01.Call_ID.txt") 
<console>:21: error: value textFile is not a member of org.apache.spark.streaming.StreamingContext 
     var fil = ssc.textFile("/mapr/datalake/01.Call_ID.txt") 
        ^

</pre> 

ここで私はtextFileがstreamingContextのメンバーではないと言っています。私はこれらすべてで怒っています。また、会社のラップトップ(JFYI)でスクリプトを実行する会社に勤めています。

答えて

0

私はこのすべてが権限の不足のためだと思います。あなたがあなたのアカウントの権限を上書きする必要があることを

HADOOP_USER_NAME=hdfs spark-shell

を入力することができ、クラスタを使用するために、適切なアクセス権限があり仮定。

+0

試したHADOOP_USER_NAME = hdfs spark-shellとHADOOP_USER_NAME = cni spark-shell しかし、それは私に同じエラーを与えています(cniは私のユーザ名です) パーミッションを確認するにはどうすればいいですか? – subro

+0

権限が設定されていない可能性があります。 hadoop fs -ls /を実行してみてください。ファイルアクセス権があるかどうか少なくとも確認してください。 – SChorlton

+0

$のHadoopのFS -ls/ 9つのアイテム drwxr-XR-Xを発見 - MAPR MAPR 1 2016年4月5日16時29 /アプリ drwxrwxrwx - MAPR MAPR 1 2014年9月29日午前15時45分/ drwxr-ベンチマークxr-x - mapr mapr 16 2016-02-02 00:03/datalake drwxr-xr-x - mapr mapr 0 2013-12-10 16:35/hbase drwxr-xr-x - mapr mapr 0 2014-09 -27 08:14/tables drwxrwxrwx - mapr mapr 1124 2016-04-22 22:40/tmp drwxr-xr-x - mapr mapr 18 2016-04-14 14:06/user drwxr-xr-x - mapr mapr 1 2013-12-10 16:35/var drwxrwxrwt - mapr mapr 356 2016-04-22 11:43/yarnlogs – subro

0

HDFSのユーザーディレクトリ内にフォルダを作成する際に問題が発生しているようです。

フォルダのアクセス許可を確認します。/ユーザー/ CNI/

をあなたはコマンドを使用してユーザーフォルダへのすべてのアクセスを与えて試すことができます。

hdfs dfs -chmod -R 777 /user/cni 

これは、共有クラスタで推奨されていませんか、プロダクションではそれがアクセスの問題であるかどうかを判断するのに役立ちます。

関連する問題