scala

    -2

    1答えて

    Scalaの不変なマップを理解することは、重複するキーが使用できないことです。しかしflatMapが一覧に[マップ内のキーが生成された重複した場合: val l = List(1,2) //> l : List[Int] = List(1, 2) l.flatMap(m => Map("a" -> m)) //> res0: List[(String, Int)]

    1

    1答えて

    私が達成しようとしていることを示すために、以下のような工夫した例を作成しました。私はそれが処理する特定のタイプのリクエストでパラメータ化されたクラスを吐き出すファクトリを探しています。私はジェネリックスを理解していると思ったが、今は自分自身を疑う。 :)で object SourceFactory { def apply[T <: Source[_ <: RequestContext]]

    2

    1答えて

    私はこのようなケースクラスがあります。 case class Test(i: Int, t: Option[Test]) を私は今、このケースクラスを削減し、すべてのiさんを追加したいと思います。 。私はこの val x = Test(1, Some(Test(2, Some(Test(3,None))))) のような入力を持っているのであれば、たとえば、私は結果は6であることを期待し、こ

    2

    1答えて

    私はSparkアプリケーションを使用しています(Scalaを使用しています)、複数の値を含むListを持っています。私はこのリストを使用してDataFrameにwhere句を書き、タプル上のサブセットのみを選択したいと考えています。たとえば、私のリストには 'value1'、 'value2'、および 'value3'が含まれています。 mydf.where($"col1" === "value1

    1

    1答えて

    現在、再生2.4から2.5に移行しています。 私はテストで多くのNettyServerを実行しようとしているが、私は唯一の import akka.actor.ActorSystem import akka.stream.ActorMaterializer import org.scalatest.{FlatSpec, Matchers} import org.scalatest.concu

    4

    1答えて

    Akkaクラスター内のすべてのノードで、指定されたアクターに存在するランタイムデータがあります。これは、内部イベントまたはAPI呼び出しを介して単一のノードに更新される可能性があります。このデータを共有データベースに保存して永続化することはできましたが、永続化する必要がないため、高速化のためにメモリに格納するだけです。 Akka Cluster Singleton、Distributed Pub

    1

    2答えて

    まだmavenに精通し、ソースコードをspark-submit用のjarファイルにコンパイルしようとしています。私はIntelliJの使い方を知っていますが、これが実際にどのように機能するかを理解したいと思います。私はsparkやscalaのような最新のソフトウェアをすべてインストールしたEC2サーバを持っていて、今はmavenでコンパイルしたいSparkPi.scalaソースコードのサンプルを持

    1

    2答えて

    私はScalaから始めて、RangeとListでいくつか試してみると、非常に単純なスニペットで非常に奇妙なものが得られます。上、REPLで /home/olivier/Dropbox/Projects/ProjectEuler/misc/scala/ch05_ex02.scala:5: error: type mismatch; found : Unit required: Int pri

    4

    4答えて

    キー/値のSeqをマップに変換したいと考えています。シーケンスの最初の要素は予約されているので、のペアのリストは1の位置から開始します。 質問:この機能をより機能的な方法で実装することは可能ですか? def list2Map(plainMap:Seq[String]) = { var map = Map[String, String]() var idx = 1; w

    0

    1答えて

    文字列またはRDDを引数として受け取り、データフレームを返す関数を作成しようとしています。 コード: def udf1 (input: String) = { val file = sc.textFile(input); file.map(p => Person( (p.substring(1, 15)), p.substring(16, 20))).toDF