listbuffer

    0

    2答えて

    。、私はN行CSVを有する 'FileInputクラス' Iが正常sql.rowsのアレイを行った colname datatype elems start end colA float 10 0 1 colB int 10 0 9 ... それらの行に対する val df = spark.read.format("com.databricks.spark.csv").opt

    0

    1答えて

    私はこのように初期化された空のListBuffer[ListBuffer[(String, Int)]]()を持っていて、nListBuffer[(String, Int)]という数字でnと入力してください。 たとえば、n=2の場合、ListBuffer[(String, Int)]をListBuffer[ListBuffer[(String, Int)]]()に初期化することができます。私はルー

    0

    2答えて

    私は単純なものから読んでいるいくつかの値を持っていますText file。 これが私のデータです: val data = new ListBuffer[(String, BigDecimal)] は今、私は私のListBuffer内の項目を追加したい: data += ("bla bla", 12) そしてエラーが受信: 型の不一致が。見つかりました:リスト[(文字列、scala.math

    0

    1答えて

    だから私は、2つの値で、このListBufferを持っている:、StringとBigDecimal後の私は、印刷する前に、それをソートしたい私のListを移入: var data = new ListBuffer[(String, BigDecimal)] data+=(("se", 34)) data+=(("sh", 4)) data+=(("fjd", 33)) data+=(("d

    1

    1答えて

    コメント中のこのコード部分では、リストバッファ項目の長さは正しく表示されますが、2番目のコメントコードは決して実行されません。それはなぜ起こるのですか? val conf = new SparkConf().setAppName("app").setMaster("local") val sc = new SparkContext(conf) var wktReader: WKTReader

    0

    1答えて

    で、私は問題を解決していると私はこれだ: ant : scala.collection.mutable.ListBuffer[Set[Int]] = ListBuffer(Set(), Set(0), Set(0), Set(1), Set(2), Set(1), Set(3,4), Set(5, 6), Set(7)) ListBufferでの設定は、例えば、依存関係を表します。ant(1)

    0

    4答えて

    のいくつかのListBuffer [ロング]コードのこの作品は、正常に動作し、期待通り343423を返すに最大を取得: val longList: ListBuffer[Long] = ListBuffer(103948,343423,209754) val maxLong = longList.max しかし、それはいくつかのために動作しません[ロング]: val longSomeList

    -1

    1答えて

    i -= i.headを使用しても、ListBufferのi.remove(0)と同じ機能は実行されないようです。そうです。もしそうなら、なぜですか?

    0

    3答えて

    mutable.ListBufferで何か問題が起きていることがわかりましたが、修正方法や問題の適切な説明がわかりません。 以下のコードを単純化して動作を再現しました。 私は、最初のリストが処理されるときに、基本的に並行して関数を実行して、リストに要素を追加しようとしています。私は "失う"要素に終わる。返し import java.util.Properties import scala.c