0
を知っていますか:df.write.jdbcはJDBCプール接続を処理しますか?次の行は、JDBCプールの接続を処理できる場合は
df.write
.mode("append")
.jdbc(url, table, prop)
あなたが任意のアイデアを持っていますか?ありがとう
を知っていますか:df.write.jdbcはJDBCプール接続を処理しますか?次の行は、JDBCプールの接続を処理できる場合は
df.write
.mode("append")
.jdbc(url, table, prop)
あなたが任意のアイデアを持っていますか?ありがとう
私はと思うだと思います。
spark.read.jdbc
スパークSQLがJDBCRelationを作成するように要求します。最終的にbuildScanが実行され、JDBCRDD.scanTable
が呼び出され、JdbcUtils.createConnectionFactory(options)がJDBCRDD
になります。
これで、driver.connect(options.url, options.asConnectionProperties)が表示され、driver
が接続プールを処理しない限り、Spark SQLはそれを行いません。
は
df.write.jdbc
が類似している(ちょうどあなたが別の質問をしていることに気づきました)。再び同じRDDを使用するJDBCRelation
につながります。