2017-07-19 11 views

答えて

1

私はと思うだと思います。

spark.read.jdbcスパークSQLがJDBCRelationを作成するように要求します。最終的にbuildScanが実行され、JDBCRDD.scanTableが呼び出され、JdbcUtils.createConnectionFactory(options)JDBCRDDになります。

これで、driver.connect(options.url, options.asConnectionProperties)が表示され、driverが接続プールを処理しない限り、Spark SQLはそれを行いません。

df.write.jdbcが類似している(ちょうどあなたが別の質問をしていることに気づきました)。再び同じRDDを使用するJDBCRelationにつながります。

関連する問題