は、以前のCouchDBはcloudantコネクタを介してサポートされていました:DataScienceエクスペリエンスでSparkSQLを使用してCloudand/CouchDBに接続する方法は?
https://github.com/cloudant-labs/spark-cloudant
しかし、このプロジェクトでは、それはもはや有効ではないと述べて、それがApacheのBahirに移動していること:だから
http://bahir.apache.org/docs/spark/2.1.1/spark-sql-cloudant/
私は」次のコマンドを使用して、ScalaノートブックにJARをインストールしました。
spark = SparkSession\ .builder\ .appName("Cloudant Spark SQL Example in Python using dataframes")\ .config("cloudant.host","0495289b-1beb-4e6d-888e-315f36925447-bluemix.cloudant.com")\ .config("cloudant.username", "0495289b-1beb-4e6d-888e-315f36925447-bluemix")\ .config("cloudant.password","xxx")\ .config("jsonstore.rdd.partitions", 8)\ .getOrCreate() # ***1. Loading dataframe from Cloudant db df = spark.read.load("openspace", "org.apache.bahir.cloudant") df.cache() df.printSchema() df.show()
しかし、私は得る:0%AddJar http://central.maven.org/maven2/org/apache/bahir/spark-sql-cloudant_2.11/2.1.1/spark-sql-cloudant_2.11-2.1.1.jar
はその後、Pythonのノートブックから、カーネルを再起動した後、私はテストに次のコードを使用し
javaの。 lang.ClassNotFoundException:org.apache.bahir.cloudant.DefaultSource
0 1つの回避策はあり