2017-07-08 6 views
0

spark-cassandra-connectorをscalaで使用していて、テーブルにいくつかのエントリをアップロードしたいとします。私は、Pythonのドライバーのためのセッション構築体を使用して、次のアップロード方法を見てきました:Cassandra-Sparkコネクタ引数を解析してアップロードする

session.execute(
    """ 
    INSERT INTO users (name, credits, user_id) 
    VALUES (%s, %s, %s) 
    """, 
    ("John O'Reilly", 42, uuid.uuid1()) 
) 

は火花コネクタ支持にアップロードで引数を解析するための方法と、構文は次のようになりそうであれば、同様の方法をしていますか?上記の方法論をテストしたところ、うまくいかなかった。

答えて

1

Spark Cassandra Connectorは、主にSparkを使用してCassandraデータを操作するために作られています。これは、DatasetDataframe、またはRDDという単語を使用していない場合、おそらくSpark Cassandra Connectorを使用する必要はないことを意味します。

上記のフォーマットは、Spark Cassandraコネクタの一部として含まれているJavaドライバで有効で、CassandraConnectorラッパーを介してアクセスできます。 Documentation

import com.datastax.spark.connector.cql.CassandraConnector 

CassandraConnector(conf).withSessionDo { session => 
    session.execute("CREATE KEYSPACE test2 WITH REPLICATION = {'class': 'SimpleStrategy', 'replication_factor': 1 }") 
    session.execute("CREATE TABLE test2.words (word text PRIMARY KEY, count int)") 
} 
関連する問題