2017-09-20 9 views
0

同じ単純なPythonスクリプトを使用して作成した2つの.csvファイルがあります。COPY FROMから '90秒後にレコードが挿入されませんでしたが、実際にレコードが挿入されました。

No records inserted in 90 seconds, aborting 

:両方が6列を持って、一つは、私は大きなファイルcopy fromにしようとすると、予想通り、それは動作しますが、私は小さい1と同じ操作を行うとき、私が得る120、365行と他のを持っていますしかし、テーブル上でselectを実行すると、実際にはいくつかの行が追加されていることがわかります。これは、最初にインポートを試みるファイルに関係なく、新しく作成されたテーブルで発生しました。

誰もこの問題を以前に持っていましたか?これを引き起こしていることは誰でも知っていますか?

私はcqlshバージョン5.0.1、Cassandra 3.11.0、CQL仕様3.4.4、Ubuntu 16.04を使用しています。

テーブル:

create table rated_skills ( primary_group varchar, secondary_group varchar, tertiary_group varchar, skill varchar, person varchar, rating int, primary key ((primary_group), skill, rating, person)) with clustering order by (skill desc, rating desc); 

コピーコマンド:

copy rated_skills (primary_group, secondary_group, tertiary_group, skill, person, rating) from 'methodologies_output.csv'; 

動作しないCSV:あなたのソリューションが動作しない理由についてHere

+0

大きなデータセットをインポートしようとしているときに同じ問題が発生していますが、残りの行の約0.5%でこのエラーが発生します。これを解決できましたか? –

答えて

2

私の推測では、おそらくあなたが 'primary'のような列名を使用していることが原因で、もちろんcqlの予約語です。

私の列名が、私は最初の3つの列を変更した後、それは完全に罰金働いていた、あなたと同じだったとき、私はコピーを実行できませんでした:

create table rated_skills (group1 varchar, group2 varchar, group3 varchar, skill varchar, person varchar, rating int, primary key ((group1), skill, rating, person)) with clustering order by (skill desc, rating desc) 

、コピーを* .CSV

から
copy 'keyspace'.rated_skills (group1, group2, group3, skill, person,rating) from 'csv.csv'; 

巨大なデータセットを使って作業する場合は、sstableライターを使用して書き込みを行い、sstableloaderを使用してデータを高速に読み込むことができます。

関連する問題