0
Pythonを使用してAWSのPostgres RDSデータベースに大規模なcsvファイルをロードする最も簡単な方法は何ですか?地元のpostgresインスタンスにデータを転送するPythonを使用して大規模なcsvファイルをAWSのPostgres RDSにアップロード
が、私は以前のようなSQL文を実行するためにpsycopg2
接続を使用しています。リモートAWS RDSデータベースに対してこれを実行する際に
COPY my_table FROM 'my_10gb_file.csv' DELIMITER ',' CSV HEADER;
をただし、これはエラーを生成します.csv
ファイルには、データベース・サーバではなく、私のローカルマシン上にある:これが動作しない理由を
ERROR: must be superuser to COPY to or from a file
SQL state: 42501
Hint: Anyone can COPY to stdout or from stdin. psql's \copy command also works for anyone.
This answerは説明しています。
私は今、psql
を使ってこれを自動化するためのPython構文を探しています。私はアップロードする必要がある.csv
ファイルが大量にあるので、私はこれを自動化するスクリプトが必要です。
'PSQL -c「\ MY_TABLE COPY
は、その後、あなたはこのような
psql
ステートメントを実行する必要がありますFROM 'my_10gb_file.csv' DELIMITER '、' CSV HEADER; "'は動作します... –