2017-10-02 3 views
0

DatabricksオンラインIDEを使用してAWS(Amazonで)を使用してデータをインポート/エクスポートしたいのですが、初心者ですから始める方法がわかりません! df.write: AWS Databricks Configuration

dbutils.fs.mount('s3a://<s3_key_id>:<s3_secret_key>@<your_bucket_name>', '/mnt/some_path') 

は、あなたがあなたのデータをエクスポート/インポートすることができるはずです。そうするための事前の

おかげで アントニオ

答えて

0

一つの方法は、最初にあなたのS3バケットを装着することです。 CSV(パス= 'を/ mnt/some_path /、ヘッダ=真)

それとも、ローカルファイルシステムにファイルを保存することができ、その後、S3にアップロード:

dbutils.fs.cp('/local_path/filename', 's3a://<s3_key_id>:<s3_secret_key>@<your_bucket_name/filename')