GCPを使用して、廃止予定のCloud Datalab Deployerのデータをdocker Datalabコンテナに正常に移行しました。私はMacOSを使用しており、ホームディレクトリがコンテナの/content
ディレクトリに接続されていることがわかります。だから私のノートブックはDatalab Jupyterインターフェースでアクセス可能です。JupyterのPythonセルからDatalabのコンテナ内のファイルにアクセスできない
私のノートブックには、ノートブック自体と同じディレクトリにあるテキストファイルからストップワードリストをロードするテキスト処理ルーチンがあります。 しかし、私はPythonコードから/content
ディレクトリ内のファイルの1へのアクセスを持ってしようとしたとき、私は「ファイルが存在しません」というエラー受信:私はls
コマンドを実行したとき、私は見ることができない、実際
>>> stopwords_full = load_stopwords_from_file('./stopwords/verylong_words_list.txt')
IOError: File ./stopwords/verylong_words_list.txt does not exist
をなど、そのすべてのサブファイルとディレクトリ/content
:Datalabの古いバージョンで
>>> !ls
bin dev lib mnt proc sbin sys usr
boot etc lib64 node_modules root srcs tmp var
datalab home media opt run srv tools
は、私がこのようなエラーを持っていませんでした。
Datalab Jupyterのpythonセルから、/content
ディレクトリにあるファイルで作業するにはどうすればよいですか?
GCPでDatalabを使用すると、 '!hostname'はデータラブゲートウェイのホスト名を示しています。 [Datalab local](https://cloud.google.com/datalab/docs/quickstarts/quickstart-local)設定を使用すると、ローカルコンテナのホスト名が表示されます。 '!ls'を実行するとローカルファイルにアクセスし、' content'フォルダを見ることができます。 GCPでDatalabを使用する際にファイルにアクセスする可能性のある回避策の1つは、Google Cloud Storageを使用することです。参考になる可能性のある[次のリンク](https://github.com/googledatalab/notebooks/blob/master/tutorials/BigQuery/Importing%20and%20Exporting%20Data.ipynb)の例があります。 –
ありがとう@AnthoniosPartheniou! Google Cloud Storageを使用して問題が解決されるようです。 GCS(Googleのクラウドソースリポジトリを通じてノートブックを共有するチーム)で 'git'を使用できるかどうか知っていますか?私は 'gsutil rsync' [回避策](http://stackoverflow.com/questions/29859651/sync-github-repository-with-google-cloud-storage-bucket)を見つけましたが、もっと単純な解決策があるかもしれません。 –
カーネルはGCPにありますが、ノートブックはローカルマシン上にあります。 Google Cloud Source Repositoryを引き続き使用できます。リポジトリをローカルマシンに複製するだけです(https://cloud.google.com/source-repositories/docs/adding-repositories-as-remotes)。あなたの 'docker run ...'コマンドで '-v" $ {HOME}:/ content "'を変更してください。'$ {HOME} 'というテキストをあなたのノートが入っているフォルダのパスに置き換えます。 Googleドライブは、チームとフォルダを共有/同期できるため、ノートブックを共有する別の方法です。私の個人的な好みは、クラウドソースリポジトリをローカルのgitクライアントで使用することです。 –