2017-12-28 27 views
0

たとえば、ブラウザでhttps://stackoverflow.com/を開くと、ブラウザはメインページだけでなく、images、js、cssもダウンロードします。URLのHTMLにリンクをダウンロードする方法は?

しかし、curl https://stackoverflow.com/を実行すると、メインページのHTMLのみがダウンロードされます。 images/js/cssもダウンロードできるcurlまたはwgetのオプションがありますか?

または他のツールでこれを行うことはできますか?

+0

を救うのだろうか? https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage –

+0

[ウェブページの作業中のローカルコピーをダウンロードする](https://stackoverflow.com/)の可能な複製質問/ 6348289/download-a-working-local-a-a-a-a-webページ) –

答えて

0

wget -rはすべて

重複可能
wget -r www.your-site.com 
関連する問題