wget

    2

    1答えて

    ファイルに含まれる日本語の単語のリストにbashを使用してwgetを実行するPythonスクリプトを作成しています。私はカールを使用するだけですが、これにはエンコードの問題がありました。 wgetコマンドを使えば、HTMLをダウンロードし、それはのような詩的なタイトルで、現在のディレクトリにそれをダンプします。私はそれが「出力/混合の.txt」のようなきれいな響きの場所にHTMLを置きたい 試%E

    0

    1答えて

    私はURLのリストを持っており、それらをテストして1つの魔法使いの仕事だけを得たいと思っています。 だから私はやりたい: cat URLs.txt | testURLs > GoodURLs.txt は、あなたがそれを行う方法を知っていますか? 多分pingやwgetが便利ですか?

    0

    1答えて

    http://www.wsj.com/mdc/public/page/2_3021-activnyse-actives.htmlの情報を.htmlファイルにプルするbash(これはPythonの別のプログラムを呼び出します)にプログラムを書き、.htmlファイルを.xhtmlに変換してから.csvに変換します。これは1分ごとにプロセスを繰り返すようにループを実行します。以下は、bashのコードは次

    0

    1答えて

    私のtrac(1.0.9)からwikiページの内容をスクリプトを使って取得したいと思います。 My TracはApacheのhttpdから提供され、基本AuthTypeを採用しています。 だから私は wget http://my/trac/wiki/MyWikiPage?format=txt --user=<THISISME> --ask-password --auth-no-challenge

    2

    1答えて

    wget -i file_nameを使用して複数のリンクをダウンロードできます。file_nameは、ダウンロードするすべてのURLを含むファイルです。 私は、例えば、ファイルの3つのURLを持っている:私はwget -i file_nameを使用して、これらのURLを要求 google.com facebook.com twitter.com を。しかし、結果を格納するファイル名をどのよ

    1

    2答えて

    Linuxコマンドを使用して、HTTPリクエストではなくHTTPSリクエストのレスポンス番号を取得したいと考えています。私の現在の知識によれば、wgetとcurlは目標を達成することができます。例えば 、私は次のコマンドを使用する予定のアドレスhttps://asunnot.oikotie.fi/vuokrattavat-asunnot/espoo/13874872与えられた:wgetのでcurl

    0

    1答えて

    私は基本認証を使用してURLから情報を取得するためにpowershellスクリプトを使用しています。これはすべての一般的な技術を使用してうまくいく:wget,Invoke-WebRequestおよびSystem.Net.WebClient。 同じスクリプトがSYSTEMアカウントとしてタスクスケジューラを使用して実行されている場合は、System.Net.WebClientのみが動作します。 なぜ

    0

    1答えて

    私は、コミュニティのウェブサイトでホストされているいくつかのファイルタイプをアーカイブしようとしています。 私はwget -r -np -nd -e robots=off -l 0 URLを使用して必要なファイルをすべてダウンロードすることができますが、ダウンロードと削除の両方の時間を浪費するために約60,000余分なファイルが残ります。 私は実際には拡張子 "tbt"と "zip"のファイルを探

    0

    1答えて

    ドッカーhealthcheck documentはカールのためにこれを示しています HEALTHCHECK --interval=5m --timeout=3s \ CMD curl -f http://localhost/ || exit 1 は、私はHTTP 200が返されていないとき1を終了しますwgetの内の1行に相当したいです。