私は、テキストファイルからリンクリストにアクセスするのにwget
を使用します。リンクの例は次のようになりますWGET-ERROR 414:Request-URI Too Large
http://localhost:8888/data/test.php?value=ABC123456789
PHPファイルの応答が別のテキストファイルに付加される元の情報とテーブルを返します。このエラーについては、文字制限を超えているため現在URLの量を処理できないことは明らかです。 2つのURLのみを使用すると、正常に動作します。
テキストファイルには合計10,000のURLが含まれています。私が使っているコマンドは次のとおりです。
wget -i /Applications/MAMP/htdocs/data/URLs.txt -O - >> /Applications/MAMP/htdocs/data/append.txt
私の研究によると、「修正」これはLimitRequestLine
またはそれが存在しない場合は、それを追加することを変更することですへの迅速な道。
オープン/Applications/MAMP/conf/apache/httpd.conf
そしてAccessFileName .htaccess
の下に挿入します:私は、私がやったこと(MacOSのための)MAMPをして使用するので
LimitRequestLine 1000000000
LimitRequestFieldSize 1000000000
をしかし、私はまだ同じエラーを取得します。なぜこのようなことが起こるのか分かりません。
cURL
を使いやすくすることができますか?はいの場合、同様のコマンドは何でしょうか?
あなたはfile_get_contents&file_put_contents、またはfgetcsv&fputcsv ...を試すことができます巨大なデータセットを処理します。 – Gunnrryy
@Gunnrryyはターミナルからこれを行うことができますか? –
あなたはあなたのPHPスクリプトでこれらを実装し、ターミナルからPHPスクリプトを実行する必要があります。 file_get_contents&othersはPHPのネイティブ関数です。 – Gunnrryy