さて、私はLinuxで100000k + urlをチェックしたいと思います。10000K + URLを確認してください
これらのリンクについては、実際には私のアンドロイドのOTA [zip]です。
これらのリンクのうち、有効なリンク・レストは404エラーのみを与えます。
LinuxサーバーやWebサーバー[apache]では、すべてのリンクを短時間でチェックする方法を教えてください。 URLの
構造:
http://link.com/updateOTA_1.zip
私は
を試してみました何オーケー私はこのスクリプトを作成しましたが、実際には遅いです。 http://pastebin.com/KVxnzttAは私も500件までスレッドを増やし、その後私のサーバーがクラッシュした:[
#!/bin/bash
for a in {1487054155500..1487055000000}
do
if [ $((a%50)) = 0 ]
then
curl -s -I http://link.com/updateOTA_$((a)).zip | head -n1 &
curl -s -I http://link.com/updateOTA_$((a+1)).zip | head -n1 &
curl -s -I http://link.com/updateOTA_$((a+2)).zip | head -n1 &
curl -s -I http://link.com/updateOTA_$((a+3)).zip | head -n1 &
curl -s -I http://link.com/updateOTA_$((a+4)).zip | head -n1 &
...
curl -s -I http://link.com/updateOTA_$((a+49)).zip | head -n1 &
curl -s -I http://link.com/updateOTA_$((a+50)).zip | head -n1
wait
echo "$((a))"
fi
done
私はaria2と試みたが、aria2上で最も高いスレッドが16であるので、再び失敗しました。
いくつかのオンラインツールで試してみましたが、100UR制限があります。
へ
おかげ? –
どうして人々がマイナスのレートを与えているのか..... – TonyStark
@TomUdding i tried aria2c – TonyStark