2012-05-08 16 views
0

特定のWikipedia記事のソースをコンピュータにダウンロードしようとしています。しかし、wgetやカールツールは動作していません!なぜ私は分からない。 wget http://en.wikipedia.org/wiki/List_of_current_NFL_team_rosterscurl http://en.wikipedia.org/wiki/List_of_current_NFL_team_rostersのようなものを入力すると、私はぎこちなくなります(curlとwgetの両方で同じです)。出力のWgetとcURLがWikipediaと連携していません

最初の行は、私が取得:なぜこれが起こってかもしれない上??N?????g???????^??L??~???IR?OX/?џ??X???4????b???m??Jk??o߾5E_S???D?xT????y???>??b?C?g?B?#?}????ŏ?Hv?K?dڛ?L˿l?K??,???T?c????n?????F*???'???w??z??d??? ???Y1Id?z?:7C?'W2??(?%>?~ԫ?|~7??4?%qz?r???H?]??P?PH 77I??Z6~{z??UG?~???]?.?#?G?F\????ӓ???8??ߞ?

任意のアイデア?

+1

再生できません。何らかの理由でデータがガンゾリされていない可能性がありますか? 'gunzip'を通して実行してみてください。 –

答えて

1

あなたの端末に問題があると思います。これを試してみてください:デフォルトでは、ウィキデータはgzip圧縮された形式で送信されるため

wget -q -O - http://en.wikipedia.org/wiki/List_of_current_NFL_team_rosters

+0

これと同じ問題がある – Mason

2

あなたはgzipでエドデータを取得している理由です。あなたは、応答のヘッダ(あなたはフィドラーのようなツールでこれを行うことができます)

HTTP/1.0 200 OK 
Date: Tue, 08 May 2012 03:45:40 GMT 
Server: Apache 
X-Content-Type-Options: nosniff 
Cache-Control: private, s-maxage=0, max-age=0, must-revalidate 
Content-Language: en 
Vary: Accept-Encoding,Cookie 
Last-Modified: Tue, 08 May 2012 02:33:41 GMT 
Content-Length: 83464 
Content-Type: text/html; charset=UTF-8 
Age: 6415 
X-Cache: HIT from cp1008.eqiad.wmnet 
X-Cache-Lookup: HIT from cp1008.eqiad.wmnet:3128 
X-Cache: MISS from cp1018.eqiad.wmnet 
X-Cache-Lookup: MISS from cp1018.eqiad.wmnet:80 
Connection: close 
Content-Encoding: gzip 

をchekc場合は、ヘッダーの最後の行は、あなたが見ている何の手がかりです。だから、wikiの出力をストリームし、それをgunzipにパイプして必要な応答を得ることができます。

関連する問題