私の要件は、私が第四のリンク に仮定するで停止しなければならないため で利用できるので、多くのリンクを持っているいくつかのページを読むことですし、私は 保存読んで、その特定のリンクでURLに接続する必要があります再びリスト 内のリンクの内容接続リンクそれほど多くのリンクを持っていると私は考え10回再び4位にあるリンク 繰り返し、このプロセスに接続し、最終的には、リンクの名前は私が使用していますのpython urlibは
を接続し印刷する必要がありこのコード urlllibは一度だけ動作します
import urllib
from bs4 import *
url = raw_input('enter url:')
count = raw_input('enter count:')
position = raw_input('enter position:')
count = int(count)
position = int(position)
l = list()
p = 0
for _ in xrange(0,count):
print 'retrieving:' + url
html = urllib.urlopen(url).read()
s = BeautifulSoup(html)
tags = s.findAll('a')
for tag in tags:
w = tag.get('href')
p = p + 1
if p == position:
url = "'" + w + "'"
l.append(tag.contents[0])
print l
このエラー取得: トレースバック(最新の呼び出しの最後): ファイル "C:\ Users \ユーザーimran.a.shaik \ドキュメント\ Pythonが学ぶ\ soup2.py"、13行目、 のhtml = urllibは中を。 urlopen(url).read() ファイル "C:¥Python27¥lib¥urllib.py"、行87、urlopen return opener.open(url) ファイル "C:\ Python27 \ lib \ urllib.py" 、行210、オープン中 return self.open_unknown(fullurl、data) ファイル "C:\ Python27 \ lib \ urllib.py"、行222、open_unknown内 IOErrorを上げる、( 'URLエラー'、 '未知のURLタイプ'、type) IOError:[Errno url error]不明なURLタイプ: "http" –
imran
なぜurlに引用符を追加していますか? 'url =" '"+ w +"' "'?ただ 'url = w'を試してみてください – artem