1
ウェブサイトがあるとしましょう。www.example.com ウェブサイトから特定の要素が5つ必要です。すべての要素が見つかり、BeautifulSoupを使用して宣言しました。ウェブサイトの特定の部分を掻き集める[Python]
g_data1 = soup.find_all("td", {"class": "title"})
for item in g_data1:
try
print item.****[3].text
except:
pass
は今、私は****という名前のCSVファイルにこの情報を保存する必要がある。これは、CSVファイルに保存しようとしているために私のコードです をCSV:。
def save_csv(f, tvseries):
'''
Output a CSV file containing highest ranking TV-series.
'''
import urllib2
url = *example url*
response = urllib2.urlopen(url)
with open('****.csv', 'w') as f:
f.write(response.read())
イム取得します全体のhtmlのウェブサイト..私は明らかにURLをつかむためにそれを宣言したが、私は実際にどのように理解していないので、誰かが、私のアプローチの異なる種類を説明することができるので:種類に関してL
を、
: C = csv.writer(オープン( "tvseries.csvを"、 "WB")) c.writerow([ 'タイトル'、 'ランキング' 、 'Genre'、 'Actors'、 'Runtime']) – 1337
本当に質問はしていません。あなたのコードの最初の部分は、(少なくとも)インデントに応じて適切にフォーマットされていません。あなたは****とどういう意味ですか?リストをsave_csv(...)に渡して出力ファイルに書き込む必要がある項目のリストがある場合 –
私は誤って入力しました:PI編集中: * UPDATE * 私は最も簡単な方法を試しましたこれを行うには c = csv.writer( "***。csv"、 "wb") c.writerow(['タイトル'、 '***'、 '***'、 '*' ** '、' **** ']) 私は最初の行を持っていますが、それは私が手動で作家に入れたからです。 私はg_data1から受け取ったデータをcsvファイルに入力する必要がありますが、どのように理解できません。私はまだウェブサイト全体をプリントアウトしています...そしてすべてが最初の行にあります:/ – 1337