検索フォームを送信した後、ウェブサイトで何らかのスクレイピングを実行する必要があります。問題は、ブラウザでこれを行うと、ページがリロードされず、どこにでもリダイレクトされるということです。検索結果の下に結果が表示されるのは、リンクを変更せずに、「新しい」ページに表示されますhtml。 しかし、私は次のコードを使用する場合、私は(提供されたリンクは、私が実際に動作するようにしようとしているものです)応答であるべき「新しい」ページのHTMLを見ることができません。Python3:MechanicalSoup経由でフォームを送信しても何も起こりません
import mechanicalsoup
def fetchfile(query):
url = "http://www.italgiure.giustizia.it/sncass/"
browser = mechanicalsoup.Browser()
page = browser.get(url)
search_form = page.soup.find("form", {"id": "z-form"})
search_form.find("input", {"id":"searchterm"})["value"] = query
response = browser.submit(search_form, page.url)
print(response) # the response is 200, so it should be a good sign
# actual parsing will come later...
print("1235" in response.text) # quick-check to see if there is what I'm looking for, but I get False
# in fact this...
print(page.text == response.text) # ...gives me True
fetchfile("1235/2012")
私ができます私は何が欠けているのか理解していない。私はむしろセレンを使用しません。すべての手がかりは?
おかげで、しかし最後に、私は結果を提出した後、私はpdfファイルをダウンロードする必要があるため、セレンを使用していた...セレンや「クリックを使用するよりも他の方法がないようです"その結果。私の新しい問題はrobots.txtですが、私が遵守したい場合は私ができることはほとんどありません –