多くのWebサイトをループしていくつかの要素を抽出し、結果をRの表に格納するforループを作成しようとしています。 forループを開始する方法、またはすべての結果を1つの変数にコピーして後でエクスポートする方法があります。ループURLとストア情報R
library("dplyr")
library("rvest")
library("leaflet")
library("ggmap")
url <- c(html("http://www.webiste_name.com/")
agent <- html_nodes(url,"h1 span")
fnames<-html_nodes(url, "#offNumber_mainLocContent span")
address <- html_nodes(url,"#locStreetContent_mainLocContent")
scrape<-t(c(html_text(agent),html_text(fnames),html_text(address)))
View(scrape)
素晴らしい仕事を!各スクレイプからのデータが別々の行に格納されるように調整するにはどうすればよいですか?今すぐお互いに隣接してそれらを保管する – CHopp
私はあなたの質問を理解しているか分からない。 'lapply'のdata.frame内には、生成されたすべての行に対応するURLを持つために、次の' data.frame(Agent = agent、Fnames = fnames、Address = address、URL = u)を持つことができます。 –
私はそれを理解しましたしかし、別の質問では、サイトを検索しようとすると、このようなエラーが発生するのはなぜですか? "エラー: 'www.website.com'は現在の作業ディレクトリに存在しません。 – CHopp