2017-09-07 10 views
0

R.utils::withTimeout()といくつかの問題があります。タイムアウトオプションをacountにまったく入れていないか、時にはときどきしか使用しないようです。私が使用したい機能下:withTimeoutは関数内では機能しませんか?

scrape_player <- function(url, time){ 

    raw_html <- tryCatch({ 
    R.utils::withTimeout({ 
     RCurl::getURL(url) 
    }, 
    timeout = time, onTimeout = "warning")} 
) 

    html_page <- xml2::read_html(raw_html) 
} 

今、私はそれを使用する場合:

scrape_player("http://nhlnumbers.com/player_stats/1", 1)

それが正常に動作どちらかと私は私がしたいHTMLページを取得、または私が伝えるエラーメッセージが表示されます私は経過時間に達した、またはこれが私の問題です。エラー500のhtmlページを最終的に返すには、1秒以上の非常に長い時間がかかります。

RCurl::getURL()たった1秒間(この例では)t o htmlページを取得し、そうでなければ単に警告を返しますか?私は何が欠けていますか?

答えて

0

私が回避策として行ったことは、ページを返す代わりにディスクに書き込むことです。 withTimeoutがうまくいかないという問題は解決しませんが、少なくとも私はページをディスクに書き込んでいるのを、ゆっくりとしかし確実に見ています。

関連する問題