通常、サイトからテーブルデータを取得する際に問題はありませんが、これはループのために私を投げています。RのWebスクラップデータテーブルが動作していない、XMLまたはgetURL
私はサイトから様々な提案を試してみた: [R: Scraping Site, Incrementing Loop by Date in URL, Saving To CSV [Scraping from aspx website using R [web scraping in R
は私がしようとすると、サイトから何かを得ると、エラーで終わる2つの方法を試してみました。
最初のアプローチ:これは、次のエラーで終了
#####Reading in data
library(RCurl)
library(XML)
library(xts)
#pulling rainfall data csv
direct_rainfall <- read.csv(url(getURL("http://cdec.water.ca.gov /cgi-progs/getMonthlyCSV?station_id=CVT&dur_code=M&sensor_num=2&start_date=1/1/2000&end_date=now")))
:関数で エラー(タイプ、MSGは、asError = TRUE)は: ポートcdec.water.ca.govするための接続に失敗しました80 :
をタイムアウトしました第二の方法: エラー:次のエラーで終了し
#xml data pull method
require(XML)
url = "http://cdec.water.ca.gov/cgi-progs/getMonthlyCSV?station_id=CVT&dur_code=M&sensor_num=2&start_date=1/1/2000&end_date=now"
doc = htmlParse(url)
を読み込むようにしてください。 URLから試してみると何も得られない理由が分かりません。
ありがとうございます!
それはCSVだ、HTMLではありません。 'read.csv( 'http://cdec.water.ca.gov/cgi-progs/getMonthlyCSV?station_id=CVT&dur_code=M&sensor_num=2&start_date=1/1/2000&end_date=now'、skip = 3、nrows = 17 ) ' – alistaire
冗長!それはうまくいった。私は吸う。ありがとう!私は間違いなくそれを複雑にしていました。 –