R可以从网页列表中下载特定文件吗?

| 我有一个文件想从网页上下载,例如 http://www.pdb.org/pdb/explore/explore.do?structureId=2FBA http://www.pdb.org/pdb/explore/explore.do?structureId=2GVS 我有一个包含2FBA,2GVS等的列表。 通过使用RCurl和XML,我知道R可以帮助将信息从网站爬到数据框。我可以使用R从网页上下载所有2FBA.pdb,2GVS.pdb等文件,同时使用R指示如何替换最后4个字母(从2FBA到2GVS ...)并将所有这些文件下载到我的工作环境中吗电脑? 在我看来,这可以通过python完成(来自stackoverflow的先前答复)。但是,我对python不太熟悉。这就是为什么我要问R是否可以以一种聪明的方式为我做类似的事情。感谢您的评论。     
已邀请:
这是使用“ 0”包的一种方法。想法是构造一个函数,该函数下载给定蛋白质的pdb文件,然后在
plyr
中使用
l_ply
循环浏览蛋白质列表。
# function to download pdb file for a given protein
download_pdb = function(protein){

    base_url  = \"http://www.pdb.org/pdb/files/\"
    dest_file = paste(protein, \'.pdb.gz\', sep = \"\")    
    protein_url = paste(base_url, dest_file, sep = \"\")
    download.file(protein_url, destfile = dest_file)

}

proteins  = list(\'2FBA\', \'2GVS\')
require(plyr)
l_ply(proteins, download_pdb)
    
我首先将所需的网址粘贴在一起,然后使用
utils
包中的
download.file
。 遵循以下原则
my.url <- \"www.somewhere.com\"
my.files <- c(\"file1.xxx\", \"file2.xxx\", \"file3.xxx\")

my.list <- as.list(paste(my.url, my.files, sep = \"/\"))

my.dl <- lapply(X = my.list, FUN = download.file)
    

要回复问题请先登录注册