python - scrapy爬蟲不能循環運行?
問題描述
scrapy只能爬取一個頁面上的鏈接,不能持續運行爬完全站,以下是代碼,初學求指導。
class DbbookSpider(scrapy.Spider): name = 'imufe' allowed_domains = [’http://www.imufe.edu.cn/’] start_urls=(’http://www.imufe.edu.cn/main/dtxw/201704/t20170414_127035.html’) def parse(self, response):item = DoubanbookItem()selector = scrapy.Selector(response)print(selector)books = selector.xpath(’//a/@href’).extract()link=[]for each in books: each=urljoin(response.url,each) link.append(each)for each in link: item[’link’] = each yield itemi = random.randint(0,len(link)-1)nextPage = link[i]yield scrapy.http.Request(nextPage,callback=self.parse)
問題解答
回答1:是不是爬得太快讓封了
相關文章:
1. 如何解決docker宿主機無法訪問容器中的服務?2. docker 下面創建的IMAGE 他們的 ID 一樣?這個是怎么回事????3. mongodb - Mongo java驅動中,有沒有封裝好的函數,可以直接取到文檔中的某個具體的值,而不是一個文檔?或者有沒有方法實現??4. 需要一個Java映射/表,其中多個鍵指向一個值。價值通常會改變5. javascript - JS事件委托問題6. javascript - 關于jquery的remove()方法7. JavaScript中怎么理解=、==和===8. java - Spring事務回滾問題9. javascript - vue.js如何遞歸渲染組件.10. 如何修改vim插件vimwiki中Vimwiki2HTML的一些細節
