亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - 網頁更新數據之后無法再次抓取

瀏覽:108日期:2022-07-05 15:55:15

問題描述

我抓取的網頁今天更新了一條信息,然后爬蟲運行了卻沒有抓取到.

from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜興市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

python - 網頁更新數據之后無法再次抓取

希望大佬們能講的具體點然后多交流交流

問題解答

回答1:

@config (age)參數設定直接忽略了index.page的執行

回答2:

既然 on_start 的 @every 是一天,那么self.crawl 中設置 age=12 * 60 * 60 半天是比較合適的,保證每次 every 肯定不會被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),這是10天內不要再爬的意思啊。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日韩欧美影视 | 欧美精品啪啪 | 亚洲精品不卡在线 | 中文字幕专区高清在线观看 | 亚洲成网站www久久九 | 亚洲精品久久久久久下一站 | 一级成人毛片免费观看 | 欧美日韩国产综合视频在线看 | 黄黄的网站在线观看 | 午夜精品福利在线 | 欧美大片毛片大片 | 国产成人精品视频一区 | 欧美爱爱动态 | 99精品视频不卡在线观看免费 | 久久精品福利视频在线观看 | 91国语精品自产拍在线观看性色 | 欧美高清在线精品一区 | 最新国产成人盗摄精品视频 | 欧美一区二区三区在线视频 | 久夜色精品国产一区二区三区 | www.一区| 国产va免费精品观看精品 | 中国精品视频一区二区三区 | 国产精品久久毛片 | 国产高清在线精品 | 免费特级片 | 8888四色奇米在线观看不卡 | 国产精品美女视频 | 婷婷色中文字幕 | 欧美成人免费xxx大片 | 日韩国产成人 | 亚洲美女免费视频 | 日韩国产精品99久久久久久 | 久久亚洲国产成人亚 | a级黄色片免费看 | 亚洲欧洲日韩国产aa色大片 | 亚洲国产精品乱码在线观看97 | 欧美二区在线观看 | 96国产精品 | 亚洲精品一线观看 | 亚洲人人爱 |