亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python 爬蟲 實現增量去重和定時爬取實例

瀏覽:50日期:2022-08-05 14:50:32

前言: 在爬蟲過程中,我們可能需要重復的爬取同一個網站,為了避免重復的數據存入我們的數據庫中 通過實現增量去重 去解決這一問題 本文還針對了那些需要實時更新的網站 增加了一個定時爬取的功能;

本文作者同開源中國(殊途同歸_);

解決思路:

1.獲取目標url

2.解析網頁

3.存入數據庫(增量去重)

4.異常處理

5.實時更新(定時爬取)

下面為數據庫的配置 mysql_congif.py:

import pymysql def insert_db(db_table, issue, time_str, num_code): host = ’127.0.0.1’ user = ’root’ password = ’root’ port = 3306 db = ’lottery’ data_base = pymysql.connect(host=host, user=user, password=password, port=port, db=db) cursor = data_base.cursor() try: sql = 'INSERT INTO %s VALUES (’%s’,’%s’,’%s’)' % (db_table, issue, time_str, num_code) cursor.execute(sql) data_base.commit() except ValueError as e: print(e) data_base.rollback() finally: cursor.close() data_base.close() def select_db(issue, db_table): host = ’127.0.0.1’ user = ’root’ password = ’root’ port = 3306 db = ’lottery’ data_base = pymysql.connect(host=host, user=user, password=password, port=port, db=db) cursor = data_base.cursor() try: sql = 'SELECT ’%s’ FROM %s ' % (issue, db_table) cursor.execute(sql) data_base.commit() except ValueError as e: print(e) data_base.rollback() finally: return issue

接下來是主要代碼 test.py:

# 使用bs4進行網頁解析# 實現了增量去重# 實現了定時爬取import datetimeimport time from bs4 import BeautifulSoupimport requests from mysql_config import insert_dbfrom mysql_config import select_db def my_test(): db_table = ’lottery_table’ url = ’http://kj.13322.com/kl10_dkl10_history_dtoday.html’ res = requests.get(url) content = res.content soup = BeautifulSoup(content, ’html.parser’, from_encoding=’utf8’) c_t = soup.select(’#trend_table’)[0] trs = c_t.contents[4:] for tr in trs: if tr == ’n’: continue tds = tr.select(’td’) issue = tds[1].text time_str = tds[0].text num_code = tr.table.text.replace(’n0’, ’,’).replace(’n’, ’,’).strip(’,’) print(’期號:%st時間:%st號碼:%s’ % (str(issue), str(time_str), str(num_code))) issue_db = select_db(issue, db_table) try: if issue_db == issue:insert_db(db_table, issue_db, time_str, num_code)print(’添加%s到%s成功’ % (issue_db, db_table)) except Exception as e: print(’%s 已經存在!’ % issue_db) print(e) if __name__ == ’__main__’: flag = 0 now = datetime.datetime.now() sched_time = datetime.datetime(now.year, now.month, now.day, now.hour, now.minute, now.second) + datetime.timedelta(seconds=3) while True: now = datetime.datetime.now() if sched_time < now: time.sleep(3) print(now) my_test() flag = 1 else: if flag == 1:sched_time = sched_time + datetime.timedelta(minutes=2)flag = 0

以上這篇python 爬蟲 實現增量去重和定時爬取實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产视频视频 | 亚洲一级色 | 一级成人生活片免费看 | 啪在线视频 | 久久99视频 | 999精品久久久中文字幕蜜桃 | 亚洲国产爱久久全部精品 | 国产不卡在线观看 | 大尺度人体自拍私拍337p | 在线观看www成人影院 | 1000部羞羞禁止免费观看视频 | 精品无码三级在线观看视频 | 黄色一级一级 | 免费人成黄页在线观看69 | 国产一区二区三区欧美精品 | 国产91色综合久久免费分享 | 国产91调教 | 看一级毛片国产一级毛片 | 初女破苞国语在线观看免费 | 中国一级毛片在线观看 | 看全色黄大色黄大片色责看的 | 欧美一级爆毛片 | 亚洲综合色丁香麻豆 | 青草视频在线观看国产 | 国产成人综合久久精品尤物 | 日本高清αv毛片免费 | 亚洲 欧美 清纯 校园 另类 | 欧美久久一区二区 | 成人午夜在线观看国产 | 一级一片免费视频播放 | 欧美一级高清片在线 | 国产精品视频无圣光一区 | 国产在线高清一级毛片 | 视频二区在线观看 | 亚洲精品国产福利片 | 老司机精品视频线观看 | avav国产 | 特级中国aaa毛片 | 五月婷婷俺也去开心 | 看免费毛片| 一级特黄aa大片免费播放视频 |