亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python scrapy簡單模擬登錄的代碼分析

瀏覽:128日期:2022-06-14 18:21:16

1、requests模塊。直接攜帶cookies請求頁面。

找到url,發(fā)送post請求存儲cookie。

2、selenium(瀏覽器自動處理cookie)。

找到相應的input標簽,輸入文本,點擊登錄。

3、scrapy直接帶cookies。

找到url,發(fā)送post請求存儲cookie。

# -*- coding: utf-8 -*-import scrapyimport re class GithubLoginSpider(scrapy.Spider): name = ’github_login’ allowed_domains = [’github.com’] start_urls = [’https://github.com/login’] def parse(self, response): # 發(fā)送Post請求獲取Cookiesauthenticity_token = response.xpath(’//input[@name='authenticity_token']/@value’).extract_first()utf8 = response.xpath(’//input[@name='utf8']/@value’).extract_first()commit = response.xpath(’//input[@name='commit']/@value’).extract_first()form_data = { ’login’: ’pengjunlee@163.com’, ’password’: ’123456’, ’webauthn-support’: ’supported’, ’authenticity_token’: authenticity_token, ’utf8’: utf8, ’commit’: commit}yield scrapy.FormRequest('https://github.com/session', formdata=form_data, callback=self.after_login) def after_login(self, response): # 驗證是否請求成功print(re.findall(’Learn Git and GitHub without any code!’, response.body.decode()))

知識點擴展:

parse_login方法是提交完表單后callback回調函數指定要執(zhí)行的方法,為了驗證是否成功。這里我們直接在response中搜索Welcome Liu這個字眼就證明登錄成功。

這個好理解,重點是yield from super().start_resquests(),這個代表著如果一旦登錄成功后,就直接帶著登錄成功后Cookie值,方法start_urls里面的地址。

這樣的話登錄成功后的response可以直接在parse里面寫。

# -*- coding: utf-8 -*-import scrapyfrom scrapy import FormRequest,Requestclass ExampleLoginSpider(scrapy.Spider): name = 'login_' allowed_domains = ['example.webscraping.com'] start_urls = [’http://example.webscraping.com/user/profile’] login_url = ’http://example.webscraping.com/places/default/user/login’ def parse(self, response):print(response.text) def start_requests(self):yield scrapy.Request(self.login_url,callback=self.login) def login(self,response):formdata = { ’email’:’liushuo@webscraping.com’,’password’:’12345678’}yield FormRequest.from_response(response,formdata=formdata,callback=self.parse_login) def parse_login(self,response):# print(’>>>>>>>>’+response.text)if ’Welcome Liu’ in response.text: yield from super().start_requests()

到此這篇關于python scrapy簡單模擬登錄的代碼分析的文章就介紹到這了,更多相關python scrapy模擬登錄的方法內容請搜索好吧啦網以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: python scrapy requests
主站蜘蛛池模板: 毛片日韩 | 中国一级全黄的免费观看 | 免费黄色短视频 | blz在线成人免费视频 | 久久日本精品久久久久久 | 国产欧美日韩另类一区乌克兰 | 亚洲性图 | 在线观看免费情网站大全 | 欧美日韩一日韩一线不卡 | 国产丝袜高跟 | 成年人免费视频网站 | 欧美日韩亚洲人人夜夜澡 | 久久精品一区二区三区不卡牛牛 | 中文无码日韩欧 | 成人国产一区二区三区精品 | 国产系列在线播放 | 丁香婷婷六月 | 国产欧美精品国产国产专区 | 日本特级黄毛片毛片视频 | 国产日产欧美一区二区三区 | 成人久久18免费软件 | 婷婷国产成人久久精品激情 | 在线观看视频一区二区 | 亚洲精品日韩一区二区 | 免费无遮挡十八污污网站 | 国产三级a三级三级 | 蜜臀网站| 中文字幕日韩理论在线 | 国产亚洲精品aa在线看 | 久久99精品久久久久久黑人 | 国产一区二区在免费观看 | 欧美黄色一级 | 台湾一级毛片免费播放 | 91香蕉国产在线观看人员 | 黄色三级三级三级免费看 | 免费影院在线观看 | 亚洲狠狠网站色噜噜 | 免费播放aa在线视频成人 | 国产精品视频一区二区三区经 | 欧美日本一道本 | 亚洲香蕉国产高清在线播放 |