亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python實現web郵箱掃描的示例(附源碼)

瀏覽:84日期:2022-06-23 17:13:37

信息收集是進行滲透測試的關鍵部分,掌握大量的信息對于攻擊者來說是一件非常重要的事情,比如,我們知道一個服務器的版本信息,我們就可以利用該服務器框架的相關漏洞對該服務器進行測試。那么如果我們掌握了該服務器的管理員的郵箱地址,我們就可以展開一個釣魚攻擊。所以,對web站點進行郵箱掃描,是進行釣魚攻擊的一種前提條件。

下面,我們利用python腳本來實現一個web站點的郵箱掃描爬取。目的是在實現這個腳本的過程中對python進行學習

最后有完整代碼

基本思路 我們向工具傳入目標站點之后,首先要對輸入進行一個基本的檢查和分析,因為我們會可能會傳入各種樣式的地址,比如http://www.xxxx.com/、http://www.xxxx.com/123/456/789.html等等,我們需要對其進行簡單的拆分,以便于后面鏈接的爬取 通過requests庫爬取目標地址的內容,并且在內容通過正則表達式中尋找郵箱地址 查找爬取的網站中的超鏈接,通過這些超鏈接我們就能進入到該站點的另外一個頁面繼續尋找我們想要的郵箱地址。 開工: 該腳本所需要的一些庫

from bs4 import BeautifulSoup #BeautifulSoup最主要的功能是從網頁抓取數據,Beautiful Soup自動將輸入文檔轉換為Unicode編碼import requests #requests是python實現的最簡單易用的HTTP庫import requests.exceptionsimport urllib.parsefrom collections import deque #deque 是一個雙端隊列, 如果要經常從兩端append 的數據, 選擇這個數據結構就比較好了, 如果要實現隨機訪問,不建議用這個,請用列表. import re #是一個正則表達式的庫獲取掃描目標

user_url=str(input(’[+] Enter Target URL to Scan:’))urls =deque([user_url]) #把目標地址放入deque對象列表scraped_urls= set()#set() 函數創建一個無序不重復元素集,可進行關系測試,刪除重復數據,還可以計算交集、差集、并集等。emails = set()對網頁進行郵箱地址爬取(100條)

首先要對目標地址進行分析,拆分目標地址的協議,域名以及路徑。然后利用requests的get方法訪問網頁,通過正則表達式過濾出是郵箱地址的內容。’[a-z0-0.-+]+@[a-z0-9.-+]+.[a-z]+’,符合郵箱格式的內容就進行收錄。

count=0try: while len(urls): #如果urls有長度的話進行循環 count += 1#添加計數器來記錄爬取鏈接的條數 if count ==101: break url = urls.popleft() #popleft()會刪除urls里左邊第一條數據并傳給url scraped_urls.add(url) parts = urllib.parse.urlsplit(url) # 打印 parts會顯示:SplitResult(scheme=’http’, netloc=’www.baidu.com’, path=’’, query=’’, fragment=’’) base_url = ’{0.scheme}://{0.netloc}’.format(parts)#scheme:協議;netloc:域名 path = url[:url.rfind(’/’)+1] if ’/’ in parts.path else url#提取路徑 print(’[%d] Processing %s’ % (count,url)) try: head = {’User-Agent’:'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11'} response = requests.get(url,headers = head) except(requests.exceptions.MissingSchema,requests.exceptions.ConnectionError): continue new_emails = set(re.findall(r’[a-z0-0.-+_]+@[a-z0-9.-+_]+.[a-z]+’, response.text ,re.I))#通過正則表達式從獲取的網頁中提取郵箱,re.I表示忽略大小寫 emails.update(new_emails)#將獲取的郵箱地址存在emalis中。通過錨點進入下一網頁繼續搜索

soup = BeautifulSoup(response.text, features=’lxml’) for anchor in soup.find_all(’a’): #尋找錨點。在html中,<a>標簽代表一個超鏈接,herf屬性就是鏈接地址 link = anchor.attrs[’href’] if ’href’ in anchor.attrs else ’’ #如果,我們找到一個超鏈接標簽,并且該標簽有herf屬性,那么herf后面的地址就是我們需要錨點鏈接。 if link.startswith(’/’):#如果該鏈接以/開頭,那它只是一個路徑,我們就需要加上協議和域名,base_url就是剛才分離出來的協議+域名link = base_url + link elif not link.startswith(’http’):#如果不是以/和http開頭的話,就要加上路徑。link =path + link if not link in urls and not link in scraped_urls:#如果該鏈接在之前沒還有被收錄的話,就把該鏈接進行收錄。urls.append(link)except KeyboardInterrupt: print(’[+] Closing’)for mail in emails: print(mail)完整代碼

from bs4 import BeautifulSoupimport requestsimport requests.exceptionsimport urllib.parsefrom collections import dequeimport reuser_url=str(input(’[+] Enter Target URL to Scan:’))urls =deque([user_url])scraped_urls= set()emails = set()count=0try: while len(urls): count += 1 if count ==100: break url = urls.popleft() scraped_urls.add(url) parts = urllib.parse.urlsplit(url) base_url = ’{0.scheme}://{0.netloc}’.format(parts) path = url[:url.rfind(’/’)+1] if ’/’ in parts.path else url print(’[%d] Processing %s’ % (count,url)) try: head = {’User-Agent’:'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11'} response = requests.get(url,headers = head) except(requests.exceptions.MissingSchema,requests.exceptions.ConnectionError): continue new_emails = set(re.findall(r’[a-z0-0.-+_]+@[a-z0-9.-+_]+.[a-z]+’, response.text ,re.I)) emails.update(new_emails) soup = BeautifulSoup(response.text, features=’lxml’) for anchor in soup.find_all(’a’): link = anchor.attrs[’href’] if ’href’ in anchor.attrs else ’’ if link.startswith(’/’):link = base_url + link elif not link.startswith(’http’):link =path + link if not link in urls and not link in scraped_urls:urls.append(link)except KeyboardInterrupt: print(’[+] Closing’)for mail in emails: print(mail)實驗………………

python實現web郵箱掃描的示例(附源碼)

以上就是python實現web郵箱掃描的示例(附源碼)的詳細內容,更多關于python web郵箱掃描的資料請關注好吧啦網其它相關文章!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 久久综合九色综合欧美播 | 九色91蝌蚪 | 永久精品免费影院在线观看网站 | 成人中文字幕在线观看 | 看一级特黄a大片日本片黑人 | 欧美成人久久一级c片免费 欧美成人午夜不卡在线视频 | 日韩网站在线观看 | 一级aa免费视频毛片 | 日本高清视频色视频kk266 | 欧美精品一区二区三区免费播放 | 国产精品国产精品国产三级普 | a三级毛片 | 国产caoni111在线观看视频 | 免费国产成人α片 | 伊人久久精品 | 久久夜色精品国产 | 欧美成人免费午夜影视 | xnxx 美女18| 欧美日韩高清一区 | 欧美日韩另类国产 | 欧美在线性 | 一木道一二三区精品 | 国产在线五月综合婷婷 | 图片区亚洲色图 | 亚洲国产国产综合一区首页 | 午夜视频成人 | 欧美成人精品第一区 | 久久免费福利视频 | 久久国产精品免费视频 | 播放一级黄色片 | 欧美精品日本一级特黄 | 精品国产看高清国产毛片 | 一级一级特黄女人精品毛片 | 2020久久精品永久免费 | 久久中文字幕制服丝袜美腿 | 国产喷水吹潮视频在线播放 | 黄色一级片视频 | 在线观看精品国内福利视频 | 精品一区二区91 | 午夜hhh视频在线观看hhhh | 自拍视频第一页 |