亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

解決python存數據庫速度太慢的問題

瀏覽:3日期:2022-06-23 10:40:39
問題

在項目中遇到一個問題,需要從文本中讀取三萬條數據寫入mysql數據庫,文件中為用@分割的sql語句,但是在讀取的過程中發現速度過慢,三萬八千條數據需要220秒,問題代碼片段如下:

def read_to_mysql(filecata, targetDir): ’’’ 用來寫入數據庫,寫入后會剪貼掉文件 filecata 為保存有文件地址的list,已去掉尾部的空格 :param filecata: 文件目錄 :param targetDir: 要復制的目標目錄 :return: ’’’ root_dir = os.path.abspath(os.path.join(os.getcwd(), './')) config = configparser.ConfigParser() config.read(root_dir + '/config.ini') __host = config.get('DatabaseOfWRT', 'host') __database_name = config.get('DatabaseOfWRT', 'database') __user_name = config.get('DatabaseOfWRT', 'username') __user_passwaord = config.get('DatabaseOfWRT', 'password') __charset = config.get('DatabaseOfWRT', 'charset') conn = pymysql.connect( host=__host, user=__user_name, password=__user_passwaord, database=__database_name, charset=__charset ) cursor = conn.cursor() with open(filecata, 'r', encoding=’utf-8’) as f: data = f.read() # 讀取文件 data_list = data.split(’@’) del data_list[-1] starttime = int(time.time()) for data_str in data_list: data_str = str(data_str) sql = data_str + ’;’ cursor.execute(sql) conn.commit() print(flag) copy_del_file(filecata, targetDir) # 用來剪切的函數,此處不影響,因而省略 cursor.close() conn.close()解決方案

經測試發現,影響速度的主要原因是commit(),因為沒過幾秒提交一次即可,但是因為提交的字符長度有限制,所以要設置一個合理的時間讀取,代碼修改如下:

def read_to_mysql(filecata, targetDir): ’’’ 用來寫入數據庫,寫入后會剪貼掉文件 filecata 為保存有文件地址的list,已去掉尾部的空格 :param filecata: :param targetDir: 要復制的目標目錄 :return: ’’’ root_dir = os.path.abspath(os.path.join(os.getcwd(), './')) config = configparser.ConfigParser() config.read(root_dir + '/config.ini') __host = config.get('DatabaseOfWRT', 'host') __database_name = config.get('DatabaseOfWRT', 'database') __user_name = config.get('DatabaseOfWRT', 'username') __user_passwaord = config.get('DatabaseOfWRT', 'password') __charset = config.get('DatabaseOfWRT', 'charset') conn = pymysql.connect( host=__host, user=__user_name, password=__user_passwaord, database=__database_name, charset=__charset ) cursor = conn.cursor() with open(filecata, 'r', encoding=’utf-8’) as f: data = f.read() # 讀取文件 data_list = data.split(’@’) del data_list[-1] starttime = int(time.time()) for data_str in data_list: endtime = int(time.time()) data_str = str(data_str) sql = data_str + ’;’ cursor.execute(sql) if endtime - starttime ==10: # 每過十秒提交一次 starttime = int(time.time()) conn.commit() conn.commit() copy_del_file(filecata, targetDir) cursor.close() conn.close() return flag

此時寫入三萬八千條數據需要9秒

補充:python 連數據庫cursur.fetchall ()速度慢的解決方案

解決游標遍歷慢的方法:

一行一行去遍歷,而不是一下全部讀取出來

將cursur.fetchall()更改為for i in cursur:

補充:python 讀取文件時速度的問題

'''舉例 讀取文件'''# 第一種方式with open(’test.txt’, ’r’, encoding=’utf-8’) as f: info = f.readlines() for line in info: pass# 第二種方式with open(’test.txt’, ’r’, encoding=’utf-8’) as f: for line in f: pass

對于以上兩種方式讀取文件,各自有各自的用途,當用兩種方式都可以時,第二種方式的效率是第一種的幾個量級, readlines()將文件內容讀取到內存的list中,操作雖然方便,但是消耗內存,運行效率慢。

原生的f是將文件內容讀到生成器中, 當需要操作時,從生成器中循環出來,速度很快,操作大文件時建議用第二種方式!

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持好吧啦網。如有錯誤或未考慮完全的地方,望不吝賜教。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 永久免费看黄在线播放 | 亚洲一区二区欧美日韩 | aaaa级日本片免费视频 | 亚洲国产成人99精品激情在线 | 免费一级特黄 欧美大片 | 亚洲 另类色区 欧美日韩 | 亚洲欧美日韩精品一区 | 国产日韩亚洲 | 国产午夜精品福利久久 | 国产91在线 | 日本 | 中文字幕日韩一区二区三区不卡 | 国产精品白丝喷水在线观看 | 拍拍拍无挡视频免费全程1000 | 成人在线精品视频 | 黄色免费在线观看网址 | 国产1区2区在线观看 | h版欧美大片免费观看 | 在线观看爱爱 | 特级aaaaaaaaa毛片免费视频 | 91久久夜色精品国产网站 | 国产成人19禁在线观看 | 三级黄毛片 | 国产精品亚洲综合一区在线观看 | 亚洲精品第一国产综合高清 | 超级碰碰碰在线观看 | 国产在线拍偷自揄观看视频网站 | 国产精品高清视亚洲乱码 | 视频在线观看一区 | 不卡中文字幕在线观看 | 久久不卡| 大伊香蕉在线观看视频 wap | 国产精品亚洲一区二区三区在线播放 | 国产美女无遮挡软件 | 在线观看亚洲一区 | 婷婷国产成人久久精品激情 | 成人禁啪啪网站 | 国产影视精选网站 | 国产午夜精品福利视频 | 人人爱国产 | 大尺度做爰床戏呻吟免费观 | 免费特黄|