亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python實現MySQL指定表增量同步數據到clickhouse的腳本

瀏覽:13日期:2022-06-27 09:17:01

python實現MySQL指定表增量同步數據到clickhouse,腳本如下:

#!/usr/bin/env python3# _*_ coding:utf8 _*_ from pymysqlreplication import BinLogStreamReaderfrom pymysqlreplication.row_event import (DeleteRowsEvent,UpdateRowsEvent,WriteRowsEvent,)import clickhouse_driverimport configparserimport os configfile=’repl.ini’########## 配置文件repl.ini 操作 ##################def create_configfile(configfile,log_file,log_pos): config = configparser.ConfigParser() if not os.path.exists(configfile): config[’replinfo’] = {’log_file’:log_file,’log_pos’:str(log_pos)} with open(configfile,’w+’) as f: config.write(f) ### repl.ini 寫操作 ##################def write_config(configfile,log_file,log_pos): config = configparser.ConfigParser() config.read(configfile) config.set(’replinfo’,’log_file’,log_file) config.set(’replinfo’,’log_pos’,str(log_pos)) if os.path.exists(configfile): with open(configfile,’w+’) as f: config.write(f) else: create_configfile(configfile) ### 配置文件repl.ini 讀操作 ##################def read_config(configfile): config = configparser.ConfigParser() config.read(configfile) # print(config[’replinfo’][’log_file’]) # print(config[’replinfo’][’log_pos’]) return (config[’replinfo’][’log_file’],int(config[’replinfo’][’log_pos’])) ############# clickhouse 操作 ##################def ops_clickhouse(db,table,sql): column_type_dic={} try: client = clickhouse_driver.Client(host=’127.0.0.1’, port=9000, user=’default’, password=’clickhouse’) # sql='select name,type from system.columns where database=’{0}’ and table=’{1}’'.format(db,table) client.execute(sql) except Exception as error: message = '獲取clickhouse里面的字段類型錯誤. %s' % (error) # logger.error(message) print(message) exit(1) MYSQL_SETTINGS = {’host’:’127.0.0.1’,’port’:13306,’user’:’root’,’passwd’:’Root@0101’}only_events=(DeleteRowsEvent, WriteRowsEvent, UpdateRowsEvent)def main(): ## 每次重啟時,讀取上次同步的log_file,log_pos (log_file,log_pos) = read_config(configfile) # print(log_file+’|’+ str(log_pos)) print(’-----------------------------------------------------------------------------’) stream = BinLogStreamReader(connection_settings=MYSQL_SETTINGS, resume_stream=True, blocking=True, server_id=10, only_tables=’t_repl’, only_schemas=’test’, log_file=log_file,log_pos=log_pos, only_events=only_events, fail_on_table_metadata_unavailable=True, slave_heartbeat=10) try: for binlogevent in stream: for row in binlogevent.rows:## delete操作if isinstance(binlogevent, DeleteRowsEvent): info = dict(row['values'].items()) # print('DELETE FROM `%s`.`%s` WHERE %s = %s ;' %(binlogevent.schema ,binlogevent.table,binlogevent.primary_key,info[binlogevent.primary_key]) ) # print('ALTER TABLE `%s`.`%s` DELETE WHERE %s = %s ;' %(binlogevent.schema ,binlogevent.table,binlogevent.primary_key,info[binlogevent.primary_key]) ) sql='ALTER TABLE `%s`.`%s` DELETE WHERE %s = %s ;' %(binlogevent.schema ,binlogevent.table,binlogevent.primary_key,info[binlogevent.primary_key]) ## update 操作elif isinstance(binlogevent, UpdateRowsEvent): info_before = dict(row['before_values'].items()) info_after = dict(row['after_values'].items()) # info_set = str(info_after).replace(':','=').replace('{','').replace('}','') info_set = str(info_after).replace(':', '=').replace('{', '').replace('}', '').replace('’','') # print('UPDATE `%s`.`%s` SET %s WHERE %s = %s ;'%(binlogevent.schema,binlogevent.table,info_set,binlogevent.primary_key,info_before[binlogevent.primary_key] ) ) # print('ALTER TABLE %s.%s UPDATE %s WHERE %s = %s ;'%(binlogevent.schema,binlogevent.table,info_set,binlogevent.primary_key,info_before[binlogevent.primary_key] ) ) sql = 'ALTER TABLE %s.%s UPDATE %s WHERE %s = %s ;'%(binlogevent.schema,binlogevent.table,info_set,binlogevent.primary_key,info_before[binlogevent.primary_key] ) ## insert 操作elif isinstance(binlogevent, WriteRowsEvent): info = dict(row['values'].items()) # print('INSERT INTO %s.%s(%s)VALUES%s ;'%(binlogevent.schema,binlogevent.table , ’,’.join(info.keys()) ,str(tuple(info.values())) ) ) sql = 'INSERT INTO %s.%s(%s)VALUES%s ;'%(binlogevent.schema,binlogevent.table , ’,’.join(info.keys()) ,str(tuple(info.values())) )ops_clickhouse(’test’, ’t_repl’,sql ) # 當前log_file,log_pos寫入配置文件write_config(configfile, stream.log_file, stream.log_pos) except Exception as e: print(e) finally: stream.close() if __name__ == '__main__': main() ’’’BinLogStreamReader()參數ctl_connection_settings:集群保存模式信息的連接設置resume_stream:從位置或binlog的最新事件或舊的可用事件開始log_file:設置復制開始日志文件log_pos:設置復制開始日志pos(resume_stream應該為true)auto_position:使用master_auto_position gtid設置位置blocking:在流上讀取被阻止only_events:允許的事件數組ignored_events:被忽略的事件數組only_tables:包含要觀看的表的數組(僅適用于binlog_format ROW)ignored_tables:包含要跳過的表的數組only_schemas:包含要觀看的模式的數組ignored_schemas:包含要跳過的模式的數組freeze_schema:如果為true,則不支持ALTER TABLE。速度更快。skip_to_timestamp:在達到指定的時間戳之前忽略所有事件。report_slave:在SHOW SLAVE HOSTS中報告奴隸。slave_uuid:在SHOW SLAVE HOSTS中報告slave_uuid。fail_on_table_metadata_unavailable:如果我們無法獲取有關row_events的表信息,應該引發異常slave_heartbeat:(秒)主站應主動發送心跳連接。這也減少了復制恢復時GTID復制的流量(在許多事件在binlog中跳過的情況下)。請參閱mysql文檔中的MASTER_HEARTBEAT_PERIOD以了解語義’’’

知識點擴展:

MySQL備份-增量同步

mysql增量同步主要使用binlog文件進行同步,binlog文件主要記錄的是數據庫更新操作相關的內容。

1. 備份數據的意義

針對不同業務,7*24小時提供服務和數據的重要性不同。數據庫數據是比較核心的數據,對企業的經營至關重要,數據庫備份顯得尤為重要。

2. 備份數據庫

MySQL數據庫自帶的備份命令 `mysqldump`,基本使用方法:語法:`mysqldump -u username -p password dbname > filename.sql`

執行備份命令

`mysqldump -uroot -pmysqladmin db_test > /opt/mysql_bak.sql`

查看備份內容

`grep -v '#|*|--|^$' /opt/mysql_bak.sql`

到此這篇關于python實現MySQL指定表增量同步數據到clickhouse的腳本的文章就介紹到這了,更多相關python實現MySQL增量同步數據內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 性xxxxbbbbxxxx中国 | 永久免费看的啪啪网站 | 日韩免费精品一级毛片 | 一区二区三区精品国产 | 久久精品视频大全 | 日本黄色网页 | 亚洲国产色婷婷精品综合在线观看 | 亚洲欧美成人综合在线 | 国产免费高清无需播放器 | 99国产国人青青视频在线观看 | 国产大量女主播精品视频 | 国产高清免费在线 | 99热在线精品观看 | 黄色亚洲 | 久久亚洲美女久久久久 | 青青久久网 | 又黄又爽又猛大片录像 | 三级黄色毛片 | 国产人成精品午夜在线观看 | 欧美性大片免费 | 一级毛片免费全部播放完整 | 亚洲啊啊啊啊啊 | 在线观看网址入口2020国产 | huangse网站免费 | 久久中文字幕网 | 国产在线观看人成激情视频 | 欧美精品久久久久久久免费观看 | 国产大片www | 国产男人午夜视频在线观看 | 欧美 日韩 中字 国产 | 香蕉视频高清 | 国产精品大尺度尺度视频 | 欧美一级特黄aa大片在线观看免费 | 亚洲精品第三页 | 高h喷水荡肉爽文1v1 | 国产精品麻豆传媒 | 一级毛片特级毛片免费的 | 亚洲aaa视频 | 欧美日韩午夜精品不卡综合 | 精品欧美一区二区三区免费观看 | 精品久久久久不卡无毒 |