亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - 如何使用pykafka consumer進行數據處理并保存?

瀏覽:131日期:2022-07-29 10:47:55

問題描述

使用本地kafka bin/kafka-console-producer.sh --broker-list kafkaIP:port --topic topicName創建命令行生產數據,然后打開python

from pykafka import KafkaClientclient = KafkaClient(hosts='192.168.x.x:9092')topic = client.topics[’wr_test’]consumer = topic.get_balanced_consumer(consumer_group=’test-consumer-group’,auto_commit_enable=True,zookeeper_connect=’192.168.x.x:2121’)

然后自己編寫了簡單的一套處理函數,從外部引用。將數據處理后存入elasticsearch 或者 數據庫比如for msg in consumer:

if msg is not None: 外部引入的處理函數(msg.value)

在python命令行for msg in consumer:

print msg.offset, msg.value

這時候使用生產者敲入一些數據,在消費端就會就會立即打印出來但是寫成py文件之后,每次運行只會處理最近的生產的一次內容,在生產者中再進行輸入一些內容,py文件就不會再進行數據處理了。所以向問下如何編寫能運行后能一直對消費者數據進行處理的函數?要注意哪些地方?

另外,get_balanced_consumer的方法,是連接zookeeper消費使用topic.get_simple_consumer是直接消費kafka,使用這種方式就提示No handler for...的錯誤

還有一個疑問,就是實際生產環境日志產生量很快,應該如何編寫一個多線程處理方法?

問題解答

回答1:

在別人的博客看到一種替代的解決方案http://www.cnblogs.com/castle...從consumer中將msg.value讀取到一個列表當中,然后從列表中讀取數據進行數據處理,當這個流程結束后,再把列表中獲取的數據pop掉。另外也要用try: ... except :... continue

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品性视频免费播放 | 欧美高清v| 正在播放国产夫妻 | 色屁屁www影院入口免费观看 | 黄色一及片 | 日本久久综合网 | 久久99国产精品一区二区 | 亚洲免费在线看 | 国产免费a v吧在线观看不卡 | 99精品网| 国产a级免费 | 小视频在线观看免费 | 伊人第四色| 国产一区二区三区成人久久片 | 日本二级黄色片 | 国产一级做a爰片在线看免费 | 国产一级片毛片 | 一区二区三区免费精品视频 | 精品国产一区二区在线观看 | 国产三级网站在线观看 | 国产精品麻豆99久久 | 一级视频免费观看 | 婷婷在线成人免费观看搜索 | 真人一级毛片免费观看视频 | 在线免费观看国产 | 国产专区日韩精品欧美色 | 亚洲国产欧美国产第一区二区三区 | 久久精品中文字幕第一页 | 长腿美女校花宿舍嗷嗷嗷大叫 | 国产在线91 | 日本一级大黄毛片免费基地 | 成人蜜桃网 | 韩国 欧美 日产 国产精品 | 欧美成人看片黄a免费 | 三级小视频在线观看 | 国产精品日日摸夜夜添夜夜添1 | 992人人tv香蕉国产精品 | 久久一区二区三区不卡 | 青草香蕉精品视频在线观看 | 久青草青综合在线视频 | 久久国产精品自在自线 |