flume-kafka-storm-hdfs-hadoop-hbase
发布日期:2021-05-09 05:38:19 浏览次数:12 分类:博客文章

本文共 431 字,大约阅读时间需要 1 分钟。

# bigdata-demo 项目地址:
hadoop:     hadoop hdfs操作     log输出到flume     flume输出到hdfs hbase:     HTable基本操作:创建,删除,添加表,行,列族,列等。 kafka:     测试 producer | consumer storm:实时处理消息 kafka集成storm集成hdfs     读取kafka数据=》storm实时处理(分割字符,统计字符)=》写入hdfs  * kafka消息生成方式:  *   1. LogGenerator生成测试日志发送到flume=》  *   2. MyKafkaProducer发送测试消息  *   3. elasticjob定时任务模块生成测试日志  * MyKafkaStormHdfs 实时处理消息:  *   =》读取kafka数据  *   =》storm实时处理(分割字符,统计字符)  *   =》写入hdfs
上一篇:Mybatis利用拦截器做统一分页
下一篇:flume 整合 kafka

发表评论

最新留言

感谢大佬
[***.8.128.20]2025年04月09日 11时20分46秒