非kerberos环境下,flume采集日志到kafka
发表于:2025-01-24 作者:千家信息网编辑
千家信息网最后更新 2025年01月24日,kafkaflume.confagent.sources = s1agent.channels = c1agent.sinks = k1agent.sources.s1.type=execagent.
千家信息网最后更新 2025年01月24日非kerberos环境下,flume采集日志到kafka
kafkaflume.conf
agent.sources = s1agent.channels = c1agent.sinks = k1agent.sources.s1.type=execagent.sources.s1.command=tail -F /usr/local/src/flume/testflume2.logagent.sources.s1.channels=c1agent.channels.c1.type=memoryagent.channels.c1.capacity=10000agent.channels.c1.transactionCapacity=100#设置Kafka接收器#agent.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink##设置Kafka的broker地址和端口号agent.sinks.k1.kafka.bootstrap.servers = master:9092,node01:9092,node02:9092##设置Kafka的Topicagent.sinks.k1.kafka.topic = mydemo5##设置序列化方式##agent.sinks.k1.kafka.flumeBatchSize = 20agent.sinks.k1.kafka.producer.acks = 1agent.sinks.k1.kafka.producer.linger.ms = 1agent.sinks.ki.kafka.producer.compression.type = snappyagent.sinks.k1.channel=c1
创建一个topic
kafka-topics --create --zookeeper master:2181/kafka --replication-factor 2 --partitions 3 --topic mydemo5
启动flume作为消息生产者写道kafka上
flume-ng agent -c conf -f kafkaflume.conf -n agent -Dflume.root.logger=INFO,console
消费kafka的数据
kafka-console-consumer --bootstrap-server master:9092 --topic mydemo5 --from-beginning
读取一个文件的内容写入追加到新的文件
#!/bin/bashwhile read linedo echo $line sleep 0.01 echo -e $line >> /usr/local/src/flume/testflume2.logdone < /etc/sudo-ldap.conf
文件
内容
口号
地址
序列
接收器
数据
方式
消息
生产者
消费
生产
日志
环境
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
德国网络安全性
软件开发读什么书
impala两列数据库
中国网络安全格局
数据库审计记录保留几天
山西网络安全职业技能大赛预赛
防火墙与网络安全期末重点
网络安全主要内容解决问题
三丰云服务器免费商机
腾讯云数据库交流会
互联网科技养鱼
手语版网络安全宣传视频
老来网显示服务器错误
服务器刷钱
江西互联网科技大佬
mysql 更新数据库
服务器跟踪日志
人人都有网络安全吗
福州网络安全周手抄报
网络安全法明确的首要原则
静安区推广软件开发包括什么
电力系统网络安全装置缺陷
成都莫英米软件开发工作室
从数据库取null时返回空
外包软件开发 账务处理
上海时代网络技术产品介绍
戴尔服务器设计
数据库如何创建把持文件
2020军工网络安全会议
邮政储蓄银行软件开发中心王琼