千家信息网

分布式消息队列Kafka的基本概念和常用命令

发表于:2024-11-24 作者:千家信息网编辑
千家信息网最后更新 2024年11月24日,这篇文章主要介绍"分布式消息队列Kafka的基本概念和常用命令",在日常操作中,相信很多人在分布式消息队列Kafka的基本概念和常用命令问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希
千家信息网最后更新 2024年11月24日分布式消息队列Kafka的基本概念和常用命令

这篇文章主要介绍"分布式消息队列Kafka的基本概念和常用命令",在日常操作中,相信很多人在分布式消息队列Kafka的基本概念和常用命令问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"分布式消息队列Kafka的基本概念和常用命令"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

基本概念

主题:好比数据库表,或者系统中文件夹

分区:一个主题可以分若干分区,同一个分区内可以保证有序

偏移量:一个不断递增的整数值,每个分区的偏移量是唯一的

broker:一个独立的kafka服务器

MirrorMaker工具:多集群间消息复制

Zookeeper:保存集群元数据和消费者信息,broker和主题元数据、消费者元数据分区偏移量

硬件选择

磁盘吞吐量、磁盘容量、内存、网络、CPU

生产者(KafkaProducer)

序列化:自定义序列化、Avro

分区:ProducerRecord对象包含了目标主题、键和值,

键有两个作用:可以作为消息的附加信息,也可以用来决定消息改写到主题的那个分区,拥有相当键的消息会被写到同一个分区。

消费者(KafkaConsumer)

消费者和消费者群组

kafka构建数据管道:数据段之间的大型缓存区

kafka是一个强大的消息总线,可以传递事件流,但是没有处理和转换事件的能力,kafka的可靠的传递能力让它成为流式处理系统的完美数据来源

flume是分布式的日志收集系统,它将各个服务器中的数据收集起来并送到指定的地方去

日志输出到flume,log4j里加上日志

业界比较典型的一中用法是:

线上数据 -> flume -> kafka -> hdfs -> MR离线计算 或者:

线上数据 -> flume -> kafka -> storm

简单点概括 flume类似于管道,kafka类似于消息队列。之所以题主觉得类似大概是因为都能用于数据传输

Flume和Kafka应该结合来使用,Flume作为日志收集端,Kafka作为日志消费端。

Flume的Source-Channel-Sink模型,非常适合作为日志收集的模型

kafka常用命令:

创建topic

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

展示topic

bin/kafka-topics.sh --list --zookeeper localhost:2181

描述topic

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

生产者:

bin/kafka-console-producer.sh --broker-list 130.51.23.95:9092 --topic my-replicated-topic

消费者:

bin/kafka-console-consumer.sh --zookeeper 130.51.23.95:2181 --topic test --from-beginnin

到此,关于"分布式消息队列Kafka的基本概念和常用命令"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!

0