Docker for windows 下 Kafka(kraft模式) 安装部署_docker for windows 安装 kafka

kafka-topics.sh --describe --topic foo --bootstrap-server kafka1:9092, kafka2:9092, kafka3:9092

5.5 新打开一个cmd界面,执行以下命令进入kafak1容器

docker exec -it kafka1 bash

5.6 执行以下命令创建生产者

kafka-console-producer.sh --broker-list 172.23.0.11:9092,172.23.0.12:9092,172.23.0.13:9092 --topic foo

5.7 新打开一个cmd界面,执行以下命令,进入kafka2容器

docker exec -it kafka2 bash

5.8 执行以下命令创建消费者

kafka-console-consumer.sh --bootstrap-server 172.23.0.11:9092,172.23.0.12:9092,172.23.0.13:9092 --topic foo

在生产者中输入消息

查看消费者是否收到消息,可以看见消费者中成功接收到消息

****

### 如何在 Docker 中以 KRaft 模式安装和运行 Kafka Kafka Raft (KRaft) 是一种替代 ZooKeeper 的新元数据管理机制,它通过内置的 Raft 协议实现分布式一致性。以下是关于如何在 Docker 容器中设置和运行 Kafka KRaft 模式的指南。 #### 1. 准备工作 确保已安装最新版本的 DockerDocker Compose 工具。此外,下载官方支持的 Apache Kafka 镜像,该镜像应包含对 KRaft 模式的支持[^1]。 ```bash docker pull confluentinc/cp-kafka:latest ``` 此命令会拉取 Confluent 提供的最新 Kafka 镜像,通常已经集成了最新的功能更新和支持。 --- #### 2. 创建配置文件 创建一个名为 `kraft-config.properties` 的配置文件,用于定义 KRaft 模式下的必要参数: ```properties process.roles=broker,controller node.id=1 listeners=PLAINTEXT://0.0.0.0:9092 controller.quorum.voters=1@localhost:9093 listener.security.protocol.map=CONTROLLER_PLAINTEXT:PLAINTEXT,PLAINTEXT:PLAINTEXT inter.broker.listener.name=PLAINTEXT num.partitions=1 log.dirs=/tmp/kraft-combined-logs transaction.state.log.replication.factor=1 offsets.topic.replication.factor=1 ``` 上述配置指定了 broker 和 controller 的角色,并设置了监听地址以及日志存储路径等重要选项。 --- #### 3. 初始化元数据 执行以下命令初始化 KRaft 所需的元数据目录结构: ```bash docker run --rm -v $(pwd):/tmp/confluent confctlinit confluentinc/cp-kafka:latest \ kafka-storage format --ignore-formatted --cluster-id randomClusterID \ --config /tmp/confluent/kraft-config.properties ``` 注意:`randomClusterID` 可替换为实际生成的 Cluster ID 或者随机字符串。 --- #### 4. 启动 Kafka 实例 利用之前创建的配置文件启动 Kafka 容器: ```yaml version: '3' services: kafka: image: confluentinc/cp-kafka:latest ports: - "9092:9092" - "9093:9093" volumes: - ./kraft-config.properties:/etc/kafka/kraft-config.properties - ./data:/tmp/kraft-combined-logs command: > bash -c " kafka-server-start /etc/kafka/kraft-config.properties && tail -f /dev/null" ``` 保存以上内容到 `docker-compose.yml` 文件中,并通过以下命令启动服务: ```bash docker-compose up -d ``` 这一步将基于指定的配置文件启动 Kafka 并使其进入 KRaft 模式运行状态。 --- #### 5. 测试连接 可以通过生产消息或消费消息的方式验证 Kafka 是否正常工作: ```bash # 生产测试消息 docker exec -it kafka kafka-console-producer --bootstrap-server localhost:9092 --topic test-topic # 消费测试消息 docker exec -it kafka kafka-console-consumer --bootstrap-server localhost:9092 --from-beginning --topic test-topic ``` 如果能够成功发送和接收消息,则说明环境搭建完成。 --- ### 注意事项 尽管 KRaft 模式简化了传统依赖于 ZooKeeper 的架构设计,但在大规模生产环境中仍需考虑额外因素,例如网络分区容忍度、磁盘性能优化等问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值