Kafka服务端(也就是Broker)的源码是采用Scala和Java编写的,Scala是一门JVM语言,Kafka用它写服务端源码主要是利用它的一些语法糖,简化编码,所以基本不影响我们阅读Broker的源码。
服务端源码主要存放在core
模块中:
我们分析Kafka服务端的源码,需要重点关注以下四个方面,后续我也会分四个部分逐一讲解,本章我先从整体上讲解Broker的架构:
- 网络通信;
- 磁盘读写;
- 副本同步;
- 集群管理。
一、整体架构
Kafka Broker的整体架构可以用下面这张图表示:
可以看到,Broker的各个模块的职责和架构分层非常清晰:
- Network Layer(网络层):负责与客户端建立连接并处理底层网络通讯的细节;
- API Layer(API层):负责具体请求的处理和转发,并其它模块进行交互;
- Log Subsystem(日志子系统):负责消息的持久化存储;
- Replication SubSystem(副本子系统):负责副本管理,包含消息同步、副本控制等等。
二、启动类
1.1 启动
Kafka 类中的main
方法就是Broker启动的入口:
object Kafka extends Logging {
def main(args: Array[String]): Unit = {
try {
// 读取配置
val serverProps = getPropsFromArgs(args)
val kafkaServerStartable = KafkaServerStartable.fromProps(serverProps)
// 增加一个shutdown钩子
Runtime.getRuntime().addShutdownHook(new Thread() {
override def run() = {
kafkaServerStartable.shutdown
}
})
// 启动线程
kafkaServerStartable.startup
// 等待关闭
kafkaServerStartable.awaitShutdown
}
catch {
case e: Throwable =>
fatal(e)
System.exit(1)
}
System.exit(0)
}
}
内部调用KafkaServerStartable的startup
方法,最终调用KafkaServer.startup
启动工程线程:
class KafkaServerStartable(val serverConfig: KafkaConfig, reporters: Seq[KafkaMetricsReporter]) extends Logging {
private val server = new KafkaServer(serverConfig, kafkaMetricsReporters = reporters)
def this(serverConfig: KafkaConfig) = this(serverConfig, Seq.empty)
def startup() {
try {
// 启动Kafka Server
server.startup()
}
//...
}
1.2 初始化
初始化流程是在KafkaServer.startup()
中完成的,整个流程还是非常清晰,就是创建并启动Kafka Server端的各类核心组件:
// KafkaServer.scala
def startup() {
try {
// 1.如果Kafka Sever正在停止中,禁止启动
if(isShuttingDown.get)
throw new IllegalStateException("Kafka server is still shutting down, cannot re-start!")
// 2.如果Kafka Sever已经启动成功,直接返回
if(startupComplete.get)
return
// 3.设置标志,表示正在启动
val canStartup = isStartingUp.compareAndSet(false, true)
if (canStartup) {
// 4.设置Broker状态
brokerState.newState(Starting)
// 5.启动一个调度线程池,通过参数`background.threads`设置线程数
kafkaScheduler.startup()
// 6.初始化Zookeeper连接
zkUtils = initZk()
// 7.获取或创建ClusterId,与Broker集群控制管理有关
_clusterId = getOrGenerateClusterId(zkUtils)
info(s"Cluster ID = $clusterId")
// 8.设置Broker ID
config.brokerId = getBrokerId
this.logIdent = "[Kafka Server " + config.brokerId + "], "
// 9.启动日志管理器
logManager = createLogManager(zkUtils.zkClient, brokerState)
logManager.startup()
// 10.启动Server端的网络通讯组件
metadataCache = new MetadataCache(config.brokerId)
credentialProvider = new CredentialProvider(config.saslEnabledMechanisms)
socketServer = new SocketServer(config, metrics, time, credentialProvider)
socketServer.startup()
// 11.启动副本同步组件
replicaManager = new ReplicaManager(config, metrics, time, zkUtils, kafkaScheduler, logManager,
isShuttingDown, quotaManagers.follower)
replicaManager.startup()
// 12.启动KafkaController
kafkaController = new KafkaController(config, zkUtils, brokerState, time, metrics,
threadNamePrefix)
kafkaController.startup()
// 13.启动GroupCoordinator
groupCoordinator = GroupCoordinator(config, zkUtils, replicaManager, Time.SYSTEM)
groupCoordinator.startup()
// 14.启动请求处理线程池
apis = new KafkaApis(socketServer.requestChannel, replicaManager, adminManager,
groupCoordinator,kafkaController, zkUtils, config.brokerId,
config, metadataCache, metrics, authorizer, quotaManagers,
clusterId, time)
requestHandlerPool = new KafkaRequestHandlerPool(config.brokerId, socketServer.requestChannel,
apis, time, config.numIoThreads)
// 15.启动心跳检测
val listeners = config.advertisedListeners.map { endpoint =>
if (endpoint.port == 0)
endpoint.copy(port = socketServer.boundPort(endpoint.listenerName))
else
endpoint
}
kafkaHealthcheck = new KafkaHealthcheck(config.brokerId, listeners, zkUtils, config.rack,
config.interBrokerProtocolVersion)
kafkaHealthcheck.startup()
//...
brokerState.newState(RunningAsBroker)
shutdownLatch = new CountDownLatch(1)
startupComplete.set(true)
isStartingUp.set(false)
AppInfoParser.registerAppInfo(jmxPrefix, config.brokerId.toString)
info("started")
}
}
catch {
case e: Throwable =>
fatal("Fatal error during KafkaServer startup. Prepare to shutdown", e)
isStartingUp.set(false)
shutdown()
throw e
}
}
三、总结
本章,我对Broker的整体架构以及启动流程进行了讲解,Kafka Broker从整体上分为四个模块:Network Layer(网络层)、API Layer(API层)、Log Subsystem(日志子系统)、Replication SubSystem(副本子系统)。
下一章开始,我将先对Network Layer(网络层)的底层源码进行分析。
Java 面试宝典是大明哥全力打造的 Java 精品面试题,它是一份靠谱、强大、详细、经典的 Java 后端面试宝典。它不仅仅只是一道道面试题,而是一套完整的 Java 知识体系,一套你 Java 知识点的扫盲贴。
它的内容包括:
- 大厂真题:Java 面试宝典里面的题目都是最近几年的高频的大厂面试真题。
- 原创内容:Java 面试宝典内容全部都是大明哥原创,内容全面且通俗易懂,回答部分可以直接作为面试回答内容。
- 持续更新:一次购买,永久有效。大明哥会持续更新 3+ 年,累计更新 1000+,宝典会不断迭代更新,保证最新、最全面。
- 覆盖全面:本宝典累计更新 1000+,从 Java 入门到 Java 架构的高频面试题,实现 360° 全覆盖。
- 不止面试:内容包含面试题解析、内容详解、知识扩展,它不仅仅只是一份面试题,更是一套完整的 Java 知识体系。
- 宝典详情:https://www.yuque.com/chenssy/sike-java/xvlo920axlp7sf4k
- 宝典总览:https://www.yuque.com/chenssy/sike-java/yogsehzntzgp4ly1
- 宝典进展:https://www.yuque.com/chenssy/sike-java/en9ned7loo47z5aw
目前 Java 面试宝典累计更新 400+ 道,总字数 42w+。大明哥还在持续更新中,下图是大明哥在 2024-12 月份的更新情况:
想了解详情的小伙伴,扫描下面二维码加大明哥微信【daming091】咨询
同时,大明哥也整理一套目前市面最常见的热点面试题。微信搜[大明哥聊 Java]或扫描下方二维码关注大明哥的原创公众号[大明哥聊 Java] ,回复【面试题】 即可免费领取。