|
|
欢迎关注头条号:石杉的架构笔记
* i! [4 K3 l1 N, m& R/ ~周一至周五早八点半!精品技术文章准时送上!!!
; H0 B. n8 p8 Z8 x9 x; A5 }精品学习资料获取通道,参见文末. d4 N1 y# j/ k) @; Q) B% R
目录- a6 Y, A# I$ G3 z" ?6 u
1、Kafka的客户端缓冲机制0 r! s1 i) o9 M* A. O- Y! H
2、内存缓冲造成的频繁GC问题0 E: \, z7 `8 x! y2 L4 K: ]5 z
3、Kafka设计者实现的缓冲池机制
8 F- x2 I, x: D6 p, H' f4、总结一下; N0 x4 g% H. X; y
“ 这篇文章,同样给大家聊一个硬核的技术知识,我们通过Kafka内核源码中的一些设计思想,来看你设计Kafka架构的技术大牛,是怎么优化JVM的GC问题的?
( C) _! p5 U* c1、Kafka的客户端缓冲机制" I* {# v R4 r7 o
* n9 a( f! D# W6 ~9 N! U/ f9 C. E首先,先得给大家明确一个事情,那就是在客户端发送消息给kafka服务器的时候,一定是有一个内存缓冲机制的。
3 X8 q$ E8 U/ j6 I6 N也就是说,消息会先写入一个内存缓冲中,然后直到多条消息组成了一个Batch,才会一次网络通信把Batch发送过去。0 y9 j7 `& ^( P, E8 y1 G$ i
整个过程如下图所示:
" @; {0 g9 ?, v! O5 ^0 }. p U1 S, k. ^' \' g! N
! Y, g, v# h! v5 g1 h ~+ ]- x
& `. @, y3 l9 |. P
2、内存缓冲造成的频繁GC问题7 e* \6 e# D( J( S- t
1 O2 \* O0 n s- D& L; z, j, E那么这种内存缓冲机制的本意,其实就是把多条消息组成一个Batch,一次网络请求就是一个Batch或者多个Batch。3 q7 ]( l" y3 s5 {
这样每次网络请求都可以发送很多数据过去,避免了一条消息一次网络请求。从而提升了吞吐量,即单位时间内发送的数据量。" g2 ?1 G. w9 q; n( [, A0 {
但是问题来了,大家可以思考一下,一个Batch中的数据,会取出来然后封装在底层的网络包里,通过网络发送出去到达Kafka服务器。: s4 R' ^: K0 U( d% n* H
那么然后呢?这个Batch里的数据都发送过去了,现在Batch里的数据应该怎么处理?/ m. x ]$ @1 i" n/ \! O( v9 y
你要知道,这些Batch里的数据此时可还在客户端的JVM的内存里啊!那么此时从代码实现层面,一定会尝试避免任何变量去引用这些Batch对应的数据,然后尝试触发JVM自动回收掉这些内存垃圾。
+ _7 ^9 E& k$ Y+ d1 t4 c7 ^; s这样不断的让JVM回收垃圾,就可以不断的清理掉已经发送成功的Batch了,然后就可以不断的腾出来新的内存空间让后面新的数据来使用。' \. {+ p3 H1 k. d. r1 r
这种想法很好,但是实际线上运行的时候一定会有问题,最大的问题,就是JVM GC问题。2 K& ~. T. T! r
大家都知道一点,JVM GC在回收内存垃圾的时候,他会有一个“Stop the World”的过程,也就是垃圾回收线程运行的时候,会导致其他工作线程短暂的停顿,这样可以便于他自己安安静静的回收内存垃圾。
3 V3 G$ D) G6 i0 ~这个也很容易想明白,毕竟你要是在回收内存垃圾的时候,你的工作线程还在不断的往内存里写数据,制造更多的内存垃圾,那你让人家JVM怎么回收垃圾?
7 J6 v0 R! T7 f' X" |+ P这就好比在大马路上,如果地上有很多垃圾,现在要把垃圾都扫干净,最好的办法是什么?大家都让开,把马路空出来,然后清洁工就是把垃圾清理干净。3 f# |% u& C; `
但是如果清洁工在清扫垃圾的时候,结果一帮人在旁边不停的嗑瓜子扔瓜子壳,吃西瓜扔西瓜皮,不停的制造垃圾,你觉得清洁工内心啥感受?当然是很愤慨了,照这么搞,地上的垃圾永远的都搞不干净了!5 C0 w$ t* ~7 L' a" D
通过了上面的语言描述,我们再来一张图,大家看看就更加清楚了
5 X" U1 A W3 Q% H( n0 J8 O- T ' ^; ~ S9 q! _
现在JVM GC是越来越先进,从CMS垃圾回收器到G1垃圾回收器,核心的目标之一就是不断的缩减垃圾回收的时候,导致其他工作线程停顿的时间。- h* j# ~) Q, L8 h* v( r
所以现在越是新款的垃圾回收器导致工作线程停顿的时间越短,但是再怎么短,他也还是存在啊!
/ X: G' k5 C! {: p3 j4 z( M8 U所以说,如何尽可能在自己的设计上避免JVM频繁的GC就是一个非常考验水平的事儿了。0 @& _; }0 A( d+ F
3、Kafka设计者实现的缓冲池机制/ M$ W! D6 V5 C d/ r+ l
$ l' A" J% c9 \# E# V0 d- k6 R# z在Kafka客户端内部,对这个问题实现了一个非常优秀的机制,就是缓冲池的机制. l& I+ N- f, q" ~0 H/ K3 t' V8 }. A+ }# `
; O6 h0 M0 }% `" J
) b, t2 p# S, t6 R
简单来说,就是每个Batch底层都对应一块内存空间,这个内存空间就是专门用来存放写入进去的消息的。
: t& `' E/ b ^) @1 o1 F; q然后呢,当一个Batch被发送到了kafka服务器,这个Batch的数据不再需要了,就意味着这个Batch的内存空间不再使用了。
& U1 h; | R, w0 S. }4 F% _此时这个Batch底层的内存空间不要交给JVM去垃圾回收,而是把这块内存空间给放入一个缓冲池里。
1 Z- |5 m0 R9 y# d2 ^+ y这个缓冲池里放了很多块内存空间,下次如果你又有一个新的Batch了,那么不就可以直接从这个缓冲池里获取一块内存空间就ok了?
& a% G p# u5 c- X; Q- J' i然后如果一个Batch发送出去了之后,再把内存空间给人家还回来不就好了?以此类推,循环往复。
: E! \' W/ X& u Q5 ~! J5 K$ y! f同样,听完了上面的文字描述,再来一张图,看完这张图相信大伙儿就明白了:* [3 ]5 X( C- Q' D5 j# c
* W+ h5 T4 P1 e$ i
一旦使用了这个缓冲池机制之后,就不涉及到频繁的大量内存的GC问题了。# f- P% w- `' F
为什么呢?因为他可以上来就占用固定的内存,比如32MB。然后把32MB划分为N多个内存块,比如说一个内存块是16KB,这样的话这个缓冲池里就会有很多的内存块。
2 a& ]7 L+ N: B# Q然后你需要创建一个新的Batch,就从缓冲池里取一个16KB的内存块就可以了,然后这个Batch就不断的写入消息,但是最多就是写16KB,因为Batch底层的内存块就16KB。
- m4 r7 r3 q4 o. B5 T接着如果Batch被发送到Kafka服务器了,此时Batch底层的内存块就直接还回缓冲池就可以了。
7 `3 Y: h8 [5 M. Z! Q" p下次别人再要构建一个Batch的时候,再次使用缓冲池里的内存块就好了。这样就可以利用有限的内存,对他不停的反复重复的利用。因为如果你的Batch使用完了以后是把内存块还回到缓冲池中去,那么就不涉及到垃圾回收了。! L1 o) S+ K; `1 M+ F
如果没有频繁的垃圾回收,自然就避免了频繁导致的工作线程的停顿了,JVM GC问题是不是就得到了大幅度的优化?
' \0 z' l# L+ ]1 @* Z8 O. h没错,正是这个设计思想让Kafka客户端的性能和吞吐量都非常的高,这里蕴含了大量的优秀的机制。
/ V0 T# R7 J- @ P2 B" o那么此时有人说了,如果我现在把一个缓冲池里的内存资源都占满了,现在缓冲池里暂时没有内存块了,怎么办呢?& \- B1 A/ T+ Z9 g# E
很简单,阻塞你的写入操作,不让你继续写入消息了。把你给阻塞住,不停的等待,直到有内存块释放出来,然后再继续让你写入消息。
5 G' \8 S4 Y2 q) J9 E8 W4、总结一下+ q9 n/ }/ P& [8 o* I
6 g; o) F0 m8 _* A1 b这篇文章我们从Kafka内存缓冲机制的设计思路开始,一直分析到了JVM GC问题的产生原因以及恶劣的影响。" ^' ^; A1 @) Z
接着谈到了Kafka优秀的缓冲池机制的设计思想以及他是如何解决这个问题的,分析了很多Kafka作者在设计的时候展现出的优秀的技术设计思想和能力。
' d6 s8 Q1 |9 \0 U; r希望大家多吸取这里的精华,在以后面试或者工作的时候,可以把这些优秀的思想纳为己用。
) F" U c7 Q# F# FEnd
) w( v% {! }5 o" o! V一大波微服务、分布式、高并发、高可用的原创系列文章正在路上,! ]: v E4 S! ^% h& @( \) Y+ o
欢迎关注头条号:石杉的架构笔记; ^' m. `' d& I4 w5 ]
周一至周五早八点半!精品技术文章准时送上!!!
* k; ^: s* q6 @2 v十余年BAT架构经验倾囊相授
i% y! b# w& E; i5 }8 M推荐阅读9 b, k6 Z, j y2 A! e- b j
1、拜托!面试请不要再问我Spring Cloud底层原理!
( T. Y0 Z/ A7 c2、微服务注册中心如何承载大型系统的千万级访问? J7 s, C0 _( _
3、「性能优化之道」每秒上万并发下的Spring Cloud参数优化实战7 |8 E$ b& ?# I ?! h( i5 e
4、「“剁手党”狂欢的背后」微服务架构如何保障99.99%的高可用?
9 d& H) F8 x, \3 z# B( U5、兄弟,用大白话告诉你小白都能看懂的Hadoop架构原理
( Y3 D+ [' z2 k2 W+ D1 k6、大规模集群下Hadoop NameNode如何承载每秒上千次的高并发访问
6 B r, E n0 f4 }/ g1 X1 Z3 F% `( T7、「性能优化的秘密」Hadoop如何将TB级大文件的上传性能优化上百倍" d [8 X3 _& r; w
8、拜托,面试请不要再问我TCC分布式事务的实现原理!
; s7 E) |3 Q! T( N4 ^- c/ R9、最终一致性分布式事务如何保障实际生产中99.99%高可用?
% P6 d- z2 k5 Z8 a10、拜托,面试请不要再问我Redis分布式锁的实现原理( x' v N3 W; p- k0 J
11、Hadoop底层算法如何优雅的将大规模集群性能提升10倍以上?# w% H" U. l- x
12、亿级流量系统架构之如何支撑百亿级数据的存储与计算
7 ]2 a9 O5 ]4 g7 `* x; g13、亿级流量系统架构之如何设计高容错分布式计算系统" E" z+ B2 a* w" X% z$ j- |
14、亿级流量系统架构之如何设计承载百亿流量的高性能架构- N7 f6 U k# a6 x# X, ?& e
15、亿级流量系统架构之如何设计每秒十万查询的高并发架构
; [6 ?& b; ]- _4 a( ~, k16、亿级流量系统架构之如何设计全链路99.99%高可用架构5 O6 T4 b" L$ R& D$ w. c5 D: E5 U
17、七张图彻底讲清楚ZooKeeper分布式锁的实现原理
1 @1 X( ^ I& y {" Q7 l) k3 x18、大白话聊聊Java并发面试问题之volatile到底是什么?
; N9 O0 q" Q5 C% H. y. `& x! \19、大白话聊聊Java并发面试问题之Java 8如何优化CAS性能?# g$ w: X0 S) Y) l3 n
20、大白话聊聊Java并发面试问题之谈谈你对AQS的理解?0 u+ C6 J4 T- k% H* T
21、大白话聊聊Java并发面试问题之微服务注册中心的读写锁优化
. c; N/ w; R9 [* r* F& h1 z2 z+ h22、互联网公司的面试官是如何360°无死角考察候选人的?(上篇)
) V) k P, o2 m23、互联网公司面试官是如何360°无死角考察候选人的?(下篇)
K, y, `2 A7 L* x24、「Java进阶面试系列之一」你们系统架构中为何要引入消息中间件?
' z7 E2 i! d3 s$ a8 m25、「Java进阶面试系列之二」系统架构引入消息中间件有什么缺点. ?1 G" \3 v5 o9 h' b$ Y
26、「行走的Offer收割机」一位朋友斩获BAT技术专家Offer的面试经历
: |0 H' Y6 N+ g27、「Java进阶面试系列之三」消息中间件在你们项目里是如何落地的?
4 g% z# }6 B( U7 R9 v) R( [5 k# V28、扎心!线上服务宕机时,如何保证数据100%不丢失?
( i7 a. H( O0 \ R29、 一次JVM FullGC的背后,竟隐藏着惊心动魄的线上生产事故!& H- X7 F- q5 H' u& S
30、「高并发优化实践」10倍请求压力来袭,你的系统会被击垮吗?" I1 K+ R3 Z8 \4 b- o1 b3 t2 R
31、消息中间件集群崩溃,如何保证百万生产数据不丢失?# I+ _. @ R* X! i
32、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(上)?: v& G2 q* K8 b& \
33、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(中)?
) Z5 N& C; g% l1 X1 N: l34、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(下)?: G A5 g/ B& g& G1 T
35、亿级流量架构第二弹:你的系统真的无懈可击吗?. L+ S: M1 ]$ B e" ~/ M
36、亿级流量系统架构之如何保证百亿流量下的数据一致性(上)
" l$ N1 ^! I- s! _6 o. Y- ~' O; ]2 A37、亿级流量系统架构之如何保证百亿流量下的数据一致性(中)?. P. e0 z' K2 v$ ?; y+ ]8 v! h
38、亿级流量系统架构之如何保证百亿流量下的数据一致性(下)?% E% Q" s7 o W" C
39、互联网面试必杀:如何保证消息中间件全链路数据100%不丢失(1)9 J* d! u4 P: W2 f7 C
40、互联网面试必杀:如何保证消息中间件全链路数据100%不丢失(2)' T3 y: x* M- K4 J
41、面试大杀器:消息中间件如何实现消费吞吐量的百倍优化?
# h f$ n4 @7 ^3 O2 `8 }# C9 T42、兄弟,用大白话给你讲小白都能看懂的分布式系统容错架构
x' |0 ?' E+ b5 X C43、从团队自研的百万并发中间件系统的内核设计看Java并发性能优化8 M' W. o4 _: ~
44、如果20万用户同时访问一个热点缓存,如何优化你的缓存架构?
; i! p8 u1 O/ y% B/ p9 P6 m: N45、「非广告,纯干货」英语差的程序员如何才能无障碍阅读官方文档?# _1 \) f. Y+ n% N! @$ @
46、面试最让你手足无措的一个问题:你的系统如何支撑高并发?: k$ @( ^+ C% C$ n
47、Java进阶必备:优雅的告诉面试官消息中间件该如何实现高可用架构$ i6 ?7 v: O- K$ |" L) j# x) H
48、「非广告,纯干货」中小公司的Java工程师应该如何逆袭冲进BAT?* Q: Q- U1 Q1 f# v' Q
49、拜托,面试请不要再问我分布式搜索引擎的架构原理!
5 e6 I& [! G; I" U( }50、互联网大厂Java面试题:使用无界队列的线程池会导致内存飙升吗?
m$ z. X3 G0 ^" c# q1 N51、「码农打怪升级之路」行走江湖,你需要解锁哪些技能包?- x% @; X" |8 \; i
52、「来自一线的血泪总结」你的系统上线时是否踩过这些坑?! h- @& ?" i: P, f6 N
53、【offer收割机必备】我简历上的Java项目都好low,怎么办?5 E8 X1 s5 s3 e% B$ l l2 z
54、【offer去哪了】我一连面试了十个Java岗,统统石沉大海!0 d, j, L/ l) b9 X
55、支撑日活百万用户的高并发系统,应该如何设计其数据库架构?3 z- W2 N0 o3 @. a) c* N
56、高阶Java开发必备:分布式系统的唯一id生成算法你了解吗?
* j" D0 |' a. {7 v( Z" W0 K- e57、尴尬了!Spring Cloud微服务注册中心Eureka 2.x停止维护了咋办?
7 Y* ^4 Q p( u. b0 y6 N58、【Java高阶必备】如何优化Spring Cloud微服务注册中心架构?
: Y* c& }6 [* f: P; a59、面试官:消息中间件如何实现每秒几十万的高并发写入?% ]% i/ q" N1 G3 \
60、【非广告,纯干货】三四十岁大龄程序员,该如何保持职场竞争力? o% B o" t0 V* Q0 w/ \ a9 j
61、面试官:请谈谈写入消息中间件的数据,如何保证不丢失?/ ?( b, n( d: S
62、【生产实践总结】支撑百万连接的系统应该如何设计其高并发架构?, d. F" F# y6 U8 N
63、面对BAT大厂的竞争对手时,小公司Java工程师是如何败北的?
: c0 k2 |1 j6 P. n2 d64、【纯干货分享】小公司出身的我,是如何拿下知名独角兽公司offer
2 M1 G* o6 e Q5 n65、用小白都能看懂的大白话告诉你:什么是分布式计算系统?2 y2 n8 k1 {4 _% O4 E: P' R. \* _/ c
66、老司机生产实践经验:线上系统的JVM内存是越大越好吗? Q( K% T$ n1 H H7 ^5 @
67、Java同学找工作最懵圈的问题:到底啥是分布式系统开发经验?
{! K! o9 I4 q1 J- ~67、尴尬的面试现场:说说你们系统有多大QPS?系统如何抗住高并发?" s l: Q8 n0 x, I( _+ b
68、分享一套GitHub上stars 10000+的Java面试题(含解析)
0 X/ a5 C9 K% U: i9 Z: w7 h8 j69、小公司面试10连挂之后,我拿到了互联网一线大厂offer!
$ | O) ]$ P v, V2 _70、【架构设计之道】这波操作,会把你的中间件架构带到另一个Level9 Q0 V* y+ E( E9 C( |
71、三年努力,梦归阿里!
- O3 V3 z' @. x0 e72、阿里三面,P9面试官是如何360°无死角考察候选人的?
6 |2 ~2 ?! ~6 v9 }73、如果让你设计一个消息中间件,如何将网络通信性能优化10倍以上?
3 H# d# v* h9 |+ T& j" j+ l+ R74、简历写Kafka,面试官大概率会让你讲acks参数对消息持久化的影响
v1 y7 c3 `! `8 F" e' A' Q75、【嗅探底层】深入揭秘Synchronized在JVM是如何实现的?
2 z8 L$ J: k3 d9 _76、面经分享:斩获7枚offer,入职阿里平台事业部!
. L5 Q+ i3 n7 ~* ]1 L$ S0 Q) w
4 F+ O3 x6 L4 S- j6 f) l来源:https://www.toutiao.com/a6687543307867783691/
, W6 U( c. E2 Z6 [4 w2 O2 {免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|