抖音2.3亿线上直播高并发方案
描写河流的句子脚上鸡眼怎么办抖音2.3亿线上直播高并发方案
分发网络是躲在很远的一个地方了,我们当时设计的三个原则就是高并发、高可用、系统解耦,前两个很虚了,只要是做系统都会想怎么高并发,怎么高可用,怎么横向扩展最容易。
我们做了一个多源站,相对于很多公司在做单源站的方式,我们就是为了让用户能更好的触达我们的网络。在各个集、各个城市做了多源站,现在不光是国内有几个点,在香港和美国我们也各做了一个点。这样怎么能做到横向的扩容和数据与业务中心的隔离,是花了一些心思的。这种方案并不是很难,用一些存储做好同步其实也做到了。
高可用,就像DNS这种,保证服务单点的,高可用都能做到。怎么做到系统解耦,因为传统的CDN只是负责流媒体的分发,我们相对于它的优势就是我们除了做流媒体分发以外,还做了很多多媒体的功能,像截图、录像、转码、多分辨率适配这些东西,这些东西是会影响系统稳定性的。怎么能在这里做到真正的解耦,保证系统稳定是下了很多工夫的。
一些开源服务,也做多分辨率适配,但是它所有的转码调度都是由它的流媒体服务来调起的。包括转码的生命周期也是流媒体服务来控制的,他们都在同级部署。其实这是有很大问
吉他调弦题的,多分辨率适配和原画的推送和分发完全不是一个优先级的服务。做系统定级的时候就应该把它们分离开,应该分离在不同的系统来做。
多集源站就是刚才说到的,尽量用三线机房,或者BPG机房,然后在各个城市南北都布点,尽量的更近的触达用户,让用户推流更容易。同时我们在每个源站都部署了金山云的存储,KS3。
部存储的目的也是为了能够更好的保证用户截图和录像的文件的可靠性,存下来之后我们就不管了,交给KS3,当然KS3多媒体服务也是我们维护的。做转码截图,或者是转分辨率合并一系列操作,是由另外一套系统来做,我们把这些多媒体的服务和源站的服务做了解耦。
在线转码是一个非常耗CPU的业务。一台现在很高端配置的24核机器,如果我想转一些画质比较好的视频,每个视频转三个分辨率,这样我转八路就把它打满了,这是很耗CPU的。如果我转了没人看,这个CPU就在那耗着,而且这个是不适合和源站混部的一个服务。
暂时无法接通是什么意思
转码要和数据离的近,在那个源站集的同一机房,我们会申请一些转码的资源,然后由核心机房来统一调度。我们把调度和具体的功能分离开,根据你这个流推到哪,我们就就近在哪里转码。转码也加了一些实时转码的策略。学前教育主要学什么

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。