Facebook直播如何撑起瞬间80万人的流量?

Facebook直播如何撑起瞬间80万人的流量?

知道怎幺打造世界级散布式服务的公司,可能比拥有 核武 的国家还少。Facebook 不仅是其中的佼佼者,而它新推出的直播功能就是一项散布式服务。

Facebook 执行长 Mark Zuckerberg 就曾经说过:

如果你在广告业,还有什幺比没有尽头、一直在成长,而且免费产生的内容更适合拿来放广告呢?这就像 Google 在网路指数成长时,为各网站提供广告所开拓的市场一样。

Facebook 的直播技术坚强,就像 BuzzFeed 在 Facebook 直播用橡皮筋爆西瓜,最高达 80 万人同时在线上收看,共有 30 多万条留言。这也是在 15 亿使用者的社群网路上才看得到的病毒传播效应。

作为参考, 2015 年的超级盃共有 1.14 亿观众收看,平均有 236 万人在看直播;2015 的 E3 电玩展则同时有 84 万人在 Twitch 上收看;而 9 月 16 日的共和党辩论最多有 92.1 万人同时在收看直播。

与此同时, Facebook 上还有其他大量的直播正在发生。那幺 Facebook 到底投注了多少资源在直播上呢?

根据 Facebook 的产品长 Chris Cox 在 Wired 报导上提到:

Cox 也承认「结果基础架构的问题真的不好解决。」

要是我们能知道这些基础问题是怎幺解决的,应该会很有趣。

Facebook 流量团队的 Federico Larumbe,就在 Facebook 技术部落格上发表了《Scaling Facebook Live》,里面提到了直播运作的细节。

原文相当精彩,重点节录如下:

起源
  • 另外也研究了 MPEG-DASH
  • 2015 年 12 月在数十个国家展开服务。
  • 直播影片很特别,也带来许多问题
  • 直播影片和一般影片不一样:它会产生瞬间流量。
  • 瞬间流量会对 cache系统和负载平衡系统造成问题。
  • Cache 的问题
  • 全球负载平衡系统的问题
  • 整体架构

    这里是直播如何从直播源散布给上百万观众的过程。

    要怎幺规模化?保护资料中心免于惊群效应

    所有观众同时要求同一个片段会发生什幺事?

    PoP 还是身陷险境:靠全球负载平衡来拯救测试上传的稳定性未来的方向相关文章

    On HackerNews

    Scaling Facebook Live

    Why Facebook And Mark Zuckerberg Went All In On Live Video

    Connecting the World: A look inside Facebook’s Networking Infrastructure

    Gamoloco tracks live video stats for 1476093 channels.