分类
未分类

16张图带你如何从0到1构建一个稳定、高性能的Redis集群?

点击上方蓝色“石杉的架构笔记”,选择“设为星标”

回复“PDF”获取独家整理的学习资料!

长按扫描上方二维码一元购买


阅读本文大约需要 13 分钟。

现如今 Redis 变得越来越流行,几乎在很多项目中都要被用到,不知道你在使用 Redis 时,有没有思考过,Redis 到底是如何稳定、高性能地提供服务的?

你也可以尝试回答一下以下这些问题:

  • 我使用 Redis 的场景很简单,只使用单机版 Redis 会有什么问题吗?
  • 我的 Redis 故障宕机了,数据丢失了怎么办?如何能保证我的业务应用不受影响?
  • 为什么需要主从集群?它有什么优势?
  • 什么是分片集群?我真的需要分片集群吗?

如果你对 Redis 已经有些了解,肯定也听说过数据持久化、主从复制、哨兵这些概念,它们之间又有什么区别和联系呢?

如果你存在这样的疑惑,这篇文章,我会从 0 到 1,再从 1 到 N,带你一步步构建出一个稳定、高性能的 Redis 集群。

在这个过程中,你可以了解到 Redis 为了做到稳定、高性能,都采取了哪些优化方案,以及为什么要这么做?

掌握了这些原理,这样平时你在使用 Redis 时,就能够做到「游刃有余」。

这篇文章干货很多,希望你可以耐心读完。

从最简单的开始:单机版 Redis

首先,我们从最简单的场景开始。

假设现在你有一个业务应用,需要引入 Redis 来提高应用的性能,此时你可以选择部署一个单机版的 Redis 来使用,就像这样:

这个架构非常简单,你的业务应用可以把 Redis 当做缓存来使用,从 MySQL 中查询数据,然后写入到 Redis 中,之后业务应用再从 Redis 中读取这些数据,由于 Redis 的数据都存储在内存中,所以这个速度飞快。

如果你的业务体量并不大,那这样的架构模型基本可以满足你的需求。是不是很简单?

随着时间的推移,你的业务体量逐渐发展起来了,Redis 中存储的数据也越来越多,此时你的业务应用对 Redis 的依赖也越来越重。

但是,突然有一天,你的 Redis 因为某些原因宕机了,这时你的所有业务流量,都会打到后端 MySQL 上,这会导致你的 MySQL 压力剧增,严重的话甚至会压垮 MySQL。

这时你应该怎么办?

我猜你的方案肯定是,赶紧重启 Redis,让它可以继续提供服务。

但是,因为之前 Redis 中的数据都在内存中,尽管你现在把 Redis 重启了,之前的数据也都丢失了。重启后的 Redis 虽然可以正常工作,但是由于 Redis 中没有任何数据,业务流量还是都会打到后端 MySQL 上,MySQL 的压力还是很大。

这可怎么办?你陷入了沉思。

有没有什么好的办法解决这个问题?

既然 Redis 只把数据存储在内存中,那是否可以把这些数据也写一份到磁盘上呢?

如果采用这种方式,当 Redis 重启时,我们把磁盘中的数据快速恢复到内存中,这样它就可以继续正常提供服务了。

是的,这是一个很好的解决方案,这个把内存数据写到磁盘上的过程,就是「数据持久化」。

数据持久化:有备无患

现在,你设想的 Redis 数据持久化是这样的:

但是,数据持久化具体应该怎么做呢?

我猜你最容易想到的一个方案是,Redis 每一次执行写操作,除了写内存之外,同时也写一份到磁盘上,就像这样:

没错,这是最简单直接的方案。

但仔细想一下,这个方案有个问题:客户端的每次写操作,既需要写内存,又需要写磁盘,而写磁盘的耗时相比于写内存来说,肯定要慢很多!这势必会影响到 Redis 的性能。

如何规避这个问题?

我们可以这样优化:Redis 写内存由主线程来做,写内存完成后就给客户端返回结果,然后 Redis 用另一个线程去写磁盘,这样就可以避免主线程写磁盘对性能的影响。

这确实是一个好方案。除此之外,我们可以换个角度,思考一下还有什么方式可以持久化数据?

这时你就要结合 Redis 的使用场景来考虑了。

回忆一下,我们在使用 Redis 时,通常把它用作什么场景?

是的,缓存。

把 Redis 当做缓存来用,意味着尽管 Redis 中没有保存全量数据,对于不在缓存中的数据,我们的业务应用依旧可以通过查询后端数据库得到结果,只不过查询后端数据的速度会慢一点而已,但对业务结果其实是没有影响的。

基于这个特点,我们的 Redis 数据持久化还可以用「数据快照」的方式来做。

那什么是数据快照呢?

简单来讲,你可以这么理解:

  1. 你把 Redis 想象成一个水杯,向 Redis 写入数据,就相当于往这个杯子里倒水
  2. 此时你拿一个相机给这个水杯拍一张照片,拍照的这一瞬间,照片中记录到这个水杯中水的容量,就是水杯的数据快照

也就是说,Redis 的数据快照,是记录某一时刻下 Redis 中的数据,然后只需要把这个数据快照写到磁盘上就可以了。

它的优势在于,只在需要持久化时,把数据「一次性」写入磁盘,其它时间都不需要操作磁盘。

基于这个方案,我们可以定时给 Redis 做数据快照,把数据持久化到磁盘上。

其实,上面说的这些持久化方案,就是 Redis 的「RDB」和「AOF」:

  • RDB:只持久化某一时刻的数据快照到磁盘上(创建一个子进程来做)
  • AOF:每一次写操作都持久到磁盘(主线程写内存,根据策略可以配置由主线程还是子线程进行数据持久化)

它们的区别除了上面讲到的,还有以下特点:

  1. RDB 采用二进制 + 数据压缩的方式写磁盘,这样文件体积小,数据恢复速度也快
  2. AOF 记录的是每一次写命令,数据最全,但文件体积大,数据恢复速度慢

如果让你来选择持久化方案,你可以这样选择:

  1. 如果你的业务对于数据丢失不敏感,采用 RDB 方案持久化数据
  2. 如果你的业务对数据完整性要求比较高,采用 AOF 方案持久化数据

假设你的业务对 Redis 数据完整性要求比较高,选择了 AOF 方案,那此时你又会遇到这些问题:

  1. AOF 记录每一次写操作,随着时间增长,AOF 文件体积会越来越大
  2. 这么大的 AOF 文件,在数据恢复时变得非常慢

这怎么办?数据完整性要求变高了,恢复数据也变困难了?有没有什么方法,可以缩小文件体积?提升恢复速度呢?

我们继续来分析 AOF 的特点。

由于 AOF 文件中记录的都是每一次写操作,但对于同一个 key 可能会发生多次修改,我们只保留最后一次被修改的值,是不是也可以?

是的,这就是我们经常听到的「AOF rewrite」,你也可以把它理解为 AOF 「瘦身」。

我们可以对 AOF 文件定时 rewrite,避免这个文件体积持续膨胀,这样在恢复时就可以缩短恢复时间了。

再进一步思考一下,还有没有办法继续缩小 AOF 文件?

回顾一下我们前面讲到的,RDB 和 AOF 各自的特点:

  1. RDB 以二进制 + 数据压缩方式存储,文件体积小
  2. AOF 记录每一次写命令,数据最全

我们可否利用它们各自的优势呢?

当然可以,这就是 Redis 的「混合持久化」。

具体来说,当 AOF rewrite 时,Redis 先以 RDB 格式在 AOF 文件中写入一个数据快照,再把在这期间产生的每一个写命令,追加到 AOF 文件中。因为 RDB 是二进制压缩写入的,这样 AOF 文件体积就变得更小了。

此时,你在使用 AOF 文件恢复数据时,这个恢复时间就会更短了!

Redis 4.0 以上版本才支持混合持久化。

这么一番优化,你的 Redis 再也不用担心实例宕机了,当发生宕机时,你就可以用持久化文件快速恢复 Redis 中的数据。

但这样就没问题了吗?

仔细想一下,虽然我们已经把持久化的文件优化到最小了,但在恢复数据时依旧是需要时间的,在这期间你的业务应用还是会受到影响,这怎么办?

我们来分析有没有更好的方案。

一个实例宕机,只能用恢复数据来解决,那我们是否可以部署多个 Redis 实例,然后让这些实例数据保持实时同步,这样当一个实例宕机时,我们在剩下的实例中选择一个继续提供服务就好了。

没错,这个方案就是接下来要讲的「主从复制:多副本」。

主从复制:多副本

此时,你可以部署多个 Redis 实例,架构模型就变成了这样:

我们这里把实时读写的节点叫做 master,另一个实时同步数据的节点叫做 slave。

采用多副本的方案,它的优势是:

  1. 缩短不可用时间:master 发生宕机,我们可以手动把 slave 提升为 master 继续提供服务
  2. 提升读性能:让 slave 分担一部分读请求,提升应用的整体性能

这个方案不错,不仅节省了数据恢复的时间,还能提升性能,那它有什么问题吗?

你可以思考一下。

其实,它的问题在于:当 master 宕机时,我们需要「手动」把 slave 提升为 master,这个过程也是需要花费时间的。

虽然比恢复数据要快得多,但还是需要人工介入处理。一旦需要人工介入,就必须要算上人的反应时间、操作时间,所以,在这期间你的业务应用依旧会受到影响。

怎么解决这个问题?我们是否可以把这个切换的过程,变成自动化呢?

对于这种情况,我们需要一个「故障自动切换」机制,这就是我们经常听到的「哨兵」所具备的能力。

哨兵:故障自动切换

现在,我们可以引入一个「观察者」,让这个观察者去实时监测 master 的健康状态,这个观察者就是「哨兵」。

具体如何做?

  1. 哨兵每间隔一段时间,询问 master 是否正常
  2. master 正常回复,表示状态正常,回复超时表示异常
  3. 哨兵发现异常,发起主从切换

有了这个方案,就不需要人去介入处理了,一切就变得自动化了,是不是很爽?

但这里还有一个问题,如果 master 状态正常,但这个哨兵在询问 master 时,它们之间的网络发生了问题,那这个哨兵可能会误判。

这个问题怎么解决?

答案是,我们可以部署多个哨兵,让它们分布在不同的机器上,它们一起监测 master 的状态,流程就变成了这样:

  1. 多个哨兵每间隔一段时间,询问 master 是否正常
  2. master 正常回复,表示状态正常,回复超时表示异常
  3. 一旦有一个哨兵判定 master 异常(不管是否是网络问题),就询问其它哨兵,如果多个哨兵(设置一个阈值)都认为 master 异常了,这才判定 master 确实发生了故障
  4. 多个哨兵经过协商后,判定 master 故障,则发起主从切换

所以,我们用多个哨兵互相协商来判定 master 的状态,这样一来,就可以大大降低误判的概率。

哨兵协商判定 master 异常后,这里还有一个问题:由哪个哨兵来发起主从切换呢?

答案是,选出一个哨兵「领导者」,由这个领导者进行主从切换。

问题又来了,这个领导者怎么选?

想象一下,在现实生活中,选举是怎么做的?

是的,投票。

在选举哨兵领导者时,我们可以制定这样一个选举规则:

  1. 每个哨兵都询问其它哨兵,请求对方为自己投票
  2. 每个哨兵只投票给第一个请求投票的哨兵,且只能投票一次
  3. 首先拿到超过半数投票的哨兵,当选为领导者,发起主从切换

其实,这个选举的过程就是我们经常听到的:分布式系统领域中的「共识算法」。

什么是共识算法?

我们在多个机器部署哨兵,它们需要共同协作完成一项任务,所以它们就组成了一个「分布式系统」。

在分布式系统领域,多个节点如何就一个问题达成共识的算法,就叫共识算法。

在这个场景下,多个哨兵共同协商,选举出一个都认可的领导者,就是使用共识算法完成的。

这个算法还规定节点的数量必须是奇数个,这样可以保证系统中即使有节点发生了故障,剩余超过「半数」的节点状态正常,依旧可以提供正确的结果,也就是说,这个算法还兼容了存在故障节点的情况。

共识算法在分布式系统领域有很多,例如 Paxos、Raft,哨兵选举领导者这个场景,使用的是 Raft 共识算法,因为它足够简单,且易于实现。

现在,我们用多个哨兵共同监测 Redis 的状态,这样一来,就可以避免误判的问题了,架构模型就变成了这样:

好了,到这里我们先小结一下。

你的 Redis 从最简单的单机版,经过数据持久化、主从多副本、哨兵集群,这一路优化下来,你的 Redis 不管是性能还是稳定性,都越来越高,就算节点发生故障,也不用担心了。

你的 Redis 以这样的架构模式部署,基本上就可以稳定运行很长时间了。

随着时间的发展,你的业务体量开始迎来了爆炸性增长,此时你的架构模型,还能够承担这么大的流量吗?

我们一起来分析一下:

  1. 稳定性:Redis 故障宕机,我们有哨兵 + 副本,可以自动完成主从切换
  2. 性能:读请求量增长,我们可以再部署多个 slave,读写分离,分担读压力
  3. 性能:写请求量增长,但我们只有一个 master 实例,这个实例达到瓶颈怎么办?

看到了么,当你的写请求量越来越大时,一个 master 实例可能就无法承担这么大的写流量了。

要想完美解决这个问题,此时你就需要考虑使用「分片集群」了。

分片集群:横向扩展

什么是「分片集群」?

简单来讲,一个实例扛不住写压力,那我们是否可以部署多个实例,然后把这些实例按照一定规则组织起来,把它们当成一个整体,对外提供服务,这样不就可以解决集中写一个实例的瓶颈问题吗?

所以,现在的架构模型就变成了这样:

现在问题又来了,这么多实例如何组织呢?

我们制定规则如下:

  1. 每个节点各自存储一部分数据,所有节点数据之和才是全量数据
  2. 制定一个路由规则,对于不同的 key,把它路由到固定一个实例上进行读写

而分片集群根据路由规则所在位置的不同,还可以分为两大类:

  1. 客户端分片
  2. 服务端分片

客户端分片指的是,key 的路由规则放在客户端来做,就是下面这样:

这个方案的缺点是,客户端需要维护这个路由规则,也就是说,你需要把路由规则写到你的业务代码中。

如何做到不把路由规则耦合在业务代码中呢?

你可以这样优化,把这个路由规则封装成一个模块,当需要使用时,集成这个模块就可以了。

这就是 Redis Cluster 的采用的方案。

Redis Cluster 内置了哨兵逻辑,无需再部署哨兵。

当你使用 Redis Cluster 时,你的业务应用需要使用配套的 Redis SDK,这个 SDK 内就集成好了路由规则,不需要你自己编写了。

再来看服务端分片。

这种方案指的是,路由规则不放在客户端来做,而是在客户端和服务端之间增加一个「中间代理层」,这个代理就是我们经常听到的 Proxy。

而数据的路由规则,就放在这个 Proxy 层来维护。

这样一来,你就无需关心服务端有多少个 Redis 节点了,只需要和这个 Proxy 交互即可。

Proxy 会把你的请求根据路由规则,转发到对应的 Redis 节点上,而且,当集群实例不足以支撑更大的流量请求时,还可以横向扩容,添加新的 Redis 实例提升性能,这一切对于你的客户端来说,都是透明无感知的。

业界开源的 Redis 分片集群方案,例如 Twemproxy、Codis 就是采用的这种方案。

分片集群在数据扩容时,还涉及到了很多细节,这块内容不是本文章重点,所以暂不详述。

至此,当你使用分片集群后,对于未来更大的流量压力,都可以从容面对了!

总结

好了,我们来总结一下,我们是如何一步步构建一个稳定、高性能的 Redis 集群的。

首先,在使用最简单的单机版 Redis 时,我们发现当 Redis 故障宕机后,数据无法恢复的问题,因此我们想到了「数据持久化」,把内存中的数据也持久化到磁盘上一份,这样 Redis 重启后就可以从磁盘上快速恢复数据。

在进行数据持久化时,我们又面临如何更高效地将数据持久化到磁盘的问题。之后我们发现 Redis 提供了 RDB 和 AOF 两种方案,分别对应了数据快照和实时的命令记录。当我们对数据完整性要求不高时,可以选择 RDB 持久化方案。如果对于数据完整性要求较高,那么可以选择 AOF 持久化方案。

但是我们又发现,AOF 文件体积会随着时间增长变得越来越大,此时我们想到的优化方案是,使用 AOF rewrite 的方式对其进行瘦身,减小文件体积,再后来,我们发现可以结合 RDB 和 AOF 各自的优势,在 AOF rewrite 时使用两者结合的「混合持久化」方式,又进一步减小了 AOF 文件体积。

之后,我们发现尽管可以通过数据恢复的方式还原数据,但恢复数据也是需要花费时间的,这意味着业务应用还是会受到影响。我们进一步优化,采用「多副本」的方案,让多个实例保持实时同步,当一个实例故障时,可以手动把其它实例提升上来继续提供服务。

但是这样也有问题,手动提升实例上来,需要人工介入,人工介入操作也需要时间,我们开始想办法把这个流程变得自动化,所以我们又引入了「哨兵」集群,哨兵集群通过互相协商的方式,发现故障节点,并可以自动完成切换,这样就大幅降低了对业务应用的影响。

最后,我们把关注点聚焦在如何支撑更大的写流量上,所以,我们又引入了「分片集群」来解决这个问题,让多个 Redis 实例分摊写压力,未来面对更大的流量,我们还可以添加新的实例,横向扩展,进一步提升集群的性能。

至此,我们的 Redis 集群才得以长期稳定、高性能的为我们的业务提供服务。

这里我画了一个思维导图,方便你更好地去理解它们之间的关系,以及演化的过程。

后记

看到这里,我想你对如何构建一个稳定、高性能的 Redis 集群问题时,应该会有自己的见解了。

其实,这篇文章所讲的优化思路,围绕的主题就是「架构设计」的核心思想:

  • 高性能:读写分离、分片集群
  • 高可用:数据持久化、多副本、故障自动切换
  • 易扩展:分片集群、横向扩展

当我们讲到哨兵集群、分片集群时,这还涉及到了「分布式系统」相关的知识:

  • 分布式共识:哨兵领导者选举
  • 负载均衡:分片集群数据分片、数据路由

当然,除了 Redis 之外,对于构建任何一个数据集群,你都可以沿用这个思路去思考、去优化,看看它们到底是如何做的。

例如当你在使用 MySQL 时,你可以思考一下 MySQL 与 Redis 有哪些不同?MySQL 为了做到高性能、高可用,又是如何做的?其实思路都是类似的。

我们现在到处可见分布式系统、数据集群,我希望通过这篇文章,你可以理解这些软件是如何一步步演化过来的,在演化过程中,它们遇到了哪些问题,为了解决这些问题,这些软件的设计者设计了怎样的方案,做了哪些取舍?

你只有了解了其中的原理,掌握了分析问题、解决问题的能力,这样在以后的开发过程中,或是学习其它优秀软件时,就能快速地找到「重点」,在最短的时间掌握它,并能在实际应用中发挥它们的优势。

其实这个思考过程,也是做「架构设计」的思路。在做软件架构设计时,你面临的场景就是发现问题、分析问题、解决问题,一步步去演化、升级你的架构,最后在性能、可靠性方面达到一个平衡。虽然各种软件层出不穷,但架构设计的思想不会变,我希望你真正吸收的是这些思想,这样才可以做到以不变应万变。


分类
未分类

揭秘开源商业的底层系统:我们为什么看好开源商业?

GGV有话说:


《GGV中美企服20年采访札记》系GGV过去20年中,在企业服务行业大浪淘金后的成果和收获,通过GGV投资人与企业创始人或高管的对谈,呈现其成功背后的商业逻辑与格局。


本系列共15篇章,聚焦云基础设施、企业软件消费化以及电商服务三大板块。每一篇都回顾了企业生根发芽的发展进程,也展示出企业破土而出的精彩时刻;翻阅历史的同时,思考当下的步伐,为各领域致力于开拓创新的创业者和试图改变世界的开荒人提供一份宝贵的创业启示录。


《GGV中美企服20年采访札记》的第四篇,我们将和你讲述我们为什么看好开源商业?



作者:凛

编辑:张颖



2015年,PingCAP 创始人兼 CEO刘奇、PingCAP 联合创始人兼 CTO黄东旭、PingCAP 联合创始人兼CFO崔秋三人创办了PingCAP,主打产品是分布式关系型数据库产品TiDB。在他们的商业版图里,“开源”(Open-Source)极其重要,TiDB的发起、完善等各环节均依托于开源。


PingCAP创始团队成员:黄东旭(PingCAP 联合创始人兼 CTO)、刘奇(PingCAP 创始人兼 CEO)、崔秋(PingCAP 联合创始人兼CFO)


这使PingCAP成为了当年中国极其少见的“出生即开源”并以创业者身份运营的企业之一,它的源代码从始至终都可供任何程序员查看和使用。在全球最大开源开发者社区GitHub上,TiDB共计获得27000+的Star,集合了超过1200位开源代码贡献者,是基础架构领域的明星开源项目。


虽然在程序员群体里口碑爆棚,但对于PingCAP是否能成为一家伟大的企业,业界仍在持续观察,在很多人眼中,这些“开源英雄”能否成功,还要看他们在商业化的成就。


开源的商业化从来都不是一件容易的事情。创办3年后,PingCAP的商业化进程开始逐渐加速。在CEO刘奇的介绍中,截至2020年底,它拥有超过1500个客户,其中付费客户超过百家,中国客户最高客单价规模为百万人民币,尤以中国银行、中国人寿、国泰君安、陆金所等金融企业为主要付费客户。2020年PingCAP完成了2.7亿美元的D轮融资,从融资阶段到额度,都是中国创办的开源产品之最。


GGV纪源资本管理合伙人符绩勋认为,中国公有云化现在进入到0到1的成长阶段,这意味着企业互联网和SaaS服务的崛起。SaaS公司现在越来越多在强调SaaS属性和功能,真正做到了软件即服务。中国整体已经在往积极的方向去努力,我们也看到一大批企业服务公司业务的增长在加快,其中更包括开源产品的进化和迭代。


作为PingCAP的投资机构,GGV纪源资本一直是开源产品的坚定支持者。在海外,GGV投资了全球最顶尖的云公司之一HashiCorp,它的开源软件每年下载量接近8000万,全球500强企业里有100家以上为其客户,最近一轮的估值高达51亿美元;GGV也投资了人工智能和机器学习框架开发商Streamlit,在程序员群体中熟知的API自动化服务Kong,还有总部位于柏林的开源神经搜索初创公司Jina AI。



而在中国,除PingCAP之外,GGV纪源资本企业服务团队分别投资了2014年开始正式商业化运作的RT-Thread以及2019年正式开源的涛思数据。


如果说软件正在吞噬世界,那么开源则正在改写整个软件界。

 

 

PingCAP走过的路:

“那帮理想主义者还没饿死”


当一款产品在C端迅速走红或出圈,随后带来的最大风险是什么?


在拥有14亿人口的中国市场,潜在的最大风险其实是数据库宕机


数据库作为快速成长企业当中最容易滋生痛点的基础设施,在数据暴涨或难以预知数据爆发节点的情况下,一旦数据库出现问题,就如同飞机在飞行过程中不得不更换引擎。


PingCAP团队5年前创办时预测:大数据驱动下,全球数据量过载将是必然趋势,单机MySQL数据库难以满足企业要求,更多企业将选择一款云端的弹性化数据库。这成为了PingCAP创立的初衷:PingCAP立志为这些快速成长的企业做好云端的数据库服务。


而此时,数据库市场还是Oracle等巨头的天下,做数据库研发的创业公司凤毛麟角,用PingCAP投资方、GGV纪源资本执行董事吴陈尧的评价来概括:“想攀登珠峰的人并不多”。



PingCAP海外的支持者分布图


更有意思的是,从创办第一天起,PingCAP就公开了源代码,PingCAP CEO刘奇介绍,所有贡献者都可以提交代码修改,并有可能改变PingCAP的主干代码,这些代码修改形成一个大循环,迅速更新和完善数据库性能。


这也是PingCAP另一个颇为“另类”的决定:开源。


在开源社区这个“委员会”之中,任何企业的程序员都能成为开源社区的贡献者,而这些企业就像派驻了一位代表加入这个“委员会”,他们的意见一定程度上代表了自己所在企业的思考与需求,他们的修改造就了PingCAP的迭代升级。


2015年的互联网行业,举起开源这杆大旗的人并不多,PingCAP为此花费了大量精力,主办了以交流国内外基础架构技术为主题的InfraMeetup,如今算下来,总计举办次数已经超过130期。


在创业者后辈的眼中,PingCAP的成功是有自己的独特策略和打法的。这套策略并不比别人高深多少,也并非像电影里的绝世高手突然机缘巧合收获了一份武功秘籍,而是来源于坚持不懈、源源不断地在几件重要的事情上倾注力量:


比如坚持常年在一线苦心研究技术,比如坚持举办开源技术交流论坛和线下活动,并把自己的钻研所得分享出去,毫不吝啬地发表内容并鼓励大家发言,作为领头人引导社区内容蓬勃发展。


“PingCAP特别主张技术驱动,它的开源方式甚至不像一家中国公司。”同为企业服务市场创业者,身份云平台Authing创始人谢扬认为PingCAP的策略是站在技术制高点上:“它发表的内容质量极高,而且从架构师到开发者都在持续发文章到全球最顶尖的工程师平台,其中很多篇甚至是英文文章,吸引中国的译者翻译回来,发表在中国的各类技术营销渠道上。”


另一个让后辈钦佩的特点是,PingCAP前面两年的重心是技术累积,对商业化并不着急。直到2018年,搭载着云端SaaS服务,它的商业化才随之而来。


“云”不仅将企业服务软件的交付进行了标准化,也将提供服务的方式进一步标准化。


首先,PingCAP的产品更新会实时同步给所有客户——这与传统软件厂商的长达几个月的响应时间大相径庭;


此外,通过SaaS,PingCAP实现了高效部署,传统数据库产品需要一年时间部署,PingCAP为代表的云端数据库只需要一两个月;SaaS为PingCAP本身则带来了更为灵活的销售模式,中小企业客户只要绑定信用卡,就可以立即开始使用。


CTO黄东旭记得,刚上线没多久,一家台湾企业就直接绑了一万美金开始使用,很久一段时间PingCAP都不清楚这家企业的业务是什么。


在美团、哔哩哔哩、小米、摩拜等企业迎接用户量暴增的时候,这些企业们同时也成为了PingCAP用户,这意味着它们拥有了更灵活的架构和弹性数据库,不需要由于双十一带来的多倍销售而购买更多服务器。


在国内以金融类为代表的企业需要私有云部署,刘奇曾透露,国内的客单价在百万元量级,国外更是数倍之高。由此它的出海效应也相继产生,公司陆续服务于Square(美国)、PayPay(日本)、Dailymotion(法国)、Shopee(新加坡)、ZaloPay(越南)、BookMyShow(印度)等海外产品。


开源为PingCAP带来的优势不止于此,因为开源,大厂工程师们对开源产品的贡献更是让PingCAP受益匪浅。“现在实际上参与开发PingCAP的人员,已经有1000多个人了。很难想象一个公司,在某一个单项产品上面,投入1000多个研发是个什么概念?而这还只是开发人员。”刘奇说。


在刘奇与团队看来,单点上的巨大投入是让创业公司“活下来、参与竞争,甚至跟巨头去PK”的条件。


这些使PingCAP的TiDB成为了中国本土诞生的现象级开源产品,三位创始人成为了开源商业的传教士。


“PingCAP带了一波节奏,不少开源爱好者也陆续出来创业了,”PingCAP认为,“我们能做的就是让大家看到,在中国还能有这么一帮理想主义者在坚持,同时也没饿死。”涛思数据创始人陶建辉在2019年7月宣布将产品TDengine开源,背后也有老友PingCAP的助力,TDengine将最核心的存储引擎和计算引擎上传到GitHub的两周时间,收集到的Star已经超过了7300。


而作为背后的投资机构,在GGV看来,“开源”是这些toB 产品最重要的加分项,而“开源商业”也成为了一个投资主题。


无论是底层数据处理还是数据产出层,或者更前端的应用;无论是数据库还是物联网、人工智能,理论上,一切产品皆可开源。


TDengine与RT-Thread背后所搭载的是物联网这个万亿市场,但开源为它们插上了翅膀。“尽管目前的开源产品数量不多,但趋势已经形成,将开源产品商业化的创业者会越来越多。”吴陈尧说。


为什么一定要开源?



PingCAP CTO黄东旭在2020年发表了一篇文章,《大教堂终将倒下,但集市永存》,这篇文章的标题与开源爱好者的圣经《大教堂与集市》(Eric Raymond著)呼应:集市的特点是开放式建设、成本低、周期短、品质平庸;大教堂的特点是封闭式建设、成本高、周期长、品质优异。


黄东旭认为,以开源为代表的“集市”将永存。在文章中,他拆解了程序员不愿将自己的代码开放,企业经营者不认可开源作为核心竞争力的逻辑。在他的解读中,除非某家企业能在自己的行业达到彻彻底底的人才垄断,否则它们的“核心”算法都将是对手也能得到的。唯有开源带来的持续迭代与产品升级才能为一家公司赋予生命力。


任何信仰的传教士都肩负重任。“开源”诞生以来,曾带来不少质疑,他身上的标签不仅有“共享智慧”和“无国界”,也有“免费”二字。以至于很多人质疑:开源就意味着源代码免费共享,而免费又如何能形成商业化?


然而,“免费”并非开源的宿命。


1984年,麻省理工大学(MIT)的计算机教授理查德·斯托曼(Richard Stallman)成立基金会FSF(Free Software Foundation),最初目的是以自由免费对抗大公司的授权费要求,但此后基金会成员认为FSF使用的“自由(Free)”这个词让人想到免费使用,而这不是自由软件的内核,他们不希望将开源商业变为公益机构,所以用“开源”(Open-Source)取代了“自由(Free)”。


开源运动的背景下诞生的典型代表就是Linux。


Linux拥有无数系统开发商,它所开创的模式是由多家公司共同主导一款开源产品的商业化变现,最大的一家Linux系统开发商RedHat在2018年以340亿美元被IBM收购,被称为使IBM“付出了60%溢价”;依托Linux开发而成的Android横空出世并成为全球第一大智能手机操作系统,直接威胁了苹果的地位;全球最大开源开发者社区GitHub被微软75亿美元收购……这些“戏剧性”事件让我们看到开源产品的商业价值。


PingCAP早期手绘产品图



尽管开源产品的底层系统(如Hadoop等)来自于大公司的开发成果,尽管拥有全球规模最大且最优秀程序员的Google,Facebook等具备闭源的开发实力,但依托于社会资源的聚集,开源仍然成为了带动科技创新最重要的力量——以至于全球最大的开源公司并非别人,而是Google,Facebook等大厂——每家内部都堪称开源项目的驱动中心。


开源传教士们验证了他们的判断。PingCAP的两组数据尤其值得关注:从2018到2020年的一年多时间,TiDB的SQL层项目发生了30000多次提交,有接近60%的源码被修改。从代码修改效率到提升空间来看,开源项目的表现都十分亮眼。


然而,开源软件商业化却从不是一件容易的事情。全球的开源软件项目有数千万个,三大基金会(Linux、Apache、CNCF)的托管项目有600+,但是真正商业化成功的开源软件的公司却只有10余家,国外的典型代表有Red Hat、Databricks、MongoDB、Elastics、Confluent、HashiCorp等(GGV纪源资本投资了其中的多家企业),而PingCAP则是国内企业的佼佼者。


在商业化方面,PingCAP给出了自己的观点:开源软件本质上是通过放弃一部分通过信息不对称产生的潜在利润,换取了极其高效的传播和场景触及效率,但是有意思的是,实际上牺牲掉的这些潜在利润大概率也不一定真的牺牲掉。


因为,一来可能本身付费能力有限,二来可能实际上这些用户通过宣传站台二次传播或者代码贡献等方式回馈了项目本身;如果一款产品是闭源的,这款产品解决的问题又足够普遍且高价值,那么长远来看一定会有一个开源的解决方案吞掉一切。


吴陈尧则认为,开源模式在增长和商业上都跟To C端互联网公司有着类似的逻辑:


To C端产品在打磨和增长过程中,崇尚通过大量的用户反馈和数据来实现迭代,而开源产品也在高度依赖在社区中去搜集bug和对新功能的需求;


在商业上,伟大的To C产品通常是以先创造用户价值,再探索变现方式的路径实现商业价值,也就是巨大的用户价值(通常可以以用户数和依赖程度来衡量)最终一定会有巨大的商业价值与之相匹配,而开源模式也将用户的喜爱视为一个项目或社区存在的最高目的,坚信商业价值是一个自然而然的过程。


不仅如此,GGV企业服务投资团队认为,开源优势能够做到品牌效应、规模效应以及极低的获客成本,这在巴菲特所提出的护城河即商业壁垒中极为关键。



而我们不能忽略的重要一点是,开源带来的护城河由何而来?


首先,开源社区让无数程序员注意、甚至贡献代码进入某款开源产品,而这些程序员对于自己参与“养成”的产品极其关注并愿意使用。


PingCAP对程序员群体的理解是,很多程序员对物质没有太大的感觉,但骨子里有理想主义情怀,他们更希望做一些影响世人的事情,“想要攀登珠穆朗玛峰”。


也正因此,随着开源社区产品的知名度增高,程序员群体中影响力变强,就出现了越来越多的“销售线索”,因此形成了商业壁垒,并逐渐积累了口碑。


此外,在美国与如今的中国互联网行业,大多IT基础设施的采购是自下而上的,这意味当底层的程序员可以做决策时,他们自然会推荐自己所认可的开源产品。


GGV投资的另一款产品RT-Thread创办于2006年,创始人熊谱翔曾谈到商业化转型中的顺利之处:很多自己上下游企业的CTO与技术团队都贡献了代码到RT-Thread,与他们的合作多是一拍即合,根本无需对产品做过多介绍,积累十几年的影响力已经足以形成转化为销售的势能。



再次,GGV企业服务投资团队认为:互联网行业对开源产品的使用本身已经成为趋势,在当今各类互联网产品团队的代码库中,开源代码的比例在逐渐上升。开源代码不仅免费,而且质量已经被认可,能够为企业节省人力成本和时间成本。


对一家VC而言,一款有极低获客成本的产品意味着足够强的吸引力。不过,在GGV对开源产品的观察中发现,“是否开源”与一款产品的性质有关,偏底层的IT基础设施与操作系统“值得”开源,甚至以开源为最佳、最简单的方案,但是一些前端应用即使开源也很难获得更大的商业化空间。


PingCAP的TiDB,涛思的TDengine,RT-Thread都是底层产品,而且PingCAP的TiDB作为数据库产品所产生的更换成本极高,客户将数据库放入系统后,几乎很难更换,这带来了极高的客户流程。


“是否开源”与这款产品所在的竞争格局也有关,如果所在的市场已有巨头提出解决方案,那么创业公司将不得不用开源的方式实现弯道超车。


RT-Thread创始人熊谱翔提到市场所带来的机遇,在RT-Thread所在的IoTOS赛道上,华为等中外硬件大厂均拥有自己的OS,但很多中小客户宁愿寻找一套中立的系统,而这就带来了RT-Thread等第三方IoTOS的机会。而巨头的解决方案往往可能只适合巨头,并不如创业公司的产品更加专注。


除此之外,开源将无疑助推企业服务产品的出海进程。海外客户对中国诞生的产品普遍仍有一些顾虑,“中国公司出海开源其实是一个比较有机会的模式,甚至有可能是唯一的模式。”吴陈尧说。

 

 

开源英雄的时代


让一向深耕企业服务市场的GGV格外关注开源商业的是一系列案例:MongoDB和Elastic是两家开源代表企业,从传统软件企业的销售方式到开源+SaaS服务之后,市值分别从上市时的18亿美金和25亿美金涨到了如今的247亿美金和140亿美金;GGV在2012年投资的HashiCorp近年客单价增加,并且获得了一系列大客户的青睐,以至于全球500强企业里有100家以上为其客户,而在GGV最初投资的时候,除了Redhat没有其他开源公司上市,况且Redhat的模式也只是基于开源项目Linux进行商业开发。


在大洋彼岸的中国市场,开源的声音从未停止。首先,越来越多的中国开源爱好者成为开源贡献者。中文IT技术交流平台CSDN曾提到,从数量和贡献度上,中国的开发者都已经达到了GitHub全球4000万的注册用户中的第二位;中国的活跃开源项目贡献者,有40%以上都是在2019年内加入的,其中大多都是90后的年轻人。在Github全球公司开源项目贡献榜上,阿里巴巴与腾讯分别位列第5位与第9位。


真正纵身跳入开源创业的中国创业者是少数,但也已形成趋势。这其中,有些是以开源撬动发展的创始人,如PingCAP的刘奇、黄东旭、崔秋和涛思创始人陶建辉,有些则是“老版主”终于选择创业,如熊谱翔。借用HashiCorp创始人Mitchell的话来说,他们的出现是“酝酿了十年的一夜成名”。在开发者社区SegmentFault思否发布的《中国开源先锋33人之心尖上的开源人物》榜单中,黄东旭、陶建辉、熊谱翔均已上榜,而其中更多开源英雄还在大公司麾下。或许几年后,他们姓名前的职称将被书写成为自己创办的企业。



所幸这个市场需要更多开源创业者去改写。Oracle等传统软件巨头是软件创业者的挑战对象。在PingCAP刚成立的2015年,Oracle在中国数据库市场的占有率高达56%,也是很多金融行业客户的首选。但它在中国企业服务尚未起飞的前几年也曾折戟,“中国市场曾是地狱级,”PingCAP透露,“Oracle在整个中国的收入占全球的比例,大概不到3%。”


在中国,企业服务软件不仅有中国巨大的成长空间也有最极端的互联网环境。一方面,在竞争之下,每家企业都渴望自己的架构更灵活,更新速度更快;另一方面,网民数量外加“双十一”等大型事件营销会对各类互联网公司带来不可小视的数据冲击,刘奇认为Google的成功建立在数据处理量极其庞大的前提下。而对于数据库来说,中国市场“场景够极端,能打磨产品”。


凌驾在中国企业服务的大势上,开源创业者将面临特殊的机会。吴陈尧对中国开源创业者的建议是:注重社区的搭建,以技术作为立身之本;从创办之初就注重国际化,鼓励中外工程师共同参与;商业化进程视具体服务的客户群来决定,在社区形成一定的规模后就可以商业化。



*GGV纪源资本企业服务小组:GGV深耕企业服务行业20年,目前在全球11个国家有100家被投企业,其中独角兽企业达23家,已经完成上市的企业有15家。



推荐阅读


涛思数据陶建辉:我在49岁时开启了第3次创业
系统装机量接近8亿,RT-thread创始人熊谱翔:开源是一种内向生长的商业模式