2025年3月初,Gavin Wood 在中国4大高校(北京大学、复旦大学、浙江大学、深圳大学)的 JAM Tour 圆满落幕,Lollipop 将最新版 JAM 灰皮书译成中文,旨在为华语区的开发者与研究人员提供一个直观、便捷的途径,以深入了解JAM技术所带来的革命性变革。
JAM技术在区块链领域的重要性,堪比计算机操作系统从单任务处理的DOS系统向多任务并行处理的Windows系统的跨越式发展,标志着区块链技术的一次重大飞跃。
具体而言,JAM技术的颠覆性体现在以下几个方面:
PolkaVM:区块链领域的RISC-V芯片技术革新,让计算能力从“老式算盘”跃升至“超级计算机”级别; 速度与协作:JAM技术突破并行计算与全局数据一致性的终极难题; Coretime:从“Gas费争夺战”转向重新定义区块资源分配规则。
以下为JAM灰皮书中文译本
Join-accumulate Machine:融合去信任机制与广泛协同能力的超级计算机
草案 0.6.3 - 2025 年 3 月 3 日
GAVIN WOOD博士
波卡(Polkadot)与以太坊(Ethereum)创始人
gavin@parity.io
中文版译者:Qinwen Wang
Qinwen@Lollipop.builders
摘要:我们通过本文为 JAM 呈现一个全面且正式的定义。JAM 是一个结合了波卡(Polkadot)和以太坊(Ethereum)要素数据传输和处理机制的协议。在一个统一的、一致性的架构下,JAM提供了一个在全局作用域中,以单例模式运行,免许可、且基于对象的系统环境,这一环境与以太坊开创的智能合约环境类似,同时融合了波卡首创的,在由可扩展节点所构成的网络上进行的安全并行侧链计算。
JAM 引入了一个去中心化的混合系统,该系统围绕一个安全且可扩展的核心/链上二元结构设计,并内置了智能合约功能。尽管智能合约功能让人联想到以太坊的范式,但 JAM 所提供的服务整体模型在很大程度上受到了波卡底层架构的启发和驱动。
JAM 本质上是无需授权的,任何人都可以在 JAM 上部署代码来提供服务。服务产生的费用与代码所消耗的资源直接相关,而这些资源的费用则通过购买和分配 Coretime 来触发代码执行。Coretime 是一种衡量灵活且普遍存在的计算能力的指标,其计费模式与以太坊中用于执行操作的 gas 购买方式相类似。我们已构思出一种与波卡兼容的 CoreChains 服务方案。
- 引言
1.1 术语说明
在本文中,我们介绍了一种去中心化的加密经济协议。该协议将在获得波卡(Polkadot)网络治理机构的批准后,作为一项重大更新被波卡网络所采用。
该协议的早期未完善版本最初在波卡 Fellowship RFC31 中提出,被称为 CoreJam。CoreJam 的名称来源于其服务提案核心的计算模型:收集、精炼、连接、累积。虽然 CoreJam RFC 提出了对波卡协议的不完整、范围有限的修改,但 JAM 指的是一个完整且状态一致的整体区块链协议。
1.2 驱动因素
在区块链及更广泛的 Web3 领域,我们首要的驱动力是打造具备高度韧性的系统。一个完善的 Web3 数字系统,应当始终坚守其声明的服务规范,理想状态下,这些规范不应被任何经济参与者 (无论是个人、组织,还是其他Web3系统)的意愿、经济实力或权力地位所左右。这诚然是个宏大的理想。对于如何完美实现这一点,我们必须保持务实。尽管如此, Web3 系统应力求在实际应用中提供坚不可摧的保障,真正赢得“不可阻挡”的声誉。
尽管比特币可能是经济领域内这类系统的先驱,但从服务性质的通用性角度来看,它并非一个全方位适用的系统。比特币的有用程度,在基于规则的服务范畴内,严格受限于其规则设计的通用程度。比特币的原始设计,即为一个具有固定总量且所有权通过掌握特定私钥来近似验证并自动执行转移的系统,这一核心特性将在后续内容中深入展开探讨。
随后,以太坊横空出世,带来了一个前所未有的通用规则集,这个规则集是图灵完备的(1)。在我们着手构建一个旨在支持大规模多用户应用平台的 Web3 系统时,通用性成为了不可或缺的基石。因此,我们自然而然地将以太坊所提供的图灵完备性视为构建该系统的一个基本前提和既定条件。
注(1):Gas 机制确实限制了程序的执行,对可执行的步数设置了上限。但在无权限环境中,肯定要引入某种限制以避免无限计算。
除了韧性和通用性,事情变得更有趣了,促使我们进一步深挖背后的驱动力。就目前而言,我们确定了另外三个目标:
韧性:拥有高度的系统抗停运、抗破坏和抗审查能力。 通用性:能够执行图灵完备的计算。 高性能:能够快速且低成本地执行计算。 协同性:状态的不同元素之间可能存在的因果关系,以及单个应用程序的协作程度。 可获得性:对创新几乎没有障碍;创新过程简便、快速、低成本且无需许可。
在探讨作为一种宣称的 Web3 技术时,我们隐含地预设了韧性与通用性这两个核心目标。然而,有趣的是,根据某个尚未明确命名的信息理论原则,我们发现高性能(目标3)与协同性(目标4)之间存在着一种潜在的对立关系。尽管我们坚信这一原理必定以某种形式存在着,但遗憾的是,我们目前尚无法为其提供一个确切的命名。为了便于后续的讨论与研究,我们暂且将这种对立关系命名为“规模-协同性对立”。
1.3 规模 - 协同性对立下的扩展
规模与协同性之间的对立关系是一个基本规律,它揭示了一个现象:随着信息系统状态空间的不断扩展,系统的协同性将不可避免地减弱。这一规律是基于因果关系受限于速度这一普遍原理的直接推论。在物理学中,信息的传播速度有一个上限,即真空中的光速 C 。然而,在其他类型的信息系统中,这个速度上限可能会更低。例如,在生物系统中,信息的传递速度主要取决于化学反应的速率;而在电子系统中,它则受限于电子在物质中的移动速度。对于分布式软件系统来说,其速度下限往往更低,这主要取决于软件的设计、硬件的性能以及分组交换网络基础设施的可靠性和多样性。
其论点如下:
系统用于数据处理的状态越多,这些状态所占据的空间就越大。 使用的空间越大,状态组件之间的平均距离和距离方差就越大。 随着平均距离和方差的增加,因果解决的时间(即所有正确影响被感知到的时间)在整个系统中变得分散,从而导致不协同性的问题。
暂且不考虑整体的安全性问题,我们通过一种策略来应对不协同性,即将系统划分为多个因果独立的子系统,每个子系统都保持足够小的规模以确保其协同性。在资源充裕的条件下,细菌会选择分裂成两个个体,而不是单纯地增长到原先的两倍体积。这种生长模式实际上为我们提供了一种粗略的处理增长过程中不协同性的方法:系统内部的小规模处理能够保持较高的一致性,而系统之间的处理虽然能够支持更大的总体规模,但在协同性方面却有所欠缺。这正是波卡、Cosmos 以及扩展版以太坊(稍后我们将详细探讨)等元网络背后的核心理念。这些系统通常依赖于与“结算区域”的异步且简单的通信机制,这些区域提供了一个局限性的协同状态空间,专门用于管理特定的交互活动,例如代币的转移。
本研究致力于探索规模与协同性对立关系中的平衡之道。我们提出了一种创新的计算模型,旨在规避现有方法导致的系统状态空间过度碎片化问题。该模型将高度可扩展且基本协同的元素,通过流水线的方式传输至同步且完全协同的元素中。尽管我们并未完全消除异步性,但已将其局限在流水线的长度范围内。同时,我们采用了在多 CPU 共享内存系统中常见的“缓存亲和性”策略,以替代当前可扩展系统中普遍存在的粗粒度划分方式。
与基于零知识证明(SNARK)的二层区块链扩展技术不同,这个模型采纳了加密经济机制,不仅继承了其低成本、高性能的优势,而且有效规避了中心化的风险。
1.4 文档结构
我们在第 2 节中简要概述了当前区块链技术中的扩展方法。在第 3 节中,我们定义并阐明了将用于形式化表述的符号。
在第 4 节中,我们对该协议进行了广泛概述,勾勒出主要领域,包括波卡虚拟机(PVM)、共识协议 Safrole 和 GRANDPA、Common Clock,并为形式化表述奠定基础。
接着,我们进一步定义了完整的协议,该协议由两大核心部分组成。第一部分是正确的链上状态转换公式,这对于所有希望核实链上状态的节点而言至关重要,它们可以借此验证信息的准确性。第二部分,则在第14节和第19节中详细阐述,主要描述了持有验证器密钥的参与者在链下操作时应当遵循的诚实策略。
主体部分在第 20 节中讨论了该协议的性能特征,并在第 21 节中得出结论。
附录包含了对协议定义至关重要的各种补充材料,包括附录 A 和 B 中的 PVM、附录 C 和 D 中的序列化和默克尔化,以及附录 E、G 和 H 中的密码学内容。我们以术语索引结束,该索引包括附录 I 中工作中使用的所有简单常量项的值,并附上参考文献。 2. 过往工作与当下趋势
自以太坊黄皮书初次面世以来的数年间,区块链开发领域实现了飞跃式的发展。除了致力于提升可扩展性之外,开发工作还广泛涉及底层共识算法的优化、智能合约语言的创新、机器交互的增强以及整体状态环境的完善。尽管这些议题极具吸引力,但它们大多超出了本研究的范畴,因为它们通常并不直接影响底层的可扩展性机制。
2.1 波卡
为了构建系统化的服务体系,JAM 采纳了众多与波卡相似的博弈论原理及加密机制,这些机制在2024年被 Jeff Burdges、Cevallos 等人形象地称为“精灵”(Elves)。然而,JAM 与上述机制存在着显著不同。具体而言,JAM 提供了一种全新的计算模式,更接近验证人网络本身的实际计算能力,而非那种简化或抽象化的单一模型。
波卡项目最初的核心构想是打造一个可扩展的异构多链架构,其设计理念在于通过工作负载的分区与分布式处理来提升系统性能。在此过程中,波卡明确指出了可组合性方面可能存在的妥协。从实际部署的角度来看,波卡的基石——平行链,在本质上具备高度的独立性。尽管引入了消息传递系统(XCMP),但该系统是异步运行的,且消息粒度较大,同时还依赖于一种高层次但进展相对缓慢的交互语言 XCM。
因此,相较于像以太坊这样的智能合约系统,波卡在其各组成链之间的可组合性方面稍显不足。以太坊提供了一个统一且通用的环境,为敏捷和创新的集成提供条件,这正是其成功的基石。而波卡目前更像是一个由多个独立生态系统组成的集合,其平行链之间的协作机会相当有限。尽管在用户体验上,波卡与其他通过桥相连的区块链非常相似,但在安全特性上却截然不同。有一个名为 SPREE 的技术提案,旨在利用波卡独特的共享安全性机制来增强可组合性,然而,即便如此,区块链之间仍将保持隔离状态。
实施并启动一个区块链项目不仅难度高、耗时长,而且成本高昂。根据波卡的原始设计,仅有那些既具备实施与启动区块链项目的能力,又能筹集到足够押金以在长期的插槽拍卖中胜出的团队,才有机会在波卡网络上进行部署。目前,波卡网络上长期可用的插槽数量大约只有50个。尽管波卡网络本身并非基于许可制,但其可访问性显然要低于类似以太坊的智能合约系统。
对于一个 Web3 应用平台而言,吸纳并促进尽可能多的创新者参与其中,实现他们之间的相互交互,以及与整个生态系统中其他用户群体的互动,无疑是衡量其成功的一个关键要素。正因如此,可访问性显得尤为重要。
2.2 以太坊
2014年,Wood 在被誉为本文精神先驱的“黄皮书”中,正式为以太坊协议确立了定义。在很大程度上源自 Buterin 在2013年所撰写的开创性概念论文。自“黄皮书”面世以来的十年间,以太坊的实际协议及其公共网络实例经历了多次重大变革,这些变革主要聚焦于通过优化交易格式、指令集,以及引入以太坊虚拟机(EVM)的“预编译”功能——即针对特定领域设计的高级附加指令,从而大幅提升了系统的灵活性。
近 100 万名加密经济参与者参与以太坊的验证(2)。区块扩展则是通过随机的出块节点轮换机制来实现的,该机制会在主出块节点生成区块之前公开其物理地址(3)。以太坊使用 Buterin 与 Griffith 于 2019 年提出的 Casper-FFG 协议来实现区块的最终确认;借助庞大的验证者网络规模,链的扩展大约每 13 分钟就能达成最终确认。
注(2): 实际问题确实制约了真正的去中心化程度。验证者软件具备允许单个实例配置多个密钥集的功能,从个体操作者和硬件角度来看,系统性地削弱了实际的去中心化效果,远低于表面上参与者的数量。根据 Dune 和 hildobby 在 2024 年整理的关于以太坊 (Ethereum 2.0) 的数据,一个主要的节点运营商 Lido 在近百万的加密经济参与者中占据了近三分之一的份额。 注(3):Ethereum 开发团队正努力改善这一现状,以进一步提升平台安全性,但目前尚未确定具体的实施时间表。
以太坊的直接计算性能与 2015 年推出时大致相似,但有一项显著的不同,它现在支持每个区块托管 1MB 的承诺数据,这些数据会被所有节点在限定时间内保存。虽然这些数据无法直接参与主状态转换过程,但借助特定函数,可以验证这些数据(或其特定部分)的有效性。根据以太坊基金会2024b年的报告,当前的设计方向是,在未来几年内,借助名为 Dank-sharding 的协议,将存储职责分散至广泛的验证者群体中,以进一步优化这一机制。
根据以太坊基金会2024a年度的报告,以太坊采取了将数据可用性与多样化的侧链计算设施(即Roll-ups)相结合的策略来应对扩容问题。在这一策略中,基于 zk-SNARK 技术的 Roll-ups 被明确指定为首选方案。值得注意的是,市场上不同的 Roll-up 供应商在其设计、执行及运营方面均展现出独特的特性和影响力。
人们有理由相信,通过多供应商整合来推动规模扩张的多元化市场策略,能够促使那些经过深思熟虑的解决方案蓬勃发展。然而,这一策略并非没有挑战。Sharma 在2023年发布的一份研究报告深入探讨了各类 Roll-ups 的去中心化程度,结果显示普遍存在中心化的倾向。尽管如此,报告同时也提到了正在进行的缓解这一问题的努力。至于这些努力最终能否让 Roll-ups 实现更高程度的去中心化,我们仍需拭目以待。
在各家 Roll-ups 供应商激烈竞争所构建的宏大的拼贴式整合中,不同领域间的异构通信特性(例如数据报文延迟、语义差异等)、安全特性(包括撤销、损坏、停滞及审查所带来的成本)以及经济特性(接收和处理特定传入消息或交易所需承担的费用)均可能呈现出显著的差异性。尽管以太坊网络未来有可能为侧链计算提供必要的底层支撑机制,但关于是否会迎来一次全面的“大整合”,目前尚不清楚。关于这种碎片化策略可能引发的种种负面效应,我们仍缺乏充分而深入的探论(4)。
注(4):基于对这一问题的初步思考,Sadana 于2024年提出了一项提案:借助 Polkadot 技术,在侧链(roll-up)生态系统之间实现一定程度的互操作性。
2.2.1 Snark Roll-ups
虽然以太坊协议的基础对 Roll-ups 的性质没有做出重大假设,但以太坊的侧链计算策略确实聚焦于基于 SNARK 的 Roll-ups,这一战略导向促使以太坊协议逐步演进,以适应并优化此类策略的实施。SNARK 是密码学领域的一项独特技术,能够生成证明,向中立的第三方证实某些预定义计算的正确性它允许构造证明。验证这些证明所需的复杂性通常与被验证的计算规模呈亚线性关系,而且这一验证过程不会泄露任何关于计算内部细节或其依赖的见证数据的信息。
Zk-SNARKs技术确实面临一些限制。在运用时,我们需要在证明的大小、验证过程的复杂性以及生成证明所需的计算量之间做出权衡。尤其是当涉及到包含大量二进制操作的非标准通用计算时(这正是智能合约的魅力所在),这些计算往往很难与 SNARKs 的模型相契合。
以 RISC-Zero 为例(根据 Bögli 在2024年的评估),这是一个前沿项目,它专门为基于 RISC-V 虚拟机(一种广受欢迎、开源且设计简洁的RISC架构,得到了广泛工具支持)的计算提供 SNARKs 生成平台。根据 2024 年 Polkavm 项目发布的最新基准测试报告,相比 risc-zero 自身的基准结果,仅生成证明就比简单地重新编译并执行(相同计算)要慢 61,000倍,即使是在 32 倍的 CPU 核心、20,000倍的内存以及附加一台顶尖 GPU 的环境下运行,依然无法弥补这部分开销。而根据硬件租赁服务商 https://cloud - gpus.com 的数据,使用 RISC-Zero 进行证明的成本,是使用 Polkavm 重新编译器执行成本的 66,000,000 倍(5)。
注(5): 实际上,很可能性能还会高出很多,因为这是在消费级设备上使用的低端“备用”硬件,而且我们的重编译器还未经过优化。
许多加密原语因成本过高而变得不切实际,不得不被专门的算法和结构所替代。然而,这些替代方案往往在其他性能指标上也不尽如人意。考虑到可能会采用 SNARKs(例如 Gabizon、Williamson 和 Ciobotaru 在2019年提出的 PLONK ),以太坊项目的 Dank-sharding 可用性系统主流设计选择了一种基于大质数域上的多项式承诺的纠删码形式。这种形式使得 SNARKs 能够以可接受的性能访问数据的子部分。但与其他选项(如本文中提到的二进制域和默克尔树结构)相比,这一选择导致验证器节点的 CPU 使用率显著上升,高出了几个数量级。
除了基本成本问题,SNARKs 并不能有效地减少对去中心化和冗余的需求,这进而引发了额外的成本上升。尽管 SNARKs 的可验证性特性在一定程度上减少了对于某些权益质押去中心化优势的需求,但为了防范单个实体形成垄断(或多个实体结成联营),仍然需要激励多方进行大体相同的工作。理论上,证明错误的状态转换应当是不可能的,然而服务完整性仍可能以其他方式受损;即便是短暂的,如仅暂停几分钟的证明生成,对于实时金融应用而言,也可能导致重大的经济影响。
现实世界中不乏中心化引发垄断的实例,基于 SNARKs 的交易所框架便是其中之一。该框架虽名义上服务于去中心化交易,但实质上却呈现出中心化的特征。Starkware 凭借其生成与提交交易证明的能力,在该框架中占据了垄断性的地位。这种中心化的结构带来了单点故障的风险:一旦Starkware 的服务出现问题,整个系统的活跃度与运作能力都将受到直接影响。
目前,尚未有确凿证据表明基于 SNARKs 的信任消除计算策略能够在成本上与多方加密经济平台相抗衡。事实上,所有已提出的基于 SNARKs 的解决方案都高度依赖于加密经济系统来构建框架并解决相关问题。其中,数据可用性和排序是两个公认的需要借助加密经济方案来解决的领域。
值得注意的是,SNARK 技术正处于不断演进之中,其背后的密码学家与工程师确实对未来几年内的技术改进抱有期待。在 Thaler 于2023年发表的一篇文章中,我们可以看到一些可靠的预测:随着某些密码学技术的最新进展,证明生成的速度放缓可能仅相当于常规原生执行的 50,000 倍,并且其中大部分工作可以实现并行处理。相较于当前状况,这无疑是一个显著的进步。然而,即便如此,与成熟的加密经济技术(例如Elves)在成本效益上的竞争相比,SNARK 技术的速度仍然慢了几个数量级。
2.3 碎片化元网络
其他项目在探索通用计算可扩展性时,主要聚焦于两种策略:碎片化方法与中心化方法。然而,我们坚信这两种途径都未能给出令人满意的解决方案。
碎片化策略得到了 Cosmos(由Kwon和Buchman于2019年提出)以及 Avalanche(由Tanana于同年提出)等项目的推崇。这一策略构建了一个系统,该系统由采用相同共识机制但由不同动机的验证器集运行的网络片段组成。这与波卡采用的单一验证器集模式,以及以太坊所倡导的异构roll-ups策略形成了鲜明对比。在以太坊的异构 Roll-ups 策略中,部分安全保障依赖于在统一激励框架下运作的相同验证器集。碎片化策略的同质性特点,使得消息传递机制能够保持较高的一致性,这为众多相互连接的网络提供了一个相对统一的交互界面。然而,这种表面上的统一其实并不深入。这些网络的无信任特性,仅在其验证器能够正确运行的前提下才成立,而验证器的运行则依赖于由经济激励和惩罚措施共同构建及执行的加密经济安全框架。若要在相同的安全标准下实现工作量翻倍,且验证器集之间无需进行特殊协调,那么这样的系统本质上要求构建一个具有相同总体激励水平的新网络。
几个关键问题浮现出来。首要的是,波卡的孤立平行链与以太坊的孤立 Roll-up 链均存在一个共同的缺陷:它们各自持续的分片状态导致了协同性的缺失,进而使得这些链无法进行同步的组合。
更为严重的是,Cosmos 所提出的通过碎片化来实现扩展的策略,在安全性上并未达到同质化,因此也无法提供无需信任的坚实保障。各网络间的验证器集合需被视为独立选择并受各自激励的实体。这导致了一个网络中的拜占庭行为,与另一个网络中可能产生的后果之间,既不存在直接的因果关系,也难以预测其概率联系。简而言之,若验证器勾结起来破坏或篡改某一网络的状态,其连锁反应可能会波及整个生态系统内的其他网络。
这是一个普遍认知的问题,针对此,项目方提出了两种应对策略。首要策略是通过从统一的验证者群体中分配资源,来修复网络间潜在攻击的成本预期(进而增强安全性)。这种方法,即Cosmos 项目于2023年提出的“复制安全性”大规模冗余策略,要求每位验证者必须在所有网络上进行验证,并接受相同的激励与惩罚措施。然而,从经济角度来看,这种安全提供方式效率较低,因为每个网络都需要独立地提供与其希望互操作的最安全网络相当水平的激励与惩罚,以确保验证者的经济动机不受影响,同时维持所有网络在安全性上的等价性。值得注意的是,目前复制安全性并非一种现成的、无需许可即可使用的服务。我们或许可以推测,这些惩罚性的经济机制与这一现状存在一定的关联。
由 OmniLedger 团队(Kokoris-Kogias 等人,2017 年)提出的更高效的方法是:
将验证者进行非冗余化分配,按照不同的网络进行专门配置,并定期进行安全且随机的重新分配。相较于将所有验证者集中部署于单一网络,这种做法能够降低攻击成本,因为即便在整体验证者群体中恶意验证者的比例未超过安全阈值,单个网络仍有可能偶然遭遇具有破坏性的恶意验证者。然而,这种分配方式在弱一致性要求的基础上,为系统提供了一种有效的扩展途径。通过精心设计的重新分配机制,可以在保障系统安全性的同时,实现更高效的资源利用和扩展能力。
或者,我们可以考虑 Jeff Burdges、Cevallos 等人在 2024 年提出的 Elves 方案。该方案采用非冗余验证者分配策略,并将其与验证者参与的提议与审计博弈相结合。这一机制旨在清除和惩罚无效计算,同时确保一个网络的最终性状态依赖于所有因果相关的网络。在提出的三种解决方案中,Elves 被视为最安全且经济高效的途径。它通过提供高度可靠的机制,在最终确定效应之前识别和纠正所有无效转变,从而保障了系统的安全性。然而,实施 Elves 方案需要更为复杂的逻辑设计,并且由于网络间的因果纠缠,可能会对网络的可扩展性,即可以添加的网络数量,构成一定的限制。
2.4 高性能全同步网络
近年来,区块链领域呈现出另一种发展态势,即采取一系列“战术性”措施来优化数据吞吐量。这包括限制验证者集合的规模与多样性,以精简系统;专注于软件层面的深度优化,提升运行效率;强化验证者间的一致性要求,确保数据同步无误;对验证者所需硬件设定高标准,保障系统性能;以及限制数据可用性范围。
Solana 区块链建立在 Yakovenko 于2018年引入的技术基础之上,理论上能够每秒处理超过70万笔交易。然而,根据 Ng 在2024年的报告,该网络实际处理的交易量远低于这一理论上限,但仍远高于大多数区块链网络。这得益于一系列精心设计的工程优化,旨在最大限度地提升同步性能。这些努力共同塑造了一个高度一致性的智能合约环境,其应用程序编程接口(API)与以太坊黄皮书所描述的以太坊环境相似(尽管采用了不同的底层虚拟机技术)。在 Solana 上,交易一旦被纳入区块,便几乎可以立即获得确认和最终确定性。
这种方法面临两大挑战:首要的是,将协议高度优化为特定的代码库,可能会导致结构上的中心化趋势,进而削弱其整体的韧性。Jha 在2024年的报告中指出:“自2022年1月以来,已经发生了11次重大故障,累计导致15天的部分或完全停机时间。”这在主流区块链领域中显得尤为突出,因为大多数主要区块链几乎不存在停机情况。这些停机的根源复杂多样,但往往可以归结为各个子系统内被发现的漏洞。
与之形成鲜明对比的是以太坊,至少在最近之前,它展现了极高的稳健性。以太坊拥有经过严格审查的规范、对其加密经济基础的深入研究,以及多个独立开发的实现版本。因此,当其最广泛部署的实现版本中发现漏洞并被恶意利用时,正如 Hertig 在2016年所描述的那样,以太坊网络依然能够保持大部分功能的运行,这或许并不令人感到意外。
第二个核心难题在于该协议在无法跨越单台机器硬件界限时,其最终所能达到的可扩展性极限。
在大规模应用场景下,历史交易数据和状态信息会迅速增长到难以管理的地步。Solana 区块链就凸显了这一问题可能带来的严峻挑战。与传统区块链有所不同,Solana 协议并未提供针对历史数据的归档与后续审核的有效方案,而这对于第三方从基本原理出发验证当前状态准确性至关重要。尽管相关文献对Solana如何处理这一难题的讨论甚少,但根据 Solana 基金会 2023 年的声明,节点仅仅是将数据存储在谷歌托管的集中式数据库中(6)。
注(6):较早版本的节点使用了Arweave网络(一种去中心化的数据存储),但发现它无法满足Solana所需的数据吞吐量要求,因此并不可靠。
Solana 鼓励验证者配备大容量内存( Solana Labs在2024年的建议是至少 512GB ),以便在内存中存储其庞大的状态数据。然而,Solana 也揭示了一个事实:在没有采用分而治之策略的情况下,验证者所能提供的硬件水平直接决定了完全同步、一致执行模型所能达到的性能上限。这导致硬件要求成为了验证者参与的一道门槛,且在不牺牲去中心化原则以及最终透明度的前提下,这一门槛难以被有效提升。
温馨提示:鉴于文章篇幅所限,本文仅呈现JAM灰皮书中文译本的前两章内容。 完整版JAM中文灰皮书下载:https://www.lollipop.builders/JAM-Graypaper-Chinese.pdf
Ext Link: https://mp.weixin.qq.com/s/lqPy9t833NuA634c46r-gw
评论区
写评论典型的看了不明所以。
看懂了然后发现,什么破玩意儿。