在技术体系中,计算架构是最隐秘却最关键的“底层规则”。它不像AI那样热门,也不像芯片性能那样直观,但却决定了所有数字设备和应用的运行方式。每一次AI推理、每一个App,都离不开它。

这套规则正处在关键转折点,能否掌握它,决定了未来技术的主动权。

01 计算架构:技术生态的“底层规则”与“生命线”

所谓“计算架构”,指的是一整套规范软硬件如何协作运行的底层技术体系。其中的核心,是指令集(Instruction Set Architecture,ISA):它定义了软件能发出哪些指令,以及硬件该如何理解与执行这些指令。可以说,计算架构是软硬件协作的起点。

但真正可落地的架构,远不止设计几条指令那么简单。它还需要完整的工具链支持、操作系统适配、开发接口与中间件,以及可以持续演进的应用生态。缺乏这些配套,即便芯片性能再强,也难以转化为现实价值。

可见,计算架构不仅是一种工程实现,更是一项具有系统主导权的“规则制定”:谁掌握架构,谁就掌握了整个软硬件体系的技术起点,进而影响哪些工具能被用、哪些平台能接入、哪些技术方向能够发展。

计算架构非常关键,这是因为:
  • 软件本身并不能直接在芯片上运行。它必须先被翻译成芯片所能理解的一组底层指令——也就是该计算架构规定的“机器语言”。无论是操作系统还是App,都只有变成这种格式,才能被处理器真正执行。因此,计算架构就像是软硬件之间的“翻译标准”。
  • 硬件设计必须严格遵循架构规范。芯片的各个功能模块、控制逻辑等都需要基于架构设计,否则无法兼容现有软件和工具链,难以形成产业化产品。
  • 架构定义决定了整个生态的边界。谁掌握架构的定义权,谁就掌握了技术发展的“起点”,并能引领软硬件生态的共建与演进。
然而,目前全球主流的计算架构几乎全部由国外企业主导:x86架构由美国Intel 主导发展,AMD虽具备使用权但在演进上缺乏话语权;ARM架构则由英国Arm公司全面掌控核心技术与授权体系。这种高度外部依赖,使得我国在关键技术路径选择、供应链安全和生态自主方面面临重大风险:
  • 授权限制可能阻碍技术更新和迭代;
  • 关键软件工具链可能面临断供风险;
  • 架构发展不匹配,可能导致生态停滞甚至倒退。
因此,自研计算架构不仅是芯片设计的需要,更是保障技术自主、安全和生态可持续发展的战略核心。只有掌握了架构的定义权,才能真正打造完整且可控的软硬件体系,掌握未来技术的话语权。

02 为什么“开放授权”≠“自主可控”

很多人会提出一个疑问:ARM架构不是已经开放授权了吗?我们不是可以“买来用”?为什么还要费力气从零自研?

这个问题的关键在于,“能使用”与“能掌控”之间存在根本区别

ARM架构虽然采用商业授权模式,允许芯片企业基于其设计产品,但这并不意味着我们掌握了技术主导权:
  • 架构演进权集中于Arm公司 :其主导制定ARMv8、ARMv9 等核心标准,国内多数企业仅能使用现成 IP 核;即便少数曾获架构授权者,也无法决定长期发展方向,始终受制于人。目前全球范围内架构授权极为稀缺,且新授权已基本停发。
  • 高端工具链依赖严重 :尽管 GCC、LLVM 等开源工具支持基础编译,但深度性能调优、功耗建模、硬件行为仿真等关键研发环节仍依赖 Arm 官方提供的闭源工具与技术支持。一旦服务中断,高端芯片的研发与迭代将面临巨大挑战。
  • 生态绑定极深 :从操作系统(如 Android、Linux)到应用框架、开发习惯,整个产业链已围绕 ARM 形成完整闭环。迁移至新架构不仅需要重构软件栈,还需重建上下游协作体系,工程成本与市场风险极高,形成典型的“路径依赖”困局。
更值得警惕的是,随着全球技术博弈加剧,授权体系本身就有潜在的“不确定性”。一些技术原本被认为是中立资源,但在关键时刻也可能成为限制他国发展的工具。这不仅是理论风险,已有现实案例。

例如,近年来部分企业在先进 IP 授权续签上遭遇障碍,某些高性能CPU核心被暂停授权,直接影响旗舰芯片的研发进度。这种局面说明:开放不等于透明,授权不等于可控,使用不等于安全。

自研计算架构,就是要在根本上摆脱这种受制于人的风险:
  • 拥有自主演进的权力,可以根据需求灵活优化;
  • 构建自有工具链,避免关键环节出现“断供”威胁;
  • 搭建稳定接口,支撑国产软硬件长期协同发展。
从这一层意义上讲,计算架构的自研不是“造一个更快的芯片”,而是“重建我们对技术演化节奏的控制力”。

03 新时代计算需求,正在逼近通用架构的边界

除了自主可控的战略目标,技术本身也在悄然“倒逼”我们重新思考架构的底层逻辑。

我们正处在一个对算力和能效都提出极端要求的时代:AI大模型、自动驾驶、气候模拟、药物研发、视频生成……几乎每一个前沿技术场景,都不再满足于“用现成架构凑合跑”,而是需要一种更贴合需求、更高效执行的新型架构

这些需求变化,正在逼近现有通用架构的能力边界。

并行的极限:不是“能并行”,而是“为并行而生”

过去我们靠不断提高CPU主频、增加核心数来提升性能,但这个方法越来越“吃力不讨好”:
  • 单核性能已近物理极限;
  • 多核之间互相抢资源,效率反而下降;
  • 通用CPU并不擅长大规模的矩阵、图计算这些“新型任务”。
比如AI训练、科学模拟需要同时处理成千上万个数据块,这时候传统架构就像让一群不擅长协作的工人硬凑在一起干活,远不如专为协作设计的“流水线”。

所以,我们需要一种“从底层就为并行优化”的架构,而不是“事后补丁”。

能效瓶颈:不只是快,还得“省电地快”

现在不再是谁算得快谁厉害,而是谁“在算得快的同时,能效比更高”才真正占优。为什么?因为:
  • 边缘设备如手机、无人机,电池有限;
  • 数据中心每年要花掉数十亿度电,功耗控制成为生死线;
  • 全行业都在追求绿色算力,而不是“粗放堆料”。
传统通用架构设计时并没把能效作为首要目标。而很多新任务,比如 AI 推理、音视频转码,本质上可以“定制”成极高效率的路径,跳过传统通用架构那些不必要的步骤。

所以,我们不是要一味追求更高算力,而是要在单位能耗下做更多事

任务异构:没有一种架构能搞定所有事

AI、视频、仿真、数据库,计算特性完全不同:
  • 有的要高密度计算;
  • 有的要实时响应;
  •  有的要海量数据搬运;
  • 有的要极低延迟通信。
但今天我们还在用一套架构打天下,就像一个工具箱只有一把通用螺丝刀——你总能凑合干活,但每一次都不是最合适的方案。

新时代的算力,需要“任务导向型架构”,能根据不同负载灵活组合核心能力。

总结:不是“重造轮子”,而是“补上缺口”

我们并不是说通用架构完全过时了。x86和ARM仍是主流、稳定、成熟的方案。但它们并非全。很多新兴任务,要么在它们上运行效率太低,要么压根无法实现真正的优化。

这正是为什么,我们需要发展自己的架构,来填补这些关键“空白地带”。如果这些关键任务都靠别人的架构来跑,那我们永远无法真正做到技术的“自主演进”。

04 自研计算架构为什么难?难在不止技术

谈自研计算架构难在哪,说到底,不是“能不能设计出一套指令”,真正的挑战在于,能否构建起一个完整的技术体系——覆盖芯片设计、系统软件支持、开发工具链搭建,以及丰富的软件生态兼容。否则,再先进的芯片设计,也只能是“无法落地的孤岛”。这不仅考验技术能力,更是产业级的系统能力大考。

工程门槛:不是“能用”,而是“可工业化交付”

定义指令并不难,真正的难点在于:这套设计必须经得起工程化、规模化、商业化的检验。它不只是设计挑战,更是一项庞大的工业工程。
  • 芯片侧,ISA的指令设计要兼顾泛用性、能效、物理布局与工艺实现。例如RISC-V虽然简洁灵活,但如何在不同SoC上做出定制扩展、又不破坏软件兼容?背后需要极强的微架构能力与EDA流程支撑。
  • 工具链侧,编译器、调试器、汇编器需从头适配,每多一条指令,都意味着从中间表示(IR)到后端生成链条的重构。如果优化不到位,性能甚至会“反向打折”。
  • 系统软件侧,内核支持、启动流程、内存调度都需重写适配,稳定性测试难度远超开发本身。缺了任何一环,哪怕芯片做出来,也可能因为“系统起不来”而毫无商业价值。
这也解释了为什么全球能真正定义并落地新ISA的团队屈指可数:因为做出能跑Hello World的芯片不难,难的是稳定跑主流操作系统、支持软件栈,并可大规模部署。

生态门槛:不是“有人用”,而是“大家都在用”

计算架构的真正价值,不在于某台设备能否跑起来,而在于有没有足够多的开发者、厂商和应用围绕它构建起一套可持续的技术生态。架构不是一个单点产品,而是一个平台。平台之所以有生命力,是因为“别人在用”——越多人参与,它就越强大;没人用,它的价值就无法释放。

但这也正是难点所在:一个新架构在起步阶段,往往是“最没人用的时候”。
  • 对开发者来说,工具不成熟、文档不全、社区不活跃,意味迁移成本高、调试困难、回报不确定;
  • 对软件公司来说,迁移架构往往意味着重写底层逻辑、重新调优性能,开发成本成倍上升;
  • 对设备厂商来说,选择一个生态不稳的新架构,等于承担整条供应链的技术风险;
  • 对系统维护者来说,一旦主流依赖组件未被支持,就可能影响整体服务稳定性。

这种“没人用 → 不成熟 → 更没人用”的循环,构成了构建生态最难跨过的门槛。它就像试图点燃一堆湿柴,既需要耐心,也需要技巧,更需要“集体相信它值得点燃”。

这也是为什么,做架构不仅是技术问题,更是生态启动问题。一套再先进的架构,如果没有足够开发者愿意基于它做出好产品、没有足够系统愿意支持它的标准接口,那它再“跑得动”也只是实验室里的成果。

要打破这个困局,不能等架构“完全做完”再让生态来“适配”,而必须从设计之初就引入伙伴、开放接口、共建工具、滚动反馈。生态不是等来的,是做出来的;不是一个人做完,而是一群人一起走出来的。

芯片可以靠天才和资本硬啃,但生态却是靠时间、协同、信任累积出来的。这才是决定一套架构“能不能用起来”的决定性一关。

演化门槛:不是“今天可用”,而是“十年后不落后”

架构设计不是一锤子买卖,而是长期演进的过程。x86和ARM的核心优势,从来不只是“现在性能高”,而是它们有成熟的迭代机制。每一代ISA都在“向后兼容 + 向前演化”中持续增长性能和能力。

这依赖于三点:
  • 架构治理机制:x86由Intel主导,ARM则有清晰的授权与扩展路径,能在不割裂软件生态的前提下持续推新。
  • 应用反馈通道:大量终端软件、服务器负载和AI模型的运行数据,反哺架构团队优化指令、缓存、访存路径。
  • 标准演化路径:新功能(如SIMD、矢量指令、多核调度模型)能系统化地加入,并且能被编译器、操作系统完整感知。
05 何破局?

1. 不再执着“做一个架构”,而是构建“一个可被使用的系统”。

自研架构的意义,不在于提出一个独特的指令集,而在于让它跑得动真实负载、支撑起真实业务。这就要求设计从一开始就要考虑落地路径,不能脱离操作系统、工具链、应用模型的整体协同。否则就是纸上谈兵——架构再漂亮,没有人能用,也只是孤岛。

2. 软件不只是跟随,而是主导力量。

架构并不天然决定成败,软件生态才是决定一套架构能否“活下去”的核心变量。从工具链打通,到常用框架适配,再到开发者习惯迁移,谁先把“跑起来 → 用起来 → 用得爽”这条链路打通,谁才真正拥有了未来。而这需要明确的优先级、集中资源投入,而不是分散在数十个方向做“可能有用”的事。

3. 架构生态不是“建一个”,而是“带大家一起建”。

芯片企业不是孤岛,架构也不是一家之事。它注定要跨越芯片、系统、应用、产业四个维度。而破局的关键,不是做出一个“大而全”的系统,而是找准一个“实而深”的场景,从中吸引第一批开发者和用户,然后再向外扩展。只要这个最小生态跑通,才有可能形成自我滚动的动力。

4. 不要等生态“成熟了”再来参与,要在生态还“脆弱的时候”就开始共建。

太多企业在等待“哪套架构先成气候”,但如果每一方都在等,就永远不会有气候。这是生态冷启动的最大难题——需要有人先下场、先投入、先承担一段时期的不确定性。谁先参与,谁就有资格参与规则制定、优先适配、资源联动。

5. 自主架构是一场“技术长跑”,不是一场“热点竞赛”。

它不会靠短期资金堆砌成功,也不会因为一两次发布会“起飞”。它需要的是十年如一日的耐心打磨、工程执行力和社区运营能力。路线对、目标稳,比一开始“起得快”更重要。

自研计算架构不是短期能完成的任务,它需要大量资金投入、长期研发积累和顶尖人才支撑。但无论是追求极致性能和效率,还是保障供应链安全和信息主权,抑或降低成本、主导生态、应对未来计算挑战,其战略必要性都在不断增强。虽然前路漫长且充满挑战,但这不仅是一场技术突围,更是一次对我国科技自主能力的系统性考验。唯有坚持长期主义,才能真正掌握属于自己的技术未来。 


不只是芯片之争,我国为何必须自研计算架构?

点赞(0)

微信公众账号

微信扫一扫加关注

返回
顶部