2025年3月18日,在GTC2025发布会上,英伟达推出了全新的NVIDIA Photonics硅光子技术。这项技术通过共封装光学(CPO)取代传统的可插拔光学收发器,使光纤直接连接到交换机,大幅减少数据中心的功耗。据英伟达测算,该技术可降低40MW的功耗,并提高AI计算集群的网络传输效率,为未来超大规模AI数据中心奠定基础。基于此,英伟达推出Spectrum-X与Quantum-X硅光子网络交换机,通过将电子电路与光通信技术深度融合,助力AI工厂连接跨地域的数百万GPU集群,从而降低能耗与运营成本。这表明,CPO技术为未来发展趋势。
人工智能应用的爆炸式增长,包括生成式人工智能、机器学习和深度学习,正在以前所未有的速度推动数据中心对计算能力和数据处理的需求 。AI工作负载需要能量密集型的图形处理器(GPU)和加速器,这远超出了传统处理器的能耗水平 。现代AI数据中心的关键需求是提高数据吞吐量和电源效率 。AI模型的日益复杂和庞大需要数据中心设计进行根本性的转变,尤其是在数据移动和处理方式方面。这为诸如CPO这样的创新互连技术创造了强大的需求 。
现有电气互连在满足这些需求方面的局限性(带宽、功耗、延迟): 传统的通过相对较长距离(150-200毫米)的电信号连接的可插拔光学模块在高速度下会面临信号退化问题 。ASIC和可插拔光学器件之间的长电气迹线由于需要功耗大的串行器/解串器(SerDes)电路而消耗大量功率 。当前AI系统中的铜互连在更长的距离上,尤其是在超过每通道100G的速度下,面临着带宽密度和信号完整性的限制 。随着交换机IC速度的提高,电气/光学连接器密度和不断升级的功耗成为重要的障碍 。铜基互连在带宽扩展、电源效率和信号完整性方面的固有局限性正成为AI数据中心性能和可扩展性的主要瓶颈,这促使人们需要转向光学互连 。
光电共封装(CPO)技术将光学组件直接集成到与交换机ASIC或XPU相同的封装中 。这种方法旨在解决日益增长的带宽密度、通信延迟、铜缆传输距离和电源效率方面的挑战 。通过大幅缩短电气链路的长度,CPO显著提高了互连带宽密度和能源效率 。CPO代表了数据中心内部高速数据通信实现方式的根本性变革,从传统的插拔模块转向更集成和高效的架构。这种集成是克服电气互连限制的关键 。
光电共封装(CPO)技术的基本原理
CPO的核心原理和架构: CPO涉及将光子集成电路(PIC)和电子集成电路(EIC)集成到单个封装中,与交换机ASIC或XPU并列 。包含PIC和EIC的光引擎(OE)与主处理芯片在单个衬底上进行异构集成 。这种集成显著缩短了芯片和光引擎之间的电气链路长度 。CPO的基本原理是光学和电子组件的紧密靠近,这最大限度地减少了与较长电气连接相关的功率和延迟损失。这种紧密集成是通过先进的封装技术实现的 。
CPO与传统可插拔光学器件和板载光学器件的比较:
可插拔光学器件: 光收发器模块插入前面板,需要从ASIC到模块的长电气迹线,导致功率效率低下 。可插拔器件具有模块化和易于更换的优点,但在更高的数据速率下,其电源效率面临挑战 。
板载光学器件(OBO): 光学模块放置在主板上更靠近ASIC的位置,这是减少电气迹线长度的一步,但在实现显著的功率节省和尺寸缩小方面存在局限性 。尽管OBO显示出潜力,但在纳入所有期望的功能后,光学模块反而变得更大,未能实现预期的功率节省 。
CPO: 将光学模块直接集成到与ASIC相同的衬底上,从而实现最短的电气连接,并在功率、带宽和延迟方面实现显著改进 。CPO通过将光纤直接连接到交换机,消除了信号通过耗能的铜链路从ASIC芯片穿过电路板到达前面板的需求,从而节省了功率 。 CPO代表了光互连的下一步发展,它建立在OBO的概念之上,实现了更紧密的集成,克服了可插拔光学器件的限制,尤其是在像AI数据中心这样的高性能环境中 。从可插拔光学器件到板载光学器件再到共封装光学器件的演进反映了不断努力最小化处理芯片和光学收发器之间电气距离的过程。每一步都使组件更靠近,而CPO代表了最集成的方案 。
CPO的关键优势:
更高的带宽密度和吞吐量: 由于减少了数字信号处理器(DSP)的使用并消除了长铜迹线,CPO能够实现更高的带宽和更低的延迟 。与传统的可插拔连接相比,CPO有望提高五倍的带宽 。与电气连接相比,CPO可以显著提高芯片之间的带宽 。CPO的紧密集成允许多条高数据速率的并行光通道,从而显著提高了系统的整体带宽容量。消除与电信号传输相关的瓶颈使得高要求的AI工作负载能够获得更高的吞吐量 。通过在处理芯片旁边立即将电信号转换为光信号,CPO避免了高频和长距离下铜物理特性所带来的带宽限制。光信号可以携带更多数据,且信号衰减更小 。
更低的功耗和更高的能源效率: 早期的CPO解决方案显示出30-50%的功耗节省 。CPO设计消除了信号通过耗能的铜链路穿过电路板的需求 。与电气连接相比,CPO可将能耗降低80%以上 。功耗是数据中心的关键问题,CPO通过最大限度地减少能量密集型电气链路和DSP的使用,实现了显著的功耗降低,从而降低了运营成本并减少了环境足迹 。CPO主要的功率节省来自于极短的电气迹线。驱动长铜迹线上的信号需要大量的功率。通过几乎立即进行光传输,CPO避免了这种功率开销。此外,对信号处理(DSP)需求的减少进一步贡献了功率节省 。
更低的延迟以实现更快的数据传输: CPO中长铜迹线的消除和DSP的减少有助于降低延迟 。CPO最大限度地缩短了电气路径长度,增强了高速信号的完整性并最小化了延迟 。低延迟对于许多AI应用至关重要,尤其是在涉及实时处理和分布式计算的应用中。CPO降低信号延迟的能力在这些场景中提供了显著的优势 。延迟是由信号传输时间和所涉及的处理步骤造成的。通过缩短信号路径并减少对复杂信号调节的需求,CPO最大限度地减少了这些延迟 。
更高的信号完整性: 与传统的通信系统相比,CPO通过减少电气连接和信号转换,提供了卓越的信号完整性 。CPO减轻了信号退化和干扰的可能性 。维护高速信号的质量对于可靠的数据传输至关重要。CPO的集成架构最大限度地减少了可能发生信号退化的点,从而提高了数据准确性和系统可靠性 。每个电气连接和转换都会给信号带来潜在的噪声和失真。通过在CPO中最大限度地减少这些因素,可以保持高速数据信号的完整性 。
CPO的不同集成方法(2D、2.5D、3D)
2D集成: PIC和EIC并排放置在PCB上,通过引线键合或倒装芯片连接。这种方法简单且具有成本效益,但存在寄生电感、信号完整性问题和高能耗 。引线键合的使用限制了收发器的带宽并增加了能耗,使其不太适合高性能应用 .
2.5D集成: EIC和PIC通过倒装芯片连接到带有硅通孔(TSV)的无源中介层上。这种方法提供了可管理的寄生效应和高密度间距能力,但由于需要中介层走线而增加了复杂性 。2.5D集成通过使用微凸块或铜柱减少了EIC和PIC之间的封装寄生效应,这有助于更高的I/O连接并实现更精细的布线以增加带宽 。然而,与2D集成相比,2.5D集成的开发和制造成本更高。此外,虽然它比2D集成有所改进,但2.5D集成仍然比3D集成表现出更高的寄生效应,这会影响整体性能 。
3D集成: EIC通过先进的封装技术(如TSV和混合键合)堆叠在PIC之上。这种方法显著减少了寄生效应并实现了高密度间距能力,但带来了散热挑战 。TSV最大限度地减少了IR压降和电感,为关键组件提供可靠的电源,同时实现更短的互连以改善通信 。3D单片集成将光子器件嵌入到现有的电子工艺节点中,最大限度地减少了改动,并将有源光子器件和驱动电子器件共同定位在同一芯片内。这减少了寄生效应,并通过消除对接口焊盘和凸块的需求简化了封装 。然而,单片集成通常使用较旧的CMOS节点,导致光子性能欠佳且能耗更高 。尽管存在这些限制,3D单片集成提供了更小的阻抗失配和简化的封装 。多芯片CPO通过使用极低功耗和极高带宽的芯片间通信以3D方式集成OIO和ASIC 。 集成方法的选择显著影响CPO解决方案的性能、成本和复杂性。虽然3D集成更具挑战性,但它在实现高带宽和能源效率方面潜力最大。基于芯片的方法提供了灵活性和成本优势 。
CPO在人工智能数据中心中的必要性
人工智能工作负载带来的特定挑战(高计算密度、海量数据移动): AI工作负载,尤其是大型模型的训练,需要大规模并行处理以及计算单元(GPU、TPU)之间的高速数据交换 。AI服务器中的高计算密度需要高效和高带宽的互连,以避免瓶颈 。大型语言模型(LLM)的训练涉及移动大量数据,使得数据传输速率成为关键的性能因素 。AI任务所涉及的数据和计算规模对数据中心内部的互连基础设施施加了巨大的压力。传统方法难以跟上这些需求,因此需要更高性能的解决方案,如CPO 。AI算法,特别是深度学习模型,需要处理单元之间进行广泛的通信,以交换梯度和参数。这种通信量随着AI模型的大小和复杂性而增长,使得高带宽、低延迟的互连对于高效的训练和推理至关重要 。
CPO如何解决人工智能数据中心互连中的瓶颈: CPO增强了互连带宽和能源效率,这对于AI和高性能计算至关重要 。CPO降低了电气链路的功耗,并提高了芯片封装的带宽输出能力 。CPO实现了AI服务器内部更长距离和更高密度的XPU到XPU连接 。XPU之间的连接可以实现比电缆快100倍的数据传输速率和更远的距离 。CPO提高了机架内和跨多个机架的XPU密度 。CPO可以显著提高数据中心通信的带宽,最大限度地减少GPU停机时间并加速AI处理 。CPO直接解决了电气互连的带宽、功耗和延迟限制,使其成为AI数据中心苛刻互连要求的有力候选者。其支持高密度、高速连接的能力对于AI工作负载尤其有利 。通过提供比传统电气链路高得多的带宽和更低的功耗,CPO消除了会限制AI系统性能和可扩展性的瓶颈。这使得更有效地利用昂贵的计算资源(如GPU)成为可能 。
在 1.6T 传输速率下,硅光方案渗透率预计会有所提升,而 CPO 方案更多为技术探索。但是从 3.2T 传输速率开始,传统可插拔光模块传输速率升级或将达到极限,后续光互连升级可能转向 CPO 方案。CPO 的技术创新,将有望取代当前数据中心内部传统的电气互连模式,为人工智能(AI)及其他计算密集型应用带来更高传输速率、更低延迟和更低功耗。Lightcounting表示,AI 对网络速率的需求是目前的 10 倍以上,在这一背景下,CPO 有望将现有可插拔光模块架构的功耗降低 50%,将有效适配于高速高密度互连传输场景。根据
Lightcounting 预测,CPO 出货预计将从 800G 和 1.6T 端口开始,于 2026 至 2027 年规
模开始上量,主要应用于超大型云服务商的数通短距场景。由于 CPO 技术拥有优异的性能优势并可实现降本增效,其有望广泛应用于 ChatGPT 和人工智能 AI 等高算力行业中,AI 数据中心或将成为 CPO 技术最大应用领域。
人工智能基础设施中的CPO应用场景
高性能计算集群: CPO非常适合需要超高带宽和精度的应用,例如AI集群和HPC环境 。通过在交换机和服务器中实施CPO技术,可以将网络容量提高2倍,同时将交换机的数量减少64% 。
GPU互连: CPO实现了GPU加速器之间的高速光连接,最大限度地减少了空闲时间并加速了AI处理 。CPO解决了英伟达高速互连技术NVLink的局限性 。
服务器到服务器和交换机到服务器的通信: CPO的主要应用是用于连接数据中心服务器的前端网络 。CPO为数据中心、云计算和超大规模网络等各种应用场景提供高带宽和大容量的解决方案 。 CPO的多功能性使其能够部署在AI数据中心基础设施的各个部分,从互连高性能计算节点到促进服务器机架内部和服务器之间的有效通信 。对高速、低延迟通信的需求存在于AI数据中心内的多个层面。CPO提供了一种可以满足这些需求的解决方案,无论是连接服务器中的多个GPU,连接集群中的服务器,还是促进网络不同部分之间的通信 。
CPO的技术进步和关键创新
硅光子学和集成光学组件的发展: 硅光子学的最新发展使得设计人员能够将不同的芯片直接集成到共享的基底材料上,从而节省功率并扩展带宽 。硅平台是大规模集成CPO最有希望的平台 。微环调制器(MRM)的进步是光信号传输的关键 。Marvell利用了其经过八年多现场运行、超过100亿设备小时验证的多代硅光子技术 。硅光子学的进步是CPO技术的基本推动力,它允许将光学组件与电子电路小型化并集成到单个芯片上。这种集成对于实现CPO的优势至关重要 。硅光子学使用硅作为光学介质,允许使用标准的半导体制造工艺制造光学组件。这种集成能力对于实现大规模CPO应用所需的高密度和低成本至关重要 。
推动CPO的先进封装技术的进展: 先进的半导体封装(2.5D和3D)是共封装光学技术的基石 。芯片和3D-IC可能在甚至加速CPO的采用方面发挥作用,通过在一个封装中混合不同的技术 。台积电已成功将CPO与先进的半导体封装技术(如CoWoS和SOIC)集成 。各种封装技术促进了EIC和PIC的异构集成 。先进的封装技术对于将电子和光子组件集成到CPO模块中至关重要。该领域的创新对于提高性能、缩小尺寸和增强可制造性至关重要 。通过高密度和短互连在一个封装中堆叠和连接不同类型的芯片(电子和光子)的能力,是由先进的封装技术实现的。这些技术克服了传统封装方法的局限性 。
CPO标准和行业计划的演变: 光互连论坛(OIF)最近发布了针对以太网交换应用的3.2Tb/s CPO模块标准 。该模块采用100Gbps的电通道,并向下兼容50Gbps的通道 。OIF的CPO标准规定了单模通信和紧凑的模块设计 。诸如OIF之类的组织进行的标准化工作对于促进互操作性、降低成本和加速CPO技术在整个行业的采用至关重要 。标准定义了通用的规范和接口,允许不同的供应商开发兼容的产品。这促进了竞争并降低了成本,使得该技术更易于使用 。
领先供应商的最新突破和产品发布: IBM开发了一种使用聚合物光波导(PWG)的新型CPO工艺,展示了显著的功率降低和带宽增加 。IBM的CPO原型模块可以在数据中心内部实现高速光连接,有可能显著提高带宽 。Marvell宣布将CPO集成到定制AI加速器中,利用其硅光子技术 。台积电预计将在2025年下半年开始量产1.6T光传输的CPO产品 。博通和思科已经展示了早期的CPO解决方案,具有显著的功耗节省 。领先技术供应商的公告和演示突显了CPO技术日益成熟和商业可行性。这些在性能和制造方面的突破为更广泛的应用铺平了道路 。当行业的主要参与者宣布进展和商业化计划时,这表明该技术正在从研发走向实际应用。这增强了信心并鼓励了进一步的投资和采用 。
广泛采用CPO的挑战和障碍
散热管理和冷却考虑: 将光学组件与电子集成电路集成在同一封装中会导致发热增加,这带来了散热管理的挑战 。随着数据速率的增加,在不影响性能的情况下最大限度地降低功耗也是与散热管理相关的挑战 。PIC在电子封装内的放置增加了热串扰的可能性 。CPO封装中高密度的组件会导致显著的发热,需要有效地管理以确保可靠性和性能。可能需要先进的冷却解决方案 。将更多组件集成到更小的空间中会增加整体功率密度和热输出。这种热量会影响电子和光子组件的性能和可靠性,因此高效的冷却机制至关重要 。
可维护性和维护方面: 集成到芯片上的激光器的可靠性是一个令人担忧的问题 。在CPO中更换光学器件需要取出整个交换机,这使得现场维修变得复杂 。一些设计将高风险的活动组件(如激光器)分离到远程可插拔模块上,以便于更换 。CPO封装内部光纤的可靠性至关重要,需要仔细考虑弯曲半径和热环境 。CPO技术将多个光学模块与芯片集成在一起,可能会增加故障率 。确保CPO模块的长期可靠性和可维护性对于其在关键数据中心环境中的广泛应用至关重要。在激光可靠性和易于维护等领域仍然存在挑战 。数据中心设备需要高度可靠且易于维护。将光学器件直接集成到芯片封装中会引发对这些组件寿命以及发生故障时维修复杂性的担忧 。 更换CPO中的光学器件很复杂,需要专业知识 。可插拔光学器件的模块化和易于更换是早期CPO设计的优势 。开发用于更容易地现场更换CPO中关键组件的解决方案是一项正在进行的工作 。与传统的可插拔光学器件相比,CPO模块的集成特性使得维护和升级更具挑战性。需要设计和服务方面的创新来解决这些问题 。在数据中心,停机成本很高。快速更换故障组件的能力至关重要。早期的CPO设计在这方面提出了挑战,行业正在努力寻找提高可维护性的解决方案 。
制造复杂性和良率挑战: 将光学组件集成到同一封装中会增加制造过程的复杂性,从而影响良率 。实现高良率需要严格的质量控制措施、精确的对准技术和可靠的封装技术 。晶圆级封装正在加紧研发,以解决制造挑战 。包含CPO结构的复杂封装过程在商业化之前需要进行微调 。由于光学对准和封装所需的紧密集成和精度,大规模制造高良率的CPO模块是一个巨大的挑战。该领域制造工艺的进步对于克服这一障碍至关重要 。CPO模块的制造涉及将半导体制造与光学组件组装相结合,这需要非常精确的对准和键合技术。在这些复杂的过程中实现高良率对于成本效益至关重要 。
与传统互连相比的成本影响: 目前,CPO解决方案可能比传统的光通信方法更昂贵 。降低成本需要时间和规模效应的积累 。CPO的初始研发和部署成本相对较高,但随着技术成熟和生产规模扩大,成本预计会逐渐降低 。CPO技术的初始成本是立即广泛采用的一个障碍。然而,随着产量的增加和技术的成熟,成本预计将更具竞争力,尤其是在考虑长期的功率节省和性能优势时 。新技术通常由于研发费用和较低的产量而具有较高的初始成本。随着技术变得更加主流和生产规模扩大,单位成本通常会下降 。
标准化和互操作性问题: 缺乏CPO的标准化流程和设计可能会阻碍其广泛采用 。虽然OIF已经定义了3.2Tbps CPO的标准,但仍需要进一步标准化该技术的不同方面 。缺乏全面的行业标准可能会给不同供应商的CPO解决方案之间的互操作性带来挑战,并可能减缓采用速度。在该领域持续努力进行标准化非常重要 。标准确保来自不同制造商的产品可以无缝协同工作。这对于数据中心的大规模部署至关重要,因为这些部署可能会使用来自不同供应商的组件 。
CPO在人工智能数据中心中的市场格局和未来展望
当前CPO市场规模和增长驱动因素分析: 未来几年,CPO市场预计将显著增长,这主要得益于数据中心(尤其是AI和HPC应用)对带宽和电源效率的需求不断增长 。科技巨头不断增加对数据中心开发的投资是关键驱动因素 。AI数据中心将为IT、网络和能源行业创造巨大的新市场 。CPO市场尚处于早期阶段,但由于传统互连在面对不断升级的AI工作负载和数据中心需求时存在根本性限制,该市场有望实现显著增长 。强劲的市场增长预测表明,CPO在解决现代数据中心(尤其是支持AI的数据中心)所面临的挑战方面的价值主张已得到广泛认可 。
主要市场参与者及其策略: 英特尔、博通和IBM等领先的国际公司已在CPO技术上投入巨资 。主要参与者包括博通、思科、英特尔、Marvell、英伟达、Lightmatter、Ranovus、康宁等 。台积电正在大力投资以支持CPO,将其作为其先进封装解决方案的关键一步 。Marvell专注于将CPO集成到定制AI加速器中 。主要半导体制造商、网络供应商和云提供商的参与突显了整个行业对CPO潜力的认可以及开发和部署该技术的战略重要性 。这些主要参与者各自拥有优势和市场地位,他们的参与将塑造CPO技术的发展、标准化和采用 。
未来十年CPO在人工智能数据中心的应用预测: CPO网络交换机预计将占据主要的收入份额,每个交换机可能集成多达16个CPO PIC 。AI系统的光互连将构成市场的重要组成部分 。到2029年,服务器和其他设备中支持CPO的端口出货量预计将大幅增加 。CPO的量产预计将在未来几年内加速 。市场预测表明,随着技术的成熟和成本效益的提高,未来十年AI数据中心将呈现强劲的CPO应用趋势。
与线性可插拔光学器件(LPO)等竞争技术的比较: LPO设计更简单,操作更方便,成本效益更高,更易于实施,适用于数据中心内部等短距离应用,在这些应用中,电源效率和低延迟是优先考虑的 。LPO通过消除DSP来降低功耗,但在传输距离和纠错能力方面存在局限性 。CPO在数据速率和传输距离方面提供了卓越的性能,适用于AI集群等高性能应用 。LPO和CPO可能会共存,每种技术都针对数据中心市场的不同细分领域 。线性CPO消除了对DSP的需求,实现了更高速度、更低功耗和更可靠的互连 。虽然LPO为某些数据中心互连需求提供了短期解决方案,但CPO被认为是解决AI数据中心苛刻要求的更强大的技术,尤其是在高带宽和长距离应用方面 。LPO提供了比传统可插拔器件更渐进的改进,而CPO则代表了架构上的更根本性转变。它们之间的选择将取决于具体的应用需求和成本考虑 。
CPO对数据中心架构和运营效率的潜在影响: CPO可以实现为机器学习横向扩展和资源分解量身定制的新型数据中心计算结构 。CPO可以实现更节能的数据传输并优化数据中心的空间利用率 。CPO可能需要重新思考系统架构和实施方案 。CPO有助于实现大规模数据中心的绿色节能目标 。采用CPO有可能显著改变数据中心架构,从而实现更具可扩展性、效率更高和性能更高的基础设施,以支持日益增长的AI和其他数据密集型应用的需求 。通过克服传统互连的局限性,CPO为数据中心的设计和运营方式开辟了新的可能性,从而实现更灵活和高效的资源利用 。
产业链和投资机会
CPO有望成为高性能AI数据中心的主导互连技术。未来CPO的性能和效率有望进一步提高。CPO与芯片和先进封装等其他新兴技术的融合具有巨大潜力。CPO将在推动下一代AI应用方面发挥变革性作用。
CPO产业链上游主要是原材料和设备,比如SOI晶圆、光波导材料、EDA工具,还有光芯片、光器件。
(1)核心材料:
SOI晶圆:信越化学(日本)、Soitec(法国);
光波导材料:康宁(美国)、日本株式会社藤仓Fujikura(5803.T,日本);
光芯片材料:铌酸锂调制器(光库科技)、滤波片(东田微);
光纤材料:长飞光纤、富信科技(散热材料)。
(2)EDA工具:
Cadence、Ansys。
(3)光芯片:
国际:朗美通Lumentum(美国);
国内:源杰科技(25G/50G光芯片)、仕佳光子(光分路器芯片)、长光华芯(激光芯片)。
(4)生产设备:
光刻机/刻蚀机:ASML(荷兰)、应用材料(美国);
国内:德龙激光(SH:688170)(光通信设备)、罗博特科(SZ:300757)(硅光设备)。
CPO产业链中游是制造和封装,包括光模块制造和封装测试。
(1)光器件:
国际:Coherent(美国)、Finisar(美国);
国内:天孚通信(光引擎)、太辰光(光连接器)、光库科技(铌酸锂调制器)、蘅东光(NQ:874084)、古河电气工业株式会社(5801.T)。
(2)光模块与封装:
国际:博通(1.6T CPO模块)、英伟达(CPO交换机)、英特尔;
国内:中际旭创(全球光模块龙头)、新易盛(800G模块)、朗美通(Lumentum)、华工科技(硅光芯片);
代工制造:台积电(COUPE技术)、Intel(3D封装)。
(3)封装测试:
先进封装:长电科技、通富微电、甬矽电子;
测试设备:罗博特科(硅光设备)。
CPO产业链下游是应用领域,比如数据中心、AI、云计算。
(1)数据中心与云计算:
国际:Facebook(CPO联盟成员)、Microsoft Azure、亚马逊AWS;
国内:阿里云、腾讯云。
(2)人工智能(AI)与高性能计算:
国际:英伟达(GB300芯片)、博通(AI交换机)、Marvell;
国内:百度(昆仑芯片)、华为(昇腾芯片)。