欧洲核子研究中心 (CERN) 近日展示了利用定制芯片处理粒子对撞数据的新技术。助理教授 Thea Aarrestad 在虚拟 Monster Scale Summit 峰会上披露了这一方案。该团队试图通过将人工智能算法直接烧录进硬件,来解决数据过载问题。这种硬件加速方案不同于通用 GPU 集群,旨在满足极端物理实验的实时性需求。
大型强子对撞机每年产生 40,000 EB 的未过滤传感器数据。这一数字约占互联网总数据量的四分之一。CERN 无法存储所有原始信息,必须在实时层面进行压缩。Aarrestad 指出,如果不进行筛选,存储成本将变得不可承受。因此,系统必须能够实时丢弃大量冗余信息。
Aarrestad 表示,探测器系统的数据处理速度高达每秒 100 太字节。这一延迟要求远超谷歌或 Netflix 的标准。算法必须在芯片设计阶段就确定运行速度。这意味着传统软件栈无法满足这种微秒级的响应时间。这要求芯片在数据到达的瞬间完成计算。
位于地下 100 米处的探测器每秒捕获 10 亿次碰撞事件。其中只有约 0.02% 的数据被保留。Level One Trigger 系统由 1,000 块 FPGA 组成,负责初步筛选。物理学家需要在这极短时间内判断哪些碰撞具有科学价值。每秒产生的数据量巨大,几乎等同于整个影视库。
名为 AXOL1TL 的算法必须在 50 纳秒内做出取舍决定。它基于标准模型背景训练,用于识别异常物理现象。系统会直接拒绝 99.7% 的输入数据。Aarrestad 形容这是在寻找稀有的物理过程。只有极少数事件包含新粒子的线索。
与主流大模型不同,CERN 采用基于树的模型和量化技术。团队开发了名为 HLS4ML 的转译器,将模型生成 C++ 代码。这种设计能直接在加速器或片上系统上运行。树模型在性能相近的情况下成本远低于深度学习模型。这避免了过度复杂的计算开销。
探测器架构打破了传统的冯·诺依曼计算机模式。数据处理不依赖顺序驱动,而是基于数据可用性。所有决策必须在芯片内部完成,不能依赖外部内存。这种设计消除了数据搬运带来的延迟风险。这彻底改变了计算架构的设计理念。
到今年年底,大型强子对撞机将关闭进行升级。高亮度大型强子对撞机预计将于 2031 年投入运营。新系统将使数据量增加 10 倍,事件复杂度显著提升。升级后的磁铁将把质子束聚焦在更小的点上。这将提高质子相遇的概率。
前沿人工智能实验室正在构建更大的模型,而 CERN 正朝相反方向发展。通过异构量化变换器,CERN 让 AI 变得更小更快。在构建宇宙认知时,有时丢弃信息比保留更重要。这种减法策略适应了硬件的物理限制。这证明了在特定场景下小规模模型更优。
这种边缘计算系统的升级将支持全球 170 个研究站点。研究人员将利用 42 个国家的服务器集群分析数据。这一架构可能为其他高吞吐场景提供参考。CERN 的工程实践为工业界提供了宝贵的技术参考。跨学科合作推动了硬件与算法的深度融合。