谷歌的一组研究人员推出了一种新的人工智能模型,可以在数小时内完成复杂的芯片设计——这是一项繁重、复杂的任务,人类工程师通常需要数月才能完成。
研究人员使用包含 10,000 个芯片布局的数据集来为机器学习模型提供数据,然后对该模型进行强化学习训练。 事实证明,仅用了六个小时,该模型就可以生成优化芯片上不同组件布局的设计,从而创建满足处理速度和功率效率等操作要求的最终布局。
该方法的成功在于,谷歌已经使用该模型设计了其下一代张量处理单元 (TPU),这些单元在公司的数据中心运行,以提高各种 AI 应用程序的性能。
“我们的 RL(强化学习)代理可以在短短几个小时内生成芯片布局,而人类专家可能需要几个月的时间,”参与该研究的 Google Brain 研究科学家 Anna Goldie 发推文说。 “这些超人人工智能生成的布局被用于谷歌最新的人工智能加速器 (TPU-v5)!”
现代芯片包含数十亿个不同的组件,这些组件排列并连接在一块指甲盖大小的硅片上。 例如,单个处理器通常包含数千万个逻辑门(也称为标准单元)和数千个存储块(称为宏块),然后必须将它们连接在一起。
标准单元和宏块在芯片上的放置对于确定信号在芯片上传输的速度以及终端设备的效率至关重要。
这就是为什么很多工程师的工作都集中在优化芯片的布局上。 它从放置较大的宏块开始,这个过程称为“布局规划”,包括为组件寻找最佳配置,同时牢记必须将标准单元和布线放置在剩余空间中。
宏块的可能布局数量是巨大的:根据 Google 的研究人员的说法,有可能有 10 到 2,500 种不同配置的次方可供测试 – 即 1 之后的 2,500 个零。
更重要的是:一旦工程师提出布局,他们很可能必须随后在添加标准单元和布线时调整和调整设计。 每次迭代最多可能需要数周时间。
考虑到布局规划的艰巨复杂性,整个过程似乎很适合自动化。 然而,几十年来,研究人员未能想出一种可以减轻工程师平面规划负担的技术。
芯片设计师可以依靠计算机软件来协助他们完成这项任务,但仍需要数月时间才能弄清楚如何最好地在设备上组装组件。
而且挑战只会越来越难。 经常被引用的摩尔定律预测,芯片上的晶体管数量每年翻一番——这意味着工程师面临着一个随着时间呈指数增长的方程式,同时仍然必须满足紧迫的时间表。
这就是为什么谷歌显然成功地尝试自动化布局规划可能会改变游戏规则。 Facebook 首席人工智能科学家 Yann LeCun 发推文称:“谷歌在基于 RL 的芯片布局深度优化方面做得非常好,”他祝贺团队克服了“40 年”的挑战尝试。
谷歌的新 AI 模型恰逢其时:半导体行业目前正受到全球芯片短缺的冲击,从消费电子产品到汽车等多个行业都受到冲击。
虽然短缺是由制造层面的能力不足造成的,而不是半导体的设计能力不足,但缩短发明下一代芯片所需的时间仍然可以为整个供应链带来可喜的缓解。
例如,科学杂志《自然》对这种新方法表示欢迎。 “谷歌的研究人员已经设法大大减少了设计微芯片所需的时间,”他们说。 “这是一项重要的成就,将对加快供应链提供巨大帮助。”
尽管机器学习模型可能会影响整个行业,但谷歌自身对该技术的使用也值得关注。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。商机网仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 tenspace2022@163.com 举报,一经查实,本站将立刻删除。 本文链接:https://www.315965.com/n/66447.html