|
|
|
|
公众号矩阵

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

现在,AI生产力来了!AI自己动手,竟然用6小时就设计出一块芯片。

作者:月石一来源:量子位|2021-06-10 14:05

  

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

设计一块AI芯片有多难?

这么说吧,围棋的复杂度10360,而芯片则是102500,你感受一下……

△围棋的复杂度

一般来说,工程师们设计一块芯片,少则需要几周,多则好几个月

现在,AI生产力来了!

AI自己动手,竟然用6小时就设计出一块芯片。

最近,这项谷歌的研究登上了Nature杂志。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

布局时间缩短数倍

小小的一块芯片包括了数十亿个晶体管,由它们组成的数千万个逻辑门就是标准单元,此外还有数千个存储块,称为宏块。

确定它们的位置,也就是布局规划,对芯片设计至关重要。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

因为这直接关系到如何布线,进而影响着芯片的处理速度和电源效率。

但是,光是放置宏块这一步就非常耗时,为了给标准单元留出更多空间,每一次迭代都需要几天或几周时间。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

△人类设计和AI设计芯片的平面图(灰色块为宏块)

完成整个布局,则要花费数周甚至数月

现在,谷歌的研究人员提出了一种具有泛化能力的芯片布局方法。

它能够基于深度强化学习,从之前的布局中进行学习,然后生成新的设计方案。整体架构是这样的:

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

由于AI模型需要学习10万个芯片布局,为了保证速度,研究人员设计了一种奖励机制,基于线路长度和布线拥塞的近似代价函数进行计算。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

具体来说,需要将宏和标准单元映射到一个平面画布上,形成具有数百万到数十亿节点的「芯片网表」。

然后,AI模型会对功率、性能和面积(PPA) 等进行优化,并且输出概率分布。

下图分别是零样本生成和基于预训练策略微调的效果,其中每个小矩形代表一个宏块。在预训练策略中,中间留出了用于放置标准单元的空间。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

与其他方法相比,谷歌的新方法大大减少了设计时间,只需不到6小时,就能实现性能优化的布局。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

谷歌:效果不错,已经用上了

研究团队对不同策略下的布局效果进行了可视化展示,从图中可以看到,预训练策略微调的结果要明显优于零样本生成。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

并且,从不同训练时长的效果对比可以看到,在训练2-12小时的情况下,预训练策略要优于零样本生成。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

在不同规模的数据集上进行测试,研究人员发现,随着数据集规模的扩大,生成布局的质量和收敛时间的结果更优。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计
谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

谷歌表示,

这一方法适用于任何类型的芯片。

目前已经被用于生产下一代Google TPU(加速器芯片)。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计
 

【编辑推荐】

  1. 鸿蒙官方战略合作共建——HarmonyOS技术社区
  2. Redis 作者谈如何处理维护开源项目面对的精神压力
  3. 阿里云研究员叔同:云原生是企业数字创新的最短路径
  4. 无法安装微软 Windows,苹果 macOS 12 已移除 M1 Mac 的“启动转换助理”功能
  5. 对话安迈云:去中心化云计算为Web3.0时代而生
  6. 正确管理物联网设备的关键考虑因素
【责任编辑:张燕妮 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢
24H热文
一周话题
本月获赞

订阅专栏+更多

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微