新闻  |   论坛  |   博客  |   在线研讨会
芯片后端设计工程师是否会被人工智能算法取代?
FPGA小师兄 | 2023-01-14 12:56:41    阅读:339   发布文章

数千万年前,塞伯坦星球上的智慧生命五面怪制造了面向军用和民用生产线的两种机器人,这两种机器人即是汽车人和飞机人的祖先,他们拥有完整的机体且能够以自主意识运行五面怪设计的程序。1110万年前,机器人联合推翻了五面怪的统治,将其彻底赶出了塞伯坦星球。

图1 Google围棋算法对人类棋手对弈

这是《变形金刚》故事的起源,回顾Google围棋算法对人类棋手的碾压级表现,我们不禁要问芯片后端设计工程师是否会被人工智能算法取代?对于刚入行一两年的工程师,这是一个很普遍的问题,特别是随着AI技术在机器视觉、内容推荐等领域的飞速发展和大规模应用,信息产业中很多细分领域都对自己的未来发展产生了疑惑。结合笔者的知识和从业经验,尝试从两方面回答一下这个问题。

1、后端工程师的职业发展(以P&R为例)

图2 Place&Routing示例

1)刚进入行业的新人都从跑小的模块做起,在这个阶段会了解基本的后端流程,优化方法和流片标准。

2)对于小的模块游刃有余后,可以开始做一些追求高性能、小面积、低功耗的模块,比如CPU、GPU、VPU。

3) 接下来做一些低功耗流程的单芯片,这样会熟悉一颗完整芯片所需要的功耗分析,IRDROP分析,ESD规划等等。

4) 做大项目的TOP (>30M),在这个阶段可以学习到模块划分,时序规划,bump routing,等大型项目当中才能遇到的问题。

5) 如果想更进一步,就在做大项目的同时去了解封装,了解测试,了解运营,有合适的机会,就可以晋升到项目经理,负责一颗芯片从前到后的实现,生产,测试。

6) 在成功运营几颗大型芯片以后,就可以选择进入一些初创公司成为研发总监,争取成功上市。

一般这就是比较顺利的职业发展路线,需要比较好的机遇和自己的努力,一般工程师停留在4) 的阶段就很难上去了。回到AI技术,我们可以看到,到了第四级,更重要的是对项目的把握和整个项目的管理,基本也就和AI不太搭边了。

2、AI技术在后端算法中的应用

图3 AI人工智能抽象图

在笔者看来,AI在2)当中的应用场景更为广阔。实际上在我们的后端流程中,由于计算能力的限制,我们做了很多的简化,比如一个典型的例子,是在做布局时我们不会做真正的布线,我们会做一种简化的布线(global routing),希望用它的结果来指导我们布局,因为真正的布线会花费十倍以上的时间,对于我们是无法接受的。但既然使用了简化模型,简化模型和最终结果的一致性就非常的重要了,在先进工艺里面尤其困难。

在后端的物理实现中,一些复杂的步骤,比如说placement,则十分困难。要检查一致性是很容易的事情,而得到一个函数的最优解或者近似最优解则较为复杂,同时这个最优解的限制条件还很多,如面积最小、时序最好、功耗最低、可以绕线、符合工艺摆放要求等。再在比如说,布局阶段产生的Congestion往往会恶化时序Timing,并影响设计的Routability,同时导致布线时可能产生Short或Detour,那么如何选取合适的布局和布线才能减少congestion?

图4 congestion示例

在机器学习算法引入之前,CAD领域通常都采用启发式算法对以上问题进行求解。启发式算法尝试基于随机选择,在可接受的代价(比如计算时间和空间)下给出待解决组合优化问题的可行解。常见的启发式算法包括禁忌搜索(Taboo Search)、模拟退火(Simulated Annealing)、遗传算法(Genetic Algorithm)、人工神经网络(Artificial Neural Networks)等。各种启发式算法在优化机制方面存在着一定的差异,但在优化流程上十分相似。这些算法本身都是邻域搜索(Local Search)结构,即算法都是从一个或者一组初始解出发,在关键参数的控制下通过邻域函数产生若干个邻域解,根据一定的接受准则(比如确定性、概率性或混沌方式)来更新当前状态,而后根据当前状态调整关键参数。重复上述搜索步骤直到满足算法的收敛准则,最终得到问题的优化结果。尤其是模拟退火算法,自从该算法被引入VLSI领域后,诞生了大量基于其的布局布线优化算法。

对于EDA工具的使用者——后端工程师而言,这些算法的优化效果往往就像玄学一样,很难选取合适的搜索步长,并且多次计算结果往往并不能得到同一个解,甚至有时候得到劣解。此外,让广大后端工程师苦不堪言的是,随着摩尔定律的推进,芯片中集成的晶体管数以亿计而且还在以指数级进行增长,由此导致数据的处理时间以小时为量级。

目前AI技术在机器视觉、自然语言处理、内容推荐等领域发展欣欣向荣,而在VLSI CAD领域还鲜有耳闻。2017年台积电在ISSCC和ISPD会议均做了基于机器学习的拥塞预测算法进展的口头报告,演讲内容显示该算法可在布局布线阶段将芯片速度提升40MHz。Cadence和Synopsys也多次在业界重要会议中展示了机器学习预测拥塞算法的最新进展。2018年DAC会议上也刊出了一篇用机器学习做congestion预测的文章。

图5 台积电在ISSCC2017关于应用AI消除congestion的演讲内容

晶圆厂和EDA公司天生具备引入AI的基因,大数据处理、智能优化算法等问题都需要有更优、更新的算法来替代。我们期待着AI能够造福广大工程师,也更希望运用AI技术,发现新问题,开创新的研究和技术领域。

— END —

本文转自:知乎Forever snow。如需转载,请联系原出处。


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
专注网络与交换领域的FPGA实现和芯片化,如TSN、TTE等
推荐文章
最近访客