扫描打开手机站
随时逛,及时抢!
当前位置:首页>综合资讯>

ChatGPT 强势加入芯片设计,不用学专业硬件描述语言了,说人话就行

ChatGPT 强势加入芯片设计,不用学专业硬件描述语言了,说人话就行

时间:2023-06-21 03:04:59 来源:网络整理 作者:bianji123

能和我聊聊解决CPU开发过程中的一个大问题吗?

纽约州立大学 (NYU) 的研究人员完成了看似不可能的任务:

无需专业的硬件描述语言(HDL),说说人话就可以设计出芯片!

在 的帮助下,他们不仅在 CPU 上设计了一个组件,甚至还通过了有效性验证过程。

该组件主要负责为基于八位累加器的微处理器架构创建逻辑。 累加器本质上是一个寄存器(存储器),专门用来存放算术或逻辑运算的操作数和运算结果。 它是 CPU 工作方式不可或缺的一部分。

那么,大型语言模型还有什么不能做的呢?

有网友表示:

部分芯片设计过程的自动化无疑是个好消息。

也有网友对在芯片设计中使用AI编写HDL表示担忧:

你做了什么芯片设计?

通常,设计和制造芯片的过程中有几个阶段。

例如,其中一个阶段是用硬件描百思特网述语言 (HDL) 描述芯片内不同组件的实际几何形状、密度和总体布局。

直到现在,作为一个极其专业和复杂的领域,HDL编写一直是一个比较少见且非常难掌握的工作。

研究团队成员之一、同时也是研究助理教授的Dr. Ph.D.认为:

硬件描述语言最大的挑战是知道怎么写的人不多,而且很难成为这方面的专家。

这意味着即使是最好的工程师仍然经常需要用这种语言做一些琐碎的事情。

并且作为模式识别器,它可以在各种类型的语言中自由转换,可以帮助工程师跳过HDL阶段。

△ 使用LLM创建IC( )的设计流程。

在这项研究中,研究人员使用 LLM 分别研究了八个具有代表性的硬件设计实例。 工程师和百思特网 LLM 之间实时来回,逐渐将纯英文文本转换为 (HDL) 等效代码。

其中一位硬件工程师与 LLM 共同设计了一种新颖的基于八位累加器的微处理器架构。 他们将这些基准测试和处理器发送到 130nm 流片。

在这个过程中,研究人员评估了-4、-3.5、Bard这四种不同的LLM创建硬件设计的能力:

此外,研究人员还对 8 位移位寄存器进行了基准测试。 告诉大模型它正在尝试为“测试名称”创建模型。 然后提供规范,定义输入和输出端口以及所需的其他特定信息。 最后问他如何写出符合这些规范的设计。

△ 8位移位寄存器的设计技巧

以下是不同大机型给出的设计方案:

△ 左图为-4的八位移位寄存器设计,右图为-3.5

△ 左图是Bard(第4行的“红色”输入太宽),右图是(截断,格式化)

如上图所示,虽然两者都能够满足规范并开始设计过程,但 Bard 和公司都未能满足规范要求的初始标准。

研究人员随后要求巴德和巴德根据他们最初的提示重新生成反应五次,但都失败了。 Bard 已经无法满足给定的设计规范,并且 Bard 的输出在模块定义后在语法上不符合要求。

鉴于 Bard 在初始挑战基准测试中表现不佳,研究人员决定仅在 -4 和 -3.5 上进行后续全面测试。

同时顺便设计一下大模型(试验台):

你能为这个设计写一个测试平台吗? 试验台应具有自检功能,并能与 配合进行仿真验证。 如果一个测试用例失败了,测试平台应该能够提供足够的信息以便找到并解决错误。

最终结果表明 -4 表现更好。 大多数基准测试都通过了,而且大多数只需要工具反馈。

-4 创建可运行的测试平台比创建可运行的设计更麻烦,通常仍然需要人工反馈。

与 -4 相比,-3.5 的表现要差得多,大部分基准测试都失败了,而且通过测试平台的大部分对话也不符合规范。 与 -4 相比,-3.5 在每个会话和基准之间会有各种问题,需要在设计和测试平台中更频繁地修复。

是芯片设计中的“力量倍增器”

随着大型语言模型(LLM)的不断发展,未来LLM从概念到功能设计可能很容易实现。

△ 研究人员设计的基于累加器的数据路径为-4(图中为人为绘制),控制信号用虚线表示

据研究人员称:

虽然我们强调模型的单步性能(即一步设计),但对于硬件应用程序来说,让它们作为“共同设计者”加入可能会表现得更好。

当与经验丰富的工程师合作时,他们可以成为一种“力量倍增器”。 工程师可以根据模型提供的“第一版设计”进行微调和快速迭代。

博士说:

我们认为,这项研究成果是第一个将完全由人工智能生成的硬件描述语言(HDL)翻译成物理芯片的案例。

一些 AI 模型,例如 和 的 Bard,可以生成不同编程语言的软件代码,但它们在硬件设计中的应用尚未得到广泛研究。

但这项研究表明,人工智能在硬件制造方面也有潜力,尤其是在会话应用中,可以通过反复交流来完善设计。

而且,这减少了 HDL 编写过程中人为引起的错误,缩短了设计时间和上市时间,并允许进行更具创意的设计。

不知道有些HDL工程专家听到这里会不会觉得有点紧张。

研究人员认为,如果这个过程可以自动化,不仅可以加快当前的工作速度,还可以减少人力瓶颈。

但是,仅依赖像这种大型模型这样的软件机器或依靠电力运行也存在百思特网风险。 用于芯片设计的LLM也存在训练阶段难以黑盒等一系列问题。

你觉得这怎么样?

参考链接:

本文地址:https://www.best73.com/zdmzt/267924.html
特别声明:以上内容来源于编辑整理发布,如有不妥之处,请与我方联系删除处理。
热门资讯
查看更多