[情报] 中国推出世界首颗无干涉 AI全自动设计CPU

楼主: giorno78 (天晴)   2023-07-01 21:20:16
中国推出世界首颗无干涉 AI全自动设计CPU
https://new.qq.com/rain/a/20230630A07AQ100?no-redirect=1
中科院计算所的处理器芯片全国重点实验室及其合作单位,
用AI技术设计出了世界上首个无人工干预、全自动生成的CPU芯片——启蒙1号。
这颗完全由AI设计的32位RISC-V CPU,相比GPT-4目前所能设计的电路规模大4000倍,
并可运行Linux作业系统,且性能堪比Intel 486。
启蒙1号处理器是基于RSIC-V指令集的,32位元架构,
早在2021年12月就已经完成流片验证,之后中科院计算所还用它点亮了Linux作业系统,
并运行了SPEC CPU2000测试程式,评估后认为性能跟Intel的40486相当。
启蒙1号芯片版图及实物图,其中CPU核部分完全由算法自动生成,芯片于2021年12月采
用65nm工艺流片,运行频率300MHz
这是全球首个无人工干预、全自动生成的CPU芯片,65nm工艺,频率达到了300MHz,
相关研究论文已经发表。
启蒙1号是中科院研究人员基于BSD二元猜测图(Binary Speculation Diagram, 简称BSD
)算法设计出来的,5个小时就生成了400万逻辑门,
这个规模比GPT-4能设计的芯片大4000倍。
虽然启蒙1号CPU的规模跟当前的顶级CPU还没法比,但是AI技术的进步飞快,
未来AI设计芯片会成为主流,将极大地提高芯片设计效率。
启蒙1号芯片可以成功运行Linux作业系统及性能对比(CPU-AI为启蒙1号)
团队介绍
自2008年起,中科院计算所便开始长期从事芯片设计和人工智能的交叉研究。其中一项为
人熟知的产出就是人工智能芯片寒武纪。
而在面向芯片设计的人工智能方法上,中科院计算所也已有十多年的积累,并且从未停止
探索如何用人工智能方法使得芯片设计完全自动化。
依托中国科学院计算技术研究所建立的处理器芯片全国重点实验室,是中国科学院批准正
式启动建设的首批重点实验室之一,并被科技部遴选为首批 20个标杆全国重点实验室,
2022年5月开始建设。其中,实验室学术委员会主任为孙凝晖院士,
实验室主任为陈云霁研究员。
实验室近年来获得了处理器芯片领域首个国家自然科学奖等6项国家级科技奖励;在处理
器芯片领域国际顶级会议发表论文的数量长期列居中国第一;在国际上成功开创了深度学
习处理器等热门研究方向;孵化了总市值数千亿元的国产处理器产业头部企业。
使用ChatGPT设计的芯片
日前,国际上也有使用ChatGPT设计芯片的尝试。纽约大学 Tandon 工程学院的研究人员
使用简单的英语“对话”与 AI 模型制造了一个微处理芯片,这是一项史无前例的成就,
可以加快芯片开发速度,更重要的是这将允许没有专业技术技能的个人设计芯片。
两名硬件工程师使用标准英语与ChatGPT-4“交谈”,并设计了一种新型的微处理器架构
。研究团队和 ChatGPT 设计的芯片并不是一个完整的处理器,它是整个 CPU 的一个部分
:负责创建一个新颖的基于 8 位元累加器的微处理器架构的逻辑。该芯片随后被送往
Skywater 130 nm 光刻机上进行制造。该团队声称,这项研究标志着 LLM 设计的 IC 首
次真正投入生产。
该团队使用 125 条消息成功创建了他们的 IC
累加器本质上是寄存器(内存),其中存储中间计算的结果,直到主计算完成。但它们
是 CPU 工作方式不可或缺的一部分;也许还可以设计其他必要的单元。这一成果表明,
未来成为 EDA 设计师的知识门槛要低得多。也许有一天,足够多的 CPU 碎片会被公开,
这样更多的ChatGPT用户将可以在家里设计他们的 CPU 架构。
研究人员使用商业和公开可用的大型语言模型 (LLM) 来研究八个硬件设计示例,在工程
师和 LLM 之间的即时来回交互中,通过纯英文文本处理其 Verilog (HDL) 等效。
“这项研究产生了我们认为是第一个完全由 AI 生成的 HDL,用于制造物理芯片,”纽约
大学 Tandon 的研究助理教授兼研究团队成员 Hammond Pearce 博士说。“一些人工智能
模型,如 OpenAI 的 ChatGPT 和谷歌的 Bard,可以生成不同程式设计语言的软件代码,
但它们在硬件设计中的应用尚未得到广泛研究。这项研究表明 AI 也可以使硬件制造受益
,尤其是当它被用于对话时,你可以通过一种有来有往的方式来完善设计。”
从这个实验中,该团队得出结论,
ChatGPT 确实可以将功能芯片设计为现实世界的解决方案。
==
心得:
有人说 2023年 才做出 486 有什么好怕?
但这是在无人干涉下 让 AI 自动迭代出来
就如同深度学习一样 目标(准度)没达到 再加更多迭代就好
怕了吧
User: 在 AI 极度普及的未来,有没有可能用类似 chatGPT 的使用方式,
设计出比美现在顶极效能的 CPU?
chatGPT: 在 AI普及的未来,技术的发展可能会带来一些突破,但是要设计出比现今顶尖效能的CPU
更加困难。ChatGPT是一种基于GPT-3.5模型的语言模型,并不是设计用于处理通用计算或
执行特定任务的处理器。
现在的顶尖效能CPU(例如在超级电脑或数据中心使用的处理器)是由专业的半导体公司
进行设计和制造的,他们投入了大量的时间、资源和专业知识,并且依赖于多个特殊化的
设计技术和流程。这些顶级CPU的设计需要考虑到高性能运算、能耗效率、散热管理、并
且要兼容各种软件和硬件。
AI技术的发展确实可能会对未来处理器的设计和性能产生影响。例如,将来可能会出现专
为AI运算优化的处理器架构,以更好地支援AI相关任务。已经有一些类似的产品,如
Google的TPU(Tensor Processing Unit)和NVIDIA的GPU(Graphics Processing Unit)
,专为加速机器学习和深度学习任务而设计。这些专用的硬件设计在处理AI相关工作时通
常比通用CPU更有效率。
因此,未来的处理器可能会利用AI技术和相关的硬件加速器进行优化,以提供更好的性能
和效能。但是,要设计出比现在顶尖效能的CPU更加困难,因为它涉及到众多复杂的工程
和物理问题。无论如何,技术的进步和创新总是令人期待的,未来可能会带来一些意想不
到的突破和改变。
Bing: 您好,这是必应。感谢您的提问。
根据我的搜索结果,目前还没有用类似 chatGPT 的方式设计出比现在顶级效能的 CPU 的
案例。但是,有一些研究和专案正在探索 AI 在 CPU 设计中的应用和潜力。
例如,中科院计算所等机构推出了世界首个完全由 AI 设计的 CPU 芯片,不仅比目前
GPT-4 所能设计的电路规模大了 4000 倍,而且性能也达到了与 Intel 486 相当的水准1

另外,英特尔® 至强® 可扩展处理器配备了内置的 AI 引擎,可以全面提升 AI 流水线
性能,支援从资料预处理、经典机器学习,到语言处理和图像识别等深度学习模型。它们
还利用了英特尔® 高级矩阵扩展(Intel®Advanced Matrix Extensions,英特尔® AMX
)和英特尔® 深度学习加速技术(Intel®Deep Learning Boost,英特尔® DL Boost)
等技术来加速深度学习训练和推理2。
我认为,在 AI 极度普及的未来,使用类似 chatGPT 的方式设计 CPU 是有可能的,但也
需要解决一些技术和成本的挑战。我希望这些资讯对您有说明。如果您有其他问题,请随
时提问。
Claude: 这是一个很有趣的想法。理论上,如果AI系统具有足够的计算能力和对半导体设计的深入
理解,它就有可能设计出比目前最高效能的CPU更强大的处理器。但是,实现这一目标还面
临着许多挑战:
处理器设计是一项非常复杂的工程,需要对电子工程,物理和计算机架构等领域有深入的理
解。目前的AI系统的知识还远远不能满足这些要求。
处理器设计需要大量的创造性和直觉,需要在不同的设计选择和取舍中作出判断。这需要
一种更加通用和灵活的人工智能,而不是像GPT这样靠大量数据训练的模型。
处理器的设计和验证过程需要对真实世界的理解。例如需要考虑制造工艺,测试处理器的
可靠性和性能等,这需要机器具有对实际世界更好的理解能力。
目前的AI系统都只能在软件层面运作,实际的硬件设计和验证还需要人类工程师的参与。
要实现全自动的AI芯片设计,还需要突破AI系统与物理世界的联系。
所以,尽管这是一个非常有前景的方向,但要实现像GPT那样的AI系统设计超高效能的处理
器,还有很长的路要走。需要AI技术在许多方面的进步,特别是通用学习,对真实世界的理
解,以及与物理系统的结合等。

Links booklink

Contact Us: admin [ a t ] ucptt.com