深圳市凯信扬科技有限公司

(非本站正式会员)

深圳市凯信扬科技有限公司

营业执照:已审核经营模式:贸易/代理/分销所在地区:广东 深圳

收藏本公司 人气:69465

企业档案

  • 相关证件:营业执照已审核 
  • 会员类型:普通会员
  •  
  • 李小姐 QQ:3023723950
  • 电话:0755-82518059
  • 手机:19158027589
  • 张先生 QQ:872328909
  • 手机:13286652281
  • 李先生 QQ:2497384761
  • 手机:17872821680

您的当前位置:

深圳市凯信扬科技有限公司 > 新闻动态 > 深度解读特斯拉自研芯片架构

深度解读特斯拉自研芯片架构

发布时间: 2022/8/25 10:12:30 | 91 次阅读

对于一家自动驾驶电动汽车制造商来说,花费数亿美元从头开始创建自己的人工智能超级计算机,超大规模人工智能训练的成本和难度有多大?公司创始人必须多么自负和肯定才能组建一支能够做到这一点的团队?


像许多问题一样,当您准确地提出这些问题时,他们往往会自己回答。很明显,SpaceX 和特斯拉的创始人兼 OpenAI 联盟的联合创始人埃隆马斯克没有时间或金钱浪费在科学项目上。


就像世界上的超级大国低估了完全模拟核导弹及其爆炸所需的计算能力一样,也许自动驾驶汽车的制造商开始意识到,在复杂的世界中教汽车自动驾驶这种情况总是在变化,这将需要更多的超级计算。一旦你接受了这一点,你就可以从头开始,建造合适的机器来完成这项特定的工作。


简而言之,这就是特斯拉的 Project Dojo 芯片、互连和超级计算机工作的全部内容。


在Hot Chips 34大会上,曾在Dojo超级计算机上工作的芯片、系统和软件工程师首次公开了该机器的许多架构特性,并承诺将在特斯拉AI日上谈论Dojo系统的性能。


Emil Talpes 在 AMD 工作了近 17 年,研究各种 Opteron 处理器以及命运多舛的“K12”Arm 服务器芯片,他介绍了他的团队创建的 Dojo 处理器。Debjit Das Sarma 则同期在 AMD 担任 CPU 架构师,他在演讲中受到赞誉,目前是特斯拉的自动驾驶硬件架构师,Douglas Williams 也是如此,我们对他一无所知。这家汽车制造商的shou席系统工程师 Bill Chang 在 IBM Microelectronics 工作了 15 年,设计 IP 模块并致力于制造工艺,然后帮助 Apple 将 X86 处理器转移到自己的 Arm 芯片上,而Rajiv Kurian一开始在特斯拉工作,然后在Waymo工作。据我们所知,在去年 8 月的 Tesla AI Day 1 上发言特斯拉自动驾驶硬件gao级总监Ganesh Venkataramanan负责Dojo项目。过去十五年里,Venkataramanan 还是 AMD CPU 设计团队的ling导者。


所以以一种奇怪的方式,Dojo 代表了一个可替代的人工智能未来,如果特斯拉来帮助从头开始设计定制的人工智能超级计算机,从全新he心内核中的向量和整数单元一直到一个完整的 exascale 系统,专为 AI 训练用例的规模化和易于编程而设计。


与来自 AI 初创公司的许多其他相对较新的平台一样,Dojo 设计优雅而彻底。zui引人注目的是特斯拉工程师在关注规模时抛出的东西。


“我们应用定义的目标是可扩展性,”Talpes 在演讲结束时解释道。“我们不再强调典型 CPU 中的几种机制,例如一致性、虚拟内存和全局查找目录,因为当我们扩展到非常大的系统时,这些机制不能很好地扩展。相反,我们依赖于整个网格中非常快速且非常分布式的 SRAM 存储。与典型分布式系统相比,互连速度高出一个数量级。”


基于此,让我们深入了解 Dojo 架构。


根据 Talpes 的说法,Dojo he心有一个整数单元,它从 RISC-V 架构中借用了一些指令,并且有一大堆特斯拉自己创建的附加指令。矢量数学单元“主要由特斯拉从头开始实现”,Talpes 没有详细说明这意味着什么。他确实补充说,这个自定义指令集针对运行机器学习内核进行了优化,我们认为这意味着它不会很好地运行孤岛危机。

Dojo 指令集支持 64 位标量指令和 64 B SIMD 指令,它包括处理从本地内存到远程内存传输数据的原语(primitives),并支持信号量(semaphore)和屏障约束( barrier constraints),这是使内存操作符合指令不仅在 D1 内核中运行,而且在 D1 内核的集合中运行。至于特定于 ML 的指令,有一组通常在软件中完成的 shuffle、transpose 和 convert 指令,现在蚀刻在晶体管中,he心还进行随机舍入( stochastic rounding ),可以进行隐式 2D 填充(implicit 2D padding),即通常通过在一条数据的两侧添加零来调整张量来完成。


Talpes 明确表示,D1 处理器是我们推测的 Dojo 芯片和系统系列中的di一个,是“高吞吐量、通用 CPU”,它本身并不是加速器。或者更准确地说,Dojo 的架构旨在加速自身,而不需要一些外部设备来完成。


每个 Dojo 节点都有一个内核,是一台具有 CPU 专用内存和 I/O 接口的成熟计算机。这是一个重要的区别,因为每个内核都可以做自己的事情,而不依赖于共享缓存或寄存器文件或任何东西。


D1 是一个超标量(superscalar)内核,这意味着它在其内核中支持指令级并行性,就像当今大多数芯片一样,它甚至具有多线程设计来驱动更多指令通过该内核。但是多线程更多的是每时钟做更多的工作,而不是拥有可以将独立的 Linux 实例作为虚拟机运行的独立线程,因此同步多线程 (SMT) 的 Dojo 实现没有虚拟内存,保护机制有限,并且Dojo 软件堆栈和应用程序管理芯片资源的分配。


D1 内核是一个 64 位处理器,具有 32 B 的取指窗口( fetch window),zui多可容纳 8 条指令;一个八宽解码器每个周期可以处理两个线程。这个前端馈入( front end feeds into)一个四宽标量调度器(four-wide scalar schedule),该调度器具有四路 SMT,它有两个整数单元、两个地址单元和一个用于每个线程的寄存器文件。还有一个带有四路 SMT 的两侧向量调度器,它馈送到一个 64 B 宽的 SIMD 单元或四个 8x8x4 矩阵乘法单元。


每个 D1 内核都有一个 1.25 MB 的 SRAM,这是它的主存储器。它不是缓存,如果有的话,挂在更大的 Dojo 网络上的 DDR4 内存被视为比其他任何东西都更像大容量存储。该 SRAM 可以以 400 GB/秒的速度加载并以 270 GB/秒的速度存储,并且该芯片具有明确的指令,可以将数据移入或移出 Dojo 机器中其他内核的外部 SRAM 存储器。嵌入在该 SRAM 中的是一个列表解析器引擎(list parser engine),该引擎馈入解码器对和一个收集引擎(gather engine),馈入向量寄存器文件,它们一起可以将信息发送到其他节点或从其他节点获取信息,而无需像与其他 CPU 架构。


这个列表解析功能是 Dojo 芯片设计独有的关键特性之一:

这本质上是一种封装不同数据位的方法,以便可以在系统中的 D1 内核之间高效传输。


D1 内核支持多种数据格式。标量单元支持 8、16、32 或 64 位的整数,而向量单元及其关联的矩阵单元支持多种数据格式,具有精度和数值范围的混合,其中不少是动态的可由 Dojo 编译器组合。

Talpes 指出,FP32 格式比 AI 训练应用的许多部分所需的精度和范围更广,IEEE 指定的 FP16 格式没有足够的范围覆盖神经网络中的所有处理层;相反,Google Brain 团队创建的 Bfloat 格式范围更广,但精度更低。因此,Tesla 不仅提出了用于较低精度和更高吞吐量矢量处理的 8 位 FP8 格式,而且还提出了一组可配置的 8 位和 16 位格式,Dojo 编译器可以在尾数的精度附近滑动和上图所示的指数,以涵盖更广泛的范围和精度。在任何给定时间,zui多可以使用 16 种不同的矢量格式,但每个 64 B 数据包必须属于同一类型。


在图的右上角,您将看到片上网络路由器( network on chip router),它将多个he心连接在一起形成一个 2D 网格。NOC 可以处理跨节点边界的 8 个数据包(boundary),每个方向 64 B,每个时钟周期,即在所有四个方向上一个数据包输入和一个数据包输出到网格中每个he心zui近的邻居。该路由器还可以在每个周期对本地 SRAM 进行yi次 64 B 读取和yi次 64 B 写入,因此可以在内核之间移动数据。


这些都在在D1 he心上完成所有蚀刻,是由其代工合作伙伴台积电以 7 纳米工艺完成的。之后,特斯拉开始复制 D1 he心并将它们互连网格,像这样:

十几个 D1 he心排列成一个本地块,创建了一个 18 he心乘 20 he心的二维阵列,但由于某种原因,只有 354 个 D1 he心可用。D1 芯片以 2 GHz 运行,在这些内核上共有 440 MB 的 SRAM,在 BF16 或 CFP8 上提供 376 teraflops,在 FP32 上提供 22 teraflops。向量单元中没有 FP64 支持。如此多的 HPC 工作负载无法在此 D1 芯片上运行,一些使用 64 位矢量数学的 AI 应用也不会。特斯拉不需要关心——它只需要运行自己的人工智能应用程序,如果它想在 D2 或 D3 芯片上添加 FP64 支持来运行其 HPC 模拟和建模工作负载,以便马斯克的公司可以设计宇宙飞船和汽车,好吧,在完成所有这些工作之后,这相当容易。


D1 die 有 576 个双向 SerDes 通道,围绕在 die 周围以链接到其他 D1 die,并且 D1 die 的所有四个边缘的带宽为 8 TB/秒。这些芯片重达 645 平方毫米,可通过这些 SerDes 无缝连接到特斯拉所谓的 Dojo 训练模块中。像这样:


训练tile采用 25 个已知良好的 D1 裸片,并将它们打包成一个 5?5 阵列,相互连接。训练tile的外部边缘在 40 个 I/O 芯片上实现了 36 TB/秒的聚合带宽;这是 2D 网格的网格的二分带宽的一半,它跨越了 tile 内的 D1 芯片。该tile具有 10 TB/秒的块上二分带宽,以及跨内核的 11 GB SRAM 内存。每个 tile 提供 9 petaflops 的 BF16/CFP8 魅力。


那些Dojo训练tile消耗15千瓦,显然是水冷的,它们的设计使得多个训练tile可以与相邻tile互连。目前尚不清楚这是如何发生的,但很明显,您需要一排相互连接的tile,水平或垂直方向,而不是带有几个设备托盘的单独机架,然后需要某种巨大比例的光缆或电缆,围绕在tile之间承载数据。垂直工作