特斯拉发布D1 Chip,很小的体积(大小见图2),单个算力达到362TFLOPs,7nm工艺。
把25个D1 Chip组合起来就可以形成高带宽高性能的Training Tile,算力达到9 PFLOPs,单面9TB/s的带宽,总带宽到36TB/s。可以完成自主供能和散热,大小可以抱到手上(图4)。
再把更多(理论上是无限)Training Tile组和起来就是超级计算机Dojo,Dojo 支持无限连接,理论上性能无上限。这次特斯拉推出的机柜模型由 120 个训练模块组成,内置 3000 个 D1 芯片,超过 100 万个训练节点,算力将达到 1.1 EFLOPS。
把25个D1 Chip组合起来就可以形成高带宽高性能的Training Tile,算力达到9 PFLOPs,单面9TB/s的带宽,总带宽到36TB/s。可以完成自主供能和散热,大小可以抱到手上(图4)。
再把更多(理论上是无限)Training Tile组和起来就是超级计算机Dojo,Dojo 支持无限连接,理论上性能无上限。这次特斯拉推出的机柜模型由 120 个训练模块组成,内置 3000 个 D1 芯片,超过 100 万个训练节点,算力将达到 1.1 EFLOPS。
正在看#特斯拉AI日# 的直播,帮大家划重点:
1、特斯拉机器人:明年将展示模型机器人,目前正在研发中。机器人借用了自动驾驶相关的人工智能技术,能够完成一些复杂任务,包括上街买菜、捡拾物品和其他日常指令。机器人身高 1.72 米,体重56.6公斤,脸上有一个屏幕,可以显示信息。四肢使用 40 个制动器进行操作,有两只脚,并有力反馈感应,以实现平衡和敏捷的动作。
2、特斯拉自研的D1芯片:基于7nm工艺,晶体管数量500亿个,内建354个训练节点,仅内部的电路就长达17.7公里。BF16精度下算力高达362TFLOPs,片上带宽10TBps/dir,功耗400W。马斯克也说了,不太可能开源特斯拉AI芯片。
3、Dojo超级计算机:特斯拉自己的人工智能训练计算机芯片。本质上是由训练模块组建而成的超级计算机,由于训练模块具备独立运行的能力,并且支持无限连接,所以Dojo的性能理论上无上限。而特斯拉推出的机柜模型则由120个训练模块组建而成,内置3000个D1芯片,超过100万个训练节点,算力达到1.1 EFLOP。
4、Dojo训练模块:由25个D1芯片组成,算力高达9PFLOPs(9千万亿次),接口带宽36TB/s。当然,考虑到这玩意太耗电,且发热很厉害,为此采用了集中供电和散热设计,散热能力15kW。
5、自动驾驶算法训练:视频来自50个国家收集的数据,不同国家的交通法规有所不同,但有一个可以共用的算法原则,就是避免碰撞。
1、特斯拉机器人:明年将展示模型机器人,目前正在研发中。机器人借用了自动驾驶相关的人工智能技术,能够完成一些复杂任务,包括上街买菜、捡拾物品和其他日常指令。机器人身高 1.72 米,体重56.6公斤,脸上有一个屏幕,可以显示信息。四肢使用 40 个制动器进行操作,有两只脚,并有力反馈感应,以实现平衡和敏捷的动作。
2、特斯拉自研的D1芯片:基于7nm工艺,晶体管数量500亿个,内建354个训练节点,仅内部的电路就长达17.7公里。BF16精度下算力高达362TFLOPs,片上带宽10TBps/dir,功耗400W。马斯克也说了,不太可能开源特斯拉AI芯片。
3、Dojo超级计算机:特斯拉自己的人工智能训练计算机芯片。本质上是由训练模块组建而成的超级计算机,由于训练模块具备独立运行的能力,并且支持无限连接,所以Dojo的性能理论上无上限。而特斯拉推出的机柜模型则由120个训练模块组建而成,内置3000个D1芯片,超过100万个训练节点,算力达到1.1 EFLOP。
4、Dojo训练模块:由25个D1芯片组成,算力高达9PFLOPs(9千万亿次),接口带宽36TB/s。当然,考虑到这玩意太耗电,且发热很厉害,为此采用了集中供电和散热设计,散热能力15kW。
5、自动驾驶算法训练:视频来自50个国家收集的数据,不同国家的交通法规有所不同,但有一个可以共用的算法原则,就是避免碰撞。
#特斯拉AI日# 特斯拉Dojo超级计算机芯片命名为“D1”,基于7纳米工艺,晶体管数量500亿个,内建354个训练节点,仅内部的电路就长达17.7公里。核心算力构成类似于电池组:芯片-运算单元-矩阵-超级计算机运算核心。Dojo训练模块,由25个D1芯片组成,算力高达9PFLOPs(9千万亿次),接口带宽36TB/s。Dojo达到目前已知算力的2.5到2.6倍,下一代超级计算机预计有10倍以上提升。
✋热门推荐