【速度快10倍,成本降一个数量级!#英伟达发布ChatGPT专用GPU#】#AI的iPhone时刻已经到来#北京时间3月21日晚,图形芯片巨头英伟达(Nvidia)召开2023年GTC大会,其创始人兼CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能)视频的芯片L4,以及AI超级计算服务DGX Cloud等。
在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。
“生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。
3月21日美股收盘,英伟达涨1.15%,报收261.99美元/股。
【H100 NVL:速度快10倍,成本降低一个数量级】
去年11月,OpenAI推出基于大型语言模型(LLM)的聊天机器人ChatGPT,这一技术引发各界关注,随后微软、谷歌等科技公司在AI领域展开角逐。
在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。
H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。
与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。
“加速计算并非易事。”黄仁勋举例,2012年计算机视觉模型AlexNet动用了GeForce GTX 580,每秒可处理262 PetaFLOPS,该模型引发了AI技术的爆炸。而十年之后,随着Transformer的出现,GPT-3动用323 ZettaFLOPS的算力,是AlexNet的100万倍。
此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。
在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。
“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。
【DGX Cloud:每月3.7万美元,让任何企业都能构建AI能力】
在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGX Cloud。
黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端人工智能DGX Cloud,未来企业可以按月租、通过浏览器使用DGX Cloud集群,快速轻松地扩展大型多节点AI训练。DGX Cloud起价为每个实例每月36999美元。
“这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。
据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。NVIDIA Networkin 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。
目前英伟达已经与甲骨文展开合作,预计微软Azure在下个季度将会开始托管DGX Cloud,未来谷歌云也将加入托管行列。
值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。
对于英伟达带来的产品,金融机构Rosenblatt Securities的半导体分析师Hans Mosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”
在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。
“生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。
3月21日美股收盘,英伟达涨1.15%,报收261.99美元/股。
【H100 NVL:速度快10倍,成本降低一个数量级】
去年11月,OpenAI推出基于大型语言模型(LLM)的聊天机器人ChatGPT,这一技术引发各界关注,随后微软、谷歌等科技公司在AI领域展开角逐。
在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。
H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。
与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。
“加速计算并非易事。”黄仁勋举例,2012年计算机视觉模型AlexNet动用了GeForce GTX 580,每秒可处理262 PetaFLOPS,该模型引发了AI技术的爆炸。而十年之后,随着Transformer的出现,GPT-3动用323 ZettaFLOPS的算力,是AlexNet的100万倍。
此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。
在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。
“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。
【DGX Cloud:每月3.7万美元,让任何企业都能构建AI能力】
在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGX Cloud。
黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端人工智能DGX Cloud,未来企业可以按月租、通过浏览器使用DGX Cloud集群,快速轻松地扩展大型多节点AI训练。DGX Cloud起价为每个实例每月36999美元。
“这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。
据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。NVIDIA Networkin 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。
目前英伟达已经与甲骨文展开合作,预计微软Azure在下个季度将会开始托管DGX Cloud,未来谷歌云也将加入托管行列。
值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。
对于英伟达带来的产品,金融机构Rosenblatt Securities的半导体分析师Hans Mosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”
社会的发展远比人们想象的更加迅猛激烈。
应用于各行各业。
最近chatGPT特别的火。
下载了无界ai进行创作。
我觉得很美,虽然它的生成图片漏洞百出,但是不影响整体画面的美感。
如果是个牛逼的画师,那么他可以直接把生成的各式各样的图作为她or他的灵感反映堆,进行二次创作深加工,富裕更加的美感和细节。
但是对于勤勤恳恳没有什么创造力只想混口饭的肝画师们,我想无疑是毁灭性打击。
但是我觉得任何事物都是双刃剑,有好有坏,肯定也有可以利用到的地方。但是怎么运用怎么去创作因人而异,处在这种极端爆炸式信息发展,又各种疫情肆虐的时代。真是觉得渺如尘埃夸克,但是又有啥办法呢?
世界这么多的人口,有多少人可以接触和应用呢?也许三分之一都没有,多元化的人口分布其实也像chatGPT它的根系是繁冗庞大的,每一根枝叉需求也不同,但是每一根枝杈上可能又有零星的相同的点。
我就属于底层微小根系里喜欢美术的一个小点,一级一级的上面还有很多大点,虽然没有什么连接,但是有共同的爱好,其实还是有连接,这链接应该怎么描述?叫做“量子力学的纠缠态”?
我觉得比较像阿拉善吴向荣说的一句话,植物的所有根系是链接在一起的,虽然它们远隔千山万水,但是他们的根系是相连的,可以互相感知。所以一棵苗扎根成树很快就会变成林。窦文涛说有点阿凡达的意思。
我觉得可能就是这种状态。
应用于各行各业。
最近chatGPT特别的火。
下载了无界ai进行创作。
我觉得很美,虽然它的生成图片漏洞百出,但是不影响整体画面的美感。
如果是个牛逼的画师,那么他可以直接把生成的各式各样的图作为她or他的灵感反映堆,进行二次创作深加工,富裕更加的美感和细节。
但是对于勤勤恳恳没有什么创造力只想混口饭的肝画师们,我想无疑是毁灭性打击。
但是我觉得任何事物都是双刃剑,有好有坏,肯定也有可以利用到的地方。但是怎么运用怎么去创作因人而异,处在这种极端爆炸式信息发展,又各种疫情肆虐的时代。真是觉得渺如尘埃夸克,但是又有啥办法呢?
世界这么多的人口,有多少人可以接触和应用呢?也许三分之一都没有,多元化的人口分布其实也像chatGPT它的根系是繁冗庞大的,每一根枝叉需求也不同,但是每一根枝杈上可能又有零星的相同的点。
我就属于底层微小根系里喜欢美术的一个小点,一级一级的上面还有很多大点,虽然没有什么连接,但是有共同的爱好,其实还是有连接,这链接应该怎么描述?叫做“量子力学的纠缠态”?
我觉得比较像阿拉善吴向荣说的一句话,植物的所有根系是链接在一起的,虽然它们远隔千山万水,但是他们的根系是相连的,可以互相感知。所以一棵苗扎根成树很快就会变成林。窦文涛说有点阿凡达的意思。
我觉得可能就是这种状态。
创业趋势:2023年值得关注的3个AI新兴技术
福卡智库对多家企业课题咨询成果再提升,梳理出3个AI新兴技术:
1.AIGC(人工智能生产内容)的模式创新。AIGC真正的机会,不只是生成内容的工具,而是一种模式创新。这意味着以AI为基础的大量新兴业务模式、大量新兴公司会批量式出现
1.1对企业来说,AIGC是探索业务模式创新的一个抓手
1.2对个人来说,AIGC是提升创造力的抓手。如使用ChatGPT增加灵感和对知识的获取,增强个人的职业竞争力。
1.2.1最大受益者不是AIGC技术的发明人,而是把AIGC技术用到极致的人群
2.智能交通的服务商。智能交通是未来智能社会的一种交通出行技术。而“智能交通”广泛应用的前提在于实现自动驾驶汽车的商业化运营
2.1交通出行呈现智能化和服务化。智能化——汽车越来越聪明,比如辅助驾驶技术、车内智能。服务化——出现“交通出行服务商”,按服务收费
3.服务机器人的规模化。服务机器人的商业模式不是吸引流量,而是找到可替代的职业,规模化地提供相对个性的服务。如生产酒店机器人的“云迹”,可以替代酒店的送货服务员
(此文来自福卡智库文章)
福卡智库对多家企业课题咨询成果再提升,梳理出3个AI新兴技术:
1.AIGC(人工智能生产内容)的模式创新。AIGC真正的机会,不只是生成内容的工具,而是一种模式创新。这意味着以AI为基础的大量新兴业务模式、大量新兴公司会批量式出现
1.1对企业来说,AIGC是探索业务模式创新的一个抓手
1.2对个人来说,AIGC是提升创造力的抓手。如使用ChatGPT增加灵感和对知识的获取,增强个人的职业竞争力。
1.2.1最大受益者不是AIGC技术的发明人,而是把AIGC技术用到极致的人群
2.智能交通的服务商。智能交通是未来智能社会的一种交通出行技术。而“智能交通”广泛应用的前提在于实现自动驾驶汽车的商业化运营
2.1交通出行呈现智能化和服务化。智能化——汽车越来越聪明,比如辅助驾驶技术、车内智能。服务化——出现“交通出行服务商”,按服务收费
3.服务机器人的规模化。服务机器人的商业模式不是吸引流量,而是找到可替代的职业,规模化地提供相对个性的服务。如生产酒店机器人的“云迹”,可以替代酒店的送货服务员
(此文来自福卡智库文章)
✋热门推荐