是的 每个人每段感情 我觉得太在意一个人 一段感情患得患失 会莫名其妙不受控制的 极度情绪不稳定的 除了确定对方会一直陪伴在身边 情绪才能稳定 其实有个情绪不稳定的爱人 相处很累 如果会感受到 痛 和 生气 吗 痛就对了 因为太在乎了太爱了 当你对这个人没感觉 其实她做什么说什么 都激不起你的 影响不了你的情绪 当你不再搜索对方的社交软件 没有任何波澜 对方已经不存在你的世界里了 其实我觉得太冷漠的人她们心中都没太啥感情 很容易就转移代替取代爱人 其实这种感情心理是真好 不会痛苦太久
:《刀马旦》by Coco李玟
————————0314午间分享————————
节日在现有世界内都是绝大多数商家“鼓动”消费的理由。
如果每天都有能够“热闹”的理由,天天都有热度搜索词,那就是商家的财富之源。
理解热度、制造热度、利用热度。
产业相关人员也去售卖自己的情绪:
稍微暴露些“打破下限”的小说的环境设定,或者半真半假地“嬉笑怒骂”。
每日整点热点事件,方便炒作。调动人们的激烈讨论、积极传播。而传播存在价值。
最后看在钱财的面子上,总有可被缓解的余地。(这行为,某行业应该更熟。可发挥优势
商家还是有“谨慎”炒作的节日。比如一一清明节。(祭奠类节日)
以此为灵感,创作叫做“情人节”娱乐、炒作的故事素材。
————创作心态————
社会生活还是进步了,至少从互动式无下限行为描述变成了个人生理特点表述。
相关群体的无下限行为和群体性认知,这使得有权威的平台是他们必备的要素。
这是此然存在的。现在信息的获取方式很多,再权威的数据也是参考的一种方式。
权威立场的自身进化,这是在名利场上走钢丝,必然存在和其他立场的交涉(简称,权利争夺。)
因此,社会力量也是他们必须考虑的元素。(有用才有价值)(这经历,有些人还挺熟)
现在信息获取方式很多,再权威的数据也是参考的一种方式,。
权威立场的自身进化,这是在名利场上走钢丝,必然存在和其他立场的交涉(简称,权利争夺。)
社会力量也是他们必须考虑的元素。(有用才有价值)(这经历,我还挺熟,)
————个人生活————
在争夺的场合,人会找到更利于自己存在的舒适的角度。
比如,人要把要做的事情做到极致。认真记录过程,提供相关的数据,基于社会相应的工作标准。
那些伤害自己的、亲者恨、仇者快的破事。这也是社会宣传的热点之一,对社会价值非常划算。
如果最后真的出了生命的事故,这件事最大的价值。是各方力量基于新兴力量展示肌肉的机会。
之后迎来收尾工作:引起混乱,还能再有一波社会的骚动,又有了特殊行业的大批的维持和平的工作机会。
(这破事,我也尝试过4到5种不同的方式)
事实一一生命的价值确实可以被计算,且是人们可以担负的“责任”。
人既然还能看到信息,那就继续制造相应的互联网热度。
(与其内耗自己,不如胡说八道。)
————小说独白————
有些人实在是太倒霉了。在人生的最低谷。
利益使社会把相关资源倾倒给最闲的人。
人因为社会利益,变得越来越方便,变得越来越闲。
人和环境相互作用,变成了“废物制造机”。
人挣扎过三四遍,现在是躺平状态。
生老病死,是人类消费活动的积极探索。
以年轻人现在的人生节奏,来研究人生的下一步的大型经济活动一一结婚。让人们对未来进行积极的设想。
(设想)
阳世上,被谁祸害性命都是一样的结果。
那就热闹些,采取过情人节新方法一一冥婚。(和鬼魂结婚)
以“废物”现在生活的状态,冥婚得找个“厉鬼”。这样,用神秘力量解决神秘力量。
婚后,再有人来惹事生非,让契约发挥作用,让人心惊胆战(也是情绪类操作)。
日常生活也能适应现在的经济规律。谁有消费项目要来“合作”。他们得先去给“鬼伴侣”烧香祭祀,认大哥、拜香火。这还能带动消费,宣传传统文化。
这样,还顺带把“清明节”变成了下一个消费热点时期。(积极带动消费)
一举多得。
(情人节特别更新)
(又是一个热点话题)
————————0314午间分享————————
节日在现有世界内都是绝大多数商家“鼓动”消费的理由。
如果每天都有能够“热闹”的理由,天天都有热度搜索词,那就是商家的财富之源。
理解热度、制造热度、利用热度。
产业相关人员也去售卖自己的情绪:
稍微暴露些“打破下限”的小说的环境设定,或者半真半假地“嬉笑怒骂”。
每日整点热点事件,方便炒作。调动人们的激烈讨论、积极传播。而传播存在价值。
最后看在钱财的面子上,总有可被缓解的余地。(这行为,某行业应该更熟。可发挥优势
商家还是有“谨慎”炒作的节日。比如一一清明节。(祭奠类节日)
以此为灵感,创作叫做“情人节”娱乐、炒作的故事素材。
————创作心态————
社会生活还是进步了,至少从互动式无下限行为描述变成了个人生理特点表述。
相关群体的无下限行为和群体性认知,这使得有权威的平台是他们必备的要素。
这是此然存在的。现在信息的获取方式很多,再权威的数据也是参考的一种方式。
权威立场的自身进化,这是在名利场上走钢丝,必然存在和其他立场的交涉(简称,权利争夺。)
因此,社会力量也是他们必须考虑的元素。(有用才有价值)(这经历,有些人还挺熟)
现在信息获取方式很多,再权威的数据也是参考的一种方式,。
权威立场的自身进化,这是在名利场上走钢丝,必然存在和其他立场的交涉(简称,权利争夺。)
社会力量也是他们必须考虑的元素。(有用才有价值)(这经历,我还挺熟,)
————个人生活————
在争夺的场合,人会找到更利于自己存在的舒适的角度。
比如,人要把要做的事情做到极致。认真记录过程,提供相关的数据,基于社会相应的工作标准。
那些伤害自己的、亲者恨、仇者快的破事。这也是社会宣传的热点之一,对社会价值非常划算。
如果最后真的出了生命的事故,这件事最大的价值。是各方力量基于新兴力量展示肌肉的机会。
之后迎来收尾工作:引起混乱,还能再有一波社会的骚动,又有了特殊行业的大批的维持和平的工作机会。
(这破事,我也尝试过4到5种不同的方式)
事实一一生命的价值确实可以被计算,且是人们可以担负的“责任”。
人既然还能看到信息,那就继续制造相应的互联网热度。
(与其内耗自己,不如胡说八道。)
————小说独白————
有些人实在是太倒霉了。在人生的最低谷。
利益使社会把相关资源倾倒给最闲的人。
人因为社会利益,变得越来越方便,变得越来越闲。
人和环境相互作用,变成了“废物制造机”。
人挣扎过三四遍,现在是躺平状态。
生老病死,是人类消费活动的积极探索。
以年轻人现在的人生节奏,来研究人生的下一步的大型经济活动一一结婚。让人们对未来进行积极的设想。
(设想)
阳世上,被谁祸害性命都是一样的结果。
那就热闹些,采取过情人节新方法一一冥婚。(和鬼魂结婚)
以“废物”现在生活的状态,冥婚得找个“厉鬼”。这样,用神秘力量解决神秘力量。
婚后,再有人来惹事生非,让契约发挥作用,让人心惊胆战(也是情绪类操作)。
日常生活也能适应现在的经济规律。谁有消费项目要来“合作”。他们得先去给“鬼伴侣”烧香祭祀,认大哥、拜香火。这还能带动消费,宣传传统文化。
这样,还顺带把“清明节”变成了下一个消费热点时期。(积极带动消费)
一举多得。
(情人节特别更新)
(又是一个热点话题)
今天初创芯片公司Cerebras Systems发布了号称世界上最快的AI芯片WSE-3,配备了高达4万亿个晶体管,通过2048个节点,性能可达256 exaFLOPs。我看了下社区反馈,据说芯片是极其昂贵的,说得最高的高达200万美金(如果2048个节点,那得多少钱)。
不过就像黄仁勋之前说的,芯片是个综合系统(数据中心)的配件,还是要综合成本。于是我查了一下Cerebras Systems的典型客户,其中两家是医药健康公司,还有一家是中东的投资公司。如果大家还有印象的话,我之前发过,Groq(号称最快的AI推理芯片)是和沙特阿美合作的。所以,中东看起来正在腾油换硅,把AI作为石油资源消耗后的重要储备(这也没毛病,不是号称数据和算力是新时代的石油)。
说到与GPU比较,大家自然会想到编程问题。Cerebras说,自己的芯片比GPU更容易编程,假设训练175亿参数的GPT-3,一个GPU需要20507行结合了Python、C/C++、CUDA和其他代码的代码,而WSE-3只需565行代码。不过如果真是这样,那就说明WSE-3是一个专用属性非常强的芯片。如果模型发生变化,那就意味着迁移成本。当然,我也是猜测。
另外,快与否需要再评判,这个芯片大是绝对的。图一是WSE-3和H100的比较,果然是晶圆级芯片。
目前流传较多的是官方新闻,我找了一篇美国科技媒体ZDNet的相对深度报道(观点比较正面,参考阅读)。
**
标题:Cerebras Systems的WSE-3,迄今为止最大的用于生成式AI的芯片
摘要:这款芯片的大小相当于一块完整的半导体晶圆,性能翻倍,能够处理拥有数十万亿参数的大型语言模型。
作者:Tiernan Ray,资深撰稿人 | ZDNet
2024年3月13日上午6:00 PT
Cerebras的WSE-3芯片,几乎与一整块12英寸的半导体晶圆一样大,是世界上最大的芯片,(尺寸)使Nvidia的H100 GPU相形见绌。这家AI初创公司指出,其CS-3计算机运行这款芯片可以处理如GPT-4这样的神经网络,假设参数量为24万亿。
为了不断扩大生成式人工智能模型的竞赛继续推动芯片行业的发展。周三,Cerebras Systems,Nvidia最主要的竞争对手之一,揭幕了“晶圆级引擎3”,即其AI芯片的第三代,也是世界上最大的半导体。
Cerebras在2021年4月发布了WSE-2。其后继产品WSE-3旨在训练AI模型,意味着精细调整它们的神经权重或参数,以优化它们的功能,然后才投入生产。
“性能翻倍,功耗和价格不变,所以这是一个真正的摩尔定律步骤,我们在我们的行业中已经很长时间没有见到过这样的事情了,”Cerebras联合创始人兼首席执行官Andrew Feldman在芯片的新闻发布会上表示,这次发布会在位于加利福尼亚州圣克拉拉的Colovore,这家初创公司的云托管合作伙伴的总部举行。
WSE-3将执行指令的速率翻倍,从62.5 petaFLOPs增加到125 petaFLOPs。一个petaFLOP指的是每秒1,000,000,000,000,000(1万亿)次浮点运算。
像其前代一样,几乎占满了整个12英寸晶圆的WSE-3将其晶体管尺寸从7纳米——十亿分之七米——缩小到5纳米,将晶体管数量从WSE-2的2.6万亿提升到4万亿。世界上最大的合同芯片制造商TSMC正在制造WSE-3。
Cerebras通过仅略微增加片上SRAM的内存容量,从40GB增加到44GB,并将计算核心数量从850,000增加到900,000,保持了逻辑晶体管与内存电路的比例不变。
“我们认为我们现在在计算和内存之间找到了正确的平衡,”Feldman在发布会上说。
与前两代芯片一样,Feldman将WSE-3的巨大尺寸与Nvidia当前的标准进行了比较,在这种情况下是H100 GPU,他在幻灯片中将其称为“这个可怜的,悲哀的部分”。
“它是57倍更大,”Feldman将WSE-3与Nvidia的H100进行比较时说。“它拥有52倍更多的核心。它拥有800倍更多的片上内存。它拥有7000倍更多的内存带宽和超过3700倍更多的布线带宽。这些都是性能的基础。”
“这将是一个真正的摩尔定律步骤,”Feldman说,提到新芯片每秒执行操作数量的翻倍,“我们已经很长时间没有在我们的行业中见到过这样的事情了。”
Cerebras使用额外的晶体管使每个计算核心变得更大,增强了某些功能,例如将“SIMD”能力加倍,这是影响每个时钟周期可以并行处理多少数据点的多处理功能。
这款芯片配备了新版本的机箱和电源供应,CS-3,现在可以聚集到2048台机器,比之前多10倍。这些组合起来的机器可以执行256 exaFLOPs,一千petaFLOPs,或四分之一zetaFLOP。
Feldman说,其CS-3计算机配备WSE-3可以处理理论上拥有24万亿参数的大型语言模型,这比顶尖的生成式AI工具如OpenAI的GPT-4,据传有1万亿参数,高出一个数量级。“整个24万亿参数可以在一台机器上运行,”Feldman说。
明确地说,Cerebras使用一个合成的大型语言模型进行了这种比较,该模型实际上并未经过训练。这只是WSE-3计算能力的一次演示。
Cerebras的机器比GPU更容易编程,Feldman说。为了训练175亿参数的GPT-3,一个GPU需要20507行结合了Python、C/C++、CUDA和其他代码的代码,而WSE-3只需565行代码。
对于原始性能,Feldman通过集群规模比较了训练时间。Feldman说,2048台CS-3的集群可以比Meta的AI训练集群快30倍训练Meta的700亿参数的Llama 2大型语言模型:1天对比30天。
“当你处理这么大的集群时,你可以为每个企业带来超级计算机自己使用的同样的计算能力,”Feldman说,“而且不仅可以做到他们所做的,还可以极大地加快速度。”
Feldman强调了机器的客户,包括G42,一家成立五年的投资公司,总部位于阿拉伯联合酋长国的阿布扎比。
Cerebras正在为G42在德克萨斯州达拉斯的设施“Condor Galaxy 3”工作,这是一个预计到2024年底将达到数十个exaFLOPs的九部分项目的下一部分。
像Nvidia一样,Cerebras目前的需求超过了它能满足的供应,Feldman说。这家初创公司有“大量积压的CS-3订单,横跨企业、政府和国际云。”
Feldman还宣布了与芯片巨头Qualcomm的合作伙伴关系,使用后者的AI 100处理器用于生成式AI的第二部分,即包括在实时流量上做出预测的推理过程。考虑到在生产中运行生成式AI模型的成本与参数计数成正比,Feldman指出,如果地球上的每个人都向它提交请求,运行ChatGPT的年成本可能达到1万亿美元。
这项合作采用了四种技术来降低推理成本。使用所谓的稀疏性,即忽略零值输入,Cerebras的软件可以消除多达80%的不必要计算,Feldman说。第二种技术,推测性解码,使用大型语言模型的一个较小版本进行预测,然后让一个更大的版本检查答案。Feldman解释说,这是因为检查模型的输出比首次产生输出消耗的能量要少。
第三种技术将模型的输出转换为MX6,这是一种编译版本,仅需要Qualcomm AI 100加速器通常所需内存的一半。最后,WSE-3的软件使用网络架构搜索来选择一部分参数进行编译并在AI 100上运行,这同样可以减少计算和内存使用。
这四种方法将Qualcomm芯片上每花费一美元处理的“token”数量提高了一个数量级,Feldman说,其中一个token可以是短语中的一个词的一部分,或者是开发者的“协助编程”中的一段计算机代码。在推理中,“性能等于成本,”Feldman指出。
“我们通过与Qualcomm合作并确保无缝的工作流程,大大减少了你必须花费在如何从你的训练参数过渡到你的生产推理上的时间,”Feldman说。
推理市场被广泛预计将成为AI竞赛中的一个更大焦点,因为推理从数据中心移动到更多的“边缘”设备,包括企业服务器甚至是能源受限设备如移动设备。
“我相信越来越多的简单推理将转移到边缘,而Qualcomm在那里有真正的优势,”Feldman说。
不过就像黄仁勋之前说的,芯片是个综合系统(数据中心)的配件,还是要综合成本。于是我查了一下Cerebras Systems的典型客户,其中两家是医药健康公司,还有一家是中东的投资公司。如果大家还有印象的话,我之前发过,Groq(号称最快的AI推理芯片)是和沙特阿美合作的。所以,中东看起来正在腾油换硅,把AI作为石油资源消耗后的重要储备(这也没毛病,不是号称数据和算力是新时代的石油)。
说到与GPU比较,大家自然会想到编程问题。Cerebras说,自己的芯片比GPU更容易编程,假设训练175亿参数的GPT-3,一个GPU需要20507行结合了Python、C/C++、CUDA和其他代码的代码,而WSE-3只需565行代码。不过如果真是这样,那就说明WSE-3是一个专用属性非常强的芯片。如果模型发生变化,那就意味着迁移成本。当然,我也是猜测。
另外,快与否需要再评判,这个芯片大是绝对的。图一是WSE-3和H100的比较,果然是晶圆级芯片。
目前流传较多的是官方新闻,我找了一篇美国科技媒体ZDNet的相对深度报道(观点比较正面,参考阅读)。
**
标题:Cerebras Systems的WSE-3,迄今为止最大的用于生成式AI的芯片
摘要:这款芯片的大小相当于一块完整的半导体晶圆,性能翻倍,能够处理拥有数十万亿参数的大型语言模型。
作者:Tiernan Ray,资深撰稿人 | ZDNet
2024年3月13日上午6:00 PT
Cerebras的WSE-3芯片,几乎与一整块12英寸的半导体晶圆一样大,是世界上最大的芯片,(尺寸)使Nvidia的H100 GPU相形见绌。这家AI初创公司指出,其CS-3计算机运行这款芯片可以处理如GPT-4这样的神经网络,假设参数量为24万亿。
为了不断扩大生成式人工智能模型的竞赛继续推动芯片行业的发展。周三,Cerebras Systems,Nvidia最主要的竞争对手之一,揭幕了“晶圆级引擎3”,即其AI芯片的第三代,也是世界上最大的半导体。
Cerebras在2021年4月发布了WSE-2。其后继产品WSE-3旨在训练AI模型,意味着精细调整它们的神经权重或参数,以优化它们的功能,然后才投入生产。
“性能翻倍,功耗和价格不变,所以这是一个真正的摩尔定律步骤,我们在我们的行业中已经很长时间没有见到过这样的事情了,”Cerebras联合创始人兼首席执行官Andrew Feldman在芯片的新闻发布会上表示,这次发布会在位于加利福尼亚州圣克拉拉的Colovore,这家初创公司的云托管合作伙伴的总部举行。
WSE-3将执行指令的速率翻倍,从62.5 petaFLOPs增加到125 petaFLOPs。一个petaFLOP指的是每秒1,000,000,000,000,000(1万亿)次浮点运算。
像其前代一样,几乎占满了整个12英寸晶圆的WSE-3将其晶体管尺寸从7纳米——十亿分之七米——缩小到5纳米,将晶体管数量从WSE-2的2.6万亿提升到4万亿。世界上最大的合同芯片制造商TSMC正在制造WSE-3。
Cerebras通过仅略微增加片上SRAM的内存容量,从40GB增加到44GB,并将计算核心数量从850,000增加到900,000,保持了逻辑晶体管与内存电路的比例不变。
“我们认为我们现在在计算和内存之间找到了正确的平衡,”Feldman在发布会上说。
与前两代芯片一样,Feldman将WSE-3的巨大尺寸与Nvidia当前的标准进行了比较,在这种情况下是H100 GPU,他在幻灯片中将其称为“这个可怜的,悲哀的部分”。
“它是57倍更大,”Feldman将WSE-3与Nvidia的H100进行比较时说。“它拥有52倍更多的核心。它拥有800倍更多的片上内存。它拥有7000倍更多的内存带宽和超过3700倍更多的布线带宽。这些都是性能的基础。”
“这将是一个真正的摩尔定律步骤,”Feldman说,提到新芯片每秒执行操作数量的翻倍,“我们已经很长时间没有在我们的行业中见到过这样的事情了。”
Cerebras使用额外的晶体管使每个计算核心变得更大,增强了某些功能,例如将“SIMD”能力加倍,这是影响每个时钟周期可以并行处理多少数据点的多处理功能。
这款芯片配备了新版本的机箱和电源供应,CS-3,现在可以聚集到2048台机器,比之前多10倍。这些组合起来的机器可以执行256 exaFLOPs,一千petaFLOPs,或四分之一zetaFLOP。
Feldman说,其CS-3计算机配备WSE-3可以处理理论上拥有24万亿参数的大型语言模型,这比顶尖的生成式AI工具如OpenAI的GPT-4,据传有1万亿参数,高出一个数量级。“整个24万亿参数可以在一台机器上运行,”Feldman说。
明确地说,Cerebras使用一个合成的大型语言模型进行了这种比较,该模型实际上并未经过训练。这只是WSE-3计算能力的一次演示。
Cerebras的机器比GPU更容易编程,Feldman说。为了训练175亿参数的GPT-3,一个GPU需要20507行结合了Python、C/C++、CUDA和其他代码的代码,而WSE-3只需565行代码。
对于原始性能,Feldman通过集群规模比较了训练时间。Feldman说,2048台CS-3的集群可以比Meta的AI训练集群快30倍训练Meta的700亿参数的Llama 2大型语言模型:1天对比30天。
“当你处理这么大的集群时,你可以为每个企业带来超级计算机自己使用的同样的计算能力,”Feldman说,“而且不仅可以做到他们所做的,还可以极大地加快速度。”
Feldman强调了机器的客户,包括G42,一家成立五年的投资公司,总部位于阿拉伯联合酋长国的阿布扎比。
Cerebras正在为G42在德克萨斯州达拉斯的设施“Condor Galaxy 3”工作,这是一个预计到2024年底将达到数十个exaFLOPs的九部分项目的下一部分。
像Nvidia一样,Cerebras目前的需求超过了它能满足的供应,Feldman说。这家初创公司有“大量积压的CS-3订单,横跨企业、政府和国际云。”
Feldman还宣布了与芯片巨头Qualcomm的合作伙伴关系,使用后者的AI 100处理器用于生成式AI的第二部分,即包括在实时流量上做出预测的推理过程。考虑到在生产中运行生成式AI模型的成本与参数计数成正比,Feldman指出,如果地球上的每个人都向它提交请求,运行ChatGPT的年成本可能达到1万亿美元。
这项合作采用了四种技术来降低推理成本。使用所谓的稀疏性,即忽略零值输入,Cerebras的软件可以消除多达80%的不必要计算,Feldman说。第二种技术,推测性解码,使用大型语言模型的一个较小版本进行预测,然后让一个更大的版本检查答案。Feldman解释说,这是因为检查模型的输出比首次产生输出消耗的能量要少。
第三种技术将模型的输出转换为MX6,这是一种编译版本,仅需要Qualcomm AI 100加速器通常所需内存的一半。最后,WSE-3的软件使用网络架构搜索来选择一部分参数进行编译并在AI 100上运行,这同样可以减少计算和内存使用。
这四种方法将Qualcomm芯片上每花费一美元处理的“token”数量提高了一个数量级,Feldman说,其中一个token可以是短语中的一个词的一部分,或者是开发者的“协助编程”中的一段计算机代码。在推理中,“性能等于成本,”Feldman指出。
“我们通过与Qualcomm合作并确保无缝的工作流程,大大减少了你必须花费在如何从你的训练参数过渡到你的生产推理上的时间,”Feldman说。
推理市场被广泛预计将成为AI竞赛中的一个更大焦点,因为推理从数据中心移动到更多的“边缘”设备,包括企业服务器甚至是能源受限设备如移动设备。
“我相信越来越多的简单推理将转移到边缘,而Qualcomm在那里有真正的优势,”Feldman说。
✋热门推荐