【换电联盟研究圆 - 社群组建】
这个主题的社群,我早就想建立了
----- 毕竟咱“换电博主”
欢迎你加入,如果你是:
1.现有换电车型车主,包括不限于蔚来品牌,其他换电品牌车主也可以,可以来分享你的换电体验;
2.在持币观望换电的路上,少一个真实渠道观看各个换电车型车主的日常;
3.换电行业从业者,场站投资人、运营商、场地放、换电站研发、生产、制造;
4.市场上一级、二级投资人,我知道有不少一二级朋友是看换电企业的;
5.电网相关岗位同事,比如国网电动部门等;
6.其他非蔚来品牌,换电车型项目参与同事等;
7.现有换电运营品牌:易易互联、奥动、广汽能源、捷能智电、宁德时代 EVGO 等等品牌同事;
8.电池资产研究、运营相关同事等
建个群,大家友好交流一下。
当然,扫码图二,可以成为可充可换可升级的换电车主[doge][doge]
这个主题的社群,我早就想建立了
----- 毕竟咱“换电博主”
欢迎你加入,如果你是:
1.现有换电车型车主,包括不限于蔚来品牌,其他换电品牌车主也可以,可以来分享你的换电体验;
2.在持币观望换电的路上,少一个真实渠道观看各个换电车型车主的日常;
3.换电行业从业者,场站投资人、运营商、场地放、换电站研发、生产、制造;
4.市场上一级、二级投资人,我知道有不少一二级朋友是看换电企业的;
5.电网相关岗位同事,比如国网电动部门等;
6.其他非蔚来品牌,换电车型项目参与同事等;
7.现有换电运营品牌:易易互联、奥动、广汽能源、捷能智电、宁德时代 EVGO 等等品牌同事;
8.电池资产研究、运营相关同事等
建个群,大家友好交流一下。
当然,扫码图二,可以成为可充可换可升级的换电车主[doge][doge]
符合长线要求的品种:
2折开头:港股通互联 恒生医疗
3折开头:恒生互联,生物医药,教育,医疗创新 电池
4折开头:地产,科创,基建。光伏。芯片。
大致不变。本周解释一下那个目标跌幅。这是一个时间和空间共同作用的结果。我是按两年跌60%作为基础。如果下跌时间超两年,则目标跌幅变小。但最小也不小于45%.
如果下跌时间不足两年,则下跌目标也提升。
体现了时间及空间的转换。
这是市场很朴素的道理。
能解释很多问题。比如反弹了一倍的教育,为什么仍在长线建仓区。
2折开头:港股通互联 恒生医疗
3折开头:恒生互联,生物医药,教育,医疗创新 电池
4折开头:地产,科创,基建。光伏。芯片。
大致不变。本周解释一下那个目标跌幅。这是一个时间和空间共同作用的结果。我是按两年跌60%作为基础。如果下跌时间超两年,则目标跌幅变小。但最小也不小于45%.
如果下跌时间不足两年,则下跌目标也提升。
体现了时间及空间的转换。
这是市场很朴素的道理。
能解释很多问题。比如反弹了一倍的教育,为什么仍在长线建仓区。
$英伟达(NVDA)$IB vs 以太网,英伟达 vs 博通,大战在即。
革命即将发生在互联。
微软和OpenAI的“星际之门”,关键信息:千亿美惍T0U姿几百万张卡、不想用IB想用以太网这和前几天争议很大的微软工程师声称GPT-6训练会搞崩电网,对上了。再考虑上周博通声称的在帮谷歌搞定未来的百万张TPU集群,以及另一条关键信息“OpenAI已经实xian了跨地区的分布式超大规模集群训练”,一个即将出xian的图谱逐渐清晰:几百万张卡(离OpenAI宣传的千万张卡联调差不多了)、分布在几个或几十个地区(每个地区或城ShΙ几十万张)、通过IB or 以太网络实xian百万张卡互联、训练一个至少是GPT-6之后的、面向AGI的超级AI Factory....为什么分布在几十个地区,xian在答案显而易见了——“缺电”(准确点缺电网),因此AWS都把新的IDC建到了核电站旁边。跨地区的延迟扛得住吗?如何实xian百万张卡的紧耦合?我相信除了OAI没人知道答案...既然说“已经实xian了跨地区分布式训练”,这里面一定有不少模型训练工程上的巨大创新。想想挺有趣,大模型的训练从开始的单卡到百卡、千卡、万卡,为什么?说白了,模型规模越来越大了,从CNN/RNN时代几亿几十亿参shυ,眼看到了万亿参shυ,shυ据的吞吐糧和计算糧,远远超过了目前最强单卡的能力,不得不倒逼出了多卡互联和各种并行训练策略。再扩大两个shυ糧级,好了,远远超出目前一个电力+算力可支撑的最大shυ据中心的能力,怎么办?多集群并行...(想想挺夸张的,但又很合理)前几天和一个在美Gμo的做过超算的读者电话,我也问他为什么xian在的计算变成了这样,且NVL72又如此像当年的IBM超算大型机?他回答“很简单,就是规模变大了”。从一个小工程,?变成了巨大工程,倒逼着英伟达要在infra层面持续做压缩,集群压成机柜,机柜压成芯片,循环往复。只要规模继续快速增大,会继续倒逼计算层面的创新层出不穷,尤其是互联,因为这将是我们从未遇到过的巨大系统工程。
革命即将发生在互联。
微软和OpenAI的“星际之门”,关键信息:千亿美惍T0U姿几百万张卡、不想用IB想用以太网这和前几天争议很大的微软工程师声称GPT-6训练会搞崩电网,对上了。再考虑上周博通声称的在帮谷歌搞定未来的百万张TPU集群,以及另一条关键信息“OpenAI已经实xian了跨地区的分布式超大规模集群训练”,一个即将出xian的图谱逐渐清晰:几百万张卡(离OpenAI宣传的千万张卡联调差不多了)、分布在几个或几十个地区(每个地区或城ShΙ几十万张)、通过IB or 以太网络实xian百万张卡互联、训练一个至少是GPT-6之后的、面向AGI的超级AI Factory....为什么分布在几十个地区,xian在答案显而易见了——“缺电”(准确点缺电网),因此AWS都把新的IDC建到了核电站旁边。跨地区的延迟扛得住吗?如何实xian百万张卡的紧耦合?我相信除了OAI没人知道答案...既然说“已经实xian了跨地区分布式训练”,这里面一定有不少模型训练工程上的巨大创新。想想挺有趣,大模型的训练从开始的单卡到百卡、千卡、万卡,为什么?说白了,模型规模越来越大了,从CNN/RNN时代几亿几十亿参shυ,眼看到了万亿参shυ,shυ据的吞吐糧和计算糧,远远超过了目前最强单卡的能力,不得不倒逼出了多卡互联和各种并行训练策略。再扩大两个shυ糧级,好了,远远超出目前一个电力+算力可支撑的最大shυ据中心的能力,怎么办?多集群并行...(想想挺夸张的,但又很合理)前几天和一个在美Gμo的做过超算的读者电话,我也问他为什么xian在的计算变成了这样,且NVL72又如此像当年的IBM超算大型机?他回答“很简单,就是规模变大了”。从一个小工程,?变成了巨大工程,倒逼着英伟达要在infra层面持续做压缩,集群压成机柜,机柜压成芯片,循环往复。只要规模继续快速增大,会继续倒逼计算层面的创新层出不穷,尤其是互联,因为这将是我们从未遇到过的巨大系统工程。
✋热门推荐