今天去了横滨的高达工厂[月亮代表我的心]其实没别的东西可看,门票1650就看个能动的表演[开学季]进场送了个1/200的钢普拉…看了下是不要工具有手就行的那种[doge]还送了个扇子[doge]明明10月才播我怎么感觉7月就看到预热了[笑cry]还是很震撼的[开学季]太棒了如果能飞就更好了[doge]cafe里买个这个蓝兮兮的这个什么横滨跟蓝色苏打水,酸兮兮甜兮兮总之味道很奇怪,算啦本来就是为了能名正言顺有个位子坐坐,也算是为了哈罗的瓶子买的[开学季]楼下的高达基地好小,没什么特别的,不过出了官方的剪钳,于是我买了一把[开学季]看了下合作方是ミネシヤ那2200的价格就还行[作揖]总之还是高达香啊[交税][交税][交税]
Solinst 122 油水界面仪 型号:TE03-Solinst 122 500ft库号:M391351查看hh
midwest-group
midwest-group
Solinst 122型油水界面仪测量井和储罐的水、产品液位和厚度,到1/200英尺或1.0毫米。它使用直径为5/8英寸(16毫米)的耐压探头测量漂浮和下沉的碳氢化合物、非水产品层(LNAPL和DNAPL)。122是本质安全和ATEX。
读数取自准确的激光标记PVDF平面胶带,高度可达1000英尺(300米)。该胶带非常容易清洗。122坚固耐用,使用简单。携带的情况和磁带指南包括在内。
特性和好处
非常耐用,容易去污
窄的5/8英寸(16毫米)P8探头可以方便地通过狭窄的空间和进入窄井
坚固的独立式卷轴,带有专为野外使用而设计的手柄
CSA的本质安全的危险场所
的激光标记每1/100英尺或每毫米
长度到1000英尺
经可追溯到标准的标记
适用于LNAPL、DNAPL和烃类检测
CE标准和ATEX
midwest-group
midwest-group
Solinst 122型油水界面仪测量井和储罐的水、产品液位和厚度,到1/200英尺或1.0毫米。它使用直径为5/8英寸(16毫米)的耐压探头测量漂浮和下沉的碳氢化合物、非水产品层(LNAPL和DNAPL)。122是本质安全和ATEX。
读数取自准确的激光标记PVDF平面胶带,高度可达1000英尺(300米)。该胶带非常容易清洗。122坚固耐用,使用简单。携带的情况和磁带指南包括在内。
特性和好处
非常耐用,容易去污
窄的5/8英寸(16毫米)P8探头可以方便地通过狭窄的空间和进入窄井
坚固的独立式卷轴,带有专为野外使用而设计的手柄
CSA的本质安全的危险场所
的激光标记每1/100英尺或每毫米
长度到1000英尺
经可追溯到标准的标记
适用于LNAPL、DNAPL和烃类检测
CE标准和ATEX
接上条的上条的上条。
现在来说毫末 AI Day 的亮点。
首先毫末和特斯拉的巨大分歧,其实也是我们所有中国车企和特斯拉的巨大分歧,就是激光雷达(LiDAR)。
我们后来者大体上是认可特斯拉数据驱动的思路、做视觉的方法、对 HD Map 的态度,但用不用 LiDAR 是一个非常大的分歧。
我尽量把问题说明白些。
毫末以谷歌之前发布的 AI 自然语言处理模型 PaLM 吃下海量互联网上的结构化和非结构化数据,取得了非常好的性能表现为依据,得出做好自动驾驶也需要大规模且多样性的训练数据。
到这里没有任何的问题,2019 年 Andrej 在特斯拉的分享里提到的也是大规模(large)、多样性(varied)和现实场景(real),两家公司的结论大概是一致的。
只不过对于「多样性」这个词,特斯拉和毫末是存在分歧的。
特斯拉认为,数据都是纯视觉的数据,多样性应该在于现实世界的多样性,比如雨夜反光的路面、阳光照射下桥的阴影、异型车、夜晚不清晰的车道线、隧道、修路等等。
而毫末认为除了场景的多样性,还意味着不同类型的传感器(这包括了 LiDAR 和雷达)、不同像素(100 万、200 万、800 万)、不同角度(毫末在乘用车以外也有很多别的业务,比如无人外卖车),对于大模型训练都有非常大的价值。
这决定了特斯拉非常致力于现实场景数据的采集和处理,而毫末走多传感器融合的路线。
另外是关于超算集群,毫末说「逐步揭开面纱」,但现场没有分享具体数据,只说了超算的目标是满足千亿参数的大模型,同时数据规模为 100 万 clips,整体的训练成本要降到 1/200。
至于具体的数据,也许是因为小鹏刚刚发布了超算中心,所以不方便说得太具体?:)
最后是应用 Transformer 导致的问题,毫末的说法是,一般 Transformer 所需算力是CNN 所需算力的 100 倍。但在这算力下平均 6.9% 的算力贡献了 94% 的价值,还有大量的弱关联、低价值的运算在乘加操作和功耗上产生了很多浪费。
所以在云端超算、车端模型和芯片上,都有一些提高效率的方法,但这里毫末并没有分享自己的实践,而是谈了一些行业已有的方案。
大家可能也发现了,我全程在拿毫末对比特斯拉,没办法,其他车企相关的分享过于有限,大家都不愿意说,我个人的感觉是,毫末在前瞻技术的追踪上还是非常积极的,但这还不够,到落地还需要非常强的工程能力,到时候实车体验见了。
现在来说毫末 AI Day 的亮点。
首先毫末和特斯拉的巨大分歧,其实也是我们所有中国车企和特斯拉的巨大分歧,就是激光雷达(LiDAR)。
我们后来者大体上是认可特斯拉数据驱动的思路、做视觉的方法、对 HD Map 的态度,但用不用 LiDAR 是一个非常大的分歧。
我尽量把问题说明白些。
毫末以谷歌之前发布的 AI 自然语言处理模型 PaLM 吃下海量互联网上的结构化和非结构化数据,取得了非常好的性能表现为依据,得出做好自动驾驶也需要大规模且多样性的训练数据。
到这里没有任何的问题,2019 年 Andrej 在特斯拉的分享里提到的也是大规模(large)、多样性(varied)和现实场景(real),两家公司的结论大概是一致的。
只不过对于「多样性」这个词,特斯拉和毫末是存在分歧的。
特斯拉认为,数据都是纯视觉的数据,多样性应该在于现实世界的多样性,比如雨夜反光的路面、阳光照射下桥的阴影、异型车、夜晚不清晰的车道线、隧道、修路等等。
而毫末认为除了场景的多样性,还意味着不同类型的传感器(这包括了 LiDAR 和雷达)、不同像素(100 万、200 万、800 万)、不同角度(毫末在乘用车以外也有很多别的业务,比如无人外卖车),对于大模型训练都有非常大的价值。
这决定了特斯拉非常致力于现实场景数据的采集和处理,而毫末走多传感器融合的路线。
另外是关于超算集群,毫末说「逐步揭开面纱」,但现场没有分享具体数据,只说了超算的目标是满足千亿参数的大模型,同时数据规模为 100 万 clips,整体的训练成本要降到 1/200。
至于具体的数据,也许是因为小鹏刚刚发布了超算中心,所以不方便说得太具体?:)
最后是应用 Transformer 导致的问题,毫末的说法是,一般 Transformer 所需算力是CNN 所需算力的 100 倍。但在这算力下平均 6.9% 的算力贡献了 94% 的价值,还有大量的弱关联、低价值的运算在乘加操作和功耗上产生了很多浪费。
所以在云端超算、车端模型和芯片上,都有一些提高效率的方法,但这里毫末并没有分享自己的实践,而是谈了一些行业已有的方案。
大家可能也发现了,我全程在拿毫末对比特斯拉,没办法,其他车企相关的分享过于有限,大家都不愿意说,我个人的感觉是,毫末在前瞻技术的追踪上还是非常积极的,但这还不够,到落地还需要非常强的工程能力,到时候实车体验见了。
✋热门推荐