【Meta 发布 “科研者的福音”,上线被骂到撤退】https://t.cn/A6Kt11gf 近日,Meta 推出了一种名为 Galactica 的新型大型语言模型(large language model,LLM),它由 4800 万篇科学文章、网站文章、教科书、讲义和维基等训练而成。其本意是想解决学术界信息过载,帮助研究人员做信息梳理、知识推理和写作辅助,一度被认为是“科研者的福音”。Meta 将其模型宣传为“可以总结学术论文,解决数学问题,生成维基文章,编写科学代码,为分子和蛋白质做注解,等等。”但是,它并没有像 Meta 所希望的那样大放异彩。MIT Technology Review报道,几天后,在激烈的争议中,Meta 撤下了它的在线演示版本。#csdn博文精选#
【达摩院ECCV基于Transformer探索帧间时空3D转2D的快速动作识别论文解读】https://t.cn/A6Kt1Tje 高效的时空建模(Spatiotemporal modeling)是视频理解和动作识别的核心问题。相较于图像的Transformer网络,视频由于增加了时间维度,如果将Transformer中的自注意力机制(Self-Attention)简单扩展到时空维度,将会导致时空自注意力高昂的计算复杂度和空间复杂度。许多工作尝试对时空自注意力进行分解,例如ViViT和Timesformer。这些方法虽然减小了计算复杂度,但会引入额外的参数量。本文提出了一种简单高效的时空自注意力Transformer,在对比2D Transformer网络不增加计算量和参数量情况下,实现了时空自注意力机制。并且在Sthv1&Sthv2, Kinetics400, Diving48取得了很好的性能。文章已被ECCV 2022录用。#csdn博文精选#
【达摩院ECCV基于Transformer探索帧间时空3D转2D的快速动作识别论文解读】https://t.cn/A6Kt1Tje 高效的时空建模(Spatiotemporal modeling)是视频理解和动作识别的核心问题。相较于图像的Transformer网络,视频由于增加了时间维度,如果将Transformer中的自注意力机制(Self-Attention)简单扩展到时空维度,将会导致时空自注意力高昂的计算复杂度和空间复杂度。许多工作尝试对时空自注意力进行分解,例如ViViT和Timesformer。这些方法虽然减小了计算复杂度,但会引入额外的参数量。本文提出了一种简单高效的时空自注意力Transformer,在对比2D Transformer网络不增加计算量和参数量情况下,实现了时空自注意力机制。并且在Sthv1&Sthv2, Kinetics400, Diving48取得了很好的性能。文章已被ECCV 2022录用。#csdn博文精选#
✋热门推荐