#马化腾称腾讯的AI技术不能算最领先 更关键的是场景落地#
近日,#马化腾#在腾讯2023年公司年会上表示,#AI#是去年的重点,也是全行业甚至全世界的重点。腾讯的#人工智能#技术(AI技术)不能算最领先,但是至少没有太落后。
“后面还要结合腾讯的场景,把AI混元大模型应用到各个场景中,在短期内一两年内我感觉不会有一个纯原生AI大的应用,还是要结合到腾讯的所有产品里面,我觉得这是一个很大的机会”,马化腾表示。
前不久马化腾在#腾讯#的2023股东大会上,就分享了#大模型#的观点。他认为,最开始我们以为这是互联网十年不遇的机会,但是越想越觉得这是几百年不遇的、类似发明电的工业革命一样的机遇,所以他觉得AI非常重要。当时马化腾在接受采访时表示,AI需要有很多的积累,互联网各个企业都有很多的积累,他们都在做,腾讯也一样在埋头研发,但是并不急于早早做完,把半成品拿出来展示。
据悉,腾讯作为中国最大的互联网公司之一,在AI领域有着深厚的积累和丰富的成果。腾讯早在2016年就成立了腾讯AI实验室,专注于基础研究和应用探索。
腾讯也将AI技术融入到#微信#、QQ、王者荣耀、企业微信、#腾讯视频#等应用。这些应用覆盖了社交通信、游戏娱乐、内容生产、办公协作等多个领域,并拥有数亿甚至数十亿的用户规模。
此外,马化腾对于AI领域有着长远而谨慎的态度。他曾强调,“关键还是要把底层的算法、算力和数据扎扎实实做好”,而且“更关键的是场景落地”。
近日,#马化腾#在腾讯2023年公司年会上表示,#AI#是去年的重点,也是全行业甚至全世界的重点。腾讯的#人工智能#技术(AI技术)不能算最领先,但是至少没有太落后。
“后面还要结合腾讯的场景,把AI混元大模型应用到各个场景中,在短期内一两年内我感觉不会有一个纯原生AI大的应用,还是要结合到腾讯的所有产品里面,我觉得这是一个很大的机会”,马化腾表示。
前不久马化腾在#腾讯#的2023股东大会上,就分享了#大模型#的观点。他认为,最开始我们以为这是互联网十年不遇的机会,但是越想越觉得这是几百年不遇的、类似发明电的工业革命一样的机遇,所以他觉得AI非常重要。当时马化腾在接受采访时表示,AI需要有很多的积累,互联网各个企业都有很多的积累,他们都在做,腾讯也一样在埋头研发,但是并不急于早早做完,把半成品拿出来展示。
据悉,腾讯作为中国最大的互联网公司之一,在AI领域有着深厚的积累和丰富的成果。腾讯早在2016年就成立了腾讯AI实验室,专注于基础研究和应用探索。
腾讯也将AI技术融入到#微信#、QQ、王者荣耀、企业微信、#腾讯视频#等应用。这些应用覆盖了社交通信、游戏娱乐、内容生产、办公协作等多个领域,并拥有数亿甚至数十亿的用户规模。
此外,马化腾对于AI领域有着长远而谨慎的态度。他曾强调,“关键还是要把底层的算法、算力和数据扎扎实实做好”,而且“更关键的是场景落地”。
#Aperture Alley##Aperture Alley#旨在展现光影交织下的时刻瞬间,以图像讲述无声故事
今井寿惠的艺术世界
今日文章部分由电波翻译于Aperture杂志 第253期 由Moeko Fujii所写的文章《Rediscovering Hisae Imai’s Otherworldly Vision》,其他内容来源于网络所查询总结的相关信息。文章较长,要有烦扰多多抱歉。请听友和读者朋友们按需阅读,自由服用。
奥菲莉娅从来没有看起来如此顽皮。在今井寿惠(Hisae Imai)1960 年作品的《奥菲莉娅》(图1- 图2- 图3)中,这个角色不是以哈姆雷特的未婚妻身份出现,而是以一个日本女孩的形象绽放。在负片上,她耐心地将花瓣塞进嘴里。头发在风中自然地卷曲,看起来充满活力。 “可怜的奥菲莉娅,”当奥菲莉娅淹死在小溪里,国王哀叹道:“她的神志和正常的判断力分割开了”。在今井的视觉渲染中,这种分歧并不在于奥菲莉娅的精神内部,而是在于我们作为观众如何解读她的面容和表情。她脸颊上所出现的是两抹闪光,还是一滴泪水?我们是否打扰了她生命中最难以想象的时刻——死亡前几秒钟必要的孤独?
在今井的重铸中,我们没有看到像神话中的奥菲莉娅:被承认美丽的长发淹没在小溪中。相反,她的头发被剪短。面容,妆造和花朵似乎同时是她自身的一部分。“奥菲莉娅疯了之后,什么都会不相信,也不再惧怕死亡。我想她去的一定是个可爱的地方~”今井曾经写道。在人像界限模糊的情况下,今井的许多女性照片所传达的正是这种可爱的平静感觉。她们看起来一动不动,全神贯注于别的地方,感受着微风,而不是被迫面对飓风。似乎,在听一首我们听不到的歌曲。
今井寿惠1931年7月19日出生于日本东京。她的父亲在东京银座的松屋百货公司拥有一家摄影工作室。今井还在艺术学校读书时,父亲给了她一台禄莱相机,之后就开始随意从事摄影工作。到了二十多岁的时候,她就成了他的学徒,并把自己的小房间改成了她的个人工作室。在今井对双重曝光、镜像身体和拼贴的运用中,我们可以感受到她同龄人的感性,以及那个时代大胆、实验的精神。今井1961年举办了题为《模特与北风》(Model and North Wind)的个展。
该系列似乎从考虑模特是什么(将女性的身体用构图的形式拆分开)转变为考虑她们所存在的地方(背景),即这些人物所漂浮在的黑暗的原野中。此时,今井正在用时尚取得成功,她的照片定期发表在各大杂志上。然而,在许多这些图像中,“时尚”似乎是模特的头发,其造型可以戏剧性地起伏、反射和吸收光线。头发既是一个活的有机体,又是一个人死亡的、装饰性的边界。 “她的头发总是浓密的,就像一株不知名的植物,”诗人谷川俊太郎在 1961 年 6 月号的《每日相机》(Camera Mainichi) 中这样描述今井, “今天,一如既往,风中(代指头发)飘荡着梦的孢子。”
到了 20 世纪 60 年代初,今井已然崛起。时尚杂志Soen的一篇简介将她誉为“女摄影师中的第一名”。然而,在1962 年的春末当一场车祸发生时,所有都瞬间改变了。将近一年的时间里,她的双目陷入了失明的状态。她的人生进入了长长的隧道,拥有艺术抱负的世界暂时陷入黑暗。虽然她最终恢复了视力,但这次创伤性事故极大地改变她的生活和职业轨迹。
在她康复期间拍摄的《幻想:眼睛和牙齿》(Fantasy: Eyes and Teeth, 1963)系列中的一张照片(图7),我们透过伸出的手的阴影看到了一张看起来像 X 光片或石膏模型的东西。而紧闭牙齿之间,夹着一串珠子。学者户田雅子(Masako Toda)对今井进行了广泛的研究和写作,她要求我们特别关注这些照片的物质性,它们传递出一种发自内心的力量。
在今井内心脆弱的时候,她的朋友寺山修司策划了一个在赛马场拍摄照片的项目,他陪同今井前往一起拍摄。 同一阶段,今井观看了大卫·里恩(David Lean)的《阿拉伯的劳伦斯》,这部时长三个半小时的史诗片。电影中的马匹有一些东西让她兴奋不已,迫使她离开了摄影工作室,到马厩和开阔的田野里工作。“我出去看马是因为漫无目的地闲逛很痛苦吗?”今井在她 1977 年的写真集《Hippolatry:Enchanted by Horses》中问道。
在她职业生涯的最后四十年里,从北海道到马恩岛,今井坚持不懈地、美丽地拍摄赛马。她成为了一位视觉诗人,描绘了从闸口阴影中出现的骑师、赛道上刻板的仪式和喧闹,以及小马驹脖子的曲线。她沉浸在马群中匆忙而安静的生活中,对她来说,这些动物并不代表着像西部片里一样对边境的原始征服,也不像拉夫劳伦广告中那样代表着文化资本的纯正诱惑。而是马驹们的生命力带来的,对一种新的开端的开启。她为这些图像添加了奇异的纹理和颜色,而不是像她对女性人物所做的那样闪闪发光或闪耀或玫瑰花瓣。(图8 - 图9)鬃毛染上了色彩,雾气唤起了今井所感受到的超越凡间世界的力量。
今井寿惠的艺术世界
今日文章部分由电波翻译于Aperture杂志 第253期 由Moeko Fujii所写的文章《Rediscovering Hisae Imai’s Otherworldly Vision》,其他内容来源于网络所查询总结的相关信息。文章较长,要有烦扰多多抱歉。请听友和读者朋友们按需阅读,自由服用。
奥菲莉娅从来没有看起来如此顽皮。在今井寿惠(Hisae Imai)1960 年作品的《奥菲莉娅》(图1- 图2- 图3)中,这个角色不是以哈姆雷特的未婚妻身份出现,而是以一个日本女孩的形象绽放。在负片上,她耐心地将花瓣塞进嘴里。头发在风中自然地卷曲,看起来充满活力。 “可怜的奥菲莉娅,”当奥菲莉娅淹死在小溪里,国王哀叹道:“她的神志和正常的判断力分割开了”。在今井的视觉渲染中,这种分歧并不在于奥菲莉娅的精神内部,而是在于我们作为观众如何解读她的面容和表情。她脸颊上所出现的是两抹闪光,还是一滴泪水?我们是否打扰了她生命中最难以想象的时刻——死亡前几秒钟必要的孤独?
在今井的重铸中,我们没有看到像神话中的奥菲莉娅:被承认美丽的长发淹没在小溪中。相反,她的头发被剪短。面容,妆造和花朵似乎同时是她自身的一部分。“奥菲莉娅疯了之后,什么都会不相信,也不再惧怕死亡。我想她去的一定是个可爱的地方~”今井曾经写道。在人像界限模糊的情况下,今井的许多女性照片所传达的正是这种可爱的平静感觉。她们看起来一动不动,全神贯注于别的地方,感受着微风,而不是被迫面对飓风。似乎,在听一首我们听不到的歌曲。
今井寿惠1931年7月19日出生于日本东京。她的父亲在东京银座的松屋百货公司拥有一家摄影工作室。今井还在艺术学校读书时,父亲给了她一台禄莱相机,之后就开始随意从事摄影工作。到了二十多岁的时候,她就成了他的学徒,并把自己的小房间改成了她的个人工作室。在今井对双重曝光、镜像身体和拼贴的运用中,我们可以感受到她同龄人的感性,以及那个时代大胆、实验的精神。今井1961年举办了题为《模特与北风》(Model and North Wind)的个展。
该系列似乎从考虑模特是什么(将女性的身体用构图的形式拆分开)转变为考虑她们所存在的地方(背景),即这些人物所漂浮在的黑暗的原野中。此时,今井正在用时尚取得成功,她的照片定期发表在各大杂志上。然而,在许多这些图像中,“时尚”似乎是模特的头发,其造型可以戏剧性地起伏、反射和吸收光线。头发既是一个活的有机体,又是一个人死亡的、装饰性的边界。 “她的头发总是浓密的,就像一株不知名的植物,”诗人谷川俊太郎在 1961 年 6 月号的《每日相机》(Camera Mainichi) 中这样描述今井, “今天,一如既往,风中(代指头发)飘荡着梦的孢子。”
到了 20 世纪 60 年代初,今井已然崛起。时尚杂志Soen的一篇简介将她誉为“女摄影师中的第一名”。然而,在1962 年的春末当一场车祸发生时,所有都瞬间改变了。将近一年的时间里,她的双目陷入了失明的状态。她的人生进入了长长的隧道,拥有艺术抱负的世界暂时陷入黑暗。虽然她最终恢复了视力,但这次创伤性事故极大地改变她的生活和职业轨迹。
在她康复期间拍摄的《幻想:眼睛和牙齿》(Fantasy: Eyes and Teeth, 1963)系列中的一张照片(图7),我们透过伸出的手的阴影看到了一张看起来像 X 光片或石膏模型的东西。而紧闭牙齿之间,夹着一串珠子。学者户田雅子(Masako Toda)对今井进行了广泛的研究和写作,她要求我们特别关注这些照片的物质性,它们传递出一种发自内心的力量。
在今井内心脆弱的时候,她的朋友寺山修司策划了一个在赛马场拍摄照片的项目,他陪同今井前往一起拍摄。 同一阶段,今井观看了大卫·里恩(David Lean)的《阿拉伯的劳伦斯》,这部时长三个半小时的史诗片。电影中的马匹有一些东西让她兴奋不已,迫使她离开了摄影工作室,到马厩和开阔的田野里工作。“我出去看马是因为漫无目的地闲逛很痛苦吗?”今井在她 1977 年的写真集《Hippolatry:Enchanted by Horses》中问道。
在她职业生涯的最后四十年里,从北海道到马恩岛,今井坚持不懈地、美丽地拍摄赛马。她成为了一位视觉诗人,描绘了从闸口阴影中出现的骑师、赛道上刻板的仪式和喧闹,以及小马驹脖子的曲线。她沉浸在马群中匆忙而安静的生活中,对她来说,这些动物并不代表着像西部片里一样对边境的原始征服,也不像拉夫劳伦广告中那样代表着文化资本的纯正诱惑。而是马驹们的生命力带来的,对一种新的开端的开启。她为这些图像添加了奇异的纹理和颜色,而不是像她对女性人物所做的那样闪闪发光或闪耀或玫瑰花瓣。(图8 - 图9)鬃毛染上了色彩,雾气唤起了今井所感受到的超越凡间世界的力量。
GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板
大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。
当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABAB CDCD EFEF GG」执行。
同时,诗中还要包含提供的3个词。
对于这么高难度的创作题,LLM在收到指令后,并不一定能够按要求做出这首诗。
正所谓,人各有所长,LLM也是如此,仅凭单一模型有时是无法完成一项任务的。
那该如何解?
最近,来自斯坦福和OpenAI的两位研究员,设计了一种提升LLM性能的全新方法——元提示(meta-prompting)。
「元提示」能够把单一的LLM变身为全能的「指挥家」。
通过使用高层「元提示」指令,让大模型把复杂任务拆成子任务,然后再将这些任务分配给「专家模型」。
每个模型收到量身订制的指令后,输出结果。最终元模型有效整合这些结果,输出最终的答案。
最重要的是,LLM还会利用自身理解、推理能力,对最终输出结果进行打磨和验证,确保输出结果的准确性。
这种合作方式,能够让LLM成为核心,通过灵活调用专家,在多种任务上实现大幅性能提升。
实验中,研究人员在Game of24(24点游戏)、Checkmate-in-One、Python编程挑战等多种任务上,为GPT-4集成了Python解释器,在元提示策略下,模型性能刷新SOTA。
具体来说,相比「标准提示」提升了17.1%,相比「动态专家提示」提高了17.3%,相比「多角色提示」提高了15.2%。
元提示让LLM充当「指挥者」
我们已看到,GPT-4、PaLM、LLaMa等新一代大模型已经在NLP处理生成中,展现出强大的泛化能力。
然而,所有的LLM并非强大到无所不能,也会在输出结果中产生「幻觉」,比如输出不符合事实、误导性的内容。
随着这些模型的运行成本变得更加实惠,人们自然会问,是否可以使用「脚手架」(Scaffolding)系统并利用多个 大模型查询,以便提升LLM输出的准确性和稳健性?
在这项研究中,斯坦福和OpenAI的研究人员便提出了一种增强大模型性能的新技术——元提示(meta-prompting)。
这个过程,就需要构建一个高级「元提示」,来指示大模型:
- 将复杂的任务或问题分解为多个小的、可管理的子任务
- 为每个子任务分配一个受过特定领域训练的「专家」模型
- 监督这些专家模型之间的沟通
- 在整个过程中,运用LLM理解、推理和验证能力
当收到「查询」时,大模型在元提示下充当「指挥者」。它会生成一个消息历史,包含来自各种专家模型的响应。
LLM最初负责生成消息历史中的「指挥」部分,过程就包括选择专家模型,并为它们制定具体指示。
然而,相同的LLM也可以充当这些独立专家,根据指挥者为每个特定查询选择的专业知识和信息生成输出。
这种方法允许单一、统一的LLM保持一致的推理思路,同时还可以利用各种专家角色。
通过动态选择的上下文来提示这些专家,从而为大模型流程引入了新的视角,而指挥模型则保留了整个历史和协调的全景图。
因此,这种方法使单个黑盒LLM,能够有效地充当核心指挥者的角色,又可以作为多样化专家小组生成更准确、可靠和一致的响应。
作者介绍,「元提示」方法结合并扩展了进来一系列关于各种 「提示理念」的研究。
其中,就包括高层次规划和决策、动态角色分配、多智能体辩论、自我调试和自我反思等等。
任何任务,皆不惧
而「元提示」独到之处就在于,与任务无关性。
与需要针对每个任务量身定制的特定指令或示例的传统脚手架方法不同,「元提示」是在各种任务和输入中采用同一组高级指令。
这种通用性对用户来说非常有利,因为为每个不同任务提供详细示例,或具体指导非常的麻烦。
举个栗子,当收到「写一首关于自拍的莎士比亚十四行诗」之类的一次性请求时,用户不需要提供「高质量新古典主义诗歌」的示例。
「元提示」通过提供广泛、灵活的框架,提高了LLM的实用性,同时又不影响相关性。
此外,为了展示「元提示」的多功能性和集成功能,研究人员还调用「Python解释器」的功能,增强了AI系统。
这使得该技术的应用更加动态和全面,进一步扩展了其有效解决各种任务和查询的潜力。
下图中,展示了「元提示」对话内容的可视化。
具体描述了元模型(中心控制LLM,又名「指挥者」)如何将其自身的输出,与各种专家模型或代码执行的输入和输出穿插在一起。
这样的配置使得元提示成为几乎通用的工具。
它允许将各种LLM交互和计算整合到一个单一的、一致的描述中。「元提示」的与众不同之处在于,它让大模型自行决断使用哪些提示以及执行哪些代码片段。
#ChatGPT官方[超话]# https://t.cn/R2WxsCs
大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。
当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABAB CDCD EFEF GG」执行。
同时,诗中还要包含提供的3个词。
对于这么高难度的创作题,LLM在收到指令后,并不一定能够按要求做出这首诗。
正所谓,人各有所长,LLM也是如此,仅凭单一模型有时是无法完成一项任务的。
那该如何解?
最近,来自斯坦福和OpenAI的两位研究员,设计了一种提升LLM性能的全新方法——元提示(meta-prompting)。
「元提示」能够把单一的LLM变身为全能的「指挥家」。
通过使用高层「元提示」指令,让大模型把复杂任务拆成子任务,然后再将这些任务分配给「专家模型」。
每个模型收到量身订制的指令后,输出结果。最终元模型有效整合这些结果,输出最终的答案。
最重要的是,LLM还会利用自身理解、推理能力,对最终输出结果进行打磨和验证,确保输出结果的准确性。
这种合作方式,能够让LLM成为核心,通过灵活调用专家,在多种任务上实现大幅性能提升。
实验中,研究人员在Game of24(24点游戏)、Checkmate-in-One、Python编程挑战等多种任务上,为GPT-4集成了Python解释器,在元提示策略下,模型性能刷新SOTA。
具体来说,相比「标准提示」提升了17.1%,相比「动态专家提示」提高了17.3%,相比「多角色提示」提高了15.2%。
元提示让LLM充当「指挥者」
我们已看到,GPT-4、PaLM、LLaMa等新一代大模型已经在NLP处理生成中,展现出强大的泛化能力。
然而,所有的LLM并非强大到无所不能,也会在输出结果中产生「幻觉」,比如输出不符合事实、误导性的内容。
随着这些模型的运行成本变得更加实惠,人们自然会问,是否可以使用「脚手架」(Scaffolding)系统并利用多个 大模型查询,以便提升LLM输出的准确性和稳健性?
在这项研究中,斯坦福和OpenAI的研究人员便提出了一种增强大模型性能的新技术——元提示(meta-prompting)。
这个过程,就需要构建一个高级「元提示」,来指示大模型:
- 将复杂的任务或问题分解为多个小的、可管理的子任务
- 为每个子任务分配一个受过特定领域训练的「专家」模型
- 监督这些专家模型之间的沟通
- 在整个过程中,运用LLM理解、推理和验证能力
当收到「查询」时,大模型在元提示下充当「指挥者」。它会生成一个消息历史,包含来自各种专家模型的响应。
LLM最初负责生成消息历史中的「指挥」部分,过程就包括选择专家模型,并为它们制定具体指示。
然而,相同的LLM也可以充当这些独立专家,根据指挥者为每个特定查询选择的专业知识和信息生成输出。
这种方法允许单一、统一的LLM保持一致的推理思路,同时还可以利用各种专家角色。
通过动态选择的上下文来提示这些专家,从而为大模型流程引入了新的视角,而指挥模型则保留了整个历史和协调的全景图。
因此,这种方法使单个黑盒LLM,能够有效地充当核心指挥者的角色,又可以作为多样化专家小组生成更准确、可靠和一致的响应。
作者介绍,「元提示」方法结合并扩展了进来一系列关于各种 「提示理念」的研究。
其中,就包括高层次规划和决策、动态角色分配、多智能体辩论、自我调试和自我反思等等。
任何任务,皆不惧
而「元提示」独到之处就在于,与任务无关性。
与需要针对每个任务量身定制的特定指令或示例的传统脚手架方法不同,「元提示」是在各种任务和输入中采用同一组高级指令。
这种通用性对用户来说非常有利,因为为每个不同任务提供详细示例,或具体指导非常的麻烦。
举个栗子,当收到「写一首关于自拍的莎士比亚十四行诗」之类的一次性请求时,用户不需要提供「高质量新古典主义诗歌」的示例。
「元提示」通过提供广泛、灵活的框架,提高了LLM的实用性,同时又不影响相关性。
此外,为了展示「元提示」的多功能性和集成功能,研究人员还调用「Python解释器」的功能,增强了AI系统。
这使得该技术的应用更加动态和全面,进一步扩展了其有效解决各种任务和查询的潜力。
下图中,展示了「元提示」对话内容的可视化。
具体描述了元模型(中心控制LLM,又名「指挥者」)如何将其自身的输出,与各种专家模型或代码执行的输入和输出穿插在一起。
这样的配置使得元提示成为几乎通用的工具。
它允许将各种LLM交互和计算整合到一个单一的、一致的描述中。「元提示」的与众不同之处在于,它让大模型自行决断使用哪些提示以及执行哪些代码片段。
#ChatGPT官方[超话]# https://t.cn/R2WxsCs
✋热门推荐