据 Business Insider 报道,曾获得图灵奖、被称为「AI 教父」的加拿大计算机科学家 Yoshua Bengio 表示:AI 行业被少数科技公司控制的可能性,将是该技术带来生存风险之后的「第二个问题」。他在接受采访时提到,我们都应该担心 AI 领域的权力集中,ChatGPT 和越来越强大的 AI 系统的到来,让他更加担心这一问题 —— 由谁来控制 AI 系统。Bengio 警告说,「政府需要确保在制定规则时,不能只听取科技公司的意见。在监管方面,他们应该倾听独立的声音,并确保公众安全和道德考量处于中心位置」。(爱范儿)
11 月 1 日,首届全球 AI 安全峰会在英国布莱切利庄园拉开帷幕。在开幕式上,由包括中国在内的与会国共同达成的《布莱切利宣言》正式发表。这是全球第一份针对人工智能这一快速新兴技术的国际性声明,旨在关注对未来强大 AI 模型构成人类生存威胁的担忧,以及对 AI 当前增强有害或偏见信息的担忧。《布莱切利宣言》呼吁和倡导以人为本,希望 AI 科研机构、企业等以负责任的方式,设计、开发和使用 AI。该《宣言》肯定了 AI 在改善人类福祉上的巨大潜力,也警告了在发展 AI 过程中有意或者无意带来的伤害,希望通过法规等方式避免相关风险。(爱范儿)
Google DeepMind 联合创始人:到 2028 年有 50% 的可能实现 AGI
十年前,Google DeepMind 人工智能实验室的联合创始人预测,到 2028 年,AI 将有一半的可能性达到与人类相当的智能水平。现在,他仍坚持这一预测。DeepMind 联合创始人 Shane Legg 在接受 Dwarkesh Patel 采访时表示,他仍然认为,研究人员有 50% 的机会实现通用人工智能(AGI)。不过,Shane Legg 也指出,当前对于 AGI 的定义还很难精确测定,因为人类的思维方式十分复杂。「 人们永远不可能完整罗列出所有的人类能力,但如果研究人员能够对人类智力进行一系列测试,并且 AI 模型能够在这些测试中表现得足够好,那么我们就可以说已经拥有了 AGI 」。当被问到我们目前在实现 AGI 的道路上处于什么位置时,Legg 表示,计算能力是实现这一目标所需要的,第一步将是「开始使用超出一个人一生所能经历的数据量来训练模型」,他相信 AI 行业已经为这一挑战做好了准备。(爱范儿)
十年前,Google DeepMind 人工智能实验室的联合创始人预测,到 2028 年,AI 将有一半的可能性达到与人类相当的智能水平。现在,他仍坚持这一预测。DeepMind 联合创始人 Shane Legg 在接受 Dwarkesh Patel 采访时表示,他仍然认为,研究人员有 50% 的机会实现通用人工智能(AGI)。不过,Shane Legg 也指出,当前对于 AGI 的定义还很难精确测定,因为人类的思维方式十分复杂。「 人们永远不可能完整罗列出所有的人类能力,但如果研究人员能够对人类智力进行一系列测试,并且 AI 模型能够在这些测试中表现得足够好,那么我们就可以说已经拥有了 AGI 」。当被问到我们目前在实现 AGI 的道路上处于什么位置时,Legg 表示,计算能力是实现这一目标所需要的,第一步将是「开始使用超出一个人一生所能经历的数据量来训练模型」,他相信 AI 行业已经为这一挑战做好了准备。(爱范儿)
✋热门推荐