报名|第二届智慧交通应用场景创新实践优秀案例征集启动!
报名|第二届智慧交通应用场景创新实践优秀案例征集启动!
报名|第二届智慧交通应用场景创新实践优秀案例征集启动!6月3日,著名计算机科学家、AI“教父”约书亚·本(běn)吉奥(Yoshua Bengio)宣布发起(fāqǐ)非营利组织LawZero,致力于开发“诚信”人工智能系统。该组织计划打造一套AI防护机制,防范试图欺骗人类(rénlèi)的(de)AI智能体。
本吉奥将担任LawZero组织的主席。他以约3000万美元启动资金和十几名研究(yánjiū)人员为基础,正在开发名为“科学家AI”(Scientist AI)的系统。该系统将作为安全(ānquán)防护机制,防止AI智能(zhìnéng)体表现出欺骗或自我保护的行为,比如试图避免被关闭。“至关重要的是,作为护栏的AI至少(zhìshǎo)要与它(tā)试图监管(jiānguǎn)和控制的AI智能体一样智能。”
不会给出确定(quèdìng)答案,而是提供答案正确性的概率
AI智能体可在无需人类干预的情况下执行(zhíxíng)任务。本吉奥将当前(dāngqián)的AI智能体称为试图模仿人类并取悦用户的“演员”,而“科学家AI”系统更像是(xiàngshì)一位能够理解和预测不良行为的“心理学家(xīnlǐxuéjiā)”,既可以加速科学发现,又可以防范AI智能体的风险。
“我们希望构建诚实(chéngshí)且不具有欺骗性的人工智能。”本吉奥(jíào)说,“理论上(shàng)可以设想没有自我、没有目标、纯粹作为知识载体的机器,就像一个知道很多东西的科学家。”
但和当前(dāngqián)生成式AI工具不(bù)同的是,“科学家AI”系统不会给出确定性的答案,而是提供答案正确性的概率。“它有一种谦逊感,知道自己不确定答案是否(shìfǒu)正确。”
该系统(xìtǒng)与AI智能体协同(xiétóng)部署时,将通过评估自主系统行为(xíngwéi)造成伤害的概率,标记潜在有害行为。如果概率超过一定阈值,那么智能体提出的行动将被阻止。
本吉奥说,LawZero的(de)第一步是证明概念背后的方法论是有效的,并说服企业或政府支持(zhīchí)更(gèng)强大版本的开发(kāifā)。开源人工智能模型将成为训练LawZero系统的起点。“关键是要证明这种(zhèzhǒng)方法论有效,从而说服捐赠者(juānzèngzhě)、政府或AI实验室投入资源,以与当前前沿AI同等的规模进行训练。至关重要的是,作为护栏的AI至少要与它试图监管和控制的AI智能体一样智能。”
LawZero最初的支持者包括人工智能安全(ānquán)机构生命未来研究所(Future of Life Institute)、Skype创始工程师雅恩(yǎēn)·塔林(Jaan Tallinn)以及谷歌前(qián)首席(shǒuxí)执行官埃里克·施密特(shīmìtè)(Eric Schmidt)创立的研究机构施密特科学(Schmidt Sciences)。
AI学会欺骗误导、试图逃避(táobì)关闭、隐藏真实能力
本吉奥是(shì)蒙特利尔大学教授,也是人工智能安全领域的领军人物。
他曾(céng)与杰弗里·辛顿(Geoffrey Hinton)、Meta首席AI科学家杨立昆(yánglìkūn)(Yann LeCun)共同获得(huòdé)2018年(nián)图灵奖,还主持了《国际人工智能安全报告》。该报告警告称,如果自主智能体能够在没有人类监督的情况下完成更长的任务序列(xùliè),它们可能会造成严重破坏。
本吉奥认为,人类不(bù)需要智能(zhìnéng)体系统来获得人工智能的回报,这样的系统有可能(kěnéng)脱离人类的控制,带来不可逆转的后果。“如果我们研发出一种能够治愈(zhìyù)癌症的AI,但也有可能这种AI的另(lìng)一种版本变得失控,制造出一波又一波的生物武器,导致数十亿人死亡,那么我认为这是不值得的。”
2023年,本吉奥(jíào)与OpenAI首席(shǒuxí)执行官山姆(shānmǔ)·奥特曼(Sam Altman)等人签署了一份声明(shēngmíng),宣称“减轻AI带来的灭绝风险应该与流行病、核战争等其他风险一样,成为全球优先事项”。
过去几个月,人类目睹了人工智能系统学会误导、欺骗和试图(shìtú)逃避被关闭,甚至(shènzhì)诉诸勒索。这些行为几乎都出自精心设计、近乎诱导AI行为不端的(de)实验,例如要求其不惜一切代价实现目标。
但现实中这样的行为也已出现。最近,人工智能企业Anthropic承认其最新系统可能试图(shìtú)勒索要(yào)关闭它的工程师。本吉奥对此感到担忧。他还提到,研究表明(biǎomíng),人工智能模型能够隐藏它们的真实能力和目标。这些例子表明,由于人工智能的推理能力越来越(yuèláiyuè)强(qiáng),世界正走向“越来越危险的境地”。
本吉奥说,试图利用已知会催生欺骗倾向(qīngxiàng)的技术构建人类水平的AI智能体,就像一辆汽车在(zài)狭窄的山路上疾驰,两侧是(shì)陡峭悬崖,前方被浓雾遮蔽,“我们需要(xūyào)为汽车装上前灯,并在路上安装一些护栏。”
(本文来自澎湃新闻,更多(duō)原创资讯请下载“澎湃新闻”APP)
6月3日,著名计算机科学家、AI“教父”约书亚·本(běn)吉奥(Yoshua Bengio)宣布发起(fāqǐ)非营利组织LawZero,致力于开发“诚信”人工智能系统。该组织计划打造一套AI防护机制,防范试图欺骗人类(rénlèi)的(de)AI智能体。
本吉奥将担任LawZero组织的主席。他以约3000万美元启动资金和十几名研究(yánjiū)人员为基础,正在开发名为“科学家AI”(Scientist AI)的系统。该系统将作为安全(ānquán)防护机制,防止AI智能(zhìnéng)体表现出欺骗或自我保护的行为,比如试图避免被关闭。“至关重要的是,作为护栏的AI至少(zhìshǎo)要与它(tā)试图监管(jiānguǎn)和控制的AI智能体一样智能。”
不会给出确定(quèdìng)答案,而是提供答案正确性的概率
AI智能体可在无需人类干预的情况下执行(zhíxíng)任务。本吉奥将当前(dāngqián)的AI智能体称为试图模仿人类并取悦用户的“演员”,而“科学家AI”系统更像是(xiàngshì)一位能够理解和预测不良行为的“心理学家(xīnlǐxuéjiā)”,既可以加速科学发现,又可以防范AI智能体的风险。
“我们希望构建诚实(chéngshí)且不具有欺骗性的人工智能。”本吉奥(jíào)说,“理论上(shàng)可以设想没有自我、没有目标、纯粹作为知识载体的机器,就像一个知道很多东西的科学家。”
但和当前(dāngqián)生成式AI工具不(bù)同的是,“科学家AI”系统不会给出确定性的答案,而是提供答案正确性的概率。“它有一种谦逊感,知道自己不确定答案是否(shìfǒu)正确。”
该系统(xìtǒng)与AI智能体协同(xiétóng)部署时,将通过评估自主系统行为(xíngwéi)造成伤害的概率,标记潜在有害行为。如果概率超过一定阈值,那么智能体提出的行动将被阻止。
本吉奥说,LawZero的(de)第一步是证明概念背后的方法论是有效的,并说服企业或政府支持(zhīchí)更(gèng)强大版本的开发(kāifā)。开源人工智能模型将成为训练LawZero系统的起点。“关键是要证明这种(zhèzhǒng)方法论有效,从而说服捐赠者(juānzèngzhě)、政府或AI实验室投入资源,以与当前前沿AI同等的规模进行训练。至关重要的是,作为护栏的AI至少要与它试图监管和控制的AI智能体一样智能。”
LawZero最初的支持者包括人工智能安全(ānquán)机构生命未来研究所(Future of Life Institute)、Skype创始工程师雅恩(yǎēn)·塔林(Jaan Tallinn)以及谷歌前(qián)首席(shǒuxí)执行官埃里克·施密特(shīmìtè)(Eric Schmidt)创立的研究机构施密特科学(Schmidt Sciences)。
AI学会欺骗误导、试图逃避(táobì)关闭、隐藏真实能力
本吉奥是(shì)蒙特利尔大学教授,也是人工智能安全领域的领军人物。
他曾(céng)与杰弗里·辛顿(Geoffrey Hinton)、Meta首席AI科学家杨立昆(yánglìkūn)(Yann LeCun)共同获得(huòdé)2018年(nián)图灵奖,还主持了《国际人工智能安全报告》。该报告警告称,如果自主智能体能够在没有人类监督的情况下完成更长的任务序列(xùliè),它们可能会造成严重破坏。
本吉奥认为,人类不(bù)需要智能(zhìnéng)体系统来获得人工智能的回报,这样的系统有可能(kěnéng)脱离人类的控制,带来不可逆转的后果。“如果我们研发出一种能够治愈(zhìyù)癌症的AI,但也有可能这种AI的另(lìng)一种版本变得失控,制造出一波又一波的生物武器,导致数十亿人死亡,那么我认为这是不值得的。”
2023年,本吉奥(jíào)与OpenAI首席(shǒuxí)执行官山姆(shānmǔ)·奥特曼(Sam Altman)等人签署了一份声明(shēngmíng),宣称“减轻AI带来的灭绝风险应该与流行病、核战争等其他风险一样,成为全球优先事项”。
过去几个月,人类目睹了人工智能系统学会误导、欺骗和试图(shìtú)逃避被关闭,甚至(shènzhì)诉诸勒索。这些行为几乎都出自精心设计、近乎诱导AI行为不端的(de)实验,例如要求其不惜一切代价实现目标。
但现实中这样的行为也已出现。最近,人工智能企业Anthropic承认其最新系统可能试图(shìtú)勒索要(yào)关闭它的工程师。本吉奥对此感到担忧。他还提到,研究表明(biǎomíng),人工智能模型能够隐藏它们的真实能力和目标。这些例子表明,由于人工智能的推理能力越来越(yuèláiyuè)强(qiáng),世界正走向“越来越危险的境地”。
本吉奥说,试图利用已知会催生欺骗倾向(qīngxiàng)的技术构建人类水平的AI智能体,就像一辆汽车在(zài)狭窄的山路上疾驰,两侧是(shì)陡峭悬崖,前方被浓雾遮蔽,“我们需要(xūyào)为汽车装上前灯,并在路上安装一些护栏。”
(本文来自澎湃新闻,更多(duō)原创资讯请下载“澎湃新闻”APP)


相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎