研究人员尝试让人工智能更安全‘易币付官方网站’发布日期:2024-07-22 浏览次数:
本文摘要:在经历了几十年起起伏伏的发展后,人工智能再一开始为公司企业带给实实在在的价值了。

在经历了几十年起起伏伏的发展后,人工智能再一开始为公司企业带给实实在在的价值了。近日,麦肯锡公布了报告认为,新的转入人工智能领域的公司将自学到早期转入这一领域的巨头在投资以及建构价值上面的非常丰富经验。新技术打开新的应用于,但也不会带给新的风险。

应用于高新技术,必需留意新技术带给的危险性。因此,最近OpenAI和DeepMind的研究人员期望利用一种能从人工对系统中自学的新算法,使人工智能更加安全性。  这两家公司都是增强自学领域的专家。增强自学是机器学习的一个分支,即在等价的环境下,如果人工智能系统作出准确不道德,那么就给与奖励。

目标通过算法来制订,而人工智能系统通过编程去谋求奖励,例如在游戏中夺得高分。  在教会机器玩游戏,或是通过仿真来驾驶员无人车的场景下,增强自学十分顺利。

这种方法在探寻人工智能系统的不道德时十分强劲,但如果编死的算法经常出现错误,或是产生不必要的副作用,那么也有可能十分危险性。  公开发表至arXiv的一篇论文叙述了一种新方法,有助防治此类问题。

首先,人工智能系统在环境中产生随机不道德,预期的奖励基于人工辨别,而这将被对系统至增强自学算法,以转变人工智能系统的不道德。  研究人员将这种技术应用于至一项训练任务。关于人工智能不道德的两段视频被发给人工,而人工将辨别哪种不道德腊得更佳。

  通过这种方式,人工智能系统可以渐渐学会如何追赶奖励,通过更佳地说明人工的评判来学会达成协议目标。这样的增强自学算法不会调整自身的不道德,并大大谋求人工的尊重。  在这项任务中,人工评判者只花上了将近1小时时间。

然而对于更加简单的任务,例如吃饭或发送到电子邮件,那么还必须更好的人工对系统。这样做到有可能是不经济的。  论文的联合作者、OpenAI研究员达里奥.阿莫德伊(DarioAmodei)回应,增加对人工智能系统的监督是未来有可能专心的一个研究领域。

  他回应:“从广义上说道,半监督自学技术在这里可能会有协助。另一种有可能的自由选择是获取信息密集的对系统形式,例如语言,或者让人工指向屏幕的特定部分,以代表较好不道德。信息更加密集的对系统也许将协助人工增加与算法交流的时间。

”  研究员在其他仿真机器人和Atari游戏中测试了他们的算法。结果表明,机器某些时候有可能获得超人的成绩。不过,这在相当大程度上倚赖人工的评判能力。  OpenAI在博客中回应:“关于什么不道德是准确的,我们算法的展现出与人工评判者的直觉一样好。

但如果人工对于任务没很好的做到,那么有可能就无法获取较多有协助的对系统。”  阿莫德伊回应,目前的结果仅限于非常简单的环境。不过,对于那些奖励无法分析的任务,例如驾驶员、的组织活动、文学创作,以及获取技术支持,这可能会很有协助。


本文关键词:易币付官方网站

本文来源:易币付官方网站-www.etiwari.com

官方微信关闭