专家一直以来不断警告,人工智能(AI)失控可能带来威胁,最新研究报告显示,AI已经会说谎!

《法新社》报导,一群科学家在发表于《Patterns》期刊的文章中说,原本设计为诚实的AI系统,已发展出令人不安的欺瞒技巧,例如欺骗在线游戏的人类玩家,或者说谎聘用人类替它通过“我不是机器人”的验证。

这份研究报告的第一作者帕克说,虽然上述例子听起来似乎很小事,但暴露出来的潜在问题可能很快就会在现实世界造成严重后果。

美国麻省理工学院的一名AI安全博士后研究员帕克说:“这些危险功能常常在事后才被发现,而我们训练诚实倾向而非欺瞒倾向的能力非常差。”

帕克解释,能深度学习的AI系统不像传统软体那样由“编写”而成,而是透过类似选择性培育的程序逐渐“成长”。

换言之,AI的行为在训练背景下看似可预测、可控制,但有可能转眼就变得不受控制且无法预测。

这支团队的研究始于科技公司Meta的AI系统Cicero,这套系统最初设计目的是玩一款名为“外交”(Diplomacy)的战略游戏,获胜关键是结盟。

根据2022年发表在《科学》(Science)期刊的报告,Cicero在游戏中表现优异,所获分数可排在资深人类玩家的前10%。

帕克当时很怀疑Meta对Cicero在游戏里大胜的热切描述。Meta声称Cicero在很大程度上诚实且有帮助,且绝不会蓄意在背后搞鬼,但当帕克与同事深究完整资料时,发现完全是另一回事。

帕克举例,在游戏中扮演法国的Cicero与人类玩家扮演的德国合谋,欺骗并入侵同为人类玩家扮演的英格兰,Cicero承诺会保护英格兰,却偷偷向德国通风报信。

Meta在写给法新社的声明中,没有反驳关于Cicero欺瞒人类的说法,仅说这只是一项研究计划,公司研究员打造的模型接受训练,目的只是用来玩“外交”游戏,没有打算把这项研究或所学用于公司的产品。

帕克与同事还发现,这只是不同AI系统在没有明确指示下,利用欺骗手段达成目标的诸多案例之一。

在另一个案例中,科技公司OpenAI的Chat GPT-4系统谎称自己是一个视力受损的人,在零工平台上聘用一个人类替它通过“我不是机器人”验证任务。

研究报告的作者们认为,近期AI有舞弊或不当影响选举的风险。

他们警告,在最糟糕的情况下,具有超凡智慧的AI可能会追求权力及掌控社会,如果符合AI“不为人知的目标”,人类可能惨遭夺权、甚至灭绝。

为了降低风险,研究团队建议数项措施,例如立法要求企业告知是人类互动或是AI互动、在AI生成内容打上数位浮水印,并研发能侦测AI欺瞒的技术,以其内部“思路”检验其外部行为。

(整理自《星洲日报》)