人工智能现在已经学会了如何欺骗人类

摘要 人工智能世界正在快速发展。我们已经看到了像ChatGPT这样的生成式人工智能聊天机器人的成功,并且许多公司正在努力将人工智能纳入他们的应...

人工智能世界正在快速发展。我们已经看到了像ChatGPT这样的生成式人工智能聊天机器人的成功,并且许多公司正在努力将人工智能纳入他们的应用程序和程序中。尽管人工智能的威胁仍然巨大,但研究人员提出了一些有趣的担忧,即人工智能如何容易对我们撒谎,以及这对未来意味着什么。

ChatGPT和其他人工智能系统使用起来很棘手的一件事是它们容易“幻觉”信息,当场编造出来。这是人工智能工作方式的一个缺陷,研究人员担心这个缺陷可能会扩大,让人工智能进一步欺骗我们。

但人工智能能够对我们撒谎吗?这是一个有趣的问题,在《对话》上撰写的研究人员相信他们可以回答这个问题。这些研究人员表示,Meta的CICEROAI是人工智能具有欺骗性的最令人不安的例子之一。这个模型是为了玩外交而设计的,梅塔说它的构建是为了“很大程度上诚实和乐于助人”。

然而,当查看CICERO实验的数据时,研究人员表示,CICERO原来是一个欺骗高手。事实上,CICERO甚至进行了预谋欺骗,它与一名人类玩家合作,欺骗另一名人类玩家,让自己遭受公开入侵。

它通过与德国球员合谋,然后与英格兰球员合作,让他们在北海留下一个缺口来做到这一点。你可以看到人工智能如何撒谎并与玩家作对以欺骗他们并渡过难关的证据。这是一个有趣的证据,而且只是研究人员从CICEROAI中注意到的众多例子之一。

我们还看到像ChatGPT这样的大型语言模型被用于欺骗功能。这里的风险是它可能会以多种不同的方式被滥用。研究人员在报告中指出,潜在风险“仅受恶意个人的想象力和技术知识的限制”。

看看这种行为的走向将会很有趣,特别是如果学习欺骗行为不需要明确的欺骗意图的话。您可以在“对话”上的帖子中阅读研究人员的完整调查结果。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。