聊天机器人可能很快就会在外观和行为上更像人,但这项技术可能会为欺骗打开大门。

聊天机器人可能很快就会在外观和行为上更像人

用于对话式 AI(人工智能)的全新类人界面——聊天机器人——旨在为广受欢迎的 ChatGPT 提供面孔和 语音。该软件使开发人员能够创建逼真的数字助理。专家表示,聊天机器人伪装成人类可能是个问题。

维克森林大学物理学教授Jed Macosko在电子邮件采访中告诉 Lifewire: “一旦很难区分与人类的 Zoom 通话和与 AI 机器人的聊天会话,很多事情都会发生变化。” “骗局将变得非常引人注目。人们会喜欢他们在网上结交的人工智能‘朋友’,并会利用空闲时间沉迷于长时间的交谈。”

以色列公司 D-ID 声称其软件是第一个能够以自然方式与对话式 AI 聊天机器人进行面对面对话的平台。

“像 GPT-3 和 LaMDA 这样的大型语言模型正在改变我们与技术相关和互动的方式,我们距离拥有自己的个性化 AI 助手和伙伴并不遥远, ” D- ID在新闻稿中说。“我们通过给它一张脸并让互动更自然,让科技变得更人性化。”

我们通过赋予它一张面孔并使交互更加自然,从而使技术更加人性化。

数据科学公司Oii.ai的首席执行官鲍勃·罗杰斯 (Bob Rogers)通过电子邮件告诉 Lifewire ,给物体或动物戴上人脸,或者使物体或动物人性化,远不是一个新概念。他说,人类想要让聊天机器人“人性化”是很自然的。

“ChatGPT 的创建者旨在打造一个可以模仿人们彼此交谈方式的聊天机器人,”罗杰斯补充道。“随着它的成功,为聊天机器人生成一张‘面孔’可能会帮助人们与它建立更逼真的关系。”

D-ID 的新软件是推动计算机生成的动画面孔更加逼真的一部分。例如,Replika AI companion 是一种对话式 AI,它使用动画人物为软件提供人机界面。该应用程序非常逼真,一些用户甚至表示爱上了他们的 Replika 伙伴。

增加孤独感是 Replika 等 AI 聊天机器人吸引人的部分原因,澳大利亚悉尼新南威尔士大学进化生态学教授Rob Brooks最近在The Conversation上发表了一篇文章。他说,人类正在与人工智能建立真正的情感联系。

赋予 AI 人类外观可能会让用户误以为聊天机器人具有真实的情感。咨询公司Captjur的首席执行官技术分析师Bob Bilbruck在一封电子邮件中表示,最好将 AI 聊天机器人视为一种工具,如电话或笔记本电脑。

“无论是字面上还是比喻上,人脸都不是必需的,”Bilbruck 说。“总有一天,这项技术将存在于一个非常复杂的类似人类的机器人外形中,但这将主要针对该应用程序所适用的工作或功能;例如,一个机器人会检查你进入你的旅馆或门口机场代理人或 TSA 检查站机器人。”

聊天机器人可能会继续变得更像人类,一些专家表示,此举可能会产生无法预料的后果。罗杰斯说,科学家们将继续训练人工智能来感知“感受”或情绪影响。例如,如果对话式人工智能能够学会准确地检测情绪,它就可以成为医疗保健中用于初步诊断目的的工具。或者人工智能可以开始区分讽刺的人类反应和真实的反应,从而改善人类与聊天机器人之间的互动。

“目前,ChatGPT 的个性非常平淡,”罗杰斯补充道。“当然,这很好。但它对它所写的几乎所有内容都坚持非常平均、无争议的观点。这是正确的,因为它被设计为一种‘安全的’人性化技术。我怀疑人性化的人工智能将包括更多地偏离平均水平,开发对事物有特定视角的人工智能系统,以便他们的互动更温暖、更人性化。”