创建类人聊天机器人
我们怎样才能让大型语言模型更加人性化?我们还能走多远?“像人一样”到底意味着什么?“我认为我们物种最显着的特征是我们使用工具的创造性能力,”南加州大学维特比信息科学研究所(ISI)首席科学家乔纳森·梅(JonathanMay)说道。
“我们不是最强的物种、最快的物种,也不是唯一使用工具的物种,但我们非常擅长使用和开发工具。这是我们的超级大国。”
从印刷机到智能手机再到人工智能,人类为了便利和连接而创造了机器,其中大语言模型(LLM)是最新的创新之一。LLM是一类处理和生成自然语言的人工智能系统,在整个2023年,ISI探索了创建更具对话性和更像人类的聊天机器人的可能性。
个性化导师
EmmanuelDorley是ISI的前博士后,为K-12辅导系统构建了栩栩如生的角色。由于美国STEM教育中缺乏服务的社区缺乏代表性,Dorley和他在INVITEInstitute(包容性创新教育智能技术)的同事们集思广益,讨论了如何让AI导师更加个性化并为年轻学习者提供支持。
该团队正在为学习者创建一个定制工具包,以定制他们的代理的外表,并增强计算机化导师的能力,使其更具对话性和观察力。“我们希望代理能够更自然地与学生互动。如果学生感到沮丧或疲倦,我们希望代理能够激励他们继续前进,”多利说。“这需要理解上下文并在非常特定的时间生成非常特定的语言和反馈。为此,我们需要类人代理。”
聊天机器人通常旨在与您交谈,但如果它们能够以您的写作风格和语气代表您说话呢?梅也是托马斯·洛德计算机科学系的研究副教授,她研究了聊天机器人是否可以根据用户之前编写的内容来模仿用户的角色,以适应用户的个性。
自动填充生成内容和精神与用户相似的响应,可以成为个人代表而不仅仅是助手。“它不会完全代理用户,但用你的声音进行自动回复很方便,”梅说。“如果模型能够很好地理解你对特定输入的响应方式,那么你将能够更频繁地按下选项卡按钮并节省时间。”
自动地下城主
讲述一个互动的、叙事性的故事——角色扮演、决策型游戏《龙与地下城》中地下城主的一项关键工作——通常被认为是一个人类擅长而技术失败的创造性领域。但托马斯·洛德计算机科学系研究助理教授兼ISI首席科学家杰伊·普哈拉(JayPujara)表示,通过构建人工智能来理解和预测人们如何根据他们的动机、信仰和愿望采取行动,一个引人注目的自动化地下城主可能是可能的。“为了让人工智能更加人性化,它需要考虑我们——我们想要什么、我们要做什么以及我们生活的世界,”普哈拉说。“这个项目告诉我们,任何良好、引人入胜的对话都需要考虑与你交谈的人。”如果没有类似人类的能力,人工智能与人类之间的对话往往是机器人且不可靠的。为了使上述项目成为现实,这些聊天机器人需要学习未阐明的知识:常识。
我们如何让机器人变得更像人类以及我们能走多远?
Pujara也是ISI知识图中心主任,他创建了常识知识图。知识图(KG)由人、地点、事物和想法组成,所有这些都通过彼此之间的关系连接起来。
“例如,如果我们想在KG中将约翰·列侬(JohnLennon)表示为披头士乐队(TheBeatles)的成员,我们将拥有一个名为“披头士乐队(TheBeatles)”的实体,一个名为“约翰·列侬(JohnLennon)”的实体,然后在它们之间建立链接,”Pujara说。为聊天机器人创建常识知识图谱需要包含数十亿个人类对话、决策和概念分支的数据森林。
无论聊天机器人消化多少数据,它能否真正实现类人的智能和推理?ISI首席科学家、丹尼尔·J·爱泼斯坦工业与系统工程系研究助理教授MayankKejriwal对此表示不确定。Kejriwal测试了法学硕士是否可以下注,但没有发现令人信服的证据表明他们可以在面临不确定性时做出决定。
然而,人类也不是黄金标准,凯杰里瓦尔补充道。我们是有偏见的、非理性的和不完美的,所以“类人”聊天机器人也会具有这些特征。有时我们也希望技术能够超人,但人工智能的好坏取决于它所输入的人造数据。“‘像人类’是一个含义非常丰富的词。这就是为什么,至少在计算机科学界,我们往往不会过多地使用它,因为我们如何测量它?”凯杰里瓦尔说道。
先进人工智能的局限性仍然没有明确,但随着聊天机器人的日益兴起,Kejriwal希望让它们更加负责并反映自己的决策和对话。“我们生活在一个希望事情能够非常个性化、快速完成的世界,但随着新技术的引入,人们总是担心它会做什么,”多利说。“但为了保证安全,你总是需要人类的参与。将人类与人工智能结合起来比让人工智能单独工作要好得多。”
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。