基于大型语言模型(LLM)的ChatGPT等生成人工智能(GenAI)工具正在彻底改变我们的思考、学习和工作方式。但是,与其他一些形式的人工智能一样,GenAI技术具有黑匣子性质,这意味着很难解释和理解数学模型如何计算其输出。

为什么学生的生成式人工智能实验对我们的集体学习很重要

如果我们作为一个社会要广泛采用这项新技术,我们将需要参与集体发现过程,以更好地了解它的工作原理和能力。

随着人工智能专家致力于让最终用户更容易理解人工智能系统,以及ChatGPT的制造商OpenAI应对领导层变动和有关其战略方向的问题,高等教育机构在实现GenAI的集体学习方面可以发挥关键作用。

很难理解

对于像GenAI这样基于具有黑盒性质的大型神经网络的人工智能系统来说,缺乏透明度使得人们很难信任人工智能并依赖它来进行敏感应用。

卡内基梅隆大学教授伊丽莎白·A·霍尔姆认为,如果黑盒人工智能比其他人工智能产生更好的结果、错误答案的成本较低或者能够激发新想法,那么它们仍然具有价值。

尽管如此,一些严重错误的事件还是侵蚀了信任,例如当ChatGPT被欺骗发出制造炸弹的指令时,或者当它指控一位法学教授犯下他没有犯下的严重罪行时。

这就是为什么致力于人工智能可解释性的研究人员试图设计技术来洞察神经网络的黑匣子。然而,许多GenAI工具背后的法学硕士太大、太复杂,这些方法无法发挥作用。

幸运的是,像ChatGPT这样的LLM有一个以前的黑盒神经网络所没有的有趣功能:它们是交互式的。可以这样想:我们无法通过查看一个人大脑中的神经元图来了解他在想什么,但我们可以与他们交谈。

《机器心理学》

一个名为“机器心理学”的新科学领域正在兴起,旨在了解法学硕士实际上如何“思考”。

尚未经过同行评审的新研究正在研究这些模型如何以其新兴功能给我们带来惊喜。例如,研究人员推测,由于法学硕士生成的每个新单词都取决于其之前的单词顺序,因此要求法学硕士逐步解决问题可能会产生更好的结果。

关于这种“思想链”技术及其变体的新研究(尚未经过同行评审)表明它们可以改善结果。其他人则认为法学硕士可以通过使用诸如“你确定吗?”之类的短语来“情绪操纵”。或在提示中“相信自己的能力”。

在这两种方法的有趣组合中,谷歌DeepMind研究人员最近发现,对于一系列数学问题,当提示“深呼吸并逐步解决这个问题”时,法学硕士的准确性显着提高。

集体发现

了解GenAI不仅仅是研究人员在做的事情,这是一件好事。用户的新发现甚至让这些工具的制造者感到惊讶,既令人高兴又令人震惊。

用户在Reddit、Discord等在线社区和FlowGPT等专用平台上分享他们的发现和提示。

这些提示通常包括“越狱”提示,这些提示成功地让GenAI工具以不应该的方式运行。人们可以欺骗人工智能绕过内置规则——例如,产生仇恨内容——或创建恶意软件。

这些快速的进步和令人惊讶的结果是一些人工智能领导者在今年早些时候呼吁暂停人工智能开发六个月的原因。

人工智能和学习

在高等教育中,过度防御性的方法强调GenAI的缺陷和弱点或它如何允许学生作弊是不明智的。

相反,随着工作场所开始看到GenAI支持的员工或工作场所生产力的好处,他们将期望高等教育为学生做好准备。学生的教育需要具有相关性。

大学是跨研究领域建立合作的理想场所,这是开发负责任的人工智能的必要条件。与私营部门相比,大学最有能力将其GenAI实践和内容嵌入到道德和负责任的实践框架中。

这需要的一件事是将GenAI理解为人类判断和辨别的增强,而不是替代,而依赖它是允许和可以接受的。

GenAI教育涉及培养批判性思维和事实核查技能以及道德提示工程。它还涉及了解GenAI工具不仅仅重复其训练数据,而且可以根据该数据中的模式生成新的高质量想法。

ChatGPT和AI高等教育联合国教科文组织快速指南是一个有用的起点。

将GenAI纳入课程并不能被视为自上而下的教学。鉴于该技术的快速发展和新颖性,许多学生的GenAI知识和技能已经领先于教授。我们必须认识到这是一个集体发现的时代,我们都在互相学习。

在卡尔加里大学哈斯卡恩商学院开设的“生成式人工智能和提示”课程中,部分成绩被分配到在线“发现论坛”上发帖、评论和投票,以分享他们的发现和实验。

通过实践和实验来学习

最后,我们应该学习如何利用GenAI来应对人类面临的最大挑战,例如气候变化、贫困、疾病、国际冲突和系统性不公正。

鉴于这项技术的强大本质,以及由于其黑匣子性质而导致我们无法完全理解它的事实,我们应该尽我们所能通过交互以及通过实践和实验来学习它。

这不仅仅是专业研究人员或人工智能公司的工作。它需要广泛的参与。