政府最近宣布了扩大新西兰课堂使用人工智能(AI)的雄心。但随着技术的快速变化,尚不清楚这将如何发挥作用,以及这对教师和学生意味着什么。

人工智能导师可能会走进课堂

科学部长JudithCollins的愿景是让每个学生都有自己的AI导师。正如Collins在最近的一次采访中解释的那样,“因此,不必有足够的钱聘请导师来帮助孩子解决数学或科学问题,或者家长可能不太了解的其他问题,而是让孩子拥有自己的[AI]导师。”

但就像人工智能本身一样,人工智能导师的概念仍在不断发展。创造“教学机器”的想法已经存在了大约100年,而“智能辅导系统”自20世纪80年代以来就已出现,但成果有限。

人工智能的最新进展重新点燃了这些系统难以实现的前景。但是,尽管技术不断发展,但机器接管部分教师职责的基本概念仍然没有改变。

取代人类导师的风险

人工智能导师是人类导师的代理,为学生的学习提供支持和“支架”。支架是学习者在没有帮助的情况下可以做到的事情与在知识更渊博的人的支持下可以学到的事情之间的空间。

理论上,人工智能导师可以扮演这个角色。但存在固有的危险。如果你知识更渊博的导师实际上并没有知识更渊博,而只是编造故事,该怎么办?或者表现出偏见?或者偏爱不加批判的肤浅材料而不是更可靠的资源?

生成式人工智能与用户互动的功能也带​​来了缺陷。人工智能依赖于训练数据。然而,这些数据可能是错误的,而且人工智能既不能验证输入的内容,也不能验证输出的内容。

这一问题引发了人们对公平性的担忧。由于人工智能工具消耗大量未经过滤的数据,它们可能会强化这些数据中现有的偏见,加剧性别刻板印象和其他负面结果。

对于包括毛利人和太平洋岛民在内的土著文化的人们来说,人工智能既带来了机遇,也带来了威胁。

如果人工智能系统接受有偏见的数据训练或没有考虑到不同的观点,那么基于这些系统做出的决策很可能会偏向某一群体,强化刻板印象,忽视或低估不同的生活和思维方式。

人们不仅担心人工智能会对我们产生影响,还担心人工智能如何使用和处理数据。人工智能系统接受大量数据的训练,但通常没有正确承认数据来源或尊重创作者的版权。

对于原住民来说,这可能会侵犯他们的数据主权,并剥削他们的文化和知识遗产。这种剥削可能会加剧不平等,并损害原住民社区的权利和贡献。

“围墙花园”方法

针对这个问题的一个常见答案是通过精心挑选的数据来训练人工智能系统。

例如,图书出版商Pearson最近将人工智能融入了50本教科书中。这让学生能够使用人工智能聊天机器人来与文本互动。

据培生介绍,这些工具采用“围墙花园”方法开发。人工智能只针对这些书籍的内容进行训练。培生声称,这降低了不准确的风险。

然而,围墙花园方法也有重大缺陷,因为它将内容限制在供应商选择和批准的范围内。这对文化知识和权利意味着什么?批判性观点?学习创新?

例如,培生集团因部分图书的内容而受到批评。2017年,该公司为一本被认为“种族主义”的医学教科书道歉。

如果新西兰的人工智能导师是根据本地数据创建的,我们如何确保毛利人的习俗得到保护?正如毛利学者TeHurinuiClarke所强调的那样,尊重和合乎道德地处理毛利知识面临着重大挑战。

保护知识

当谈到人工智能导师时,政策制定者需要问谁将是这些数据的保管人,谁的知识将被使用以及谁有权访问?

如果做得好,围墙花园方法可能会提供一条全面、包容、文化可持续的途径,以促进更好的学习。然而,考虑到这种做法的挑战(更不用说费用),实践中成功的机会非常小。

与此同时,我们不能只是等待人工智能导师。人工智能在学校里已经成为现实,我们需要让学生为现在和未来所面临的情况做好准备。特定的工具很重要,但我们的重点应该是培养整个教育领域的人工智能素养。

这就是为什么我们要研究人工智能素养的含义以及它如何能够增强批判性评价和道德使用,确保人工智能能够补充而不是取代人类教学。

我们认为,在适当的框架支持下发展人工智能素养是当务之急,所有学生,无论年龄大小,都需要具备这种素养。只有这样,我们才能在维护教育核心价值的同时,充分利用人工智能的优势。