如何识别和解决教育技术中的偏见
Insights是一个SmartBriefEducationOriginals专栏,主要介绍教育领域知名专家和领导者对影响学校和地区的热点问题的观点。所有贡献者均由SmartBriefEducation编辑团队挑选。
在过去的一年里,学区比以往任何时候都更加依赖技术来支持学习和家庭参与。教育技术和工具有能力通过提供效率、学生参与度和数据来为教学提供信息,从而支持高质量的教学。经过验证的、基于掌握的课程可以支持教师,因为他们提供一对一或小组有针对性的课程。对于致力于持续改进的组织和学校,技术提供了改进内容、提高效率和测试结果的机会。
这种持续学习和改进的一部分必须包括对决定成功的内容和算法中的偏见的评估。您是否曾经读过一段您可以理解其中大部分单词的段落,但是如果没有经验或上下文可以借鉴您就无法完全理解作者的信息?例如,这种情况经常发生在使用社交媒体应用程序或与年轻一代相关的术语的几代人之间。这当然不是老年人不聪明,而是他们缺少年轻人与最新的TikTok视频或Instagram故事相关的背景。更令人不安的是,我们都可能拥有与我们自己熟悉的上下文直接相关的新闻提要,这限制了我们扩大对其他想法或观点的理解的机会。
教育科技如何产生偏见
对于一些学生来说,评估内容具有类似的效果。他们知道解码等技能,但他们正在解码与他们的生活或学习经验零关联的主题相关的单词。例如,如果主题与热带岛屿有关,但学生从未在城市环境以外生活过,反之亦然,则可能存在学生不完全理解的词汇。细微的差别可以完全改变一段话的意思,突然间,孩子们被贴上了阅读能力低下的标签,而实际上,他们根本没有对地理的广泛理解。由于评估算法基于数据模式,如果数据不准确或有偏差,那么AI算法也不客观。
教学和评估解决方案的教育技术提供商必须花时间向学生学习,以便他们能够构建必要的背景细节或额外内容,以创造一种体验,让所有学习者都能获得充分理解和准确展示其能力所需的想法。来自计划的数据可以对儿童的安置和干预选择产生直接影响,因此技术提供商必须审核其内容并继续完善评估经验。
不仅内容可能有偏见,算法本身也可能基于不完整的数据集和开发人员的偏见。以几年前通过谷歌图片搜索返回的“三个白人青少年”和“三个黑人青少年”的图像差异为例。前者返回快乐的年轻人从事各种活动的图像,而后者主要返回监狱系统的面部照片。谷歌表示,这种差异是在线内容差异的结果,他们已经采取措施解决其中的一些差异。
避免教育技术偏见的方法
最小化偏差的一种方法是致力于构建数据集,这些数据集对代表提供者打算服务的学生群体的不同群体进行抽样。防止偏见的另一种方法是质疑结果并对来自不同背景的学生进行可用性测试——有意关注传统上被教育系统边缘化的黑人学生。人们常说不知道自己不知道什么,因此,提供者必须从与自己观点不同的其他人那里寻求建议、意见和坦率的反馈,例如蒙哥马利县公立学校正在通过其反种族主义审计进行.这可以通过焦点小组、多元化开发团队或聘请顾问进行更深入的审计和支持。
技术提供者、教育工作者和家庭必须将自己视为持续改善儿童学习过程中的合作伙伴。提供者必须愿意接受反馈并根据家庭和课堂专家的反馈做出改变。教育工作者还必须证明他们对自己对计划有效性的分析以及对通过该计划提供的数据的分析和实施的持续承诺。最重要的是,所有利益相关者都应努力倾听学生使用该解决方案的意见,并重视他们的想法和建议。
建立有效的教育技术需要持续致力于最大限度地减少偏见、发现缺失的观点以及参与持续学习。我们还不知道我们不知道什么,但我们可以同意一起监视。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。