|
人工智能正进入科学教育领域,学生们的视角
人工智能时代已经到来,已经影响到我们生活的各个方面,教育作为为未来服务的人类活动,必需首先面对这种影响,并拥抱这种技术。
当强尼·张(Johnny Chang)在2018年开始他在伊利诺伊大学厄巴纳-香槟分校的计算机工程本科课程时,世界还未听说过ChatGPT。当时公众对辅助性人工智能(AI)所知的,仅限于这项技术能够驱动讲笑话的智能扬声器或那些时不时会出错的智能手机助手。
但到了2023年他的最后一年,张说,走在校园里不可能不看到同学们屏幕上点亮的生成型AI聊天机器人。
“我在为我的课堂和考试学习,当我在图书馆周围走动时,我注意到很多学生都在使用ChatGPT,”现在在加利福尼亚斯坦福大学攻读硕士的张说道。他学习计算机科学和人工智能,并且是讨论AI在教育中角色的学生领袖。“他们到处都在用它。”
ChatGPT是大型语言模型(LLM)工具的一个例子,这些工具在过去两年中迅速流行起来。这些工具通过接受用户以书面提示或问题形式的输入,并使用互联网作为它们的知识目录来生成类似人类的回应。因此,生成型AI根据它已经看到的信息产生新数据。
然而,这些新生成的数据——从艺术作品到大学论文——往往缺乏准确性和创造性完整性,为教育工作者敲响了警钟。在学术界,各大学迅速禁止在课堂上使用AI工具,以对抗一些人担心的剽窃和错误信息的泛滥。但其他人则对这种仓促反应提出警告。
领导斯坦福大学数据互动与STEM教学实验室的维克多·李(Victor Lee)表示,数据显示,随着ChatGPT和其他AI工具的推出,中学的作弊水平并没有增加。他说,教育工作者面临的部分问题是AI带来的快速变化。这些变化可能看起来令人生畏,但它们并非没有好处。
李说,教育工作者必须重新思考学生使用“静态信息”“辛苦制作”的书面作业的模式。“这意味着我们在教学中的许多做法将需要改变——但发展如此之多,很难跟上最新状态。”
尽管面临这些挑战,张和其他学生领袖认为,一刀切的AI禁令剥夺了学生潜在的革命性教育工具。“在与讲师交谈时,我注意到教育工作者认为学生使用ChatGPT的方式与学生实际使用方式之间存在差距,”张说。例如,学生可能不是要求AI写他们的期末论文,而是使用AI工具根据视频讲座制作抽认卡。“校园里有很多讨论正在进行,但总是没有学生的参与。”
计算机科学硕士生强尼·张创立了一个会议,将教育工作者和学生聚集在一起,讨论AI的负责任使用。图片:Howie Liu
为了帮助弥合这一沟通差距,张在2023年创立了AI x Education会议,将中学和大学生以及教育工作者聚集在一起,坦率讨论AI在学习中的未来。这个虚拟会议包括60位演讲者和超过5000名注册者。这是由学生发起和领导的几项努力之一,以确保他们在确定大学负责任AI的样子方面有一定的发言权。
在过去的一年里,在美国、印度和泰国的活动中,学生们纷纷发声,分享他们对AI工具在教育中未来的看法。尽管许多学生看到了好处,但他们也担心AI可能会对高等教育造成损害。
增强教育
在加利福尼亚旧金山的Minerva University学习经济学的本科生Leo Wu共同创立了一个名为AI Consensus的学生团体。Wu和他的同事在印度海得拉巴和旧金山将学生和教育工作者聚集在一起,通过讨论小组和黑客马拉松收集AI如何协助学习的现实世界例子。
讨论中,学生们一致认为,人工智能可以用来颠覆现有的学习模式,使不同学习风格的学生或面临语言障碍的学生更容易接受。例如,吴同学表示,同学们分享了使用多种人工智能工具总结讲座或研究论文的内容,然后将其转换成视频或图片集的故事。其他人则使用人工智能将实验室课程收集的数据点转化为直观的可视化图形。
对于用第二语言学习的人来说,吴同学说“语言障碍[可能]阻止学生充分交流思想”。他说,使用人工智能将这些学生用母语表达的原始想法或初稿翻译成英文论文可能是解决这个问题的一个方案。吴同学承认,如果学生依赖人工智能来产生想法,而人工智能返回不准确的翻译或完全代写论文,这种做法很容易变得有问题。
去年11月,在泰国萨莱亚的玛希隆大学就读的本科生琼猜·崇塔纳科恩和瓦丽莎·孔桑提纳特在联合国教科文组织亚太地区生成性人工智能与教育圆桌会议上提出了他们的观点。他们指出,人工智能可以作为一个定制导师的角色,为学生提供即时反馈。
“即时反馈通过使学生能够认识到并迅速纠正错误,促进迭代学习,提高他们的理解和表现,”崇塔纳科恩和孔桑提纳特在给《自然》杂志的电子邮件中写道。“此外,实时人工智能算法监控学生的进度,指出发展领域,并根据反应推荐相关的课程材料。”
尽管私人导师可以提供相同的学习支持,但一些人工智能工具提供了免费的替代方案,有可能为低收入学生提供公平竞争的环境。
尽管人工智能可能带来好处,学生们也表达了对使用人工智能可能对他们的教育和研究产生负面影响的担忧。ChatGPT因为“幻觉”——产生不正确的信息但自信地断言为事实而臭名昭著。在宾夕法尼亚州匹兹堡的卡内基梅隆大学,物理学家鲁珀特·克罗夫特与物理研究生帕特里克·肖和耶苏克海·贾格瓦尔一起主持了一个关于负责任的人工智能的研讨会,讨论了人工智能在自然科学中的作用。
克罗夫特说:“在科学中,我们试图提出可测试的东西——而要测试事物,你需要能够重复它们。”但是,他解释说,很难知道人工智能是否能够重复,因为软件操作通常是一个黑匣子。“如果你问[ChatGPT]同一个问题三次,你会得到三个不同的答案,因为其中有一个随机元素。”
而且因为人工智能系统容易产生幻觉,并且只能根据他们已经看到的数据给出答案,所以真正新的信息,如尚未发表的研究,通常超出了他们的理解范围。
克罗夫特同意人工智能可以协助研究人员,例如,帮助天文学家在大量数据中找到行星研究目标。但他强调使用这些工具时需要批判性思维。克罗夫特在研讨会上争辩说,要负责任地使用人工智能,研究人员必须理解导致人工智能得出结论的推理过程。仅仅根据一个工具的说法来接受答案是不负责任的。
肖说:“我们已经在我们理解的边缘工作”在科学探究中。“然后你试图用我们几乎不理解的工具来了解这个东西。”
这些教训也适用于本科科学教育,但肖说,他还没有看到他教授的课程中人工智能发挥了重要作用。他说,归根结底,像ChatGPT这样的人工智能工具“是语言模型——它们在定量推理方面真的很糟糕”。
肖说,当学生在他们的物理问题上使用人工智能时,这是显而易见的,因为他们更有可能得到错误的解决方案或逻辑不一致。但随着人工智能工具的改进,这些迹象可能变得更难检测。
崇塔纳科恩和孔桑提纳特说,他们从联合国教科文组织圆桌会议上得到的最大教训之一是,人工智能是一把“双刃剑”。尽管它可能有助于学习的某些方面,他们说,学生应该警惕过度依赖技术,这可能会减少人际互动和学习成长的机会。
崇塔纳科恩和孔桑提纳特在他们的电子邮件中写道:“依我们之见,人工智能有很多潜力帮助学生学习,并且可以提高学生的学习曲线。”但是“这项技术只应该用来辅助教师或作为次要工具”,不应该作为教学的主要方法,他们说。
平等获取
塔玛拉·帕里斯是加拿大蒙特利尔麦吉尔大学的硕士生,研究人工智能和机器人伦理。她说,学生们还应该仔细考虑由人工智能工具产生的隐私问题和不平等问题。
她说,一些学者由于担心人工智能公司是否会滥用或出售用户数据而避免使用某些人工智能系统。帕里斯指出,如果对这些工具的知识或访问权限不平等,人工智能的广泛使用可能会在学生之间创造“不公正的差异”。
塔玛拉·帕里斯说,并非所有学生都能平等地使用人工智能工具。图片:麦吉尔大学麦考尔·麦克班奖学金
“有些学生非常清楚人工智能的存在,而其他人则不然,”帕里斯说。“有些学生能够支付人工智能订阅费用,而其他人则不能。”
张(Chang)表示,解决这些问题的一种方法是尽早教育学生和教育工作者了解人工智能的缺陷及其负责任的使用。“学生们已经通过Snapchat等集成应用程序在学校使用这些工具了,”张说。
张补充说,除了了解幻觉和不准确性之外,还应该教导学生人工智能如何延续我们社会中已有的偏见,例如歧视来自代表性不足群体的人。这些问题因人工智能的黑箱性质而加剧——通常,即使是构建这些工具的工程师也不完全知道人工智能是如何做出决策的。
李(Lee)说,除了人工智能素养之外,积极明确的人工智能使用指南将是关键。在一些大学,学者们自己划定了这些界限,有的禁止在某些课程中使用人工智能工具,有的则要求学生在作业中使用人工智能。科学期刊也在实施人工智能使用的指导方针,这些指导方针涵盖了从彻底禁止到强调透明使用的范围。
李说,教师应该清楚地向学生传达在哪些情况下可以使用人工智能,哪些情况下不能使用,并且重要的是,表明这些决定背后的原因。“我们还需要学生保持诚实和披露——对于某些作业,我完全同意学生使用人工智能支持,但我期望他们披露并清楚说明其使用方式。”
例如,李说他可以接受学生在数字制造课程中使用人工智能——人工智能生成的图像用于激光切割作业——或者在学习理论课程中探索人工智能的风险和好处。
目前,人工智能在教育中的应用是一个不断变化的目标,其最佳实践将像它所应用的学科一样多样化和微妙。学生声音的包含将是至关重要的,以帮助高等教育中的人们确定这些界限应该在哪里,并确保人工智能工具的公平和有益使用。毕竟,它们不会消失。
“在学术环境中完全禁止使用人工智能是不可能的,”帕里斯说。“与其禁止它们,不如重新思考围绕人工智能的课程更为重要。”
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-12-21 22:14
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社