来源:Nature
原文作者:杨洪(Hong Yang),雷丁大学环境科学教授
“LLMs 将继续存在,” 英国雷丁大学环境科学教授杨洪写道,“以下是我如何将它们融入教学工作之中。”
2022 年 11 月底,我的大学教学工作突然被一个不速之客打乱——ChatGPT,这是一个大型语言模型(LLMs),在庞大的语言数据集上进行训练,可以总结、翻译和创造文本。
就像很多老师一样,我对该工具最大的担忧是,学生在写论文时利用它作弊。我理解确保学生作品的原创性和避免学术不诚信的重要性。一些美国大学,如美国华盛顿大学,已经将 ChatGPT 生成的文本纳入他们对抄袭的定义中,一些亚洲大学,如中国的香港大学,已经完全禁止使用 ChatGPT,但许多机构并没有明确的指导方针——包括我任职的英国雷丁大学,我在那里教授空气污染的相关课程。
我不认为我们可以完全禁止 ChatGPT,因为目前的技术很难检测出由模型编写的作品。我的学生很快就会毕业并开始工作,他们的雇主可能会要求他们与人工智能模型一起工作,如果他们不知道如何正确使用这些工具,就可能会阻碍学生的发展。我们无法阻止学生使用计算器或互联网,我们也无法阻止他们使用 ChatGPT。最好的办法是了解这个工具,并尝试将其融入教学之中。
对教学任务的反思
在以往的教学工作中,我会给我的学生布置一份文献综述。今年,为了避免抄袭并鼓励创新,我要求学生以小组形式在校园内收集空气质量数据。然而,学生们依然是使用统计方法独自分析数据,撰写个人论文。
当然,很多学生对创建项目并不熟悉。有些人努力想出一个合适的方法来评估二氧化碳排放——于是,我建议他们使用 ChatGPT 来帮助他们设计项目,这个模型可以概括出几个步骤:从确定一个地点,到选择二氧化碳监测设备、把设备设置好、收集和分析数据,以及展示和传播结果。
当涉及到科学分析和撰写论文时,学生们做了所有的工作——但他们也学会了大型语言模型(LLMs)是如何产生科学想法并帮助规划一般实验的。
我的学生学习环境科学或地理学,所以大多数对如 R、Python 等编程语言并不是很熟练,我有时在调试这些语言的代码时也会遇到麻烦,而 ChatGPT 可以帮助我们解决这个问题。例如,在我的指导下,学生们使用 ChatGPT 创建 R 代码,进行他们的统计学检验,并分析校园内自然(如草原)和人为(如教室)场所之间的二氧化碳水平差异。我发现,只要提示是简单明了的,机器人就会生成有效的代码。
例如,使用 R 语言代码进行 t-test,来分析大学校园内自然和人为场所的二氧化碳浓度差异。
为了确保我的学生能够更好地理解(我提供的)材料并避免抄袭,我还改变了我的评估方法。他们不再只是写论文,而是需要做 10 分钟的口头报告,分享他们的发现。这种方法不仅减少了抄袭的几率,而且使评估过程更具互动性和吸引力。我向每个学生提供个性化的反馈,指出他们需要改进的地方,并鼓励他们进行原创性思考。
潜在隐患
尽管 ChatGPT 能给我们带来很多好处。但事实证明,它对学术机构的多样性和包容性有负面影响。
例如,在一次关于温室气体的讲座中,我要求 ChatGPT 提供一份关于气候变化的重要书籍及其作者的清单。
为了避免任何与种族和语言有关的偏见,我在提示(prompt)中加入了 “不分种族和语言”(regardless of race and language)。然而,ChatGPT 的所有建议都是用英语写的,10 位作者中有 9 位是白人,10 位作者中有 9 位是男性。
使用来自出版已久的书籍和一些网站的信息训练 LLMs,可能会导致对边缘社区(marginalized communities)的观点的偏见和不准确的表述,同时放大那些有权力和地位的人的声音。Galactica 是科技公司 Meta 发布的一个 LLMs,由于它产生了种族主义相关的内容,而不得不被停用。
由于用来训练这些 LLMs 的大部分数据都是用英语表达的,所以它们在这种语言中表现最佳。LLMs 的广泛使用可能会加剧特权群体的过度代表性,使那些已经代表性不足的人进一步被边缘化。
一些实用技巧
这里有一些关于如何在课堂上有效使用 ChatGPT 的建议:
1. 花一些时间学习和练习在 ChatGPT 中输入提示语。
2. 使你的(教学)评估多样化,如增加口头报告,以避免抄袭。
3. 意识到 ChatGPT 加剧不平等的风险。
4. 确定明确的目标:对你想通过 ChatGPT 实现的目标有一个清晰的认识。
5. 测试和完善提示语:用 ChatGPT 测试提示,并根据结果完善提示。重复这个过程,直到达到预期结果。
6. 与他人一起编辑:与其他讲师和你的学生合作,审查和完善提示语。
原文链接:
https://www.nature.com/articles/d41586-023-01026-9