成员们投票决定解散并关闭门诺派历史学会(MHS),该学会是《门诺派季刊》的长期出版商。

新闻
校园对人工智能的思考
Sep 11 2024
11月XNUMX日,星期三,戈申学院(Goshen College)的三位员工——商学院助理教授Alysha Liljeqvist、图书馆馆长Fritz Hartman以及宗教与可持续发展助理教授Luke Beck Kreider——在毕业典礼上就校园人工智能的应用发表了演讲,并分享了他们的个人观点。演讲内容如下:

莉列奎斯特从电报的发明到弹弓上的小红鸟,我们用了175年的时间,而从那只小红鸟到OpenAI的成立,只用了XNUMX年时间。这真是太快了,而这正是我们正在经历的。这既令人兴奋,又略显不知所措,但其核心仍然只是XNUMX和XNUMX。想象一下:我们正在种一棵树,但它仍处于早期阶段。树干正在生长,但树枝和树叶,以及它的全部潜力,仍在发育。未来令人兴奋,所以保持好奇心。在你的领域尝试一下,看看这棵树是如何生长的。
哈特曼1900年,路上有4,000辆汽车,而马匹数量则有21万匹。到了1920年,汽车数量超过了马匹;到了1950年,短短50年间,我们每个人都拥有了汽车。但你猜怎么着?紧接着发生了什么——我们不知道该如何驾驶这些汽车。1913年,每33.38辆汽车导致10,000人死亡。如今,这个数字是1.5人——下降了95%。那么发生了什么?交通规则改变了这一切。我们设置了各种标志,在路上画了线。我们犯了很多愚蠢的错误,但我们从中吸取了教训。我认为这也是人工智能领域未来将要发生的事情。速度会更快,但道路的基本规则将变得更加重要。我们必须能够评估源材料的质量,对自己有更高的学术诚信标准,并且至少对人工智能正在做的事情有一定的背景知识。
克雷德写作需要同理心,设身处地为他人着想,尝试从他们的角度看待事物。它需要尝试与对方沟通,并与他们分享一些东西。写作是一种对脆弱性、同理心和自我理解的练习,即使你写的不是你自己。所以我一直告诉我的学生不要在写作中使用人工智能,因为我认为在戈申这样的地方,教育的重点就在于我们进行这样的练习——我们做的事情锻炼我们成为好人所需的能力,无论是在道德上、社交上、智力上,还是在能力上,都是优秀的,充满力量的。用自己的声音写下自己的想法就是一个例子。它锻炼了你的同理心、脆弱性和自我理解能力。所以在我看来,ChatGPT 对我们来说的主要问题不在于它不诚实,而在于它违背了文科教育的基本宗旨。
作为背景信息,戈申学院最近更新了其学术诚信政策,增加了以下一段:
使用生成式人工智能完成作业,如果将作业内容误认为学生自己的语言和想法,也被视为抄袭。在某些情况下,教授可能会允许甚至要求将人工智能用于教学目的。此类例外情况仅在教授明确允许使用这些工具的情况下适用。当使用人工智能作为信息来源时,学生应对该信息的真实性负责。
在刑事司法和社会学教授罗伯特·布伦尼曼(Robert Brenneman)的指导下,学生们在上一学年对GC的人工智能使用情况进行了一项调查。以下是一些统计数据:
- 大致 四分之一 所有接受调查的 GC 学生都使用过 ChatGPT 等 AI 工具来完成作业
- 四分之三 53 名以这种方式使用人工智能的学生打算在未来将其用于同样的目的。
- 在这 53 名学生中, 只有7.6% 使用它来完成作业,只需进行少量修改或根本不修改即可提交,而全国范围内只有 47% 的学生这样做。
为了在周三的毕业典礼以及戈申学院不断发展的人工智能应用的基础上,我们邀请了多位担任学生服务工作的教职员工分享他们对校园人工智能的看法。他们是:
- 罗伯特·布伦尼曼 (Robert Brenneman),刑事司法和社会学教授,CJRJ 项目主任
- 苏珊娜·埃斯特(Suzanne Ehst),副学术院长
- 安娜·格罗夫(Anna Groff),传播学助理教授
- 会计学教授安德鲁·哈茨勒
- 学术成功副主任 Jesse Loewen
- 科特尼·斯特恩(Kortney Stern),英语客座助理教授
这些回复已根据篇幅和清晰度进行了编辑,但本文的创作并未使用人工智能.
关于回应学生使用人工智能……
罗伯特·布伦尼曼(刑事司法和社会学): 有几次情况非常明显,其他时候我虽然有所怀疑,但没有进一步调查。在短小、低风险的作业中,如果我怀疑学生使用了不当的人工智能,那么花费精力和时间去质问学生并不总是值得的。有两次我不得不质问学生,当时的情况要么非常恶劣(在一项重要的作业中,人工智能的使用方式有问题),要么已经发展成了一种模式,阻碍了学生写作能力的提升。
Jesse Loewen(学生成功): 我还没见过学生用过,但我跟他们聊过他们如何使用AI。去年,我遇到一位高年级学生,她对自己想写的内容只有一个模糊的想法,然后利用AI来完善其中的一些想法,比如让AI做x、y、z等事情。
Kortney Stern(英语): 我的课程中也曾遇到过更多人工智能的“灰色地带”应用,例如学生使用 Grammarly。我曾有一位学生提交了一篇论文,我立刻感觉到这篇论文与他们之前的论文在语气、风格和语调上存在着明显的差异。他们完全相信这是他们的论文,但当被问及人工智能的问题时,他们说他们使用了一个程序,该程序要求用户上传他们的作品,而该程序会修改所有词汇和语法,以反映它所认为的“学术性”。这个案例的有趣之处在于,学生确实写了论文,但人工智能对他们的措辞和措辞进行了大量的修改,以至于它读起来不再像是学生的原创作品。我认为,我见过的这类“灰色地带”案例越来越多,而不是直接复制粘贴、清晰的人工智能生成的论文。
安德鲁·哈茨勒(会计): 使用人工智能来生成写作作业和大纲的答案变得越来越普遍。
关于人工智能的个人使用……
安娜·格罗夫(通讯员): 我更多地使用它来产生想法和内容而不是写作:用于集思广益课堂活动和计划、书籍或其他资源的摘要、与主题相关的电影或其他媒体的列表、概述课堂的每周主题等。
Jesse Loewen(学生成功): 我每天发邮件时都会多次使用 Grammarly AI 功能。我经常写得太多。让 AI 帮我缩短邮件篇幅、检查语法等等,可以让我写出更专业的邮件,更快地识别出问题或需求。尤其是当邮件内容非常详细、涉及不同视角,或者涉及“非常重要”的人物时,Grammarly AI 让我对自己发送的内容充满信心。
罗伯特·布伦尼曼(刑事司法和社会学): 我曾尝试用人工智能为考试中的多项选择题生成“似是而非”的错误答案。我还对它进行了广泛的实验,只是想看看它能如何被学生运用。我问了它一个关于我自己研究的问题,它竟然编造了一些精彩的期刊文章标题,而且这些标题都写着我的名字,而这些标题发表在根本不存在的期刊上!
Kortney Stern(英语): 我个人从未将人工智能用于所谓的“工作外包”。我曾与在其他大学任教的朋友讨论过这个问题,我知道很多人确实这么做了。我个人喜欢把每一次写作的机会都视为练习的机会。对我来说,写作艺术是一门终身技艺,但这只是我个人的看法。我理解为什么有些人觉得,如果他们已经掌握了写作技能,为什么不利用人工智能来协助那些可以轻松委派且准确完成的任务,比如撰写电子邮件或教学大纲。
苏珊娜·埃斯特(副学术院长): 我在工作中主要使用像 ChatGPT 这样的大型语言模型 (LLM)。它们并不总是有用。如果我写的东西非常具体,这些工具通常会生成过于通用的文本。然而,对于更通用的事情——比如更新我们的学术诚信政策,纳入关于人工智能的明确指导——LLM 可以比我更快地生成可用的文本。
安德鲁·哈茨勒(会计): 我以 Grammarly 的形式使用它来校对电子邮件和大多数文档。我还没有更频繁地使用生成式人工智能。
关于在课堂上使用人工智能……
罗伯特·布伦尼曼(刑事司法和社会学): 我在课堂上用过 ChatGPT 两次,感觉它很有用。在“研究方法”课上,我们让它为我们的调查创建一份知情同意书,它表现得相当不错,生成了“标准”文本,我们可以修改后用于自己的用途。在高级研讨课上,我让学生们使用 AI 提示为他们找到的招聘广告生成求职信,它生成的文笔优美得令人惊叹。但进一步研究后,学生们发现,这些内容相当笼统,并没有真正针对他们的具体情况。
Kortney Stern(英语): 我在课堂上喜欢做的一项活动是让AI“用某位作者的风格写一首诗、一首歌、一段话等等”。然后,我会让全班同学看看AI能理解哪些内容。它是否试图模仿主题、语气等等?它的选择是否有任何奇怪、不正确或不恰当的地方?是否存在任何明显的遗漏?或者,我可能会让他们让AI创作一首诗,然后让他们“修改”它,或者以此为起点进行补充。
安德鲁·哈茨勒(会计): 在写作方面,我使用学院现行的人工智能政策。它在课堂上的应用与我的课程不太相关,因为学生必须在纸上向我展示如何运用他们所学的概念。我想说,我们系比其他大多数系都更愿意使用它,我的同事Alysha [Liljeqvist] 就大量使用它。
关于专业适应不断发展的人工智能……
安娜·格罗夫(通讯员): 我想继续亲自尝试,并找到让学生认真思考、深入探索的方法。这可能意味着在构思故事创意、研究思路、资料来源等的头脑风暴阶段,也要在撰写文章/论文的最终版本时谨慎行事。我最终希望学生在作业中读到自己的想法和文字——这比完美的写作更重要。我希望帮助他们避免哪怕是最轻微的用它来编造新闻报道或研究数据的诱惑。
Kortney Stern(英语): 我个人对科技的接受度总是有点慢。话虽如此,我认为课堂在内容、主题、作业和教育工具(例如人工智能)方面反映“现实世界”至关重要。与所有工具(包括学习工具)一样,人工智能也可能被利用、误用或滥用。对我来说,最重要的是学生首先学习任何特定的技能(例如如何撰写学术论文、如何构建强有力的论点等),然后一旦掌握了这项技能,他们就可以开始运用其惯例,甚至借助人工智能来帮助集思广益,确定论文主题或创建提纲。因此,从这个意义上讲,除非是课堂活动,否则我更不愿意在我的100级课程中使用人工智能;但对于300级课程,我对课堂内外使用人工智能的限制较少。
安德鲁·哈茨勒(会计): 我会在任何能够通过AI输入提示快速重构语言和流程,提高课堂示例生成效率的地方使用它。我认为它在语言/讨论类课程中比在基础流程课程中更适用,但在高级流程课程中,它可以作为示例生成器和加速流程完成的一种优秀教学工具。
关于人工智能的总体想法……
安德鲁·哈茨勒(会计): 它就像任何其他工具一样,其用途可能好坏取决于用户的动机。我担心,在较低的学习阶段,它会让学生更容易地产生一种错觉,以为自己理解了实际上并不理解的东西。这会让他们在工作或更高层次的学习中效率低下,因为他们从未学习过基本的流程和结构,无法完成新的、更复杂的任务。话虽如此,如果学生想要在预期使用人工智能的环境中有效发挥作用,就必须学会如何将其作为一种工具来使用。它本质上是一个强化版的模板生成器和假设器。辨别输入和预期结果之间差异的能力将是教育系统需要改进的地方。这就像用计算器做数学题一样。它极大地加快了计算速度,但如果用户不理解其中的概念,计算器就不会给出正确的结果。
罗伯特·布伦尼曼(刑事司法和社会学): 我一直告诉学生们,人工智能只会让真实性变得更加宝贵。他们至少需要具备人工智能素养。这意味着知道如何以及何时利用人工智能为自己谋利。从现在起,糟糕的语法和拙劣的文笔将显得格格不入。但真实性、价值观、热情,以及用我们的想法和行动给他人带来惊喜和唤醒的能力——这些东西的“市场”只会越来越大。人工智能的繁荣依赖于可预测性。而深思熟虑、自我批评的文理学院毕业生则在其他方面表现出色。
Jesse Loewen(学生成功): 它是一种工具,但很多学生都想走捷径。因此,从某些方面来说,它无疑是一种危险。我经常思考那些需要你每天展示学习成果的领域。在大学里使用人工智能却从未真正运用自己、运用技能等等,这让我对我们的子孙后代感到担忧。随着人工智能的不断发展,我们必须谈论它,并与各级教育的学生和教职员工进行沟通。
苏珊娜·埃斯特(副学术院长): 新工具正在高等教育中引发大量有益的讨论,我们需要继续推进。这里有太多重要的跨学科领域需要探讨,而文理学院正是整合我们各个专业领域的良机——例如职场准备、伦理使用、教学与学习以及信息素养等等。这既令人生畏,又令人兴奋。
Kortney Stern(英语): 如果我今天当女王,我的愿景就是让人工智能的应用不再被遮蔽。现在,我认为人们理所当然地认为人工智能就等于抄袭。但实际上,人工智能经常导致一些灰色地带,比如我之前举的人工智能改变学生声音的例子。我认为这是一个非常有成效的对话:写作中的语气是什么?我们如何识别纸面上的声音?什么时候写作风格不再是我们自己的?这些都是很棒的对话,但常常因为对人工智能的恐惧而被搁置——无论是对人工智能的使用,还是对使用它的潜在惩罚。我希望我们能与学生们进行开放的对话。他们是如何使用人工智能的?他们在使用吗?使用频率如何?在哪些类型的课程或作业中使用?他们是在一年级时使用得更多,而在高年级课程中使用得更少吗?如果真的存在“越界”的话,他们认为自己什么时候“越界”了?我很想听听他们的观点。我们能够实现这种公开透明的唯一方法是让他们不害怕后果,因此,我们作为教员,在假设或采取行动之前也必须愿意倾听。
最后, 杰西·洛文 为对话增添了新的视角:
在讨论母语非英语的学生时,一位同事反驳我说,如果英语不是他们的母语,学生就应该使用人工智能。我的观点是,人工智能确实可以用来学习一些基础的知识,但要真正学习和理解一门语言,我觉得需要采取不同的方法。这次谈话至今仍让我记忆犹新,因为我不知道最佳的语言学习路径是什么。
换个角度来看,一个非英语母语人士走进一家快餐店,掏出手机,用人工智能来点餐。这当然可行。然而,我的想法是,这个人可能希望在人生中达到一个不需要随时准备点餐的阶段。他们可能已经学会了这门语言,或者因为理解这门语言而拥有了足够的自信点餐。也许他们选修了我们大学提供的英语课程,或者得到了一些支持,能够密切配合他们的英语学习。也许我想太多了,但我真的很好奇那些正在学习英语的人更喜欢什么。他们更倾向于哪种方式?是在接下来的20年里一直使用手机,还是真正学习这门语言?如果在某个特定领域工作,如果另一种选择是帮助一个人学习语言,那么用手机当翻译/人工智能就不是理想的选择。这只是一个值得思考的问题。
卢克·克雷德毕业典礼上的最后一位发言者以这段话结束了他的演讲。
你们当中有些人去年看了关于原子弹诞生的电影《奥本海默》。那部电影展现了历史上真实发生的事情。一旦造出了原子弹,不使用它就变得不合理了。一旦使用了这项技术,不制造更多更大的原子弹——偶尔也用一下——就会显得疯狂甚至危险。我听过很多这样的例子:一旦造出技术,就必须使用它。我知道人工智能不是核武器,但我担心这种技术胁迫。我们最终会不会被迫决定如何使用它以及是否使用它?这种转变的代价是什么?对我来说,人生中最有价值、最具道德意义、最深刻的人类任务之一,就是弄清楚我们真正在想什么,我们想对别人说什么。在我看来,人工智能最大的道德风险之一在于,让机器人代替我们思考,并让它们承担我们自身所需的所有工作,这可能会变得极具诱惑力,甚至成为必然。这些工作是为了维持我们独立思考、做出判断、决策和结论的能力,为了运用我们的情感和身体进行思考,为了与身体和其他人进行对话进行思考。我认为,作为一个大学群体,我们应该思考如何以支持我们的方式利用人工智能,培养我们的核心价值观,提升我们的核心能力,从而实现我们想要的生活。


