✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
最近一直在思考这个问题——现在课堂上的AI检测到底怎么了?就像大家都假设老师们都在用某个通用工具,但实际上情况比这要复杂得多。
我注意到最大的变化始于ChatGPT走红之后。突然之间,老师们得搞清楚他们在学生提交的作业中到底读到了什么。那些文章真的是学生写的,还是只是经过润色的AI输出?这也促使对老师用AI检测工具的需求迅速增长。
我实际观察到的情况是:大多数大学和大型机构都依赖Turnitin。它最初并不是为这个设计的——主要是用来查抄袭——但他们加入了AI检测功能,因为学校基本上要求这样做。这个工具会分析句子预测性和写作结构,以标记潜在的AI内容。并不完美,但已经嵌入到他们的系统中,所以一直用着。
然后还有GPTZero,它是专门针对AI写作检测而来的。老师们开始用它作为二次检查,因为操作简单。但问题在于——它会捕捉文本的可预测性模式,有时也会误判写得很好的人工作品。误报确实存在。
另外一个逐渐受到关注的工具是Copyleaks,尤其是在需要多语言支持的学校。它结合了抄袭检测和AI检测,吸引那些想要一站式解决方案的机构。
有趣的是?OpenAI其实也推出过自己的分类器,但悄悄关闭了,因为准确率太不可靠。这也说明这个问题其实有多难。
但大多数人误解的地方在于:老师们用的AI检测工具其实并不能“证明”什么。这些工具只是分析模式,计算概率分数,仅此而已。一个标记只是提示某个内容可能值得再检查,而不是判定有罪。
根据我的观察,聪明的老师不会只依赖检测分数。他们会观察学生的写作是否突然变得比以前更流畅,词汇水平是否跳跃到不符合学生平时水平的程度。他们会问一些具体的例子或学生应该知道的课堂参考资料。
实际上,大多数学校都有这个多步骤的流程。如果内容被标记,老师会手动审查,把它和学生以前的作业对比,甚至会直接和学生沟通。很多问题都是通过交流解决的,而不是惩罚。
我觉得,变化在于,教育者逐渐不再把检测结果当作最终裁决。更聪明的方法是关注学习成果和批判性思维,而不是只盯着AI的使用。有些学校甚至开始允许用AI进行头脑风暴或语法帮助——更看重学生如何使用工具,而不是是否使用。
最疯狂的是,任何老师用的AI检测器都不可能完美。人类判断结合检测信号,依然是最可靠的方法。说到底,这大概也是应该这样保持的。