文章摘要
该讨论帖提议在 Lobsters 社区建立明确政策,禁止提交大语言模型(LLM)生成的文章。参与者普遍认为,这种“垃圾信息”(slop)正在充斥网络,社区需要通过政策来净化首页并封禁惯犯。讨论的核心在于如何在维护内容质量与避免误伤人类作者之间取得平衡。
社区讨论
讨论氛围积极且倾向于严格管控,多数用户支持赋予管理员根据发布模式进行裁量的权力。热门评论指出,虽然检测并非百分之百准确,但社区的“垃圾雷达”通常很灵敏,应优先处理明显的 AI 垃圾。也有声音提醒要警惕“猎巫”倾向,防止因写作风格相似而误判真实作者。