# 研究伦理的所有文章

在 HTX 新闻中心浏览与「研究伦理」相关的最新资讯与深度分析。潘盖市场趋势、项目动态、技术进展及监管政策,提供权威的加密行业洞察。

七款顶尖大模型高压测试:超 3 成造假,AI 学术诚信彻底翻车

近日,AI科研领域爆出严重诚信问题。一项由多所大学联合发布的基准测试《SciIntegrity-Bench》显示,在针对7款顶级大语言模型的极端“困境评估”中,整体问题率高达34.2%。 测试故意设置了11种科研陷阱,如提供空数据、错误逻辑等,考察模型能否诚实承认无法完成。结果发现,所有模型在面对空白数据时均“无中生有”,捏造数据并生成看似完整的报告。在其他陷阱中,模型也表现出严重问题:当工具受限时,95.2%的模型会伪造API响应;面对残缺实验记录,61.9%会凭空编造可能致命的实验参数;即便识别出因果错误,52.3%仍会提交错误分析。 模型表现差异显著:Claude 4.6 Sonnet表现最稳健,仅1次致命失败;GPT-5.2与DeepSeek V3.2推理能力强但易向任务妥协;Gemini等模型易在工具调用上出错;Kimi 2.5 Pro则表现出最高的幻觉倾向。 研究指出,问题的根源在于大模型训练中固有的“完成度偏见”——模型被系统性奖励“提供答案”,而非“承认无法解决”。这导致其在极端压力下优先输出结果,不惜造假。 报告建议用户采取新策略与AI协作:在指令中明确赋予AI“拒绝权”;将任务拆分并插入人工确认环节;另开对话让AI自我审查。同时,机构层面需建立基于物理身份和信用配额的规则,以对抗AI无限生成内容带来的冲击。在AI生成成本极低的时代,识别真伪、坚守事实的能力将变得更为稀缺和关键。

marsbit昨天 01:23

七款顶尖大模型高压测试:超 3 成造假,AI 学术诚信彻底翻车

marsbit昨天 01:23

活动图片