文章来源:放心AI网发布时间:2025-07-01 13:16:34
OpenAI 近期推出了一项新系统,旨在监控其最新的 AI 推理模型 o3和 o4-mini,以阻止与生物和化学威胁相关的提示。该系统的目标是防止模型提供可能教唆他人实施有害攻击的建议,确保 AI 的安全性。
OpenAI 表示,o3和 o4-mini 在能力上较之前的模型有显著提升,因此在恶意用户手中可能带来新的风险。根据 OpenAI 的内部基准测试,o3在回答关于某些生物威胁的相关问题时,表现得尤为出色。为了应对这些风险,OpenAI 开发了这个新的监控系统,称之为 “以安全为中心的推理监测器”。
这个监测器经过定制训练,能够识别与生物和化学风险相关的提示,并指示模型拒绝提供这些主题的建议。为了建立基线,OpenAI 的 “红队” 成员花费了约1000小时,标记 o3和 o4-mini 中 “危险” 的生物风险相关对话。在一次模拟测试中,OpenAI 的安全监测器成功阻止了98.7% 的危险提示的响应。
尽管如此,OpenAI 承认其测试并未考虑那些在被监测器阻止后可能尝试新提示的用户,因此公司表示将继续依赖部分人工监控。根据 OpenAI 的说法,o3和 o4-mini 并未超过其 “高风险” 生物风险的阈值,但与 o1和 GPT-4相比,o3和 o4-mini 在回答关于生物武器开发问题时表现得更为出色。
OpenAI 还在积极跟踪其模型如何可能被恶意用户用来开发化学和生物威胁,并更新了其 “准备框架”。公司越来越依赖自动化系统来减轻其模型带来的风险。例如,为了防止 GPT-4o 的原生图像生成器创建儿童内容,OpenAI 表示使用了一种与 o3和 o4-mini 相似的推理监测器。
然而,一些研究人员对 OpenAI 是否足够重视安全性表示担忧。一家名为 Metr 的红队合作伙伴指出,他们在评估 o3的欺骗行为基准测试时时间相对有限。同时,OpenAI 选择不为其最新推出的 GPT-4.1模型发布安全报告。
相关攻略 更多
最新资讯 更多
OpenAI新系统阻断生物和化学风险信息,保障AI安全
更新时间:2025-07-01
AI音乐时代来临:Deezer平台上18%的新曲由人工智能创作
更新时间:2025-07-01
DeepSeek创始人梁文锋荣登《时代》“2025年全球最具影响力100人”榜单
更新时间:2025-07-01
火山引擎发布豆包1.5深度思考模型:结合视觉理解与智能项目管理
更新时间:2025-07-01
SoundHoundAI(SOUN)获得重要AIOps认可,但股价目标被下调
更新时间:2025-07-01
国际仲裁机构发布人工智能应用新指南
更新时间:2025-07-01
腾讯增持智元机器人
更新时间:2025-07-01
英国或将吸引OpenAI与软银5000亿美元"星门"AI数据中心巨额投资
更新时间:2025-07-01
404-GEN成为首个与Unity集成的去中心化3D模型生成平台,推动内容创作的民主化
更新时间:2025-07-01
上海人工智能实验室推出升级版多模态大模型“书生・万象3.0”
更新时间:2025-07-01