• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 汽车出海新书发布
  • 粤港澳大湾区智能汽车技术协同及采购对接会
  • 2026第九届智能驾驶大会
  • 2026未来商用车及专用车技术与产业大会暨CSAE汽车智能交通分会
  • 2026第八届AI智能座舱大会
当前位置:首页 > 新技术 > 正文

KAIST开发出受大脑启发的新方法 可以让AI适度地怀疑自己从而避免过度自信

盖世汽车 李新坤 2026-05-12 07:50:55 前瞻技术

盖世汽车讯 当前大多数人工智能(AI)系统通过机器学习和深度学习来学习完成任务。机器学习是一种计算方法,使模型能够发现数据中可用于预测的模式。而深度学习则是机器学习的一个子集,利用多层神经网络,能够自主地从非结构化数据中提取特征并学习复杂的模式,有时甚至无需人工监督。

许多采用这些方法训练的AI系统还会为其预测结果生成置信度评分。这些评分本质上是对特定预测准确概率的估计。以往的研究表明,在多数情况下,AI系统过于自信,会给错误的答案赋予过高的置信度评分,甚至将不准确的信息当作事实呈现。这限制了其可靠性,尤其是在高风险应用中,因为错误的预测可能会造成严重的后果。

据外媒报道,韩国科学技术院(Korea Advanced Institute of Science and Technology,KAIST)的研究人员提出了一种受大脑启发的新型训练方法,有望生成更贴近实际的AI置信度估计。该策略使用随机噪声(即不包含任何有意义模式的数据)和任意输出对人工神经网络进行短期训练,使其在学习特定任务之前,能够学会生成更贴近实际的置信度估计。相关研究发表于期刊《Nature Machine Intelligence》。

KAIST开发出受大脑启发的新方法 可以让AI适度地怀疑自己从而避免过度自信

图片来源:期刊《Nature Machine Intelligence》

研究人员Jeonghwan Cheon和Se-Bum Paik在论文中写道:“不确定性校准,即预测置信度与准确度的匹配,对于机器学习系统在实际应用中的可靠部署至关重要。然而,目前的模型往往无法实现这一目标,产生的响应要么过于自信,要么不准确,甚至可能是捏造的。研究表明,深度学习中广泛采用的初始化方法——长期以来被视为标准做法——实际上是过度自信的主要来源。”



本文共计1000字开通高级账号后继续阅读

登录后获取已开通的账号权益

本文共计1000字开通高级账号后继续阅读

您未开通,请开通后阅读

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202605/12I70457337C409.shtml

 
0

好文章,需要你的鼓励

微信扫一扫分享该文章