MIT与IBM共研大模型错误校准方法 提升大模型答案准确性增强用户信任
摘要 【太平洋科技快讯】随着人工智能技术的发展,大型语言模型被广泛应用于翻译、文章总结、金融诈骗识别等多种任务。但这些模型在提供高效服务...
【太平洋科技快讯】随着人工智能技术的发展,大型语言模型被广泛应用于翻译、文章总结、金融诈骗识别等多种任务。但这些模型在提供高效服务的同时,也存在着对错误答案过于自信的问题,这引发了人们对模型可靠性的担忧。为了解决这一问题,麻省理工学院(MIT)与MIT-IBM Watson AI Lab的研究人员提出了一种新型的校准方法,他们称为“温度计”,这种方法通过构建一个较小的辅助模型,对大型语言模型进行校准,以提高其准确性和可信度。
这一方法采用了“温度缩放”这一经典校准技术。在这个框架中,“温度”作为一个缩放参数,用于调整模型的“信心”,使其与预测准确性相匹配。研究人员训练的辅助模型能够在大型语言模型之上运行,自动预测校准新任务所需的“温度”。
“温度计”只需访问大型语言模型内部的一小部分,就能为特定任务数据点预测出正确的“温度”,以实现更精准的校准。这种方法不仅减少了计算资源的需求,而且能够在面对新任务时,提供更准确的校准响应。
研究团队对其应用场景充满期待,他们希望“温度计”能够支持更复杂的文本生成任务,并在更大的语言模型中得到应用,从而推动人工智能技术向更可靠、更高效的方向发展。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。