AI聊天机器人越大越爱“胡说八道”

大型语言模型能回答各种各样的问题,但并不总是准确。图片来源:Jamie Jin/Shutterstock
一项9月25日发表于《自然》的研究表明,当大型语言模型(LLM)变得更大并从人类反馈中进行学习时,它们在回答简单问题时反而变得不那么可靠。
人工智能(AI)开发人员试图通过两种主要方式提高LLM的能力:一是扩大规模,为其提供更多的训练数据和更高的计算能力;二是根据人类反馈塑造它们,对其进行调整或微调。
西班牙巴伦西亚理工大学的José Hernández-Orallo和同事研究了LLM在规模扩大和成形过程中的表现。他们研究了美国OpenAI公司的GPT系列聊天机器人、美国Meta公司的LLaMA AI模型,以及BigScience项目研究人员开发的BLOOM。
研究人员通过设置5种类型的任务测试了AI,即算术题、解字谜、地理问题、科学挑战和从杂乱无章的列表中提取信息。
他们发现,扩大和塑造可以让LLM更好地回答棘手的问题,比如将异序词“yoiirtsrphaepmdhray”重新排列为“甲状旁腺功能亢进症”(hyperparathyroidism)。但它们在基本问题上的进步并不匹配,例如,当被问及“当把24427和7120加在一起时,会得到什么”时,LLM会一直出错。
AI系统在解答难题时的表现越来越好,同时,它开始“无所不答”,结果导致给出错误答案的概率反而增加了。
Hernández-Orallo表示,研究结果突出了将AI描述为无所不知的危险性——它们的创造者经常会这样做,而一些用户则太愿意相信这一点。“我们过度依赖和信任这些系统。”他说。
这是一个问题,因为AI模型对自己的认知程度并不自知。英国牛津大学的Carissa Véliz说:“人类之所以超级聪明,部分原因在于尽管人们有时没有意识到自己不知道的东西,但与大型语言模型相比,我们有这方面的认知。大型语言模型往往不知道自己知识的极限。”(记者 王方)
相关论文信息:
https://doi.org/10.1038/s41586-024-07930-y
本文链接:http://knowith.com/news-7-592.htmlAI聊天机器人越大越爱“胡说八道”
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
中小企业将可享“5公里服务圈”
稳外贸稳外资税收政策指引
关于印发《服务健康事业和健康产业人才培养引导性专业指南》的通知(教高厅函〔2023〕26号)
【解读】抓紧推动落实相关政策支持中小企业发展——四部门回应推动民营经济高质量发展
关于金融支持住房租赁市场发展的意见(银发〔2024〕2号)
中电数据科学与智能工程研究院成立
我学者观测到一类高阶非厄米奇异点结构
【征集】关于组织开展“无废园区”“无废企业”典型案例征集工作的通知(工信厅联节函〔2024〕16号)
图说外观设计|一图概览制度新变化
图说外观设计|一图概览外观设计本国优先权制度
谨防上当!国家数据局声明:未授权“数据要素×”相关有偿活动
恩曲替尼一盒多少钱(老挝版)价格在5599~7899之间,2025年恩曲替尼单价公开
在国内怎么代购孟加拉/老挝版维奈克拉?更新2025年维奈托克真实价格
全天取现小二:拼多多先用后付如何TX到银行卡安全秒到