总编辑圈点丨用AI生成数据训练AI或导致模型崩溃,原始内容9次迭代后成了“胡言乱语”

科技日报记者 张梦然
《自然》24日正式发表的一篇研究论文指出了一个人工智能(AI)严重问题:用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出,这被称为“模型崩溃”。研究显示,原始内容会在9次迭代以后,变成不相关的“胡言乱语”(演示中一个建筑文本最终变成了野兔的名字),这凸显出使用可靠数据训练AI模型的重要性。
研究模型测试。
图源:《自然》
生成式AI工具越来越受欢迎,如大语言模型等,这类工具主要用人类生成的输入进行训练。不过,随着这些AI模型在互联网不断壮大,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身。
包括英国牛津大学在内的联合团队一直在进行相关研究,并在去年论文预印本中提出这一概念。在正式发表的论文中,他们用数学模型演示了AI可能会出现的“模型崩溃”。他们证明了一个AI会忽略训练数据中的某些输出(如不太常见的文本),导致其只用一部分数据集来自我训练。
团队分析了AI模型会如何处理主要由AI生成的数据集。他们发现,给模型输入AI生成的数据,会减弱今后几代模型的学习能力,最终导致了“模型崩溃”。他们测试的几乎所有递归训练语言模型,都容易出现问题。比如,一个用中世纪建筑文本作为原始输入的测试,到第9代的输出已经是一串野兔的名字。
团队指出,用前几代生成的数据集去训练AI,崩溃是一个不可避免的结局。他们认为,必须对数据进行严格过滤。与此同时,这也意味着依赖人类生成内容的AI模型,或许能训练出更高效的AI模型。
总编辑圈点:
对AI来说,“模型崩溃”就像癌症一样,甚至分早期与晚期。在早期时,被“喂”了生成数据的AI会开始失去一些原始正确数据;但在晚期,被“喂”了生成数据的AI会“口吐狂言”——给出完全不符合现实,也和底层数据一点不相关的结果,就像本文中的例子一样。更可怕的是,“模型崩溃”的AI极其固执,错误几乎难以矫正。它会持续强化,最终把错误结果认为是正确的。这一问题值得所有关注生成式AI的人们警惕,因为它等于是在“毒化”AI对真实世界的认知。
责任编辑: 常丽君本文链接:http://knowith.com/news-1-1940.html总编辑圈点丨用AI生成数据训练AI或导致模型崩溃,原始内容9次迭代后成了“胡言乱语”
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
南方科技大学考研(南方科技大学考研分数线)
西北工业大学考研(西北工业大学考研分数线2023)
莆田市考研考场安排,莆田学院考研成功率高吗
苏州大学考研专业目录?杭州电子科技大学研究生专业目录
艺术生考研可以跨考哪些专业,艺术设计考研难吗
舟山研究生考点在哪里 北大佛学院有多厉害
北京大学光华管理学院经济学复习方法指导
2015经济学考研:微观经济学脉络图(第四章)
2015经济学考研:微观经济学脉络图(第二章)
重庆口碑好的考研机构(重庆考研学校推荐)
阿帕他胺多少钱一盒yb价格一览表!2025购买印度阿帕他胺市场价格多少钱一盒
废寝忘食:苹果id贷利息,苹果id贷款口子2024年12月
重大:悦刻waka在哪买?试试这五个渠道
喜笑颜开:佛山垫还信用卡,口碑商户值得信任
花团锦簇:佛山代还信用卡取现,最便宜的地方,多年经验诚信
徒步3000公里,90后小伙一下老了40岁!网友:太真实了!
方法:分付自己怎么套出来(三种操作方法亲测靠谱)-知者
安全!厦门湖里线下套visa卡境外额度很安全,线下实体店当面
今日公布:拼多多先用后付额度套出来的方法 原来提现方式怎么简单
白条套线商家怎么找《让白条秒变现金!》