网站在线发布网站外链,友情链接,网站收录,APP推荐

友情链接互换买卖平台

哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」

后台-系统设置-扩展变量-手机广告位-内容广告位一

哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。

研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。

自 ChatGPT 发布以来,用户的搜索方式、人机交互都发生了极大改变,诸如问题回答、文本总结和交流对话等各种简单应用场景下的体验都有了很大提升,有时甚至超过了人类的表现。

大模型之所以能生成全面且连贯的文本,其能力主要来源于 Transformer 模型架构和海量预训练、微调数据集。

不过,大模型还存在一个顽疾「幻觉」,会生成一些看似真实但非事实、无意义或与给定提示不一致的回应,可能会导致错误信息的传播,在关键决策应用中造成有害后果,甚至导致用户对 AI 系统的不信任。

之前就发生过相关案例,《纽约时报》发表了一篇关于某位律师使用 ChatGPT 案例引用的文章,用户却没有意识到故事是虚构的;这一事件也凸显了幻觉的危害性:普通用户很难察觉、识别出幻觉。

最近,哈佛大学的研究人员发布了一篇报告,在几周内向各种人工智能模型提出了一系列晦涩难懂和有争议的问题,从认知信任、众包等角度研究了「大模型为什么会产生幻觉?」。

后台-系统设置-扩展变量-手机广告位-内容广告位二

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

Top