yao 发表于 4 天前

哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」

哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」

哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。

研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。

对于具有广泛共识的主题,例如 Barack Obama 名言等,模型通常能够给出正确的答案,对于更具体的问题,例如有关铁电性的科学论文,大模型虽然能提供正确的引文格式,但内容基本都是错的,或是将真实存在的作者与不存在的论文结合起来。
页: [1]
查看完整版本: 哈佛大学最新报告:LLM 等价于众包,只是在输出「网络共识」