大模型幻觉

什么是大模型幻觉

大模型幻觉,特指在大型语言模型(LLM)等生成式人工智能中,模型生成的内容与客观事实、用户指令或给定上下文不一致的现象。这些输出看起来通常流畅、合理,但其本质可能是虚构、捏造或扭曲的信息,是当前大模型