根据 Lewis 的说法,RAG 系统中的幻觉归结为输出是否与模型在数据检索过程中发现的内容一致。不过,斯坦福大学对律师人工智能工具的研究稍微扩大了这一定义,通过检查输出是否基于提供的数据以及它是否符合事实——这对经常解析复杂案件和处理复杂先例层次的法律专业人士来说是一个很高的标准。
虽然与 OpenAI 的 ChatGPT 或谷歌的 Gemini 相比,专门针对法律问题的 RAG 系统在回答判例法问题方面显然表现得更好,但它仍然可能会忽略细节并犯下随机错误。与我交谈过的所有 AI 专家都强调,在整个过程中,仍然需要深思熟虑的人际互动,以仔细检查引文并验证结果的整体准确性。
,但该流程的潜力并不局限于单一的白领工作。Arredondo 说:“无论是任何职业或任何企业,你都需要获得基于真实文档的答案。因此,我认为 RAG 将成为几乎所有专业应用程序的主要工具,至少在近期到中期内是如此。”厌恶风险的高管似乎对使用 AI 工具更好地理解其专有数据的前景感到兴奋,而无需将敏感信息上传到标准的公共聊天机器人。
不过,对于用户来说,了解这些工具的局限性至关重要,而专注于 玻利维亚电报号码 人工智能的公司则应避免过度承诺其答案的准确性。任何使用人工智能工具的人都应避免完全信任其输出,即使答案通过 RAG 得到改进,他们也应该以健康的怀疑态度对待其答案。
“幻觉会一直存在,”何说。“我们还没有现成的方法真正消除幻觉。”即使 RAG 降低了错误的发生率,人类的判断力仍然至关重要。这并非谎言。