正如 Google 所说,“生成式 AI 和 LLM 存在已知局限性,即使在今天,搜索也并非总是正确无误。我们正在采取负责任且深思熟虑的方法,将新的生成式 AI 功能引入搜索。我们已经训练这些模型来维护搜索的高质量标准,并且我们将继续随着时间的推移进行改进。它们依赖于我们数十年来精心调校的标志性系统,我们还应用了额外的防护措施,例如限制这些功能将出现的查询类型。”一些关键限制包括:
证实过程中的误解
在某些情况下,SGE 已确定信息来证实其快照,但误解了语言,从而改变了输出的含义。
幻觉
与所有基于 LLM 的经历一样,SGE 有时可能会提供不正确的事实和数据或不准确地识别见解。
偏见
SGE 所用的数据是基于它所提取的高质量网络数据。这可能会导致人员代表性狭窄或可能提供负面的上下文关联。
这是当今标准 RCS 数据法国 搜索结果中存在的一个挑战。例如,关于体育运动的一般查询可能会偏向于提供男性运动员或球队的结果,即使有关女性运动员或球队的信息同样准确,甚至可能更准确。
暗示人物性格的观点性内容
尽管 SGE 旨在在其输出中反映中立、客观的语气,但在某些情况下,输出会反映网络上存在的观点,这使得 SGE 看起来有自己的观点或个性。
与现有搜索功能重复或矛盾
由于 SGE 与搜索结果页面上的其他结果和功能一起集成到标准搜索中,因此 SGE 结果可能与这些结果中的其他信息相矛盾。
此外,目前 Google 不会向我们透露任何真实数据,例如 AI 答案是否会推动网站点击量、点击率数据或我们称之为 CHERP(聊天引擎结果页面)的广告效果数据。这对报告任何 SGE 数据提出了重大挑战。
我们仍需谨慎使用 SGE
虽然 SGE 有其优势,但很明显,它仍然需要大量的工作和投入,以确保它为用户提供的结果尽可能准确。自推出以来,已经出现了一些提供错误信息的有趣例子,包括建议人们在披萨上涂胶水以帮助奶酪粘在披萨底部,以及每天吃一块石头以保持健康(谁知道呢!)。
这些例子可能很滑稽,但所提供的一些结果也确实存在风险。其中包括对“如何应对抑郁症”的查询,其中一个答案是“从金门大桥跳下去”,这不仅不准确,而且很危险,对用户构成了真正的风险。不幸的是,由于 LLM 的工作方式,这类答案比你想象的更常见。
虽然所有 LLM 模型都必然会提供不正确的结果,但上述例子强调,仍然需要做一些工作来确保所提供的信息来自权威、相关和安全的来源。