|
/ I; `! g2 I, K7 c
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。 " A$ I: d: U6 }* n
/ `+ s( D: z' Q1 l8 _( ~ 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 * @. I7 C- X) V0 b; u4 N! f8 K, f
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 1 K2 v; X$ \5 g/ d3 P/ v1 `
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
2 H4 ]9 D+ S9 U 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
; W' b8 c7 A: P% C u9 o" @" e" o' x2 w 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 $ L7 g, u" O# y+ w/ ~" [
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
* s0 q7 Q4 ?) a4 g1 H8 { + C8 o1 |6 ~. E
2 t9 X" [* M- D4 a' ]
8 C- ^3 c, D3 `/ H$ u+ P5 V6 m4 P6 B
# b4 f; A: T i L
$ u ~, Y# a/ }. Z. z: s) X. U8 r4 i; y
8 L* o4 F! `$ B/ S
0 ]. Q( u; p- f; C2 T. T( f# Q6 {% Y0 f& j- ^$ d- E
9 Z/ m+ T; d% o% I9 K' d% t# p$ r
2 H! A/ l9 e+ B+ [+ {# r% a* N6 }/ L
8 Y! g2 J; ^9 F1 h) \0 } |