|
. N- g# r9 j7 [ c1 j* Z IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
# J9 z q% R( ^ w # i: X: s( d6 H8 r' v1 |5 V, Y
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
2 C1 F; \4 W% _ 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 , L4 {' Z+ A4 E; W/ F" }
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 ^$ L6 [4 F/ l0 m9 g' ]: O% o# y
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
" W( r: C8 ]) \2 z' z, ~$ x/ ~3 O 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
9 k% R" Y: t- i& p* K7 D- E0 p | 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
2 H: K2 g8 `; f
! O/ V& t) m4 B7 C- |8 Z. @$ @) I+ T' _4 l' u% ]
& `4 O, N& u4 ^2 Z" `1 v. d
- I8 e( k' B5 c" V0 m
) k& Y! P0 f% H) [8 Y; l7 j( F* l0 [- r/ ?4 F
! n5 ?7 ^% N8 C" @8 }; b. w: H- t& Z+ }" c
3 Z3 Z+ H: B! ?# Z) |
& e r& A* m& ]7 t+ P& W: {" g
2 S5 w5 B# a# ^/ ~ K% x, g, e7 p8 K1 b4 H& p5 @" L! t
, W! z; L5 X- o& A5 }8 M |