|
3 P# U2 u6 g+ o7 _* [/ R4 p IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
( U! N) B `. L1 }% B4 P( J, d
! X" J; V; @* {: W$ E 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
/ `9 b0 [4 w# W7 S4 h7 C6 M6 q 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
$ a1 t: w# ?8 I1 l" D 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 ' w2 j! U9 W0 g8 C3 s$ a) W6 U. v
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。 ! v7 b: _: w3 y1 S5 E( l! D3 @
谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。 2 P2 `0 x' B2 v# S. F1 W
而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
4 _+ h9 W9 v! {6 W6 ]: Q
4 u- ?! f1 w% n) y9 a6 b3 A, u
4 S3 v6 R/ m' J! p% ~' \* e
% j- k8 e1 {) x3 [0 F7 X! E, I* }1 ?/ }) M/ P3 h2 i
) `! b6 k# N& z7 M+ ~1 ?0 ?! q. ?3 u* m
: F3 K5 u/ o$ K7 o: Y8 Y' ~
! G, Q! p l0 D4 A7 o' A- v) |; b' w/ q9 S. A4 B/ _
# O2 k- S% v! x. G8 q# Y" m
4 I! H- w4 R; y* X6 u
" A3 C- |$ |% q5 X# n4 ~: B% x3 K) L- L5 v( m# h4 Z0 S
+ z( |3 a: m, g: B, B) G |