|
' x8 Y$ G* X7 z3 |2 f- p9 [! Q% j, A IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
' O- O! l- C W) j( x
& u" k+ {! I: Q) F 不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。
& g. i1 v0 J* B9 K 谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 % O( I$ u( {7 f0 ^4 Z7 X, M5 r% `2 r
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
% y) G* t1 J6 j5 L" P 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
7 d# ?3 s m4 v9 M 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
! M W8 i- \+ I; s) p" v% }; d7 U 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
* \2 I5 d5 v6 w# Q' z B1 u' @- a9 s. V9 P
4 d8 B* e8 v9 o& Y. H& X9 K8 t% `
7 W+ \% Q# ~ q6 Q" q
& c/ E$ a: D6 h# w8 h% I1 M; K
" k2 }' B! R5 w2 Q8 g
9 t& L4 t4 w$ x) [+ H; e; d# J2 _ W: k, O3 j3 _1 o
+ b1 d; R/ }' b* {* R
5 |) Z' {& g' P7 ^' t* [) i$ t; c- I4 j" r
$ _/ V3 j K1 `$ c. J2 j2 Q( e( C0 _* Z0 W6 v- @; c7 p
* m+ t8 u& u1 m0 W! i
1 m8 y- V( x( p) ~ K |