|
# k* _. a) k# I6 K
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
# z( U4 i9 }; S3 |! n o # Q/ t1 _$ Z' s7 M; n: z
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 4 t, G& S+ g+ s/ H) R+ B
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。
" O8 _; b* N% i! \: K/ S8 K 其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。 4 W4 \- N ~3 y" M- f
这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
5 o, C9 @ I5 ?8 J 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
: M, ~, r G$ @ 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。
1 I# r9 \/ Z B" F, u2 T5 y
- K9 i, i4 ~9 i9 P7 f/ @
( o$ M$ f/ M) i) s * [1 t9 z3 L0 ]% c. S; s6 o2 e$ U$ J
( q- y+ P+ H7 [) f- ]6 D6 o) r' o3 w+ h, p1 g
, `7 n" _5 z( f' J
9 W# r6 O4 @. g/ P; A2 d4 m' x* c4 }4 t% c, U/ o( `
5 C }) x1 t. K7 d* m* }- b2 a2 k
3 Y6 [5 c1 D' B1 x$ @2 M y: G6 t4 `8 s8 f& ^& P
% z3 }1 [6 |( {# [0 s8 ?) S7 z; i0 p2 w! ^
|