|
+ u6 X3 o. U5 w. ~% k1 v' n& m
IT之家 1 月 7 日消息,据科技媒体 Bleeping Computer 今天报道,谷歌搜索中的“AI 摘要”目前仍存在所谓“AI 幻觉”现象,经常会编造不实信息,并且还会就不同提问方法给出相互矛盾的答案。
% j0 k, Q& J( V' {$ k" U& J ( G4 W' b& |$ l9 h+ [5 `
不过这种现象在以后很有可能逐步减少,最新招聘信息显示,谷歌正在招募工程师来验证 AI 给出的答案,并提升回答质量,重塑搜索体验。 2 H9 X; Z. @2 z* P6 u
谷歌在招聘简介中表示:“我们正在重新定义‘搜索信息’意味着什么。为此我们需要解决复杂的工程,并在扩展基础设施的同时,持续为全球用户提供实用的体验”。 ) ]& z1 {9 m# J' q" I8 ^) l
其中一个职位名为“AI 回答质量工程师”,将加入谷歌搜索团队,负责提升 AI 回答的整体质量,并重点聚焦“AI 摘要”。
; B8 m+ I3 {0 z2 s" ]1 q8 r* G 这也是谷歌首次公开承认“AI 摘要”仍有改进空间,而且这一招聘的发布时间点也耐人寻味。
3 O+ p. Y* {/ U! Q- x0 W 谷歌最近正在为越来越多搜索引擎用户展示“AI 模式”和“AI 摘要”,并且还在 Discover 信息流中为新闻加入“AI 摘要”,甚至使用 AI 重写新闻标题。
4 K& R# L5 E% f3 w 而《卫报》曾指出,谷歌的“AI 摘要”在健康相关问题上经常给出误导性甚至完全错误的答案,虽然谷歌在过去几个月一直有提升答案质量,但用户往往会基于信任感完全认可谷歌展示的东西,因此这种出错率仍然有非常大的提升空间。 / p+ }0 z9 U2 B) ^5 t$ q
# c5 a9 M; \. [% x9 _ I
1 y3 I- s; ^3 U4 `+ l' H; F
/ i4 l6 t6 W1 G q: t( Q
0 [+ Y2 g/ g8 u( z& q6 T- c
+ J6 E6 ]# Z3 X& E
4 z/ e9 N5 I( a' n& G
! Y" G$ c4 S, j L) l% C. v( K2 K l6 q% t6 ^$ a! b' y' ^
& c; D( [1 _; z Q; r+ D
: v, w/ O) y V) f# p6 _/ c
$ c8 ~ ?$ b$ `" i7 ^+ K
* M+ {: H9 I! H4 d
. f# m+ F$ x$ j* E- Y1 m1 k: Q
/ _2 L( u8 Q/ P2 W6 P
|