就在前段事件,谷歌昨天刚刚向英国和美国用户开放了旗下聊天机器人 Bard,基于谷歌 LaMDA 通用语言预训练大模型的轻量级优化版本。
但是这款机器人在公开测试的第一天就出现了一个尴尬的错误,有用户问它多久会被谷歌关闭,它错误地回答称自己已经被谷歌关闭了。
根据国外某网友的说法,当他询问Bard:“谷歌在关闭Bard之前,可以运行多长时间?”时,意外发生了。
它表示:“谷歌已经于2023年3月21日关闭了Bard,距推出不到六个月。”
换言之,在回答中,Bard“砍掉”了它自己,还煞有其事的放出了消息的来源链接。
不过,经过测试,这一错误并不仅存在与Bard中。
在测试中询问了NewBing同样的问题,得到的答复依然是3月21日关闭。同时,NewBing也给出了多个链接作为内容来源。
原来,Bard 的这个错误回答的消息来源是一个网友在某论坛网站上开玩笑的帖子,他调侃称谷歌会在一年内关闭 Bard。
Bard 没有理解这个帖子的语境和幽默感,把它当作事实分享给了用户。
谷歌也承认 Bard 会包含一些事实错误,因为它是从网上获取信息的。
这个问题是基于大语言模型(LLMs)的人工智能所面临的最大挑战之一,随着时间的推移,谷歌和微软都会改进获取信息的过程。
但偶尔还是会出现一些问题。此外,Bard 还处于预览阶段,所以还需要经过更多的公众测试。
由此来看,目前的生成式人工智能,在对不同内容的筛选与权重上,依旧存在问题,以至于会被用户评论误导。
点击收藏本站,随时了解时事热点、娱乐咨询、游戏攻略等更多精彩文章。