解释一些关于大语言模型的常见误解

%title插图%num
01

误解一:「ChatGPT 中文表现不如英文,因为简中网络封闭/贫乏/语料太烂了。

我知道很多人喜欢这个论述,是因为可以借机吐槽简中网络的内容质量。但不管这个前提对不对,大语言模型的中枢并不是中文一套,英文一套,波兰文一套,韩文一套,孟加拉文一套分别独立的(它目前支持95种语言,要训练95个独立的大脑要花多少钱?)它都用英文学过一遍相对论了,再用中文的相对论教材重新理解一遍相对论毫无意义。当然,如果你想「只」用简体中文语料训练出一个又红又专的洁版 GPT,那语料质量就会是一个真实的限制。

但这个误解其实是基于下面这个更常见也更本质的误解:

误解二:「ChatGPT 是统计模型,所以它的一切认知都是来自于它的语料。

大多数人对大神经网络的理解可能还停留在它只能抓住语料数据中的统计相关性的这个层面。但过去两年来大语言模型之所以突飞猛进,正是因为它突破了这个障碍。它确实仍然不能很好地进行逻辑推演,但人们发现统计推断/逻辑符号推断并不是非黑即白的分野,而今天的大语言模型正好落在中间的某个神秘地带上。

事实上,如果你对 ChatGPT 的使用稍微深入一点,你一定自己也能意识到「它的认知都是通过语料里反复读过才习得的」这件事不可能是真的。比如说你可以要求跟它玩游戏,游戏规则是你告诉它的,然后它就能跟你玩得有来有回。这显然不能用传统的「一切都从语料的统计里学习」的老观念来理解。一个更极端的例子是两个月前有人通过语言指示在 ChatGPT 界面下实现了一个虚拟机

%title插图%num

这种临场学习的能力叫 in-context learning,是过去一年最热门的学术话题,而且学界本身对这个现象也还没有充分理解(就是目前处于它做到了但我们并不确切知道它为什么能做到的状态)。如果你感兴趣,这两篇最新的文献值得一读,一篇来自 Google 一篇来自微软。

02

误解三:「ChatGPT 解决不了来源准确性和新闻即时性的问题,这是大语言模型的硬伤。

大语言模型本身如何保证「正确」是一个复杂的问题。但在普通人的应用角度,这件事可以非常轻易地从工程上绕过去。今天 Bing 的试用已经逐步铺开了(见附图),附图里是关于2023年的时事的提问(而众所周知 ChatGPT 的训练语料完全来自2021年之前),你会看到它的回答非常准确,而且每句话都附上了来源链接。这是因为 ChatGPT 或类似的大语言模型并不应该被理解为一个从零开始的静态知识库,而是一个可以动态附着在其他信息源上的 layer(「作为一种服务的自然语言界面」)。因此,哪怕用最笨的方式,搜索引擎至少可以当场把传统的搜索结果喂给它,它再以一种对话的方式把它呈现出来,而这就间接解决了准确性和即时性的问题(至少不差于传统搜索引擎)。

关于这一点我推荐一下 Verge 对微软董事长 Nadella 的采访

信息量很大,而关于搜索结果这部分他说得也非常直白:所谓结合了 AI 的搜索引擎,其实就是把传统搜索结果让 AI 以更对用户友好的方式表达出来而已。(这很重要,并不只是一个 UI 的问题,这牵涉到新的搜索时代商业框架怎么建立,利益怎么分配,流量怎么引导。

关键在于: Nadella 等于是承诺了虽然回答是 AI 给的,但源头的链接还是保留,源头网页的广告主不要慌。

03

很多这类误解归根结底是因为把 ChatGPT 这个过于成功的 demo 误当成了一个成熟产品,然后又把对它的印象推广到了大语言模型整体。但 ChatGPT 的推出有很大意外成分,它不是一个被精心产品化的产物,它的很多缺失只不过是因为 OpenAI 没人也没时间去做,实现这些功能也不是 OpenAI 的长处,是微软该做的事。

我的猜测是,等新的 Bing 和正在疯狂测试的 Bard 全面上线,目前这个版本的 ChatGPT 很快就会被大众遗忘了。 归根结底,ChatGPT 在计划中只是前菜,今年的主菜是GPT 4。

%title插图%num

 

本文章资源转载于网络,若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!本站仅提供信息储存空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至65830592@qq.com举报,一经查实,本站将立刻删除。

(0)
上一篇 2023年2月13日 下午5:30:13
下一篇 2023年2月23日 上午9:32:59

相关推荐

微信咨询
微信咨询
QQ咨询 暴利项目
分享本页
返回顶部