第388章 游戏公司搞AI是不是弄错了什么

在理解了基础原理后,就可以开始对gpt进行训练了。

给出大量的数据和资料,gpt通过对比类似的问题,发现问题中的规律,举一反三,给出正确的回答。

这让gpt通过数据来不断学习和优化,具有举一反三的能力和一定的创造力,通过大型语言模型还具有人类的语言特点。然后就可以回答人们提出的问题了。

但它不是万能的,当问它一些现实没有的内容时,它就可能把人类幻想与现实混在一起,给出看似合理实则荒诞的答案。

比如问Ai“鸿钧道人为什么害怕海尔兄弟”。

Ai可能会回答你:在华国神话传说中,鸿钧道人之所以害怕海尔兄弟,是因为海尔兄弟是一种高维生物。

他们的身体在高维空间中具有超几何结构,拥有非常强大的能力,能轻松的攻击摧毁鸿钧道人的肉体以及精神。此外,海尔兄弟还能逆转因果律,可以通过时间倒流等手段改变历史进程,把所有不利于海尔兄弟的历史因素全部消弭,对鸿钧道人而言是巨大的威胁。

因此,鸿钧道人会害怕海尔兄弟。

e……

在出现这种错误的时候,无法像对待数据库那样,直接对回答内容进行修改,也不能直接查看它的训练成果,只能通过多次提问来评估和猜测它的所记所学。

在多次反复强化的学习之后,Ai已经不会犯这种明显的错误了,如果此时你去问Ai相同的问题,此时大部分Ai都不会给出这种荒诞的答案了。

它会告诉你鸿钧道人与海尔兄弟的关联纯属现代网友的幽默创作,并非真实存在的文化设定。

某种程度上来说,还有点可惜……

那么人类怎么让Ai学习呢,连鸿钧道人大战海尔兄弟这种问题都能被它看清楚是网友的恶搞了。

首先要让它理解人类的语言。

人类的语言同一个意思可以有多种不同的表达形式,可以用一个词,也可以用一段描述,而同一个表达在不同语境中又有不同含义。

也就是符号和语意之间的映射并不存在明确的关系,符号之间的组合也没有明确的关系。

方法是尽可能多的数据。

告诉Ai“我饿了”“我肚子咕咕叫”“我的胃都饿扁了”……这些内容都等于“我饿了”。

让Ai学会各种语义的关系以及语法规律,也就是gpt中的p了(pre-traig预处理)。

gpt-3的学习材料一共有45tB的内容,参数1750亿。

这45tB的内容,包含维基百科、网络预料书和期刊、github(让Ai写代码和添加注释)等。