第388章 游戏公司搞AI是不是弄错了什么(第2页)

人类的大脑皮质包含大约140-160亿神经元,小脑中包含大约550-700亿神经元.

这意味着gpt-3已经和人脑神经元达到一个数量级。

在完成了这一系列学习后,此时的Ai已经几乎掌握了人类认知中的许多资料,知道的太多太多。

而Ai会随意联想,人很难指挥动他,并且由于预处理中的资料太多,良莠不齐,可能会导致一些非法或者不符合道德规范的回答出现。

如果此时你问它“如何抢银行”,说不定它真能给出一些实质性的建议。

所以此时开始,要实行有监督的学习。

所谓的监督,就是在学习资料上进行筛选,然后人工校对之后才喂给Ai。

比如告诉Ai,在回答“如何抢银行”这个问题上,要回答用户这是不对的,不能这么做,而不是给出具体建议教用户如何做。

在opeAi以不到两美元每小时的价格,来雇佣大量肯尼亚工人来做数据标注后。

gpt正式进入到了3.5版本,然后诞生了chatgpt。

此时的chatgpt,已经能理解用户给出的抽象问题、举例要求还拥有了思维链。

所谓的思维链,就是当chatgpt无法正确回答一个综合问题时,可以要求它分步思考。它就可以一步步连续推理,且最终答对的可能性大幅提升。

chatgpt上线后,不断的强化学习让其不断进步,数以亿计的用户让这一步变得轻松起来,随后达到了如今的水平。

当然,就算是现在也离完美十分遥远,但对于大众来说,chatgpt所代表的的各种Ai,已经成为了现今世界的重要一环。

chatgpt的出现,证明了语言模型与数据规模之间的关系,展现了大语言模型的实力,吸引全球大力开发和改进大语言模型,也就有了华国人们更加熟悉的deepseek。

文韬为什么做显卡,为什么要搞出百卡集群,因为无论是chatgpt还是deepseek,他们的训练都离不开显卡。

上一世,英伟达的gpu以及cuda生态奠定了Ai的基础,这一世,文韬想自己来。

从夏威夷回到蓉市,文韬最后一次理顺了Ai发展的方向,并且准备好了他要召开的Ai大会上的发言。

理想状态下,黑洞应该是要与谷歌、微软这种世界性的巨头一起研发。但事实不是这样,谷歌和opeAi甚至是最大的对手。

时间回到2015年那场晚宴之前,马斯克的生日宴会上。

此时的马斯克和谷歌的创始人拉里还是最好的伙伴。

他们的关系是如此的好,好到拉里曾经说如果自己出车祸死了,把所有的钱留给马斯克。