徐昳昶:有两条路,一条路是去研究现在的模型是不是真的足 ⏱够大了(注:指神经网络的层数和参数更多) ♏,宝博网址这是一个问题。当年GPT-1出现的时候 ⛷,已经有了上亿参数,我们觉得已经够大了。 ⛹后来的事实告诉我们,模型还可以更大,GPT-2出来的时候参数 ⛷数量达到10亿个,你觉得它不能更大的时候 ➤,GPT-3的参数达 ♏到了千亿级别,GPT-4会不会有万亿个参数不知道。这是一条路 ➦,就是把模型不停加大 ♿,花钱就能有更好的效果。
99.6
96.2
95.3
100.5 宝博网址
100.0
90.5
秦 皇 岛
9.4
96.9
95.5
本报记者 陆仁 【编辑:成平 】