看到这个标题,你可能会觉得是噱头。谁不知道
chatgpt
模型有
1750
亿以上的参数,别说是在笔记本电脑上跑,就是使用高性能
gpu
的台式机,也无法带得动啊。老老实实调用
api
不好吗?其实,llm(大语言模型)有非常宽泛的参数量范围。咱们今天介绍的这个模型
gpt4all
只有
70
亿参数,在
llm
里面现在算是妥妥的小巧玲珑。不过看这个名字你也能发现,它确实是野心勃勃,照着
chatgpt
的性能去对标的。gpt4all
基于
meta
的
llama
模型训练。你可能立即觉得不对,你这跟
gpt
有啥关系?为什么要无端蹭热度?且慢,gpt4all
确实和
chatgpt
有关
——
它用来微调的训练数据,正是调用
chatgpt
产生的大量问答内容。我怕你对技术细节不感兴趣,因此只用下面这张图来说明
gpt4all
的训练过程。??gpt4all
其实就是非常典型的蒸馏(distill)模型