LLaMA和GPT-3都是大规模的语言模型,具有许多相似之处。LLaMA主要由半监督学习技术驱动,其能够从大量非标记数据中获得知识;而GPT-3则使用了大量已标记文本,通过反向传播算法训练模型,能够在一定程度上模仿人类行为。总的来说,LLaMA和GPT-3都具有出色的语言理解能力,但后者拥有更强大的处理能力。
LLaMA有4种不同大小的模型,分别是70亿、130亿、330亿和650亿参数。其中最小的LLaMA7B也用了超过1万亿个tokens来训练。Meta说,在很多基准测试中,只有十分之一参数的LLaMA-13B比OpenAI的GPT3(175B)还要好。GPT3是ChatGPT所用的GPT3.5的前身。LLaMa-65B也可以和业界最好的Chinchilla-70B和PaLM-540B比拼。