大模型参数解释
Created on: January 29, 2025
Created on: January 29, 2025
大模型所说的8B,16B是什么意思,教教我
在谈论大模型(尤其是语言模型)时,经常会用“8B”、“16B”这样的缩写来表示模型的参数规模,其中:
这里的“参数(parameters)”大致可以理解为模型中需要通过训练来进行更新和调节的数值。参数的数量通常也会影响模型的表现和计算需求,参数规模越大,通常意味着模型的潜在表现越好,但训练和推理所需的计算资源也更高。
当你看到“XXB”这个缩写时,就能知道它指的就是“XX 十亿”数量级的模型参数。如果你看到“XXM”也可以类推,“M”指“million”(百万),例如 “7M” 就是 “7百万” 参数。
希望这样能帮助你更好地理解为什么人们常用 8B、16B 这样的缩写来讨论大模型的规模!