同的。
一来,是因为不同语言训练资料的多寡和质量的差异。
在当今的互联网时代,盎语语料当然是最丰富的,占到互联网整体资料量的百分之八十以上。
alphazero在使用盎语进行理解和推理的时候,正确率相对其他语言会高5%以上。
二来,各种不同的语言本身就存在不同的“表达偏重”和“性能差异”。
比如普鲁士语,在结构推理方面的速度比盎语更快,西拜语则在感性类语料中优势明显。
而大模型在一次思考回路中,通常使用单一语言构建其推理路径。
虽然它可以在输入阶段识别多种语言,在输出阶段进行翻译,但其内在的认知张量结构,仍旧倾向于使用输入语言所构建的token空间进行语义演算。
说人话,就是大模型在思考问题的时候,在一个思考回路中,基本只会使用一种语言来思考,你使用盎文,它就用盎文思考,你使用周文,它就用周文思考。
就算它在回复中掺杂了其他语言,也只是一种资料引用或人类写作风格的模仿,而不是真正的跨语种思考。
橘子大模型又怎么可能使用不同语言思考的时候,各方面性能都差不多的?
这完全不符合常理!
唯一的可能性,就是对各种语言的思考性能进行了拉齐操作。
说白了,就是一个木桶,以最短的那个板为基准,把高的板子都砍了。
但这样做意义在哪?
德米斯哈萨比斯犹豫的摇摇头:“应该不是,拉齐操作资源浪费太严重。”
“
本章未完,请点击下一页继续阅读! 第2页 / 共10页