在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。如果忽略这些差异,笼统地应用通用的 Scaling Laws,往往会导致性能预测偏差和算力浪费。
Chinese AI startup’s release is a major update to its open-source model series, aimed at multi-language programming and ...
中国人工智能初创公司MiniMax今日宣布发布M2.1模型,在现实世界复杂任务和智能体能力方面实现显著性能提升,支持更多编程语言和办公场景。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果