封面故事丨揭秘DeepSeek 一个更极致的中国技术理想主义故事

作者:于丽丽
出处:科学大观园2025年第05期

DeepSeek 对模型架构进行了全方位创新。它提出的一种崭新的MLA(一种新的多头潜在注意力机制)架构,把显存占用降到了过去最常用的MHA 架构的5%~13%,同时,它独创的DeepSeekMoESparse结构,也把计算量降到极致,所(试读)...