近日,在“2024 MiniMax Link伙伴日”活动上,MiniMax创始人闫俊杰分享了基于MOE(混合专家模型)+ Linear Attention(线性注意力)的新一代模型技术的应用,通过此新型线性模型架构,MiniMax大模型能在单位时间内更加高效地训练海量数据,极大地提升了模型的实用性和响应速度。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。