- 相關(guān)報(bào)道
- MiniMax閆俊杰: 一兩年內(nèi)模型推理成本可再降一個(gè)數(shù)量級(jí)
- GPT革命|專訪MiniMax閆俊杰:AI內(nèi)容消費(fèi)價(jià)值大于工具 海螺AI全球月活近1000萬
- GPT周報(bào)|騰訊云智能數(shù)智人進(jìn)入日本市場(chǎng);MiniMax發(fā)布新一代語音模型;AI智能體平臺(tái)Manus開放注冊(cè);谷歌啟動(dòng)“AI未來基金”
- GPT周報(bào)|AI偽造“地震被埋小孩”圖片引熱議;OpenAI CEO被妹妹起訴性侵;愛奇藝起訴人工智能公司MiniMax侵權(quán)
- GPT革命|OpenAI推輕量模型成本降超60% 海外大模型會(huì)否價(jià)格戰(zhàn)?
【財(cái)新網(wǎng)】MiniMax向模型市場(chǎng)交出新答卷。10月27日,MiniMax發(fā)布開源推理大模型M2,采用混合專家模型(Mixture-of-Experts, MoE)架構(gòu),總參數(shù) 2300億,激活參數(shù)100億,輸出速度達(dá)100TPS(每秒輸出token數(shù))。據(jù)介紹,該模型專為Agent開發(fā)設(shè)計(jì)。
MiniMax技術(shù)文檔顯示,M2支持 20.48萬個(gè)token的上下文窗口。這一數(shù)據(jù)較其6月推出的上一代模型M1大幅縮減,而彼時(shí)“長(zhǎng)文本理解”正是其宣傳的主要優(yōu)勢(shì)。M1為開源混合架構(gòu)推理模型,總參數(shù)4560億,支持100萬token上下文輸入、8萬token的推理輸出,據(jù)稱為當(dāng)時(shí)最大的上下文輸入輸出規(guī)模。


















京公網(wǎng)安備 11010502034662號(hào) 