
無問芯穹在行業內首次實現了多種大模型算法在多種芯片上的高效協同部署、運行,以獨家技術優勢解決異構算力整合問題,降低行業對單一國際芯片品牌的依賴,增強產業鏈供應鏈韌性和競爭力。
文|錢麗娜ID | BMR2004
在AI算力冰冷的賽道中,一群來自清華大學、上海交通大學、中國科學院的年輕學者用“無問芯穹”這四個充滿詩情畫意的字,打開了面向無垠穹隆的空間。“無問”二字源自清華的校歌,歌詞中寫道“立德立言,無問西東”,AI時代即起,英雄也將不問出處。
2025年年初,的問世,人們驚覺大模型訓練還能如此壓榨算力。在算力決定生產力和競爭力的時刻,算力優化這條賽道的機會陡然出現。
01
找準生態壁壘中的機會
依托“多元異構、軟硬協同”的核心技術優勢,無問芯穹打造了連接“M種場景與模型”和“N種硬件與芯片”的“M×N”AI基礎設施新范式。
無問芯穹的目標是成為大模型時代首選的算力運營商。這樣的定位來自于他們對市場的洞察。
人工智能發展由算力、算法和數據三要素驅動。如果把人工智能比作一支火箭,數據是燃料,算法是導航系統,算力就是引擎。人工智能算法要在人工智能芯片上完成部署才能運行,而芯片市場中國際尖端芯片市占率居高不下,雖然許多場景里國產芯片也能完成任務,但囿于國際主流芯片的基礎軟件生態壁壘,通常難以被優先使用。此外,國產算力間生態互不相通,多元芯片間難協同提供算力。同時,算力資源呈現持有方分散化、地域分布不均衡的特點,跨系統調度與利用效率不高,高性價比、高附加值算力仍存在巨大的供給缺口。
為此,無問芯穹構建了一朵“異構云”,在行業內首次實現了多種大模型算法在多種芯片上的高效協同部署和運行,以獨家技術優勢解決異構算力整合問題,降低行業對單一國際芯片品牌的依賴,增強產業鏈供應鏈韌性和競爭力。
無問芯穹首創了跨機房訓練技術,提升零散算力資源可用性,實現高價值數據資源本地處理,讓算力與數據流通更高效。打通異屬算力資源的高效調度,解決算力需求動態預測與調度問題,實現跨域算力資源共享和配置優化,助力算力資源與下游產業協同發展。
依托“多元異構、軟硬協同”的核心技術優勢,無問芯穹打造了連接“M種場景與模型”和“N種硬件與芯片”的“M×N”AI基礎設施新范式,實現多種大模型算法在多元芯片上的高效協同部署;在云側,無問芯穹基于多元芯片算力底座構建了Infini-AI異構云平臺,向大模型開發者提供極致性價比的高性能算力和原生工具鏈,為大模型從開發到部署的全生命流程降本增效;在端側,無問芯穹以軟硬協同核心技術構筑“端模型+端軟件+端IP”智能終端一體化解決方案。
02
解決異構、異域和異屬問題
“異構云”克服了既有算力資源利用的技術“難點”,連接全國算力一體化建設的布局“斷點”,打通算力到新質生產力轉化的生態“堵點”。
無問芯穹基于異構云平臺打造了多區域算力生態平臺,可匯聚異構、異域、異屬算力,向區域下游產業提供集算力咨詢、交易、交付、運營與調度為一體的公共算力服務。具體來看分別表現為:
異構:多元算力優化適配,突破基礎軟件壁壘使能國產芯片
異構云的核心技術是異構算力適配,即通過一系列技術手段和優化策略,使不同芯片之間能夠高效、穩定地協同工作,實現整體系統的最佳性能和功能表現。
2024年7月,無問芯穹于業內首次突破性地實現六種不同品牌芯片間的交叉混合訓練,用華為昇騰、天數智芯、沐曦、摩爾線程四種國產芯片分別與超威半導體(AMD)、英偉達(NVIDIA)進行聯合訓練,算力利用率最高可達97.6%,支持700億參數規模的大模型訓練。該技術可幫助上層用戶及任務屏蔽底層芯片差異,促進存量算力資源與新增可控算力二者間高效融合。
異域:跨機房、跨端云訓練,解放長尾數據與算力資源價值
在異域聯合訓練技術方面,無問芯穹全球首創跨機房訓練技術。通過并行編排機制的獨特創新,實現跨越120公里的異屬機房中集群間聯合訓練,在通信帶寬僅有不到20GB/s 的情況下,實現沐曦加速卡與英偉達加速卡的跨機房混訓,最大化降低低通信帶寬的影響,使算力的性能損失保持在10%以內。同時,該技術支持云、邊數據隔離式模型訓練。企業利用極少量邊緣算力即可實現和充沛云端算力的協同訓練,高價值行業數據資產得以留在本地,可極大提升數據流通效率與產業價值。
異屬:匯聚多來源算力建設算力生態平臺,賦能產業數智升級
在異屬算力資源高效調度方面,無問芯穹持續打造算力資源市場化運營最佳實踐。過去3個月間,無問芯穹已成功利用核心技術實力,先后推動上海徐匯模速空間算力生態平臺、浙江杭州市算力資源服務平臺、北京海淀公共算力服務平臺等標桿項目落地。
無問芯穹聯合創始人、首席執行官夏立雪介紹,近百家下游企業正排隊入駐上述平臺。算力生態平臺的建設有利于將算力服務從單一資源交易升級為全產業鏈生態引擎,既解決企業“用得起、用得好”算力的現實需求,也通過生態聚合效應賦能地區構建因地制宜的特色現代化產業體系。
無問芯穹的“異構云”克服了既有算力資源利用的技術“難點”,連接全國算力一體化建設的布局“斷點”,打通算力到新質生產力轉化的生態“堵點”。結合人工智能應用開發工具鏈,提升算力基礎設施對大模型廣泛應用的支持水平,讓算力真正成為推動數智化轉型的核心引擎。
03
智能終端的機會
無問芯穹以軟硬協同核心技術優勢打造了“端模型+端軟件+端IP”智能終端一體化解決方案。
智能終端是將我國數字技術突破與制造優勢、市場優勢更好結合的最佳“反應界面”。隨著多模態、強推理、端芯片等端側大模型技術拐點的到來,數十億終端將邁入大模型時代,實現人機交互范式的根本性變革。
然而,動輒百億參數規模的大模型部署對端側設備的計算能力、功耗和存儲空間都提出了巨大挑戰。將模型安裝終端本地環境后,模型性能損失、推理速度太慢、功耗效益低下等困境將影響智能消費終端的發展,限制自動駕駛感知決策、無人機路徑規劃、動作決策等場景的落地效果。
為此,無問芯穹以軟硬協同核心技術優勢打造了“端模型+端軟件+端IP”智能終端一體化解決方案,以頂尖的終端AI系統,在更加苛刻的硬件資源限制下,深度協同應用場景,實現算法模型、推理引擎、系統調度、芯片架構的全鏈路優化閉環。已發布全球首個多模態3B輕量化開源模型,同精度下推理速度領先其他模型300%;自研智能終端大模型推理引擎,在多種硬件上推理性能達行業第一;自研第二代大模型推理處理器LPU,實現智能終端推理性能和能效的量級提升。
端模型:多模態模型端側輕量化部署,升級關鍵生產力工具
大模型能力正從云側逐漸下沉至終端,逐漸加深對視覺、聽覺等更多模態信息的理解,終端需要實現更匹配人類感官感受的新交互范式。
2024年12月,無問芯穹推出全球第一款端側全模態理解開源模型Megrez-3B-Omni,實現端上圖像、音頻、文本模態數據的極速推理,并在三個模態的多種測評基準中都取得了最優性能,推理速度最大可領先同精度模型300%,同時還特別提供了WebSearch 功能,可以自動決策工具調用時機,用戶得以構建屬于自己AI搜索,通過網絡獲取最新信息,克服小模型的幻覺問題和知識儲備不足的局限。
端軟件:支持端側AI更高效落地,協同基礎軟硬件系統運行
隨著優質數據資源價值挖掘觸頂,未來模型能力增長將轉向依賴推理時的迭代計算,以此提升模型指令遵循能力和復雜任務處理能力,這將推動產業中10—100倍的推理開銷需求增長。
無問芯穹自研智能終端推理加速引擎Mizar 適配Intel、AMD、NVIDIA等硬件平臺,支持各種終端設備CPU、GPU 和NPU 的同時推理,還能通過跨越軟硬件層次的系統優化,為多款智能終端設備額外帶來70% 以上的性能提升,最大化端側硬件性能的利用,已在聯想多款型號產品中完成適配,將伴隨最新版本產品預裝量產和上線。
端IP:軟硬件一體化設計,以AI推理硬件為智能終端提速增效
多模態模型與推理時計算的范式變化使得智能終端的算力與帶寬需求激增,現有端芯片已無法滿足泛端側智能應用需求。無問芯穹長期堅持軟硬件協同優化技術路線以實現硬件效能的數量級提升,而非單純依賴硬件工藝的緩慢迭代,自研第二代大模型推理處理器LPU(Large-model Processing Unit)IP,采用了“算法-軟件-架構-工藝”協同優化設計,支持文生文、文生圖與文生視頻等大模型在智能終端上的高性能、低功耗推理,可大幅降低大模型終端產業部署成本,支撐人工智能在新型消費電子、創新型硬件制造以及工業、服務、醫療等眾多場景中的高質量落地。
無問芯穹基于軟硬件協同設計核心技術能力,打造的“端模型+端軟件+端IP”智能終端一體化解決方案,可適用于多樣化新一代智能終端, 致力于實現10倍以上的推理吞吐和能效提升,正與聯想等行業伙伴一起打造下一代現象級新終端與端云協同計算新范式,推動端側輕量化模型在垂類終端如智能網聯新能源汽車、人工智能手機和電腦、智能機器人以及智能制造裝備中的規模化落地。