PANews 於 3 月 21 日報導,Tether 宣布在 QVAC Fabric 中發布跨平台 BitNet LoRA 微調框架,實現訓練優化PANews 於 3 月 21 日報導,Tether 宣布在 QVAC Fabric 中發布跨平台 BitNet LoRA 微調框架,實現訓練優化

Tether 發布跨平台 BitNet LoRA 框架,讓消費級設備能夠微調數十億參數的模型。

2026/03/21 09:50
閱讀時長 2 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 [email protected] 聯絡我們。

PANews 3月21日報導,Tether宣布在QVAC Fabric中發布跨平台BitNet LoRA微調框架,實現對Microsoft BitNet(1位元LLM)訓練和推理的優化。該框架大幅降低運算能力和記憶體需求,使十億參數模型能夠在筆記型電腦、消費級GPU和智慧型手機上進行訓練和微調。

該解決方案首次實現在行動GPU(包括Adreno、Mali和Apple Bionic)上對BitNet模型進行微調。測試顯示,125M參數模型約10分鐘即可完成微調,1B模型約1小時,甚至可以擴展到行動裝置上的13B參數模型。

Tether發布跨平台BitNet LoRA框架,實現在消費級設備上微調十億參數模型。

此外,該框架支援Intel、AMD和Apple Silicon等異構硬體,並首次在非NVIDIA設備上實現1位元LLM LoRA微調。在效能方面,BitNet模型在行動GPU上的推理速度比CPU快2到11倍,同時與傳統16位元模型相比,記憶體使用量最多降低了約77.8%。

Tether表示,這項技術有潛力打破對高階運算能力和雲端基礎設施的依賴,推動AI訓練朝向去中心化和本地化發展,並為聯邦學習等新應用場景提供基礎。

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。