2月21日,國科微舉辦以“春茗芯生·智領(lǐng)國科”為主題的人工智能研討會,香港中文大學教授、國科微AI首席科學家邢國良及其研究團隊與國科微AI算法專家、AI產(chǎn)品經(jīng)理以及研發(fā)人員共聚一堂,圍繞端側(cè)AI技術(shù)發(fā)展與產(chǎn)業(yè)應(yīng)用,DeepSeek大模型為端側(cè)AI注入的機遇與挑戰(zhàn)展開深入研討,帶來一場精彩的思想盛宴。
2025 年 1 月,DeepSeek R1 模型的發(fā)布將業(yè)界對人工智能的關(guān)注推向空前高度。DeepSeek不僅將加速大模型在云端的部署,還為大模型在端側(cè)的部署帶來新的可能。邢國良教授在《端側(cè)人工智能研究前沿及應(yīng)用——從深度神經(jīng)網(wǎng)絡(luò)到大模型》的主題演講中,首先回顧了大模型的發(fā)展歷程。自2017年 Transformer 架構(gòu)誕生以來,大模型不斷演進,從GPT-3、GPT-4V到剛剛發(fā)布的開源DeepSeek R1模型,性能持續(xù)提升,對算力的依賴卻顯著降低。
邢國良教授指出,DeepSeek R1的成功得益于神經(jīng)網(wǎng)絡(luò)壓縮技術(shù),通過量化和蒸餾等方法可以得到輕量級模型,在降低算力需求的同時仍保持了較好的推理能力,這為端側(cè) AI 在智能手機、智能家居等領(lǐng)域的應(yīng)用提供了有力支持。
不過,端側(cè)部署大模型仍面臨硬件資源受限、模型復雜度高、能耗高和部署門檻高等挑戰(zhàn)。針對這些問題,邢國良教授提出跨平臺通用模型部署架構(gòu)、充分利用異構(gòu)算力以及進一步發(fā)展模型優(yōu)化與壓縮技術(shù)等發(fā)展建議。
隨后,邢國良教授領(lǐng)導的研究團隊成員以及國科微AI專家等發(fā)表了《2025年消費級AI硬件展望》《DeepSeek R1深度解析》《端側(cè)AI芯片發(fā)展趨勢》主題演講,共同探討AI大模型以及端側(cè)AI的商業(yè)實踐、技術(shù)實踐以及發(fā)展趨勢。
自2024年全面擁抱AI以來,國科微依托自研 NPU,提出打造“端側(cè) AI 芯引擎”的目標,并推出新一代4K AI視覺處理芯片GK7606V1系列與輕智能視覺處理芯片GK7203V1系列,進一步豐富端側(cè)AI芯片產(chǎn)品及方案。
此次研討會不僅加深了國科人對端側(cè)AI技術(shù)的理解,也為國科微在端側(cè)AI領(lǐng)域的發(fā)展明確了方向。2025 年,國科微將加快端側(cè)AI產(chǎn)品布局,在音視頻解碼、智慧視覺和車載電子等領(lǐng)域持續(xù)發(fā)力,推動端側(cè)AI技術(shù)的發(fā)展和應(yīng)用。