設為首頁 設為首頁 加入收藏 加入收藏 網站地圖
[請登陸][免費注冊]
搜 索

IBM人工智能芯片的新進展
出自:慧聰電子網

IBM蘇黎世實驗室的研究人員本周在NatureCommunications上發表了一篇論文。在文中他們聲稱,基于相變存儲器的技術,他們已經開發出了一種能同時能高實現能源效率和高精度的機器學習方案。這是一種使用基于電阻的存儲設備來實現內存內計算的方法,它們的方法彌補了存儲和計算數據分開的方案的缺陷,并在此過程中大大降低了功耗。

文章表示,許多現有的AI推理方案在物理上拆分了內存和處理單元,導致AI模型存儲在片外內存中。這會增加計算開銷,因為必須在各個單元之間對數據進行轉移,這會減慢處理速度并增加用電量。

IBM的技術表面上解決了相變存儲器的問題,相變存儲器是一種非易失性存儲器,比常用的閃存技術要快。這項工作如果被證明具有可擴展性,則可以為在無人機,機器人,移動設備和其他受計算限制的設備中運行AI的強大硬件鋪平道路。

正如IBM團隊所解釋的那樣,相變存儲設備面臨的挑戰是它趨向于引入計算誤差(computationalinaccuracy)。那是因為它本質上是模擬的。由于可變性以及讀寫電導噪聲,其精度受到限制。

研究提出的解決方案需要在軟件中的AI模型訓練期間注入額外的噪聲,以提高模型的彈性。結果表明它是成功的。在將訓練后的權重(即,用于轉換輸入數據的參數)映射到相變存儲器組件后,加入額外噪音在流行的CIFAR-19數據集可以把訓練ResNet模型精度提升到93.7%,而ImageNet的精度可以做到71.6%.

此外,在將特定模型的權重映射到原型芯片中的723,444個相變存儲設備上之后,在單天的過測試程中,精度保持在92.6%以上。研究人員聲稱這是一個記錄。

為了進一步提高精度隨時間的保持性,該研究的合著者還開發了一種補償技術,該技術可以在推理過程中定期校正激活函數(確定模型輸出的方程式)。他們說,這導致硬件精度提高到93.5%。

同時,該團隊使用模擬相變存儲組件對訓練機器學習模型進行了實驗。報告稱,他們使用混合精度架構在幾種類型的小規模模型上實現了“軟件等效”的準確性,這些模型包括多層感知器,卷積神經網絡,長期短期記憶網絡和生成對抗網絡。他們最近在《神經科學前沿》上發表的一項研究中詳細介紹了訓練實驗。

IBM在該領域的最新工作是在引入用于AI訓練的相變存儲芯片之后。但據報道,公司的這項技術仍處于研究階段的同時,公司研究人員證明了該系統可以將權重數據存儲為電荷,每平方毫米的計算量是圖形卡的100倍,而功耗卻要低280倍。

IBM表示:“在一個越來越多應用(包括物聯網電池供電的設備和自動駕駛汽車)向AI邁進的時代,快速,低功率且可靠的DNN推理引擎是非常有吸引力.

在一份聲明中他們表示。我們正在研究中的AI硬件加速器架構在支持DNN訓練和推理方面巨大潛力?!?/span> 

 

0
文章收入時間: 2020-05-22
 
SEMI簡介 | About SEMI | 聯系我們 | Privacy Policy | semi.org
Copyright © 2020 SEMI®. All rights reserved.
滬ICP備06022522號
滬公網安備31011502000679號
手机棋牌游戏哪个靠谱 20选5开奖结果走 36选7-福建体彩网 中超360直播 弈乐贵州捉鸡麻将技巧 娱网棋牌游戏大厅 nba贴吧 qq麻将外挂 正规网上兼职赚钱平 2020赛季中超赛程 白城52麻将