大家好,我是華夏文化傳播網(wǎng)的編輯小林。最近看到網(wǎng)友在搜索谷歌發(fā)布適用于珊瑚板的EfficientNetEdgeTPU分類模型的信息。小林還收集了谷歌適用于珊瑚板的有效Netedgetpu分類模型的信息,并與大家分享。以上是小林對所有問題的回答。
谷歌在3月份發(fā)布了Coral Dev Board,這是一款搭載Edge TPU AI加速器芯片和USB加密狗的緊湊型PC,旨在現(xiàn)有的樹莓Pi和Linux系統(tǒng)(Coral USB Accelerator)上加速機器學(xué)習(xí)推理。)。此后,工具包支持資源的更新達到了穩(wěn)定的水平。今天,谷歌發(fā)布了一個新的分類模型系列——EfficientNet-EdgeTPU,據(jù)說是經(jīng)過優(yōu)化的,可以在Coral board的模塊化系統(tǒng)上運行。
GitHub提供了efficant net-edge TPU的訓(xùn)練代碼和預(yù)訓(xùn)練模型。
機器加速器架構(gòu)師蘇約格古普塔(Suyog Gupta)和谷歌研究公司(Google Research)的軟件工程師寫道:“隨著縮小晶體管尺寸的難度越來越大,業(yè)界重新聚焦于開發(fā)特定領(lǐng)域的架構(gòu)(如硬件加速器),以繼續(xù)提高計算能力?!弊T明興“具有諷刺意味的是,盡管這些架構(gòu)在數(shù)據(jù)中心和邊緣計算平臺中穩(wěn)步增長,但運行在這些平臺上的[AI模型]很少進行定制,以利用基本硬件?!?/p>
因此,高效網(wǎng)-EdgeTPU項目的目標(biāo)是定制源自谷歌高效網(wǎng)的模型,以適應(yīng)節(jié)能低成本的EdgeTPU芯片。在之前的測試中,高效網(wǎng)在現(xiàn)有人工智能系統(tǒng)的某些類別中展示了更高的準(zhǔn)確性和更高的效率,從而將參數(shù)大小和FLOPS減少了一個數(shù)量級。
這是因為在固定資源的約束下,EfficientNets使用網(wǎng)格搜索來確定基準(zhǔn)AI模型的縮放維度之間的關(guān)系。為每個維度搜索適當(dāng)?shù)目s放因子,然后應(yīng)用這些因子將基線模型縮放到所需的模型大小或計算預(yù)算。
根據(jù)古普塔、譚和他的同事的說法,重新配置高效網(wǎng)絡(luò)以利用Edge,需要調(diào)用谷歌開發(fā)的AutoML框架。MNAS通過結(jié)合強化學(xué)習(xí)來考慮硬件限制(尤其是片上存儲器),然后在選擇作物精華之前,通過執(zhí)行各種模型并測量它們的實際性能,從候選列表中確定理想的模型架構(gòu)。該團隊補充了一個等待時間預(yù)測模塊,該模塊提供了算法在邊緣TPU上執(zhí)行時的等待時間估計。
整個方法產(chǎn)生了一個基線模型——efficient net-EdgeTPU-S,研究人員通過選擇輸入圖像分辨率縮放、網(wǎng)絡(luò)寬度和深度縮放的最佳組合來放大。在實驗中,與流行的圖像分類模型(如initiation-resnet-v2和Resnet50)相比,所得到的更大的架構(gòu)EfficientNet-EdgeTPU-M和EfficientNet-EdgeTPU-L以增加延遲為代價實現(xiàn)了更高的精度,并且在EdgeTPU上運行得更快。
EfficientNet-EdgeTPU發(fā)布了谷歌的模型優(yōu)化工具包TensorFlow的工具包,其中包括混合量化、綜合整數(shù)量化以及前一天首次亮相后的剪枝。值得注意的是,經(jīng)過訓(xùn)練后,float16量化可以將AI模型的大小減少多達50%,同時降低準(zhǔn)確率。
本文就為大家講解到這里。