訂閱
糾錯
加入自媒體

ECCV 2020附代碼論文合集(CNN,圖像分割)

ECCV 2020 共接受 1361 篇論文,涵蓋了包括目標檢測,語義分割,圖像分類,點云,圖像重建,神經(jīng)網(wǎng)絡(luò)模型等熱門主題。對計算機視覺感興趣的小伙伴們也許你們已經(jīng)閱讀完論文并對論文的內(nèi)容躍躍欲試了吧!畢竟紙上得來終覺淺!這里 AMnier 整理了計算機視覺相關(guān)熱門主題下的附帶代碼的精選論文,快來尋找自己感興趣的論文并親自在自己的機器上實現(xiàn)吧!

CNN

1 WeightNet: Revisiting the Design Space of Weight Networks

作者:Ningning Ma,Xiangyu Zhang,Jiawei Huang,Jian Sun

機構(gòu):香港科技大學(xué),MEGVI研究

簡介:本文提出了一個概念上簡單、靈活和有效的權(quán)值生成網(wǎng)絡(luò)框架。文中的方法是通用的,它將當前兩個不同且非常有效的SENet和CondConv統(tǒng)一到一個權(quán)重空間的框架中。這個稱為WeightNet的方法通過簡單地在注意力激活層上添加一個分組的完全連接層來推廣這兩個方法。作者使用完全由(分組)完全連接層組成的WeightNet直接輸出卷積權(quán)重。WeightNet在內(nèi)核空間而不是特征空間上訓(xùn)練起來很容易,而且節(jié)省內(nèi)存。由于靈活性,他們的方法在ImageNet和COCO檢測任務(wù)上都優(yōu)于現(xiàn)有的方法,實現(xiàn)了更好的精度浮點和精度參數(shù)權(quán)衡。該框架在柔性權(quán)重空間上具有進一步提高性能的潛力。

2 Feature Pyramid Transformer

作者:Dong Zhang,Hanwang Zhang,Jinhui Tang,Meng Wang,Xiansheng Hua,Qianru Sun

機構(gòu):南京科技大學(xué),南洋理工大學(xué)

簡介:跨空間和尺度的特征交互是現(xiàn)代視覺識別系統(tǒng)的基礎(chǔ),因為它們引入了有益的視覺環(huán)境。傳統(tǒng)上,空間上下文被被動地隱藏在CNN不斷增加的接受域中,或者被非局部卷積主動編碼。然而,非局部空間相互作用并不是跨尺度的,因此它們無法捕捉到不同尺度上物體(或部件)的非局部上下文。為此,作者提出了一種跨空間和尺度的全主動特征交互,稱為特征金字塔變換器(FPT)。它通過使用三個特殊設(shè)計的自層、自上而下和自下而上的交互方式,將任何一個特征金字塔轉(zhuǎn)換成另一個大小相同但上下文更豐富的特征金字塔。FPT作為一種通用的可視化主干,具有合理的計算開銷。在實例級(即對象檢測和實例分割)和像素級分割任務(wù)中進行了大量的實驗,使用各種主干網(wǎng)和頭部網(wǎng)絡(luò),觀察到在所有基線和最新方法上的一致性改進。

3 Dynamic Group Convolution for Accelerating Convolutional Neural Networks

作者:Zhuo Su,Linpu Fang,Wenxiong Kang,Dewen Hu,Matti Pietik inen,Li Liu

機構(gòu):奧盧大學(xué),華南理工大學(xué)

簡介:用群卷積代替常規(guī)卷積可以顯著提高現(xiàn)代深卷積網(wǎng)絡(luò)的計算效率,在緊湊型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計中得到了廣泛的應(yīng)用。然而,現(xiàn)有的群卷積會永久性地切斷某些連接,從而破壞原有的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致顯著的精度下降。在這篇論文中,作者提出動態(tài)群組卷積(DGC),它可以在每個群組內(nèi),針對個別樣本,自適應(yīng)地選取輸入通道的哪一部分連接。具體來說,為每組配備一個小的特征選擇器,以根據(jù)輸入圖像自動選擇最重要的輸入通道。多個組可以自適應(yīng)地為每個輸入圖像捕獲豐富且互補的視覺/語義特征。DGC保留了原有的網(wǎng)絡(luò)結(jié)構(gòu),同時具有與傳統(tǒng)群卷積相似的計算效率。在CIFAR-10、CIFAR-100和ImageNet等多個圖像分類基準上進行了大量的實驗,結(jié)果表明該算法優(yōu)于現(xiàn)有的群卷積技術(shù)和動態(tài)執(zhí)行方法。

4 Learning to Learn Parameterized Classification Networks for Scalable Input Images

作者:Duo Li,Anbang Yao,Qifeng Chen

機構(gòu):香港科技大學(xué),Intel實驗室

簡介:卷積神經(jīng)網(wǎng)絡(luò)對輸入分辨率的變化不具有可預(yù)測的識別行為。這就阻止了在特定模型的不同輸入圖像分辨率上進行部署的可行性。為了在運行時實現(xiàn)高效、靈活的圖像分類,作者使用元學(xué)習(xí)器為不同的輸入尺度生成主網(wǎng)絡(luò)的卷積權(quán)值,并在每個尺度上維護私有化的批量規(guī)范化層。為了提高訓(xùn)練性能,他們進一步利用基于不同輸入分辨率的飛越模型預(yù)測的知識蒸餾。與單獨訓(xùn)練的模型相比,學(xué)習(xí)后的元網(wǎng)絡(luò)能夠動態(tài)地參數(shù)化主網(wǎng)絡(luò)以作用于任意大小的輸入圖像,具有一致的更好的精度。在ImageNet上的大量實驗表明,在自適應(yīng)推理過程中,本文的方法實現(xiàn)了更高的精度和效率的折衷。通過切換可執(zhí)行輸入分辨率,該方法可以滿足不同資源受限環(huán)境下的快速自適應(yīng)要求。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號