一等一的頂會(huì)CVPR接收的論文竟然出錯(cuò)?這條消息在今天的Reddit炸了鍋。根據(jù)論文作者公開的代碼,實(shí)驗(yàn)無法復(fù)現(xiàn),同行評(píng)議過程也再次遭到質(zhì)疑,該不該連代碼也一起審核?網(wǎng)友向大家征求意見:這篇論文該不該被撤稿?
CVPR,計(jì)算機(jī)視覺乃至人工智能領(lǐng)域頂會(huì)中的頂會(huì),“THE頂會(huì)”,接收的論文竟然名不副實(shí)?
你說該不該撤稿?
今天,一條這樣的消息在Reddit炸了鍋。
事情是這樣的,有人試著去復(fù)現(xiàn)了CVPR 2018的一篇論文——CMU和密歇根州立大學(xué)的《Perturbative Neural Networks》,發(fā)現(xiàn)得不到作者在論文中所描述的結(jié)果,他認(rèn)為這表明論文作者計(jì)算有誤,因此其結(jié)果無效,于是就在Reddit發(fā)帖(在他大前天向作者發(fā)郵件但沒有收到回復(fù)后)問眾網(wǎng)友:
“我覺得這篇論文該被撤稿。你們覺得呢?”
“THE頂會(huì)”CVPR的同行評(píng)議竟然出錯(cuò)?!
一石激起千層浪。
因?yàn)檫@可不是隨便哪篇上傳到arXiv的預(yù)印版,而是經(jīng)過了CVPR雙盲評(píng)審的論文啊。連CVPR這樣一等一的頂會(huì)都出錯(cuò)了,這還怎么得了?
具體看,《Perturbative Neural Networks》的作者在文中寫道,如今計(jì)算機(jī)視覺的成功大多是由于卷積神經(jīng)網(wǎng)絡(luò)(CNN),而他們提出了一個(gè)簡(jiǎn)單有效的模塊,叫做“干擾層”(perturbation layer),作為卷積層的替代。干擾層不使用傳統(tǒng)意義上的卷積,而是將其響應(yīng)計(jì)算為一個(gè)線性加權(quán)和,這個(gè)和是由增加的噪音干擾輸入的非線性激活組成的。
PNN論文作者通過實(shí)驗(yàn)和分析,表明干擾層可以有效地替代標(biāo)準(zhǔn)的卷積層,然后他們將干擾層組成深度神經(jīng)網(wǎng)絡(luò)——干擾神經(jīng)網(wǎng)絡(luò)(PNN),并在一系列視覺數(shù)據(jù)集(MNIST,CIFAR-10,PASCAL VOC和ImageNet)上與標(biāo)準(zhǔn)CNN進(jìn)行比較,得出結(jié)論P(yáng)NN的表現(xiàn)跟CNN一樣好。
但“p1esk”,也就是在Reddit發(fā)言認(rèn)為該撤稿的那個(gè)人就不同意了,他認(rèn)為將3X3卷積換成1X1再在輸入中增加一些干擾,實(shí)際上并沒有什么意義。他的測(cè)試結(jié)果是這樣的:
P1esk 復(fù)現(xiàn)的結(jié)果,發(fā)現(xiàn)PNN精度根本就沒有到90%,只有85%左右
當(dāng)然,p1esk 也給出了他詳細(xì)的實(shí)現(xiàn)過程,具體可以去看Github頁面(見文末)。
論文該不該撤?都是公開代碼惹的禍
好,回到最開始討論的是否該撤稿問題上來。
網(wǎng)友的意見大致可以分為三類:
不用撤,既然作者都把代碼公開了,顯然是無心之過,只要將錯(cuò)誤改過來就好了;
撤!有錯(cuò)誤當(dāng)然撤,不僅如此,以后還應(yīng)該規(guī)定所有論文提交時(shí)都必須公開代碼,不僅論文要評(píng)審,連代碼也要一并審核;
先把撤稿的事放在一邊:(雙盲)評(píng)審過程本身并不涉及代碼的審核,就好像生物學(xué)領(lǐng)域的論文不會(huì)在審稿期間去重復(fù)實(shí)驗(yàn),也無法做到一一核查代碼,原本就是論文發(fā)表后,由其他同行來復(fù)現(xiàn),由此判斷其結(jié)論是否經(jīng)得起科學(xué)論證。
你有沒有發(fā)現(xiàn),討論的重點(diǎn)實(shí)質(zhì)上已經(jīng)從“撤稿”轉(zhuǎn)移到了“公開代碼”上面。
p1esk 為何能發(fā)現(xiàn)PNN論文結(jié)果與作者描述得不一致?因?yàn)镻NN論文的作者將代碼公開了。如果不公開,連發(fā)現(xiàn)這個(gè)不一致的機(jī)會(huì)都沒有。
因此,也有人評(píng)論,說不定這就是某些論文不公開代碼的原因呢。
這種想法得到了不少贊同,不少人表示,對(duì)啊對(duì)啊,這比那些說了會(huì)公布代碼但卻一直不公布的人要好多了。
而代碼公開,實(shí)際上一直是深度學(xué)習(xí)領(lǐng)域的老大難問題。
有的產(chǎn)業(yè)研究機(jī)構(gòu)不太希望公開代碼,因?yàn)樯婕暗綄@?a target="_blank">產(chǎn)品。
深度學(xué)習(xí)是如今研究復(fù)現(xiàn)率最低的領(lǐng)域之一,正如南京大學(xué)計(jì)算機(jī)系主任、人工智能學(xué)院院長(zhǎng)周志華教授在AI WORLD 2018世界人工智能峰會(huì)發(fā)表的演講中提到的那樣:
“常用神經(jīng)網(wǎng)絡(luò)的朋友知道,現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)有很多問題。大家經(jīng)常說的一件事情就是要花大量的精力調(diào)整參數(shù),參數(shù)實(shí)在太多了。
“不僅如此,這還會(huì)帶來另外一個(gè)嚴(yán)重的問題:哪怕我告訴你同樣的算法、用同樣的數(shù)據(jù),如果不告訴你參數(shù)是怎么調(diào)的,可能就沒有辦法得到同樣的結(jié)果。”
作者回應(yīng):正在檢查,誤差太大會(huì)主動(dòng)撤稿
現(xiàn)在,Reddit這條討論里被贊最多的回復(fù),來自PNN論文的作者。
你好,我是這篇論文的第一作者。我們?cè)诖蠹s3周前注意到了這個(gè)問題,現(xiàn)在正在調(diào)查中。我很感謝Michael對(duì)PNN論文的實(shí)現(xiàn),并將他發(fā)現(xiàn)的問題告訴給了我們。我們希望徹底分析問題,并且得到100%確定的結(jié)果,之后再給出進(jìn)一步的回復(fù)。
我們可視化工具中平滑函數(shù)的默認(rèn)設(shè)置有誤,這是我們疏忽了,現(xiàn)在已經(jīng)修復(fù)。我們正在重新運(yùn)行所有的實(shí)驗(yàn)。我們會(huì)用最新的結(jié)果更新我們的arXiv的論文和Github庫。如果分析表明我們的結(jié)果確實(shí)跟提交CVPR的版本中相差很多,我們會(huì)撤回這篇論文。
話雖如此,根據(jù)我的初步評(píng)估,如果他在實(shí)現(xiàn)的時(shí)候正確選擇#filters、噪音水平和優(yōu)化方法,我眼下能夠在CIFAR-10上達(dá)到大約90%~91%的精度,而不是他選上述參數(shù)得到的85%~86%。但是,不做進(jìn)一步檢查,我不想說更多。
大部分網(wǎng)友都認(rèn)為這是一個(gè)合理的回復(fù)。
那既然作者都這樣說了,圍觀人等就散去吧?
你是不是忘了,最根本的代碼公開還沒有得到結(jié)論呢!
如果深度學(xué)習(xí)和人工智能真的要成為一門科學(xué),那么就必須符合科研的標(biāo)準(zhǔn)。如今,代碼開源以及復(fù)現(xiàn)實(shí)驗(yàn)的呼聲越來越高,這也是領(lǐng)域健康發(fā)展的證明。
重視論文可重復(fù)性,讓深度學(xué)習(xí)成為一門科學(xué)
ICLR在去年舉辦了一個(gè)“研究復(fù)現(xiàn)挑戰(zhàn)賽”,今天剛剛公布了第二屆的消息。在這個(gè)復(fù)現(xiàn)挑戰(zhàn)賽中,參賽者從2019年ICLR提交的論文中任意選擇一篇,然后嘗試復(fù)現(xiàn)論文中描述的實(shí)驗(yàn)。目標(biāo)是評(píng)估實(shí)驗(yàn)是否可重復(fù),并確定你的發(fā)現(xiàn)是否支持該論文的結(jié)論。
參賽者的結(jié)果可以是肯定的(即確認(rèn)可重復(fù)性),也可以是負(fù)面的(即說明無法復(fù)現(xiàn)實(shí)驗(yàn)內(nèi)容,并給出可能的原因)。
舉辦這樣的競(jìng)賽,就是為了讓更多的人,尤其是學(xué)生,加入到論文審核的工作中來,同時(shí)也提升其對(duì)論文可重復(fù)性重要性的意識(shí)。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100720 -
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
8文章
1698瀏覽量
45982
原文標(biāo)題:CVPR18論文竟然“造假”?雙盲評(píng)審代碼也要核查!
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論