本文為機器之心編輯,轉載請聯(lián)系本公眾號獲得授權
參與:思源、張倩
ICML 2019(國際機器學習)大會將于6月9日至15日在美國加州舉辦。大會共收到3424篇論文投稿,其中774篇被接收(接收率為22.6%)。近日,博世的分析人員根據(jù)接收論文列表做出了一份可視化圖表,從中可以看出各機構和作者的論文貢獻情況。
接收論文列表:https://icml.cc/Conferences/2019/AcceptedPapersInitial
排名前50的論文貢獻機構
下圖顯示了ICML 2019接收論文貢獻排名前50的機構。排名以機構貢獻的論文總數(shù)為準,至少有一名作者隸屬于該機構,因此一篇論文可能出現(xiàn)在多個機構中。紅色和綠色分別表示每個機構的一作論文和最后作者論文數(shù)量。
從屬于同一個機構的作者已自動合并。如Google Inc.、Google AI、Google UK都歸為Google。
ICML 2019接收論文貢獻數(shù)排名前50的機構(學界機構和業(yè)界機構)
由上圖可以看出,在排名前十的機構中,學界和業(yè)界機構幾乎平分秋色,但谷歌的論文貢獻量遙遙領先于第二名MIT,被接收論文數(shù)達到了80余篇
如果將業(yè)界和學術界分開來看,我們可以得到另外兩張圖。
ICML 2019接收論文貢獻數(shù)排名前50的學界機構
上圖顯示,在眾多高校和科研院所中,MIT的論文貢獻量最大,達到40余篇,其次是加州大學伯克利分校和斯坦福。國內(nèi)上榜的院校包括清華大學、北京大學、南京大學、香港中文大學。
ICML 2019接收論文貢獻數(shù)排名前50的業(yè)界機構
上圖顯示,谷歌、微軟、Facebook等機構在本屆ICML大會中表現(xiàn)最為強勢。國內(nèi)上榜的機構包括騰訊、阿里巴巴、華為、百度等。
盡管谷歌、微軟、IBM等業(yè)界巨頭貢獻了很大一部分論文,但ICML 2019仍然是一場學術會議。統(tǒng)計后可以發(fā)現(xiàn):
純學術研究論文有452篇(58.4%);
僅有60篇論文純粹是由業(yè)界研究機構完成的;
既包含業(yè)界也包含學界作者的論文有262篇(33.9%)。
計算相對貢獻(即每篇論文的業(yè)界/學界附屬機構數(shù)量除以總附屬機構數(shù)量)也可以得到類似的數(shù)字。總結學界和業(yè)界對所有論文的相對貢獻可以得到:
學界機構的貢獻占77%;
業(yè)界機構的貢獻占23%。
ICML 2019大神作者
那么哪些作者發(fā)ICML 2019大會Paper最多呢?果然,UC Berkley的機器學習泰斗Michael Jordan獲得了第一。其中Jordan署名最多的還是最后一位,因此作為一位成功的「老板」,Jordan也是桃李滿天下了,北大張志華、斯坦福吳恩達教授、Petuum 創(chuàng)始人邢波等大牛都出自其門下。
下圖展示了ICML 2019論文總數(shù)排名前100的大神作者,統(tǒng)計會區(qū)分獨立作者、一作和最后作者等。Michael Jordan因為有7篇ICML 2019接收論文而位列第一,EPFL的Volkan Cevher和UC Berkley的Sergey Levine緊隨其后,他們每人都有6篇接收論文。
國內(nèi)也有很多研究者取得了很好的成果,例如清華大學的朱軍、微軟亞研的劉鐵巖、清華大學龍明盛等研究者都在ICML 2019發(fā)表了4篇論文。
令人印象深刻的是,很多研究者擁有兩篇或兩篇以上的一作(或單個作者)論文。例如谷歌的Ashok Cutkosky的三篇研究分別為獨立作者、一作和一般作者,而CMU的Simon Du更是有3篇一作。下圖展示了作為一作或獨立作者的大神們:
因為最后的作者基本上都是「老板」,所以根據(jù)最后作者進行排序可以看出來該領域的一些資深研究者。他們一般都在非常優(yōu)秀的實驗室或研究團隊,因此能做出更多的研究成果。
ICML 2019論文貢獻哪家強
最后,我們可以按照相對共享對這些頂級科研機構排序,即一篇論文中到底有多少作者是該研究機構的。具體而言,項目作者用署名該機構的作者數(shù)除以總的作者數(shù),從而計算該機構的相對貢獻。
從下圖可以看出來,谷歌、斯坦福、UC Berkley等都名列前茅,而清華、北大和南大也都榜上有名。
最后,作者表示,清理網(wǎng)站數(shù)據(jù),尤其是附屬機構的一些數(shù)據(jù)是一個冗長的手動過程。因為中間會有很多不同的、不明確的機構表示方法,也會有很多縮寫表示方法,所以只能手動完成。項目作者已經(jīng)盡可能合并從屬關系的機構,但是中間還是可能有一些誤差,因此單篇論文有可能沒有統(tǒng)計到研究機構。
所以,如果讀者發(fā)現(xiàn)中間的統(tǒng)計信息有什么誤差,歡迎在下面留言指出。
參考鏈接:https://www.reddit.com/r/MachineLearning/comments/bn82ze/n_icml_2019_accepted_paper_stats/
文章來源:機器之心
IEEE Spectrum
《科技縱覽》
官方微信公眾平臺
往期推薦