機器人索菲亞:曾揚言“摧毀人類”,它如今成什么樣子了?
夢晨 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
你在面試中會遇到的那種算法題,AI已經能自己解決了,比如下面這道題:
對于一個記錄論文引用次數的數組,每個元素都是非負整數。請寫出函數h_index,輸出這些論文的h指數,即至多有h篇文章被至少引用了h次。
例:
輸入: [3, 0, 6, 1, 4]
輸出: 3
AI給出的Python答案是這樣的:
除了排序沒用counts.sort(reverse = True)讓人看著血壓升高,算是順利通過測試:
來自UC伯克利的研究團隊,將上面這道題被歸為“面試級”難度(看來國外程序員面試題有點簡單)。
此外還有更簡單的“入門級”和更難的“競賽級”,總共5000道題的測試中,AI能做出15%。
另外有人聲稱,他專門用GPT-2訓練了個專門做LeetCode的AI,能完成80%。
在刷LeetCode的你,是否在顫抖?
GPT-Neo贏過GPT-3
本研究使用的題目形式是自然語言題干,不同于以往研究常用的偽代碼和代碼之間翻譯。
題目是從Codeforces、Kattis等刷題網站收集的10000道題,5000道用于訓練,另外5000道作為測試集。
題干的平均長度為293.2個單詞,在測試集中每道題平均有21.2個測試用例。
入門級難度的題不需要復雜算法,有1-2年經驗的程序員都能回答的那種,有3639個。
面試級難度的題會涉及數據結構,比如樹或者圖,或需要修改常見的算法,有5000個。
剩下的是競賽級難度,達到USACO、IOI和ACM等競賽的水平。
研究人員分別訓練了GPT-2的1億參數版和15億參數版、GPT-3以及“高仿版”GPT-Neo。
參數規模“只有”27億的GPT-Neo和更低的GPT-2在測試用例通過率上,表現卻比1750億的GPT-3還要好。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規范轉載侵權必究。
未經授權嚴禁轉載,授權事宜請聯系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)