机器人索菲亚:曾扬言“摧毁人类”,它如今成什么样子了?

转载 收藏 评论
举报 2021-05-27

1.jpg梦晨 发自 凹非寺

量子位 报道 | 公众号 QbitAI

你在面试中会遇到的那种算法题,AI已经能自己解决了,比如下面这道题:

对于一个记录论文引用次数的数组,每个元素都是非负整数。请写出函数h_index,输出这些论文的h指数,即至多有h篇文章被至少引用了h次。

例:

输入: [3, 0, 6, 1, 4]

输出: 3

AI给出的Python答案是这样的:


除了排序没用counts.sort(reverse = True)让人看着血压升高,算是顺利通过测试:


来自UC伯克利的研究团队,将上面这道题被归为“面试级”难度(看来国外程序员面试题有点简单)。

此外还有更简单的“入门级”和更难的“竞赛级”,总共5000道题的测试中,AI能做出15%。

另外有人声称,他专门用GPT-2训练了个专门做LeetCode的AI,能完成80%。


在刷LeetCode的你,是否在颤抖?


GPT-Neo赢过GPT-3

本研究使用的题目形式是自然语言题干,不同于以往研究常用的伪代码和代码之间翻译。


题目是从Codeforces、Kattis等刷题网站收集的10000道题,5000道用于训练,另外5000道作为测试集。

题干的平均长度为293.2个单词,在测试集中每道题平均有21.2个测试用例。


入门级难度的题不需要复杂算法,有1-2年经验的程序员都能回答的那种,有3639个。

面试级难度的题会涉及数据结构,比如树或者图,或需要修改常见的算法,有5000个。

剩下的是竞赛级难度,达到USACO、IOI和ACM等竞赛的水平。

研究人员分别训练了GPT-2的1亿参数版和15亿参数版、GPT-3以及“高仿版”GPT-Neo。

参数规模“只有”27亿的GPT-Neo和更低的GPT-2在测试用例通过率上,表现却比1750亿的GPT-3还要好。

1.jpg

本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本内容为作者独立观点,不代表数英立场。
本文禁止转载,侵权必究。
本文系数英原创,未经允许不得转载。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    DIGITALING
    登录后参与评论

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    800

    推荐评论

    暂无评论哦,快来评论一下吧!

    全部评论(0条)