刚刚,OpenAI又玩出了一个新高度。
只输入自然语句,AI就自动做了个小游戏!
划重点:不!用!你!编!程!
来,感受一下这个feel。
第一步,ldquo;小人儿rdquo;搞里头,输入一句话就能让它按照方向键左右移动:
Now make it controllable with the left and right arrow keys.
AI在理解了需求之后,自动编程,然后小人儿就真的可以左右移动了。
第二步,ldquo;石头rdquo;搞里头,同样输入一句话,让它ldquo;从天而降rdquo;:
Now have it fall from the sky, and wrap around.
第三步,用自然语言简单再制定些规则,若小人儿被石头砸中则终止游戏。
Constantly check if the person and the boulder overlap at all, and if so, you lose.
最后还让AI生成结束提示,其中要包括一句鼓励人的话。
AI挑中的是ldquo;Try Again!rdquo;
当然,还有规则更复杂的小游戏(例如增加计分等功能),也可以用同样的方式,分分钟生成:
这是魔法吧!现在开发小游戏都靠ldquo;打字rdquo;了?!
围观直播的观众们,也是发出了同样的感慨,瞧瞧这满屏止不住的弹幕:
有网友甚至直呼道:
编程,已经变成AI自己的游戏了。
这就是OpenAI重磅发布的新品mdash;mdash;Codex,一个能自己编程的AI。
AI编程这事并不新鲜了,像GitHub前不久闹得风风火火的Copilot,就是其中一个。
但它背后的技术,其实还是来自于OpenAI。
然而这一次,OpenAI给自己的能力升了个级,来了个新版本。
不仅如此,搞一个小游戏,仅仅是Codex能力的冰山一角罢了。
一起感受一下它更多惊艳的表现吧。
不用打字,直接语音命令它!
给AI打字ldquo;提需求rdquo;,还是略显麻烦了一些。
能不能直接说话下达命令呢?
这个还真可以有!
OpenAI这次与微软合作出了一个Word插件,便带了这种语音控制的功能。
直接对着AI下命令ldquo;把每行开头的空格去掉rdquo;,AI通过微软给的接口一顿操作,成功执行:
啪的一下,全文就左对齐了有木有。
而且AI还精准地理解了命令的含义,那些段与段之间的空行并没有改动。
来再复杂一点的。
给AI下达ldquo;每数到五行就加粗rdquo;命令,也是能轻松hold得住:
这种把任务吩咐下去,就有ldquo;人rdquo;给你完成的感觉,是不是很像老员工指挥实习生?
总之呢,是比罗永浩前几年发布的TNT系统语音办公要强上那么ldquo;亿rdquo;点点了。
除了官方的演示,这次内测用户aniakubow,还让AI表演了通过152字描述生成一个网页。
可以看出这里Codex是用Javascript操作Document对象来生成网页,可能是训练集里没有直接的HTML代码的缘故吧。
最后,除了现场演示外,OpenAI还在Arxiv上发布了Codex的论文预印版。
论文中,Codex要面对的挑战甚至有刷IOI和ACM难度的竞赛题!
Codex用对每道题生成1000种答案这种暴力方法,能做出600多道竞赛题测试集中的3.23%,并且通过全部的测试用例。
这个编程题目测试集是UC伯克利研究人员在5月份刚刚做好的。
当时测试的GPT-2、GPT-3和开源的GPT-Neo可是在竞赛难度上全军覆没,一道都没做出来。
没想到短短两个多月,专为代码而生的Codex就为前辈们洗刷了耻辱。
Codex的ldquo;魔法rdquo;,是如何实现的?
这么炫酷的能力,莫非还是像GPT-3一样堆数据,大力出奇迹吗?
不全是,这次Codex最大的一个版本是120亿参数,比起GPT-3的1750亿还是小了很多。
要了解具体情况,还要从它的开发历程说起。
最早,OpenAI研究人员拿GPT-3做各种试验,发现GPT-3能从Python注释中生成一些简单的代码。
这可把他们高兴坏了,因为GPT-3根本没特意拿代码训练过,只是看过一些博客和帖子中零星的代码片段。
想想GPT-3在自然语言上的出色表现,要是专门训练一个代码版的GPT-3,那肯定也能再次震惊业界。
于是,他们找到了GitHub,这个拥有最多开源代码的ldquo;小伙伴rdquo;来合作。
一开始是拿到了179G的Python代码,但其中不乏存在一些篇幅太长的,以及明显是自动生成的那种。
在剔除掉这些ldquo;不达标rdquo;的代码后,最后留下的代码大小为159G。
接下来当然是做预训练,把这些代码都喂给AI(Codex)。
不过这里有一个问题:
GitHub上的开源代码难免会有Bug,AI学了一堆有问题的代码可咋办?
其实这倒也好说,预训练之后不是还要微调嘛。
微调的时候,全用编程竞赛里的正确答案,以及PyPI里的靠谱开源代码就可以了。
最后,120亿参数版的Codex,能对28.81%的问题给出正确答案。
这个准确率超过之前的开源代码预训练模型GPT-Neo和GPT-J,还有基于GPT-2的代码补全工具TabNine。
这个成绩虽然不错,不过离能实际应用还是有点远了。
不过,这也难不住OpenAI的研究团队。
他们很快便想到了ldquo;突破口rdquo;:
人类编程的时候,不也经常先出一个版本,然后反复修改bug嘛~
那就让AI像人一样反复修改,改出100个版本来,从中总能挑出几个正确的来。
用上这种拿ldquo;量rdquo;堆出来的方法,Codex的最终成绩是:
77.5%!
强,但不完全强
Codex令人惊艳的表现,一度让网友们大呼:
要失业了要失业了!
有人直接在公屏上打出:再见了,计算机专业的学子们。
不过大家也不必如此担心,因为在演示过程中,其实就出现了翻车的情况。
在输入ldquo;Say Hello World with empathyrdquo;后,Codex给出的结果居然还是ldquo;Hello World with empathyrdquo;。
这也侧面说明了Codex现在还不是完美的。
OpenAI就表示:
即便是参数达到120亿的Codex 12B,它的能力可能也还不如一位编程刚刚入门的学生。
虽然Codex学习上亿行代码,但它更大程度是ldquo;记住了rdquo;这些代码,并不是真正意义上的懂编程语言。
而且Codex对长字符串的理解也比较困难。
并且随着字符数量的增加,Codex的性能表现下降得非常明显。
要不是合作方微软Azure云买了足够多的碳排放限度,Codex可能还不能和我们见面呢(手动狗头)。
此外,在理解变量和运算较多的注释时,Codex也会犯错:
在这个例子中,120亿参数版的Codex,忘记了对变量w做减法,也没有返回所有数字的乘积。
这些对于还在学习编程的新手程序员而言,非常不友好。
而且由于生成的代码准确性和正确性都还不能保证,因此在安全问题上也存在一定风险。
不仅如此,OpenAI还表示,Codex会生成带有种族歧视的内容。
在社会层面上,OpenAI还提出Codex的出现或许会冲击程序员的就业;如果被滥用,还有网络犯罪方面的隐患。
最后还有一点,就是环境方面的问题。
毕竟它作为大模型,参数量的规模不容小觑。
要不是合作方微软Azure云买了足够多的碳排放限度,Codex可能还不能和我们见面呢(手动狗头)。
如果想要试玩的话,OpenAI还准备了一个Python编程大赛,在这场比赛中Codex会作为你的搭档和你一同解题。
比赛将于北京时间8月13日凌晨一点开始,就是这时间对国内不太友好。
为爱而聚,好梦有你 丨 Simmons席梦思举办“爱在一起”客户答谢会
每个人都有自己的心中热爱,它可以是可爱的宠物、充满意义的工作、热血的运...时间:2023-05-19电视出货量上半年创五年新高,下半年大概率急转直下
8月24日,TrendForce集邦咨询发布的报告显示,2021年上半...时间:2021-08-30重押新品类、围绕“静音”新场景,京东家电打造厨电营销新逻辑
8月26日,由中国家用电器协会指导,中国家电网主办的2021中国厨电行...时间:2021-08-30舒舒服服睡好觉,试试澳柯玛“零风感”空调
立秋过了,三伏天也快结束,但是秋老虎还没有走。一边感受着八月正午的阳光...时间:2021-08-30互联网家装解决不了痛点 与传统家装无区别
近期,几大互联网家装品牌接连曝出装修质量问题,引起业内人士和消费者的关...时间:2021-08-30