24小时咨询热线

056-356776552

餐厅展示

您的位置:主页 > 餐厅展示 > 美式餐厅 >

AI 真的可以写代码了?使用 GPT2 框架让代码实现自动补全

发布日期:2023-09-13 00:52浏览次数:
本文摘要:作者:熊唯,黄飞 ,腾讯 PCG/QQ研发中心/CV应用研究组AI 如果真的可以写代码了,法式员将何去何从?近几年,NLP 领域的生成式任务有显着的提升,那通过 AI 我们可以让代码自动完成后续补全吗?本文主要先容了如何使用 GPT2 框架实现代码自动补全的功效。如果 AI 真的可以自己写代码了,法式员将何去何从?

开云app官网登录入口

作者:熊唯,黄飞 ,腾讯 PCG/QQ研发中心/CV应用研究组AI 如果真的可以写代码了,法式员将何去何从?近几年,NLP 领域的生成式任务有显着的提升,那通过 AI 我们可以让代码自动完成后续补全吗?本文主要先容了如何使用 GPT2 框架实现代码自动补全的功效。如果 AI 真的可以自己写代码了,法式员将何去何从?我去年做过一个代码补全的小功效,打包为 androidStudio 插件,使用效果如下:代码补全模型预测出的效果有时简直会惊吓到我,这也能学到~? 那如果给它见识了全世界的优秀代码,再给足够量级参数和优秀的模型框架,真的可以实现需求作为输入,直接输出代码吗?"我的需求讲完了,你的代码呢?" 希望可以看到这一天。

代码补齐功效有其他优秀插件也已实现,好比 tabnine,Kite 和国产的 aixcoder。本文主要先容下代码补全功效需要实现的整套流程。主要包罗数据,算法和工程。

数据众所周知,算法工程师大部门时间都在处置惩罚数据。深度学习是使用大数据训练模型的一个历程,数据是很重要的一个模块。人是会累的,休息欠好还导致影象欠好。AI 是你给几多数据它就能存储吸收几多数据,学不到信息那是人的错,给的数据欠好或者算法设计欠好。

所以我们先尽可能多的准备好训练数据。1、数据收罗本文的目的是代码补全,训练数据就是代码段。思量到每种语言气势派头和语法都纷歧致,所以单个模型只针对一种代码语言。

我使用的训练数据主要泉源于 GitHub,编写了一个简朴的爬虫代码,指定语言后凭据 stars 的排序下载工程。Github 的 search API 官方地址:https://developer.github.com/v3/search/2、数据清理直接下载的数据肯定是不能直接用的,我们还需要对数据举行清理。首先,我们的训练数据只需要工程中的代码文件,以 java 工程为例,我们只保留.java 末端的文件,其他文件可剔除。其次,我的代码补全目的是代码段,不针对注释功效。

而且对于代码补全训练时,我们是会给定一定规模的上文,如果存在注释段会占用有效代码信息。另外注释除英文外其他字符不在我的训练 vocab 规模内,所以需要对代码中注释和日志举行清理。1.删除代码行中存在除符号和英文外的字符2.删除日志行3.删除注释行,主要针对以下花样/*注释文本*//**注释段落*///注释文本code//注释经由以上数据清理后,获得纯代码数据。

3、数据编码获得了训练数据后还需要把代码文本举行编码。本文使用的是 bpe(byte pair encoder)字节对编码,主要为了数据压缩。

bpe 简朴明白为将一个单词再拆分为多个字母组合,好比 tencent 拆分为 ten-cent,这些组合方式则是凭据大量数据,统计频率获得。由于我们期待的代码补全功效是在行首输入几个字母,凭据上文预期出本行内容。假设 tensorflow 这个 token 被编码对应到一个 id,那我希望输入 ten 就输出 tensorflow 是无法实现的。

所以在训练历程中,我会随机把 token 打断,好比将 tensorflow 打断为 t-en-sor-flow 举行编码,打断原则是被切分的部门一定要在词汇表中。数据编码后,代码的每个 token 被编码为 1~N 个 id。

模型预测到的 id 反编码为 token 即可。回车符认为是预测的终止符。经由以上处置惩罚,我们就准备好了训练数据,下面就可以举行算法部门了。

开云app官网登录入口

模型算法众所周知,算法工程师大部门时间都在研究算法。在腾讯文档的错别字纠错需求中,我们接纳了基于 LSTM 的 seq2seq 以及 facebook 提出的基于 CNN 的 seq2seq,可以获得不错的纠错效果。

直到 NLP 泛起了一个"网红"--BERT,接纳后精度直接提升 8 个点左右,不亏是 google。下面先简朴先容下 bert 和 gpt2。

BERT 和 GPT22017 年中 google 提出了 Transformer 结构。不用 rnn,不用 cnn,提出 attention is all you need。

2018 年 openAI 接纳了 transformers 结构在 18 年公布了 GPT。同年 google AI Language 公布了 bert 论文,提出的 BERT 模型在 11 个 NLP 任务上刷新了记载。2019 年 openAI 又推出了 GPT-2 模型。

BERT(Bidirectional Encoder Representation from Transformers)是基于 transformers 框架的 encoder 部门,自编码语言模型,适合 N-1(好比句子分类),N-N(好比词性标注)的任务,可是它并不适合做生成任务。GPT(Generative Pre-Training)基于 transformers 的 decoder 部门,自回归语言模型,适合生成式任务。Transformer框架图GPT2和BTER框架示意图代码补全功效就是基于 GPT2 框架,OPenAI 官方提供了多套 GPT2 预训练模型:官方提供GPT2参数作为一个经常要把模型部署到移动端的 CVer,看到这个参数级别,我选择最小的模型举行 finetune。

对于 GPT 算法,下面这篇文章讲的很好,感兴趣同学可以看看:https://zhuanlan.zhihu.com/p/137350403GPT2的预测历程本文在训练中使用 512 个上文,预测到回车符为终止。模型网络使用超参:12 个层,768 个隐藏节点,12 个 heads,接纳了 uber 的 Horovod 漫衍式框架举行训练。infer 阶段接纳 beam-search 会导致整个预测历程特别耗时,所以参考了https://arxiv.org/abs/1904.09751论文,接纳 top-k sampling,每次预测 top3 的效果再通过概率阈值过滤后作为最终候选输出。最终 infer 效果:输入一段代码,预测出后续代码,以回车符停止。

工程众所周知,算法工程师大部门时间都在做工程。训练出模型后,还要把模型应用起来,所以还需要一些工程事情需要实现。

代码补全功效,最合适的应用场景就是上 IDE。nlp 模型不太适合在本机部署,最终选择了在 GPU 机械上部署模型,然后终端通过 http 请求获取预测文本显示的方案。后台部署Flask 是一个 Web 应用法式框架,灵活,轻便,容易上手。

本文简朴先容如何使用 flask 启动一个 web 服务,以及如何会见和挪用我们的功效接口。首先我们建立一个 conda 情况:condacreate-nflaskpython=3.6sourceactivateflaskpipinstallflask代码中增加一个接口函数:fromflaskimportFlaskfromflaskimportrequestapp=Flask()#route把一个函数绑定到对应的url上@app.route("/plugin",methods=['GET',])defsend():data=request.args.get('data')#模型预测逻辑out=model_infer(data)returnoutif__name__=='__main__':app.run(host='0.0.0.0',port=8080,debug=False)执行 run.py 代码,后台服务开启运行:客户端请求:url=http://ip:8080/plugin?data="输入"其中 model_infer 函数需要实现模型的 infer 前向盘算逻辑,从请求中获取 data 字段作为输入,infer 预测的效果列表作为输出返回给挪用方。经由上面的事情,我们已经提供了一个服务接口,返回我们代码补全的预测效果。插件编写最后一步就是如何在 IDE 上使用功效了。

我们要开发 AS 的插件,需要使用 IntelliJ,首先需要在本机安装设置 IntelliJ IDEA下载地址:https://www.jetbrains.com/idea/download/社区版源码:https://github.com/JetBrains/intellij-community好用的插件可以节约法式员许多时间,在插件实现时,我还添加了一个小的 git-blame 功效,实时检察指定行的 git 提交人,对于手 Q 这种多人互助的事情,比力实用。大家也可以通过 IntelliJ 自己开发一些常用功效。gitBlame 的主要代码:publicclassGitBlameextendsAnAction{privatevoidshowPopupBalloon(finalEditoreditor,finalStringresult){ApplicationManager.getApplication().invokeLater(newRunnable(){publicvoidrun(){JBPopupFactoryfactory=JBPopupFactory.getInstance();factory.createHtmlTextBalloonBuilder(result,null,newJBColor(newColor(186,238,186),newColor(73,117,73)),null).setFadeoutTime(5000).createBalloon().show(factory.guessBestPopupLocation(editor),Balloon.Position.below);}});}@OverridepublicvoidactionPerformed(AnActionEvente){//TODO:insertactionlogichere//获恰当前当地代码根目录Stringbase_path=e.getProject().getBasePath();Stringfile_path=e.getProject().getProjectFilePath();//获取编辑mEditorfinalEditormEditor=e.getData(PlatformDataKeys.EDITOR);if(null==mEditor){return;}SelectionModelmodel=mEditor.getSelectionModel();finalStringselectedText=model.getSelectedText();if(TextUtils.isEmpty(selectedText)){return;}//获取当前编辑文档的目录PsiFilemPsifile=e.getData(PlatformDataKeys.PSI_FILE);VirtualFilefile=mPsifile.getContainingFile().getOriginalFile().getVirtualFile();if(file!=null&&file.isInLocalFileSystem()){file_path=file.getCanonicalPath();}//gitkit工具JGitUtilgitKit=newJGitUtil();Stringfilename=file_path.replace(base_path+"/","");//获得blame信息intline_index=mEditor.getSelectionModel().getSelectionStartPosition().getLine();Stringblame_log=gitKit.git_blame(base_path,filename,line_index);//展示if(!blame_log.isEmpty()){showPopupBalloon(mEditor,blame_log);}}}本文的代码补全插件主要代码逻辑为挪用上一步后台部署的请求。

//请求url花样(和flask接口一致)StringbaseUrl="http://ip:8080/plugin?data=";//获取当前编辑位置文本PsiFilestr=position.getContainingFile();//凭据模型上文限制获取代码端Stringdata=getContentCode();Stringurl=baseUrl+data;//发送请求Stringresult=HttpUtils.doGet(url);//后处置惩罚逻辑,在提示框显示预测效果show()最终出现形式:可以看出,模型的预计效果还是不错的~以上为代码补全功效的实现和应用,算是 AI 自动写代码的一小步。AI 能否自己写代码,到达疑犯追踪里 TM 那种水平,我不敢说一定不行能,但以我现在的认知是实现不了,究竟写代码的是法式员,给算法喂数据的是法式员,算法设计还是法式员,AI 连帮人类解 bug 的功效都还不泛起!参考资料:[1] https://arxiv.org/abs/1706.03762[2] https://arxiv.org/abs/1810.04805[3] https://github.com/openai/gpt-2[4] https://arxiv.org/abs/1904.09751。


本文关键词:真的,可以,写,代码,了,使用,GPT2,框架,让,实现,开云app官网登录入口

本文来源:开云app官网登录入口-www.gdjysq.com

XML地图 开云手机app(中国)官方网站IOS/安卓通用版/手机APP下载