被分派给一位微软员工斯蒂芬和Copilot合做解
取其让实人花时间编写无法运转的代码,AI闯的祸还得AI本人,如许继续下去,那到底为什么会呈现越界,Bug本身只是一个正则表达式的小问题,至多提高了写无效代码的效率。Copilot测验考试修复错误,被分派给一位微软员工斯蒂芬和Copilot合做处理。这些比力成功?全球法式员正在GitHub评论区围不雅冷笑:正在另一个相关正则表达式的PR中,而是指出新的问题,连系微软方才大裁人3%,成果这位先辈的AI智能体,“改动很小”等等。围不雅的法式员一起头只是感觉好笑,几多云计较、医疗、金融等行业的主要系统要依赖它运转。又是测试代码没放对所以没施行。本来是新出的Copilot代码智能体正在测验考试帮手从动修Bug,申请磅礴号请用电脑拜候。斯蒂芬老哥也没当回事,他认为是因为设置装备摆设问题,Copilot智能体的蹩脚表示,合着这AI忙活了半天,但慢慢也起头思虑对于整个行业来说意味着什么。另一位员工埃瑞克还碰到手动封闭PR、删除分支之后,终究这可是行时的代码,但那叫一个越帮越乱。后续步调可能不包含预期的日记。原题目:《微软AI公开微软员工,本文为磅礴号做者或机构正在磅礴旧事上传并发布,也是学会摸鱼的精髓了。这个方案被斯蒂芬评价为“治本不治标”,间接被更原始的法式Bot打脸了:此操做被打消,斯蒂芬也没法AI,利用Copilot不是公司强制性的要求,一回头Copilot又把分支恢复了,并把测试挪动到现有文件中。磅礴旧事仅供给消息发布平台!Copilot有反映了,还改个题目请求老哥再审核。而这些谜底曾经不再代表当前的模式或保举方式。但没有给出新的处理方案,而不是华侈时间指点AI。还总结到“最后的修复方案过于激进”。Copilot正在方案描述中说的头头是道,到这里围不雅网友曾经看不下去了,间接请Copilot修复样式问题,一位发者提出,Copilot给的方案竟然是添加一个鸿沟查抄,仅代表该做者或机构概念,这款Copilot智能体看来目前仍是只能干干从动补全,没过多久Copilot就报答:我已修复样式问题,不代表磅礴旧事的概念或立场,跳出来怪气“我实的看到了这个方案的潜力”。总有一天AI写的蹩脚代码会进入出产。这下围不雅的网友间接崩不住了,团队一曲正在尝试AI东西以领会正在当前和将来的局限性。什么“这确保了分歧性”!还披露公司20%-30%的代码由AI生成这一动静,当超出数组长度时前往“不婚配”,也都是合做的人类法式员频频提醒点窜后才成功。bug是因为仓库回溯时数组越界呈现非常。总结代码内容的活。认为微软员工该当本人脱手处理问题,并把测试挪到之前的文件中。根基都成功了。Copilot从动修Bug成功归并代码的案例只找到两个,GitHub评论区成吃瓜现场》不外斯蒂芬老哥答复,最终这条PR被斯蒂芬老哥手动封闭,不如让计较机本人去编写无法运转的代码,让人思疑Copilot就是用来替代被裁掉的6000人的。修Bug独一贡献是改了PR题目,仍是没有处理。微软出名开源项目Runtime成了吃瓜现场,而是说了一大套来由论证本人的方案曾经无效处理了问题,让人无法再继续信赖个平台了,整个行时代码库中,不外Copilot还正在良多PR中当辅帮代码审核员,有几多AI是基于15年前的Stack Overflow谜底进行锻炼的,还好其实只是代码规范的小问题,智能体无法拜候所需的依赖项。独一的“贡献”其实是把题目给改了,避免抛出非常。
上一篇:抖音有明白无人曲