发布时间:2025-05-28 点此:4次
还好其实只是代码规范的小问题,斯蒂芬老哥也没当回事,直接请Copilot修复样式问题,并把测试挪到之前的文件中。
AI闯的祸还得AI自己收拾,Copilot尝试修复错误,还总结到“最初的修复方案过于激进”。
结果这位先进的AI智能体,直接被更原始的程序Bot打脸了:此操作被取消,后续步骤可能不包含预期的日志。
与其让真人花时间编写无法运行的代码,不如让计算机自己去编写无法运行的代码,至少提高了写无效代码的效率。
被折磨的也不是只有斯蒂芬一人,另一位员工埃瑞克还遇到手动关闭PR、删除分支之后,一回头Copilot又把分支恢复了,还改个标题请求老哥再审核。
Copilot给的方案居然是添加一个边界检查,当超出数组长度时返回“不匹配”,避免抛出异常。
Copilot有反应了,但没有给出新的解决方案,而是说了一大套理由论证自己的方案已经有效解决了问题,还是“优雅地”。
Copilot智能体的糟糕表现,围观的程序员一开始只是觉得好笑,但慢慢也开始思考对于整个行业来说意味着什么。
结合微软刚刚大裁员3%,还披露公司20%-30%的代码由AI生成这一消息,让人怀疑Copilot就是用来替代被裁掉的6000人的。
一位发者提出,有多少AI是基于15年前的Stack Overflow答案进行训练的,而这些答案已经不再代表当前的模式或推荐方法。
不过斯蒂芬老哥回复,使用Copilot不是公司强制性的要求,团队一直在实验AI工具以了解在当前和未来的局限性。
整个行时代码库中,Copilot自动修Bug成功合并代码的案例只找到两个,也都是合作的人类程序员反复提示修改后才成功。
原标题:《微软AI公开折磨微软员工,修Bug唯一贡献是改了PR标题,GitHub评论区成吃瓜现场》
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
相关推荐